Weiche multivariate abgeschnittene Normalverteilung (weiche tMVN)
Wir schlagen eine neue Verteilung vor, die sogenannte weiche tMVN-Verteilung, die eine glatte Annäherung an die abgeschnittene multivariate Normalverteilung (tMVN) mit linearen Einschränkungen bietet. Es wird ein effizienter blockierter Gibbs-Sampler entwickelt, um Proben aus der weichen tMVN-Verteilung in hohen Dimensionen zu entnehmen. Wir liefern theoretische Unterstützung für die Approximationsfähigkeit des weichen tMVN und liefern weitere empirische Belege dafür. Die weiche tMVN-Verteilung kann verwendet werden, um Simulationen aus einer multivariaten abgeschnittenen Normalverteilung mit linearen Einschränkungen oder sich selbst als Prior bei formbeschränkten Problemen anzunähern. …
Batch Digital Adversarial Coaching (BVAT)
Wir präsentieren Batch Digital Adversarial Coaching (BVAT), eine neuartige Regularisierungsmethode für Graph Convolutional Networks (GCNs). BVAT behebt den Mangel von GCNs, die die Glätte der Ausgabeverteilung des Modells gegenüber lokalen Störungen um die Eingabe herum nicht berücksichtigen. Wir schlagen zwei Algorithmen vor, stichprobenbasiertes BVAT und optimierungsbasiertes BVAT, die geeignet sind, die Glätte des Modells für graphstrukturierte Daten zu fördern, indem sie entweder virtuelle kontradiktorische Störungen für eine Teilmenge von Knoten weit voneinander entfernt finden oder virtuelle kontradiktorische Störungen erzeugen für alle Knoten mit einem Optimierungsprozess. Umfangreiche Experimente mit drei Zitationsnetzwerk-Datensätzen Cora, Citeseer und Pubmed und einem Wissensgraphen-Datensatz Nell validieren die Wirksamkeit der vorgeschlagenen Methode, die modernste Ergebnisse bei den halbüberwachten Knotenklassifizierungsaufgaben liefert. …
Markov-Zufallsfeld (MRF)
Im Bereich der Physik und Wahrscheinlichkeit ist ein Markov-Zufallsfeld (oft als MRF abgekürzt), ein Markov-Netzwerk oder ein ungerichtetes grafisches Modell eine Menge von Zufallsvariablen mit einer Markov-Eigenschaft, die durch einen ungerichteten Graphen beschrieben wird. Ein Markov-Zufallsfeld ähnelt in seiner Darstellung von Abhängigkeiten einem Bayes’schen Netzwerk. Der Unterschied besteht darin, dass Bayes’sche Netzwerke gerichtet und azyklisch sind, während Markov-Netzwerke ungerichtet sind und zyklisch sein können. Somit kann ein Markov-Netzwerk bestimmte Abhängigkeiten darstellen, die ein Bayes’sches Netzwerk nicht darstellen kann (z. B. zyklische Abhängigkeiten); Andererseits kann es bestimmte Abhängigkeiten nicht darstellen, die ein Bayes’sches Netzwerk kann (z. B. induzierte Abhängigkeiten). …
Stoßen
Bumping ist ein einfacher Algorithmus, der Ihrem Klassifikator helfen kann, einem lokalen Minimal zu entkommen. Die Idee hinter dem Bumping besteht darin, dass wir die Symmetrie des Issues brechen (oder dem lokalen Minimal entkommen) können, indem wir einen Entscheidungsbaum auf einer zufälligen Teilstichprobe trainieren. Dies ähnelt dem Einpacken. Die Hoffnung besteht darin, dass es in der Teilstichprobe eine bevorzugte Aufteilung gibt, damit der Baum sie auswählen kann. Wir passen mehrere Bäume an verschiedene Bootstrap-Proben an (Probenahme mit Ersatz) und wählen den Baum mit der besten Leistung im gesamten Trainingssatz als Sieger aus. Je mehr Anstoßrunden wir machen, desto wahrscheinlicher ist es, dass wir entkommen. Es kostet allerdings auch mehr CPU-Zeit. …