Bewertung der Bildqualität ohne Referenz (NR-IQA) Google
In diesem Artikel untersuchen wir das Downside der Bildqualitätsbewertung (IQA) und der Verbesserung durch maschinelles Lernen. Dieses Thema erregt seit langem große Aufmerksamkeit in der Computerintelligenz- und Bildverarbeitungsbranche, da für viele praktische Anwendungen, z. B. die Objekterkennung und -erkennung, Rohbilder in der Regel entsprechend verbessert werden müssen, um die visuelle Qualität (z. B. Sichtbarkeit und Kontrast) zu erhöhen ). Tatsächlich kann eine ordnungsgemäße Verbesserung die Qualität der Eingabebilder spürbar verbessern, sogar besser als ursprünglich aufgenommene Bilder, von denen allgemein angenommen wird, dass sie die beste Qualität haben. In dieser Arbeit präsentieren wir zwei der wichtigsten Beiträge. Der erste Beitrag besteht in der Entwicklung eines neuen No-Reference-Picture-High quality-Evaluation-Modells (NR-IQA). Ausgehend von einem Bild extrahiert unser Qualitätsmaß zunächst 17 Merkmale durch Analyse von Kontrast, Schärfe, Helligkeit und mehr und liefert dann mithilfe eines Regressionsmoduls ein Maß für die visuelle Qualität, das anhand von Massive-Knowledge-Trainingsstichproben erlernt wird, die viel größer sind als das Größe relevanter Bilddatensätze. Ergebnisse von Experimenten mit neun Datensätzen bestätigen die Überlegenheit und Effizienz unserer Blindmetrik im Vergleich zu typischen hochmodernen IQA-Methoden mit vollständiger, reduzierter und ohne Referenz. Der zweite Beitrag besteht darin, dass ein robustes Bildverbesserungs-Framework erstellt wird, das auf Qualitätsoptimierung basiert. Für ein Eingabebild führen wir unter Anleitung des vorgeschlagenen NR-IQA-Maßes eine Histogrammmodifikation durch, um die Bildhelligkeit und den Kontrast sukzessive auf ein geeignetes Niveau zu korrigieren. Ausführliche Exams zeigen, dass unser Framework natürliche Bilder, kontrastarme Bilder, Bilder bei wenig Licht und entschleierte Bilder intestine verbessern kann. Der Quellcode wird unter veröffentlicht https://…/publikationen.

Notfalltraining Google
Bei der Anwendung auf hochdimensionale Datensätze können Merkmalsauswahlalgorithmen immer noch Dutzende irrelevanter Variablen im Datensatz belassen. Daher müssen Klassifikatoren auch nach der Anwendung der Merkmalsauswahl auf das Vorhandensein irrelevanter Variablen vorbereitet sein. In diesem Artikel wird eine neue Trainingsmethode namens „Kontingenztraining“ untersucht, die sowohl die Genauigkeit als auch die Robustheit gegenüber irrelevanten Attributen erhöht. Das Notfalltraining ist klassifikatorunabhängig. Durch die Unterabtastung und das Entfernen von Informationen aus jeder Stichprobe werden eine Reihe von Einschränkungen geschaffen. Diese Einschränkungen unterstützen die Methode dabei, automatisch die richtige Wichtigkeitsgewichtung der Options des Datensatzes zu finden. Es werden Experimente mit dem Kontingenztraining durchgeführt, das auf neuronale Netze auf traditionelle Datensätze sowie auf Datensätze mit zusätzlichen irrelevanten Variablen angewendet wird. Bei allen Exams übertraf das Notfalltraining das unveränderte Coaching für Datensätze mit irrelevanten Variablen und übertraf es sogar leicht, wenn nur wenige oder keine irrelevanten Variablen vorhanden waren. …

Deduktron Google
Bei der vorliegenden Arbeit handelt es sich um eine Studie über wiederkehrende neuronale Netze (RNN), die durch das Fehlen von Beispielen motiviert ist, die einfach genug sind, um theoretisch gründlich verstanden zu werden, aber komplex genug, um realistisch zu sein. Wir haben ein Beispiel für strukturierte Daten erstellt, motiviert durch Probleme bei der Bild-zu-Textual content-Konvertierung (OCR), deren Dekodierung ein Langzeitgedächtnis erfordert. Bei unseren Daten handelt es sich um ein einfaches Schriftsystem, das die Zeichen „X“ und „O“ als obere Hälften kodiert, was aufgrund der Symmetrie der beiden Zeichen möglich ist. Die Zeichen können verbunden werden, wie in manchen Sprachen durch Kursivschrift, etwa im Arabischen (abjad). Die Zeichenfolge „XOOXXO“ kann als „${vee}{wedge}kern-1.5pt{wedge}{vee}kern-1.5pt{vee}{wedge}$“ codiert werden. Daraus folgt, dass wir möglicherweise die beliebig lange Vergangenheit kennen müssen, um ein aktuelles Zeichen zu entschlüsseln, und daher ein Langzeitgedächtnis benötigen. Anschließend haben wir ein RNN konstruiert, das in der Lage ist, auf diese Weise kodierte Sequenzen zu dekodieren. Anstatt durch Coaching haben wir unser RNN „durch Inspektion“ konstruiert, das heißt, wir haben seine Gewichte erraten. Dies umfasste eine Abfolge von Schritten. Wir haben ein herkömmliches Programm geschrieben, das die Sequenzen wie im obigen Beispiel dekodiert. Anschließend interpretierten wir das Programm als neuronales Netzwerk (das einzige uns bekannte Beispiel dieser Artwork). Schließlich haben wir dieses neuronale Netzwerk verallgemeinert, um eine neue RNN-Architektur zu entdecken, deren Beispiel unser handgefertigtes RNN ist. Es stellt sich heraus, dass es sich um ein dreischichtiges Netzwerk handelt, wobei die mittlere Schicht in der Lage ist, einfache logische Schlussfolgerungen durchzuführen; daher der Title „Deductron“. Es wird gezeigt, dass es möglich ist, unser Netzwerk durch simuliertes Annealing zu trainieren. Außerdem wird gezeigt, dass bekannte Varianten von Methoden des stochastischen Gradientenabstiegs (SGD) funktionieren. …

DBSCAN++ Google
DBSCAN ist ein klassisches dichtebasiertes Clustering-Verfahren mit enormer praktischer Relevanz. Es muss jedoch implizit die empirische Dichte für jeden Stichprobenpunkt berechnet werden, was im ungünstigsten Fall zu einer quadratischen Zeitkomplexität führt, die bei großen Datensätzen möglicherweise zu langsam ist. Wir schlagen DBSCAN++ vor, eine einfache Modifikation von DBSCAN, die nur die Berechnung der Dichten für eine Teilmenge der Punkte erfordert. Wir zeigen empirisch, dass DBSCAN++ im Vergleich zu herkömmlichem DBSCAN nicht nur eine konkurrenzfähige Leistung, sondern auch zusätzliche Robustheit im Bandbreiten-Hyperparameter bieten kann und dabei nur einen Bruchteil der Laufzeit in Anspruch nimmt. Wir stellen auch statistische Konsistenzgarantien vor, die den Kompromiss zwischen Rechenkosten und Schätzraten zeigen. Überraschenderweise können wir bis zu einem bestimmten Punkt die gleichen Schätzraten erzielen und gleichzeitig den Rechenaufwand senken. Dies zeigt, dass DBSCAN++ ein subquadratischer Algorithmus ist, der minimale optimale Raten für die Degree-Set-Schätzung erreicht, eine Qualität, die von unabhängigem Interesse sein kann. …

Von admin

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert