RISE-Analyse Google
Beschrieben in Bodily, Nyland und Wiley (2017) . Automatisiert den Prozess der Identifizierung von Lernmaterialien, die das Lernen der Studierenden in technologiegestützten Kursen nicht effektiv unterstützen, indem Informationen über den Zugriff auf Kursinhalte und die Leistung bei Prüfungen zusammengefasst werden.
Das RISE (Useful resource Inspection, Choice, and Enhancement) Framework ist ein Rahmenwerk, das die kontinuierliche Verbesserung offener Bildungsressourcen (OER) unterstützt. Das Framework ist ein automatisierter Prozess, der Lernressourcen identifiziert, die bewertet und entweder eliminiert oder verbessert werden sollten. Dies ist besonders nützlich in OER-Kontexten, in denen die Urheberrechtsgenehmigungen von Ressourcen das Remixen, Bearbeiten und Verbessern von Inhalten ermöglichen. Das RISE-Framework stellt ein Streudiagramm mit der Ressourcennutzung auf der x-Achse und der Bewertung der mit dieser Ressource verbundenen Bewertungen auf der y-Achse dar. Dieses Streudiagramm ist in vier verschiedene Quadranten unterteilt (der Mittelwert jeder Variablen ist der Ursprung), um Ressourcen zu finden, die für eine Verbesserung in Frage kommen. Ressourcen, die sich tief in ihrem jeweiligen Quadranten (am weitesten vom Ursprung entfernt) befinden, sollten im Hinblick auf eine kontinuierliche Kursverbesserung weiter analysiert werden. Wir präsentieren eine Fallstudie, in der unser Framework mit einem Einführungskurs in die Wirtschaft angewendet wird. Aggregierte Ressourcennutzungsdaten wurden von Google Analytics und aggregierte Bewertungsdaten von einem On-line-Bewertungssystem gesammelt. Mithilfe des RISE-Frameworks haben wir erfolgreich Ressourcen, Zeiträume und Module im Kurs identifiziert, die im Hinblick auf Verbesserungen weiter evaluiert werden sollten. …

HyperFusion-Web Google
Die Erkennung auffälliger Objekte (SOD), die darauf abzielt, den wichtigsten Interessenbereich zu finden und das relevante Objekt/Ingredient in diesem Bereich zu segmentieren, ist eine wichtige, aber anspruchsvolle visuelle Aufgabe. Dieses Downside ist auf die Tatsache zurückzuführen, dass der Mensch Hauptszenenelemente mit hoher Priorität wahrzunehmen scheint. Daher ist die genaue Erkennung auffälliger Objekte in komplexen Szenen für die Mensch-Pc-Interaktion von entscheidender Bedeutung. In diesem Artikel stellen wir ein neuartiges Characteristic-Studying-Framework für SOD vor, in dem wir die SOD als pixelweises Klassifizierungsproblem darstellen. Das vorgeschlagene Framework verwendet ein dichtes hierarchisches Characteristic-Fusion-Netzwerk namens HyperFusion-Web, das automatisch den wichtigsten Bereich vorhersagt und die zugehörigen Objekte durchgängig segmentiert. Insbesondere, inspiriert vom menschlichen Wahrnehmungssystem und der Bildreflexionstrennung, zerlegen wir zunächst Eingabebilder durch inhaltserhaltende Transformationen in reflektierende Bildpaare. Dann werden die komplementären Informationen der reflektierenden Bildpaare gemeinsam von einem verwobenen Convolutional Neural Community (ICNN) extrahiert und hierarchisch mit einem hyperdichten Fusionsmechanismus kombiniert. Basierend auf den fusionierten Multiskalenmerkmalen bietet unsere Methode schließlich eine vielversprechende Möglichkeit zur Vorhersage von SOD. Wie unsere umfangreichen Experimente gezeigt haben, übertrifft die vorgeschlagene Methode andere hochmoderne Methoden bei sieben öffentlichen Datensätzen durchweg mit großem Abstand. …

Ludwig Google
Ludwig ist eine Toolbox, mit der Deep-Studying-Modelle trainiert und getestet werden können, ohne dass Code geschrieben werden muss. …

RedSync Google
Datenparallelität ist bereits zu einer dominanten Methode geworden, um das Coaching von Deep Neural Networks (DNN) auf mehrere Rechenknoten zu skalieren. In Anbetracht der Tatsache, dass die Synchronisierung des lokalen Modells oder Gradienten zwischen Iterationen ein Engpass für verteiltes Coaching im großen Maßstab sein kann, hat die Komprimierung des Kommunikationsverkehrs in letzter Zeit große Aufmerksamkeit erlangt. Unter mehreren kürzlich vorgeschlagenen Komprimierungsalgorithmen ist Residual Gradient Compression (RGC) einer der erfolgreichsten Ansätze – er kann die Nachrichtengröße erheblich komprimieren (0,1 % der ursprünglichen Größe) und dennoch die Genauigkeit beibehalten. Die Literatur zur Komprimierung tiefer Netzwerke konzentriert sich jedoch quick ausschließlich auf die Ermittlung einer guten Komprimierungsrate, während die Effizienz von RGC in der realen Implementierung weniger untersucht wurde. In diesem Artikel untersuchen wir das Potenzial der Anwendung der RGC-Methode im realen verteilten System. Wir haben ein RGC-Systemdesign namens RedSync vorgeschlagen, das auf das weit verbreitete Multi-GPU-System abzielt und eine Reihe von Optimierungen zur Reduzierung der Kommunikationsbandbreite bei gleichzeitig begrenztem Overhead enthält. Wir untersuchen die Leistung von RedSync auf zwei verschiedenen Multi-GPU-Plattformen, darunter einem Supercomputer und einem Multi-Card-Server. Unsere Testfälle umfassen Bildklassifizierungs- und Sprachmodellierungsaufgaben für die Datensätze Cifar10, ImageNet, Penn Treebank und Wiki2. Für DNNs mit einem hohen Verhältnis von Kommunikation zu Berechnung, die lange Zeit als schlecht skalierbar galten, zeigt RedSync eine deutliche Leistungsverbesserung. …

Von admin

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert