Im Gebäude Maschinelles Lernen Fashions waren eine Fähigkeit, die nur Datenwissenschaftler mit Kenntnis von Python beherrschen konnten. Low-Code-KI-Plattformen haben jedoch jetzt viel einfacher gemacht.
Jeder kann jetzt direkt ein Modell erstellen, es mit Daten verknüpfen und mit nur wenigen Klicks als Webdienst veröffentlichen. Vermarkter können jetzt Kundensegmentierungsmodelle entwickeln, Benutzerunterstützungsteams Chatbots implementieren und Produktmanager können den Prozess der Vorhersage von Verkäufen automatisieren, ohne Code schreiben zu müssen.
Trotzdem hat diese Einfachheit ihre Nachteile.
Ein Fehlstart in der Skala
Als ein mittelgroßes E-Commerce-Unternehmen sein erstes Modell für maschinelles Lernen einführte, ging es für die schnellste Route: eine Plattform mit niedrigem Code. Das Knowledge -Group erstellte schnell ein Produktempfehlungsmodell mit Microsoft Azure ML Designer. Es struggle nicht erforderlich, Codierung oder ein kompliziertes Setup zu kodieren, und das Modell lief in nur wenigen Tagen in Betrieb.
Beim Durchführen lief es intestine, empfahl relevante Produkte und die Aufrechterhaltung des Benutzerinteresses. Wenn jedoch 100.000 Menschen die App verwendeten, hatte sie Probleme. Reaktionszeiten verdreifacht sich. Empfehlungen wurden nur zweimal gezeigt oder sie erschienen überhaupt nicht. Schließlich stürzte das System ab.
Das Drawback struggle nicht das Modell, das verwendet wurde. Es struggle die Plattform.
Azure ML Designer und AWS Sagemaker -Leinwand sind so ausgelegt, dass sie schnell arbeiten. Dank seiner benutzerfreundlichen Drag & Drop-Instruments kann jeder maschinelles Lernen verwenden. Die Einfachheit, die es jedoch leicht macht, mit ihnen zu arbeiten, deckt auch ihre Schwächen ab. Instruments, die als einfache Prototypen beginnen, fehlen, wenn sie in die Produktion von hoher Handel versetzt werden, und dies geschieht aufgrund ihrer Struktur.
Die Phantasm der Einfachheit
Low-Code-KI-Instruments werden zu Menschen befördert, die keine Technologieexperten sind. Sie kümmern sich um die komplexen Teile der Datenvorbereitung, die Erstellung von Funktionen, die Schulung des Modells und verwenden es. Azure ML Designer ermöglicht es Benutzern, Daten zu importieren, eine Modellpipeline zu erstellen und die Pipeline als Webdienst bereitzustellen.
Eine abstrakte Idee ist jedoch sowohl positiv als auch negativ.
Ressourcenmanagement: begrenzt und unsichtbar
Die meisten Low-Code-Plattformen führen Modelle in voreingestellten Berechnungsumgebungen aus. Die Menge an CPU, GPU und Speicher, auf die Benutzer zugreifen können, ist nicht einstellbar. Diese Grenzen funktionieren in den meisten Fällen intestine, aber sie werden zu einem Drawback, wenn der Verkehr steigt.
Eine pädagogische Technologieplattform mit AWS Sagemaker Canvas hat ein Modell erstellt, das die Antworten der Schüler bei der Einreichung klassifizieren konnte. Während des Assessments funktionierte es perfekt. Als die Anzahl der Benutzer 50.000 erreichte, schlug der API -Endpunkt des Modells fehl. Es wurde festgestellt, dass das Modell auf einer grundlegenden Computerinstanz ausgeführt wurde, und die einzige Lösung zum Improve bestand darin, alle Workflows wieder aufzubauen.
Staatsmanagement: versteckt, aber gefährlich
Da Low-Code-Plattformen den Modellzustand zwischen den Sitzungen halten, können sie schnell testen, können jedoch bei der Verwendung im realen Leben riskant sein.
Ein Chatbot für den Einzelhandel wurde im Azure ML Designer erstellt, damit Benutzerdaten während jeder Sitzung verwaltet werden. Während des Testens hatte ich das Gefühl, dass die Erfahrung nur für mich gemacht wurde. In der Produktionsumgebung begannen die Benutzer jedoch, Nachrichten zu erhalten, die für jemand anderen gedacht waren. Das Drawback? Es wurde Informationen über die Sitzung des Benutzers gespeichert, sodass jeder Benutzer als Fortsetzung der zuvor behandelt wird.
Begrenzte Überwachung: Augenblinder in Maßstab verbunden
Low-Code-Systeme liefern grundlegende Ergebnisse wie Genauigkeit, AUC- oder F1-Rating. Dies sind jedoch Maßnahmen für das Testen, nicht für das Ausführen des Techniques. Erst nach Vorfällen entdecken die Groups, dass sie nicht verfolgen können, was in der Produktionsumgebung wesentlich ist.
Ein Logistik -Startup hat ein Nachfrageprognosemodell mit dem Azure ML -Designer implementiert, um die Routenoptimierung zu unterstützen. Alles struggle intestine, bis die Ferien eintrafen und die Anfragen zunahm. Die Kunden beklagten sich über langsame Antworten, aber das Group konnte nicht sehen, wie lange die API dauerte, um die Ursache für die Fehler zu reagieren oder zu finden. Das Modell konnte nicht geöffnet werden, um zu sehen, wie es funktionierte.

Skalierbares und nicht skalierbares Low-Code-Pipeline (Bild vom Autor)
Warum Low-Code-Modelle Probleme haben, große Projekte zu bewältigen
Low-Code-KI-Systeme können nicht skaliert werden, da ihnen die Schlüsselkomponenten starker maschineller Lernsysteme fehlen. Sie sind beliebt, weil sie schnell sind, aber dies ist mit einem Preis verbunden: den Kontrollverlust.
1. Ressourcengrenzen werden zu Engpässen
Modelle mit niedrigem Code werden in Umgebungen verwendet, in denen Grenzen für Computerressourcen festgelegt sind. Wenn die Zeit vergeht und mehr Menschen sie benutzen, verlangsamt sich das System oder stürzt sogar ab. Wenn sich ein Modell mit viel Verkehr befassen muss, werden diese Einschränkungen wahrscheinlich erhebliche Probleme verursachen.
2. Versteckter Staat schafft Unvorhersehbarkeit
Das Staatsmanagement ist normalerweise nicht etwas, das Sie in Plattformen mit niedrigem Code berücksichtigen müssen. Die Werte von Variablen gehen nicht von einer Sitzung zur anderen für den Benutzer verloren. Es ist zum Testen geeignet, wird jedoch unorganisiert, sobald mehrere Benutzer das System gleichzeitig anwenden.
3.. Schlechte Beobachtbarkeitsblöcke Debugging
Low-Code-Plattformen geben grundlegende Informationen (z. B. Genauigkeit und F1-Punktzahl), unterstützen jedoch nicht die Überwachung der Produktionsumgebung. Groups können keine API -Latenz, die Verwendung von Ressourcen oder die Eingabe der Daten erkennen. Es ist nicht möglich, die auftretenden Probleme zu erkennen.

KI-Skalierungsrisiken mit niedriger Code-eine geschichtete Ansicht (Bild des Autors)
Eine Liste von Faktoren, die bei der Skalierbarkeit von niedrig Code-Modellen berücksichtigt werden müssen
Low-Code bedeutet nicht automatisch, dass die Arbeit einfach ist, insbesondere wenn Sie wachsen möchten. Es ist wichtig, sich zu erinnern Skalierbarkeit Von Anfang an bei der Erstellung eines ML-Techniques mit Instruments mit niedrigem Code.
1. Denken Sie über Skalierbarkeit nach, wenn Sie das System zum ersten Mal entwerfen.
- Sie können Dienste nutzen, die automatisch skalieren, z. B. Azure Kubernetes-Service in Azure ML und Sagemaker-Pipelines in AWS.
- Vermeiden Sie Customary -Rechenumgebungen. Gehen Sie für Instanzen, die nach Bedarf mehr Speicher und CPU verarbeiten können.
2. Isolieren Sie das Staatsmanagement
- Stellen Sie sicher, dass Benutzerdaten nach jeder Sitzung gelöscht werden, um Sitzungsmodelle wie Chatbots zu verwenden.
- Stellen Sie sicher, dass Webdienste jede Anfrage unabhängig bearbeiten, sodass sie nicht versehentlich Informationen weitergeben.
3. Beobachten Sie Produktionsnummern sowie Modellnummern.
- Überwachen Sie die Antwortzeit Ihrer API, die Anzahl der fehlenden Anforderungen und die Ressourcen, die die Anwendung verwendet.
- Verwenden Sie PSI und KS-Rating, um herauszufinden, wann die Eingänge für Ihr System nicht Customary sind.
- Konzentrieren Sie sich nicht nur auf die Ergebnisse des Unternehmens, nicht nur auf die technischen Zahlen (Conversion -Raten und Umsatzauswirkungen).
4. Implementieren Sie Lastausgleich und automatische Skalierung
- Platzieren Sie Ihre Modelle als verwaltete Endpunkte mit Hilfe von Lastausgleichsern (Azure Kubernetes oder AWS ELB).
- Sie können die Richtlinien für die automatische Skalierung in Abhängigkeit von der CPU-Final, der Anzahl der Anforderungen oder der Latenz festlegen.
5. Variations- und Testmodelle kontinuierlich
- Stellen Sie sicher, dass jedes Modell jedes Mal eine neue Model erhalten, wenn es geändert wird. Vor der Veröffentlichung einer neuen Model an die Öffentlichkeit sollte sie in der Inszenierung überprüft werden.
- Führen Sie A/B -Assessments durch, um zu überprüfen, wie das Modell funktioniert, ohne die Benutzer zu stören.
Wenn Low-Code-Modelle intestine funktionieren
- Low-Code-Instruments haben keine signifikanten Mängel. Sie sind mächtig für:
- Schnelles Prototyping bedeutet, dass die Geschwindigkeit der stabilen Ergebnisse vorrangig ist.
- Analysen, die innerhalb des Techniques durchgeführt werden, wobei das Ausfallpotential minimal ist.
- Einfache Software program ist in Schulen wertvoll, da sie den Lernprozess beschleunigt.
Eine Gruppe von Menschen bei einem Startup im Gesundheitswesen hat ein Modell verwendet AWS Sagemaker Leinwand medizinische Abrechnungsfehler zu fangen. Das Modell wurde nur für die interne Berichterstattung erstellt, sodass es nicht skalieren musste und konnte leicht verwendet werden. Es struggle ein perfekter Fall für die Verwendung von Low-Code.
Abschluss
KI-Plattformen mit niedrigem Code bieten sofortige Intelligenz, da sie keine Codierung erfordern. Wenn das Geschäft jedoch wächst, werden seine Fehler aufgedeckt. Einige Probleme sind unzureichende Ressourcen, Informationen, die durch die Sichtbarkeit versetzt werden und eine begrenzte Sichtbarkeit eingeführt werden. Diese Probleme können nicht nur durch ein paar Klicks gelöst werden. Sie sind architektonische Probleme.
Überlegen Sie, ob es als Prototyp oder marktfähiges Produkt verwendet wird. Wenn letzteres, sollte Low-Code nur Ihr ursprüngliches Werkzeug sein, nicht die endgültige Lösung.