Die neueste Ergänzung, High quality Guard, bietet codefreie Bewertungsmetriken für große Sprachmodelle (LLMs) und GenAI-Anwendungen

Dataikudie Common AI Platform, gab heute den Begin ihrer bekannt LLM-Wachdienste Suite, die darauf ausgelegt ist, GenAI-Implementierungen in Unternehmen in großem Maßstab vom Proof-of-Idea bis zur vollständigen Produktion voranzutreiben, ohne Kompromisse bei Kosten, Qualität oder Sicherheit einzugehen. Dataiku LLM Guard Companies umfasst drei Lösungen: Price Guard, Protected Guard und die neueste Ergänzung, High quality Guard. Diese Komponenten sind in das integriert Dataiku LLM Meshdas umfassendste und agnostischste LLM-Gateway auf dem Markt, zum Erstellen und Verwalten von GenAI-Anwendungen der Enterprise-Klasse, die auch im Laufe der Zeit effektiv und related bleiben. Um mehr Transparenz, integrative Zusammenarbeit und Vertrauen in GenAI-Projekte zwischen unternehmensübergreifenden Groups zu fördern, bietet LLM Guard Companies ein skalierbares No-Code-Framework.

Heutige Unternehmensführer möchten weniger Instruments verwenden, um die Belastung durch die Skalierung von Projekten mit isolierten Systemen zu verringern. Laut einer aktuellen Studie verfügen 88 % jedoch nicht über spezifische Anwendungen oder Prozesse für die Verwaltung von LLMs Dataiku-Umfrage. LLM Guard Companies ist als vollständig integrierte Suite innerhalb der Dataiku Common AI Platform verfügbar und wurde entwickelt, um diese Herausforderung zu meistern und allgemeine Risiken beim Aufbau, Einsatz und der Verwaltung von GenAI im Unternehmen zu mindern.

„Während der KI-Hype-Zyklus seinen Lauf nimmt, ist die Aufregung von vor zwei Jahren heute Frustration gewichen, die an Ernüchterung grenzt. Das Drawback sind jedoch nicht die Fähigkeiten von GenAI, sondern seine Zuverlässigkeit“, sagte Florian Douetteau, CEO von Dataiku. „Damit die Technologie im Unternehmen ihr volles Potenzial entfalten kann, muss sichergestellt werden, dass GenAI-Anwendungen eine gleichbleibende Leistung in Bezug auf Kosten, Qualität und Sicherheit liefern. Als Teil der Dataiku Common AI-Plattform ist LLM Guard Companies effektiv bei der Finish-to-Finish-Verwaltung von GenAI-Rollouts von einem zentralen Ort aus, was dazu beiträgt, kostspielige Rückschläge und die Verbreitung nicht genehmigter „Schatten-KI“ zu vermeiden – die für die C- Suite, da sie für IT- und Datenteams geeignet sind.“

Dataiku LLM Guard Companies bietet Aufsicht und Sicherheit für die LLM-Auswahl und -Nutzung im Unternehmen und besteht aus drei Hauptpfeilern:

  • Kostenwächter: Eine dedizierte Kostenüberwachungslösung, die eine effektive Nachverfolgung und Überwachung der LLM-Nutzung in Unternehmen ermöglicht, um die Ausgaben im Vergleich zum Price range von GenAI besser vorherzusagen und zu verwalten.
  • Sicherer Schutz: Eine Lösung, die Anfragen und Antworten auf vertrauliche Informationen auswertet und die LLM-Nutzung mit anpassbaren Instruments sichert, um Datenmissbrauch und -lecks zu vermeiden.
  • Qualitätswächter: Die neueste Ergänzung der Suite, die Qualitätssicherung durch automatische, standardisierte, codefreie Bewertung von LLMs für jeden Anwendungsfall bietet, um die Antwortqualität zu maximieren und sowohl Objektivität als auch Skalierbarkeit in den Bewertungszyklus zu bringen.

Bisher waren Unternehmen, die GenAI einsetzen, gezwungen, benutzerdefinierte codebasierte Ansätze zur LLM-Bewertung zu verwenden oder separate, reine Punktlösungen zu nutzen. Mit der Dataiku Common AI Platform können Unternehmen jetzt schnell und einfach die GenAI-Qualität bestimmen und diesen wichtigen Schritt in den GenAI-Anwendungsfall-Erstellungszyklus integrieren. Durch die Verwendung von LLM High quality Guard können Kunden automatisch Normal-LLM-Bewertungsmetriken berechnen, einschließlich LLM-als-Richter-Techniken wie Antwortrelevanz, Antwortkorrektheit, Kontextgenauigkeit usw. sowie statistische Techniken wie BERT, Rouge und Bleu. und mehr, um sicherzustellen, dass sie das relevanteste LLM und den relevantesten Ansatz auswählen, um die GenAI-Zuverlässigkeit im Laufe der Zeit mit größerer Vorhersagbarkeit aufrechtzuerhalten. Darüber hinaus demokratisiert High quality Guard GenAI-Anwendungen, sodass jeder Stakeholder den Übergang von Proof-of-Idea-Experimenten zu unternehmenstauglichen Anwendungen mit einer einheitlichen Methodik zur Qualitätsbewertung nachvollziehen kann.

Melden Sie sich für die kostenlosen insideAI-Information an E-newsletter.

Begleiten Sie uns auf Twitter: https://twitter.com/InsideBigData1

Treten Sie uns auf LinkedIn bei: https://www.linkedin.com/firm/insideainews/

Begleiten Sie uns auf Fb: https://www.fb.com/insideAINEWSNOW



Von admin

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert