Systeme, das Verständnis der Benutzerabsicht ist insbesondere im Kundendienstbereich von grundlegender Bedeutung. In allen Unternehmensteams kommt es jedoch häufig zu Intent -Erkenntnissen in Silos, wobei jedes Crew die Pipelines für verschiedene Produkte maßgeschneiderte, von Behebungsassistenten bis hin zu Chatbots und Triage -Instruments ausgeben. Diese Redundanz verlangsamt die Innovation und macht die Skalierung zur Herausforderung.
Ein Muster in einem Gewirr von Systemen erkennen
Über KI -Workflows hinweg beobachteten wir ein Muster – viele Projekte, obwohl sie unterschiedliche Zwecke dienen, das Verständnis der Benutzereingabe und der Klassifizierung in Beschriftungen beinhaltete. Jedes Projekt befasste sich unabhängig mit einigen Variationen. Ein System könnte FAISS mit Minilm -Einbettungen und LLM -Zusammenfassungen für Trendthemen kombinieren, während eine andere gemischte Key phrase -Suche mit semantischen Modellen. Obwohl diese Pipelines einzeln wirksam, teilten sie die zugrunde liegenden Komponenten und Herausforderungen, was eine Hauptchance für die Konsolidierung darstellte.
Wir kartierten sie und stellten fest, dass sie alle auf dasselbe essentielle Muster verkochten – die Eingabe reinigen, in Einbettungen umwandeln, nach ähnlichen Beispielen suchen, die Ähnlichkeit bewerten und ein Etikett zuweisen. Sobald Sie das sehen, fühlt es sich offensichtlich an: Warum immer wieder das gleiche Sanitär wieder aufbauen? Wäre es nicht besser, ein modulares System zu erstellen, das verschiedene Groups für ihre eigenen Bedürfnisse konfigurieren könnten, ohne von vorne zu beginnen? Diese Frage hat uns auf den Weg zu dem gesetzt, was wir jetzt als Unified Intent Recognition Engine (UIRE) bezeichnen.
Als wir das erkannten, sahen wir eine Gelegenheit. Anstatt jedem Crew eine einmalige Lösung aufbauen zu lassen, konnten wir die Kernkomponenten, Dinge wie Vorverarbeitung, Einbettung und Ähnlichkeitsbewertung standardisieren, während jedes Produktteam genügend Flexibilität hinterlassen, um seine eigenen Etikettensätze, Geschäftslogik und Risikoschwellen zu stecken. Diese Idee wurde zur Grundlage des Uire -Frameworks.
Ein modulares Rahmen für die Wiederverwendung
Im Kern ist Uire eine konfigurierbare Pipeline, die aus wiederverwendbaren Teilen und projektspezifischen Plug-Ins besteht. Die wiederverwendbaren Komponenten bleiben konsistent – Textvorverarbeitung, Einbettungsmodelle, Vektorsuche und Bewertungslogik. Anschließend kann jedes Crew seine eigenen Etikettensätze, Routing -Regeln und Risikoparameter hinzufügen.
So sieht der Fluss normalerweise aus:
Eingabe → Vorverarbeitung → Zusammenfassung → Einbettung → Vektorsuche → Ähnlichkeitsbewertung → Beschriftung Matching → Routing
Wir haben Komponenten auf diese Weise organisiert:
- Wiederholbare Komponenten: Vorverarbeitungsschritte, Zusammenfassung (falls erforderlich), Einbettungs- und Vektor -Suchwerkzeuge (wie Minilm, Sbert, Faiss, Pinecone), Logik der Ähnlichkeitsbewertung, Schwellenwert -Tuning -Frameworks,.
- Projektspezifische Elemente: Benutzerdefinierte Intent-Beschriftungen, Schulungsdaten, geschäftsspezifische Routing-Regeln, Vertrauensschwellenwerte an das Risiko und optionale LLM-Zusammenfassungsentscheidungen.
Hier ist ein Bild, das dies darstellt:

Der Wert dieses Setups wurde quick sofort klar. In einem Fall haben wir eine vorhandene Pipeline für ein neues Klassifizierungsproblem wiederholt und in zwei Tagen zum Laufen gebracht. Das dauerte normalerweise quick zwei Wochen, wenn wir von Grund auf neu gebaut wurden. Mit diesem Vorsprung konnten wir mehr Zeit für die Verbesserung der Genauigkeit, die Identifizierung von Randfällen und das Experimentieren mit Konfigurationen verbringen, anstatt die Infrastruktur zu verkaufen.
Noch besser ist, dass diese Artwork von Design natürlich zukünftiger Beweise ist. Wenn ein neues Projekt mehrsprachige Unterstützung erfordert, können wir ein Modell wie Jina-Embeddings-V3 fallen lassen. Wenn ein anderes Produktteam Bilder oder Audio klassifizieren möchte, funktioniert der gleiche Vektor -Suchfluss auch dort, indem er das Einbettungsmodell ausgetauscht hat. Das Rückgrat bleibt gleich.
Ein Rahmen in ein lebendes Repository für kontinuierliches Wachstum verwandeln
Ein weiterer Vorteil eines einheitlichen Motors ist das Potenzial, ein gemeinsames, lebendes Repository zu bauen. Da verschiedene Groups das Framework übernehmen, können ihre Anpassungen, einschließlich neuer Einbettungsmodelle, Schwellenwertkonfigurationen oder Vorverarbeitungstechniken, zu einer gemeinsamen Bibliothek zurückgeführt werden. Im Laufe der Zeit würde diese kollektive Intelligenz ein umfassendes Toolkit für Unternehmensgrade von Greatest Practices erzeugen, die die Akzeptanz und Innovation beschleunigen.
Dies beseitigt einen häufigen Kampf von „Siled Methods“, der in vielen Unternehmen vorherrscht. Gute Ideen bleiben in einzelnen Projekten gefangen. Bei der gemeinsamen Infrastruktur wird es jedoch weitaus einfacher, zu experimentieren, voneinander zu lernen und das Gesamtsystem stetig zu verbessern.
Warum dieser Ansatz wichtig ist
Für große Organisationen mit mehreren laufenden KI -Initiativen bietet diese Artwork von modularem System viele Vorteile:
- Vermeiden Sie doppelte technische Arbeiten und reduzieren Sie die Wartungsaufwand
- Beschleunigen Sie Prototyping und Skalierung, da Groups vorgefertigte Komponenten mischen und anpassen können
- Lassen Sie sich die Groups darauf konzentrieren, was tatsächlich wichtig ist-Verbesserung der Genauigkeit, Verfeinerung von Randfällen und Feinabstimmungserlebnissen, nicht wieder aufgebrachte Infrastruktur
- Machen Sie es einfacher, sich in neue Sprachen, Geschäftsbereiche oder sogar Datentypen wie Bilder und Audio auszudehnen
Diese modulare Architektur entspricht intestine mit dem Weg zur Überschrift des KI -Methods. Forschung von Sung et al. (2023), Puig (2024) und Tang et al. (2023) unterstreicht den Wert von wiederverwendbaren Pipelines für Einbettungsbasis für die Absichtsklassifizierung. Ihre Arbeit zeigt, dass Systeme, die auf vektorbasierten Workflows basieren, skalierbarer, anpassungsfähiger und leichter zu pflegen sind als herkömmliche einmalige Klassifizierer.
Fortgeschrittene Funktionen für den Umgang mit den realen Szenarien
Natürlich folgen reale Gespräche selten saubere, einzelne Muster. Die Leute stellen chaotische, geschichtete, manchmal mehrdeutige Fragen. Hier scheint dieser modulare Ansatz wirklich, da es das Schichten in fortschrittlichen Handhabungsstrategien erleichtert. Sie können diese Funktionen einmal erstellen und sie können in anderen Projekten wiederverwendet werden.
- Erkennung mit mehreren Intenzen, wenn eine Abfrage mehrere Dinge gleichzeitig fragt
- Erkennung außerhalb des SCOPE, um unbekannte Eingaben zu kennzeichnen und sie an eine menschliche oder fallback-Antwort weiterzuleiten
- Leichte Erklärung durch Abrufen von Beispielen der nächsten Nachbarn im Vektorraum, um zu erklären, wie eine Entscheidung getroffen wurde
Funktionen wie diese helfen KI-Systemen, zuverlässig zu bleiben und die Reibung für Endbenutzer zu verringern, auch wenn die Produkte in immer unvorhersehbare Umgebungen mit hoher Varianz expandieren.
Gedanken schließen
Die Unified Intent Recognition Engine ist weniger ein verpacktes Produkt als vielmehr eine praktische Strategie für die Skalierung von KI clever. Bei der Entwicklung des Konzepts haben wir erkannt, dass die Projekte einzigartig sind, in verschiedenen Umgebungen eingesetzt werden und unterschiedliche Anpassungsstufen benötigen. Durch das Anbieten von vorgefertigten Komponenten mit unzähligen Flexibilität können die Groups schneller bewegen, redundante Arbeiten vermeiden und intelligentere, zuverlässigere Systeme liefern.
Nach unserer Erfahrung lieferten die Anwendungen dieses Setups aussagekräftige Ergebnisse – schnellere Bereitstellungszeiten, weniger Zeitverschwendung für redundante Infrastruktur und mehr Möglichkeiten, sich auf Genauigkeit und Randfälle mit großem Potenzial für zukünftige Fortschritte zu konzentrieren. Da sich die Produkte von KI weiterhin in Branchen vermehren, können solche Rahmenbedingungen zu wesentlichen Werkzeugen zum Aufbau skalierbarer, zuverlässiger und flexibler Systeme werden.
Über die Autoren
Shruti Tiwari ist eine KI -Produktmanagerin bei Dell Applied sciences, bei der sie AI -Initiativen leitet, um den Kundenunterstützung für den Unternehmen mit generativen KI, agentischen Frameworks und traditionellen KI zu verbessern. Ihre Arbeiten wurden in VentureBeat, CMswire und Product LED Alliance vorgestellt, und sie betreut Fachleute, um skalierbare und verantwortungsbewusste KI -Produkte zu bauen.
Vadiraj Kulkarni ist Datenwissenschaftlerin bei Dell Applied sciences und konzentriert sich auf den Aufbau und die Bereitstellung multimodaler KI -Lösungen für den Unternehmensservice für Unternehmen. Seine Arbeit erstreckt sich über generative KI, Agenten -KI und traditionelle KI, um die Unterstützungsergebnisse zu verbessern. Seine Arbeiten wurden auf VentureBeat über die Anwendung von Agentenrahmen in multimodalen Anwendungen veröffentlicht.
Referenzen:
- Sung, M., Gung, J., Manssimov, E., Pappas, N., Shu, R., Romeo, S., Zhang, Y. & Castelli, V. (2023). Voraussetzungsabsichten für die Klassifizierung von Zero- und Few-Shot-Absichten. Arxiv Preprint Arxiv: 2305.14827. https://arxiv.org/abs/2305.14827
- Puig, M. (2024). Klassifizierung der Mastering -Absicht mit Einbettungen: Zentroiden, neuronale Netzwerke und zufällige Wälder. Medium. https://medium.com/@marc.puig/mastering-intent-classification-with-embeding-34a4f92b63fb
- Tang, Y.-C., Wang, W.-Y., Yen, A.-Z., & Peng, W.-C. (2023). RSVP: Erkennung von Kundenabsichten über die Kontrastive und generative Voraussetzung für Agenten und generativ. Arxiv Preprint Arxiv: 2310.09773. https://arxiv.org/abs/2310.09773
- Jina ai Gmbh. (2024). Jina-Embeddings-V3 veröffentlicht: Ein mehrsprachiger Multitask-Textual content-Einbettungsmodell. Arxiv Preprint Arxiv: 2409.10173. https://arxiv.org/abs/2409.10173
