Im letzten Quartal des Jahres 2025 ist es an der Zeit, einen Schritt zurückzutreten und die Tendencies zu untersuchen, die Daten und KI im Jahr 2026 prägen werden.
Während sich die Schlagzeilen möglicherweise auf die neuesten Modellveröffentlichungen und Benchmark-Kriege konzentrieren, sind sie bei weitem nicht die transformativsten Entwicklungen vor Ort. Der eigentliche Wandel spielt sich in den Schützengräben ab – dort, wo Datenwissenschaftler, Daten- und KI-Ingenieure und KI/ML-Groups diese komplexen Systeme und Technologien für die Produktion aktivieren. Und es überrascht nicht, dass der Vorstoß zur Produktions-KI – und der daraus resultierende Gegenwind – das Schiff steuert.
Hier sind die zehn Tendencies, die diese Entwicklung bestimmen, und was sie für das letzte Quartal 2025 bedeuten.
1. „Daten- und KI-Führungskräfte“ sind auf dem Vormarsch
Wenn Sie in letzter Zeit auf LinkedIn waren, ist Ihnen möglicherweise ein verdächtiger Anstieg der Anzahl der Daten- und KI-Titel in Ihrem Newsfeed aufgefallen – sogar bei Ihren eigenen Teammitgliedern.
Nein, es gab keine Umstrukturierung, von der Sie nichts wussten.
Dabei handelt es sich bei denjenigen, die traditionell als Daten kategorisiert werden, größtenteils um eine freiwillige Änderung oder KI/ML-Experten, diese Verschiebung der Titel spiegelt eine Realität vor Ort wider, über die Monte Carlo seit quick einem Jahr diskutiert – Daten und KI sind nicht länger zwei getrennte Disziplinen.
Von den benötigten Ressourcen und Fähigkeiten bis hin zu den Problemen, die sie lösen: Daten und KI sind zwei Seiten einer Medaille. Und diese Realität hat nachweisbare Auswirkungen auf die Artwork und Weise, wie sich sowohl Groups als auch Technologien im Jahr 2025 weiterentwickelt haben (wie Sie bald sehen werden).
2. Conversational BI ist heiß – aber es braucht eine Temperaturprüfung
Datendemokratisierung ist in der einen oder anderen Kind seit quick einem Jahrzehnt im Development, und Conversational BI ist das neueste Kapitel in dieser Geschichte.
Der Unterschied zwischen Conversational BI und jedem anderen BI-Instrument besteht in der Geschwindigkeit und Eleganz, mit der es verspricht, diese utopische Imaginative and prescient umzusetzen – selbst den technisch am wenigsten versierten Domänenbenutzern.
Die Prämisse ist einfach: Wenn Sie danach fragen können, können Sie darauf zugreifen. Theoretisch ist es eine Win-Win-Scenario für Eigentümer und Nutzer gleichermaßen. Die Herausforderung liegt (wie bei allen Demokratisierungsbemühungen) nicht im Werkzeug selbst, sondern in der Zuverlässigkeit dessen, was Sie demokratisieren.
Das Einzige, was schlimmer als schlechte Erkenntnisse ist, sind schlechte Erkenntnisse, die schnell übermittelt werden. Wenn Sie eine Chat-Schnittstelle mit einer nicht verwalteten Datenbank verbinden, beschleunigen Sie nicht nur den Zugriff, sondern auch die Konsequenzen.
3. Context Engineering entwickelt sich zu einer Kerndisziplin
Die Inputkosten für KI-Modelle sind etwa 300-400x höher als die Outputs. Wenn Ihre Kontextdaten durch Probleme wie unvollständige Metadaten, nicht entferntes HTML oder leere Vektorarrays beeinträchtigt werden, wird Ihr Staff bei der Verarbeitung in großem Maßstab mit massiven Kostenüberschreitungen konfrontiert sein. Darüber hinaus ist auch ein verwirrter oder unvollständiger Kontext von großer Bedeutung KI-Zuverlässigkeit Das Downside besteht darin, dass mehrdeutige Produktnamen und eine schlechte Chunking-Aufteilung die Rechercheure verwirren, während kleine Änderungen an Eingabeaufforderungen oder Modellen zu dramatisch unterschiedlichen Ergebnissen führen können.
Kein Wunder additionally, dass Context Engineering Mitte des Jahres 2025 zum angesagtesten Schlagwort für Daten- und KI-Groups geworden ist. Context Engineering ist der systematische Prozess der Vorbereitung, Optimierung und Pflege von Kontextdaten für KI-Modelle. Groups, die die vorgelagerte Kontextüberwachung beherrschen – additionally einen zuverlässigen Korpus und Einbettungen sicherstellen, bevor teure Verarbeitungsaufgaben ausgeführt werden –, werden mit ihren KI-Modellen viel bessere Ergebnisse erzielen. Aber in einem Silo wird es nicht funktionieren.
Die Realität ist, dass die Sichtbarkeit der Kontextdaten allein die KI-Qualität nicht verbessern kann – und das auch nicht KI-Beobachtbarkeit Lösungen wie Auswertungen. Groups benötigen einen umfassenden Ansatz, der Einblick in die Scenario bietet gesamte System In Produktion – von den Kontextdaten bis zum Modell und seinen Ausgaben. Ein soziotechnischer Ansatz, der verbindet Daten + KI Gemeinsam ist der einzige Weg zu zuverlässiger KI im großen Maßstab.
4. Die Kluft zwischen KI-Enthusiasmus wird größer
Das Neueste MIT-Bericht hat alles gesagt. KI hat ein Wertproblem. Und die Schuld liegt – zumindest teilweise – beim Führungsteam.
„Wir haben immer noch viele Leute, die glauben, dass KI Magie ist, und die tun, was immer Sie wollen, ohne darüber nachzudenken.“
Das ist ein echtes Zitat und spiegelt eine gemeinsame Geschichte für Daten- und KI-Groups wider
- Eine Führungskraft, die die Technologie nicht versteht, gibt die Priorität vor
- Das Projekt bietet keinen Mehrwert
- Pilot wird verschrottet
- Spülen und wiederholen
Unternehmen geben Milliarden für KI-Pilotprojekte aus, ohne genau zu wissen, wo oder wie die KI die Auswirkungen erzielen wird – und sie hat nachweisbare Auswirkungen nicht nur auf die Leistung der Piloten, sondern auf die KI-Begeisterung insgesamt.
Die Wertschöpfung muss die erste, zweite und dritte Priorität sein. Das bedeutet, den Daten- und KI-Groups, die sowohl die Technologie als auch die Daten verstehen, die sie antreiben, die Autonomie zu geben, echte Geschäftsprobleme anzugehen – und die Ressourcen, um diese Anwendungsfälle zuverlässig zu machen.
5. Den Code für Agenten- und Agenten-Workflows knacken
Während die Ambitionen von Agenten in den letzten 18 Monaten die Hype-Maschine angeheizt haben, fand die semantische Debatte zwischen „agentischer KI“ und „Agenten“ diesen Sommer endlich auf dem heiligen Boden des Kommentarbereichs von LinkedIn statt.
Der Kern des Issues ist ein wesentlicher Unterschied zwischen der Leistung und den Kosten dieser beiden scheinbar identischen, aber überraschend unterschiedlichen Taktiken.
- Einzweckagenten sind Arbeitspferde für spezifische, klar definierte Aufgaben, bei denen der Umfang klar und die Ergebnisse vorhersehbar sind. Setzen Sie sie für konzentrierte, sich wiederholende Arbeiten ein.
- Agenten-Workflows Bewältigen Sie chaotische, mehrstufige Prozesse, indem Sie sie in überschaubare Komponenten aufteilen. Der Trick besteht darin, große Probleme in einzelne Aufgaben aufzuteilen, die kleinere Modelle bewältigen können, und dann größere Modelle zur Validierung und Aggregation der Ergebnisse zu verwenden.

Beispielsweise verwendet der Troubleshooting Agent von Monte Carlo einen Agenten-Workflow, um Hunderte von Subagenten zu orchestrieren, um die Grundursachen von Daten- und KI-Qualitätsproblemen zu untersuchen.
6. Die Einbettungsqualität steht im Vordergrund – und die Überwachung direkt dahinter
Im Gegensatz zu den Datenprodukten früherer Zeiten ist die KI in ihren verschiedenen Formen nicht von Natur aus deterministisch. Was reinkommt, ist nicht immer das, was rauskommt. In diesem Zusammenhang bedeutet die Entmystifizierung dessen, wie intestine aussieht, nicht nur die Messung der Ergebnisse, sondern auch der Systeme, des Codes und der Eingaben, die diese speisen.
Einbettungen sind ein solches System.
Wenn Einbettungen die semantische Bedeutung der Quelldaten nicht wiedergeben, erhält die KI unabhängig von der Leistung der Vektordatenbank oder des Modells den falschen Kontext. Genau aus diesem Grund wird die Einbettung von Qualität im Jahr 2025 zu einer geschäftskritischen Priorität.
Die häufigsten Einbettungsunterbrechungen sind grundlegende Datenprobleme: leere Arrays, falsche Dimensionalität, beschädigte Vektorwerte usw. Das Downside besteht darin, dass die meisten Groups diese Probleme erst entdecken, wenn eine Antwort vorliegt offensichtlich ungenau.
Ein Monte-Carlo-Kunde hat das Downside perfekt auf den Punkt gebracht: „Wir haben keinen Einblick in die Artwork und Weise, wie Einbettungen generiert werden, was die neuen Daten sind und wie sie sich auf den Trainingsprozess auswirken. Wir haben Angst davor, die Einbettungsmodelle zu wechseln, weil wir nicht wissen, wie sich eine Neuschulung darauf auswirkt. Müssen wir unsere Modelle, die diese Dinge verwenden, neu trainieren? Müssen wir komplett von vorne beginnen?“
Während Schlüsseldimensionen von Qualität und Leistung in den Fokus rücken, beginnen Groups, neue Überwachungsstrategien zu definieren, die die Einbettung in die Produktion unterstützen können; Dazu gehören unter anderem Faktoren wie Dimensionalität, Konsistenz und Vektorvollständigkeit.
7. Vektordatenbanken benötigen einen Realitätscheck
Vektordatenbanken sind für 2025 nichts Neues. Neu ist, dass Daten- und KI-Groups allmählich erkennen, dass die Vektordatenbanken, auf die sie sich verlassen haben, möglicherweise nicht so zuverlässig sind, wie sie dachten.
In den letzten 24 Monaten haben sich Vektordatenbanken (die Daten als hochdimensionale Vektoren speichern, die semantische Bedeutung erfassen) zur De-facto-Infrastruktur für RAG-Anwendungen entwickelt. Und in den letzten Monaten sind sie auch bei Daten- und KI-Groups zu einer Quelle der Bestürzung geworden.
Einbettungsdrift. Chunking-Strategien ändern sich. Einbettungsmodelle werden aktualisiert. All diese Veränderungen führen zu stillen Leistungseinbußen, die oft fälschlicherweise als Halluzinationen diagnostiziert werden – und führen dazu, dass Groups in teure Höhlen geschickt werden, um sie zu beheben.
Die Herausforderung besteht darin, dass den meisten Groups im Gegensatz zu herkömmlichen Datenbanken mit integrierter Überwachung der erforderliche Einblick in die Vektorsuche, Einbettungen und das Agentenverhalten fehlt, um Vektorprobleme zu erkennen, bevor sie sich auswirken. Dies wird wahrscheinlich zu einem Anstieg der Implementierung von Vektordatenbanküberwachungen sowie anderer Observability-Lösungen zur Verbesserung der Antwortgenauigkeit führen.
8. Führende Modellarchitekturen legen Wert auf Einfachheit vor Leistung
Die KI-Modell-Internet hosting-Landschaft konsolidiert sich um zwei klare Gewinner: Databricks und AWS Bedrock. Beide Plattformen sind erfolgreich, indem sie KI-Funktionen direkt in die bestehende Dateninfrastruktur einbetten, anstatt dass Groups völlig neue Systeme erlernen müssen.
Databricks überzeugt durch eine enge Integration zwischen Modelltraining, Bereitstellung und Datenverarbeitung. Groups können Modelle auf derselben Plattform optimieren, auf der sich ihre Daten befinden, wodurch die Komplexität der Datenverschiebung zwischen Systemen entfällt. Mittlerweile ist AWS Bedrock durch seine Breite und Sicherheit auf Unternehmensniveau erfolgreich und bietet Zugriff auf mehrere Basismodelle von Anthropic, Meta und anderen unter Einhaltung strenger Daten-Governance- und Compliance-Requirements.
Was führt dazu, dass andere zurückfallen? Fragmentierung und Komplexität. Plattformen, die umfangreiche kundenspezifische Integrationsarbeiten erfordern oder Groups zur Einführung völlig neuer Toolchains zwingen, verlieren gegenüber Lösungen, die in bestehende Arbeitsabläufe passen.
Groups entscheiden sich für KI-Plattformen aufgrund der betrieblichen Einfachheit und Datenintegrationsfunktionen und nicht aufgrund der reinen Modellleistung. Den Gewinnern ist klar, dass das beste Modell nutzlos ist, wenn es zu kompliziert für die zuverlässige Bereitstellung und Wartung ist.
9. Mannequin Context Protocol (MCP) ist das MVP
Mannequin Context Protocol (MCP) hat sich zum bahnbrechenden „USB-C für KI“ entwickelt – einem universellen Normal, der es KI-Anwendungen ermöglicht, sich ohne benutzerdefinierte Integrationen mit jeder Datenquelle zu verbinden.
Anstatt separate Konnektoren für jede Datenbank, jedes CRM oder jede API zu erstellen, können Groups ein Protokoll verwenden, um LLMs gleichzeitig Zugriff auf alles zu gewähren. Und wenn Modelle nahtlos auf mehrere Datenquellen zugreifen können, liefern sie schnellere und genauere Antworten.
Frühanwender berichten bereits von erheblichen Reduzierungen der Integrationskomplexität und des Wartungsaufwands, indem sie sich auf eine einzige MCP-Implementierung konzentrieren, die in ihrem gesamten Datenökosystem funktioniert.
Als Bonus standardisiert MCP auch Governance und Protokollierung – Anforderungen, die für die Unternehmensbereitstellung wichtig sind.
Aber erwarten Sie nicht, dass MCP statisch bleibt. Viele Daten- und KI-Verantwortliche gehen davon aus, dass innerhalb des nächsten Jahres ein Agent Context Protocol (ACP) auf den Markt kommen wird, das noch komplexere Kontext-Sharing-Szenarien abdeckt. Groups, die MCP jetzt einführen, werden auf diese Fortschritte vorbereitet sein, wenn sich der Normal weiterentwickelt.
10. Unstrukturierte Daten sind das neue Gold (aber ist es Narrengold?)
Die meisten KI-Anwendungen stützen sich auf unstrukturierte Daten – wie E-Mails, Dokumente, Bilder, Audiodateien und Help-Tickets – um den umfassenden Kontext bereitzustellen, der KI-Antworten nützlich macht.
Doch während Groups strukturierte Daten mit etablierten Instruments überwachen können, agierten unstrukturierte Daten lange Zeit im toten Winkel. Die herkömmliche Datenqualitätsüberwachung kann Textdateien, Bilder oder Dokumente nicht auf die gleiche Weise verarbeiten wie Datenbanktabellen.
Lösungen wie die unstrukturierte Datenüberwachung von Monte Carlo schließen diese Lücke für Benutzer, indem sie automatisierte Qualitätsprüfungen für Textual content- und Bildfelder in Snowflake, Databricks und BigQuery ermöglichen.
Künftig wird die unstrukturierte Datenüberwachung zum Normal gehören wie herkömmliche Datenqualitätsprüfungen. Organisationen werden umfassende Qualitätsrahmen implementieren, die alle Daten – strukturierte und unstrukturierte – als kritische Vermögenswerte behandeln, die eine aktive Überwachung und Governance erfordern.

Ich freue mich auf 2026
Wenn uns das Jahr 2025 bisher etwas gelehrt hat, dann ist es, dass die Groups, die mit KI gewinnen, nicht diejenigen mit den größten Budgets oder den auffälligsten Demos sind. Die Groups, die das KI-Rennen gewinnen, sind die Groups, die herausgefunden haben, wie sie zuverlässige, skalierbare und vertrauenswürdige KI in der Produktion bereitstellen können.
Gewinner entstehen nicht in einer Testumgebung. Sie werden in den Händen echter Benutzer hergestellt. Liefern Sie anpassbare KI-Lösungen, und Sie werden einen nachweisbaren KI-Wert liefern. So einfach ist das.
