BOSTON – 19. Juni 2025 – Ataccama kündigte die Veröffentlichung eines Berichts des Enterprise Software Analysis Heart (BARC) an, „das steigende Imperativ für Datenbeobachtbarkeit“, in dem untersucht wird, wie Unternehmen aufgebaut – oder um das Aufbau – Vertrauen in moderne Datensysteme aufzubauen.
Basierend auf einer Umfrage unter mehr als 220 Daten- und Analyseführern in Nordamerika und Europa stellt der Bericht fest, dass 58% der Organisationen Datenbeobachtbarkeitsprogramme implementiert oder optimiert haben-Systeme, die Datenqualität und Pipeline-Probleme in Echtzeit überwachen-, sagen sie immer noch, dass sie den Ausgaben ihrer AI/ML-Modelle nicht vertrauen.
Die Ergebnisse spiegeln eine kritische Verschiebung wider. Adoption ist keine Barriere mehr. Die meisten Organisationen haben Instruments, um Pipelines zu überwachen und Datenrichtlinien durchzusetzen. Aber das Vertrauen in die KI bleibt schwer fassbar. Während 85% der Organisationen ihren BI -Dashboards vertrauen, sagen nur 58% für ihre KI/ML -Modellausgaben gleich. Die Lücke erweitert sich, da die Modelle zunehmend auf unstrukturierten Daten und Eingaben beruhen, dass herkömmliche Beobachtbarkeitstools nie zur Überwachung oder Validierung ausgelegt wurden.
Die Beobachtbarkeit wird häufig als reaktives, fragmentiertes und locker geregeltes Überwachungsschicht eingeführt, das symptomatisch für tiefere Probleme wie silige Groups oder unklare Besitzer. 51% der Befragten geben Fertigkeitslücken als Hauptsachen für die Beobachtbarkeitsreife an, gefolgt von Budgetbeschränkungen und mangelnden funktionsübergreifenden Ausrichtung. Die führenden Groups drängen es jedoch weiter und bitten die Beobachtbarkeit in das Entwerfen, Bereitstellen und Aufrechterhalten von Daten über Bereiche hinweg.Diese Programme kennzeichnen nicht nur Anomalien – sie lösen sie vorgelöst, häufig durch automatisierte Datenqualitätsprüfungen und Sanierungs Workflows, die die Abhängigkeit von manueller Triage verringern. Wenn die Beobachtbarkeit tief mit der automatisierten Datenqualität verbunden ist, erlangen die Groups mehr als die Sichtbarkeit: Sie gewinnen Vertrauen, dass die Daten, die ihren Modellen mit Strom versorgen, vertrauen.
„Die Datenbeobachtbarkeit ist zu einer geschäftskritischen Disziplin geworden, aber zu viele Organisationen stecken im Pilotgefängnis fest“, sagte Jay Limburn, Chief Product Officer bei Ataccama. „Sie haben in Instruments investiert, aber sie haben das Vertrauen nicht operationalisiert. Dies bedeutet, dass die Beobachtbarkeit in den vollständigen Datenlebenszyklus einbettet, von Einnahme und Pipeline-Ausführung bis hin zu ai-gesteuerten Konsum. Daher können Probleme auftauchen und gelöst werden, bevor sie die Produktion erreichen. Wir haben gesehen, dass diese. actual.“
Der Bericht unterstreicht auch, wie unstrukturierte Daten Beobachtbarkeitsstrategien umformen. Als die Einführung von Genai und Abruf-Augmented-Technology (RAG) arbeiten Unternehmen mit Eingaben wie PDFs, Bildern und Langform-Dokumenten-Objekte, die geschäftskritische Anwendungsfälle mit Strom versorgen, aber häufig außerhalb des Rahmens der traditionellen Qualitäts- und Validierungsprüfungen fallen. Weniger als ein Drittel der Organisationen füttern heute unstrukturierte Daten in KI -Modelle, und nur ein kleiner Teil derjenigen anwenden strukturierte Beobachtbarkeit oder automatisierte Qualitätsprüfungen auf diese Eingaben. Diese Quellen führen neue Risikoformen ein, insbesondere wenn Groups automatisierte Methoden fehlen, um sie in Echtzeit zu klassifizieren, zu überwachen und zu bewerten.
„Vertrauenswürdige Daten werden zu einem wettbewerbsfähigen Unterscheidungsmerkmal, und mehr Organisationen nutzen die Beobachtbarkeit, um sie aufzubauen und aufrechtzuerhalten“, sagte Kevin Petrie, Vizepräsidentin bei BarC. „Wir sehen eine Verschiebung: Führende Unternehmen überwachen nicht nur Daten, sie befassen sich mit dem vollständigen Lebenszyklus von KI/ML -Eingaben. Dies bedeutet, Qualitätsprüfungen zu automatisieren, Governance -Steuerelemente in Datenpipelines einzubeziehen und ihre Prozesse anzupassen, um dynamische unstrukturierte Objekte zu beobachten. Dieser Bericht entwickelt sich, dass sich die Beobachtbarkeit aus einer Nichnichpraxis in einem Mainstream -Erfordernis für ein Mainstream -Erfordernis nach Anmeldungen entwickelt.“
Die ausgereiftsten Programme schließen diese Lücke, indem sie die Beobachtbarkeit direkt in ihre Knowledge Engineering- und Governance -Frameworks integrieren. In diesen Umgebungen ist die Beobachtbarkeit nicht abgeblendet. Es arbeitet zusammen mit DataOPS-Automatisierung, MDM-Systemen und Datenkatalogen, um automatisierte Datenqualitätsprüfungen in jeder Part anzuwenden, was zu einer verbesserten Datenzuverlässigkeit, einer schnelleren Entscheidungsfindung und einem verringerten Betriebsrisiko führt.
