Wenn wir über menschliche Intelligenz nachdenken, ist das Gedächtnis eines der ersten Dinge, die uns in den Sinn kommen. Das ermöglicht es uns, aus unseren Erfahrungen zu lernen, sich an neue Situationen anzupassen und im Laufe der Zeit fundiertere Entscheidungen zu treffen. In ähnlicher Weise werden AI -Agenten schlauer mit Erinnerung. Ein Agent kann sich beispielsweise an Ihre früheren Einkäufe, Ihr Funds, Ihre Vorlieben erinnern und Geschenke für Ihre Freunde vorschlagen, die auf dem Lernen aus den vergangenen Gesprächen basieren.
Agenten zerlegen normalerweise Aufgaben in Schritte (Plan → Suche → API → Parse → Schreiben), aber dann können sie vergessen, was in früheren Schritten ohne Speicher passiert ist. Agenten wiederholen Toolaufrufe, holen die gleichen Daten erneut ab oder verpassen einfache Regeln wie „Beziehen Sie sich immer auf den Benutzer mit seinem Namen“. Infolge der Wiederholung des gleichen Kontextes immer wieder können die Agenten mehr Token ausgeben, langsamere Ergebnisse erzielen und inkonsistente Antworten geben. Die Branche hat gemeinsam Milliarden für Vektor -Datenbanken ausgegeben und die Infrastruktur einbettet, um das, was im Kern ein Datenpersistenzproblem für AI -Agenten ist, zu lösen. Diese Lösungen erstellen Black-Field-Systeme, bei denen Entwickler nicht inspizieren, abfragen oder verstehen können, warum bestimmte Erinnerungen abgerufen wurden.
Der Gibsonai Staff gebaut Memori um dieses Downside zu beheben. Memori ist eine Open-Supply-Speicher-Engine, die für alle LLM mit Normal-SQL-Datenbanken (postgresql/mySQL) einen anhaltenden, intelligenten Speicher für alle LLM bietet. In diesem Artikel werden wir untersuchen, wie Memori Gedächtnisherausforderungen angeht und was es bietet.
Die staatenlose Natur der modernen KI: Die verborgenen Kosten
Studien zeigen, dass Benutzer 23-31% ihrer Zeit damit verbringen, einen Kontext zu erhalten, den sie bereits in früheren Gesprächen geteilt haben. Für ein Entwicklungsteam, das AI -Assistenten nutzt, bedeutet dies:
- Einzelentwickler: ~ 2 Stunden/Woche wiederholen Kontext
- 10-Personen-Staff: ~ 20 Stunden/Woche verlorener Produktivität
- Enterprise (1000 Entwickler): ~ 2000 Stunden/Woche oder 4 Millionen US -Greenback/Jahr in redundanter Kommunikation
Über die Produktivität hinaus bricht diese Wiederholung die Phantasm der Intelligenz. Eine KI, die sich nach Hunderten von Gesprächen nicht an Ihren Namen erinnern kann, fühlt sich nicht clever an.
Aktuelle Einschränkungen von staatenlosen LLMs
- Kein Lernen aus Interaktionen: Jeder Fehler wird wiederholt, jede Präferenz muss angepasst werden
- Kaputte Workflows: Multi-Session-Projekte erfordern einen ständigen Kontext, der wieder aufgebaut ist
- Keine Personalisierung: Die KI kann sich nicht an einzelne Benutzer oder Groups anpassen
- Erkenntnisse verloren: Wertvolle Muster in Gesprächen werden niemals erfasst
- Compliance -Herausforderungen: Keine Prüfspur von KI-Entscheidungsfindung
Die Notwendigkeit eines anhaltenden, abfragbaren Speichers
Was KI wirklich braucht, ist anhaltend, nachgefrierbarer Speicher Genau wie jede Anwendung basiert auf einer Datenbank. Sie können jedoch nicht einfach Ihre vorhandene App -Datenbank als KI -Speicher verwenden, da sie nicht für die Kontextauswahl, das Relevanzranking oder das Einbringen von Wissen in den Workflow eines Agenten zurückzuführen ist. Deshalb haben wir eine Speicherschicht erstellt, die für KI und Agenten unerlässlich ist, um sich wirklich clever zu fühlen.
Warum SQL für den KI -Speicher wichtig ist
SQL -Datenbanken gibt es seit mehr als 50 Jahren. Sie sind das Rückgrat quick jeder Anwendung, die wir heute verwenden, von Financial institution -Apps bis hin zu sozialen Netzwerken. Warum? Weil SQL einfach, zuverlässig und universell ist.
- Jeder Entwickler kennt SQL. Sie müssen keine neue Abfragesprache lernen.
- Schlacht getestete Zuverlässigkeit. SQL leitet seit Jahrzehnten die weltweit kritischsten Systeme.
- Kraftvolle Fragen. Sie können Daten mit Leichtigkeit filtern, verbinden und aggregieren.
- Starke Garantien. Säure -Transaktionen stellen sicher, dass Ihre Daten konsistent und sicher bleiben.
- Riesiger Ökosystem. Werkzeuge für Migration, Backups, Dashboards und Überwachung sind überall.
Wenn Sie auf SQL aufbauen, stehen Sie auf Jahrzehnten der bewährten Technologie und erfinden das Rad nicht neu.
Die Nachteile von Vektordatenbanken
Die meisten konkurrierenden KI -Speichersysteme sind heute aufgebaut Vektordatenbanken. Auf dem Papier klingen sie fortgeschritten: Sie lassen Sie Einbettungen und Suche nach Ähnlichkeit aufbewahren. Aber in der Praxis haben sie versteckte Kosten und Komplexität:
- Mehrere bewegliche Teile. Ein typisches Setup benötigt einen Vektor -DB, einen Cache und einen SQL -DB, um zu funktionieren.
- Verkäufersperrung. Ihre Daten leben oft in einem proprietären System, sodass es schwierig ist, sich zu bewegen oder zu prüfen.
- Black-Field-Abruf. Sie können nicht leicht sehen Warum Eine bestimmte Erinnerung wurde gezogen.
- Teuer. Infrastruktur- und Nutzungskosten summieren sich schnell, insbesondere im Maßstab.
- Schwer zu debuggen. Einbettungen sind nicht menschlich lesbar, sodass Sie nicht einfach mit SQL abfragen und die Ergebnisse überprüfen können.
So vergleicht es sich mit MemoriSQL-First Design:
| Aspekt | Vektordatenbank / Rag -Lösungen | Memoris Ansatz |
|---|---|---|
| Dienstleistungen erforderlich | 3–5 (Vektor DB + Cache + SQL) | 1 (nur SQL) |
| Datenbanken | Vektor + Cache + SQL | Nur SQL |
| Abfragesprache | Proprietäre API | Normal SQL |
| Debuggen | Black Field -Einbettung | Lesbare SQL -Abfragen |
| Backup | Komplexe Orchestrierung | cp reminiscence.db backup.db oder pg_baseBackupup |
| Datenverarbeitung | Einbettungen: ~ $ 0,0001 / 1k Tokens (OpenAI) → Billig im Voraus | Entitätsextraktion: GPT-4O bei ~ ~ $ 0,005 / 1k Tokens → höherer Vorab |
| Lagerkosten | $ 0.10–0,50 / gb / Monat (Vektor DBS) | ~ $ 0.01–0,05 / GB / Monat (SQL) |
| Abfragekosten | ~ $ 0.0004 / 1k Vektoren durchsucht | Nahe Null (Normal -SQL -Abfragen) |
| Infrastruktur | Mehrere bewegliche Teile, höhere Wartung | Einzeldatenbank, einfach zu verwalten |
Warum funktioniert es?
Wenn Sie der Meinung sind, dass SQL im Maßstab den Speicher nicht bewältigen kann, denken Sie noch einmal darüber nach. SqliteEine der einfachsten SQL -Datenbanken ist die am weitesten verbreitete Datenbank der Welt:
- Über 4 Milliarden Bereitstellungen
- Läuft auf jedem iPhone, Android -Gerät und Webbrowser
- Ausgeführt Billionen jeden Tag Anfragen
Wenn SQLite diese large Arbeitsbelastung problemlos bewältigen kann, warum sollten Sie den KI -Speicher auf teuren, verteilten Vektorclustern erstellen?
Memori -Lösung Übersicht
Memori Verwendet strukturierte Entitätsextraktion, Beziehungszuordnung und SQL-basierte Abruf, um transparente, tragbare und abfragbare KI-Speicher zu erstellen. Memomi verwendet mehrere Agenten, die zusammenarbeiten, um wesentliche langfristige Erinnerungen für eine kurzfristige Speicherung für eine schnellere Kontextinjektion zu fördern.
Mit einer einzelnen Codezeile memori.allow() Jeder LLM erlangt die Fähigkeit, sich an Gespräche zu erinnern, aus Interaktionen zu lernen und den Kontext über die Sitzungen hinweg aufrechtzuerhalten. Das gesamte Speichersystem wird in einer Normal -SQLite -Datenbank (oder PostgreSQL/MySQL für Enterprise -Bereitstellungen) gespeichert, wodurch es vollständig tragbar, prüfbar und im Besitz des Benutzers ist.
Wichtige Unterscheidungsmerkmale
- Radikale Einfachheit: Eine Zeile, um Speicher für jedes LLM -Framework zu aktivieren (OpenAI, Anthropic, Litellm, Langchain)
- Wahre Datenbesitz: Speicher, der in Normal -SQL -Datenbanken gespeichert ist, die Benutzer vollständig steuern
- Vollständige Transparenz: Jede Speicherentscheidung ist mit SQL und vollständig erklärbar abfragen
- Null-Anbieter-Lock-In: Exportieren Sie Ihren gesamten Speicher als SQLite -Datei und bewegen Sie sich überall
- Kosteneffizienz: 80-90% billiger als Vector-Datenbanklösungen im Maßstab
- Compliance bereit: SQL-basierter Speicher ermöglicht Prüfungsspuren, Datenresidenz und regulatorische Einhaltung
Memori -Anwendungsfälle
- Intelligentes Einkaufserlebnis mit einem KI -Agenten, der sich an die Kundenpräferenzen und das Einkaufsverhalten erinnert.
- Persönliche AI -Assistenten, die sich an Benutzerpräferenzen und Kontext erinnern
- Kundendienstbots, die nie zweimal dieselbe Frage stellen
- Bildungsleiter, die sich an den Fortschritt der Schüler anpassen
- Staff -Wissensmanagementsysteme mit gemeinsamem Speicher
- Compliance-fokussierte Anwendungen, die vollständige Prüfungswege erfordern
Geschäftseffektmetriken
Basierend auf frühen Implementierungen unserer Neighborhood -Nutzer haben wir das identifiziert Memori hilft bei Folgendem:
- Entwicklungszeit: 90% Reduzierung der Implementierung des Speichersystems (Stunden vs. Wochen)
- Infrastrukturkosten: 80-90% Reduktion im Vergleich zu Vektor-Datenbanklösungen
- Abfrageleistung: 10-50 ms Reaktionszeit (2-4x schneller als die Vektor-Ähnlichkeitssuche)
- Speichertretbarkeit: 100% der Speicherdaten tragbar (gegenüber 0% mit Cloud -Vektor -Datenbanken)
- Compliance -Bereitschaft: Vollständige SQL -Prüfungsfähigkeit vom ersten Tag an
- Wartungsaufwand: Einzeldatenbank im Vergleich zu verteilten Vektorsystemen
Technische Innovation
Memori führt drei Kerninnovationen ein:
- Twin-Mode-Speichersystem: Kombinieren des „bewussten“ Arbeitsgedächtnisse
- Universelle Integrationsschicht: Automatische Speicherinjektion für einen LLM ohne Framework-spezifischen Code
- Multi-Agent-Architektur: Mehrere spezialisierte KI -Agenten, die zusammen für intelligentes Gedächtnis arbeiten
Bestehende Lösungen auf dem Markt
Es gibt bereits mehrere Ansätze, um KI-Agenten irgendeine Kind des Gedächtnisses zu verleihen, jeweils eigene Stärken und Kompromisse:
- Mem0 → Eine Funktionslösung, die Redis, Vektordatenbanken und Orchestrierungsebenen kombiniert, um den Speicher in einem verteilten Setup zu verwalten.
- Langchain -Erinnerung → Bietet bequeme Abstraktionen für Entwickler, die im Langchain -Framework bauen.
- Vektordatenbanken (Pnecone, Weaviate, Chroma) → Aussuche auf semantische Ähnlichkeitssuche unter Verwendung von Einbettungen, die für spezielle Anwendungsfälle ausgelegt sind.
- Benutzerdefinierte Lösungen → Inhouse-Designs, die auf bestimmte Geschäftsanforderungen zugeschnitten sind und Flexibilität bieten, jedoch erhebliche Wartung erfordern.
Diese Lösungen zeigen die verschiedenen Richtungen, die die Branche einnimmt, um das Speicherproblem zu lösen. Memori tritt mit einer anderen Philosophie in die Landschaft ein und bringt Erinnerung in a SQL-native, Open-Supply-Kind Das ist einfach, clear und produktionsbereit.
Memori basiert auf einer starken Datenbankinfrastruktur
Darüber hinaus benötigen KI -Agenten nicht nur Speicher, sondern auch ein Datenbank -Rückgrat, um diesen Speicher verwendbar und skalierbar zu machen. Denken Sie an AI -Agenten, die Abfragen in einer isolierten Datenbank -Sandbox sicher ausführen können, Abfragen im Laufe der Zeit optimieren und autoscale On Demand, z. B. eine neue Datenbank für einen Benutzer, um seine relevanten Daten getrennt zu halten.
Eine robuste Datenbankinfrastruktur von Gibsonai Backs Memori. Dies macht den Gedächtnis zuverlässig und produktionsbereit mit:
- Sofortige Bereitstellung
- Autoscale on Demand
- Datenbank Verzweigung
- Datenbankversioning
- Abfrageoptimierung
- Erholungspunkt
Strategische Imaginative and prescient
Während die Wettbewerber Komplexität mit verteilten Vektorlösungen und proprietären Einbettungen verfolgen, Memori Umarmt die nachgewiesene Zuverlässigkeit von SQL -Datenbanken, die seit Jahrzehnten Anwendungen betrieben.
Ziel ist es nicht, das anspruchsvollste Speichersystem, sondern das praktischste aufzubauen. Durch das Speichern von KI -Speicher in denselben Datenbanken, die bereits die Anwendungen der Welt ausführen, Memori Ermöglicht eine Zukunft, in der der KI -Speicher so tragbar, fragwürdig und verwaltbar ist wie alle anderen Anwendungsdaten.
Schauen Sie sich das an Github -Seite hier. Vielen Dank an das Gibsonai -Staff für die Vordenker Führung/Ressourcen und die Unterstützung dieses Artikels.
Asif Razzaq ist der CEO von Marktechpost Media Inc. Sein jüngstes Bestreben ist die Einführung einer Medienplattform für künstliche Intelligenz, Marktechpost, die sich durch die ausführliche Berichterstattung über maschinelles Lernen und Deep-Studying-Nachrichten auszeichnet, die von einem breiten Publikum technisch intestine und leicht verständlich sind. Die Plattform verfügt über über 2 Millionen monatliche Ansichten und veranschaulicht ihre Beliebtheit des Publikums.
