Der Agenten -KI -Sektor boomt, im Wert von über 5,2 Milliarden US -Greenback und wird voraussichtlich bis 2034 200 Milliarden US -Greenback erreichen. Wir treten in eine Ära ein, in der KI so alltäglich sein wird wie das Web, aber es gibt einen kritischen Fehler in seiner Stiftung. Die heutige KI-Revolution beruht auf massiven, krafthungrigen LLMs-ein Drawback, das SLMs für die Agenten-KI einzigartig positioniert sind, um sie zu lösen. Während LLMs von den menschlichen Fähigkeiten beeindruckend sind, übertrieben sie oft für spezielle Aufgaben, wie zum Beispiel einen Vorschlaghammer zum Knacken einer Nuss. Das Ergebnis? Himmelhohe Kosten, Energieabfälle und unterdrückte Innovation-Herausforderungen SLMs für agenten KI direkt ansprechen.

Aber es gibt einen besseren Weg. Nvidias Forschungsarbeit, Kleine Sprachmodelle sind die Zukunft der Agenten -KI zeigt, wie SLMS (kleine Sprachmodelle) einen intelligenteren, nachhaltigeren Weg nach vorne bieten. Lassen Sie uns in die Zukunft kleiner sind und wie SLMs die Zukunft von AI umformen.

Warum SLMS?

In der Zukunft geht es nicht um eine Brute-Pressure-Skala, sondern um die Intelligenz in der Größe.

– NVIDIA -Forschungspapier

Bevor wir verstehen warum Slms Lassen Sie uns zuerst verstehen, was genau ein SLM ist. Das Papier definiert es als ein Sprachmodell, das auf ein gemeinsames elektronisches Gerät für Unterhaltungsverfahren passen und eine Schlussfolgerung mit einer geringen Latenz ausführen kann, um für die Agentenanfragen eines einzelnen Benutzers praktisch zu sein. Ab 2025 umfasst dies im Allgemeinen Modelle mit weniger als 10 Milliarden Parametern.

Die Autoren des Papiers argumentieren, dass SLMs nicht nur eine praktikable Various zu LLMs sind. Sie sind in vielen Fällen eine überlegene. Sie legen einen überzeugenden Fall dar, der auf drei wichtigen Säulen basiert:

  1. SLMs sind leistungsstark genug
  2. SLMs sind wirtschaftlicher
  3. SLMs sind flexibler

Lassen Sie uns jedes dieser Argumente aufschlüsseln.

Die überraschende „Kraft“ von SLMs

Es ist leicht, SLMs als weniger fähig zu entlassen als ihre größeren Gegenstücke. Schließlich ist das Mantra „Größer ist besser“ eine treibende Kraft in der KI -Welt. Die jüngsten Fortschritte haben jedoch gezeigt, dass dies nicht mehr der Fall ist.

Intestine konzipierte SLMs können jetzt die Leistung von viel größeren Modellen für eine Vielzahl von Aufgaben erfüllen oder sogar übertreffen. Das Papier zeigt einige Beispiele hierfür, darunter:

  • Microsoft’s PHI -Serie: Das PHI-2-Modell mit nur 2,7 Milliarden Parametern erzielt mit 30-Milliarden-Parameter-Modellen, die etwa 15-mal schneller sind, mit nur 2,7 Milliarden Parametern mit 30-Milliarden-Parameter-Modellen. Das Phi-3-kleine Modell (7 Milliarden Parameter) ist noch beeindruckender, wobei die Ergebnisse des Sprachverständnisses, des gesunden Menschenverständnisses und der Codegenerierung mit den Modellen bis zum 10-fachen seiner Größe mithalten.
  • Nvidias Nemotron-H-Familie: Diese hybriden Mamba-Transformator-Modelle mit Größen zwischen 2 und 9 Milliarden Parametern erhalten die Anweisungen für die folgende und Code-Era-Genauigkeit, die mit einer dichten 30-Milliarden-Parameter-LLMs vergleichbar ist, zu einem Bruchteil der Inferenzkosten.
  • Die Smollm2 -Serie von Suggingface: Diese Familie von kompakten Sprachmodellen im Bereich von 125 Mio. bis 1,7 Milliarden Parametern kann mit der Leistung von 14 Milliarden Parametermodellen derselben Era und sogar 70 Milliarden Parametermodellen aus zwei Jahren übereinstimmen.

Dies sind nur einige Beispiele, aber die Nachricht ist klar: Wenn es um Leistung geht, ist die Größe nicht alles. Mit modernen Trainingstechniken, Aufforderung und Agentenvergrößerung können SLMs einen ernsthaften Schlag einfügen.

Lesen Sie auch: High 17 kleine Sprachmodelle (SLMs)

Der „wirtschaftliche“ Fall für die Kleinigkeit

Hier wird das Argument für SLMS wirklich überzeugend. In einer Welt, in der jeder Greenback zählt, sind die wirtschaftlichen Vorteile von SLMs einfach zu groß, um zu ignorieren.

  • Inferenzeffizienz: Das Servieren eines 7 -Milliarden -Parameters SLM ist 10- bis 30 -mal billiger als eine 70 bis 175 Milliarden Parameter LLM in Bezug auf Latenz, Energieverbrauch und Flops. Dies bedeutet, dass Sie Echtzeit-Agentenreaktionen im Maßstab erhalten können, ohne die Financial institution zu brechen.
  • Feinabstimmung Agilität: Müssen Sie ein neues Verhalten hinzufügen oder einen Fehler beheben? Mit einem SLM können Sie es in wenigen Stunden und nicht in Wochen tun. Dies ermöglicht eine schnelle Iteration und Anpassung, was in der heutigen schnelllebigen Welt von entscheidender Bedeutung ist.
  • Kanteneinsatz: SLMs können mit GPUs der Verbraucherqualität ausgeführt werden, was bedeutet, dass Sie in Echtzeit in Echtzeit-Offline-Agenteninferenz mit geringerer Latenz und stärkerer Datenkontrolle führen können. Dies eröffnet eine ganz neue Welt der Möglichkeiten für die KI für das Gerät.
  • Modulares Systemdesign: Anstatt sich auf ein einzelnes monolithisches LLM zu verlassen, können Sie eine Kombination aus kleineren, spezialisierten SLMs verwenden, um verschiedene Aufgaben zu erledigen. Dieser „LEGO-ähnliche“ Ansatz ist billiger, schneller zu debuggen, leichter zu entfernen und besser mit der operativen Vielfalt der realen Agenten ausgerichtet zu sein.

Wenn Sie alles hinzufügen, ist der wirtschaftliche Fall für SLMs überwältigend. Sie sind billiger, schneller und effizienter als ihre größeren Kollegen, was sie zur intelligenten Wahl für jede Organisation macht, die kostengünstige, modulare und nachhaltige AI-Agenten aufbauen möchte.

Warum eine „Größe“ nicht für alle passt

Die Welt ist kein einzigartiger Ort, und auch nicht die Aufgaben, die wir AI-Agenten auffordern, auszuführen. Hier glänzt die Flexibilität von SLMs wirklich.

Da sie kleiner und billiger sind, können Sie mehrere spezialisierte Expertenmodelle für verschiedene Agentenroutinen erstellen. Dadurch können Sie:

  • Sich an die sich entwickelnden Benutzerbedürfnisse anpassen: Müssen Sie ein neues Verhaltens- oder Ausgangsformat unterstützen? Kein Drawback. Einfach einen neuen SLM intestine abteilen.
  • Einhalten Sie sich ändernde Vorschriften: Vorschriften: Mit SLMs können Sie sich leicht an neue Vorschriften in verschiedenen Märkten anpassen, ohne ein massives, monolithisches Modell zu übernehmen.
  • Demokratisierung KI: Durch die Senkung der Eintrittsbarriere kann SLMS dazu beitragen, die KI zu demokratisieren und mehr Menschen und Organisationen zu ermöglichen, an der Entwicklung von Sprachmodellen teilzunehmen. Dies wird zu einem vielfältigeren und innovativen AI -Ökosystem führen.

Die Straße voraus: Überwindung der Hindernisse für die Adoption

Wenn der Fall für SLMS so stark ist, warum sind wir dann immer noch so besessen von LLMs? Das Papier identifiziert drei Hauptbarrieren für die Adoption:

  1. Vorabinvestition: Die KI -Industrie hat bereits Milliarden von Greenback in eine zentralisierte LLM -Inferenzinfrastruktur investiert, und es wird diese Investition nicht über Nacht aufgeben.
  2. Generalist Benchmarks: Die KI-Gemeinschaft hat sich in der Vergangenheit auf Generalist-Benchmarks konzentriert, die zu einer Verzerrung zu größeren, allgemeineren Modellen geführt haben.
  3. Mangel an Bewusstsein: SLMs erhalten einfach nicht das gleiche Maß an Advertising und machen die Aufmerksamkeit wie LLMs, was bedeutet, dass viele Menschen ihr Potenzial einfach nicht bewusst sind.

Dies sind jedoch keine unüberwindlichen Hindernisse. Da die wirtschaftlichen Vorteile von SLMs weiter bekannt werden und neue Werkzeuge und Infrastrukturen entwickelt werden, um sie zu unterstützen, können wir erwarten, dass sich eine allmähliche Abkehr von LLMs auf einen SLM-zentrierten Ansatz hinweg verzeichnet.

Der LLM-to-SLM-Konvertierungsalgorithmus

Das Papier bietet sogar eine Roadmap für diesen Übergang, einen sechsstufigen Algorithmus zum Umwandeln von Agentenanwendungen von LLMs zu SLMs:

  1. Sicherheitsdatenerfassung: Protokollieren Sie alle Aufrufe von Nicht-HCI-Agenten, um Eingabeingabeaufforderungen, Ausgabeantworten und andere relevante Daten zu erfassen.
  2. Datenkuration und Filterung: Entfernen Sie alle sensiblen Daten und bereiten Sie die Daten für die Feinabstimmung vor.
  3. Aufgabe Clustering: Identifizieren Sie wiederkehrende Muster von Anforderungen oder internen Agentenoperationen, um Kandidatenaufgaben für die SLM -Spezialisierung zu definieren.
  4. SLM -Auswahl: Wählen Sie die beste SLM für jede Aufgabe aus, basierend auf ihren Funktionen, Leistung, Lizenzierung und Bereitstellung von Fußabdruck.
  5. Spezialisierte SLM-Feinabstimmung: Fein der ausgewählten SLMs in den aufgabenspezifischen Datensätzen optimieren.
  6. Iteration und Verfeinerung: Um die SLMs und das Routermodell kontinuierlich mit neuen Daten zu übertragen, um die Leistung aufrechtzuerhalten und sich an die sich entwickelnden Nutzungsmuster anzupassen.

Dies ist ein praktischer, umsetzbarer Plan, mit dem jede Organisation heute die Vorteile von SLMs nutzen kann.

Lesen Sie auch: Slms vs llms

Abschluss

Die KI-Revolution ist hier, kann aber nicht nachhaltig mit energieintensiven LLMs skaliert werden. Die Zukunft wird stattdessen auf SLMs für agenten KI aufgebaut – klein, effizient und flexibel durch Design. Die Forschung von NVIDIA dient sowohl als Weckruf als auch als Roadmap. Damit kann die LLM-Besessenheit der Branche in Frage gestellt, während ein SLMS für die Agent-KI zu einem Bruchteil der Kosten vergleichbare Leistung liefern kann. Hier geht es nicht nur um Technologie, sondern darum, ein nachhaltigeres, gerechtem und innovativeres AI -Ökosystem zu schaffen. Die kommende Welle von SLMs für die Agent -KI wird sogar {Hardware} -Innovation vorantreiben. Nvidia entwickelt sich Berichten zufolge speziell für diese kompakten Kraftwerke optimiert.

Anu Madan ist ein Experte für Unterrichtsdesign, Inhaltsschreiben und B2B -Advertising mit einem Expertise, komplexe Ideen in wirkungsvolle Erzählungen zu verwandeln. Mit ihrem Fokus auf generative KI erstellt sie aufschlussreiche, progressive Inhalte, die ein sinnvolles Engagement erziehen, inspiriert und fördert.

Melden Sie sich an, um weiter zu lesen und Experten-Kuratinhalte zu genießen.

Von admin

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert