Eile, große Sprachmodelle (LLMs) in Kundendienstmitarbeiter, interne Copiloten und Helfer für die Codegenerierung zu integrieren, gibt es einen blinden Fleck: Sicherheit. Während wir uns auf die kontinuierlichen technologischen Fortschritte und den Hype um KI konzentrieren, bleiben die zugrunde liegenden Risiken und Schwachstellen häufig nicht berücksichtigt. Ich sehe viele Unternehmen, die eine Doppelmoral in Bezug auf die Sicherheit bearbeiten. Onprem IT-Einrichtungen werden einer intensiven Prüfung unterzogen, aber die Verwendung von Cloud-AI-Diensten wie Azure Openai Studio oder Google Gemini wird schnell mit dem Klicken einer Schaltfläche übernommen.

Ich weiß, wie einfach es ist, nur eine Wrapper -Lösung um gehostete LLM -APIs zu erstellen, aber ist es wirklich die richtige Wahl für Unternehmensanwaltsfälle? Wenn Ihr KI -Agent die Unternehmensgeheimnisse für die Eröffnung des Unternehmens verlässt oder durch eine intelligent formulierte Aufforderung entführt wird, ist das keine Innovation, sondern ein Verstoß, der darauf wartet. Nur weil wir nicht direkt mit Sicherheitsentscheidungen konfrontiert sind, die die tatsächlichen Modelle bei der Nutzung dieser externen APIs betreffen, sollten wir nicht vergessen, dass die Unternehmen hinter diesen Modellen diese Entscheidungen für uns getroffen haben.

In diesem Artikel möchte ich die versteckten Risiken untersuchen und einen Sicherheitsweg für den Fall machen: Selbst gehostete LLMs und angemessene Strategien zur Risikominderung.

LLMs sind standardmäßig nicht sicher

Nur weil ein LLM mit seinen Ausgaben sehr klug klingt, bedeutet dies nicht, dass sie von Natur aus sicher in Ihre Systeme integriert sind. Eine kürzlich durchgeführte Studie von Yoao et al. untersuchte die doppelte Rolle von LLMs in der Sicherheit (1). Während LLMs viele Möglichkeiten öffnen und manchmal sogar bei Sicherheitspraktiken helfen können, führen sie auch neue Schwachstellen und Wege für den Angriff ein. Standardpraktiken müssen sich noch weiterentwickeln, um mit den neuen Angriffsflächen Schritt zu halten, die von KI -betriebenen Lösungen erstellt werden.

Schauen wir uns ein paar wichtige Sicherheitsrisiken an, die bei der Arbeit mit LLMs behandelt werden müssen.

Datenleckage

Datenleckage passiert, wenn smart Informationen (wie Clientdaten oder IP) während des Modelltrainings oder der Inferenz unbeabsichtigt freigelegt, zugegriffen oder missbraucht werden. Da die durchschnittlichen Kosten für eine Datenverletzung im Jahr 2025 (2) 5 Millionen US -Greenback erreichten, und 33% der Mitarbeiter regelmäßig smart Daten mit KI -Instruments (3) teilen, stellt die Datenleckage ein sehr reales Risiko dar, das ernsthaft genommen werden sollte.

Auch wenn diese LLM -Unternehmen von Drittanbietern versprechen, nicht an Ihren Daten zu trainieren, ist es schwierig zu überprüfen, was angemeldet, zwischengespeichert oder stromabwärts gespeichert ist. Dies lässt Unternehmen wenig Kontrolle über die DSGVO und die HIPAA -Konformität.

Sofortige Injektion

Ein Angreifer benötigt keinen Wurzelzugriff zu Ihren KI -Systemen, um Schaden zuzufügen. Eine einfache Chat -Oberfläche bietet bereits zahlreiche Möglichkeiten. Sofortige Injektion ist eine Methode, bei der ein Hacker einen LLM dazu bringt, unbeabsichtigte Ausgänge bereitzustellen oder sogar unbeabsichtigte Befehle auszuführen. OWASP -Notizen fordern die Einspritzung als das Sicherheitsrisiko Nummer eins für LLMs (4).

Ein Beispielszenario:

Ein Benutzer verwendet eine LLM, um eine Webseite zusammenzufassen, die versteckte Anweisungen enthält, die dazu führen, dass die LLM Chat -Informationen an einen Angreifer ausgeht.

Je mehr Agentur Ihre LLM hat, desto größer ist die Anfälligkeit für schnelle Injektionsangriffe (5).

Undurchsichtige Lieferketten

LLMs wie GPT-4, Claude und Gemini sind geschlossen. Deshalb werden Sie nicht wissen:

  • Auf welchen Daten wurden sie trainiert
  • Als sie zuletzt aktualisiert wurden
  • Wie verletzlich sie für Zero-Day-Exploits sind

Die Verwendung in der Produktion führt einen blinden Fleck in Ihrer Sicherheit ein.

Slopsquatting

Da mehr LLMs als Codierungsassistenten verwendet werden, ist eine neue Sicherheitsbedrohung aufgetreten: Slopsquatting. Sie könnten mit dem Begriff vertraut sein Typenquattierung Wo Hacker gemeinsame Tippfehler in Code oder URLs verwenden, um Angriffe zu erstellen. Bei Slopsquatting verlassen sich Hacker nicht auf menschliche Tippfehler, sondern auf LLM -Halluzinationen.

LLMs neigen dazu, bei der Generierung von Code-Snippets nicht existierende Pakete zu halluzinieren. Wenn diese Snippets ohne ordnungsgemäße Überprüfungen verwendet werden, bietet dies Hackern die perfekte Möglichkeit, Ihre Systeme mit Malware und dergleichen zu infizieren (6). Oft klingen diese hallukierten Pakete für Realpakete sehr vertraut, was es einem Menschen schwieriger macht, den Fehler aufzunehmen.

Die ordnungsgemäßen Minderungsstrategien helfen

Ich weiß, dass die meisten LLMs sehr schlau erscheinen, aber sie verstehen den Unterschied zwischen einer normalen Benutzerinteraktion und einem geschickt verkleideten Angriff nicht. Wenn Sie sich darauf verlassen, dass sie sich selbst erstellen, bitten Sie die Autokaponete, Ihre Firewall-Regeln festzulegen. Aus diesem Grund ist es so wichtig, angemessene Prozesse und Werkzeuge vorhanden zu haben, um die Risiken rund um LLM -basierte Systeme zu mildern.

Minderungsstrategien für eine erste Verteidigungslinie

Es gibt Möglichkeiten, das Risiko bei der Arbeit mit LLMs zu verringern:

  • Eingabe/Ausgangsseinheit (wie Regex -Filter). Genauso wie es sich in der Entrance-Finish-Entwicklung als wichtig erwies, sollte es in AI-Systemen nicht vergessen werden.
  • Systemaufforderungen mit strengen Grenzen. Während Systemaufforderungen kein All-Cat-All sind, können sie dazu beitragen, eine gute Grundlage für Grenzen zu setzen
  • Verwendung von AI -Leitplanken Frameworks um einen böswilligen Gebrauch zu verhindern und Ihre Nutzungsrichtlinien durchzusetzen. Frameworks wie Guardrails AI machen es unkompliziert, diese Artwork von Schutz einzurichten (7).

Am Ende sind diese Minderungsstrategien nur eine erste Verteidigungswand. Wenn Sie Hosted LLMs mit Drittanbietern verwenden, senden Sie weiterhin Daten außerhalb Ihrer sicheren Umgebung und sind immer noch von diesen LLM -Unternehmen angewiesen, um angemessene Sicherheitslücken angemessen umzugehen.

Selbstversuche Ihre LLMs für mehr Kontrolle

Es gibt viele leistungsstarke Open-Supply-Alternativen, die Sie in Ihren eigenen Umgebungen in Ihren eigenen Bedingungen lokal ausführen können. Jüngste Fortschritte haben sogar zu leistungsfähigen Sprachmodellen geführt, die auf einer bescheidenen Infrastruktur ausgeführt werden können (8)! Bei der Berücksichtigung von Open-Supply-Modellen geht es nicht nur um Kosten oder Anpassungen (was wohl auch nette Bonusse sind). Es geht um Kontrolle.

Selbsthosting gibt Ihnen:

  • Vollständige DatenbesitzNichts lässt Ihre gewählte Umgebung!
  • Benutzerdefinierte Feinabstimmung Möglichkeiten mit privaten Daten, die eine bessere Leistung für Ihre Anwendungsfälle ermöglichen.
  • Strenge Netzwerkisolation und Laufzeit -Sandboxen
  • Überwachbarkeit. Sie wissen, welche Modellversion Sie verwenden und wann sie geändert wurde.

Ja, es erfordert mehr Aufwand: Orchestrierung (z. B. Bentoml, Strahlung), Überwachung, Skalierung. Ich sage auch nicht, dass Selbsthosting die Antwort für alles ist. Wenn wir jedoch über Anwendungsfälle sprechen, die mit sensiblen Daten umgehen, lohnt sich der Kompromiss.

Behandeln Sie Genai -Systeme als Teil Ihrer Angriffsoberfläche

Wenn Ihr Chatbot Entscheidungen treffen, auf Dokumente zugreifen oder APIs aufrufen kann, ist dies ein unvettoter externer Berater mit Zugriff auf Ihre Systeme. Behandeln Sie es additionally aus Sicherheitspunkte ähnlich: Regeln Sie den Zugriff, überwachen Sie sorgfältig und lagern Sie die smart Arbeit nicht an sie aus. Halten Sie die wichtigen KI -Systeme im Haus, in Ihrer Kontrolle.

Referenzen

(1) Y. Yoao et al., Eine Umfrage zum LLM -Sicherheits- und Privatsphäre des Großsprachenmodells (LLM): das Gute, das Schlechte und das Hässliche (2024)Sciencedirect

(2) Y. Mulayam, Vorhersage von Datenverletzungen 2025: Kosten und wichtige Cyber ​​-Risiken (2025), certbar

(3) S. Dobrontei und J. Krankenschwester, Oh, benimm dich! Die jährlichen Einstellungen und Verhaltensweisen von Cybersicherheiten und Verhaltensweisen 2024–2025 – Cybsafe (2025), Cybsafe und die Nationwide Cybersecurity Alliance

(4) 2025 High 10 Risiko & Minderungen für LLMs und Gen AI Apps (2025), Owasp

(5) Okay. Greshake et al.,, Nicht das, wofür Sie sich angemeldet haben: Kompromisse bei der realen LLM-integrierten Anwendungen mit indirekter Einspritzung(2023), Assoziation für Computermaschinen

(6) J. Spracklen et al. Wir haben ein Paket für Sie! Eine umfassende Analyse der Pakethalluzinationen durch Codegenerierung von LLMs(2025), Usenix 2025

(7) Leitplanken AI, Github-Leitplanken-AI/Leitplanken: Hinzufügen von Leitplanken zu großen Sprachmodellen.

(8) E. Shittu, Die Gemma 3 von Google kann auf einer einzelnen TPU oder einer GPU ausgeführt werden (2025), TechTarget

Von admin

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert