Beschönigen wir es nicht: Jedes Mal, wenn Sie mit einem Sprachmodell chatten, setzen Sie Ihre persönlichen Daten aufs Spiel. Aber laut a VERDRAHTET Artikel, es ist jetzt viel riskanter geworden. Eine Gruppe von Forschern der College of California, San Diego (UCSD) und der Nanyang Technological College in Singapur hat einen neuen Angriff aufgedeckt, der Ihre lockere Unterhaltung in eine Fundgrube für Hacker verwandeln könnte.

Lernen Sie Imprompter kennen

Dieser neue Angriff mit dem ominösen Namen „Imprompter“ durchforstet nicht nur Ihre Nachrichten – er schleicht sich ein, kratzt alles von Ihrem Namen bis zu Ihren Zahlungsdetails und sendet es direkt an einen Hacker, ohne dass Sie es überhaupt merken. Wie? Indem böswillige Anweisungen als Kauderwelsch getarnt werden, der für das menschliche Auge harmlos aussieht, aber wie ein Orientierungspunkt für smart Daten fungiert. Betrachten Sie es als den viel raffinierteren Cousin von Malware.

Entsprechend VERDRAHTETDen Forschern gelang es, diesen Angriff an zwei großen Sprachmodellen zu testen – LeChat von Mistral-KI und ChatGLM aus China – und stellten fest, dass sie persönliche Daten mit einer Erfolgsquote von quick 80 Prozent extrahieren konnten. Das ist nicht nur ein Fehler; Es handelt sich um eine umfassende Sicherheitslücke.

Ihr KI-Chatbot könnte Ihre Geheimnisse preisgeben
Imprompter funktioniert, indem es einfache englische Anweisungen in eine nicht entzifferbare Folge zufälliger Zeichen umwandelt

Wie funktioniert Imprompter?

Imprompter funktioniert, indem es einfache englische Anweisungen in eine nicht entzifferbare Folge zufälliger Zeichen umwandelt, die die KI anweisen, nach Ihren persönlichen Daten zu suchen. Anschließend werden diese Daten heimlich an den Server des Angreifers zurückgesendet, in eine URL verpackt und hinter einem transparenten 1×1-Pixel versteckt – für Sie völlig unsichtbar.

Wie Xiaohan Fu, der Hauptautor der Studie, es ausdrückte: „Wir verbergen das Ziel des Angriffs vor aller Augen.“ Die KI reagiert auf die versteckte Aufforderung, ohne dem Benutzer jemals einen Hinweis zu geben. Es ist, als würde man einem Einbrecher einen Banktresorcode geben, ohne zu merken, dass man überhaupt den Mund geöffnet hat.

Tun wir nicht so, als wäre dies ein isoliertes Downside. Seit ChatGPT von OpenAI auf den Plan getreten ist, ist der Wettlauf um die Ausnutzung von Schwachstellen in KI-Systemen unerbittlich. Von Jailbreaks bis hin zu sofortigen Injektionen sind Hacker immer einen Schritt voraus und finden Wege, KIs dazu zu bringen, vertrauliche Informationen preiszugeben. Imprompter ist nur die neueste Waffe in ihrem Arsenal – und leider eine besonders effektive.

Mistral AI teilte WIRED mit, dass die Sicherheitslücke bereits behoben wurde, und die Forscher bestätigten, dass das Unternehmen die Chat-Funktion deaktiviert habe, die den Exploit ermöglichte. Aber selbst mit dieser schnellen Lösung bleibt die umfassendere Frage: Wie sicher sind diese Systeme wirklich?

Ihr KI-Chatbot könnte Ihre Geheimnisse preisgeben
Jedes Mal, wenn Sie mit einem Sprachmodell chatten, erfährt es etwas über Sie

KI hört zu – und lernt

Sicherheitsexperten wie Dan McInerney von Defend AI schwenken die rote Fahne. Er weist darauf hin, dass der Spielraum für diese Angriffe nur noch größer wird, je stärker KI-Agenten in alltägliche Aufgaben wie die Buchung von Flügen oder den Zugriff auf externe Datenbanken integriert werden. „Die Veröffentlichung eines LLM-Agenten, der willkürliche Benutzereingaben akzeptiert, sollte als risikoreiche Aktivität betrachtet werden“, warnt McInerney. Mit anderen Worten: Je mehr Freiheit wir der KI geben, in unserem Namen zu handeln, desto größer ist das Sicherheitsrisiko.

Jedes Mal, wenn Sie mit einem Sprachmodell chatten, erfährt es etwas über Sie. Sicherlich hilft es, Antworten zu verfeinern, aber was passiert, wenn das System dazu verleitet wird, diese Daten als Waffe zu nutzen? Angriffe wie Imprompter verdeutlichen eine eklatante Schwäche in der KI-Welt: Diese Modelle sind so konzipiert, dass sie Anweisungen befolgen, ohne dass Fragen gestellt werden. Für böswillige Akteure ist es nur allzu leicht, sich unbemerkt einzuschleichen und die Konversation zu kapern, ohne jemals eine Alarmglocke zu hissen.

Wir müssen aufhören zu fragen, ob KI praktisch ist, und anfangen zu fragen, ob sie sicher ist. Denn derzeit ist die größte Schwäche der KI nicht mangelnde Innovation.

Wie Architects es in ihrem Lied perfekt ausdrücken: „Wir haben den Vampiren die Schlüssel zur Blutbank gegeben.“


Bildnachweis: Kerem Gülen/Midjourney

Von admin

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert