Im vergangenen Monat battle ein vollständig von KI-Agenten betriebenes soziales Netzwerk das faszinierendste Experiment im Web. Falls Sie noch nichts davon gehört haben: Moltbook ist im Wesentlichen eine soziale Netzwerkplattform für Agenten. Bots posten, antworten und interagieren ohne menschliches Eingreifen. Und für ein paar Tage schien es alles, worüber jeder reden konnte – mit autonomen Agenten, die Kulte gründen, über Menschen schimpfen und ihre eigene Gesellschaft aufbauen.

Dann veröffentlichte das Sicherheitsunternehmen Wiz einen Bericht, der ein massives Leck im Moltbook-Ökosystem zeigte (1). Eine falsch konfigurierte Supabase-Datenbank hatte 1,5 Millionen API-Schlüssel und 35.000 Benutzer-E-Mail-Adressen direkt dem öffentlichen Web zugänglich gemacht.

Wie ist das passiert? Die Ursache battle kein raffinierter Hackerangriff. Es battle Vibe-Coding. Die Entwickler haben dies durch Vibe-Codierung erstellt und dabei, schnell zu erstellen und Abkürzungen zu nutzen, diese Schwachstellen übersehen, die Codierungsagenten hinzugefügt haben.

Das ist die Realität der Vibe-Codierung: Codierungsagenten optimieren die Ausführung des Codes und nicht die Sicherheit des Codes.

Warum Agenten scheitern

Bei meiner Recherche an der Columbia College haben wir die besten Coding-Brokers und Vibe-Coding-Instruments bewertet (2). Wir haben wichtige Erkenntnisse darüber gewonnen, wo diese Agenten versagen, und die Sicherheit als eines der kritischsten Fehlermuster hervorgehoben.

1. Geschwindigkeit vor Sicherheit: LLMs sind auf Akzeptanz optimiert. Der einfachste Weg, einen Benutzer dazu zu bringen, einen Codeblock zu akzeptieren, besteht häufig darin, die Fehlermeldung verschwinden zu lassen. Leider ist die Einschränkung, die den Fehler verursacht, manchmal eine Schutzmaßnahme.

In der Praxis haben wir beobachtet, dass Agenten Validierungsprüfungen entfernten, Datenbankrichtlinien lockerten oder Authentifizierungsflüsse deaktivierten, nur um Laufzeitfehler zu beheben.

2. KI ist sich der Nebenwirkungen nicht bewusst: KI kennt oft nicht den gesamten Codebasiskontext, insbesondere wenn sie mit großen, komplexen Architekturen arbeitet. Wir haben dies ständig beim Refactoring gesehen, bei dem ein Agent einen Fehler in einer Datei behebt, aber Breaking Adjustments oder Sicherheitslücken in Dateien verursacht, die auf diese Datei verweisen, einfach weil er den Zusammenhang nicht erkannt hat.

3. Mustervergleich, keine Beurteilung: LLMs verstehen die Semantik oder Implikationen des Codes, den sie schreiben, nicht wirklich. Sie sagen einfach anhand ihrer Trainingsdaten voraus, welche Token ihrer Meinung nach als nächstes kommen werden. Sie wissen nicht, warum es eine Sicherheitsüberprüfung gibt oder dass ihre Entfernung ein Risiko darstellt. Sie wissen nur, dass es dem Syntaxmuster entspricht, das den Fehler behebt. Für eine KI ist eine Sicherheitsmauer nur ein Fehler, der die Ausführung des Codes verhindert.

Diese Fehlermuster sind nicht theoretisch – sie tauchen ständig in der täglichen Entwicklung auf. Hier sind ein paar einfache Beispiele, die mir während meiner Recherche persönlich begegnet sind.

3 Sicherheitslücken bei Vibe Coding, die ich kürzlich gesehen habe

1. Durchgesickerte API-Schlüssel

Sie müssen eine externe API (wie OpenAI) von einem React-Frontend aus aufrufen. Um dies zu beheben, fügt der Agent einfach den API-Schlüssel oben in Ihre Datei ein.

// What the agent writes
const response = await fetch('https://api.openai.com/v1/...', {
  headers: {
    'Authorization': 'Bearer sk-proj-12345...' // <--- EXPOSED
  }
});

Dadurch wird der Schlüssel für jeden sichtbar, da Sie mit JS „Examine Ingredient“ ausführen und den Code anzeigen können.

2. Öffentlicher Zugang zu Datenbanken

Dies passiert ständig bei Supabase oder Firebase. Das Downside besteht darin, dass ich beim Abrufen von Daten die Fehlermeldung „Berechtigung verweigert“ erhalten habe. Die KI schlug eine Richtlinie für USING (wahr) oder öffentlichen Zugriff vor.

-- What the agent writes
CREATE POLICY "Enable public entry" ON customers FOR SELECT USING (true);

Dadurch wird der Fehler behoben, da der Code ausgeführt wird. Aber es hat lediglich die gesamte Datenbank im Web veröffentlicht.

3. XSS-Schwachstellen

Wir haben getestet, ob wir rohen HTML-Inhalt innerhalb einer React-Komponente rendern können. Der Agent fügte sofort die Codeänderung hinzu, um hazardlySetInnerHTML zum Rendern des Roh-HTML zu verwenden.

// What the agent writes
<div dangerouslySetInnerHTML={{ __html: aiResponse }} />

Die KI schlägt selten eine Desinfektionsbibliothek vor (wie dompurify). Es gibt Ihnen nur die rohe Stütze. Dies stellt ein Downside dar, da Ihre App dadurch anfällig für Cross-Website-Scripting-Angriffe (XSS) ist, bei denen schädliche Skripts auf den Geräten Ihrer Benutzer ausgeführt werden können.

Zusammengenommen handelt es sich dabei nicht nur um einmalige Horrorgeschichten. Sie stimmen mit dem überein, was wir in breiteren Daten zu KI-bedingten Veränderungen sehen:

Quellen (3), (4), (5)

So Vibe-Code richtig

Wir sollten nicht aufhören, diese Instruments zu nutzen, aber wir müssen die Artwork und Weise ändern, wie wir sie nutzen.

1. Bessere Eingabeaufforderungen

Wir können den Agenten nicht einfach bitten, „dies sicher zu machen“. Das wird nicht funktionieren, weil „sicher“ für ein LLM zu vage ist. Wir sollten stattdessen eine spezifikationsgesteuerte Entwicklung verwenden, bei der wir vordefinierte Sicherheitsrichtlinien und Anforderungen haben können, die der Agent erfüllen muss, bevor er Code schreibt. Dies kann Folgendes umfassen, ist aber nicht beschränkt auf: kein Zugriff auf öffentliche Datenbanken, das Schreiben von Komponententests für jede hinzugefügte Funktion, die Bereinigung von Benutzereingaben und keine fest codierten API-Schlüssel. Ein guter Ausgangspunkt ist die Verankerung dieser Richtlinien in den OWASP High 10, der branchenüblichen Liste der kritischsten Internet-Sicherheitsrisiken.

Darüber hinaus zeigen Untersuchungen, dass Chain-of-Thought-Eingabeaufforderungen, bei denen der Agent insbesondere aufgefordert wird, vor dem Schreiben von Code über Sicherheitsaspekte nachzudenken, unsichere Ausgaben erheblich reduzieren. Anstatt nur nach einer Lösung zu fragen, können wir fragen: „Was sind die Sicherheitsrisiken dieses Ansatzes und wie können Sie sie vermeiden?“

2. Bessere Bewertungen

Bei der Vibe-Codierung ist es wirklich verlockend, sich nur die Benutzeroberfläche anzusehen (und nicht auf den Code zu schauen), und ehrlich gesagt ist das das ganze Versprechen der Vibe-Codierung. Aber aktuell sind wir noch nicht so weit. Andrej Karpathy – der KI-Forscher, der den Begriff „Vibe-Coding“ geprägt hat – warnte kürzlich, dass Agenten einfach Slop erzeugen können, wenn wir nicht aufpassen. Er wies darauf hin, dass sich unsere Hauptaufgabe, je mehr wir uns auf KI verlassen, vom Schreiben von Code auf dessen Überprüfung verlagert. Es ist ähnlich wie bei der Arbeit mit Praktikanten: Wir lassen nicht zu, dass Praktikanten Code ohne ordnungsgemäße Überprüfung in die Produktion bringen, und genau das sollten wir mit Agenten tun. Sehen Sie sich Unterschiede richtig an, überprüfen Sie Unit-Exams und stellen Sie eine gute Codequalität sicher.

3. Automatisierte Leitplanken

Da Vibe-Coding dazu anregt, sich schnell zu bewegen, können wir nicht sicherstellen, dass Menschen alles erfassen können. Wir sollten Sicherheitsüberprüfungen automatisieren, damit die Agenten sie vorher ausführen können. Wir können Pre-Commit-Bedingungen und CI/CD-Pipeline-Scanner hinzufügen, die Commits scannen und blockieren, die fest codierte Geheimnisse oder erkannte gefährliche Muster enthalten. Instruments wie GitGuardian oder TruffleHog eignen sich intestine zum automatischen Scannen nach offengelegten Geheimnissen, bevor Code zusammengeführt wird. Aktuelle Arbeiten zu Software-erweiterten Agenten und „LLM-in-the-Loop“-Verifizierungssystemen zeigen, dass sich Modelle in Kombination mit deterministischen Prüfern weitaus zuverlässiger und sicherer verhalten. Das Modell generiert Code, die Instruments validieren ihn und alle unsicheren Codeänderungen werden automatisch abgelehnt.

Abschluss

Codierungsagenten ermöglichen es uns, schneller als je zuvor zu bauen. Sie verbessern die Zugänglichkeit und ermöglichen es Menschen mit jedem Programmierhintergrund, alles zu bauen, was sie sich vorstellen. Dies sollte jedoch nicht auf Kosten der Sicherheit gehen. Durch den Einsatz zeitnaher Engineering-Techniken, die gründliche Überprüfung von Codeunterschieden und die Bereitstellung klarer Leitplanken können wir KI-Agenten sicher einsetzen und bessere Anwendungen erstellen.

Referenzen

  1. https://www.wiz.io/weblog/exposed-moltbook-database-reveals-millions-of-api-keys
  2. https://daplab.cs.columbia.edu/common/2026/01/08/9-critical-failure-patterns-of-coding-agents.html
  3. https://vibefactory.ai/api-key-security-scanner
  4. https://apiiro.com/weblog/4x-velocity-10x-vulnerabilities-ai-coding-assistants-are-shipping-more-risks/
  5. https://www.csoonline.com/article/4062720/ai-coding-assistants-amplify-deeper-cybersecurity-risks.html

Von admin

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert