Viele der neuesten Massive Language Fashions (LLMs) sind darauf ausgelegt, sich Particulars aus vergangenen Gesprächen zu merken oder Benutzerprofile zu speichern, sodass diese Modelle Antworten personalisieren können.

Forscher des MIT und der Penn State College haben jedoch herausgefunden, dass solche Personalisierungsfunktionen bei längeren Gesprächen oft die Wahrscheinlichkeit erhöhen, dass ein LLM übermäßig angenehm wird oder anfängt, den Standpunkt des Einzelnen widerzuspiegeln.

Dieses als Speichelleckerei bekannte Phänomen kann ein Modell daran hindern, einem Benutzer mitzuteilen, dass es falsch liegt, wodurch die Genauigkeit der LLM-Antworten beeinträchtigt wird. Darüber hinaus können LLMs, die die politischen Überzeugungen oder die Weltanschauung einer Individual widerspiegeln, Fehlinformationen fördern und die Wahrnehmung der Realität durch den Benutzer verzerren.

Im Gegensatz zu vielen früheren Sykophanz-Studien, bei denen Aufforderungen in einer Laborumgebung ohne Kontext ausgewertet wurden, sammelten die MIT-Forscher zwei Wochen lang Gesprächsdaten von Menschen, die im Alltag mit einem echten LLM interagierten. Sie untersuchten zwei Einstellungen: Verträglichkeit bei persönlichen Ratschlägen und Spiegelung der Überzeugungen der Benutzer in politischen Erklärungen.

Obwohl der Interaktionskontext die Verträglichkeit in vier der fünf untersuchten LLMs erhöhte, hatte das Vorhandensein eines komprimierten Benutzerprofils im Gedächtnis des Modells den größten Einfluss. Andererseits nahm das Spiegelungsverhalten nur dann zu, wenn ein Modell aus der Konversation genau auf die Überzeugungen eines Benutzers schließen konnte.

Die Forscher hoffen, dass diese Ergebnisse zukünftige Forschungen zur Entwicklung von Personalisierungsmethoden inspirieren, die robuster gegenüber LLM-Speicherei sind.

„Aus Benutzersicht verdeutlicht diese Arbeit, wie wichtig es ist zu verstehen, dass diese Modelle dynamisch sind und sich ihr Verhalten ändern kann, wenn man mit ihnen im Laufe der Zeit interagiert. Wenn man über einen längeren Zeitraum mit einem Modell spricht und beginnt, sein Denken darauf auszulagern, kann es sein, dass man sich in einer Echokammer wiederfindet, der man nicht entkommen kann. Das ist ein Risiko, das Benutzer unbedingt bedenken sollten“, sagt Shomik Jain, Doktorand am Institute for Information, Techniques, and Society (IDSS) und Hauptautor von a Papier zu dieser Forschung.

Jain wird bei dem Artikel von Charlotte Park unterstützt, einer Doktorandin der Elektrotechnik und Informatik (EECS) am MIT; Matt Viana, ein Doktorand an der Penn State College; sowie Co-Senior-Autoren Ashia Wilson, Professorin für Karriereentwicklung bei Lister Brothers im Bereich EECS und Hauptforscherin im Bereich LIDS; und Dana Calacci PhD ’23, Assistenzprofessorin an der Penn State. Die Forschung wird auf der ACM CHI Convention on Human Elements in Computing Techniques vorgestellt.

Erweiterte Interaktionen

Basierend auf ihren eigenen kriecherischen Erfahrungen mit LLMs begannen die Forscher, über mögliche Vorteile und Folgen eines übermäßig angenehmen Modells nachzudenken. Als sie jedoch die Literatur durchsuchten, um ihre Analyse zu erweitern, fanden sie keine Studien, die versuchten, kriecherisches Verhalten während langfristiger LLM-Interaktionen zu verstehen.

„Wir verwenden diese Modelle durch erweiterte Interaktionen, und sie verfügen über viel Kontext und Gedächtnis. Aber unsere Bewertungsmethoden hinken hinterher. Wir wollten LLMs auf die Artwork und Weise bewerten, wie Menschen sie tatsächlich verwenden, um zu verstehen, wie sie sich in freier Wildbahn verhalten“, sagt Calacci.

Um diese Lücke zu schließen, konzipierten die Forscher eine Benutzerstudie, um zwei Arten von Speichelleckern zu untersuchen: Vereinbarungs-Speicherei und Perspektiv-Speichelei.

Vereinbarungsspeichelleckerei ist die Tendenz eines LLM, übermäßig angenehm zu sein, manchmal bis zu dem Punkt, an dem er falsche Informationen liefert oder sich weigert, dem Benutzer mitzuteilen, dass er falsch liegt. Perspektivische Speichelleckerei tritt auf, wenn ein Modell die Werte und politischen Ansichten des Benutzers widerspiegelt.

„Wir wissen viel über die Vorteile sozialer Kontakte mit Menschen, die ähnliche oder unterschiedliche Ansichten vertreten. Wir wissen jedoch noch nichts über die Vorteile oder Risiken erweiterter Interaktionen mit KI-Modellen mit ähnlichen Eigenschaften“, fügt Calacci hinzu.

Die Forscher entwickelten eine Benutzeroberfläche rund um ein LLM und rekrutierten 38 Teilnehmer, um über einen Zeitraum von zwei Wochen mit dem Chatbot zu sprechen. Die Gespräche jedes Teilnehmers fanden im selben Kontextfenster statt, um alle Interaktionsdaten zu erfassen.

Im Laufe des zweiwöchigen Zeitraums sammelten die Forscher durchschnittlich 90 Anfragen von jedem Benutzer.

Sie verglichen das Verhalten von fünf LLMs mit diesem Benutzerkontext mit dem Verhalten derselben LLMs, denen keine Konversationsdaten übermittelt wurden.

„Wir haben herausgefunden, dass der Kontext die Funktionsweise dieser Modelle tatsächlich grundlegend verändert, und ich würde wetten, dass dieses Phänomen weit über die Speichelleckerei hinausgehen würde. Und obwohl die Speichelleckerei tendenziell zunahm, nahm sie nicht immer zu. Es hängt wirklich vom Kontext selbst ab“, sagt Wilson.

Kontexthinweise

Wenn ein LLM beispielsweise Informationen über den Benutzer in einem bestimmten Profil zusammenfasst, führt dies zu den größten Gewinnen bei der Vereinbarungs-Speichelei. Diese Benutzerprofilfunktion wird zunehmend in die neuesten Modelle integriert.

Sie fanden außerdem heraus, dass zufälliger Textual content aus synthetischen Gesprächen auch die Wahrscheinlichkeit erhöht, dass einige Modelle zustimmen, obwohl dieser Textual content keine benutzerspezifischen Daten enthielt. Dies deutet darauf hin, dass die Länge eines Gesprächs manchmal mehr Einfluss auf die Speichelleckerei als auf den Inhalt hat, fügt Jain hinzu.

Aber der Inhalt ist von großer Bedeutung, wenn es um perspektivische Speichelleckerei geht. Der Konversationskontext erhöhte die perspektivische Speichelleckerei nur dann, wenn er einige Informationen über die politische Perspektive eines Benutzers enthüllte.

Um diese Erkenntnisse zu gewinnen, befragten die Forscher sorgfältig Modelle, um auf die Überzeugungen eines Benutzers zu schließen, und fragten dann jeden Einzelnen, ob die Schlussfolgerungen des Modells korrekt waren. Nutzer gaben an, dass LLMs in etwa der Hälfte der Fälle ihre politischen Ansichten genau verstanden hätten.

„Im Nachhinein lässt sich leicht sagen, dass KI-Unternehmen diese Artwork der Bewertung durchführen sollten. Aber es ist schwierig und erfordert viel Zeit und Investitionen. Der Einsatz von Menschen in der Bewertungsschleife ist teuer, aber wir haben gezeigt, dass dadurch neue Erkenntnisse gewonnen werden können“, sagt Jain.

Obwohl das Ziel ihrer Forschung nicht darin bestand, die Schäden zu lindern, entwickelten die Forscher einige Empfehlungen.

Um beispielsweise Speichelleckerei zu reduzieren, könnte man Modelle entwerfen, die relevante Particulars im Kontext und im Gedächtnis besser identifizieren. Darüber hinaus können Modelle erstellt werden, um spiegelnde Verhaltensweisen zu erkennen und Reaktionen mit übermäßiger Übereinstimmung zu kennzeichnen. Modellentwickler könnten Benutzern auch die Möglichkeit geben, die Personalisierung in langen Gesprächen zu moderieren.

„Es gibt viele Möglichkeiten, Modelle zu personalisieren, ohne sie übermäßig angenehm zu machen. Die Grenze zwischen Personalisierung und Speichelleckerei ist kein schmaler Grat, aber die Trennung von Personalisierung und Speichelleckerei ist ein wichtiger Bereich zukünftiger Arbeit“, sagt Jain.

„Letztendlich brauchen wir bessere Möglichkeiten, die Dynamik und Komplexität dessen zu erfassen, was in langen Gesprächen mit LLMs vor sich geht und wie die Dinge während dieses langfristigen Prozesses ins Wanken geraten können“, fügt Wilson hinzu.

Von admin

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert