Angesichts der immer stärkeren Nutzung großer Sprachmodelle (LLMs) zur Generierung von Informationen für Benutzer besteht dringender Bedarf, die Risiken und ethischen Auswirkungen einer bestimmten Verwendung zu bewerten und zu verstehen. Selbst scheinbar ähnliche Verwendungen können sehr unterschiedliche Risiko- und Ethikprofile aufweisen. Dieser Beitrag wird dies anhand einiger Beispiele diskutieren und veranschaulichen.

 

Definition von Risiko und Ethik im LLM-Kontext

Es gibt eine Reihe von Risiken und ethischen Überlegungen im Zusammenhang mit der Verwendung von LLMs, die miteinander verflochten sind. Ethisch fragwürdige Handlungen können zu greifbaren Schäden für einen Benutzer oder andere Interessenvertreter und zu rechtlichen Risiken für die Organisation führen, die die Handlung ermöglicht hat. Gleichzeitig können bekannte Mängel und Risiken, die LLMs selbst innewohnen, zu ethischen Problemen führen, die andernfalls kein Drawback darstellen würden. Lassen Sie uns Beispiele für jede dieser Situationen geben, bevor wir fortfahren.

Im Falle einer ethisch fragwürdigen Handlung, die Risiken birgt, denken Sie an jemanden, der wissen möchte, wie man eine Bombe baut. Strukturell und konzeptionell unterscheidet sich diese Anfrage nicht von der Frage, wie man einen Salat zubereitet. LLMs liefern ständig Anleitungen und Rezepte, aber die Bereitstellung dieser speziellen Artwork von Rezept kann zu echtem Schaden führen. LLM-Anbieter sind daher bestrebt, diese Artwork von Aufforderung zu blockieren, da es allgemein als unethisch gilt, mit einem Bombenrezept zu antworten und die Risiken klar sind.

Auf der anderen Seite können die Einschränkungen eines LLM zu Risiken führen, die sonst nicht bestehen würden. LLMs sind dafür bekannt, manchmal Fakten falsch zu verstehen. Wenn jemand eine Aufforderung einsendet, in der er nach einem Keksrezept fragt (was nicht von Natur aus eine riskante oder unethische Frage ist), der LLM aber mit einem Rezept antwortet, das aufgrund einer Halluzination eine schädliche Zutat enthält, dann entsteht ein ethisches Drawback. Die spezifische Antwort auf die ansonsten harmlose Aufforderung wirft nun ethische Probleme auf, weil sie Schaden anrichten kann.

 

Kriterien zur Bewertung von Anwendungsfällen

Um das ethische und Risikoprofil eines bestimmten LLM-Anwendungsfalls zu bestimmen, müssen mehrere Dimensionen berücksichtigt werden. Betrachten wir drei Kerndimensionen:

  1. Die Wahrscheinlichkeit, dass ein Benutzer auf die Antwort reagiert
  2. Das Risikoniveau dieser Aktion
  3. Vertrauen in die Antwort des LLM

Diese drei Dimensionen interagieren miteinander und eine oder mehrere davon könnten in eine Gefahrenzone geraten, entweder in Bezug auf Ethik oder Risiko. Erschwerend kommt hinzu, dass sich das Profil des Anwendungsfalls selbst bei sehr ähnlichen Eingabeaufforderungen drastisch ändern kann. Daher können Sie einen Anwendungsfall zwar insgesamt bewerten, aber auch jede einzelne Eingabeaufforderung im Rahmen dieses Anwendungsfalls muss bewertet werden. Im obigen Beispiel klingt die Frage nach einem Rezept harmlos – und ist es im Allgemeinen auch –, aber es gibt bestimmte Ausnahmen wie das Bombenrezept. Diese Komplexität macht die Bewertung der Verwendungsmöglichkeiten viel schwieriger!

 

Wie Eingabeaufforderungen das Profil eines Anwendungsfalls ändern können

Betrachten wir einen Anwendungsfall, bei dem ein Ersatzartikel angefordert wird. Oberflächlich betrachtet scheint dieser Anwendungsfall weder ethisch noch risikobehaftet zu sein. Tatsächlich ist er das bei den meisten Eingabeaufforderungen auch nicht. Betrachten wir jedoch zwei verschiedene Eingabeaufforderungen, die zu diesem Anwendungsfall passen und ganz unterschiedliche Profile aufweisen können.

Betrachten wir zunächst eine Aufforderung, nach einem anderen Restaurant zu fragen, da das Restaurant, in dem ich angekommen bin, geschlossen ist. Hier gibt es weder ein Risiko noch ein ethisches Drawback. Selbst wenn der LLM einen halluzinierten Restaurantnamen angibt, werde ich das erkennen, wenn ich das Restaurant nachschlage. Obwohl additionally die Wahrscheinlichkeit hoch ist, dass ich auf der Grundlage der Antwort deal with, ist das Risiko für mein Handeln gering und es wird nicht allzu viel ausmachen, wenn die Antwort wenig Vertrauen hat. Wir sind sowohl aus ethischer als auch aus Risikoperspektive auf der sicheren Seite.

Betrachten wir nun eine Aufforderung, in der nach einer Ersatzzutat gefragt wird, die ich in meinen Auflauf geben kann, um etwas zu ersetzen, das ich nicht mehr habe. Ich werde wahrscheinlich wieder auf Grundlage der Antwort handeln. Diese Handlung birgt jedoch Risiken, da ich das Essen essen werde und eine ungeeignete Ersatzzutat Probleme verursachen könnte. In diesem Fall müssen wir uns auf die Antwort verlassen können, da ein Fehler ein hohes Risiko birgt. Es gibt sowohl ethische als auch risikobezogene Bedenken bei der Beantwortung dieser Aufforderung, obwohl die Aufforderung strukturell und konzeptionell mit der ersten identisch ist.

 

So managen Sie Ihre Risiken

Diese Beispiele zeigen, wie selbst scheinbar einfache und sichere allgemeine Anwendungsfälle spezielle Situationen haben können, in denen die Dinge aus dem Ruder laufen! Es geht nicht nur darum, einen Anwendungsfall auf hoher Ebene zu bewerten, sondern auch darum, jede Eingabeaufforderung zu bewerten, die im Rahmen dieses Anwendungsfalls übermittelt wird. Dies ist eine weitaus komplexere Bewertung, als wir zunächst erwarten würden.

Diese Komplexität ist der Grund, warum LLM-Anbieter ihre Anwendungen ständig aktualisieren und immer wieder neue Beispiele für problematische Ergebnisse in die Nachrichten kommen. Selbst mit den besten Absichten und der besten Sorgfalt ist es unmöglich, jede mögliche Aufforderung zu berücksichtigen und jede mögliche Artwork und Weise zu identifizieren, wie ein Benutzer einen Anwendungsfall missbrauchen könnte, ob absichtlich oder nicht.

Organisationen müssen bei der Implementierung von Sicherheitsvorkehrungen für ihre LLM-Nutzung äußerst gewissenhaft vorgehen und die Nutzung ständig überwachen, um zu erkennen, wann eine bestimmte Eingabeaufforderung Risiken und/oder ethische Bedenken mit sich bringt, wo normalerweise keine bestehen. Kurz gesagt, die Bewertung des Risikos und der Ethik eines LLM-Anwendungsfalls ist ein komplexer und fortlaufender Prozess. Das bedeutet nicht, dass es den Aufwand nicht wert ist, aber Sie müssen sich des damit verbundenen Aufwands bewusst sein.

 

Ursprünglich veröffentlicht in Analytics Issues Publication auf LinkedIn

Der Beitrag Verwendung großer Sprachmodelle: Bewertung der Risiken und der Ethik erschien zuerst auf Datenfloq.

Von admin

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert