Ich habe kürzlich einige interessante Gespräche über die Entwicklung von LLM-basierten Instruments für Endbenutzer geführt und eine der wichtigen Produktdesign-Fragen, die dabei aufgeworfen werden, lautet: „Was wissen die Leute über KI?“ Das ist wichtig, denn wie Ihnen jeder Produktdesigner sagen wird, müssen Sie den Benutzer verstehen, um erfolgreich etwas für ihn zu entwickeln. Stellen Sie sich vor, Sie erstellen eine Web site und gehen davon aus, dass alle Besucher fließend Mandarin sprechen, additionally schreiben Sie die Web site in dieser Sprache, aber dann stellt sich heraus, dass alle Ihre Benutzer Spanisch sprechen. Es ist so, denn obwohl Ihre Web site großartig sein magazine, haben Sie sie auf der Grundlage einer völlig falschen Annahme erstellt und dadurch die Wahrscheinlichkeit, dass sie erfolgreich ist, erheblich verringert.

Wenn wir additionally LLM-basierte Instruments für Benutzer entwickeln, müssen wir einen Schritt zurücktreten und uns ansehen, wie diese Benutzer LLMs denken. Zum Beispiel:

  • Sie wissen möglicherweise nicht wirklich, wie LLMs funktionieren
  • Sie sind sich möglicherweise nicht darüber im Klaren, dass den von ihnen bereits verwendeten Instruments LLMs zugrunde liegen
  • Sie haben möglicherweise unrealistische Erwartungen an die Fähigkeiten eines LLM, da sie bereits Erfahrungen mit sehr leistungsstarken Agenten gemacht haben
  • Möglicherweise empfinden sie Misstrauen oder Feindseligkeit gegenüber der LLM-Technologie
  • Aufgrund bestimmter früherer Erfahrungen können sie unterschiedlich viel Vertrauen in die Aussagen eines LLM haben
  • Sie erwarten möglicherweise deterministische Ergebnisse, auch wenn LLMs diese nicht bieten

Benutzerforschung ist ein unglaublich wichtiger Teil des Produktdesigns, und ich denke, es ist ein echter Fehler, diesen Schritt zu überspringen, wenn wir LLM-basierte Instruments entwickeln. Wir können nicht davon ausgehen, dass wir wissen, wie unsere spezielle Zielgruppe LLMs in der Vergangenheit erlebt hat, und wir können insbesondere nicht davon ausgehen, dass unsere eigenen Erfahrungen repräsentativ für ihre sind.

Benutzerprofile

Glücklicherweise gibt es zu diesem Thema einige gute Forschungsergebnisse, die uns als Orientierung dienen können. Einige Archetypen von Benutzerperspektiven finden sich im von entwickelten 4-Persona Framework Cassandra Jones-VanMieghem, Amanda Papandreou und Levi Dolan an der Indiana College Faculty of Medication.

Sie schlagen (im Kontext der Medizin, aber ich denke, dass sie verallgemeinerbar sind) diese vier Kategorien vor:

Unbewusster Benutzer (Weiß nicht/Egal)

  • Ein Benutzer, der nicht wirklich über KI nachdenkt und sie nicht als related für sein Leben ansieht, würde in diese Kategorie fallen. Sie hätten natürlich nur ein begrenztes Verständnis der zugrunde liegenden Technologie und wären nicht sehr neugierig, mehr herauszufinden.

Vermeidender Benutzer (KI ist gefährlich)

  • Dieser Benutzer hat insgesamt eine unfavourable Sicht auf KI und würde mit großer Skepsis und Misstrauen zu der Lösung kommen. Für diesen Benutzer könnte sich jedes KI-Produktangebot sehr nachteilig auf die Markenbeziehung auswirken.

KI-Fanatic (KI ist immer von Vorteil)

  • Dieser Benutzer hat hohe Erwartungen an KI – er ist von KI begeistert, aber seine Erwartungen sind möglicherweise unrealistisch. Benutzer, die erwarten, dass KI die ganze Plackerei übernimmt oder jede Frage mit perfekter Genauigkeit beantworten kann, könnten hierher passen.

Informierter KI-Benutzer (ermächtigt)

  • Dieser Benutzer hat eine realistische Perspektive und verfügt wahrscheinlich über ein allgemein hohes Maß an Informationskompetenz. Sie können eine „Vertrauen, aber überprüfen“-Strategie anwenden, bei der Zitate und Beweise für Behauptungen eines LLM für sie wichtig sind. Wie die Autoren angeben, greift dieser Benutzer nur dann auf KI zurück, wenn sie für eine bestimmte Aufgabe nützlich ist.

Aufbauend auf diesem Rahmen würde ich argumentieren, dass sowohl übermäßig optimistische als auch übermäßig pessimistische Standpunkte oft auf einem Mangel an Wissen über die Technologie beruhen, aber sie repräsentieren überhaupt nicht die gleiche Artwork von Benutzer. Die Kombination aus Informationsniveau und Stimmung (sowohl der Stärke als auch der qualitativen Natur) zusammen ergibt das Benutzerprofil. Meine Interpretation unterscheidet sich ein wenig von dem, was die Autoren vorschlagen, nämlich dass die Enthusiasten intestine informiert sind, denn ich würde tatsächlich argumentieren, dass unrealistische Erwartungen an die Fähigkeiten der KI oft auf mangelndem Wissen oder unausgewogenem Informationskonsum beruhen.

Das gibt uns viel Anlass zum Nachdenken, wenn es um die Gestaltung neuer LLM-Lösungen geht. Manchmal tappen Produktentwickler in die Falle und gehen davon aus, dass die Informationsebene die einzige Achse ist, und vergessen dabei, dass die gesellschaftliche Stimmung gegenüber dieser Technologie sehr unterschiedlich ist und ebenso großen Einfluss darauf haben kann, wie ein Benutzer diese Produkte erhält und erlebt.

Warum das passiert

Es lohnt sich, ein wenig über die Gründe für dieses breite Spektrum an Nutzerprofilen und insbesondere der Stimmung nachzudenken. Viele andere Technologien, die wir regelmäßig verwenden, lösen keine so große Polarisierung aus. LLMs und andere generative KI sind für uns relativ neu, das ist additionally sicherlich ein Teil des Issues, aber es gibt qualitative Aspekte der generativen KI, die besonders charakteristisch sind und einen Einfluss darauf haben können, wie Menschen reagieren.

Pinski und Benlian Ich habe einige interessante Arbeiten zu diesem Thema und stelle fest, dass Schlüsselmerkmale der generativen KI die Artwork und Weise verändern können, wie Forscher von Mensch-Pc-Interaktionen erwarten, dass diese Beziehungen funktionieren – ich empfehle dringend, ihren Artikel zu lesen.

Nichtdeterminismus

Da das Rechnen in den letzten Jahrzehnten zu einem Teil unseres täglichen Lebens geworden ist, konnten wir uns auf ein gewisses Maß an Reproduzierbarkeit verlassen. Wenn Sie auf eine Style klicken oder eine Style drücken, ist die Reaktion des Computer systems jedes Mal mehr oder weniger gleich. Dies vermittelt ein Gefühl der Vertrauenswürdigkeit, bei dem wir wissen, dass wir uns darauf verlassen können, dass diese Muster konsistent sind, wenn wir die richtigen Muster lernen, um unsere Ziele zu erreichen. Generative KI verstößt gegen diesen Vertrag, da die Ergebnisse nicht deterministisch sind. Der durchschnittliche Laie, der Technologie nutzt, hat wenig Erfahrung mit dem Konzept, dass der gleiche Tastendruck oder die gleiche Anfrage unerwartete und immer unterschiedliche Ergebnisse liefert, und dies bricht verständlicherweise das Vertrauen, das er sonst vielleicht hätte. Der Nichtdeterminismus hat natürlich einen sehr guten Grund, und sobald man die Technologie verstanden hat, ist dies nur ein weiteres Merkmal der Technologie, mit der man arbeiten kann, aber in einem weniger informierten Stadium könnte es problematisch sein.

Unergründlichkeit

Das ist eigentlich nur ein anderes Wort für „Black Field“. Die Natur neuronaler Netze, die einem Großteil der generativen KI zugrunde liegen, besteht darin, dass selbst diejenigen von uns, die direkt mit der Technologie arbeiten, nicht in der Lage sind, vollständig zu erklären, warum ein Modell „das tut, was es tut“. Wir können die Gewichtung jedes Neurons in jeder Schicht des Netzwerks nicht konsolidieren und erklären, weil es einfach zu komplex ist und zu viele Variablen enthält. Natürlich gibt es viele nützliche, erklärbare KI-Lösungen, die uns helfen können, die Hebel zu verstehen, die sich auf eine einzelne Vorhersage auswirken, aber eine umfassendere Erklärung der Funktionsweise dieser Technologien ist einfach nicht realistisch. Das bedeutet, dass wir ein gewisses Maß an Unerkennbarkeit akzeptieren müssen, was sowohl für Wissenschaftler als auch für neugierige Laien sehr schwer zu akzeptieren sein kann.

Autonomie

Der zunehmende Vorstoß, generative KI in halbautonome Agenten zu integrieren, scheint uns dazu zu bewegen, diese Instruments immer weniger unter Aufsicht und Kontrolle durch menschliche Benutzer laufen zu lassen. In manchen Fällen kann dies sehr nützlich sein, aber es kann auch Ängste hervorrufen. Angesichts dessen, was wir bereits darüber wissen, dass diese Werkzeuge nichtdeterministisch und nicht im Großen und Ganzen erklärbar sind, kann sich Autonomie gefährlich anfühlen. Wenn wir nicht immer wissen, was das Modell tun wird, und wir nicht vollständig verstehen, warum es das tut, was es tut, könnte man manchen Benutzern verzeihen, wenn sie sagen, dass es sich nicht um eine sichere Technologie handelt, die den Betrieb ohne Aufsicht ermöglicht. Wir arbeiten ständig an der Entwicklung von Bewertungs- und Teststrategien, um unerwünschtes Verhalten zu verhindern. Ein gewisses Risiko ist jedoch unvermeidbar, wie bei jeder probabilistischen Technologie. Auf der anderen Seite kann ein Teil der Autonomie der generativen KI zu Situationen führen, in denen Benutzer die Beteiligung der KI an einer bestimmten Aufgabe überhaupt nicht erkennen. Es kann im Verborgenen arbeiten, ohne dass der Benutzer sich seiner Anwesenheit bewusst ist. Dies ist Teil des viel größeren Problembereichs, bei dem KI-Ausgaben nicht mehr von Materials zu unterscheiden sind, das von Menschen organisch erstellt wurde.

Was das für das Produkt bedeutet

Das bedeutet natürlich nicht, dass die Entwicklung von Produkten und Instruments, die generative KI beinhalten, ein Kinderspiel ist. Das bedeutet, wie ich oft sage, dass wir sorgfältig prüfen sollten, ob generative KI für das vor uns liegende Downside oder die vor uns liegende Aufgabe intestine geeignet ist, und sicherstellen, dass wir sowohl die Risiken als auch die möglichen Vorteile berücksichtigt haben. Dies ist immer der erste Schritt – stellen Sie sicher, dass KI die richtige Wahl ist und dass Sie bereit sind, die Risiken zu akzeptieren, die mit ihrer Nutzung einhergehen.

Danach empfehle ich Produktdesignern Folgendes:

  • Führen Sie eine gründliche Benutzerrecherche durch. Finden Sie heraus, wie die oben beschriebenen Benutzerprofile in Ihrer Benutzerbasis verteilt sind, und planen Sie, wie das von Ihnen erstellte Produkt diese berücksichtigt. Wenn Sie einen erheblichen Anteil an Vermeidungsbenutzern haben, planen Sie eine Informationsstrategie, um den Weg zur Einführung zu ebnen, und erwägen Sie eine langsame Einführung, um einen Schock für die Benutzerbasis zu vermeiden. Wenn Sie andererseits viele Fanatic-Benutzer haben, stellen Sie sicher, dass Sie sich über die Grenzen der Funktionalität Ihres Instruments im Klaren sind, damit Sie nicht die Reaktion „Ihre KI ist scheiße“ bekommen. Wenn Menschen magische Ergebnisse von generativer KI erwarten und Sie diese nicht bieten können, weil Sie wichtige Sicherheits- und Funktionseinschränkungen einhalten müssen, dann wird dies ein Downside für Ihre Benutzererfahrung sein.
  • Erstellen Sie für Ihre Benutzer: Das magazine offensichtlich klingen, aber im Wesentlichen sage ich, dass Ihre Benutzerforschung nicht nur das Aussehen und die Haptik Ihres generativen KI-Produkts, sondern auch dessen tatsächliche Konstruktion und Funktionalität stark beeinflussen sollte. Sie sollten mit einer evidenzbasierten Sicht auf die technischen Aufgaben vorgehen, wozu dieses Produkt in der Lage sein muss und welche unterschiedlichen Herangehensweisen Ihre Benutzer möglicherweise haben.
  • Priorisieren Sie Bildung. Wie ich bereits erwähnt habe, wird es wichtig sein, Ihre Benutzer über die von Ihnen angebotene Lösung aufzuklären, unabhängig davon, ob sie positiv oder negativ reagieren. Manchmal gehen wir davon aus, dass die Leute es „einfach verstehen“ und können diesen Schritt überspringen, aber das ist ein Fehler. Um eine constructive Benutzererfahrung zu gewährleisten, müssen Sie die Erwartungen realistisch formulieren und Fragen, die möglicherweise von einem skeptischen Publikum kommen, präventiv beantworten.
  • Erzwinge es nicht. In letzter Zeit stellen wir fest, dass Softwareprodukte, die wir in der Vergangenheit gerne genutzt haben, generative KI-Funktionalität hinzufügen und diese zur Pflicht machen. Ich habe bereits darüber geschrieben, wie die Marktkräfte und die Muster der KI-Branche dies bewirkenaber das macht es nicht weniger schädlich. Sie sollten darauf vorbereitet sein, dass eine Gruppe von Benutzern, wie klein sie auch sein magazine, die Verwendung eines generativen KI-Instruments ablehnen möchte. Dies kann auf eine kritische Stimmung, Sicherheitsvorschriften oder einfach nur mangelndes Interesse zurückzuführen sein. Dies zu respektieren ist jedoch die richtige Entscheidung, um den guten Namen und die Beziehung Ihres Unternehmens zu diesem Benutzer zu wahren und zu schützen. Wenn Ihre Lösung nützlich, lohnenswert, intestine getestet und intestine kommuniziert ist, können Sie die Akzeptanz des Instruments im Laufe der Zeit vielleicht steigern, aber es den Leuten aufzuzwingen wird nicht helfen.

Abschluss

Im Grunde sind viele dieser Lektionen gute Ratschläge für alle Arten technischer Produktdesignarbeiten. Ich möchte jedoch betonen, wie sehr die generative KI die Artwork und Weise verändert, wie Benutzer mit Technologie interagieren, und welche bedeutende Veränderung sie für unsere Erwartungen darstellt. Daher ist es wichtiger denn je, dass wir den Nutzer und seine Ausgangslage genau unter die Lupe nehmen, bevor wir solche Produkte auf den Markt bringen. Wie viele Organisationen und Unternehmen auf die harte Tour lernen müssen, ist ein neues Produkt eine Probability, Eindruck zu hinterlassen, aber dieser Eindruck könnte genauso intestine schrecklich wie intestine sein. Ihre Möglichkeiten, zu beeindrucken, sind groß, aber auch Ihre Chancen, Ihre Beziehung zu Benutzern zu ruinieren, ihr Vertrauen in Sie zu zerstören und sich mit ernsthafter Schadensbegrenzungsarbeit auseinanderzusetzen. Seien Sie additionally am Anfang vorsichtig und gewissenhaft! Viel Glück!


Lesen Sie mehr über meine Arbeit unter www.stephaniekirmer.com.


Weiterführende Literatur

https://scholarworks.indianapolis.iu.edu/gadgets/4a9b51db-c34f-49e1-901e-76be1ca5eb2d

https://www.sciencedirect.com/science/article/pii/S2949882124000227

https://www.nature.com/articles/s41746-022-00737-z

https://www.researchgate.internet/profile/Muhammad-Ashraf-Faheem/publication/386330933_Building_Trust_with_Generative_AI_Chatbots_Exploring_Explainability_Priv acy_and_User_Acceptance/hyperlinks/674d7838a7fbc259f1a5c5b9/Constructing-Belief-with-Generative-AI-Chatbots-Exploring-Explainability-Privateness-and-Consumer-Acceptance.pdf

https://www.tandfonline.com/doi/full/10.1080/10447318.2024.2401249#d1e231

https://www.stephaniekirmer.com/writing/canwesavetheaieconomy

Von admin

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert