Stellen Sie sich vor, Sie chatten mit einem Freund, der immer da ist, nie müde und bereit zuzuhören. Das ist es, was AI -Chatbots für viele Menschen werden. Diese digitalen Begleiter schlüpfen in unser tägliches Leben. Aber was passiert, wenn wir uns zu sehr auf sie stützen? Eine kürzlich durchgeführte Studie von MIT und OpenAI beleuchtet die Auswirkungen verschiedener Chatbot -Designs und -nutzungsmuster. Die Ergebnisse bieten sowohl Benutzern als auch Entwicklern der AI -Technologie wertvolle Erkenntnisse. Lassen Sie uns mehr darüber erfahren!
Das Experiment
Die Studie wurde entwickelt, um herauszufinden, wie sich das Chatten mit KI auf die Gefühle und das soziale Leben der Menschen auswirkt. Es conflict nicht nur ein Gelegenheitstest-es conflict ein sorgfältig geplantes, vierwöchiges Experiment mit echten Menschen und echten Gesprächen.
Das Experiment dauerte 28 Tage – vier volle Wochen. Jedem Teilnehmer wurde zufällig eine der drei Modalitäten (Textual content, neutrale Stimme oder ansprechende Stimme) und eine der drei Konversationsarten (offen, persönlich oder nicht personenbezogen) zugewiesen. Das machte neun mögliche Combos-wie Textual content mit persönlichen Chats oder ansprechende Stimme mit nicht personenbezogenen Themen. Zufällige Zuordnung bedeutete, dass niemand ihren Setup ausgewählt hatte. Es conflict alles Zufall, was dazu beiträgt, die Ergebnisse truthful zu machen.
Jeden Tag haben sich die Teilnehmer angemeldet und mit ihrem Chatbot gesprochen. Die Forscher verfolgten alles – insgesamt 300.000 Nachrichten. Sie haben gemessen, wie lange die Leute mit dem Chatten (als „tägliche Dauer“ bezeichnet) verbracht haben, seit das Schreiben und Sprechen unterschiedliche Zeit in Anspruch nehmen. Einige hielten an mindestens fünf Minuten fest; Andere gingen viel länger, bis zu quick 28 Minuten am Tag.
So hat es funktioniert:

Quelle: MIT- und OpenAI -Forschungspapier
Wer conflict beteiligt?
Die Forscher versammelten 981 Erwachsene, eine Mischung aus Männern (48,2%) und Frauen (51,8%) mit einem Durchschnittsalter von etwa 40 Jahren. Diese waren keine zufälligen Leute von der Straße – sie waren Menschen, die bereit waren, einen Monat lang jeden Tag mit einer KI zu plaudern. Die meisten hatten Jobs (48,7% Vollzeit), und ungefähr die Hälfte hatte zuvor einen textbasierten Chatbot wie Chatgpt verwendet, obwohl nur wenige Sprachversionen ausprobiert hatten. Diese Mischung gab einen breiten Second der alltäglichen Menschen – nicht nur technische Geeks oder Einzelgänger.
Was haben sie benutzt?
Die KI conflict eine Model von Openai’s Chatgpt (Gpt-4o), für das Experiment optimiert. Die Teilnehmer bekamen nicht alle den gleichen Chatbot. Die Forscher teilen es in drei Stile oder „Modalitäten“ auf, um zu sehen, wie unterschiedliche Wege des Interaktion die Dinge verändern können:
- Textmodalität: Einfach tippen, wie eine SMS eines Freundes. Dies conflict die Grundversion, die Kontrollgruppe.
- Neutrale Sprachmodalität: Eine Sprachversion mit einem professionellen, ruhigen Ton – wie einem höflichen Kundendienstmitarbeiter.
- Ansprechende Sprachmodalität: Eine lebendigere Stimme, emotionaler und ausdrucksvoller wie ein gesprächiger Kumpel.
Für die Sprachmodi verwendeten sie zwei Optionen-Ember (männlich klingende) oder SOL (weiblich klingende) zufällig zugewiesen. In den Stimmen ging es nicht nur um den Klang. Benutzerdefinierte Anweisungen machten die neutrale formelle und das ansprechende und reaktionsschnelle. Dadurch testen das Group, wenn die „Persönlichkeit“ einer Chatbot wichtig ist.
Worüber haben die Leute gesprochen?
Die Gespräche waren nicht kostenlos. Die Teilnehmer erhielten spezifische Aufgaben, um ihre Chats zu leiten, in drei Typen aufgeteilt:
- Offene Gespräche: Sie konnten über etwas wie Sport, Filme sprechen, was auch immer in ihren Köpfen tauchte. Dies conflict die Kontrolle, die nachahmte, wie Menschen natürlich einen Chatbot verwenden könnten.
- Persönliche Gespräche: Jeden Tag haben sie eine Aufforderung, etwas Persönliches zu teilen, wie „Was ist etwas, für das Sie dankbar sind?“ Oder „Erzähl mir von einem schwierigen Second.“ Dies sollte einen Begleit -Chatbot imitieren, an die sich die Leute um emotionale Unterstützung wenden.
- Nicht personenbezogene Gespräche: Tägliche Aufforderungen zu neutralen Themen wie „Wie haben historische Ereignisse Tech geformt?“ Dies conflict wie die Verwendung eines allgemeinen Assistenten Chatbot für Fakten oder Ideen.
Was haben sie gemessen?
Das Ziel conflict zu sehen, wie sich diese Chats vier große Gefühle oder Verhaltensweisen auswirkten, die als „psychosoziale Ergebnisse“ bezeichnet werden:
- Einsamkeit: Wie isoliert oder alleine sich Menschen fühlten, erzielte von 1 (überhaupt nicht) bis 4 (sehr).
- Sozialisierung mit Menschen: Wie viel sie mit echten Menschen rumhängen und von 0 (keine) bis 5 (viel) erzielt haben.
- Emotionale Abhängigkeit von KI: Wie sehr sie den Chatbot emotional brauchten, wie sich ohne ihn verärgert zu fühlen, erzielte von 1 (überhaupt nicht) bis 5 (viel).
- Problematischer Gebrauch von KI: Ungesunde Gewohnheiten, wie die Besessenheit über den Chatbot, erzielte von 1 (überhaupt nicht) bis 5 (viel).
Sie überprüften diese zu Beginn (Grundlinie) und Ende (Woche 4) mit einigen wöchentlichen Verify-Ins. Sie fragten auch nach Dingen wie Vertrauen in die KI, das Alter, das Geschlecht und die Gewohnheiten, um zu sehen, wie diese die Ergebnisse geprägt haben.
Die Stimme verändert die Artwork und Weise, wie wir uns fühlen
Der Klang einer Stimme kann Wunder bewirken. In der Studie verwendeten Menschen, die sprachbasierte Chatbots verwendeten-ob ein ruhiger, neutraler Ton oder ein lebhaftes, engagiertes, weniger einsam als diejenigen, die abgeben. Es ist nicht schwer zu verstehen, warum. Eine Stimme fügt Wärme hinzu, ein Hinweis auf die Anwesenheit, mit dem Textual content nicht übereinstimmt. Diejenigen mit einem neutralen Voice Chatbot erzielten bei der Einsamkeit niedriger und wurden nicht so an die KI gebunden. Die engagierte Stimme mit ihrem ausdrucksstarken Aptitude arbeitete noch besser – die Menschen fühlten sich weniger abhängig und weniger daran festgefahren. Es ist quick so, als würde man einen freundlichen Ton dazu hört, dass sich unser Gehirn weniger allein fühlt.

Chatbot -Modalität bei der Kontrolle der Anfangswerte der zu Beginn der Studie gemessenen psychosozialen Ergebnisse.
Quelle: MIT- und OpenAI -Forschungspapier
Aber es gibt eine Flip -Seite. Als die Leute zu viel Zeit mit diesen Sprachbots verbrachten, begannen die Vorteile zu rutschen. Insbesondere die neutrale Stimme wurde mit starkem Gebrauch sauer. Die Teilnehmer haben sich letztendlich weniger mit echten Menschen zusammengetan und zeigten Anzeichen von problematischen Gewohnheiten, wie die KI zu oft zu überprüfen. Die engagierte Stimme hielt sich besser, aber selbst ihr Charme stumpfte mit Überbeanspruchung. Es scheint, dass eine Stimme uns anheben kann, bis wir uns zu hart darauf stützen. Dann könnte es uns von der Welt wegziehen, anstatt uns damit zu verbinden.
Was wir auch über Angelegenheiten sprechen
Was Sie zu einem Chatbot sagen, ändert sich, wie es sich auf Sie auswirkt. Die Studie hat Gespräche in drei Gassen aufgeteilt: offene Chats, wohin alles geht, persönliche Gespräche über Dinge wie Dankbarkeit oder Kämpfe und nicht personenbezogene Themen wie Geschichte oder Technik. Die Ergebnisse waren überraschend. Persönliche Chats ließen die Leute ein wenig einsamer fühlen. Das Teilen von tiefen Gedanken kann Emotionen aufrühren, die sich nicht leicht niederlassen. Aber hier ist der Vorteil: Dieselben Chats senkten die emotionale Abhängigkeit von der KI. Es ist, als hätte sich das Öffnen auf der Länge des Chatbots – nicht eine Krücke, nur ein klingendes Brett haben.
Nicht personenbezogene Chats erzählten eine andere Geschichte. Wenn man über zufällige Fakten oder Ideen sprach, hat es keine Einsamkeit ausgelöst, aber es hielt schwere Benutzer härter. Je mehr sie sich über Protected-Ebenen unterhielten, desto mehr stützten sie sich auf die KI. Offene Gespräche landeten in der Mitte, die Leute verbrachten die meiste Zeit mit ihnen, durchschnittlich sechs Minuten am Tag, und die Ergebnisse waren unterschiedlich. Es ist faszinierend, wie das Thema uns näher an oder weiter von der KI entfernt werden kann. Persönliche Gespräche könnten die Seele rühren, während Smalltalk zu einer Gewohnheit werden. Was wir teilen oder verstecken, scheint die Bindung zu formen.
Zu viel Zeit mit KI kann nach hinten losgehen
Zeit ist hier ein großer Spieler. Die Studie verfolgte, wie lange Menschen jeden Tag mit dem Chatbot verbracht haben. Im Durchschnitt waren es ungefähr fünf Minuten, kaum eine Kaffeepause. Aber die Reichweite conflict wild. Einige tauchten für eine Minute ein, andere densierten quick eine halbe Stunde. Das Muster conflict klar: Mehr Zeit bedeutete mehr Ärger. Einsamkeit stieg mit zunehmender täglicher Gebrauch. Die Kontakte mit echten Menschen machten ebenfalls einen Treffer und diese langen Chats mit KI ließen weniger Platz für Freunde oder Familie. Die emotionale Abhängigkeit stieg an, und auch die problematische Verwendung, wie das Gefühl, ohne die KI nervös zu sein oder sie zwanghaft zu überprüfen.

Quelle: MIT- und OpenAI -Forschungspapier
Es ist nicht so, dass der Chatbot selbst das Drawback ist. Zuerst schien es zu helfen. In allen Gruppen ging die Einsamkeit in den vier Wochen leicht zurück. Aber je schwerer die Verwendung, desto mehr tippte die Waage in die andere Richtung. Sprachbenutzer begannen mit einer Kante, weniger Einsamkeit, weniger Befestigung, aber selbst sie konnten dem Muster nicht entkommen. Zu viel von einer guten Sache wurde sauer. Es ist eine sanfte Warnung: Ein kleiner KI könnte uns heben, aber viel könnte uns wiegen. Das Finden dieser Candy Spot ist entscheidend.
Wer wir sind, prägt, wie KI uns beeinflusst
Wir sind nicht alle gleich verdrahtet, und das ist wichtig. Die Studie stieß in die Artwork und Weise, wie die Merkmale der Menschen ihre Chatbot -Erfahrung beeinflussten. Diejenigen, die einsam anfingen, blieben einsam oder verschlechterten sich. Wenn sie bereits emotional anhielig waren, hat die KI das nicht behoben; Es verstärkte es oft. Vertrauen hat auch eine Rolle gespielt. Menschen, die den Chatbot als zuverlässig und fürsorglich sahen, wurden einsamer und am Ende abhängiger. Es ist, als würde man zu sehr an die KI glauben, dass es schwieriger conflict, loszulassen.
Das Geschlecht fügte eine weitere Schicht hinzu. Frauen, die nach vier Wochen weniger mit echten Menschen als Männern sozial sind als Männer. Wenn die Stimme der KI das entgegengesetzte Geschlecht conflict, wie ein Mann, der eine weibliche Stimme „Sol“ hörte, oder eine Frau, die „ember“ hörte, die Einsamkeit und Abhängigkeit stieg. Alter conflict auch wichtig. Ältere Teilnehmer lehnten sich emotional härter an die KI und suchten möglicherweise eine stetige Präsenz. Die ersten Gewohnheiten geben ebenfalls den Ton an. Schwere Benutzer von Anfang an sahen größere Tropfen in der realen Verbindung. Unsere Macken vertrauen, Geschlecht, Alter, selbst wie sozial wir sind, färben, wie KI in unser Leben passt. Es geht nicht nur um die Technologie. Es geht um uns.
Können Chatbots zu intestine sein, um menschlich zu sein?
Der ansprechende Voice -Bot leuchtete, schnitt Abhängigkeit und Missbrauch mit seinem warmen Ton ab. Die Leute verbrachten täglich über sechs Minuten damit, im Vergleich zu vier mit Textual content. Es fühlte sich actual an und half denen mit hoher Abhängigkeit am meisten. Aber ein Paradoxon tauchte auf: Je menschlicher, desto mehr stützte sich einige. Angehörige Benutzer wurden mit starkem Gebrauch einsamer. Die neutrale Stimme verfälschte schlechter und isolierte schwere Benutzer. Wenn sich KI zu menschlich anfühlt, füllt sie eine Leere oder erweitert sie? Die Linie ist dünn.
Sie können das Forschungspapier hier herunterladen.
Endnote
In dieser Studie geht es nicht nur um Chatbots … es geht um uns. Forscher schlagen vor, dass Chatbots uns auf echte Verbindungen, die Chat -Grenzwerte festlegen oder besser umgehen könnten. AI spiegelt unsere Gefühle wider, was mächtig ist, aber riskant, und wir können zu intestine die Einsamkeit vertiefen. Weitere Forschungsergebnisse sind erforderlich: Längere Studien, jüngere Benutzer, psychische Auswirkungen auf die psychische Gesundheit. Können Chatbots ohne Überqueren von Linien sorgen? Es geht darum, die KI in unser Leben einzubauen und sie nicht zu fürchten oder zu lobt. Was brauchen wir von ihnen, einen schnellen Chat oder einen Stellvertreter? Unsere Antworten könnten mehr über uns als unsere Technologie enthüllen.
Melden Sie sich an, um weiter zu lesen und Experten-Kuratinhalte zu genießen.