Was können wir gegen die immer ausgefeilteren KI-generierten Inhalte in unserem Leben tun?

Foto von Meszárcsek Gergely An Unsplash

In meiner vorherigen KolumneIch habe herausgefunden, wie sich KI-generierte Inhalte on-line verbreiten, und habe Szenarien beschrieben, um zu veranschaulichen, warum dies geschieht. (Bitte lesen Das bevor Sie hier fortfahren!) Lassen Sie uns nun darüber sprechen, welche Auswirkungen dies hat und welche Möglichkeiten die Zukunft bieten könnte.

Der Mensch ist ein soziales und auch visuelles Wesen. Wir lernen unsere Welt durch Bilder und Sprache kennen und nutzen visuelle Eingaben, um unser Denken und Verständnis von Konzepten zu prägen. Wir werden von unserer Umgebung geprägt, ob wir es wollen oder nicht.

Unabhängig davon, wie sehr wir uns der Existenz von KI-generierten Inhalten in unseren eigenen Ökosystemen des Medienkonsums bewusst sind, wird unsere unbewusste Reaktion und Reaktion auf diese Inhalte nicht vollständig in unserer Kontrolle liegen. Die Binsenweisheit besagt, dass jeder denkt, er sei immun gegen Werbung – er sei zu schlau, um sich von irgendeinem Werbefachmann an der Nase herumführen zu lassen. Aber Werbung geht weiter! Warum? Weil es funktioniert. Es verleitet Menschen dazu, Kaufentscheidungen zu treffen, die sie sonst nicht treffen würden, sei es nur die Steigerung der Markensichtbarkeit, die Ansprache von Emotionen oder eine andere Werbetechnik.

KI-generierte Inhalte können am Ende ähnlich sein, wenn auch auf weniger kontrollierte Weise. Wir neigen alle dazu zu glauben, dass wir uns nicht von einem Bot mit einem LLM täuschen lassen, der Textual content in einer Chatbox generiert, sondern auf subtile oder offensichtliche Weise von der anhaltenden Enthüllung beeinflusst werden. So besorgniserregend es auch sein magazine, dass Werbung wirklich auf uns wirkt, bedenken Sie doch, dass die unbewussten oder subtilen Wirkungen der Werbung von den Werbeerstellern bewusst geplant und gesteuert werden. Im Fall der generativen KI basiert ein großer Teil dessen, was in die Erstellung der Inhalte einfließt, unabhängig von ihrem Zweck, auf einem Algorithmus, der historische Informationen nutzt, um die Funktionen auszuwählen, die aufgrund seines Trainings und der menschlichen Akteure am wahrscheinlichsten ansprechend sind weniger Kontrolle darüber, was dieses Modell generiert.

Ich möchte damit sagen, dass uns die Ergebnisse der generativen KI regelmäßig überraschen, weil wir nicht so intestine darauf eingestellt sind, was unsere Geschichte wirklich sagt, und wir denken oft nicht an Grenzfälle oder Interpretationen von Eingabeaufforderungen, die wir schreiben. Die Muster, die die KI in den Daten aufdeckt, sind für den Menschen manchmal völlig unsichtbar und wir können nicht kontrollieren, wie diese Muster die Ausgabe beeinflussen. Infolgedessen werden unser Denken und unser Verständnis von Modellen beeinflusst, die wir nicht vollständig verstehen und nicht immer kontrollieren können.

Darüber hinaus, wie ich bereits erwähnt habe, Öffentliches kritisches Denken und die Fähigkeit zum kritischen Medienkonsum haben Schwierigkeiten, mit KI-generierten Inhalten Schritt zu haltenum uns die Fähigkeit zu geben, so anspruchsvoll und rücksichtsvoll zu sein, wie es die State of affairs erfordert. Ähnlich wie bei der Entwicklung von Photoshop müssen wir uns anpassen, aber es ist unklar, ob wir dazu in der Lage sind.

Wir alle lernen verräterische Anzeichen von KI-generierten Inhalten, wie zum Beispiel bestimmte visuelle Hinweise in Bildern oder Formulierungsoptionen in Texten. Der durchschnittliche Internetnutzer hat heute in nur wenigen Jahren eine Menge darüber gelernt, was KI-generierte Inhalte sind und wie sie aussehen. Allerdings versuchen die Anbieter der Modelle, die zur Erstellung dieser Inhalte verwendet werden, ihre Leistung zu verbessern, um solche Hinweise subtiler zu machen und die Lücke zwischen offensichtlich von KI generierten und offensichtlich von Menschen produzierten Medien zu schließen. Wir befinden uns in einem Wettlauf mit KI-Unternehmen, ob sie anspruchsvollere Modelle schneller erstellen können, als wir lernen können, ihre Ergebnisse zu erkennen.

Wir befinden uns in einem Wettlauf mit KI-Unternehmen, ob sie anspruchsvollere Modelle schneller erstellen können, als wir lernen können, ihre Ergebnisse zu erkennen.

Es ist unklar, ob wir in diesem Rennen aufholen werden, da die Wahrnehmung von Mustern und ästhetischen Daten durch die Menschen begrenzt ist. (Wenn Sie skeptisch sind, versuchen Sie es mit der Erkennung von KI-generiertem Textual content: https://roft.io/) Wir können Bilder nicht wie ein Modell bis auf die Pixelebene untersuchen. Wir können Wortwahl und Häufigkeit in einem Dokument nicht auf einen Blick unabhängig analysieren. Wir können und sollten Instruments entwickeln, die uns dabei helfen, diese Arbeit zu erledigen, und es gibt einige vielversprechende Ansätze dafür, aber wenn wir nur vor einem Bild, einem Video oder einem Absatz stehen, sind es nur unsere Augen und unser Gehirn im Vergleich zum Inhalt. Können wir gewinnen? Im Augenblick, Wir oft nicht. Jeden Tag lassen sich Menschen von KI-generierten Inhalten täuschen, und für jedes Stück, das entlarvt oder enthüllt wird, muss es viele geben, die unbemerkt an uns vorbeigehen.

Eine Erkenntnis, die Sie im Hinterkopf behalten sollten, ist, dass es nicht nur darum geht, „Menschen müssen anspruchsvoller sein“ – das ist gar nicht so einfach, und wenn Sie nicht jedes Mal auf KI-generierte Materialien oder Deepfakes stoßen, wenn sie Ihren Weg kreuzen, Es ist nicht alles deine Schuld. Dies wird bewusst zunehmend erschwert.

Wenn wir additionally in dieser Realität leben, müssen wir uns mit einer beunruhigenden Tatsache auseinandersetzen. Wir können dem, was wir sehen, nicht vertrauen, zumindest nicht in der Artwork und Weise, wie wir es gewohnt sind. In vielerlei Hinsicht ist das jedoch nicht so neu. Wie ich in meinem ersten Teil dieser Serie beschrieben habe, wissen wir tief im Inneren, dass Fotos manipuliert werden können, um die Artwork und Weise zu verändern, wie wir sie interpretieren und wie wir Ereignisse wahrnehmen. Seit ihrer Erfindung werden Falschmeldungen auch in Zeitungen und im Radio verbreitet. Aber aufgrund des Rennens ist es etwas anders – die Falschmeldungen kommen schnell und heftig, werden immer ein bisschen raffinierter und ein bisschen schwerer zu erkennen.

Wir Wir können dem, was wir sehen, nicht vertrauen, zumindest nicht in der Artwork und Weise, wie wir es gewohnt sind.

Eine zusätzliche Ebene der Komplexität ergibt sich auch aus der Tatsache, dass ein großer Teil der KI-generierten Inhalte, die wir sehen, insbesondere in sozialen Medien, von Bots (oder Agenten, im neuen generativen KI-Sprachgebrauch) für Engagement-Farming erstellt und gepostet wird. Clickbait/Betrug und andere Zwecke, wie ich in Teil 1 dieser Serie besprochen habe. Oftmals sind wir einige Schritte von der Individual entfernt, die für die Inhalte, die wir sehen, verantwortlich ist und die Modelle und Automatisierung als Werkzeuge für die Erstellung verwendet hat. Dies verschleiert die Herkunft des Inhalts und kann es schwieriger machen, anhand von Kontexthinweisen auf die Künstlichkeit des Inhalts zu schließen. Wenn beispielsweise ein Beitrag oder ein Bild zu intestine (oder seltsam) erscheint, um wahr zu sein, untersuche ich möglicherweise die Motive des Posters, um herauszufinden, ob ich skeptisch sein sollte. Hat der Benutzer eine glaubwürdige Vergangenheit oder institutionelle Zugehörigkeiten, die Vertrauen schaffen? Was aber, wenn es sich bei dem Poster um einen Faux-Account handelt, mit einem von der KI generierten Profilbild und einem Faux-Namen? Für einen normalen Menschen wird es nur noch schwieriger, die Künstlichkeit zu erkennen und Betrug, Deepfake oder Betrug zu vermeiden.

Abgesehen davon denke ich auch, dass es allgemein schädlich ist, wenn wir weiterhin unbeschrifteten Bot-Inhalten ausgesetzt sind. Wenn wir immer mehr soziale Medien vor uns haben, die gefälscht sind und die „Benutzer“ glaubhaft überzeugende Bots sind, kann es sein, dass wir jegliches Social-Media-Engagement außerhalb der Menschen, die wir im analogen Leben kennen, entmenschlichen. Den Menschen fällt es bereits schwer, sich über Computerbildschirme zu vermenschlichen und mitzufühlen, daher gibt es seit langem Probleme mit Missbrauch und Misshandlung on-line in Kommentarbereichen, in Social-Media-Threads usw. Besteht die Gefahr, dass sich die Gefühllosigkeit der Menschen gegenüber der Menschheit im Web verschlimmert und sich die Artwork und Weise verschlechtert, wie sie auf Menschen und Modelle/Bots/Laptop reagieren?

Wie reagieren wir als Gesellschaft, um zu verhindern, dass wir von KI-generierten Fiktionen erfasst werden? Es gibt keine große individuelle Anstrengung oder „Hausaufgaben machen“, die uns unbedingt aus dieser State of affairs herausholen können. Die Muster und Hinweise in KI-generierten Inhalten sind möglicherweise für das menschliche Auge und sogar für die Individual, die das Modell erstellt hat, nicht erkennbar. Während Sie normalerweise On-line-Suchen durchführen, um zu überprüfen, was Sie sehen oder lesen, sind diese Suchanfragen selbst stark mit KI-generierten Inhalten gefüllt, sodass sie zunehmend nicht vertrauenswürdiger sind als alles andere. Wir brauchen unbedingt Fotos, Movies, Texte und Musik, um mehr über die Welt um uns herum zu erfahren, uns miteinander zu verbinden und die umfassendere menschliche Erfahrung zu verstehen. Auch wenn dieser Materialpool vergiftet wird, können wir nicht aufhören, ihn zu nutzen.

Es gibt meiner Meinung nach eine Reihe von Möglichkeiten, die als Nächstes bei diesem Dilemma helfen könnten.

  • KI verliert an Popularität oder scheitert aufgrund von Ressourcenproblemen. Es gibt viele Faktoren, die das Wachstum und die kommerzielle Verbreitung generativer KI gefährden, und diese schließen sich meist nicht gegenseitig aus. Die generative KI könnte sehr wahrscheinlich einen gewissen Zusammenbruch erleiden, weil von der KI generierte Inhalte in die Trainingsdatensätze eindringen. Wirtschaftlich und/oder Umwelt Herausforderungen (unzureichende Energie, natürliche Ressourcen oder Kapital für Investitionen) könnten den Ausbau von KI-Erzeugungssystemen verlangsamen oder behindern. Auch wenn diese Probleme keinen Einfluss auf die Kommerzialisierung der generativen KI haben, könnten sie Hindernisse für die Weiterentwicklung der Technologie über den Punkt hinaus schaffen, der für den Menschen einfach zu erkennen ist.
  • Organische Inhalte werden zu Premium-Inhalten und gewinnen neue Marktattraktivität. Wenn wir mit KI-generierten Inhalten überschwemmt werden, werden diese billig und von schlechter Qualität, aber der Mangel an organischen, von Menschen produzierten Inhalten könnte die Nachfrage danach steigern. Darüber hinaus gibt es bereits eine deutliche Zunahme der Gegenreaktionen gegen KI. Wenn Kunden und Verbraucher KI-generiertes Materials als abschreckend empfinden, werden Unternehmen sich anpassen. Dies deckt sich mit einigen Argumenten, dass sich die KI in einer Blase befindet und dass der übermäßige Hype mit der Zeit nachlassen wird.
  • Technologische Arbeit stellt die negativen Auswirkungen von KI in Frage. Detektormodelle und Algorithmen werden notwendig sein, um organische und generierte Inhalte dort zu unterscheiden, wo wir dies nicht selbst tun können, und in diese Richtung wird bereits gearbeitet. Da die generative KI immer ausgefeilter wird und dies erforderlich macht, könnte sich ein kommerzieller und sozialer Markt für diese Detektormodelle entwickeln. Diese Modelle müssen viel genauer werden, als sie es heute sind Damit dies möglich ist, wollen wir uns nicht darauf verlassen Besonders schlechte Modelle, wie sie heute in Bildungseinrichtungen zur Identifizierung generativer KI-Inhalte in studentischen Aufsätzen verwendet werden. Da in diesem Bereich jedoch viel Arbeit geleistet wird, gibt es Grund zur Hoffnung. (Ich habe einige Forschungsarbeiten zu diesen Themen in die Anmerkungen am Ende dieses Artikels eingefügt.)
  • Die Regulierungsbemühungen werden ausgeweitet und ausgefeilter. Regulierungsrahmen können sich so weit entwickeln, dass sie dazu beitragen können, die Exzesse und Missbräuche, die generative KI ermöglicht, einzudämmen. Die Festlegung von Verantwortlichkeit und Herkunft für KI-Agenten und Bots wäre ein äußerst positiver Schritt. All dies hängt jedoch von der Wirksamkeit der Regierungen auf der ganzen Welt ab, die immer ungewiss ist. Wir wissen, dass große Technologieunternehmen entschlossen sind, gegen regulatorische Verpflichtungen vorzugehen, und dass sie über enorme Ressourcen dafür verfügen.

Ich halte es für sehr unwahrscheinlich, dass die generative KI in den Jahren 2022–2023 weiterhin so ausgefeilt wird, wie es in den Jahren 2022–2023 der Fall ist, es sei denn, es wird eine deutlich andere Trainingsmethodik entwickelt. Es mangelt uns an organischen Trainingsdaten, und wenn man mehr Daten auf das Downside wirft, führt dies zu sinkenden Erträgen bei exorbitanten Kosten. Ich mache mir Sorgen über die Allgegenwart von KI-generierten Inhalten, aber ich glaube (optimistisch) nicht, dass sich diese Technologien in Zukunft mehr als langsam weiterentwickeln werden, und zwar aus den Gründen, über die ich geschrieben habe vor.

Das bedeutet, dass unsere Bemühungen, die negativen externen Effekte der generativen KI zu mildern, ein ziemlich klares Ziel haben. Während wir weiterhin mit Schwierigkeiten bei der Erkennung von KI-generierten Inhalten zu kämpfen haben, haben wir eine Probability, aufzuholen, wenn sich Techniker und Regulierungsbehörden die Mühe machen. Ich denke auch, dass es wichtig ist, dass wir daran arbeiten, dem Zynismus entgegenzuwirken, den dieser KI-„Fehler“ hervorruft. Ich liebe maschinelles Lernen und bin sehr froh, Teil dieses Bereichs zu sein, aber ich bin auch Soziologe und Bürger, und wir müssen uns um unsere Gemeinschaften und unsere Welt kümmern und gleichzeitig den technischen Fortschritt anstreben.

Von admin

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert