Zusammenfassung: Meinungsstück für das allgemeine TDS -Publikum. Ich argumentiere, dass KI auf greifbare Weise transparenter ist als Menschen. Behauptungen, dass KI eine „schwarze Field“ ist, fehlt die Perspektive und Vergleich mit der Opazität in Studien der menschlichen Intelligenz, die in gewisser Weise hinter Studien der künstlichen Intelligenz steckt.

Leser sind eine schwarze Field. Dein Verstand ist mysteriös. Ich kann nicht wissen, wie du denkst. Ich kann nicht wissen, was Sie tun werden, und ich kann nicht wissen, ob Ihre Worte ehrlich sind und ob Sie Ihre Handlungen ehrlich und ohne Vorwand rechtfertigen. Wir lernen, Menschen aus vielen Jahren der Selbstbeobachtung und Erfahrung zu verstehen und zu vertrauen, die mit anderen interagieren. Die Erfahrung sagt uns jedoch auch, dass das Verständnis auf diejenigen mit ähnlichem Lebenshintergrund beschränkt ist und das Vertrauen für diejenigen mit Motivationen, die uns selbst widersetzen, ungerechtfertigt ist.

Künstliche Intelligenz – obwohl noch mysteriös – ist im Vergleich kristallklar. Ich kann eine KI nach ihrem Äquivalent zu Gedanken und Motivationen untersuchen und weiß, dass ich die Wahrheit bekomme. Darüber hinaus ist das KI -Äquivalent zum „Lebenshintergrund“, seine Trainingsdaten und das Äquivalent zu „Motivationen“, sein Trainingsziel, meist, wenn nicht ganz bekannt und offen für die Prüfung und Analyse. Obwohl wir immer noch jahrelange Erfahrung mit modernen KI -Systemen fehlen, argumentiere ich, dass es kein Drawback der Opazität gibt. Im Gegenteil, die relative Transparenz von KI -Systemen zur Inspektion, ihre „weiße Field“ -Fature, kann eine Grundlage für Verständnis und Vertrauen sein.

Sie haben vielleicht von AI als „schwarze Field“ in zwei Sinnen gehört: KI wie Openais Chatgpt oder Anthropics Claude sind schwarze Kisten Weil Sie ihren Code oder Parameter nicht inspizieren können (Black Field Zugang). Im allgemeineren Sinne, auch wenn Sie diese Dinge inspizieren könnten (Weiß Field -Zugang), sie wären wenig Hilfe bei der Verständnis, wie die KI in jeglichem Umfang funktioniert. Sie können jede Anweisung befolgen, die ChatGPT definiert und keinen Einblick erhalten, als wenn Sie nur die Ausgabe lesen, eine Folge das chinesische Zimmer Argument. Ein (menschlicher) Geist ist jedoch undurchsichtiger als selbst eingeschränkte KI. Da physikalische Barrieren und ethische Einschränkungen die Befragung der Mechanismen des menschlichen Denkens einschränken und unsere Modelle der Architektur und Komponenten des Gehirns unvollständig sind, ist der menschliche Geist eher eine schwarze Field-wenn auch eine organische, kohlenstoffbasierte „natürliche“-sogar die proprietären, geschlossenen AI-Modelle. Vergleichen wir, was die aktuelle Wissenschaft über die inneren Funktionsweise des menschlichen Gehirns einerseits und KI -Modelle andererseits erzählt.

Abb. 2. FMRI-gepflegtes Volumen des menschlichen Gehirns. Funktionsdaten nicht gezeigt. Bild des Autors; Daten von Pietrini et al. unter enthalten Ppdl.

Ab 2025 waren die einzigen statischen neuronalen Strukturen, die waren zugeordnet– Diese Fliege – haben nur einen winzigen Bruchteil der Komplexität des menschlichen Gehirns. Funktionell Experimente verwenden funktionelle Magnetresonanztomographie (fMRI) kann die neuronale Aktivität auf etwa 1 mm genau bestimmen3 Volumen der Gehirnmaterie. Abbildung 2 zeigt ein Beispiel für die im Rahmen einer fMRI -Studie erfasste neuronale Struktur. Die erforderliche {Hardware} umfasst eine Maschine im Wert von mindestens 200.000 US -Greenback, konstantem Zugang zu flüssigem Helium und eine Versorgung mit sehr geduldigen Menschen, die bereit sind, nonetheless zu halten, während eine Tonne Superkonferenz nur wenige Zentimeter von ihren Köpfen entfernt ist. Während fMRI -Studien beispielsweise die Verarbeitung von durchführen können Visuelle Darstellungen von Gesichtern und Häusern sind mit bestimmten Gehirnregionen verbundenvieles von dem, was wir über die wissen Funktionen des Gehirns sind buchstäbliche Unfälle zu verdankendie natürlich nicht ethisch skalierbar sind. Ethische, weniger invasive experimentelle Ansätze liefern relativ geringe Sign-Rausch-Verhältnisse.

Abb. 425k Konzepte in GEMMA2-2B über seine 26 Schichten. Die Animation hebt jede Schicht nacheinander hervor. Bild und Anordnung durch den Autor; Daten von Google untergebracht unter CC von.

Open -Supply -Modelle (White Field Entry), einschließlich großer Sprachmodelle (LLM), werden regelmäßig (praktisch) in Scheiben geschnitten und gewürzt und ansonsten auf viel invasivere Weise befragt, selbst wenn Menschen mit der teuersten FMRI -Maschine und dem schärfsten Skalpell mit Verbraucher -Gaming -{Hardware}. Jedes einzelne Stück jeder einzelnen neuronalen Verbindung kann wiederholt und konsequent unter einem riesigen Eingabebereich inspiziert und protokolliert werden. Die KI müde weder in dem Prozess noch in irgendeiner Weise betroffen. Diese Ebene an Zugriff, Kontrolle und Wiederholbarkeit ermöglicht es uns, eine huge Menge an Sign zu extrahieren, aus der wir eine viel feinkörnige Analyse durchführen können. Durch die Kontrolle dessen, was eine KI beobachtet, können wir bekannte Konzepte mit Komponenten und Prozessen innerhalb und außerhalb einer KI auf nützliche Weise verbinden:

  • Neuronale Aktivität mit assoziieren mit konzEPTs Ähnlich wie bei einem FMRI. Wir können erkennen, ob eine KI über ein bestimmtes Konzept „denkt“. Wie intestine können wir erkennen, wann ein Mensch über ein bestimmtes Konzept nachdenkt? Feigen. 1 und 3 sind zwei Renderings von Konzepten von Gemmascope Dies liefert Anmerkungen von Google GEMMA2 -Modell -Interna zu Konzepten.
  • Bestimmen Sie die Bedeutung bestimmter Eingänge für Ausgänge. Wir können erkennen, ob ein bestimmter Teil einer Aufforderung wichtig battle, um die Antwort einer KI zu erzeugen. Können wir feststellen, ob die Entscheidung eines Menschen durch ein bestimmtes Drawback beeinflusst wird?
  • Attributvermittlung von Konzepten als Pfade durch eine KI. Dies bedeutet, dass wir genau erkennen können, wo in einem neuronalen Netzwerk ein Konzept von Eingangswörtern zu eventuellen Ausgängen wandelte. Fig. 4 zeigt ein Beispiel für eine solche Pfadspur für ein grammatikalisches Konzept der Übereinstimmung mit Fachnummer. Können wir dasselbe für Menschen tun?
Pfad, durch den die Übereinstimmung der Subjektnummer über die Schichten eines Bidirectional Transformator (BERT) -Modells (Bidirectional Transformator) vermittelt wird.
Abb. 4. Pfad, durch den die Übereinstimmung der Subjektnummer über die Schichten eines Bidirectional Transformator (Bert) -Modells (Bert) vermittelt wird. Bild des Autors (Quelle).

Menschen können natürlich Antworten auf die ersten beiden Fragen oben selbst berichten. Sie können einen Einstellungsmanager fragen, worüber er nachdachte, wenn er Ihren Lebenslauf lesen oder welche Faktoren für ihre Entscheidung wichtig waren, Ihnen einen Job anzubieten (oder nicht). Leider lügen Menschen, sie selbst kennen die Gründe für ihre Handlungen nicht oder sie sind es voreingenommen auf eine Weise, die ihnen nicht bekannt ist. Während dies auch bei generativen KI der Fall ist, beruhen Methoden zur Interpretierbarkeit im KI -Raum nicht auf die Antworten von AI. wahrheitsgemäßAnwesend unvoreingenommenselbst bewusst oder auf andere Weise. Wir müssen den Ausgängen der KI nicht vertrauen, um festzustellen, ob sie über ein bestimmtes Konzept nachdenkt. Wir lesen es buchstäblich von einer (virtuellen) Sonde an ihren Neuronen ab. Für Open -Supply -Modelle ist dies trivial, lächerlich, wenn man bedenkt, was es braucht, um diese Artwork von Informationen (ethisch) aus einem Menschen herauszuholen.

Was ist mit Closed-Supply „Black Field Entry“ AI? Viel kann nur aus Black Field Entry abgeleitet werden. Die Linie der Modelle ist bekannt, ebenso wie ihre allgemeine Architektur. Ihre Grundkomponenten sind Customary. Sie können auch mit einer Geschwindigkeit verhört werden, die viel höher ist als ein Mensch, und kontrollierter und reproduzierbarer. Wiederholbarkeit unter ausgewählten Eingängen ist häufig ein Ersatz für den offenen Zugriff. Teile von Modellen können abgeleitet werden oder ihre Semantik kopiert durch „Destillation“. Black-Field ist additionally kein absolutes Hindernis für Verständnis und Vertrauen, aber der unmittelbarste Weg, KI transparenter zu gestalten, besteht darin, den offenen Zugang zu seiner gesamten Spezifikation trotz der aktuellen Developments unter den prominenten KI-Bauherren zu ermöglichen.

Menschen mögen die komplexeren Denkmaschinen sein, so dass die obigen Vergleiche möglicherweise nicht truthful erscheinen. Und wir sind eher geneigt zu das Gefühl, dass wir Menschen verstehen und vertrauen können, weil unsere jahrelange Erfahrung menschlich ist und mit anderen (vermuteten) Menschen interagiert. Unsere Erfahrung mit verschiedenen AIs wächst schnell, ebenso wie ihre Fähigkeiten. Während die Größen der High-Performing-Modelle ebenfalls wachsen, waren ihre allgemeinen Architekturen stabil. Es gibt keinen Hinweis darauf, dass wir die oben beschriebene Artwork von Transparenz in ihre oben beschriebene Operation verlieren werden, auch wenn sie die menschlichen Fähigkeiten erreichen und anschließend übertreffen. Es gibt auch keinen Hinweis darauf, dass die Erforschung des menschlichen Gehirns wahrscheinlich einen durchbreiten Durchbruch erzielen wird, der so groß ist, dass es die weniger undurchsichtige Intelligenz macht. KI ist nicht – und wird wahrscheinlich nicht werden – die schwarze Field, die das populäre menschliche Gefühl sagt.

Piotr mardzielKopf von Ai, Realmlabs.ai.

Sophia Merow Und Saurabh Shintre trug zu diesem Beitrag bei.

Von admin

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert