Während eines Treffens der Klasse 6.C40/24.C40 (Ethik des Computer systems), Professor Armando Photo voltaic-Lezama stellt seinen Schülern die gleiche unmögliche Frage, dass er sich in der Forschung, die er mit der computergestützten Programmiergruppe am MIT leitet, oft fragt:

„Wie stellen wir sicher, dass eine Maschine das tut, was wir wollen, und nur das, was wir wollen?“

In diesem Second, was manche als das goldene Zeitalter der generativen KI betrachten, magazine dies wie eine dringende neue Frage erscheinen. Aber Photo voltaic-Lezama, der angesehene Professor für Pc am MIT, weist schnell darauf hin, dass dieser Kampf so alt ist wie die Menschheit selbst.

Er beginnt, den griechischen Mythos von König Midas, dem Monarchen, dem die gottähnliche Kraft zu erteilen, um alles in ein solides Gold zu verwandeln. Vorhersehbar conflict der Wunsch nach hinten los, als Midas versehentlich alle, die er liebte, in vergoldetes Stein verwandelte.

„Seien Sie vorsichtig, was Sie verlangen, denn es könnte auf eine Weise gewährt werden, die Sie nicht erwarten“, sagt er und warnt seine Schüler, viele von ihnen aufstrebende Mathematiker und Programmierer.

Er gräbt sich in MIT-Archive, um Folien von körnigen Schwarz-Weiß-Fotografien zu teilen, und erzählt die Geschichte der Programmierung. Wir hören von der Pygmalion-Maschine aus den 1970er Jahren, die unglaublich detaillierte Hinweise erforderte, bis die Computersoftware der späten 90er Jahre, die Groups von Ingenieuren und ein 800-seitiges Dokument zum Programm brachte.

Obwohl diese Prozesse in ihrer Zeit bemerkenswert sind, dauerten diese Prozesse zu lange, um Benutzer zu erreichen. Sie ließen keinen Raum für spontane Entdeckungen, Spielen und Innovationen.

Photo voltaic-Lezama spricht über die Risiken, moderne Maschinen zu bauen, die nicht immer die Hinweise oder die roten Linien eines Programmierers respektieren und die ebenso in der Lage sind, Schaden zu erreichen, wie das Leben zu retten.

Titus Roesler, Senior mit Hauptfach Elektrotechnik, nickt wissentlich. Roesler schreibt sein letztes Papier über die Ethik autonomer Fahrzeuge und wiegt, wer moralisch verantwortlich ist, wenn man hypothetisch einen Fußgänger trifft und tötet. Seine Argumentfragen, die Annahmen hinter den technischen Fortschritten zugrunde liegen und mehrere gültige Standpunkte berücksichtigen. Es stützt sich auf die Philosophiestheorie des Utilitarismus. Roesler erklärt: „Ungefähr nach dem Utilitarismus bringt die moralische Sache das Beste für die größte Anzahl von Menschen.“

MIT -Philosoph Brad SkowMit dem sich Photo voltaic-Lezama entwickelt hat und den Kurs untersteht, beugt sich vor und macht sich Notizen.

Eine Klasse, die technisches und philosophisches Fachwissen erfordert

Die Ethik des Computer systems, das erstmals im Herbst 2024 angeboten wurde, wurde durch die erstellt Gemeinsamkeiten für die ComputerbildungEine Initiative des MIT Schwarzman Faculty of Computing, das mehrere Abteilungen zusammenbringt, um neue Kurse zu entwickeln und zu unterrichten und neue Programme zu starten, die Computing mit anderen Disziplinen verbinden.

Die Ausbilder wechseln sich ab. Skow, die Laurance S. Rockefeller Professor für Philosophie, bringt die Linse seiner Disziplin für die Untersuchung der breiteren Auswirkungen der heutigen ethischen Themen, während Photo voltaic-Lezama, der auch stellvertretender Direktor und Chief Working Officer des MIT-Labors für Informatik- und künstliche Intelligenzlabor ist, Angebote ist, Angebote, Angebote, Angebote, Angebote, Angebote, Angebote Perspektive durch seine.

Skow und Photo voltaic-Lezama besuchen die Vorträge des anderen und passen ihre Comply with-up-Klassensitzungen als Antwort an. Die Einführung des Lernelements in Echtzeit hat sich für dynamischere und reaktionsschnelle Unterrichtsgespräche geführt. Eine Rezitation, um das Thema der Woche mit Doktoranden aus Philosophie oder Informatik und einer lebhaften Diskussion aufzubrechen, kombiniert den Kursinhalt.

„Ein Außenseiter könnte denken, dass dies eine Klasse sein wird, die sicherstellt, dass diese neuen Computerprogrammierer von MIT immer das Richtige tun“, sagt Skow. Die Klasse ist jedoch absichtlich so konzipiert, dass sie den Schülern eine andere Fähigkeiten beibringen.

Entschlossen, einen wirkungsvollen semesterlangen Kurs zu schaffen, der mehr als Vorlesungsstudenten über richtige oder falsche Vorlesungsstudenten machte, konzipierte der Philosophieprofessor Caspar Hare die Idee für die Ethik des Computer systems in seiner Rolle als Affiliate Dean der Soziale und ethische Verantwortlichkeiten des Computer systems. Hare rekrutierte Skow und Photo voltaic-Lezama als Hauptausbilder, da er wusste, dass sie etwas Tiefereres tun konnten.

„Über die Fragen zu denken, die in dieser Klasse auftreten, erfordert sowohl technisches als auch philosophisches Fachwissen. Es gibt keine anderen Klassen am MIT, die beide nebeneinander platzieren“, sagt Skow.

Genau das hat sich der Senior Alek Westover anmelden. Das Doppel -Main der Mathematik- und Informatik erklärt: „Viele Leute sprechen darüber, wie die Flugbahn von KI in fünf Jahren aussehen wird. Ich fand es wichtig, eine Klasse zu besuchen, die mir hilft, mehr darüber nachzudenken.“

Westover sagt, er habe sich aufgrund des Interesses an Ethik und dem Wunsch, das Recht von falsch zu unterscheiden, von der Philosophie angezogen. In Matheklassen hat er gelernt, eine Problemaussage aufzuschreiben und sofortige Klarheit darüber zu erhalten, ob er sie erfolgreich gelöst hat oder nicht. In der Ethik des Computer systems hat er jedoch gelernt, wie man schriftliche Argumente für „knifflige philosophische Fragen“ macht, die möglicherweise keine einzige richtige Antwort haben.

Zum Beispiel: „Ein Downside, über das wir uns Sorgen machen könnten, ist, was passiert, wenn wir mächtige KI -Agenten aufbauen, die einen Job machen können, den ein Mensch tun kann?“ Westover fragt. „Wenn wir in diesem Maße mit diesen AIs interagieren, sollten wir ihnen ein Gehalt zahlen? Wie sehr sollten wir uns um das kümmern, was sie wollen?“

Es gibt keine einfache Antwort, und Westover geht davon aus, dass er in Zukunft viele andere Dilemmata am Arbeitsplatz begegnen wird.

„Additionally zerstört das Web die Welt?“

Das Semester begann mit einem tiefen Eintauchen in das KI-Risiko oder mit der Vorstellung, dass „ob KI ein existenzielles Risiko für die Menschheit darstellt“, den freien Willen auspacken, die Wissenschaft, wie unser Gehirn Entscheidungen unter Unsicherheit trifft, und Debatten über die langfristigen Verbindlichkeiten, und Regulierung von AI. Eine zweite, längere Einheit in Bezug auf „das Web, das World Vast Net und die sozialen Auswirkungen technischer Entscheidungen“. Das Ende des Begriffs befasst sich mit Privatsphäre, Voreingenommenheit und Redefreiheit.

Ein Klassensthema widmete sich provokativ und fragte: „Zerstört das Web die Welt?“

Senior Caitlin Ogoe studiert in Kurs 6-9 (Berechnung und Wahrnehmung). In einer Umgebung zu sein, in der sie diese Artwork von Themen untersuchen kann, ist genau der Grund, warum sich die selbst beschriebenen „Technologieskeptiker“ im Kurs eingeschrieben haben.

Ogoe wuchs mit einer Mutter, die hörgeschädigt ist, und eine kleine Schwester mit einer Entwicklungsbehinderung zum Ausfallfamilienmitglied, dessen Aufgabe es conflict, Anbieter für technische Unterstützung oder Programme iPhones anzurufen. Sie nutzte ihre Fähigkeiten zu einem Teilzeitjob, der Handys repariert, was ihr den Weg ebnete, ein tiefes Interesse an der Berechnung und einen Weg zum MIT zu entwickeln. Ein prestigeträchtiges Sommerstipendium in ihrem ersten Jahr machte jedoch die Frage, wie die Verbraucher von der Technologie betroffen waren, die sie bei der Programmierung hielt.

„Alles, was ich mit Technologie gemacht habe, stammt aus der Perspektive von Menschen, Bildung und persönlicher Verbindung“, sagt Ogoe. „Dies ist eine Nische, die ich liebe. Nehmen Sie Geisteswissenschaften in Bezug auf öffentliche Ordnung, Technologie und Kultur zu einer meiner großen Leidenschaften, aber dies ist der erste Kurs, den ich besucht habe, der auch einen Philosophieprofessor betrifft.“

In der folgenden Woche hält Skows über die Rolle der Voreingenommenheit in der KI und Ogoe, die nächst .

SKOW greift sich mit der Untersuchung von Compas ein, einer kontroversen KI-Software program, die einen Algorithmus verwendet, um die Wahrscheinlichkeit vorherzusagen, dass Menschen, die wegen Verbrechen beschuldigt werden, erneut beleidigt werden. Nach a 2018 ProPublica -ArtikelEs conflict wahrscheinlich, dass Compas schwarze Angeklagte als zukünftige Kriminelle kennzeichneten und mit doppelt so hoch wie bei weißen Angeklagten falsch optimistic Ergebnisse gaben.

Die Unterrichtssitzung ist bestrebt, festzustellen, ob der Artikel die Schlussfolgerung garantiert, dass das Compas -System voreingenommen ist und eingestellt werden sollte. Dazu führt Skow zwei verschiedene Theorien zur Equity ein:

„Inhaltliche Equity ist die Idee, dass ein bestimmtes Ergebnis truthful oder unfair sein könnte“, erklärt er. „In prozessualer Equity geht es darum, ob das Verfahren, durch das ein Ergebnis erzeugt wird, truthful ist.“ Anschließend werden eine Vielzahl widersprüchlicher Kriterien der Equity eingeführt, und die Klasse diskutiert, welche plausibel waren und welche Schlussfolgerungen sie über das Compas -System rechtfertigten.

Später gehen die beiden Professoren nach oben nach Photo voltaic-Lezamas Büro, um zu beachten, wie die Übung an diesem Tag verlaufen conflict.

„Wer weiß?“ sagt Photo voltaic-Lezama. „Vielleicht in fünf Jahren werden alle darüber lachen, wie sich die Menschen über das existenzielle Risiko einer KI Sorgen gemacht haben über diese Probleme. “

Von admin

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert