
In 15 TED-Präsentationen im Speak-Stil hat die MIT-Fakultät kürzlich ihre Pionierforschung erörtert, die soziale, ethische und technische Überlegungen und Fachkenntnisse beinhaltet, die jeweils durch Saatgutstipendien unterstützt werden, die durch die von der festgelegt wurden Soziale und ethische Verantwortlichkeiten des Computer systems (SERC), eine Kreuzkürzungsinitiative des MIT Schwarzman School of Computing. Der Rufen Sie Vorschläge an Im vergangenen Sommer wurde quick 70 Anwendungen getroffen. Ein Komitee mit Vertretern jeder MIT -Schule und dem School berief sich ein, um die Gewinnprojekte auszuwählen, die bis zu 100.000 US -Greenback an Finanzmitteln erhielten.
„SERC ist verpflichtet, den Fortschritt an der Schnittstelle von Pc, Ethik und Gesellschaft voranzutreiben. Die Saatgutzuschüsse sollen mutiges, kreatives Denken über die komplexen Herausforderungen und Möglichkeiten in diesem Raum läuten“, sagte Nikos Trichakis, Co-Co-Dekan von SERC und JC Penney Professor of Administration. „Mit der MIT -Ethik des Pc -Forschungssymposiums waren wir der Meinung, dass es wichtig ist, nicht nur die Breite und Tiefe der Forschung zu präsentieren, die die Zukunft des ethischen Computer systems prägt, sondern auch die Group einzuladen, auch Teil des Gesprächs zu sein.“
„Was Sie hier sehen, ist eine Artwork kollektives Gemeinschaftsurteil über die aufregendste Arbeit, wenn es um die Forschung geht, in der sozialen und ethischen Verantwortung des Computer systems am MIT“, sagte Caspar Hare, Co-Co-Dekan von SERC und Professor für Philosophie.
Der Ganztages Symposium Am 1. Mai wurde in vier Schlüsselthemen organisiert: Verantwortungsbewusstes Gesundheitswesen, Governance und Ethik, Technologie in der Gesellschaft und das bürgerschaftliche Engagement sowie die digitale Inklusion und soziale Gerechtigkeit. Die Sprecher hielten zum Nachdenken anregende Präsentationen zu einer breiten Palette von Themen, darunter algorithmische Vorurteile, Datenschutz, die sozialen Implikationen künstlicher Intelligenz und die sich entwickelnde Beziehung zwischen Menschen und Maschinen. Die Veranstaltung umfasste auch eine Postersitzung, in der Studentenforscher vorgestellt wurden Projekte Sie arbeiteten das ganze Jahr über als SERC -Gelehrte.
Highlights aus der MIT -Ethik des Computing -Forschungssymposiums in jedem der Themenbereiche, Viele davon stehen auf YouTube zur Verfügungenthalten:
Machen Sie das Nierentransplantationssystem fairer
Richtlinien, die das Organtransplantationssystem in den Vereinigten Staaten regulieren, werden von einem nationalen Komitee erstellt, der oft mehr als sechs Monate dauert, um eine Zeitleiste zu schaffen, die viele auf der Warteliste einfach nicht überleben können.
Dimitris Bertsimas, Vizeprovost für Open Studying, Affiliate Dean of Enterprise Analytics und Boeing Professor für Operationsforschung, teilte seine neueste Arbeit mit In Analytics für eine faire und effiziente Allokation der Nierentransplantation. Der neue Algorithmus von Bertsimas untersucht Kriterien wie geografische Lage, Mortalität und Alter in nur 14 Sekunden, eine monumentale Änderung gegenüber den üblichen sechs Stunden.
Bertsimas und sein Staff arbeiten eng mit dem United Community for Organ Sharing (UNOS) zusammen, einer gemeinnützigen Organisation, die den größten Teil des nationalen Spenden- und Transplantationssystems durch einen Vertrag mit der Bundesregierung verwaltet. Während seiner Präsentation teilte Bertsimas ein Video von James Alcorn, Senior Coverage Strategist bei UNOS, der diese ergreifende Zusammenfassung der Auswirkungen des neuen Algorithmus anbot:
„Diese Optimierung verändert radikal die Turnaround -Zeit für die Bewertung dieser verschiedenen Simulationen von politischen Szenarien. Früher dauerte wir ein paar Monate, um eine Handvoll verschiedener politischer Szenarien zu betrachten, und jetzt dauert es nur wenige Minuten, um Tausende und Tausende von Szenarien zu betrachten.
Die Ethik von AI-generierten Social-Media-Inhalten
Wenn sich AI-generierte Inhalte auf Social-Media-Plattformen stärker häufen, welche Auswirkungen haben die Offenlegung (oder nicht die Offenlegung), dass ein Teil eines Beitrags von KI geschaffen wurde? Adam Berinsky, Professor für Politikwissenschaft mit Mitsui, und Gabrielle Pélochin-SKULSKI, Doktorandin der Abteilung für Politikwissenschaft, untersuchten diese Frage in einer Sitzung, in der jüngste Studien über die Auswirkungen verschiedener Labels auf A-generierte Inhalte untersucht wurden.
In einer Reihe von Umfragen und Experimenten, die Bezeichnungen an Publish-A-generierten Beiträgen befestigten, untersuchten die Forscher, wie bestimmte Wörter und Beschreibungen die Wahrnehmung der Täuschung der Benutzer beeinflussten, ihre Absicht, sich mit dem Publish zu beschäftigen, und letztendlich, ob der Beitrag wahr oder falsch warfare.
„Der große Imbiss aus unseren ersten Erkenntnissen ist, dass eine Größe nicht für alle passt“, sagte Pélochin-SKULSKI. „Wir haben festgestellt, dass die Kennzeichnung von AI-generierten Bildern mit einem prozessorientierten Etikett den Glauben sowohl an falschen als auch an wahren Posten verringert. Dies ist ziemlich problematisch, da die Kennzeichnung beabsichtigt, den Glauben der Menschen an falsche Informationen zu verringern, nicht unbedingt wahre Informationen.
Verwenden von KI, um den zivilen Diskurs on-line zu erhöhen
„Unsere Forschung zielt darauf ab, sich zu befassen, wie Menschen in den Organisationen und Gemeinden, denen sie gehören, zunehmend ein Mitspracherecht haben wollen“ in einer Sitzung erklärt zu Experimenten in generativer KI und der Zukunft der digitalen Demokratie. TSAI, Ford Professor für Politikwissenschaft und Direktor des MIT -Governance -Labors, führt laufende Forschung mit Alex Pentland, Toshiba -Professor für Medienkunstwissenschaft und einem größeren Staff durch.
On-line-Beratungsplattformen haben in letzter Zeit in den USA sowohl im öffentlichen als auch im privaten Sektor in den USA an Popularität gestiegen. Tsai erklärte, dass es mit Technologie jetzt für alle möglich ist, ein Mitspracherecht zu haben – aber dies kann überwältigend sein oder sich sogar unsicher fühlen. Erstens sind zu viele Informationen verfügbar, und zweitens ist der On-line -Diskurs zunehmend „unhöflich“ geworden.
Die Gruppe konzentriert sich auf „Wie wir auf vorhandenen Technologien aufbauen und sie durch strenge, interdisziplinäre Forschung verbessern können und wie wir innovieren können, indem wir generative KIs integrieren, um die Vorteile von On-line -Räumen für die Überlegungen zu verbessern.“ Sie haben ihre eigene AI-integrierte Plattform für beratende Demokratie, Beratung.io entwickelt und vier erste Module eingeführt. Alle Studien waren bisher im Labor, aber sie arbeiten auch an einer Reihe bevorstehender Feldstudien, von denen die erste in Zusammenarbeit mit der Regierung des District of Columbia in Zusammenarbeit sein wird.
Tsai sagte dem Publikum: „Wenn Sie nichts anderes aus dieser Präsentation nehmen, hoffe ich, dass Sie dies wegnehmen – dass wir alle fordern sollten, dass Technologien, die entwickelt werden, beurteilt werden, ob sie constructive nachgelagerte Ergebnisse haben, anstatt sich nur auf die Maximierung der Anzahl der Benutzer zu konzentrieren.“
Ein öffentlicher Suppose Tank, der alle Aspekte von KI berücksichtigt
Als Catherine D’Ignazio, Affiliate Professor für City Science and Planning, und Nikko Stevens, Postdoc im Information + Feminism Lab am MIT, ursprünglich ihren Finanzierungsvorschlag eingereicht haben, wollten sie nicht beabsichtigten, ein Denkfabrik zu entwickeln, sondern ein Rahmen, das künstliche Intelligenz und maschinelles Lernen integrieren konnten und die Methoden der Beschäftigung und das Design des maschinellen Lernens integrieren und das Design der Parteifunktionen und des maschinellen Lernens integrieren konnten.
Am Ende schufen sie liberatorische KI, was sie beschreiben als „rollende öffentliche Denkfabrik über alle Aspekte der KI“. D’Ignazio und Stevens versammelten 25 Forscher aus einer Vielzahl von Institutionen und Disziplinen, die mehr als 20 Positionsarbeiten verfassten, die die aktuellste akademische Literatur zu KI -Systemen und Engagement untersuchten. Sie gruppierten die Papiere absichtlich in drei verschiedene Themen: die KI -Landschaft, Sackgassen und Wege nach vorne.
„Anstatt auf eine offene KI oder Google zu warten, um uns einzuladen, an der Entwicklung ihrer Produkte teilzunehmen, haben wir uns zusammengetan, um den Standing Quo zu bestreiten, ein größeres Bild zu denken und Ressourcen in diesem System in der Hoffnung einer größeren gesellschaftlichen Transformation neu zu organisieren“, sagte D’Intezio.
