Bevorzugte Quelle von Google

Laut einer aktuellen Studie der Hebräischen Universität, die in der Zeitschrift veröffentlicht wurde, weisen KI-Systeme vorhersehbare und systematische Vorurteile bei der Beurteilung von Menschen auf Verfahren der Royal Society. Die Studie analysierte über 43.000 simulierte Entscheidungen zusammen mit etwa 1.000 menschlichen Teilnehmern in fünf Szenarien und zeigte erhebliche Unterschiede zwischen menschlichen und KI-Bewertungen auf.

Die Szenarien umfassten finanzielle Entscheidungen wie die Kreditvergabe an einen Kleinunternehmer, aber auch soziale Urteile wie die Beurteilung eines Babysitters oder die Entscheidung, wie viel man einem gemeinnützigen Gründer spenden sollte. Die Ergebnisse deuten darauf hin, dass sowohl Menschen als auch KI Individuen bevorzugen, die als kompetent, ehrlich und wohlmeinend wahrgenommen werden, Maschinen jedoch anhand starrer Bewertungskriterien arbeiten, anstatt ganzheitliche Eindrücke zu vermitteln.

Prof. Yaniv Dover bemerkte: „KI trifft keine zufälligen Entscheidungen. Sie erfasst etwas Reales darüber, wie Menschen einander bewerten.“ Die Studie stellte jedoch fest, dass Menschen dazu neigen, allgemeine Eindrücke auf der Grundlage mehrerer Merkmale zu erzeugen, während KI Merkmale wie Kompetenz und Integrität eher segmentiert bewertet. Valeria Lerman erklärte weiter: „Die Menschen in unserer Studie beurteilen andere chaotisch und ganzheitlich. KI ist sauberer, systematischer und das kann zu sehr unterschiedlichen Ergebnissen führen.“

Unterschiede in den Bewertungsergebnissen waren selbst dann offensichtlich, wenn identische Angaben zu den Probanden verwendet wurden. Die Forscher fanden heraus, dass die Vorurteile der KI systematischer und manchmal stärker sein könnten als die des Menschen. In Finanzszenarien zeigten KI-Systeme konsistente Vorurteile zugunsten älterer Menschen und wurden von Aspekten wie Faith und Geschlecht beeinflusst. „Menschen haben natürlich Vorurteile“, sagte Dover. „Aber was uns überrascht hat, ist, dass die Vorurteile der KI systematischer, vorhersehbarer und manchmal stärker sein können.“

Die Studie ergab, dass unterschiedliche KI-Modelle oft zu unterschiedlichen Urteilen über dieselbe Individual führen. Diese Variabilität unterstreicht die Bedeutung der Auswahl von KI-Modellen für die Bestimmung realer Ergebnisse. „Welches Modell Sie verwenden, ist wirklich wichtig“, bemerkte Lerman. Derzeit werden große Sprachmodelle für die Auswahl von Bewerbern, die Bonitätsbeurteilung und andere Entscheidungsprozesse eingesetzt.

Während KI menschliche Urteilsprozesse nachahmt, fanden die Forscher, dass sie weniger nuanciert und starrer ist, oft mit Vorurteilen, die schwerer zu erkennen sind. „Diese Systeme sind leistungsstark“, betonte Dover. „Sie können Aspekte des menschlichen Denkens auf konsistente Weise modellieren. Aber sie sind keine Menschen, und wir sollten nicht davon ausgehen, dass sie Menschen auf die gleiche Weise sehen wie wir.“

Die Forscher plädieren für ein tieferes Verständnis der Bewertungsprozesse von KI, während sich diese Werkzeuge von Assistenten zu Entscheidungsträgern weiterentwickeln. Sie stellen klar, dass das Ziel nicht darin besteht, den Einsatz von KI zu unterbinden, sondern das Bewusstsein dafür zu schärfen, wie sehr diese Systeme Einzelpersonen vertrauen. „Die Frage ist nicht mehr, ob wir Maschinen vertrauen, sondern ob wir verstehen, wie sie uns vertrauen“, heißt es in der Studie.


Hervorgehobener Bildnachweis

Von admin

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert