Um KI-Systeme zu entwickeln, die effektiv mit Menschen zusammenarbeiten können, ist es hilfreich, zunächst ein gutes Modell menschlichen Verhaltens zu haben. Menschen verhalten sich bei Entscheidungen jedoch häufig suboptimal.
Diese Irrationalität, die besonders schwer zu modellieren ist, lässt sich oft auf rechnerische Einschränkungen zurückführen. Ein Mensch kann nicht Jahrzehnte damit verbringen, über die ideale Lösung für ein einziges Downside nachzudenken.
Forscher am MIT und der College of Washington haben eine Methode zur Modellierung des Verhaltens eines Agenten (ob Mensch oder Maschine) entwickelt, die die unbekannten Rechenbeschränkungen berücksichtigt, die die Problemlösungsfähigkeiten des Agenten beeinträchtigen können.
Ihr Modell kann automatisch die Rechenleistungsbeschränkungen eines Agenten ableiten, indem es nur einige Spuren seiner früheren Aktionen betrachtet. Das Ergebnis, das sogenannte „Inferenzbudget“ eines Agenten, kann verwendet werden, um das zukünftige Verhalten dieses Agenten vorherzusagen.
In einem neuen Artikel zeigen die Forscher, wie ihre Methode dazu verwendet werden kann, die Navigationsziele einer Individual aus vorherigen Routen abzuleiten und die nachfolgenden Züge von Spielern in Schachpartien vorherzusagen. Ihre Technik entspricht einer anderen gängigen Methode zur Modellierung dieser Artwork der Entscheidungsfindung oder übertrifft diese sogar.
Letztendlich könnte diese Arbeit Wissenschaftlern helfen, KI-Systemen beizubringen, wie sich Menschen verhalten, was es diesen Systemen ermöglichen könnte, besser auf ihre menschlichen Mitarbeiter zu reagieren. Die Fähigkeit, das Verhalten eines Menschen zu verstehen und daraus seine Ziele abzuleiten, könnte einen KI-Assistenten viel nützlicher machen, sagt Athul Paul Jacob, ein Doktorand der Elektrotechnik und Informatik (EECS) und Hauptautor eines Papier zu dieser Technik.
„Wenn wir wissen, dass ein Mensch im Begriff ist, einen Fehler zu machen, und wir sehen, wie er sich zuvor verhalten hat, könnte der KI-Agent eingreifen und eine bessere Lösung vorschlagen. Oder der Agent könnte sich an die Schwächen seiner menschlichen Mitarbeiter anpassen. Die Fähigkeit, menschliches Verhalten zu modellieren, ist ein wichtiger Schritt auf dem Weg zum Aufbau eines KI-Agenten, der diesem Menschen tatsächlich helfen kann“, sagt er.
Jacob verfasste das Papier gemeinsam mit Abhishek Gupta, Assistenzprofessor an der College of Washington, und dem Hauptautor Jacob Andreas, außerordentlicher Professor in EECS und Mitglied des Pc Science and Synthetic Intelligence Laboratory (CSAIL). Die Forschungsarbeit wird auf der Worldwide Convention on Studying Representations vorgestellt.
Modellierungsverhalten
Forscher arbeiten seit Jahrzehnten an Computermodellen des menschlichen Verhaltens. Viele frühere Ansätze versuchen, suboptimale Entscheidungsfindungen zu berücksichtigen, indem sie dem Modell Rauschen hinzufügen. Anstatt dass der Agent immer die richtige Possibility wählt, könnte das Modell dafür sorgen, dass der Agent in 95 Prozent der Fälle die richtige Wahl trifft.
Diese Methoden berücksichtigen jedoch möglicherweise nicht die Tatsache, dass Menschen nicht immer sich in gleicher Weise suboptimal verhalten.
Andere am MIT haben ebenfalls untersuchte wirksamere Methoden um trotz suboptimaler Entscheidungsfindung Ziele zu planen und abzuleiten.
Um ihr Modell zu entwickeln, ließen sich Jacob und seine Mitarbeiter von früheren Studien über Schachspieler inspirieren. Sie stellten fest, dass die Spieler bei einfachen Zügen weniger Zeit zum Nachdenken brauchten, bevor sie handelten, und dass stärkere Spieler bei anspruchsvollen Partien tendenziell mehr Zeit mit der Planung verbrachten als schwächere.
„Letztendlich haben wir gesehen, dass die Tiefe der Planung oder wie lange jemand über das Downside nachdenkt, ein wirklich guter Indikator dafür ist, wie sich Menschen verhalten“, sagt Jacob.
Sie bauten ein Framework, das die Planungstiefe eines Agenten anhand früherer Aktionen ableiten und diese Informationen zur Modellierung des Entscheidungsprozesses des Agenten verwenden konnte.
Der erste Schritt ihrer Methode besteht darin, einen Algorithmus für eine festgelegte Zeit laufen zu lassen, um das untersuchte Downside zu lösen. Wenn sie beispielsweise ein Schachspiel untersuchen, könnten sie den Schachalgorithmus eine bestimmte Anzahl von Schritten lang laufen lassen. Am Ende können die Forscher die Entscheidungen sehen, die der Algorithmus in jedem Schritt getroffen hat.
Ihr Modell vergleicht diese Entscheidungen mit dem Verhalten eines Agenten, der dasselbe Downside löst. Es gleicht die Entscheidungen des Agenten mit den Entscheidungen des Algorithmus ab und identifiziert den Schritt, bei dem der Agent mit der Planung aufgehört hat.
Daraus kann das Modell das Inferenzbudget des Agenten bestimmen, additionally wie viel Zeit dieser Agent für dieses Downside einplanen wird. Es kann das Inferenzbudget verwenden, um vorherzusagen, wie dieser Agent bei der Lösung eines ähnlichen Issues reagieren würde.
Eine interpretierbare Lösung
Diese Methode kann sehr effizient sein, da die Forscher ohne zusätzlichen Arbeitsaufwand auf alle Entscheidungen des Problemlösungsalgorithmus zugreifen können. Dieses Framework kann auch auf jedes Downside angewendet werden, das mit einer bestimmten Klasse von Algorithmen gelöst werden kann.
„Für mich battle das Auffälligste die Tatsache, dass dieses Inferenzbudget sehr intestine interpretierbar ist. Es besagt, dass schwierigere Probleme mehr Planung erfordern oder dass man als starker Spieler länger planen muss. Als wir uns daran machten, dachten wir nicht, dass unser Algorithmus diese Verhaltensweisen auf natürliche Weise erkennen würde“, sagt Jacob.
Die Forscher testeten ihren Ansatz anhand von drei verschiedenen Modellierungsaufgaben: Sie leiteten Navigationsziele aus vorherigen Routen ab, errieten die Kommunikationsabsicht einer Individual anhand ihrer verbalen Hinweise und sagten nachfolgende Züge in Mensch-Mensch-Schachpartien voraus.
Ihre Methode battle in jedem Experiment gleich intestine oder besser als eine beliebte Different. Darüber hinaus stellten die Forscher fest, dass ihr Modell des menschlichen Verhaltens intestine mit Messungen der Fähigkeiten der Spieler (bei Schachpartien) und der Aufgabenschwierigkeit übereinstimmte.
In Zukunft wollen die Forscher diesen Ansatz nutzen, um den Planungsprozess in anderen Bereichen zu modellieren, beispielsweise beim bestärkenden Lernen (einer in der Robotik häufig verwendeten Versuch-und-Irrtum-Methode). Langfristig wollen sie diese Arbeit weiter ausbauen, um das übergeordnete Ziel zu erreichen, effektivere KI-Kollaborateure zu entwickeln.
Diese Arbeit wurde teilweise vom Programm „Synthetic Intelligence for Augmentation and Productiveness“ des MIT Schwarzman Faculty of Computing und der Nationwide Science Basis unterstützt.