Warum hat der Mensch die Augen entwickelt, die wir heute haben?

Während Wissenschaftler nicht in der Zeit zurückgehen können, um die Umweltbelastungen zu untersuchen, die die Entwicklung der verschiedenen in der Natur vorkommenden Sehsysteme geprägt haben, ermöglicht ihnen ein von MIT-Forschern entwickeltes neues Rechengerüst, diese Entwicklung bei Agenten der künstlichen Intelligenz zu untersuchen.

Das von ihnen entwickelte Framework, in dem verkörperte KI-Agenten über viele Generationen hinweg Augen entwickeln und sehen lernen, ist wie eine „wissenschaftliche Sandbox“, die es Forschern ermöglicht, verschiedene Evolutionsbäume nachzubilden. Der Benutzer tut dies, indem er die Struktur der Welt und die Aufgaben verändert, die KI-Agenten ausführen, beispielsweise das Finden von Nahrungsmitteln oder das Unterscheiden von Objekten.

Auf diese Weise können sie untersuchen, warum ein Tier möglicherweise einfache, lichtempfindliche Augenflecken entwickelt hat, während ein anderes komplexe, kameraartige Augen hat.

Die Experimente der Forscher mit diesem Framework zeigen, wie Aufgaben die Augenentwicklung der Agenten vorantreiben. Sie fanden beispielsweise heraus, dass Navigationsaufgaben häufig zur Entwicklung von Facettenaugen mit vielen einzelnen Einheiten führten, wie die Augen von Insekten und Krebstieren.

Wenn sich die Agenten hingegen auf die Objektunterscheidung konzentrierten, struggle es wahrscheinlicher, dass sie Kameraaugen mit Iris und Netzhaut entwickelten.

Dieser Rahmen könnte es Wissenschaftlern ermöglichen, „Was-wäre-wenn“-Fragen zu Bildverarbeitungssystemen zu untersuchen, die experimentell schwer zu untersuchen sind. Es könnte auch als Leitfaden für die Entwicklung neuartiger Sensoren und Kameras für Roboter, Drohnen und tragbare Geräte dienen, die Leistung mit realen Einschränkungen wie Energieeffizienz und Herstellbarkeit in Einklang bringen.

„Obwohl wir nie zurückgehen und jedes Element herausfinden können, wie die Evolution stattgefunden hat, haben wir mit dieser Arbeit eine Umgebung geschaffen, in der wir gewissermaßen die Evolution nachbilden und die Umwelt auf all diese verschiedenen Arten erforschen können. Diese Methode der Wissenschaftsarbeit eröffnet die Tür zu vielen Möglichkeiten“, sagt Kushagra Tiwary, Doktorandin am MIT Media Lab und Co-Hauptautorin einer Arbeit zu dieser Forschung.

Er wird bei der Arbeit von dem Co-Hauptautor und Kommilitonen Aaron Younger unterstützt; Doktorand Tzofi Klinghoffer; ehemaliger Postdoc Akshat Dave, der jetzt Assistenzprofessor an der Stony Brook College ist; Tomaso Poggio, Eugene McDermott-Professor in der Abteilung für Gehirn- und Kognitionswissenschaften, Forscher am McGovern Institute und Co-Direktor des Heart for Brains, Minds, and Machines; Co-Senior-Autoren Brian Cheung, Postdoc am Heart for Brains, Minds, and Machines und künftiger Assistenzprofessor an der College of California San Francisco; und Ramesh Raskar, außerordentlicher Professor für Medienkunst und -wissenschaften und Leiter der Digital camera Tradition Group am MIT; sowie andere an der Rice College und der Lund College. Die Forschung erscheint heute in Wissenschaftliche Fortschritte.

Bau einer wissenschaftlichen Sandbox

Der Aufsatz begann mit einem Gespräch zwischen Forschern über die Entdeckung neuer Bildverarbeitungssysteme, die in verschiedenen Bereichen wie der Robotik nützlich sein könnten. Um ihre „Was-wäre-wenn“-Fragen zu testen, beschlossen die Forscher, dies zu tun Nutzen Sie KI, um die vielen evolutionären Möglichkeiten zu erkunden.

„Was-wäre-wenn-Fragen haben mich inspiriert, als ich aufwuchs, um Naturwissenschaften zu studieren. Mit KI haben wir die einzigartige Möglichkeit, diese verkörperten Agenten zu schaffen, die es uns ermöglichen, die Artwork von Fragen zu stellen, die normalerweise unmöglich zu beantworten wären“, sagt Tiwary.

Um diese evolutionäre Sandbox zu bauen, nahmen die Forscher alle Elemente einer Kamera, wie Sensoren, Linsen, Blenden und Prozessoren, und wandelten sie in Parameter um, die ein verkörperter KI-Agent lernen konnte.

Sie verwendeten diese Bausteine ​​als Ausgangspunkt für einen algorithmischen Lernmechanismus, den ein Agent verwenden würde, wenn er im Laufe der Zeit seine Augen weiterentwickelte.

„Wir konnten nicht das gesamte Universum Atom für Atom simulieren. Es struggle eine Herausforderung zu bestimmen, welche Zutaten wir brauchten, welche Zutaten wir nicht brauchten und wie wir die Ressourcen auf diese verschiedenen Elemente verteilen sollten“, sagt Cheung.

In seinem Rahmen kann dieser evolutionäre Algorithmus basierend auf den Einschränkungen der Umgebung und der Aufgabe des Agenten auswählen, welche Elemente weiterentwickelt werden sollen.

Jede Umgebung hat eine einzige Aufgabe, wie Navigation, Nahrungsidentifizierung oder Beuteverfolgung, die darauf ausgelegt ist, echte visuelle Aufgaben nachzuahmen, die Tiere bewältigen müssen, um zu überleben. Die Agenten beginnen mit einem einzelnen Fotorezeptor, der auf die Welt blickt, und einem zugehörigen neuronalen Netzwerkmodell, das visuelle Informationen verarbeitet.

Anschließend wird jeder Agent im Laufe seines Lebens mithilfe von Reinforcement Studying trainiert, einer Trial-and-Error-Technik, bei der der Agent für das Erreichen des Ziels seiner Aufgabe belohnt wird. Die Umgebung beinhaltet auch Einschränkungen, wie etwa eine bestimmte Anzahl von Pixeln für die visuellen Sensoren eines Agenten.

„Diese Einschränkungen bestimmen den Designprozess, genauso wie wir in unserer Welt physikalische Einschränkungen haben, etwa die Physik des Lichts, die das Design unserer eigenen Augen bestimmt haben“, sagt Tiwary.

Über viele Generationen hinweg entwickeln Agenten verschiedene Elemente von Imaginative and prescient-Systemen, die die Belohnungen maximieren.

Ihr Rahmenwerk nutzt einen genetischen Kodierungsmechanismus, um die Evolution rechnerisch nachzuahmen, wobei einzelne Gene mutieren, um die Entwicklung eines Wirkstoffs zu steuern.

Morphologische Gene erfassen beispielsweise, wie der Agent die Umgebung sieht, und steuern die Augenposition. optische Gene bestimmen, wie das Auge mit Licht interagiert, und bestimmen die Anzahl der Photorezeptoren; und neuronale Gene steuern die Lernfähigkeit der Agenten.

Hypothesen testen

Als die Forscher Experimente in diesem Rahmen durchführten, stellten sie fest, dass Aufgaben einen großen Einfluss auf die Sehsysteme hatten, die die Agenten entwickelten.

Beispielsweise entwickelten Agenten, die sich auf Navigationsaufgaben konzentrierten, Augen, die darauf ausgelegt waren, das räumliche Bewusstsein durch Wahrnehmung mit niedriger Auflösung zu maximieren, während Agenten, die mit der Erkennung von Objekten beauftragt waren, Augen entwickelten, die sich mehr auf die Frontalschärfe als auf das periphere Sehen konzentrierten.

Ein anderes Experiment zeigte, dass ein größeres Gehirn nicht immer besser ist, wenn es um die Verarbeitung visueller Informationen geht. Abhängig von physikalischen Einschränkungen wie der Anzahl der Fotorezeptoren in den Augen können jeweils nur so viele visuelle Informationen gleichzeitig in das System gelangen.

„Irgendwann hilft ein größeres Gehirn den Agenten überhaupt nicht mehr, und in der Natur wäre das eine Verschwendung von Ressourcen“, sagt Cheung.

In Zukunft wollen die Forscher mithilfe dieses Simulators die besten Bildverarbeitungssysteme für spezifische Anwendungen erforschen, die Wissenschaftlern dabei helfen könnten, aufgabenspezifische Sensoren und Kameras zu entwickeln. Sie möchten auch LLMs in ihr Framework integrieren, um es Benutzern zu erleichtern, „Was-wäre-wenn“-Fragen zu stellen und zusätzliche Möglichkeiten zu studieren.

„Es ist ein echter Vorteil, Fragen fantasievoller zu stellen. Ich hoffe, dass dies andere dazu inspiriert, größere Rahmen zu schaffen, bei denen sie sich nicht auf eng gefasste Fragen konzentrieren, die einen bestimmten Bereich abdecken, sondern versuchen, Fragen mit einem viel größeren Umfang zu beantworten“, sagt Cheung.

Diese Arbeit wurde teilweise vom Heart for Brains, Minds, and Machines und dem Programm Arithmetic for the Discovery of Algorithms and Architectures (DIAL) der Protection Superior Analysis Initiatives Company (DARPA) unterstützt.

Von admin

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert