Wenn Schallwellen das Innenohr erreichen, nehmen dort Neuronen die Schwingungen auf und alarmieren das Gehirn. In ihren Signalen ist eine Fülle von Informationen kodiert, die es uns ermöglichen, Gesprächen zu folgen, vertraute Stimmen zu erkennen, Musik zu genießen und ein klingelndes Telefon oder ein schreiendes Child schnell zu lokalisieren.

Neuronen senden Signale, indem sie Spitzen aussenden – kurze Spannungsänderungen, die sich entlang der Nervenfasern ausbreiten, auch Aktionspotentiale genannt. Bemerkenswerterweise können Hörneuronen Hunderte von Spitzen professional Sekunde auslösen und ihre Spitzen mit äußerster Präzision zeitlich anpassen, um sie an die Schwingungen der eintreffenden Schallwellen anzupassen.

Mit leistungsstarken neuen Modellen des menschlichen Gehörs haben Wissenschaftler am McGovern Institute for Mind Analysis des MIT festgestellt, dass dieses genaue Timing für einige der wichtigsten Arten, wie wir auditive Informationen verstehen, einschließlich der Erkennung von Stimmen und der Lokalisierung von Geräuschen, von entscheidender Bedeutung ist.

Die Open-Entry-Ergebnisse, berichtete am 4. Dezember in der Zeitschrift Naturkommunikationzeigen, wie maschinelles Lernen Neurowissenschaftlern helfen kann, zu verstehen, wie das Gehirn auditive Informationen in der realen Welt nutzt. MIT-Professor und McGovern-Ermittler Josh McDermottder die Forschung leitete, erklärt, dass die Modelle seines Groups Forscher besser in die Lage versetzen, die Folgen verschiedener Arten von Hörstörungen zu untersuchen und wirksamere Interventionen zu entwickeln.

Wissenschaft des Klangs

Die Hörsignale des Nervensystems sind so präzise getaktet, dass Forscher schon lange vermuten, dass das Timing für unsere Wahrnehmung von Geräuschen wichtig ist. Schallwellen schwingen mit einer Geschwindigkeit, die ihre Tonhöhe bestimmt: Tiefe Töne breiten sich in langsamen Wellen aus, während hohe Schallwellen häufiger schwingen. Der Hörnerv, der Informationen von geräuscherkennenden Haarzellen im Ohr an das Gehirn weiterleitet, erzeugt elektrische Spitzen, die der Frequenz dieser Schwingungen entsprechen. „Die Aktionspotentiale in einem Hörnerv werden zu ganz bestimmten Zeitpunkten im Verhältnis zu den Spitzen in der Reizwellenform ausgelöst“, erklärt McDermott, der auch stellvertretender Leiter der MIT-Abteilung für Gehirn- und Kognitionswissenschaften ist.

Diese als Phasenverriegelung bekannte Beziehung erfordert, dass Neuronen ihre Spitzen mit einer Präzision von weniger als einer Millisekunde zeitlich festlegen. Aber Wissenschaftler wissen nicht wirklich, wie informativ diese zeitlichen Muster für das Gehirn sind. Laut McDermott ist die Frage nicht nur wissenschaftlich interessant, sondern hat auch wichtige klinische Implikationen: „Wenn Sie eine Prothese entwerfen möchten, die elektrische Signale an das Gehirn sendet, um die Funktion des Ohrs zu reproduzieren, ist es wohl ziemlich wichtig zu wissen, welche Arten von Informationen darin enthalten sind.“ „Normale Ohren sind tatsächlich wichtig“, sagt er.

Es struggle schwierig, dies experimentell zu untersuchen; Tiermodelle können nicht viel Aufschluss darüber geben, wie das menschliche Gehirn Strukturen in Sprache oder Musik extrahiert, und der Hörnerv ist für Studien am Menschen nicht zugänglich. Additionally wandten sich McDermott und sein Doktorand Mark Saddler PhD ’24 künstlichen neuronalen Netzen zu.

Künstliches Hören

Neurowissenschaftler verwenden seit langem Computermodelle, um zu erforschen, wie sensorische Informationen vom Gehirn entschlüsselt werden könnten. Bis zu den jüngsten Fortschritten bei der Rechenleistung und den Methoden des maschinellen Lernens beschränkten sich diese Modelle jedoch auf die Simulation einfacher Aufgaben. „Eines der Probleme mit diesen Vorgängermodellen ist, dass sie oft viel zu intestine sind“, sagt Saddler, der jetzt an der Technischen Universität Dänemark studiert. Beispielsweise wird ein Rechenmodell, dessen Aufgabe es ist, die höhere Tonhöhe in einem Paar einfacher Töne zu identifizieren, wahrscheinlich besser abschneiden als Personen, die das Gleiche tun sollen. „Das ist nicht die Artwork von Aufgabe, die wir jeden Tag im Hörbereich erledigen“, betont Saddler. „Das Gehirn ist nicht dafür optimiert, diese sehr künstliche Aufgabe zu lösen.“ Diese Diskrepanz schränkte die Erkenntnisse ein, die aus dieser früheren Modellgeneration gewonnen werden konnten.

Um das Gehirn besser zu verstehen, wollten Saddler und McDermott ein Hörmodell herausfordern, um Dinge zu tun, für die Menschen ihr Gehör in der realen Welt nutzen, wie zum Beispiel das Erkennen von Wörtern und Stimmen. Das bedeutete die Entwicklung eines künstlichen neuronalen Netzwerks, um die Teile des Gehirns zu simulieren, die Eingaben vom Ohr erhalten. Das Netzwerk erhielt Eingaben von rund 32.000 simulierten sensorischen Neuronen zur Geräuscherkennung und wurde dann für verschiedene reale Aufgaben optimiert.

Die Forscher zeigten, dass ihr Modell das menschliche Hörverhalten intestine nachahmte – besser als jedes frühere Modell des Hörverhaltens, sagt McDermott. In einem Take a look at wurde das künstliche neuronale Netzwerk gebeten, Wörter und Stimmen in Dutzenden von Hintergrundgeräuschen zu erkennen, vom Summen einer Flugzeugkabine bis hin zu begeistertem Applaus. Unter allen Bedingungen verhielt sich das Modell sehr ähnlich wie Menschen.

Als das Group jedoch das Timing der Spitzen im simulierten Ohr verschlechterte, konnte ihr Modell nicht mehr mit der Fähigkeit des Menschen mithalten, Stimmen zu erkennen oder die Orte von Geräuschen zu identifizieren. Während McDermotts Group beispielsweise zuvor gezeigt hatte, dass Menschen die Tonhöhe nutzen, um die Stimmen anderer Menschen zu identifizieren, zeigte das Modell, dass diese Fähigkeit ohne zeitlich genau abgestimmte Signale verloren geht. „Man braucht ein ziemlich präzises Timing der Spitzen, um sowohl das menschliche Verhalten zu berücksichtigen als auch die Aufgabe intestine zu bewältigen“, sagt Saddler. Das deutet darauf hin, dass das Gehirn zeitlich genau abgestimmte Hörsignale nutzt, weil diese diese praktischen Aspekte des Hörens unterstützen.

Die Ergebnisse des Groups zeigen, wie künstliche neuronale Netze Neurowissenschaftlern helfen können zu verstehen, wie die vom Ohr extrahierten Informationen unsere Wahrnehmung der Welt beeinflussen, sowohl bei intaktem als auch bei beeinträchtigtem Gehör. „Die Fähigkeit, Schussmuster im Hörnerv mit Verhalten zu verknüpfen, öffnet viele Türen“, sagt McDermott.

„Da wir nun diese Modelle haben, die neuronale Reaktionen im Ohr mit dem Hörverhalten verknüpfen, können wir fragen: ‚Wenn wir verschiedene Arten von Hörverlust simulieren, welche Auswirkungen wird das auf unsere Hörfähigkeiten haben?‘“, sagt McDermott. „Das wird uns helfen, Hörverlust besser zu diagnostizieren, und wir glauben, dass es auch Erweiterungen davon gibt, die uns bei der Entwicklung besserer Hörgeräte oder Cochlea-Implantate helfen.“ Er sagt zum Beispiel: „Das Cochlea-Implantat ist in vielerlei Hinsicht eingeschränkt – es kann einige Dinge tun, andere nicht.“ Wie lässt sich das Cochlea-Implantat am besten einrichten, damit Sie Verhaltensweisen vermitteln können? Das können Sie im Prinzip anhand der Modelle erfahren.“

Von admin

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert