KI entschlüsselt die Geheimnisse des menschlichen Gehirns

Wenn Sie bereit sind, 16 Stunden lang völlig still in einer riesigen Metallröhre zu liegen und sich von Magneten auf Ihr Gehirn schießen zu lassen, während Sie Podcasts anhören, verzückt anhören, kann ein Computer möglicherweise Ihre Gedanken lesen. Oder zumindest seine groben Konturen. Forscher der University of Texas in Austin haben kürzlich ein KI-Modell trainiert, um den Kern einer begrenzten Anzahl von Sätzen zu entschlüsseln, während Einzelpersonen ihnen zuhörten – ein Hinweis auf eine nahe Zukunft, in der künstliche Intelligenz uns ein tieferes Verständnis des menschlichen Geistes ermöglichen könnte.

Das Programm analysierte fMRT-Scans von Personen, die Sätze aus drei Sendungen hörten oder sich auch nur daran erinnerten: Moderne Liebe, Die Motte RadiostundeUnd Das Anthropozän rezensiert. Dann nutzte es diese Bildgebungsdaten des Gehirns, um den Inhalt dieser Sätze zu rekonstruieren. Als beispielsweise eine Versuchsperson hörte: „Ich habe noch keinen Führerschein“, entschlüsselte das Programm die Gehirnscans der Person und gab zurück: „Sie hat noch nicht einmal angefangen, Autofahren zu lernen“ – keine wörtliche Antwort. Schöpfung, sondern eine große Annäherung an die im ursprünglichen Satz ausgedrückte Idee. Das Programm war auch in der Lage, fMRT-Daten von Personen zu betrachten, die sich Kurzfilme ansahen, und ungefähre Zusammenfassungen der Clips zu verfassen, was darauf hindeutet, dass die KI nicht einzelne Wörter aus den Gehirnscans erfasste, sondern zugrunde liegende Bedeutungen.

Die Ergebnisse, veröffentlicht in Naturneurowissenschaften Fügen Sie Anfang dieses Monats ein neues Forschungsgebiet hinzu, das das herkömmliche Verständnis von KI auf den Kopf stellt. Seit Jahrzehnten wenden Forscher Konzepte des menschlichen Gehirns auf die Entwicklung intelligenter Maschinen an. ChatGPT, hyperrealistische Bildgeneratoren wie Midjourney und aktuelle Programme zum Klonen von Stimmen basieren auf Schichten synthetischer „Neuronen“: einer Reihe von Gleichungen, die ähnlich wie Nervenzellen einander Signale senden, um ein gewünschtes Ergebnis zu erzielen. Doch auch wenn die menschliche Kognition seit langem die Entwicklung „intelligenter“ Computerprogramme inspiriert, bleibt vieles über das Innenleben unseres Gehirns ein Rätsel. In einer Umkehrung dieses Ansatzes hoffen Wissenschaftler nun, mehr über den Geist zu erfahren, indem sie synthetische neuronale Netze verwenden, um unsere biologischen zu untersuchen. Es führt „zweifellos zu Fortschritten, die wir uns vor ein paar Jahren einfach nicht vorstellen konnten“, sagt Evelina Fedorenko, Kognitionswissenschaftlerin am MIT.

Die offensichtliche Nähe des KI-Programms zum Gedankenlesen hat dazu geführt Aufruhr An Sozial und traditionelle Medien. Aber dieser Aspekt der Arbeit sei „eher ein Salontrick“, sagt Alexander Huth, einer der Hauptautoren des Buches Natur Student und Neurowissenschaftler an der UT Austin, erzählte es mir. Die Modelle waren relativ ungenau und für jede einzelne Person, die an der Forschung teilnahm, genau abgestimmt, und die meisten Gehirnscantechniken liefern Daten mit sehr niedriger Auflösung; Wir sind weit entfernt von einem Programm, das sich in das Gehirn eines jeden Menschen einklinken und verstehen kann, was er denkt. Der wahre Wert dieser Arbeit liegt in der Vorhersage, welche Teile des Gehirns beim Hören oder Vorstellen von Wörtern aufleuchten. Dies könnte zu besseren Einblicken in die spezifische Art und Weise führen, wie unsere Neuronen zusammenarbeiten, um eines der bestimmenden Attribute der Menschheit, die Sprache, zu schaffen.

Lesen Sie auch  „Mad Max“ von Rutgers folgt demselben Weg wie Bruder Bo Melton

Der erfolgreiche Aufbau eines Programms, das die Bedeutung von Sätzen rekonstruieren kann, dient laut Huth in erster Linie als „Beweis dafür, dass diese Modelle tatsächlich viel darüber erfassen, wie das Gehirn Sprache verarbeitet“. Vor dieser beginnenden KI-Revolution verließen sich Neurowissenschaftler und Linguisten auf eher verallgemeinerte verbale Beschreibungen des Sprachnetzwerks des Gehirns, die ungenau waren und sich nur schwer direkt mit der beobachtbaren Gehirnaktivität in Verbindung bringen ließen. Hypothesen darüber, für welche Aspekte der Sprache verschiedene Gehirnregionen genau verantwortlich sind – oder sogar die grundlegende Frage, wie das Gehirn eine Sprache lernt – waren schwierig oder sogar unmöglich zu testen. (Vielleicht erkennt eine Region Geräusche, eine andere befasst sich mit der Syntax usw.) Aber jetzt könnten Wissenschaftler mithilfe von KI-Modellen besser bestimmen, woraus diese Prozesse genau bestehen. Die Vorteile könnten über akademische Belange hinausgehen – beispielsweise die Unterstützung von Menschen mit bestimmten Behinderungen, so Jerry Tang, der andere Hauptautor der Studie und Informatiker an der UT Austin. „Unser oberstes Ziel ist es, Menschen, die nicht mehr sprechen können, die Kommunikation wiederherzustellen“, sagte er mir.

Es gibt einen gewissen Widerstand gegen die Vorstellung, dass KI bei der Erforschung des Gehirns helfen kann, insbesondere unter Neurowissenschaftlern, die sich mit Sprachen befassen. Das liegt daran, dass neuronalen Netzen, die sich hervorragend für die Suche nach statistischen Mustern eignen, grundlegende Elemente der Art und Weise, wie Menschen Sprache verarbeiten, zu fehlen scheinen, etwa das Verständnis dafür, was Wörter bedeuten. Der Unterschied zwischen maschineller und menschlicher Kognition ist ebenfalls intuitiv: Ein Programm wie GPT-4, das anständige Aufsätze schreiben kann und bei standardisierten Tests hervorragende Leistungen erbringt, lernt durch die Verarbeitung von Terabytes an Daten aus Büchern und Webseiten, während Kinder eine Sprache mit einem Bruchteil davon erlernen 1 Prozent dieser Wortmenge. „Lehrer sagten uns, dass künstliche neuronale Netze wirklich nicht dasselbe sind wie biologische neuronale Netze“, erzählte mir der Neurowissenschaftler Jean-Rémi King von seinen Studien Ende der 2000er Jahre. „Das war nur eine Metapher.“ King ist heute Leiter der Gehirn- und KI-Forschung bei Meta und gehört zu den vielen Wissenschaftlern, die dieses alte Dogma widerlegen. „Wir betrachten das nicht als Metapher“, sagte er mir. „Wir denken darüber nach [AI] als sehr nützliches Modell dafür, wie das Gehirn Informationen verarbeitet.“

In den letzten Jahren haben Wissenschaftler gezeigt, dass das Innenleben fortschrittlicher KI-Programme ein vielversprechendes mathematisches Modell dafür bietet, wie unser Geist Sprache verarbeitet. Wenn Sie einen Satz in ChatGPT oder ein ähnliches Programm eingeben, stellt das interne neuronale Netzwerk diese Eingabe als eine Reihe von Zahlen dar. Wenn eine Person denselben Satz hört, können fMRT-Scans erfassen, wie die Neuronen in ihrem Gehirn reagieren, und ein Computer ist in der Lage, diese Scans im Grunde als eine andere Reihe von Zahlen zu interpretieren. Diese Prozesse wiederholen sich bei vielen, vielen Sätzen, um zwei riesige Datensätze zu erstellen: einen darüber, wie eine Maschine Sprache darstellt, und einen anderen für einen Menschen. Forscher können dann die Beziehung zwischen diesen Datensätzen mithilfe eines Algorithmus abbilden, der als bekannt ist Codierung Modell. Sobald dies erledigt ist, kann das Kodierungsmodell mit der Extrapolation beginnen: Wie die KI auf einen Satz reagiert, wird auch zur Grundlage für die Vorhersage, wie Neuronen im Gehirn als Reaktion darauf feuern.

Lesen Sie auch  Ein Tag im Cotentin für Familien, die „im Urlaub vergessen“ wurden

Alle paar Wochen scheinen neue Forschungsergebnisse zu erscheinen, bei denen KI zur Untersuchung des Sprachnetzwerks des Gehirns eingesetzt wird. Jedes dieser Modelle könnte „eine rechnerisch präzise Hypothese darüber darstellen, was im Gehirn vor sich gehen könnte“, sagte mir Nancy Kanwisher, Neurowissenschaftlerin am MIT. Beispielsweise könnte KI dabei helfen, die offene Frage zu beantworten, was genau das menschliche Gehirn tun möchte, wenn es eine Sprache erlernt – nicht nur, dass eine Person das Kommunizieren lernt, sondern auch die spezifischen neuronalen Mechanismen, durch die Kommunikation zustande kommt. Die Idee dahinter ist: Wenn sich ein Computermodell, das mit einem bestimmten Ziel trainiert wurde – beispielsweise lernen, das nächste Wort in einer Sequenz vorherzusagen oder die grammatikalische Kohärenz eines Satzes zu beurteilen – bei der Vorhersage von Gehirnreaktionen am besten eignet, ist es möglich, dass der menschliche Geist dieses Ziel teilt; Vielleicht arbeitet unser Gehirn, wie GPT-4, indem es bestimmt, welche Wörter am wahrscheinlichsten aufeinander folgen. Das Innenleben eines Sprachmodells wird dann zu einer rechnerischen Theorie des Gehirns.

Diese rechnerischen Ansätze sind erst ein paar Jahre alt, daher gibt es viele Meinungsverschiedenheiten und konkurrierende Theorien. „Es gibt keinen Grund, warum die Darstellung, die Sie aus Sprachmodellen lernen, irgendetwas damit zu tun haben muss, wie das Gehirn einen Satz darstellt“, sagte mir Francisco Pereira, Direktor für maschinelles Lernen am National Institute of Mental Health. Das heißt aber nicht, dass eine Beziehung nicht existieren kann, und es gibt verschiedene Möglichkeiten, dies zu testen. Im Gegensatz zum Gehirn können Wissenschaftler Sprachmodelle nahezu unbegrenzt zerlegen, untersuchen und manipulieren. Auch wenn KI-Programme also keine vollständigen Hypothesen über das Gehirn darstellen, sind sie doch leistungsstarke Werkzeuge zu seiner Untersuchung. Beispielsweise können Kognitionswissenschaftler versuchen, die Reaktionen gezielter Gehirnregionen vorherzusagen und zu testen, wie unterschiedliche Arten von Sätzen unterschiedliche Arten von Gehirnreaktionen hervorrufen, um herauszufinden, was diese spezifischen Neuronencluster tun, „und dann unbekanntes Gebiet betreten, „Greta Tuckute, die am MIT Gehirn und Sprache studiert, erzählte mir.

Lesen Sie auch  PMU – Ankunft des Quintés vom Montag, 26. Juni, in Lyon-Parilly: Nepalesen werden endlich belohnt

Derzeit besteht der Nutzen der KI möglicherweise nicht darin, dieses unbekannte neurologische Gebiet präzise zu reproduzieren, sondern darin, Heuristiken zu seiner Erforschung zu entwickeln. „Wenn Sie eine Karte haben, die jedes kleine Detail der Welt wiedergibt, ist die Karte nutzlos, weil sie die gleiche Größe wie die Welt hat“, sagte mir Anna Ivanova, Kognitionswissenschaftlerin am MIT, und berief sich dabei auf eine berühmte Borges-Parabel. „Und deshalb braucht man Abstraktion.“ Durch Spezifizieren und Testen dessen, was behalten und über Bord geworfen werden soll – indem man zwischen Straßen, Sehenswürdigkeiten und Gebäuden wählt und dann prüft, wie nützlich die daraus resultierende Karte ist – beginnen Wissenschaftler, sich im sprachlichen Terrain des Gehirns zurechtzufinden.

Leave a Reply

Your email address will not be published. Required fields are marked *

This site uses Akismet to reduce spam. Learn how your comment data is processed.