Home » Die turbulente Vergangenheit und die ungewisse Zukunft der Künstlichen Intelligenz

Die turbulente Vergangenheit und die ungewisse Zukunft der Künstlichen Intelligenz

by drbyos
0 comment

Im Sommer 1956, eine Gruppe von Mathematikern und Informatikern übernahm die oberste Etage des Gebäudes, in dem die Mathematikabteilung des Dartmouth College untergebracht war. Rund acht Wochen lang haben sie sich die Möglichkeiten eines neuen Forschungsfeldes vorgestellt. John McCarthy, damals ein junger Professor in Dartmouth, hatte den Begriff “künstliche Intelligenz” geprägt, als er seinen Vorschlag für den Workshop verfasste, der seiner Meinung nach die Hypothese untersuchen würde, dass “jeder Aspekt des Lernens oder jedes andere Merkmal der Intelligenz im Prinzip sein kann”. so genau beschrieben, dass eine Maschine sie simulieren kann.”

Die Forscher dieses legendären Treffens skizzierten in groben Zügen die KI, wie wir sie heute kennen. Daraus entstand das erste Lager der Ermittler: die “Symbolisten”, deren Expertensysteme in den 1980er Jahren einen Höhepunkt erreichten. In den Jahren nach dem Treffen traten auch die „Connectionists“ auf, die jahrzehntelang mit den erst kürzlich aufgekommenen künstlichen neuronalen Netzen arbeiteten. Diese beiden Ansätze wurden lange Zeit als sich gegenseitig ausschließend angesehen, und der Wettbewerb um Fördermittel unter den Forschern führte zu Feindseligkeiten. Jede Seite dachte, es sei auf dem Weg zur künstlichen allgemeinen Intelligenz.

Ein Rückblick auf die Jahrzehnte seit diesem Treffen zeigt, wie oft die Hoffnungen der KI-Forscher zunichte gemacht wurden – und wie wenig diese Rückschläge sie abgeschreckt haben. Auch wenn KI heute die Industrie revolutioniert und den globalen Arbeitsmarkt zu verändern droht, fragen sich viele Experten, ob die heutige KI an ihre Grenzen stößt. Wie Charles Choi in “Seven Revealing Ways AIs Fail” skizziert, werden die Schwächen heutiger Deep-Learning-Systeme immer deutlicher. Dennoch gibt es unter Forschern wenig Gefühl des Untergangs. Ja, es ist möglich, dass uns in nicht allzu ferner Zukunft ein weiterer KI-Winter bevorsteht. Aber dies könnte gerade die Zeit sein, in der uns inspirierte Ingenieure endlich in einen ewigen Sommer des Maschinengeistes einleiten.

Forscher entwickeln symbolische KI wollte Computern explizit die Welt beibringen. Ihr Gründungsgrundsatz war, dass Wissen durch eine Reihe von Regeln dargestellt werden kann und Computerprogramme Logik verwenden können, um dieses Wissen zu manipulieren. Die führenden Symbolisten Allen Newell und Herbert Simon argumentierten, dass, wenn ein symbolisches System über genügend strukturierte Fakten und Prämissen verfügt, die Aggregation schließlich eine breite Intelligenz erzeugen würde.

Die Konnektionisten hingegen arbeiteten, inspiriert von der Biologie, an “künstlichen neuronalen Netzen”, die Informationen aufnehmen und selbst einen Sinn daraus machen. Das wegweisende Beispiel war das Perceptron, eine experimentelle Maschine, die vom Cornell-Psychologen Frank Rosenblatt mit Mitteln der US Navy gebaut wurde. Es hatte 400 Lichtsensoren, die zusammen als Netzhaut fungierten und Informationen an etwa 1.000 “Neuronen” fütterten, die die Verarbeitung übernahmen und eine einzelne Ausgabe erzeugten. 1958, a New York Times Artikel zitierte Rosenblatt mit den Worten, dass “die Maschine das erste Gerät wäre, das als das menschliche Gehirn denkt.”

Frank Rosenblatt erfand das Perzeptron, das erste künstliche neuronale Netz.Cornell University Abteilung für seltene und handschriftliche Sammlungen

Ungezügelter Optimismus ermutigte Regierungsbehörden in den Vereinigten Staaten und im Vereinigten Königreich, Geld in spekulative Forschung zu stecken. 1967 schrieb der MIT-Professor Marvin Minsky: “Innerhalb einer Generation… wird das Problem der Schaffung von ‘künstlicher Intelligenz’ im Wesentlichen gelöst sein.” Doch bald darauf begannen die staatlichen Fördermittel zu versiegen, getrieben von dem Gefühl, dass die KI-Forschung ihrem eigenen Hype nicht gerecht wurde. In den 1970er Jahren kam der erste KI-Winter.

Lesen Sie auch  Das gängige Blutdruckmedikament scheint auch keine signifikanten schädlichen Nebenwirkungen bei Patienten mit COVID-19 zu haben

Wahre Gläubige machten jedoch weiter. Und Anfang der 1980er Jahre brachte erneuter Enthusiasmus eine Blütezeit für Forscher im Bereich der symbolischen KI, die Anerkennung und Finanzierung für “Expertensysteme” erhielten, die das Wissen einer bestimmten Disziplin wie Jura oder Medizin kodierten. Investoren hofften, dass diese Systeme schnell kommerzielle Anwendungen finden würden. Das berühmteste symbolische KI-Projekt begann 1984, als der Forscher Douglas Lenat mit der Arbeit an einem Projekt namens Cyc begann, das darauf abzielte, den gesunden Menschenverstand in einer Maschine zu kodieren. Bis heute fügen Lenat und sein Team der Ontologie von Cyc Begriffe (Fakten und Konzepte) hinzu und erklären die Beziehungen zwischen ihnen über Regeln. Bis 2017 hatte das Team 1,5 Millionen Begriffe und 24,5 Millionen Regeln. Dennoch ist Cyc noch lange nicht weit davon entfernt, allgemeine Intelligenz zu erreichen.

In den späten 1980er Jahren brachten die kalten Winde des Handels den zweiten KI-Winter. Der Markt für Expertensysteme brach zusammen, weil sie spezielle Hardware erforderten und nicht mit den immer häufiger werdenden billigeren Desktop-Computern konkurrieren konnten. In den 1990er Jahren war es akademisch nicht mehr in Mode, entweder an symbolischer KI oder an neuronalen Netzen zu arbeiten, denn beide Strategien schienen gescheitert zu sein.

Aber die billigen Computer, die Expertensysteme verdrängten, erwiesen sich als Segen für die Konnektionisten, die plötzlich über genügend Computerleistung verfügten, um neuronale Netze mit vielen Schichten künstlicher Neuronen zu betreiben. Solche Systeme wurden als Deep Neural Networks bekannt, und der Ansatz, den sie ermöglichten, wurde Deep Learning genannt. Geoffrey Hinton von der University of Toronto wandte ein Prinzip namens Backpropagation an, um neuronale Netze dazu zu bringen, aus ihren Fehlern zu lernen (siehe “So funktioniert Deep Learning”).

Einer von Hintons Postdocs, Yann LeCun, ging 1988 zu AT&T Bell Laboratories, wo er und ein Postdoc namens Yoshua Bengio neuronale Netze für die optische Zeichenerkennung verwendeten; US-Banken übernahmen bald die Technik zur Bearbeitung von Schecks. Hinton, LeCun und Bengio gewannen schließlich den Turing Award 2019 und werden manchmal als die Paten des Deep Learning bezeichnet.

Doch die Befürworter des neuronalen Netzes hatten noch ein großes Problem: Sie hatten einen theoretischen Rahmen und eine wachsende Computerleistung, aber es gab nicht genug digitale Daten auf der Welt, um ihre Systeme zu trainieren, zumindest nicht für die meisten Anwendungen. Der Frühling war noch nicht da.

In den letzten zwei Jahrzehnten hat Alles hat sich geändert. Vor allem das World Wide Web blühte auf, und plötzlich waren überall Daten. Digitalkameras und dann Smartphones füllten das Internet mit Bildern, Websites wie Wikipedia und Reddit waren voller frei zugänglicher digitaler Texte und YouTube hatte jede Menge Videos. Schließlich gab es genügend Daten, um neuronale Netze für eine Vielzahl von Anwendungen zu trainieren.

Lesen Sie auch  - veröffentlicht einen Charity-Leitfaden zur Unterstützung von Zivilisten im israelisch-palästinensischen Konflikt

Die andere große Entwicklung kam mit freundlicher Genehmigung der Spieleindustrie. Unternehmen wie Nvidia hatten Chips namens Graphics Processing Units (GPUs) für die schwere Verarbeitung entwickelt, die zum Rendern von Bildern in Videospielen erforderlich ist. Spieleentwickler verwendeten GPUs, um ausgeklügelte Arten von Schattierungen und geometrischen Transformationen durchzuführen. Informatiker, die ernsthafte Rechenleistung benötigen, haben erkannt, dass sie eine GPU im Wesentlichen dazu bringen können, andere Aufgaben zu erledigen – wie zum Beispiel das Training neuronaler Netze. Nvidia hat den Trend erkannt und CUDA entwickelt, eine Plattform, die es Forschern ermöglicht, GPUs für die allgemeine Verarbeitung zu verwenden. Unter diesen Forschern war ein Ph.D. Student in Hintons Labor namens Alex Krizhevsky, der mit CUDA den Code für ein neuronales Netzwerk geschrieben hat, das 2012 alle umgehauen hat.

Bild des MIT-Professors Marvin Minsky.Der MIT-Professor Marvin Minsky sagte 1967 voraus, dass innerhalb einer Generation echte künstliche Intelligenz geschaffen werden würde.Das MIT-Museum

Er schrieb es für den ImageNet-Wettbewerb, bei dem KI-Forscher aufgefordert wurden, Computer-Vision-Systeme zu bauen, die mehr als 1 Million Bilder in 1.000 Kategorien von Objekten sortieren konnten. Das AlexNet von Krizhevsky war zwar nicht das erste neuronale Netz, das zur Bilderkennung eingesetzt wurde, aber seine Leistung im Wettbewerb 2012 erregte weltweite Aufmerksamkeit. Die Fehlerquote von AlexNet betrug 15 Prozent, verglichen mit 26 Prozent Fehlerquote des zweitbesten Eintrags. Das neuronale Netz verdankte seinen überragenden Sieg der GPU-Leistung und einer “tiefen” Struktur aus mehreren Schichten mit insgesamt 650.000 Neuronen. Beim ImageNet-Wettbewerb im nächsten Jahr nutzten fast alle neuronale Netze. Bis 2017 waren die Fehlerquoten vieler Teilnehmer auf 5 Prozent gesunken, und die Organisatoren beendeten den Wettbewerb.

Deep Learning nahm Fahrt auf. Mit der Rechenleistung von GPUs und zahlreichen digitalen Daten zum Trainieren von Deep-Learning-Systemen könnten selbstfahrende Autos durch Straßen navigieren, Sprachassistenten die Sprache der Benutzer erkennen und Webbrowser zwischen Dutzenden von Sprachen übersetzen können. KIs besiegten auch menschliche Champions in mehreren Spielen, die zuvor als nicht von Maschinen gewinnbar galten, darunter das alte Brettspiel Go und das Videospiel StarCraft II. Der aktuelle Boom der KI hat jede Branche erfasst und bietet neue Möglichkeiten, Muster zu erkennen und komplexe Entscheidungen zu treffen.

Ein Blick zurück über die Jahrzehnte zeigt, wie oft die Hoffnungen der KI-Forscher zunichte gemacht wurden – und wie wenig diese Rückschläge sie abschreckten.

Aber die immer größer werdenden Erfolge beim Deep Learning beruhten auf der Erhöhung der Anzahl der Schichten in neuronalen Netzen und der Erhöhung der GPU-Zeit, die für deren Training aufgewendet wurde. Eine Analyse des KI-Forschungsunternehmens OpenAI zeigte, dass sich die zum Trainieren der größten KI-Systeme erforderliche Rechenleistung bis 2012 alle zwei Jahre verdoppelte – und danach alle 3,4 Monate. Wie Neil C. Thompson und seine Kollegen in “Deep Learning’s Diminishing Returns” schreiben, befürchten viele Forscher, dass der Rechenbedarf der KI nicht nachhaltig ist. Um zu vermeiden, dass das Energiebudget des Planeten gesprengt wird, müssen die Forscher die etablierten Konstruktionsweisen dieser Systeme verlassen.

Auch wenn es scheinen mag Als ob das Lager der neuronalen Netze die Symbolisten endgültig besiegt hätte, ist der Ausgang der Schlacht in Wahrheit nicht so einfach. Nehmen Sie zum Beispiel die Roboterhand von OpenAI, die Schlagzeilen machte, um einen Zauberwürfel zu manipulieren und zu lösen. Der Roboter verwendet neuronale Netze und symbolische KI. Es ist eines von vielen neuen neurosymbolischen Systemen, die neuronale Netze für die Wahrnehmung und symbolische KI für die Argumentation verwenden, ein hybrider Ansatz, der sowohl Effizienz als auch Erklärbarkeit steigern kann.

Lesen Sie auch  Bestrafung: Grey Raven ist Cyberpunk-Anime-Güte mit einer aktuellen Geschichte Artikel

Obwohl Deep-Learning-Systeme in der Regel Blackboxen sind, die auf undurchsichtige und mystifizierende Weise Schlussfolgerungen ziehen, ermöglichen neurosymbolische Systeme den Benutzern, unter die Haube zu schauen und zu verstehen, wie die KI zu ihren Schlussfolgerungen gelangt ist. Die US-Armee ist besonders vorsichtig mit Black-Box-Systemen, wie Evan Ackerman in “How the US Army Is Turning Robots Into Team Players” beschreibt.

Stellen Sie sich vor, Sie könnten einen der Straßenräumroboter der US-Armee nehmen und ihn bitten, Ihnen eine Tasse Kaffee zu machen. Das ist heute eine lächerliche Behauptung, denn Deep-Learning-Systeme sind für enge Zwecke gebaut und können ihre Fähigkeiten nicht von einer Aufgabe auf eine andere verallgemeinern. Darüber hinaus erfordert das Erlernen einer neuen Aufgabe normalerweise, dass eine KI alles löscht, was sie über die Lösung ihrer vorherigen Aufgabe weiß, ein Rätsel, das als katastrophales Vergessen bezeichnet wird. Bei DeepMind, dem Londoner KI-Labor von Google, geht die renommierte Robotikerin Raia Hadsell dieses Problem mit einer Vielzahl ausgeklügelter Techniken an. In “How DeepMind Is Reinventing the Robot” erklärt Tom Chivers, warum dieses Thema für Roboter, die in der unvorhersehbaren realen Welt agieren, so wichtig ist. Andere Forscher untersuchen neue Arten des Meta-Lernens in der Hoffnung, KI-Systeme zu schaffen, die lernen, zu lernen und diese Fähigkeit dann auf jede Domäne oder Aufgabe anzuwenden.

All diese Strategien können den Bemühungen der Forscher helfen, ihr höchstes Ziel zu erreichen: die Entwicklung von KI mit der Art von flüssiger Intelligenz, die wir bei der Entwicklung unserer Kinder beobachten. Kleinkinder brauchen keine riesigen Datenmengen, um Schlussfolgerungen zu ziehen. Sie beobachten einfach die Welt, erstellen ein mentales Modell ihrer Funktionsweise, ergreifen Maßnahmen und verwenden die Ergebnisse ihrer Handlungen, um dieses mentale Modell anzupassen. Sie iterieren, bis sie es verstehen. Dieser Prozess ist enorm effizient und effektiv und geht weit über die Fähigkeiten der fortschrittlichsten KI von heute hinaus.

Obwohl der aktuelle Enthusiasmus der KI einen eigenen Gartner-Hype-Zyklus eingebracht hat und obwohl die Finanzierung für KI ein Allzeithoch erreicht hat, gibt es kaum Anzeichen dafür, dass unsere Zukunft ins Stocken geraten ist. Unternehmen auf der ganzen Welt setzen KI-Systeme ein, weil sie sofortige Verbesserungen ihres Gewinns sehen und nie wieder zurückkehren werden. Es bleibt nur abzuwarten, ob Forscher Wege finden, Deep Learning anzupassen, um es flexibler und robuster zu machen, oder neue Ansätze entwickeln, von denen 65 Jahre alt waren, um Maschinen ähnlicher zu machen wie wir.

Dieser Artikel erscheint in der Printausgabe vom Oktober 2021 unter dem Titel „The Turbulent Past and Uncertain Future of AI“.

Artikel von Ihrer Website

Verwandte Artikel im Web

.

You may also like

Leave a Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.