KI wird immer leistungsfähiger – aber auch geheimnisvoller

Nathan Strauss, ein Sprecher von Amazon, sagte, das Unternehmen prüfe den Index genau. „Titan Text befindet sich noch in der privaten Vorschau und es wäre verfrüht, die Transparenz eines Basismodells zu beurteilen, bevor es für die allgemeine Verfügbarkeit bereit ist“, sagt er. Meta lehnte eine Stellungnahme zum Stanford-Bericht ab und OpenAI reagierte nicht auf eine Bitte um Stellungnahme.

Rishi Bommasani, ein Doktorand in Stanford, der an der Studie mitgearbeitet hat, sagt, dass dies die Tatsache widerspiegelt, dass KI immer undurchsichtiger wird, obwohl sie immer einflussreicher wird. Dies steht in großem Gegensatz zum letzten großen KI-Boom, als Offenheit dazu beitrug, große Fortschritte bei Fähigkeiten wie Sprach- und Bilderkennung zu ermöglichen. „Ende der 2010er Jahre waren die Unternehmen transparenter in Bezug auf ihre Forschung und veröffentlichten viel mehr“, sagt Bommasani. „Das ist der Grund, warum wir den Erfolg von Deep Learning hatten.“

Der Stanford-Bericht legt außerdem nahe, dass Modelle aus Wettbewerbsgründen nicht so geheim gehalten werden müssen. Kevin Klyman, ein Politikforscher an der Stanford University, sagt, dass die Tatsache, dass eine Reihe führender Modelle bei unterschiedlichen Maßstäben der Transparenz relativ gut abschneiden, darauf hindeutet, dass sie alle offener werden könnten, ohne gegenüber Konkurrenten zu verlieren.

Während KI-Experten versuchen herauszufinden, wohin die jüngste Blüte bestimmter KI-Ansätze führen wird, sagen einige, dass die Geheimhaltung das Fachgebiet weniger zu einer wissenschaftlichen Disziplin als vielmehr zu einer gewinnorientierten Disziplin machen könnte.

„Dies ist eine entscheidende Zeit in der Geschichte der KI“, sagt Jesse Dodge, Forscher am Allen Institute for AI, kurz AI2. „Die einflussreichsten Akteure, die heute generative KI-Systeme entwickeln, sind zunehmend verschlossen und versäumen es, wichtige Details ihrer Daten und Prozesse weiterzugeben.“

AI2 versucht, ein viel transparenteres KI-Sprachmodell namens OLMo zu entwickeln. Das Training erfolgt mithilfe einer Sammlung von Daten aus dem Internet, wissenschaftlichen Veröffentlichungen, Code, Büchern und Enzyklopädien. Dieser Datensatz mit dem Namen Dolma wurde unter der ImpACT-Lizenz von AI2 veröffentlicht. Wenn OLMo fertig ist, plant AI2, das funktionierende KI-System und auch den Code dahinter zu veröffentlichen, damit andere auf dem Projekt aufbauen können.

Lesen Sie auch  Gleichstellungsindex: Dussopt begrüßt Ergebnisse, die „in die richtige Richtung gehen“

Laut Dodge ist es besonders wichtig, den Zugriff auf die Daten hinter leistungsstarken KI-Modellen zu erweitern. Ohne direkten Zugriff ist es im Allgemeinen unmöglich zu wissen, warum oder wie ein Modell das tun kann, was es tut. „Um die Wissenschaft voranzubringen, ist Reproduzierbarkeit erforderlich“, sagt er. „Ohne den offenen Zugang zu diesen entscheidenden Bausteinen der Modellerstellung bleiben wir in einer ‚geschlossenen‘, stagnierenden und proprietären Situation.“

Wenn man bedenkt, wie weit verbreitet KI-Modelle eingesetzt werden – und wie gefährlich einige Experten warnen, dass sie sein könnten –, könnte etwas mehr Offenheit viel bewirken.

Leave a Reply

Your email address will not be published. Required fields are marked *

This site uses Akismet to reduce spam. Learn how your comment data is processed.