AI könnte bald Code schreiben, der auf der gewöhnlichen Sprache basiert

In den vergangenen Jahren, Forscher haben künstliche Intelligenz verwendet, um die Übersetzung zwischen Programmiersprachen zu verbessern oder Probleme automatisch zu beheben. Es wurde beispielsweise gezeigt, dass das KI-System DrRepair die meisten Probleme löst, die zu Fehlermeldungen führen. Einige Forscher träumen jedoch von dem Tag, an dem KI Programme schreiben kann, die auf einfachen Beschreibungen von Nicht-Experten basieren.

Am Dienstag teilten Microsoft und OpenAI ihre Pläne, GPT-3, eines der weltweit fortschrittlichsten Modelle zum Generieren von Text, für die Programmierung auf der Grundlage von Beschreibungen in natürlicher Sprache bereitzustellen. Dies ist die erste kommerzielle Anwendung von GPT-3, die durchgeführt wurde, seit Microsoft im vergangenen Jahr 1 Milliarde US-Dollar in OpenAI investiert und exklusive Lizenzrechte für GPT-3 erhalten hat.

“Wenn Sie beschreiben können, was Sie in natürlicher Sprache tun möchten, generiert GPT-3 eine Liste der wichtigsten Formeln, aus denen Sie auswählen können”, sagte Microsoft-CEO Satya Nadella in einer Grundsatzrede auf der Build-Entwicklerkonferenz des Unternehmens. “Der Code schreibt sich selbst.”

Mit freundlicher Genehmigung von Microsoft

Microsoft-Vizepräsident Charles Lamanna erklärte gegenüber WIRED, dass die von GPT-3 angebotene Raffinesse Menschen dabei helfen kann, komplexe Herausforderungen zu bewältigen und Menschen mit wenig Programmiererfahrung zu befähigen. GPT-3 übersetzt natürliche Sprache in PowerFx, eine ziemlich einfache Programmiersprache, die den von Microsoft im März eingeführten Excel-Befehlen ähnelt.

Dies ist die neueste Demonstration der Anwendung von KI auf die Codierung. Letztes Jahr hat Sam Altman, CEO von OpenAI, bei Microsoft Build ein Sprachmodell vorgeführt, das mit Code von GitHub optimiert wurde und automatisch Zeilen mit Python-Code generiert. Wie WIRED im letzten Monat ausführlich beschrieben hat, verwenden Startups wie SourceAI auch GPT-3, um Code zu generieren. IBM hat im vergangenen Monat gezeigt, wie sein Project CodeNet mit 14 Millionen Codebeispielen aus mehr als 50 Programmiersprachen die Zeit für die Aktualisierung eines Programms mit Millionen von Java-Codezeilen für ein Automobilunternehmen von einem Jahr auf einen Monat reduzieren kann.

Die neue Funktion von Microsoft basiert auf einer neuronalen Netzwerkarchitektur namens Transformer, die von großen Technologieunternehmen wie Baidu, Google, Microsoft, Nvidia und Salesforce verwendet wird, um mithilfe von aus dem Web stammenden Texttrainingsdaten große Sprachmodelle zu erstellen. Diese Sprachmodelle werden immer größer. Die größte Version von Googles BERT, einem 2018 veröffentlichten Sprachmodell, hatte 340 Millionen Parameter, ein Baustein neuronaler Netze. GPT-3, das vor einem Jahr veröffentlicht wurde, hat 175 Milliarden Parameter.

Solche Bemühungen haben jedoch noch einen langen Weg vor sich. In einem kürzlich durchgeführten Test gelang es dem besten Modell nur 14 Prozent der Zeit, die von einer Gruppe von KI-Forschern zusammengestellten Einführungsprobleme bei der Programmierung zu bewältigen.

.

Leave a Reply

Your email address will not be published. Required fields are marked *

This site uses Akismet to reduce spam. Learn how your comment data is processed.