Das neue Tool von OpenAI kann gefälschte Bilder erkennen, aber es gibt einen Haken

Durch künstliche Intelligenz (KI) erzeugte Bilder haben in den letzten Monaten für große Bestürzung gesorgt, und die Menschen befürchten verständlicherweise, dass sie zur Verbreitung von Fehlinformationen und zur Täuschung der Öffentlichkeit verwendet werden könnten. Nun arbeitet der ChatGPT-Hersteller OpenAI offenbar an einem Tool, das KI-generierte Bilder mit einer Genauigkeit von 99 % erkennen kann.

Laut Bloomberg ist das Tool von OpenAI darauf ausgelegt, von Benutzern erstellte Bilder auszurotten, die mit dem eigenen Bildgenerator Dall-E 3 erstellt wurden. Bei der Tech Live-Veranstaltung des Wall Street Journal behauptete Mira Murati, Chief Technology Officer bei OpenAI, dass das Tool „zu 99 % zuverlässig“ sei. Während die Technologie intern getestet wird, gibt es noch kein Veröffentlichungsdatum.

MattVidPro AI

Wenn es so genau ist, wie OpenAI behauptet, kann es der Öffentlichkeit möglicherweise die Gewissheit vermitteln, dass die Bilder, die sie sehen, entweder echt oder KI-generiert sind. OpenAI schien jedoch nicht zu verraten, wie genau dieses Tool Menschen auf KI-Bilder aufmerksam macht, sei es durch ein Wasserzeichen, eine Textwarnung oder etwas anderes.

Es ist erwähnenswert, dass das Tool nur für die Erkennung von Dall-E-Bildern konzipiert ist und möglicherweise nicht in der Lage ist, Fälschungen zu erkennen, die von konkurrierenden Diensten wie Midjourney, Stable Diffusion und Adobe Firefly erstellt wurden. Das könnte seinen Nutzen im Großen und Ganzen einschränken, aber alles, was gefälschte Bilder hervorheben kann, könnte eine positive Wirkung haben.

Kontinuierliche Entwicklung

Zeichentrickfiguren, die an ihr Telefon angeschlossen sind.
Dall-E / OpenAI

OpenAI hat in der Vergangenheit Tools auf den Markt gebracht, die darauf ausgelegt waren, Inhalte zu erkennen, die von seinen eigenen Chatbots und Generatoren zusammengestellt wurden. Anfang 2023 veröffentlichte das Unternehmen ein Tool, von dem es behauptete, dass es von ChatGPT erstellten Text erkennen könne. Es wurde jedoch nur wenige Monate später zurückgezogen, nachdem OpenAI zugegeben hatte, dass es äußerst ungenau sei.

Lesen Sie auch  Woher wissen wir, ob wir das richtige Gewicht für unsere Gesundheit haben?

Neben dem neuen Bilderkennungstool diskutierte OpenAI auch die Versuche des Unternehmens, die Tendenz von ChatGPT zu „halluzinieren“ oder Unsinn und erfundene Informationen zu verbreiten, einzudämmen. „Wir haben bei der Halluzinationsproblematik mit GPT-4 große Fortschritte gemacht, aber wir sind noch nicht dort, wo wir sein müssen“, sagte Murati und schlug vor, an GPT-5 zu arbeiten – dem Nachfolger von GPT-4 Modell, das ChatGPT zugrunde liegt, ist in vollem Gange.

Im März 2023 unterzeichnete eine Reihe führender Technologieunternehmen einen offenen Brief, in dem sie OpenAI aufforderten, die Arbeit an etwas Stärkerem als GPT-4 zu unterbrechen, andernfalls riskierten sie „erhebliche Risiken für die Gesellschaft und die Menschheit“. Es scheint, dass diese Anfrage auf taube Ohren gestoßen ist.

Ob das neue Tool von OpenAI effektiver sein wird als sein letzter Versuch, der aufgrund seiner Unzuverlässigkeit abgebrochen wurde, bleibt abzuwarten. Sicher ist, dass die Entwicklungsarbeit trotz offensichtlicher Risiken zügig voranschreitet.

Empfehlungen der Redaktion






Leave a Reply

Your email address will not be published. Required fields are marked *

This site uses Akismet to reduce spam. Learn how your comment data is processed.