„Made with AI“: Meta wird in seinen sozialen Netzwerken von KI erzeugte Töne, Bilder und Videos kennzeichnen

Laut einem am Freitag veröffentlichten Blogbeitrag wird der amerikanische Riese Meta ab Mai in seinen sozialen Netzwerken Töne, Bilder und Videos identifizieren, die durch künstliche Intelligenz (KI) generiert wurden.

„Wir planen, im Mai 2024 mit der Kennzeichnung von KI-generierten Inhalten zu beginnen“, erklärte Monika Bickert, Vizepräsidentin zuständig für Inhaltsrichtlinien bei der Muttergesellschaft von Facebook, Instagram und Threads, und präzisierte, dass die Erwähnung „Made with AI“ erfolgen würde „an einer größeren Anzahl von Video-, Audio- und Bildinhalten“ angebracht als bisher.

„Transparenz und mehr Kontext sind heute der beste Weg, mit manipulierten Inhalten umzugehen“

Diese Inhalte werden von der Plattform gekennzeichnet, wenn sie „industrieübliche KI-Bildindikatoren“ erkennt oder wenn „Personen angeben, dass sie KI-generierte Inhalte hochladen“, betonte sie.

Der kalifornische Konzern kündigt allgemeiner an, dass er nach Rücksprache mit seinem Aufsichtsrat die Art und Weise ändern wird, wie er mit durch KI veränderten Inhalten umgeht, und ist der Ansicht, dass „Transparenz und mehr Kontext jetzt der beste Weg sind, mit manipulierten Inhalten umzugehen“, „um das Risiko zu vermeiden.“ Meinungsfreiheit unnötig einzuschränken“.

In diesem Fall ist er nun der Ansicht, dass es besser ist, diesem Inhalt „Beschriftungen und Kontext“ hinzuzufügen, anstatt sie zu entfernen, wie er es bisher getan hat.

Meta setzt auf sein Netzwerk von „rund 100 unabhängigen Faktenprüfern“

Meta stellte dennoch klar, dass es weiterhin alle Inhalte von seinen Plattformen entfernen werde, unabhängig davon, ob sie von einem Menschen oder einer KI erstellt wurden und gegen seine Regeln „gegen Einmischung in den Wahlprozess, Einschüchterung, Belästigung, Gewalt (…) oder jede andere darin enthaltene Richtlinie“ verstoßen würden unsere Gemeinschaftsstandards“.

Es verlässt sich außerdem auf sein Netzwerk von „rund 100 unabhängigen Faktenprüfern“, um „falsche oder irreführende“ KI-generierte Inhalte zu identifizieren.

Lesen Sie auch  Computer aus DNA berechnet Primfaktoren von 6 und 15

Die Muttergesellschaft von Facebook gab im Februar bekannt, dass sie jedes durch KI erzeugte Bild kennzeichnen wolle, eine Entscheidung, die vor dem Hintergrund des Kampfes gegen Desinformation getroffen wurde. Andere Technologiegiganten wie Microsoft, Google und OpenAI haben ähnliche Verpflichtungen eingegangen.

Der Aufstieg der generativen KI hat Befürchtungen geweckt, dass Menschen diese Werkzeuge nutzen könnten, um im Vorfeld mehrerer wichtiger Wahlen in diesem Jahr, unter anderem in den Vereinigten Staaten, politisches Chaos zu säen, auch durch Desinformation oder Fehlinformationen.

Über diese Stimmzettel hinaus geht die Entwicklung generativer KI-Programme nach Ansicht vieler Experten und Regulierungsbehörden mit der Produktion einer Flut erniedrigender Inhalte einher, wie beispielsweise gefälschter pornografischer Bilder („Deepfakes“) berühmter Frauen, ein Phänomen, das auch anonyme Personen ins Visier nimmt .

Leave a Reply

Your email address will not be published. Required fields are marked *

This site uses Akismet to reduce spam. Learn how your comment data is processed.