Die australische Regierung möchte Anwendungen der künstlichen Intelligenz regulieren, aber welche Einsatzmöglichkeiten sind besorgniserregend und welche Befürchtungen bestehen, wenn sie nicht reguliert werden?
Am Donnerstag veröffentlichte der Industrie- und Wissenschaftsminister Ed Husic ein Konsultationspapier zu Maßnahmen, die ergriffen werden können, um sicherzustellen, dass KI in Australien verantwortungsvoll und sicher eingesetzt wird.
Husic stellte fest, dass seit der Veröffentlichung generativer KI-Anwendungen wie ChatGPT das „wachsende Gefühl“ bestehe, dass sich die Anwendung in einem Zustand beschleunigter Entwicklung und eines großen Technologiesprungs befinde.
„Die Menschen möchten darüber nachdenken, ob diese Technologie und die damit verbundenen Risiken auf eine Art und Weise durchdacht und reagiert wurden, die den Menschen Gewissheit und Trost darüber gibt, was um sie herum vor sich geht“, sagte er.
„Letztendlich wollen wir moderne Gesetze für moderne Technologie, und daran haben wir gearbeitet.“
Über welche Arten von KI machen sie sich Sorgen?
Generative KI liegt einem Großteil der öffentlichen Debatte über die Zukunft der KI zugrunde: Das heißt, KI basiert auf großen Informationsdatensätzen und generiert als Reaktion auf Eingabeaufforderungen Text, Bilder, Audio und Code.
Zu den Anwendungen, die generative KI verwenden, gehören große Sprachmodelle (LLM), die Text wie ChatGPT generieren, oder multimodale Basismodelle (MfM) für Anwendungen, die Text, Audio oder Bilder ausgeben können.
Anwendungen, die es KI ermöglichen, Entscheidungen zu treffen, sogenannte automatisierte Entscheidungsfindung, fallen ebenfalls in den Geltungsbereich der Überprüfung.
Was sind die Ängste?
Gefälschte Bilder, Fehlinformationen und Desinformationen stehen ganz oben auf der Liste der Bedenken.
In dem Papier heißt es, es gebe Befürchtungen, dass generative KI zur Erstellung von Deepfakes – gefälschten Bildern, Videos oder Audiodateien, die Menschen für echt halten – verwendet werden könnte, die demokratische Prozesse beeinflussen oder „andere Täuschungen verursachen“ könnten.
Bisher war die Art und Weise, wie sich dies abspielte, größtenteils harmlos – ein KI-generiertes Bild des Papstes in einer Balenciaga-Jacke wird am häufigsten zitiert –, aber letzten Monat kursierte ein KI-generiertes Bild einer Explosion neben dem Pentagon in den Vereinigten Staaten weit verbreitet in den sozialen Medien, obwohl es entlarvt wurde.
Es besteht auch Besorgnis über sogenannte „Halluzinationen“ durch generative KI, bei denen der Ausgabetext Quellen, Informationen oder Zitate zitiert, die nicht existieren. Einige generative KI-Firmen versuchen, dies zu verhindern, indem sie Links zu Quellen in generierten Texten bereitstellen.