Australien möchte KI regulieren – wozu könnte sie eingesetzt werden und was könnte schiefgehen? | Künstliche Intelligenz (KI)

Die australische Regierung möchte Anwendungen der künstlichen Intelligenz regulieren, aber welche Einsatzmöglichkeiten sind besorgniserregend und welche Befürchtungen bestehen, wenn sie nicht reguliert werden?

Am Donnerstag veröffentlichte der Industrie- und Wissenschaftsminister Ed Husic ein Konsultationspapier zu Maßnahmen, die ergriffen werden können, um sicherzustellen, dass KI in Australien verantwortungsvoll und sicher eingesetzt wird.

Husic stellte fest, dass seit der Veröffentlichung generativer KI-Anwendungen wie ChatGPT das „wachsende Gefühl“ bestehe, dass sich die Anwendung in einem Zustand beschleunigter Entwicklung und eines großen Technologiesprungs befinde.

„Die Menschen möchten darüber nachdenken, ob diese Technologie und die damit verbundenen Risiken auf eine Art und Weise durchdacht und reagiert wurden, die den Menschen Gewissheit und Trost darüber gibt, was um sie herum vor sich geht“, sagte er.

„Letztendlich wollen wir moderne Gesetze für moderne Technologie, und daran haben wir gearbeitet.“

Der Begriff ist fast so alt wie elektronische Computer selbst und wurde 1955 von einem Team geprägt, zu dem auch der legendäre Harvard-Informatiker Marvin Minsky gehörte. Da es keine strenge Definition des Ausdrucks gibt und es für jeden, der KI in Pitch-Dokumente einstreut, eine Verlockung in Milliardenhöhe gibt, hat irgendjemand fast alles, was komplexer als ein Taschenrechner ist, als künstliche Intelligenz bezeichnet.

KI ist bereits auf eine Weise in unserem Leben präsent, die Ihnen vielleicht nicht bewusst ist. Die Spezialeffekte einiger Filme und Sprachassistenten wie Amazons Alexa nutzen einfache Formen künstlicher Intelligenz. Aber in der aktuellen Debatte bedeutet KI mittlerweile etwas anderes.

Es läuft darauf hinaus: Die meisten Computer der alten Schule tun, was man ihnen sagt. Sie befolgen Anweisungen, die ihnen in Form eines Codes gegeben werden. Aber wenn wir wollen, dass Computer komplexere Aufgaben lösen, müssen sie mehr als das können. Um schlauer zu werden, versuchen wir ihnen beizubringen, auf eine Weise zu lernen, die menschliches Verhalten nachahmt.

Man kann Computern nicht beibringen, selbstständig zu denken, aber man kann ihnen beibringen, Informationen zu analysieren und aus Mustern in Datensätzen Rückschlüsse zu ziehen. Und je mehr man ihnen gibt – Computersysteme können mittlerweile mit wirklich riesigen Informationsmengen umgehen – desto besser sollten sie damit umgehen.

Die erfolgreichsten Versionen des maschinellen Lernens der letzten Jahre verwendeten ein System, das als neuronales Netzwerk bekannt ist und auf einer sehr einfachen Ebene die Funktionsweise unseres Gehirns nachbildet.

“,”credit”:””,”pillar”:0}”>

Fragen und Antworten

KI erklärt: Was ist künstliche Intelligenz?

Zeigen

Der Begriff ist fast so alt wie elektronische Computer selbst und wurde 1955 von einem Team geprägt, zu dem auch der legendäre Harvard-Informatiker Marvin Minsky gehörte. Da es keine strenge Definition des Ausdrucks gibt und es für jeden, der KI in Pitch-Dokumente einstreut, eine Verlockung in Milliardenhöhe gibt, hat irgendjemand fast alles, was komplexer als ein Taschenrechner ist, als künstliche Intelligenz bezeichnet.

KI ist bereits auf eine Weise in unserem Leben präsent, die Ihnen vielleicht nicht bewusst ist. Die Spezialeffekte einiger Filme und Sprachassistenten wie Amazons Alexa nutzen einfache Formen künstlicher Intelligenz. Aber in der aktuellen Debatte bedeutet KI mittlerweile etwas anderes.

Es läuft darauf hinaus: Die meisten Computer der alten Schule tun, was man ihnen sagt. Sie befolgen Anweisungen, die ihnen in Form eines Codes gegeben werden. Aber wenn wir wollen, dass Computer komplexere Aufgaben lösen, müssen sie mehr als das können. Um schlauer zu werden, versuchen wir ihnen beizubringen, auf eine Weise zu lernen, die menschliches Verhalten nachahmt.

Man kann Computern nicht beibringen, selbstständig zu denken, aber man kann ihnen beibringen, Informationen zu analysieren und aus Mustern in Datensätzen Rückschlüsse zu ziehen. Und je mehr man ihnen gibt – Computersysteme können mittlerweile mit wirklich riesigen Informationsmengen umgehen – desto besser sollten sie damit umgehen.

Die erfolgreichsten Versionen des maschinellen Lernens der letzten Jahre verwendeten ein System, das als neuronales Netzwerk bekannt ist und auf einer sehr einfachen Ebene die Funktionsweise unseres Gehirns nachbildet.

Danke für Ihre Rückmeldung.

Über welche Arten von KI machen sie sich Sorgen?

Generative KI liegt einem Großteil der öffentlichen Debatte über die Zukunft der KI zugrunde: Das heißt, KI basiert auf großen Informationsdatensätzen und generiert als Reaktion auf Eingabeaufforderungen Text, Bilder, Audio und Code.

Zu den Anwendungen, die generative KI verwenden, gehören große Sprachmodelle (LLM), die Text wie ChatGPT generieren, oder multimodale Basismodelle (MfM) für Anwendungen, die Text, Audio oder Bilder ausgeben können.

Anwendungen, die es KI ermöglichen, Entscheidungen zu treffen, sogenannte automatisierte Entscheidungsfindung, fallen ebenfalls in den Geltungsbereich der Überprüfung.

Was sind die Ängste?

Gefälschte Bilder, Fehlinformationen und Desinformationen stehen ganz oben auf der Liste der Bedenken.

In dem Papier heißt es, es gebe Befürchtungen, dass generative KI zur Erstellung von Deepfakes – gefälschten Bildern, Videos oder Audiodateien, die Menschen für echt halten – verwendet werden könnte, die demokratische Prozesse beeinflussen oder „andere Täuschungen verursachen“ könnten.

Bisher war die Art und Weise, wie sich dies abspielte, größtenteils harmlos – ein KI-generiertes Bild des Papstes in einer Balenciaga-Jacke wird am häufigsten zitiert –, aber letzten Monat kursierte ein KI-generiertes Bild einer Explosion neben dem Pentagon in den Vereinigten Staaten weit verbreitet in den sozialen Medien, obwohl es entlarvt wurde.

Es besteht auch Besorgnis über sogenannte „Halluzinationen“ durch generative KI, bei denen der Ausgabetext Quellen, Informationen oder Zitate zitiert, die nicht existieren. Einige generative KI-Firmen versuchen, dies zu verhindern, indem sie Links zu Quellen in generierten Texten bereitstellen.

Überspringen Sie die Newsletter-Werbung

Leave a Reply

Your email address will not be published. Required fields are marked *

This site uses Akismet to reduce spam. Learn how your comment data is processed.