Cybersicherheitsexperten argumentieren, dass es sinnlos ist, die Entwicklung von GPT-4 zu pausieren

Treffen Sie sich vom 11. bis 12. Juli mit Top-Führungskräften in San Francisco, um zu erfahren, wie Führungskräfte KI-Investitionen für den Erfolg integrieren und optimieren. Erfahren Sie mehr


Anfang dieser Woche veröffentlichte eine Gruppe von mehr als 1.800 Führungskräften und Technologen für künstliche Intelligenz (KI), von Elon Musk bis Steve Wozniak, einen offenen Brief, in dem sie alle KI-Labore aufforderten, die Entwicklung von KI-Systemen, die leistungsfähiger als GPT-4 sind, unverzüglich für sechs Monate zu unterbrechen aufgrund „tiefgreifender Risiken für die Gesellschaft und die Menschheit“.

Während eine Pause dazu beitragen könnte, die gesellschaftlichen Risiken, die durch generative KI entstehen, besser zu verstehen und zu regulieren, argumentieren einige, dass es auch ein Versuch für rückständige Konkurrenten ist, die KI-Forschung mit führenden Unternehmen wie OpenAI aufzuholen.

Laut der angesehenen VP-Analystin Avivah Litan von Gartner, die mit VentureBeat über das Problem sprach, „ist die sechsmonatige Pause ein Plädoyer dafür, das Training von Modellen zu stoppen, die leistungsfähiger als GPT-4 sind. Auf GPT 4.5 folgt bald GPT-5, das AGI (Artificial General Intelligence) erreichen soll. Sobald AGI eintrifft, wird es wahrscheinlich zu spät sein, Sicherheitskontrollen einzuführen, die die menschliche Nutzung dieser Systeme wirksam schützen.“

>>Verfolgen Sie die fortlaufende generative KI-Berichterstattung von VentureBeat<

Fall

Transformation 2023

Besuchen Sie uns vom 11. bis 12. Juli in San Francisco, wo Top-Führungskräfte berichten, wie sie KI-Investitionen für den Erfolg integriert und optimiert und häufige Fallstricke vermieden haben.

Jetzt registrieren

Trotz der Besorgnis über die gesellschaftlichen Risiken, die von generativer KI ausgehen, bezweifeln viele Cybersicherheitsexperten, dass eine Pause in der KI-Entwicklung überhaupt helfen würde. Stattdessen argumentieren sie, dass eine solche Pause den Sicherheitsteams nur eine vorübergehende Atempause bieten würde, um ihre Abwehrmaßnahmen zu entwickeln und sich darauf vorzubereiten, auf eine Zunahme von Social Engineering, Phishing und der Generierung von bösartigem Code zu reagieren.

Lesen Sie auch  Josh Harris machte die 76ers zu Gewinnern, eine Hoffnung für Commanders-Fans

Warum eine Pause bei der Entwicklung generativer KI nicht machbar ist

Eines der überzeugendsten Argumente gegen eine Unterbrechung der KI-Forschung aus Sicht der Cybersicherheit ist, dass sie nur Anbieter und nicht böswillige Bedrohungsakteure betrifft. Cyberkriminelle hätten immer noch die Möglichkeit, neue Angriffsvektoren zu entwickeln und ihre Angriffstechniken zu verfeinern.

„Das Pausieren der Entwicklung der nächsten KI-Generation wird skrupellose Akteure nicht davon abhalten, die Technologie weiterhin in gefährliche Richtungen zu lenken“, sagte Steve Grobman, CTO von McAfee, gegenüber VentureBeat. „Wenn Sie technologische Durchbrüche haben, ist es unerlässlich, Organisationen und Unternehmen mit Ethik und Standards zu haben, die die Technologie weiter vorantreiben, um sicherzustellen, dass die Technologie auf die verantwortungsvollste Art und Weise genutzt wird.“

Gleichzeitig könnte die Umsetzung eines Trainingsverbots für KI-Systeme als regulatorische Überschreitung angesehen werden.

„KI ist angewandte Mathematik, und wir können Menschen nicht gesetzlich erlassen, regulieren oder daran hindern, Mathematik zu betreiben. Vielmehr müssen wir es verstehen, unsere Führer dazu erziehen, es an den richtigen Stellen verantwortungsbewusst einzusetzen, und erkennen, dass unsere Gegner versuchen werden, es auszunutzen“, sagte Grobman.

Was ist also zu tun?

Wenn eine vollständige Pause bei der Entwicklung generativer KI nicht praktikabel ist, sollten Regulierungsbehörden und private Organisationen stattdessen versuchen, einen Konsens über die Parameter der KI-Entwicklung, das Maß an eingebautem Schutz, das Tools wie GPT-4 haben müssen, und die Maßnahmen zu entwickeln, die dies erfordern Unternehmen können damit verbundene Risiken mindern.

„Die KI-Regulierung ist ein wichtiges und laufendes Gespräch, und die Gesetzgebung zur moralischen und sicheren Nutzung dieser Technologien bleibt eine dringende Herausforderung für Gesetzgeber mit branchenspezifischen Kenntnissen, da die Bandbreite der Anwendungsfälle vom Gesundheitswesen bis zur Luft- und Raumfahrt teilweise grenzenlos ist“, sagte Justin Fier , SVP von Red Team Operations, Darktrace, gegenüber VentureBeat.

„Das Erreichen eines nationalen oder internationalen Konsenses darüber, wer für Fehlanwendungen aller Arten von KI und Automatisierung haftbar gemacht werden sollte, nicht nur für Gen-KI, ist eine wichtige Herausforderung, die eine kurze Pause bei der Entwicklung von Modellen für Gen-KI wahrscheinlich nicht lösen wird“, sagt Fier genannt.

Lesen Sie auch  Der Fed-Vorsitzende sagt, die Inflation bleibe zu hoch

Anstatt eine Pause einzulegen, wäre der Cybersicherheitsgemeinschaft besser gedient, wenn sie sich darauf konzentriert, die Diskussion darüber zu beschleunigen, wie die Risiken im Zusammenhang mit der böswilligen Nutzung generativer KI gehandhabt werden können, und KI-Anbieter aufzufordern, transparenter in Bezug auf die implementierten Leitplanken zu sein, um neue Bedrohungen zu verhindern.

Wie Sie das Vertrauen in KI-Lösungen zurückgewinnen

Für Litan von Gartner erfordert die aktuelle Entwicklung von Large Language Models (LLM), dass Benutzer auf die Red-Teaming-Fähigkeiten eines Anbieters vertrauen müssen. Organisationen wie OpenAI sind jedoch undurchsichtig darin, wie sie Risiken intern verwalten, und bieten Benutzern nur wenig Möglichkeiten, die Leistung dieser eingebauten Schutzmaßnahmen zu überwachen.

Infolgedessen benötigen Unternehmen neue Tools und Frameworks, um die durch die generative KI eingeführten Cyber-Risiken zu bewältigen.

„Wir brauchen eine neue Klasse von KI-Vertrauens-, Risiko- und Sicherheitsmanagement [TRiSM] Tools, die Daten- und Prozessflüsse zwischen Benutzern und Unternehmen verwalten, die LLM-Grundlagenmodelle hosten. Das wären [cloud access security broker] CASB-ähnlich in ihren technischen Konfigurationen, aber im Gegensatz zu CASB-Funktionen würden sie darin geschult, die Risiken zu mindern und das Vertrauen in die Verwendung von Cloud-basierten Basis-KI-Modellen zu stärken“, sagte Litan.

Als Teil einer KI-TRiSM-Architektur sollten Benutzer erwarten, dass die Anbieter, die diese Modelle hosten oder bereitstellen, ihnen die Tools zur Erkennung von Daten- und Inhaltsanomalien sowie zusätzliche Datenschutz- und Datenschutzfunktionen wie Maskierung zur Verfügung stellen.

Im Gegensatz zu bestehenden Tools wie ModelOps und gegnerischer Angriffsresistenz, die nur von einem Modellbesitzer und -betreiber ausgeführt werden können, ermöglicht AI TRiSM Benutzern, eine größere Rolle bei der Definition des Risikoniveaus zu spielen, das von Tools wie GPT-4 ausgeht.

Lesen Sie auch  Syngenta Group gibt Ergebnisse für das erste Halbjahr 2023 bekannt

Vorbereitung ist der Schlüssel

Anstatt zu versuchen, die Entwicklung generativer KI zu unterbinden, sollten Unternehmen letztlich nach Möglichkeiten suchen, wie sie sich darauf vorbereiten können, den Risiken entgegenzutreten, die von generativer KI ausgehen.

Eine Möglichkeit, dies zu tun, besteht darin, neue Wege zu finden, um KI mit KI zu bekämpfen, und dem Beispiel von Organisationen wie Microsoft, Orca Security, ARMO und Sophos zu folgen, die bereits neue defensive Anwendungsfälle für generative KI entwickelt haben.

Beispielsweise verwendet Microsoft Security Copilot eine Mischung aus GPT-4 und seinen eigenen proprietären Daten, um von Sicherheitstools erstellte Warnungen zu verarbeiten, und übersetzt sie in eine Erklärung von Sicherheitsvorfällen in natürlicher Sprache. Dies gibt menschlichen Benutzern eine Erzählung, auf die sie sich beziehen können, um effektiver auf Verstöße zu reagieren.

Dies ist nur ein Beispiel dafür, wie GPT-4 defensiv eingesetzt werden kann. Da generative KI leicht verfügbar und in freier Wildbahn ist, müssen Sicherheitsteams herausfinden, wie sie diese Tools als falschen Multiplikator nutzen können, um ihre Organisationen zu schützen.

„Diese Technologie kommt … und zwar schnell“, sagte Jeff Pollard, Forrester VP Principal Analyst, gegenüber VentureBeat. „Der einzige Weg, wie die Cybersicherheit bereit sein wird, besteht darin, sich jetzt damit zu befassen. Vorzutäuschen, dass es nicht kommt – oder so zu tun, als ob eine Pause helfen würde – wird die Cybersicherheitsteams auf lange Sicht nur kosten. Die Teams müssen jetzt anfangen zu recherchieren und zu lernen, wie diese Technologien die Art und Weise, wie sie ihre Arbeit erledigen, verändern werden.“

Die Mission von VentureBeat soll ein digitaler Marktplatz für technische Entscheidungsträger sein, um sich Wissen über transformative Unternehmenstechnologie anzueignen und Transaktionen durchzuführen. Entdecken Sie unsere Briefings.

Leave a Reply

Your email address will not be published. Required fields are marked *

This site uses Akismet to reduce spam. Learn how your comment data is processed.