Beachten Sie die Lücke: KI-Führungskräfte ziehen voran, während LLMs auf dem Vormarsch sind

Als ChatGPT auf den Markt kam, wuchs es innerhalb von drei Monaten auf 100.000.000 Benutzer. ChatGPT verzeichnete das schnellste Wachstum bei einem neuen Produkt aller Zeiten und zeigte die Leistungsfähigkeit und das Potenzial großer Sprachmodelle (LLMs). Google, Facebook und Anthropic folgten schnell mit ihren eigenen Modellen.

Unternehmen, die KI-Strategien, -Technologien und -Prozesse vollständig übernommen haben, rasen voran, während Nachzügler Gefahr laufen, ins Hintertreffen zu geraten. Die bislang leistungsstärksten KI-Engines sind LLMs, und zukunftsorientierte Unternehmen entwickeln Strategien für den Einsatz dieses revolutionären Tools.

Aber sind große Sprachmodelle sicher? Dies ist die häufigste Frage, die von den wahrscheinlichen Benutzern gestellt wird. Die Angst und Verwirrung ist sehr berechtigt.

Wussten Sie, dass Sie keine Daten weitergeben müssen, um Informationen preiszugeben?

Wenn Sie ChatGPT einfach eine Frage stellen, können Sie internes Wissen über die Zukunftspläne Ihrer Organisation offenbaren. Obwohl Microsoft der größte Anteilseigner von OpenAI ist, hat Microsoft seinen Mitarbeitern aufgrund von Sicherheitsrisiken davon abgeraten, ChatGPT zu verwenden.

Wie Sie LLMs sicher und verantwortungsvoll nutzen können

Private LLMs sind Modelle, die innerhalb der internen IT-Infrastruktur einer Organisation ausgeführt werden, ohne auf externe Verbindungen angewiesen zu sein. Indem diese Modelle in ihrer eigenen sicheren IT-Infrastruktur gehalten werden, können das Wissen und die Daten des Unternehmens geschützt werden.

Private Modelle erfordern die Zustimmung aller Beteiligten in der Organisation und vor der Implementierung sollte eine Risikobewertung durchgeführt werden. Wenn sie eingesetzt werden, sollten Unternehmen über klar definierte Richtlinien für ihre Verwendung verfügen. Wie bei jeder kritischen IT-Ressource muss die Zugriffskontrolle wichtiger Mitarbeiter implementiert werden, insbesondere wenn diese mit vertraulichen Informationen arbeiten.

Organisationen, die Standards wie ITAR (International Traffic in Arms Regulations), DSGVO (General Data Protection Regulation) und HIPAA (Health Insurance Portability and Accountability Act) einhalten müssen, müssen prüfen, ob ihre LLMs konform sind. Beispielsweise wurden ahnungslose Anwälte dabei erwischt, wie sie Fälle auf ChatGPT vorbereiteten, was einen klaren Verstoß gegen das Anwaltsgeheimnis darstellt.

Lesen Sie auch  Warum Driveline Baseball Teil des Schlagprogramms der Dodgers ist

Mit privaten Modellen kann das Unternehmen das Training des Modells steuern und so sicherstellen, dass Ihr Trainingsdatensatz angemessen ist und dass das von Ihnen erstellte Modell den Standards entspricht. Da die Modelle bei der Ausführung vertrauliche Daten sicher verarbeiten, werden keine Informationen in ihrem Kurzzeitgedächtnis, dem sogenannten Kontext, gespeichert. Diese Fähigkeit, Wissen zwischen permanenter Speicherung und kurzfristiger Speicherung aufzuteilen, bietet eine große Flexibilität beim Entwurf standardkonformer Systeme.

Ein weiterer großer Vorteil privater Modelle gegenüber ChatGPT besteht darin, dass sie „Stammwissen“ innerhalb der Organisation erlernen können, das oft in E-Mails, internen Dokumenten, Projektmanagementsystemen und anderen Datenquellen eingeschlossen ist. Dieser umfangreiche Speicher, der in Ihr privates Modell eingebunden ist, verbessert die Einsatzfähigkeit des Modells in Ihrem Unternehmen.

Die Kluft zwischen den „KI-Besitzenden“ und den „Besitzlosen“ wächst. Aber wie bei jeder neuen Technologie ist es wichtig, die Risiken und Chancen im gesamten Unternehmen zu verstehen, bevor man sich auf eine Lösung einlässt. Mit einem guten Projektmanagement und der Einbindung aller Beteiligten können Unternehmen KI über private LLMs sicher und effektiv implementieren und so verantwortungsbewusste KI-Agenten auf die sicherste Weise einsetzen.

Oliver King-Smith ist CEO von smartR AI, einem Unternehmen, das Anwendungen entwickelt, die auf der Entwicklung von Interaktionen, Verhaltensänderungen und der Erkennung von Emotionen basieren.

Leave a Reply

Your email address will not be published. Required fields are marked *

This site uses Akismet to reduce spam. Learn how your comment data is processed.