Das Heimatschutzministerium setzt auf KI

Das Department of Homeland Security hat die Chancen und Risiken der künstlichen Intelligenz aus erster Hand erlebt. Jahre später wurde ein Opfer des Menschenhandels mithilfe eines KI-Tools gefunden, das ein Bild des zehn Jahre älteren Kindes heraufbeschwor. Es wurde aber auch durch von KI erstellte Deep-Fake-Bilder zu Ermittlungen verleitet

Jetzt ist die Abteilung die erste Bundesbehörde, die die Technologie einsetzt und plant, generative KI-Modelle in einer Vielzahl von Abteilungen zu integrieren. In Partnerschaften mit OpenAI, Anthropic und Meta werden Pilotprogramme mit Chatbots und anderen Tools gestartet, um Drogen- und Menschenhandelskriminalität zu bekämpfen, Einwanderungsbeamte zu schulen und das Notfallmanagement im ganzen Land vorzubereiten.

Die Eile, die noch unerprobte Technologie auf den Markt zu bringen, ist Teil eines größeren Kampfes, mit den Veränderungen Schritt zu halten, die die generative KI mit sich bringt, die hyperrealistische Bilder und Videos erstellen und menschliche Sprache imitieren kann.

„Man kann es nicht ignorieren“, sagte Alejandro Mayorkas, Sekretär des Heimatschutzministeriums, in einem Interview. „Und wenn man nicht nach vorn geht und das Potenzial für Gutes und Schlechtes erkennt und darauf vorbereitet ist, es anzugehen, wird es zu spät sein, und deshalb handeln wir schnell.“

Der Plan, generative KI in der gesamten Agentur zu integrieren, ist der jüngste Beweis dafür, wie neue Technologien wie ChatGPT von OpenAI selbst die biedersten Branchen dazu zwingen, ihre Arbeitsweise neu zu bewerten. Dennoch dürften Regierungsbehörden wie das DHS mit der härtesten Kontrolle über die Art und Weise konfrontiert werden, wie sie die Technologie nutzen, die heftige Debatten ausgelöst hat, weil sie sich zeitweise als unzuverlässig und diskriminierend erwiesen hat.

Lesen Sie auch  VW-Finanzchef Arno Antlitz verkündet Aus für "Trinity"-Werk in Wolfsburg

Die Mitglieder der Bundesregierung haben sich beeilt, Pläne auszuarbeiten, nachdem Präsident Biden Ende letzten Jahres eine Durchführungsverordnung erlassen hatte, die die Schaffung von Sicherheitsstandards für KI und deren Einführung in der gesamten Bundesregierung vorschreibt.

Das DHS, das 260.000 Mitarbeiter beschäftigt, wurde nach den Terroranschlägen vom 11. September gegründet und hat die Aufgabe, die Amerikaner innerhalb der Landesgrenzen zu schützen, einschließlich der Überwachung des Menschen- und Drogenhandels, des Schutzes kritischer Infrastrukturen, der Katastrophenhilfe und der Grenzpatrouille.

Im Rahmen seines Plans Die Agentur plant, 50 KI-Experten einzustellen, um an Lösungen zu arbeiten, um die kritische Infrastruktur des Landes vor KI-generierten Angriffen zu schützen und den Einsatz der Technologie zur Generierung von Material über sexuellen Kindesmissbrauch und zur Herstellung biologischer Waffen zu bekämpfen.

In den Pilotprogrammen, für die sie 5 Millionen US-Dollar ausgeben wird, wird die Agentur KI-Modelle wie ChatGPT nutzen, um Ermittlungen zu Materialien über Kindesmissbrauch sowie Menschen- und Drogenhandel zu unterstützen. Darüber hinaus wird das Unternehmen mit Unternehmen zusammenarbeiten, um seine Bestände an textbasierten Daten zu durchsuchen, um Muster zu finden, die den Ermittlern helfen. Beispielsweise kann ein Detektiv, der nach einem Verdächtigen sucht, der einen blauen Pickup fährt, zum ersten Mal in allen Ermittlungen des Heimatschutzes nach demselben Fahrzeugtyp suchen.

Das DHS wird Chatbots einsetzen, um Einwanderungsbeamte zu schulen, die mit anderen Mitarbeitern und Auftragnehmern zusammengearbeitet haben, die sich als Flüchtlinge und Asylbewerber ausgeben. Die KI-Tools werden es den Beamten ermöglichen, sich besser mit Scheininterviews zu schulen. Die Chatbots werden auch Informationen über Gemeinden im ganzen Land durchsuchen, um ihnen bei der Erstellung von Katastrophenhilfeplänen zu helfen.

Lesen Sie auch  Kreisen Sie vor Ihrer Überprüfung auf den Rat von TikToker Corporate Natalie zurück

Die Agentur werde bis Ende des Jahres über die Ergebnisse ihrer Pilotprogramme berichten, sagte Eric Hysen, Chief Information Officer und Leiter der Abteilung KI

Die Agentur wählte OpenAI, Anthropic und Meta, um mit einer Vielzahl von Tools zu experimentieren, und wird in ihren Pilotprogrammen die Cloud-Anbieter Microsoft, Google und Amazon nutzen. „Wir können das nicht alleine schaffen“, sagte er. „Wir müssen mit dem Privatsektor zusammenarbeiten, um zu definieren, was ein verantwortungsvoller Einsatz einer generativen KI ist.“

Leave a Reply

Your email address will not be published. Required fields are marked *

This site uses Akismet to reduce spam. Learn how your comment data is processed.