Erklärt | Warum Nvidia seinen Chip für China optimiert hat

Dateifoto des Nvidia-Logos | Bildnachweis: REUTERS

Die Geschichte bisher: Der GPU- und KI-Chip-Gigant Nvidia kündigte am 22. März die Veröffentlichung einer speziell entwickelten Version seines fortschrittlichen H100-Chips an, die den US-Exportbestimmungen entspricht. Das heißt, es könnte es an chinesische Technologieunternehmen verkaufen. Der Schritt erfolgte nach monatelangen politischen Änderungen durch die Biden-Regierung, die darauf abzielten, Chinas Zugang zu von den USA entworfenen Technologien wie Chips und Halbleitern zu unterbinden.

Warum ändert Nvidia seine Chips?

Im September wurde Nvidia von offiziellen Stellen angewiesen, den Export von zwei High-Level-Chips – A100 und H100 – an chinesische Kunden einzustellen, da Bedenken hinsichtlich der künftigen Nutzung der Technologie für militärische Zwecke bestehen. Nvidia-Aktien wurden von dem Umzug getroffen. Ein anderer Chiphersteller, AMD, gab ebenfalls zu, dass seine MI250 AI-Chips von dem Exportverbot betroffen waren.

Die Beschränkungen waren Teil des größeren Vorstoßes der Biden-Regierung, den Strom fortschrittlicher Hardware und aktiver Komponenten nach China einzuschränken, um das Land daran zu hindern, seine KI-, Geheimdienst- und Militärfähigkeiten aufzubauen. Die meisten dieser Chips, die von den Top-Playern in diesem Sektor hergestellt werden, werden ebenfalls in Taiwan hergestellt, einem Land, von dem China behauptet, dass es ein Teil seines eigenen Landes ist.

Dem US-Handelsministerium war nicht klar, welche technischen Chipspezifikationen ein Exportverbot nach sich ziehen würden. Allerdings kritisierten das chinesische Außenministerium und das Handelsministerium den Schritt damals scharf.

(Für Top-Technologie-News des Tages abonnieren Sie unseren Tech-Newsletter Today’s Cache)

Wird es einen Leistungsunterschied geben?

Nvidia hält sich bezüglich der technischen Spezifikationen des H800 bedeckt, betont aber, dass der H800 den US-Exportbestimmungen entspreche. Der H100 ist jedoch ein hochentwickeltes und ausgeklügeltes Stück Technologie, das anspruchsvolle KI-Anwendungsfälle erfüllt und deren Geschwindigkeit beschleunigt. Dazu muss die Datenübertragungsrate von Chip zu Chip hoch sein, sonst droht das KI-Modell an Geschwindigkeit zu verlieren.

Lesen Sie auch  Kurzanleitung zum Entsorgen von Fotos auf Ihrem Smartphone, mit oder ohne künstliche Intelligenz

Unter Berufung auf eine anonyme Quelle berichtete Reuters, dass die Chip-zu-Chip-Datenübertragungsrate des H800 etwa halb so hoch sei wie die des H100.

Nvidia-CEO Jensen Huang sprach über eine neu veröffentlichte H100-GPU im März und sagte, dass sie die Verarbeitungskosten für große Sprachmodelle „um eine Größenordnung“ senken könne.

Neben künstlicher Intelligenz unterstützt der H100 auch Cloud Computing. Einige Unternehmen, die H100-Hardware oder -Technologie verwenden oder deren Einführung planen, sind Oracle Cloud Infrastructure, Microsoft Azure, Meta, Google Cloud und Open AI.

Wo werden die Chipsätze eingesetzt?

Ein Nvidia-Sprecher sagte, dass die H800-Technologie vom chinesischen Internetgiganten Baidu, der E-Commerce-Plattform Alibaba und dem Unterhaltungskonglomerat Tencent für Cloud-Computing verwendet wird. Herr Huang bemerkte, dass die Chips die Arbeit von Startups vorantreiben würden, die sich auf generative KI und große Sprachmodelle konzentrieren.

Im März stellte Baidu-CEO Robin Li den KI-gestützten Ernie-Chatbot vor, der ein Rivale von OpenAIs ChatGPT sein soll. Während ein aufgezeichneter Clip, der die gemeldeten Leistungen des Chatbots zeigt, zu sinkenden Anteilen führte, ließ positives Nutzerfeedback nach einem Tag die Anteile wieder steigen.

Baidu hat Pläne, Ernie in seine Suchmaschine zu bringen, ähnlich wie bei der Zusammenarbeit von Bing und OpenAI.

Wie wichtig sind der A100 und der H100 in der KI-Entwicklung?

Große Technologieunternehmen wie Microsoft und Google befinden sich in einem Wettlauf, um KI-erweiterte Funktionen und Suchmaschinen der Öffentlichkeit zugänglich zu machen. Um die Supercomputer, die solch komplexe Prozesse ermöglichen, mit Strom zu versorgen, benötigen sie High-Level-Hardware wie den H100 und den A100. Der Nvidia A100 kostet etwa 10.000 US-Dollar, und Tausende solcher Chips werden benötigt, um KI-Prozesse wie den KI-fähigen Bing-Chatbot von Microsoft zu betreiben. Dies könnte dazu führen, dass Unternehmen Milliarden von Dollar zahlen, um ihre Produkte zu testen, noch bevor sie die Öffentlichkeit erreichen.

Lesen Sie auch  Dapper Dan denkt über seinen nächsten Schritt nach

Die Kosten sind jedoch möglicherweise keine so große Eintrittsbarriere, da Herr Huang behauptete, dass die Technologie des Unternehmens den Preis der für KI-Prozesse erforderlichen Hardware senkt. Herr Huang sagte, dass mit Nvidias GPUs laut einem CNBC-Bericht ein Large Language Model (LLM) zu Kosten von etwa 10 bis 20 Millionen US-Dollar gebaut werden könnte.

Während der A100 im Jahr 2020 auf den Markt kam, kam der H100 im Jahr 2022 heraus. Die Nachfrage nach diesen Chips wächst offensichtlich, da der teurere H100 Anfang 2023 einen höheren Quartalsumsatz einbrachte als der A100.

Leave a Reply

Your email address will not be published. Required fields are marked *

This site uses Akismet to reduce spam. Learn how your comment data is processed.