Es reicht nicht aus, sich für KI-Hardware einzusetzen, die lokale große Sprachmodelle, generative KI und dergleichen unterstützt. Hardware-Anbieter müssen auch für diese lokalen KI-Apps als Vermittler – wenn nicht sogar als Entwickler – fungieren.
Qualcomm hat es fast geschafft. Auf dem MWC 2024 (früher bekannt als Mobile World Congress, auch bekannt als eine der weltweit größten Mobilmessen) kündigte das Unternehmen diese Woche einen Qualcomm AI Hub an, eine Sammlung von mehr als 75 KI-Modellen, die speziell für die Plattformen Qualcomm und Snapdragon optimiert wurden. Qualcomm stellte außerdem ein lokales LLM mit sieben Milliarden Parametern vor, das auf einem (vermutlich mit Snapdragon betriebenen) PC läuft und Audioeingaben akzeptieren kann. Schließlich demonstrierte Qualcomm ein zusätzliches LLM mit sieben Milliarden Parametern, das auf Snapdragon-Telefonen läuft.
Das ist alles schön und gut, aber mehr PC- und Chiphersteller müssen reale Beispiele für KI vorführen. Der AI Hub von Qualcomm ist ein guter Anfang, auch wenn es sich um einen Hub für Entwickler handelt. Aber die einzige Möglichkeit für Chip- und PC-Anbieter, Benutzer davon zu überzeugen, lokale KI zu nutzen, besteht darin, sie einfach, kostengünstig und so, so verfügbar zu machen. Doch nur sehr wenige haben sich dafür engagiert.
Die PC-Branche neigt dazu, jeden möglichen Trend zu nutzen, da der Verkauf von PC-Hardware ständig durch Smartphones, die Cloud und andere Geräte untergraben wird, die ihre Dominanz gefährden. Während die Verkäufe von Laptops und Chromebooks während der Pandemie sprunghaft anstiegen, sind sie nun wieder auf den Boden der Tatsachen zurückgekehrt, und zwar hart. Das Argument, dass Sie einen lokalen PC benötigen, um das nächste große Ding auszuführen – KI – Und Die Bezahlung von High-End-Hardware ist ein Argument, mit dem die PC-Industrie geifern sollte.
Doch die ersten Beispiele für KI liefen in der Cloud, was die PC-Branche ins Hintertreffen bringt. Das kommt mir wie ein Punkt vor, auf den ich immer wieder zurückgreife, aber ich sage es noch einmal: Microsoft scheint noch nicht besonders in die lokale KI investiert zu sein. Alles, was die Marke „Copilot“ von Microsoft im Namen trägt, läuft in der Cloud und erfordert in der Regel entweder ein Abonnement oder zumindest ein Microsoft-Konto. (Copilot kann mit einem lokalen Windows-Konto verwendet werden, jedoch nur für eine begrenzte Anzahl von Malen, bevor Sie sich anmelden müssen, um es weiterhin verwenden zu können.)
Die meisten Menschen sind wahrscheinlich nicht unbedingt davon überzeugt, dass sie KI überhaupt nutzen müssen, geschweige denn, dass sie lokal auf ihrem PC ausgeführt wird. Dies ist das Problem, das Chip- und Hardware-Anbieter lösen müssen. Aber die Lösung ist nicht Hardware, sondern Software.
Mark Hachman / IDG
Die Antwort lautet Apps: viele, viele Apps
Microsoft hat letztes Jahr einen AI Hub für die Microsoft Store-App eingeführt, aber auch heute noch wirkt er etwas glanzlos. Die meisten der verfügbaren Chatbot-„Apps“ laufen tatsächlich in der Cloud und erfordern ein Abonnement – was natürlich keinen Sinn macht, wenn Copilot grundsätzlich kostenlos ist. Das Gleiche gilt für Apps wie Adobe Lightroom und ACDSee; Sie basieren auch auf Abonnements, was eine lokale App vermeiden könnte, indem sie die Leistung Ihres lokalen PCs nutzt.
Damit bleibt es den Hardware-Anbietern überlassen, die Fackel zu tragen. Und einige haben es getan: MSI stellt beispielsweise eine generative KI-App „AI Artist“ für sein neuestes Gaming-Notebook MSI Raider GE78 zur Verfügung. Obwohl es etwas umständlich und langsam ist, bietet es zumindest eine Ein-Klick-Installation von einem vertrauenswürdigen Anbieter.
Aber das ist eine Oase in einer Wüste lokaler KI. Sowohl AMD als auch Intel preisen die Leistung ihrer Chips auf KI-Sprachmodellen wie Llama 2 an. Das macht Sinn für diejenigen, die bereits KI-Chatbots ausprobiert haben und mit einigen der verschiedenen Modelle und ihrer Funktionsweise vertraut sind. AMD hat beispielsweise konkret dargelegt, welche Anwendungen die Vorteile seiner eigenen NPU nutzen, die das Unternehmen als Ryzen AI bezeichnet.
Bei allem Respekt ist das nicht ganz gut genug. Es reicht nicht aus, dass Intel letztes Jahr einen KI-Entwicklungsfonds aufgelegt hat. Was die Chiphersteller tun müssen, ist, sie in die Hände der Verbraucher zu bringen.
Wie? Eine Methode hat sich bereits bewährt: Testabonnements für KI-gestützte Apps wie Adobe Photoshop, DaVinci Resolve von BlackMagic oder Topaz. Kunden mögen Bloatware traditionell nicht, aber ich denke, wenn die PC-Industrie KI-PCs vermarkten will, müssen sie einen Versuch mit einem PC der Creator-Klasse wagen, der sich daran anlehnt. Anstatt mit „Intel Inside“ zu arbeiten, beginnen Sie mit der Vermarktung von „KI-Bundles“. Lehnen Sie sich hinein Software, nicht die Hardware. Beginnen Sie auch damit, App-Logos auf der Außenseite der Verpackung anzubringen. Wäre Adobe bereit, einem „Photoshop-zertifizierten“ PC seinen Stempel aufzudrücken? Es ist ein Gedanke.
Ansonsten würde ich eine der besseren Ideen von Intel vorschlagen: eine Rückkehr des Gaming-Bundles. Heutzutage können sowohl Intel als auch AMD ein ähnliches Spiel bündeln Assassin’s Creed: Mirage beim Kauf einer qualifizierten CPU oder eines Motherboards. Aber vor nicht allzu langer Zeit konnte man mehrere Spiele kostenlos herunterladen, die die Leistungsfähigkeit der CPU demonstrierten. (Hier ist ein MSI-Beispiel aus dem Jahr 2018 unten.)
Die lokale Ausführung von KI bietet einige überzeugende Vorteile: zum einen den Datenschutz. Aber der Komfortfaktor von Copilot und Bard ist ein starkes Argument dafür, stattdessen diese bereinigten Tools zu verwenden. Verbraucher sind wankelmütig und kümmern sich auch nicht darum, es sei denn, jemand zeigt ihnen, dass sie es tun sollten.
Wenn AMD, Intel und schließlich Qualcomm vorhaben, lokale KI Wirklichkeit werden zu lassen, müssen sie diese Option einfach, kostengünstig und allgegenwärtig machen. Und da der KI-Hype-Zug bereits auf Hochtouren läuft, müssen sie es noch gestern tun.