Seit dem Start von ChatGPT im November 2022 verwenden Einzelpersonen und Unternehmen es, um Text zusammenzufassen, neue Inhalte zu erstellen, neue Ideen zu entwickeln und sogar Code zu schreiben.
Als der Dienst begann, Millionen aktiver monatlicher Benutzer anzuhäufen, begannen Gerüchte über Microsofts Beteiligung an dem Unternehmen hinter ChatGPT, OpenAI, zu kursieren. Seitdem soll Microsoft Milliarden in das Unternehmen investiert haben und künstliche Intelligenz in zahlreiche Produkte und Dienstleistungen Einzug gehalten haben.
Diese Partnerschaft hat nun einen bedeutenden Schritt nach vorn gemacht, da Microsoft ChatGPT direkt in seinen Azure OpenAI Service integrieren wird, wodurch seine Reichweite auf Millionen von Kunden durch die große Anzahl von Unternehmen, die Azure nutzen, erweitert wird.
ChatGPT in Azure
Es ist wichtig zu beachten, dass sich ChatGPT derzeit in Azure OpenAI Service in der Vorschau befindet und die vollständige allgemeine Verfügbarkeit noch einige Zeit dauern kann, da zukünftige Anpassungen der Dienste und Preise möglich und wahrscheinlich sind. Im Moment liegt der Preis jedoch bei 0,002 $ pro 1.000 Token.
Microsoft hofft, dass seine Azure-Kunden den KI-Chatbot verwenden, um ihn in ihre eigenen Erfahrungen und Anwendungen zu integrieren, z. B. um vorhandene Bots zu verbessern, Anrufe und Besprechungen zusammenzufassen, neues Marketingmaterial zu erstellen und Schadensfälle zu automatisieren.
Für alle, die sich noch nicht sicher sind, wie KI ihrem Unternehmen zugute kommen kann, nennt Microsoft einige Drittanbieter in a Blogeintrag (öffnet in neuem Tab) die Verbesserungen erfahren haben, sowie einige seiner eigenen Dienste, einschließlich GitHub Copilot, Teams-PremiumViva Sales und Bing.
Insgesamt hofft Microsoft mit Azure OpenAI Service, künstliche Intelligenz zu demokratisieren und sie in die Hände so vieler Kunden wie möglich zu bringen, einige argumentieren jedoch, dass die globale Einführung zu langsam war und zu viel Wert auf bestimmte Teile der Welt gelegt wurde. wahrscheinlich, weil es schwierig ist, KI mit geringer Latenz in großem Maßstab bereitzustellen.