Wie Microsoft Bing Chat in Ihren persönlichen KI-Assistenten verwandeln könnte

Kommentar: Nach der Analyse vieler aktueller Microsoft-Entwicklerinhalte sagt Experte Simon Bisson, dass es einen großen Hinweis darauf gibt, wie Bing Chat funktionieren wird.

Bild: gguy/Adobe Stock

Wenn es eines über Microsoft zu wissen gibt, dann das: Microsoft ist ein Plattformunternehmen. Es existiert, um Tools und Dienste bereitzustellen, auf die jeder aufbauen kann, von seinen Betriebssystemen und Entwicklertools über seine Produktivitätssuiten und -dienste bis hin zu seiner globalen Cloud. Wir sollten uns also nicht wundern, wenn eine Ankündigung aus Redmond davon spricht, „von einem Produkt zu einer Plattform zu wechseln“.

Die letzte derartige Ankündigung betraf den neuen Bing GPT-basierten Chat-Dienst. Die Anreicherung der Suche mit künstlicher Intelligenz hat es Bing ermöglicht, eine Konversationssuchumgebung bereitzustellen, die auf seinem Bing-Index und den GPT-4-Textgenerierungs- und Zusammenfassungstechnologien von OpenAI aufbaut.

Anstatt sich durch eine Liste von Seiten und Inhalten zu arbeiten, werden Ihre Fragen mit einer kurzen Textzusammenfassung mit relevanten Links beantwortet, und Sie können die Chat-Tools von Bing verwenden, um Ihre Antworten zu verfeinern. Es ist ein Ansatz, der Bing zu einem seiner ursprünglichen Marketingpunkte zurückgebracht hat: Ihnen dabei zu helfen, Entscheidungen zu treffen und nach Inhalten zu suchen.

SEHEN: Richten Sie mithilfe dieser Vorlage von TechRepublic Premium eine Ethikrichtlinie für künstliche Intelligenz in Ihrem Unternehmen ein.

ChatGPT hat kürzlich Plug-Ins hinzugefügt, die es zu fokussierteren Diensten erweitern; Als Teil von Microsofts evolutionärem Ansatz, KI zu Bing hinzuzufügen, wird es bald dasselbe tun. Aber eine Frage bleibt: Wie wird es funktionieren? Glücklicherweise gibt es einen großen Hinweis in Form eines der vielen Open-Source-Projekte von Microsoft.

Springen zu:

Semantischer Kernel: Wie Microsoft GPT erweitert

Microsoft hat eine Reihe von Tools für die Arbeit mit seinen Azure OpenAI GPT-Diensten namens Semantic Kernel entwickelt. Es wurde entwickelt, um benutzerdefinierte GPT-basierte Anwendungen bereitzustellen, die über das anfängliche Trainingsset hinausgehen, indem Sie dem Modell Ihre eigenen Einbettungen hinzufügen. Gleichzeitig können Sie diese neuen semantischen Funktionen mit traditionellem Code verpacken, um KI-Fähigkeiten aufzubauen, wie z. B. das Verfeinern von Eingaben, das Verwalten von Eingabeaufforderungen und das Filtern und Formatieren von Ausgaben.

Lesen Sie auch  Mit Sling TV können Kunden jetzt kostenlose Arcade-Spiele spielen und gleichzeitig Live-TV-Inhalte ansehen

Details zum KI-Plug-in-Modell von Bing werden zwar erst auf der BUILD-Entwicklerkonferenz von Microsoft Ende Mai veröffentlicht, aber es basiert wahrscheinlich auf dem Semantic Kernel-KI-Skill-Modell.

Entwickelt, um mit und um die Anwendungsprogrammierschnittstelle von OpenAI herum zu arbeiten, gibt es Entwicklern die notwendigen Werkzeuge an die Hand, um den Kontext zwischen Eingabeaufforderungen zu verwalten, ihre eigenen Datenquellen hinzuzufügen, um Anpassungen vorzunehmen, und Eingaben und Ausgaben mit Code zu verknüpfen, der helfen kann, Ausgaben zu verfeinern und zu formatieren sowie die Verknüpfung mit anderen Diensten.

Das Erstellen eines KI-Produkts für Verbraucher mit Bing war sehr sinnvoll. Wenn Sie sich die zugrunde liegenden Technologien genauer ansehen, nutzen sowohl die KI-Dienste von GPT als auch die Suchmaschine von Bing eine relativ wenig verstandene Technologie: Vektordatenbanken. Diese geben GPT-Transformatoren ein sogenanntes „semantisches Gedächtnis“, das ihnen hilft, Verbindungen zwischen Eingabeaufforderungen und ihrer generativen KI zu finden.

Eine Vektordatenbank speichert Inhalte in einem Raum, der so viele Dimensionen haben kann wie die Komplexität Ihrer Daten. Anstatt Ihre Daten in einer Tabelle zu speichern, ordnet sie ein als „Einbetten“ bezeichneter Prozess Vektoren zu, die eine Länge und eine Richtung in Ihrem Datenbankbereich haben. Das macht es einfach, ähnliche Inhalte zu finden, egal ob es sich um Text oder ein Bild handelt; Alles, was Ihr Code tun muss, ist, einen Vektor zu finden, der dieselbe Größe und dieselbe Richtung wie Ihre ursprüngliche Abfrage hat. Es ist schnell und fügt einer Suche einen gewissen Zufall hinzu.

GPT semantisches Gedächtnis geben

GPT verwendet Vektoren, um Ihre Eingabeaufforderung zu erweitern und Text zu generieren, der Ihrer Eingabe ähnelt. Bing verwendet sie zum Gruppieren von Informationen, um das Auffinden der gesuchten Informationen zu beschleunigen, indem einander ähnliche Webseiten gefunden werden. Wenn Sie einem GPT-Chatdienst eine eingebettete Datenquelle hinzufügen, geben Sie ihm Informationen, die er verwenden kann, um auf Ihre Aufforderungen zu reagieren, die dann als Text übermittelt werden können.

Lesen Sie auch  Der kombinierte Streaming-Dienst „Paramount+ mit Showtime“ kommt dieses Jahr

Ein Vorteil der Verwendung von Einbettungen neben den Daten von Bing besteht darin, dass Sie sie verwenden können, um Ihren eigenen Langtext zum Dienst hinzuzufügen, z. B. um mit Dokumenten innerhalb Ihrer eigenen Organisation zu arbeiten. Durch die Bereitstellung einer Vektoreinbettung wichtiger Dokumente als Teil einer Abfrage können Sie beispielsweise eine Suche und einen Chat verwenden, um häufig verwendete Dokumente zu erstellen, die Daten aus einer Suche und sogar aus anderen Bing-Plug-Ins enthalten, die Sie möglicherweise Ihrer Umgebung hinzugefügt haben .

Vermittlung von Bing-Chat-Fähigkeiten

Sie können Anzeichen dafür sehen, dass in der neuesten Bing-Version so etwas wie der öffentliche semantische Kernel am Werk ist, da er Funktionen hinzufügt, die GPT-generierte und verarbeitete Daten verwenden und sie in Diagramme und Tabellen umwandeln, um die Ergebnisse zu visualisieren. Indem GPT-Eingabeaufforderungen ausgegeben werden, die eine Liste von Werten zurückgeben, kann Nachbearbeitungscode seine Textausgabe schnell in Grafiken umwandeln.

Da Bing eine universelle Suchmaschine ist, können Sie durch das Hinzufügen neuer Fähigkeiten, die auf spezialisiertere Datenquellen verlinken, spezialisiertere Suchen durchführen (z. B. die Arbeit mit einem Archiv medizinischer Unterlagen). Und da es Ihnen Fähigkeiten ermöglichen, Bing-Ergebnisse mit externen Diensten zu verbinden, können Sie sich leicht eine Reihe von Chat-Interaktionen vorstellen, die Ihnen helfen, zunächst ein Restaurant für einen besonderen Anlass zu finden und dann den von Ihnen gewählten Veranstaltungsort zu buchen – alles ohne eine Suche zu verlassen.

Durch die Bereitstellung eines Frameworks für sowohl private als auch öffentliche Interaktionen mit GPT-4 und durch Hinzufügen von Unterstützung für die Persistenz zwischen Sitzungen sollte das Ergebnis ein Framework sein, das viel natürlicher ist als herkömmliche Suchanwendungen.

Lesen Sie auch  „Ich bin wie ein Labrador, ich bin sehr aufgeregt“: Sharleen Spiteri im Gespräch bei Glastonbury | Glastonbury 2023

Mit Plug-Ins zur Erweiterung dieses Modells auf andere Datenquellen und andere Dienste besteht die Möglichkeit, die von Microsoft seit mehr als einem Jahrzehnt versprochene, auf natürlicher Sprache basierende Computerumgebung bereitzustellen. Und indem Microsoft es zu einer Plattform macht, stellt es sicher, dass es eine offene Umgebung bleibt, in der Sie die Tools erstellen können, die Sie benötigen, und sich nicht auf die Tools verlassen müssen, die Microsoft Ihnen zur Verfügung stellt.

Microsoft verwendet sein Copilot-Branding für alle seine KI-basierten Assistenten, von den GPT-basierten Tools von GitHub bis hin zu neuen Funktionen in Microsoft 365 und in Power Platform. Hoffentlich wird GPT weiterhin auf allen seinen vielen Plattformen auf die gleiche Weise erweitert, sodass wir unsere Plug-Ins auf mehr als nur Bing bringen können, indem wir dieselben Programmiermodelle verwenden, um die Kluft zwischen traditionellem Code und generativen KI-Eingabeaufforderungen zu überwinden semantisches Gedächtnis.

Leave a Reply

Your email address will not be published. Required fields are marked *

This site uses Akismet to reduce spam. Learn how your comment data is processed.