Anthropic stellt Claude vor, einen „lenkbareren“ KI-Konkurrenten für ChatGPT

Anthropisch

Am Dienstag stellte Anthropic Claude vor, ein Large Language Model (LLM), das Text generieren, Code schreiben und als KI-Assistent ähnlich wie ChatGPT fungieren kann. Das Modell basiert auf Kernbedenken hinsichtlich der zukünftigen KI-Sicherheit und Anthropic hat es mit einer Technik trainiert, die es „Constitutional AI“ nennt.

Zwei Versionen des KI-Modells, Claude und „Claude Instant“, sind jetzt für eine begrenzte „Early-Access“-Gruppe und kommerzielle Partner von Anthropic verfügbar. Benutzer mit Zugriff können Claude entweder über eine Chat-Oberfläche in der Entwicklerkonsole von Anthropic oder über eine Anwendungsprogrammierschnittstelle (API) verwenden. Mit der API können sich Entwickler aus der Ferne in die Server von Anthropic einklinken und Claudes Analyse- und Textvervollständigungsfähigkeiten zu ihren Apps hinzufügen.

Anthropic behauptet, dass Claude „mit viel geringerer Wahrscheinlichkeit schädliche Ergebnisse produziert, leichter zu unterhalten und steuerbarer ist“ als andere KI-Chatbots, während „ein hohes Maß an Zuverlässigkeit und Vorhersehbarkeit“ beibehalten wird. Das Unternehmen nennt Anwendungsfälle wie Suche, Zusammenfassung, gemeinsames Schreiben und Kodieren. Und wie die API von ChatGPT kann Claude Persönlichkeit, Ton oder Verhalten je nach Nutzungspräferenz ändern.

Ein Werbevideo mit Claude von Anthropic.

Um Claude zu verkaufen, berechnet Anthropic die Nutzung pro Million eingegebener und ausgegebener Zeichen. Während das KI-Modell gpt-3.5-turbo von OpenAI 0,002 US-Dollar pro 1.000 Token (Fragmente eines Wortes) kostet, ist Claude Instant für 0,42 US-Dollar pro Million Zeichen als Eingabeaufforderung und 1,45 US-Dollar pro Million Zeichen für die Ausgabe erhältlich. “Claude-v1”, das größere Modell, kommt auf 2,90 $ pro Million Zeicheneingabe und 8,60 $ pro Million Zeichenausgabe. Es gibt zwar keine Standardkonvertierung zwischen Token und Zeichen, aber unsere Berechnung auf der Rückseite des Umschlags lautet, dass die ChatGPT-API von OpenAI etwa 0,40 bis 0,50 US-Dollar pro Million Zeichen kostet, sodass Claude im Allgemeinen teurer ist.

Lesen Sie auch  Thurnbichler sagte, was er über den Start der Springreiter in IE denkt. Er hielt sich nicht zurück
Eine Tabelle, die die Preise der ChatGPT-API von OpenAI und der beiden Claude-APIs vergleicht, basierend auf einer groben Schätzung von vier Zeichen pro Token.
Vergrößern / Eine Tabelle, die die Preise der ChatGPT-API von OpenAI und der beiden Claude-APIs vergleicht, basierend auf einer groben Schätzung von vier Zeichen pro Token.

Ars Technica

Laut Anthropic wurde Claude bereits in mehrere Produkte integriert, die über Partner erhältlich sind, darunter DuckAssist-Sofortzusammenfassungen von DuckDuckGo, ein Teil von Notion AI und eine von Quora erstellte KI-Chat-App namens Poe.

Der ehemalige OpenAI VP of Research Dario Amodei und seine Schwester Daniela gründeten Anthropic im Jahr 2021 als „ein KI-Sicherheits- und Forschungsunternehmen“ nach einer Meinungsverschiedenheit über die zunehmend kommerzielle Ausrichtung von OpenAI. Amodi brachte andere OpenAI-Mitarbeiter wie Tom Brown mit, der die Entwicklungsarbeit an GPT-3 leitete. Eine Überarbeitung von GPT-3 diente später als grundlegendes Sprachmodell im Herzen von ChatGPT. Laut The Verge investierte Google Ende 2022 300 Millionen US-Dollar in Anthropic im Austausch für 10 Prozent des Unternehmens.

Basierend auf den angekündigten Plänen von Google für Bard und die PaLM-API scheint es unwahrscheinlich, dass Google sich bei seinen Produkten auf Anthropic für KI-Lösungen verlassen wird, aber die Finanzierung eines Konkurrenten von OpenAI könnte in Zukunft im besten strategischen Interesse von Google liegen. Vorerst plant Anthropic, die Entwicklung und Verbesserung von Claude fortzusetzen.

„Wir planen, in den kommenden Wochen noch mehr Updates einzuführen“, schreibt Anthropic. „Während wir diese Systeme entwickeln, werden wir kontinuierlich daran arbeiten, sie hilfreicher, ehrlicher und harmloser zu machen, während wir mehr aus unserer Sicherheitsforschung und unseren Einsätzen lernen.“

Leave a Reply

Your email address will not be published. Required fields are marked *

This site uses Akismet to reduce spam. Learn how your comment data is processed.