ChatGPT chattet jetzt über Azure OpenAI Service

Entwickler können ChatGPT jetzt direkt über ein Token-basiertes Preissystem in eine Vielzahl von Unternehmens- und Endbenutzeranwendungen integrieren.

Microsoft stellt das große Sprachmodell von ChatGPT in einer Preview als Komponente für Anwendungen zur Verfügung, die für den Azure OpenAI Service des Unternehmens entwickelt wurden, und ebnet damit den Weg für Entwickler, das große Sprachmodell in eine Vielzahl verschiedener Unternehmensentwicklungs- und Endbenutzeranwendungen zu integrieren.

Microsoft scheint bereits mehrere Nutzer zu haben, die mit dieser Integration arbeiten, und nennt die ODP Corporation (die Muttergesellschaft von Office Depot und OfficeMax), das Smart Nation Digital Government Office in Singapur und den Anbieter von Vertragsmanagement-Software Icertis als Referenzkunden.

Entwickler, die den Azure OpenAI Service nutzen, können ChatGPT verwenden, um eine Vielzahl von Funktionen zu Anwendungen hinzuzufügen, wie z. B. die Zusammenfassung von Call-Center-Gesprächen, die Automatisierung der Bearbeitung von Ansprüchen und sogar die Erstellung neuer Anzeigen mit personalisierten Inhalten, um nur einige zu nennen.

Generative KI wie ChatGPT wird bereits eingesetzt, um das Produktangebot von Microsoft zu verbessern. Nach Angaben des Unternehmens kann die Premium-Version von Teams beispielsweise KI nutzen, um Kapitel in Unterhaltungen und automatisch generierte Zusammenfassungen zu erstellen, während Viva Sales datengestützte Anleitungen anbieten und E-Mail-Inhalte vorschlagen kann, damit Teams ihre Kunden erreichen.
Anwendungsfälle in Unternehmen für Azure OpenAI ChatGPT

Ritu Jyoti, Group Vice President für weltweite KI- und Automatisierungsforschung bei IDC, sagte, dass die vorgeschlagenen Anwendungsfälle sehr sinnvoll sind und dass sie erwartet, dass ein Großteil der anfänglichen Nutzung von Microsofts neuem ChatGPT-gestütztem Angebot auf den internen Gebrauch in Unternehmen ausgerichtet sein wird.

Zum Beispiel die Unterstützung der Personalabteilung bei der Erstellung von Stellenbeschreibungen, die Unterstützung der Mitarbeiter beim internen Wissensmanagement und bei der Suche - mit anderen Worten, die Unterstützung der Mitarbeiter bei der internen Suche.

Die Preisgestaltung des Dienstes erfolgt nach Token - ein Token deckt den Wert von etwa vier Zeichen einer bestimmten Anfrage in geschriebenem Englisch ab, wobei ein durchschnittlicher Absatz mit 100 Token und ein Aufsatz mit 1.500 Wörtern mit etwa 2.048 Token zu Buche schlägt. Laut Jyoti ist ein Grund dafür, dass GPT-3-basierte Anwendungen beliebter wurden, kurz bevor ChatGPT viral wurde, dass die Preise der OpenAI-Stiftung auf etwa 0,02 Dollar für 1.000 Token gefallen sind.

ChatGPT über Azure kostet sogar noch weniger, nämlich 0,002 Dollar pro 1.000 Token, was den Dienst potenziell wirtschaftlicher macht als die Verwendung eines internen großen Sprachmodells, fügte sie hinzu.

Ich denke, die Preisgestaltung ist großartig.

Laut Bern Elliot, Vizepräsident von Gartner und angesehener Analyst, scheint Microsoft beim Betrieb des Dienstes den Schwerpunkt auf verantwortungsvolle KI-Praktiken zu legen - vielleicht hat das Unternehmen aus den Vorfällen gelernt, bei denen ein Chatbot-Frontend von Bing ein seltsames Verhalten an den Tag legte, darunter eine Unterhaltung mit einem Reporter der New York Times, in der der Chatbot seine Liebe erklärte und versuchte, ihn davon zu überzeugen, seine Ehefrau zu verlassen.

Ich denke, Microsoft hat in der Vergangenheit verantwortungsvolle KI sehr ernst genommen, und das ist ihr Verdienst. Eine starke Erfolgsbilanz bei der ethischen Nutzung und bei der Gewährleistung des Datenschutzes in Unternehmen ist positiv, und ich denke, das spricht für das Unternehmen.

Dies sei eine wichtige Überlegung angesichts der Bedenken, die der Einsatz von KI im Unternehmen aufwirft - insbesondere in Bezug auf den Datenschutz und die Kontextualisierung von Datensätzen. Bei letzterem geht es in der Regel darum, sicherzustellen, dass die KI in Unternehmen Antworten aus der richtigen Informationsbasis ableitet, wodurch gewährleistet wird, dass diese Antworten korrekt sind und die "Halluzinationen" vermieden werden, die bei allgemeiner verwendbarer KI auftreten.