Die Technologie, mit der ChatGPT läuft, bekam gerade ein großes Upgrade. Schwächen und Risiken der Software bleiben aber bestehen.
Künstliche IntelligenzOpenAI stellt nächste Version der Technik hinter ChatGPT vor
Das Start-up OpenAI hat die nächste Version der Technologie hinter dem populären Text-Automaten ChatGPT vorgestellt. GPT-4 soll unter anderem bessere Ergebnisse als die vorherigen Varianten liefern, wie OpenAI in der Nacht zum Mittwoch bekannt gab. Probleme der Technik - wie etwa, dass sie angebliche Fakten einfach erfinden kann - bestehen weiter, sollen aber seltener vorkommen.
ChatGPT und die Software Dall-E, die Bilder aus Text-Vorgaben erzeugen kann, basieren aktuell noch auf der vorherigen GPT-Generation. Zugang zu GPT-4 bekommen zahlende Kunden von OpenAI für ihre Dienste. Es gibt eine Warteliste. Einige Kunden setzten die Technologie allerdings schon ein.
Duolingo und Microsoft nutzen GPT-4 schon jetzt
Die Sprachlern-App Duolingo etwa nutzt GPT-4 unter anderem für Dialog-Trainings, die in einem neuen, teureren Abo verfügbar sind. Microsoft bestätigte, dass in seiner Bing-Suchmaschine schon seit einigen Wochen GPT-4 zum Einsatz kommt. Microsoft kaufte sich in einem milliardenschweren Deal bei OpenAI ein, und das Geld sicherte unter anderem den Zugang zur nötigen enormen Rechenleistung.
Verschiedene Dienste kündigten umgehend neue Angebote auf Basis von GPT-4 an. So will die Firma Intercom sie für Kundendienst-Chatbots einsetzen, mit denen sich Nutzer unterhalten können. Der Anbieter DoNotPay, mit dem man Ansprüche geltend machen kann, will damit Klageschriften wegen unerwünschten Werbeanrufen automatisch erzeugen lassen. Im Netz machte ein Video die Runde, in dem GPT-4 eine funktionierende Website auf Grundlage einer handschriftlichen Skizze erstellte.
Risiko: Fakten „halluzinieren“
Für die GPT-Technologien erfasste die Software enorme Mengen von Texten und Bildern. Sie kann auf dieser Basis Sätze formulieren, die von denen eines Menschen kaum zu unterscheiden sind. Dabei schätzt das Programm, welche Worte als Nächstes in einem Satz folgen könnten. Dieses Grundprinzip birgt unter anderem das Risiko, dass die Software „Fakten halluziniert“, wie OpenAI es nennt.
Das könne auch GPT-4 passieren, wenn auch seltener als zuvor, hieß es in dem Blogeintrag. Auch könnten der neuen Version ebenfalls einfache Logik-Fehler unterlaufen, und sie könne Vorurteile weiterverbreiten. GPT-4 seien nur Fakten bekannt, die vor September 2021 passiert seien – und es lerne nicht aus Erfahrungen, betonte OpenAI. Microsoft schränkte zeitweise die Länge der Unterhaltungen mit der Software bei Bing ein, weil die Antworten des Programms nach einiger Zeit zum Teil ins Absurde abrutschten.
GPT-4 soll auch gut darin sein, Bilder zu analysieren und mit Worten zu beschreiben – diese Funktion macht OpenAI zunächst aber nicht für die Kunden verfügbar. Zu ihren Risiken gehört, dass die Software bei Menschen im Bild ihre Identität angeben könnte, wenn sie Personen aus öffentlich zugänglichen Aufnahmen erkennt. (dpa)