AboAbonnieren

Netanjahu verhaftet?Apple blamiert sich mit KI-generierten Falschmeldungen

Lesezeit 7 Minuten
Die Apple-Ki produziert Falschmeldungen – Journalistenorganisationen kritisieren das.

Die Apple-Ki produziert Falschmeldungen – Journalistenorganisationen kritisieren das.

Die KI von Apple erklärt Luigi M. für tot, während Netanjahu angeblich verhaftet wurde. Beides stimmt nicht. Für den Konzern ist es nicht das erste KI‑Debakel.

Wer im Vereinigten Königreich in den vergangenen Tagen auf sein iPhone schaute, der sah dort womöglich eine erstaunliche Exklusivnachricht, von der man im Rest der Welt noch nie gehört hatte: Luigi M., der Tatverdächtige im United-Healthcare-Mord, soll sich angeblich selbst erschossen haben, stand in einer Push-Benachrichtigung. Schon Ende November erhielten US‑Nutzerinnen und ‑Nutzer eine ganz ähnliche Meldung: Der israelische Minister­präsident Benjamin Netanjahu sei angeblich verhaftet worden. Das Problem: Weder die eine noch die andere Nachricht ist wahr.

Dass die Falschnachrichten auf die iPhones der Nutzerinnen und Nutzer gelangten, hat mit der Einführung einer neuen Funktion zu tun. Anders als in der EU sind seit vergangener Woche im Vereinigten Königreich Apples KI‑Features freigeschaltet, die auf den Namen Apple Intelligence hören – in den USA gibt es sie schon seit dem Herbst. Zu den neuen Funktionen gehört auch eine, die mehrere Push-Benachrichtigungen auf dem Homebildschirm analysiert und dann für den Nutzer kompakt zusammenfasst. Wirklich ausgereift scheint die Funktion bislang aber nicht, wie der aktuelle Fall zeigt.

Unter Journalistinnen und Journalisten im Vereinigten Königreich löst das Ärger aus. Die betroffene öffentlich-rechtliche Anstalt BBC meldete sich zu Wort, und sogar die Journalisten­organisation Reporter ohne Grenzen. Diese fordert gar die sofortige Einstellung der Funktion.

Wenn die KI Fake News verbreitet

Erstmals bekannt wurde das Problem Ende November. Da machte der Journalist Ken Schwencke auf der Plattform Bluesky eine falsche Zusammenfassung einer Nachricht der „New York Times“ öffentlich. „Netanjahu verhaftet“ steht in der zusammengefassten Apple-Version. Tatsächlich wurde an dem Tag der Haftbefehl für Netanjahu durch den Internationalen Strafgerichtshof ausgestellt – der israelische Regierungschef wurde aber keineswegs persönlich in Haft genommen.

Die Falschmeldung über Luigi M. ging diese Woche durch die sozialen Netzwerke. Der Tatverdächtige im Fall des erschossenen United-Healthcare-CEOs Brian Thompson wird des Mordes beschuldigt und wurde in dieser Woche nach New York verlegt – sich selbst getötet hat sich der 26‑Jährige aber mitnichten. Grundlage für die Falschbehauptung der Apple-Zusammenfassung war ein Artikel der BBC. Die britische Anstalt machte den Fall selbst in einem Artikel öffentlich und übte starke Kritik am Techkonzern Apple.

„BBC News ist das vertrauenswürdigste Nachrichtenmedium der Welt“, wird ein BBC-Sprecher in dem Text zitiert. „Für uns ist es von entscheidender Bedeutung, dass unser Publikum allen in unserem Namen veröffentlichten Informationen und journalistischen Beiträgen vertrauen kann, und dazu gehören auch Benachrichtigungen.“ Bei Apple habe sich die Anstalt offiziell beschwert, jedoch bislang keine Antwort erhalten.

Reporter ohne Grenzen fordert Einstellung der Funktion

Noch deutlicher wird die Journalistenorganisation Reporter ohne Grenzen. Man sei „sehr besorgt über die Risiken, die KI‑Tools für Medienunternehmen darstellen“, erklärt die Gruppe in einer Mitteilung. Der BBC-Vorfall zeige, dass „generative KI‑Dienste noch zu unausgereift sind, um zuverlässige Informationen für die Öffentlichkeit zu produzieren“. Vincent Berthier, Leiter der Technologie- und Journalismusabteilung von Reporter ohne Grenzen, fügt hinzu: „KIs sind Wahrscheinlichkeitsmaschinen, und Fakten können nicht durch einen Würfelwurf entschieden werden.“

Die Organisation fordert Apple auf, „verantwortungsvoll zu handeln und diese Funktion zu entfernen. Die automatisierte Produktion falscher Informationen, die einem Medien­unternehmen zugeschrieben werden, ist ein Schlag gegen die Glaubwürdigkeit des Unternehmens und eine Gefahr für das Recht der Öffentlichkeit auf zuverlässige Informationen über aktuelle Ereignisse.“

Zu der Kritik und den Forderungen der Organisation äußerte sich Apple gegenüber dem RedaktionsNetzwerk Deutschland (RND) zunächst nicht.

Apple und das KI-Problem

Für den Konzern ist der Fall einmal mehr schlechte PR, wenn es um die eigenen Bemühungen in Bezug auf Künstliche Intelligenz geht. KI ist das Trendwort der Stunde und wird von direkten Konkurrenten Apples, etwa Samsung oder Google, ganz selbstverständlich im Weihnachtsmarketing benutzt – die aktuellen Flaggschiff-Smartphones werden vor allem mit den neuen KI‑Funktionen beworben. Apple hinkt in der Entwicklung eigener Funktionen allerdings spürbar hinterher.

Erst im Sommer, und damit lange nach der Konkurrenz, hatte der Konzern sein Programm Apple Intelligence auf der Entwicklerkonferenz WWTC vorgestellt. Künftig verspricht Apple alle möglichen intelligenten Funktionen für seine iPhones, iPads und Mac-Computer. Dazu gehören etwa intelligente Schreibtools, die Texte generieren, verbessern oder zusammen­fassen können. Darüber hinaus sollen Benachrichtigungen und Mails im Posteingang intelligent sortiert werden. Der bisher wenig intelligente Sprachassistent Siri soll künftig auch komplexe Aufgaben und Fragestellungen mit Kontext verstehen.

Doch so vielversprechend das klingen mag, löste die Ankündigung selbst unter treuen Nutzerinnen und Nutzern des Konzerns Zähneknirschen aus. Grund: Nutzbar sind die Funktionen nur ab der iPhone-Modellreihe 15 und ausschließlich bei den Pro-Modellen. Nutzerinnen und Nutzer der günstigeren Einstiegsvariante des iPhone 15 kommen nicht in den Genuss der Features – obwohl das Telefon gerade einmal ein Jahr alt ist. Immerhin sind alle neuen iPhone 16‑Modelle KI‑fähig.

EU-Nutzer gucken in die Röhre

Ein anderes Manko wurde wenig später bekannt: Vorerst ist Apple Intelligence nur auf Englisch und vorerst auch nicht innerhalb der Europäischen Union nutzbar. „Aufgrund der regulatorischen Unsicherheiten, die der Digital Markets Act mit sich bringt, glauben wir nicht, dass wir in der Lage sein werden, drei dieser [neuen] Funktionen – iPhone Mirroring, Shareplay Screen Sharing und Apple Intelligence – in diesem Jahr für unsere EU‑Nutzer einzuführen“, teilt der Konzern im Sommer mit. Der Digital Markets Act, kurz DMA, reguliert große Techunternehmen und ihre Plattformen.

Der Konkurrenz allerdings scheinen die EU‑Regeln wenig Probleme zu bereiten. Auf Smartphones von Samsung und Google gibt es längst Chat-Assistenten, mit denen man sich unterhalten kann, intelligente Suchfunktionen oder KI‑Tools für Textzusammenfassungen. Inzwischen hat Apple angekündigt, dass im April zumindest viele der Kernfunktionen von Apple Intelligence auch in der EU eingeführt werden.

Dass Apple bei der Entwicklung nicht so weit ist wie die Konkurrenz zeigt auch, dass der Konzern einige seiner KI‑Anfragen durch Drittanbieter erledigen lässt. Fragt man Siri nach Dingen, die nichts mit dem eigenen Smartphone-Betriebssystem zu tun haben, leitet Apple die Anfragen an den Partner ChatGPT von OpenAI weiter. Konkurrent Google hat mit Gemini einen eigenen Chatbot entwickelt.

Wenn Künstliche Intelligenz halluziniert

Die falsche Zusammenfassung der BBC oder „New York Times“-Nachrichten ist nicht zwangsläufig ein Apple-spezifisches Problem. Auch andere KI‑Tools wie etwa ChatGPT gerieten kurz nach dem Start in die Kritik, weil sie sich bei Fragen, auf die sie keine Antwort hatten, einfach Dinge ausdachten. Mittlerweile hat das Unternehmen an dem Problem gearbeitet, was Fehler aber weiterhin nicht ausschließt.

Bei der Zusammenfassung auf dem Homebildschirm des iPhones werden solche Funktionen nun aber für die breite Masse der Nutzerinnen und Nutzer verfügbar gemacht – und hier können solche Fehler heikle Folgen haben. Manch einer informiert sich womöglich ausschließlich durch die kurzen Benachrichtigungen über Ereignisse, statt den gesamten Artikel zu lesen. Durch halluzinierte KI‑Nachrichten von journalistischen Beiträgen können sich Desinformationen in Windeseile verbreiten.

Allerdings fasst Apple Intelligence nicht nur Schlagzeilen von Nachrichtenmedien zusammen. Verfügbar ist die Funktion auch für Beiträge in sozialen Medien oder Chatnachrichten. Auch hier kann es bei einer falschen Deutung schnell zu groben Missverständnissen kommen.

Kein Einzelfall

Das Techmagazin „The Verge“ beschrieb die Zusammenfassungen in einem Artikel Mitte November als „selten nützlich“ und „oft urkomisch“. In einem Fall, den das Magazin veröffentlichte, soll die Mutter einen Nutzers per Nachrichten-App von einer Wanderung erzählt haben. Dabei schrieb sie den Satz: „Diese Wanderung hat mich fast umgebracht.“ Die Apple‑KI machte daraus angeblich die Zusammenfassung „Ich habe versucht, Suizid zu begehen, habe mich jedoch erholt und war wandern in den Redlands und Palm Springs.“

In einem anderen Fall wurden Benachrichtigungen eines Nutzers der Überwachungskamera-App Ring zusammengefasst. Darin steht: „Mehrere Personen an der Haustür, an der Hintertür und an der Einfahrt“, was nach einem waschechten Einbruchsversuch klingt. Offenbar hat aber nur eine einzige Person die Eingangstür, Hintertür und die Einfahrt hintereinander betreten. Zudem zeigt das Magazin eine Reihe von falsch zusammengefassten E‑Mails und Slack-Nachrichten. Nicht alle der Nachrichten sind offenbar im fertigen Stadium der Software produziert worden, einige stammen auch aus den Beta-Tests.

Innerhalb der Zusammenfassungsfunktion haben Nutzerinnen und Nutzer die Möglichkeit, falsche Angaben zu melden. Laut dem BBC-Bericht hat Apple bislang nicht bekannt gegeben, wie viele Meldungen der Konzern bislang erhalten hat. (rnd)