Millionenfach werden auf X Fälschungen des US-Superstars Taylor Swift geteilt. Ein Anti-Fake-Portal spricht von einer „neuen Dimension“.
Nacktbilder, MAGA-Fan, Katzen-LadyTaylor Swift kämpft gegen KI-Fake-Fotos – was hilft gegen Fälschungen?
US-Superstar Taylor Swift hat Stress mit Fake-Bildern. Auf der Plattform X (vormals Twitter) wurden mit Künstlicher Intelligenz (KI) generierte Bilder so stark verbreitet, dass die Plattform einschritt, Bilder löschte und die Suche nach Swift am Montag (29. Januar) einschränkte. Unter den KI-Fakes waren Bilder zu finden, die Swift nackt zeigen oder als Unterstützerin von Donald Trump.
Ein Nacktbild-Deepfake wurde 45 Millionen Mal angesehen, bevor X die Verbreitung stoppte, berichtet unter anderem der „Spiegel“. Der Fall zeigt die großen Probleme im Umgang mit KI-Fakes, für die es bislang wenig Strategien gibt – von Popmusik bis Politik.
KI-Fake-Bilder von Taylor Swift zwingen X zum Eingreifen
Es sind die absurdsten Fotos, die von Taylor Swift im Netzwerk X seit Tagen verbreitet werden: Die US-Sängerin als glühende Trump- und MAGA-Anhängerin, im Kreißsaal mit einem dunkelhäutigen Kind auf dem Bauch, als übergewichtige Frau vor einem Teller voller Chicken Wings und nackt in Pose. Sie alle sind fake.
Seit Tagen hat das von Elon Musk übernommene Netzwerk X mit den KI-Fälschungen zu kämpfen, so sehr, dass auf der Plattform auch am Montag noch die Reißleine gezogen wurde: Eine reine Suche nach Taylor Swift ist nicht mehr möglich.
Doch immer noch finden sich zahlreiche Fotos, die die 34-jährige Swift in unvorteilhaften oder üblen Posen zeigen. Die neue Welle von KI-Fakes zeigt erneut deutlich, wie wenig Strategien sowohl Konzerne, User als auch Betroffene haben, gegen die Fälschungen vorzugehen. Taylor Swift selbst äußerte sich bislang nicht zu den Fake-Bildern.
Fall Taylor Swift: Portal „Mimikama“ fordert entschlossenere Gesetze, neue Technologie und Bildungsangebote gegen KI-Fakes
Das gemeinnützige Anti-Fake-Portal „Mimikama“, das sich sowohl gegen Desinformation als auch gegen KI-Fake-Fotos einsetzt, titelte zu der aktuellen Swift-Welle: „KI-Desaster: Taylor Swifts Deepfake-Albtraum“. Das Portal beschreibt eine „beunruhigende Entwicklung, was den Missbrauch künstlicher Intelligenz angeht“ und eine „neue Dimension“.
Das Portal fordert zur Bekämpfung von Deepfake-Missbrauch technologische Lösungen, bessere rechtliche Rahmen und Bildungsinitiativen. Nutzerinnen und Nutzer sollten sich zudem bewusst sein, dass Fotos schnell auch von KI generierte Bilder sein könnten, mahnt „Mimikama“. Dabei sei es ein ständiger Wettlauf der KI-Generatoren und der Erkennungstechnologie für Fake-Fotos.
Schon jetzt gibt es auf einigen KI-Bilder-Portalen Filter, die das Hochladen und Verändern von Promi-Fotos unterbinden. Dass es dennoch immer wieder zu Fakes kommt, die sich wie im Fall von Taylor Swift auch millionenfach verbreiten können, zeigt aber auch die Mängel der Technik. „Mimikama“ bilanziert zum Fall Taylor Swift: „Dieser Vorfall sollte als Weckruf sowohl für die Öffentlichkeit als auch für Gesetzgeber und Technologieunternehmen dienen, um gemeinsam wirksame Strategien gegen den Missbrauch von KI zu entwickeln.“
Evolution oder Gefahr: KI hat massive Auswirkungen auf Kunst und Kultur
In den vergangenen Jahren hat die Entwicklung von Künstlicher Intelligenz, auch Artifical Intelligence (AI) genannt, rasant Fahrt aufgenommen. Das kopierte und neu-generierte Werke in Kunst und Kultur ein großes Problem darstellen, zeigt etwa auch ein Fall vom Mai 2023: Der Tiktok-User „Ghostwriter977“ hatte mithilfe von KI einen Song des berühmten US-Rappers Drake geschrieben, der so viral ging, dass eine Diskussion um Copyright und KI-Nutzung entbrannte.Wie weit die Technik ist, zeigte der Schweizer Radiosender Couler 3, der ebenfalls im April 2023 einen ganzen Tag lang nur KI-Songs spielte.
Besonders prominent wurde die Diskussion um KI-Fakes zu den sogenannten „Hollywood-Streiks“ im Herbst 2023: In den USA gingen monatelang Schauspieler, Drehbuchautoren und Medienschaffende auf die Straße, um für klarere Regeln im Umgang mit KI zu protestieren. Sie fürchteten Jobverluste und massive Veränderungen, etwa in der Filmbranche.
Auch in der Politik werden KI-Fakes eingesetzt, um Stimmung zu machen oder Politikerinnen und Politiker zu diskreditieren. Drei Beispiele: Erst jüngst wurde ein KI-Fake um US-Präsident Joe Biden publik, Auszüge einer gefälschten „Tagesschau“-Sendung wurden bei einer „Querdenker“-Demo abgespielt, und ein KI-Fake der FDP in NRW von Ministerpräsident Hendrik Wüst (CDU) löste eine große Debatte aus.