Hey Chatbot, stimmt das? KI "überprüft Fakten" und verbreitet Falschinformationen

Während des viertägigen Kaschmir-Konflikts zwischen Indien und Pakistan im Mai 2025 verbreiteten sich explosionsartig Falschinformationen über die sich zuspitzenden militärischen Spannungen der beiden Länder. Um einen besseren Überblick zu behalten, wandten sich Nutzerinnen und Nutzer sozialer Medien zur Faktenprüfung an einen KI-Chatbot. Sie stießen dabei aber auf noch mehr Unwahrheiten, was die Unzuverlässigkeit von KI als Instrument zur Faktenprüfung unterstreicht.

Da Tech-Plattformen immer seltener Faktenprüferinnen und Faktenprüfer heranziehen, verlassen sich Nutzerinnen und Nutzer bei der Suche nach verlässlichen Informationen zunehmend auf KI-gestützte Chatbots – darunter Grok von xAI, ChatGPT von OpenAI und Gemini von Google.

"Hey @Grok, stimmt das?" ist eine häufig gestellte Frage auf Elon Musks Plattform X, in die der KI-Assistent integriert ist. Dies spiegelt den wachsenden Trend wider, in sozialen Medien nach schnellen Faktenchecks zu suchen. Die Antworten sind jedoch oft selbst mit Fehlinformationen gespickt.

Grok steht derzeit erneut unter Beobachtung, weil es das rechtsextreme Verschwörungsnarrativ "White Genocide", also "Genozid an Weißen", in nicht relevante Suchanfragen eingefügt hat. Der KI-Chatbot identifizierte alte Videoaufnahmen vom Flughafen Khartum im Sudan fälschlicherweise als Raketenangriff auf den pakistanischen Luftwaffenstützpunkt Nur Khan während des jüngsten Konflikts des Landes mit Indien.

Nicht damit in Zusammenhang stehendes Filmmaterial von einem brennenden Gebäude in Nepal wurde fälschlicherweise als "wahrscheinliche" Reaktion des pakistanischen Militärs auf indische Angriffe identifiziert.

"Die zunehmende Nutzung von Grok zur Faktenüberprüfung fällt in eine Zeit, in der X und andere große Technologieunternehmen ihre Investitionen in Faktenprüferinnen und -prüfer gekürzt haben" sagte McKenzie Sadeghi gegenüber AFP. Sadeghi ist Analystin bei dem US-Journalismusprojekt NewsGuard, das sich auf eine Bewertung der Glaubwürdigkeit und Transparenz von Internetseiten spezialisiert hat.

"Unsere Untersuchungen haben wiederholt gezeigt, dass KI-Chatbots keine zuverlässigen Quellen für Nachrichten und Informationen sind, insbesondere wenn es um aktuelle Nachrichten geht", warnte sie.

Details "erfunden"

Untersuchungen von NewsGuard ergaben, dass zehn führende Chatbots dazu neigten, Unwahrheiten zu wiederholen (hier archiviert). Darunter fanden sich beispielsweise russische Desinformationsnarrative und falsche oder irreführende Behauptungen im Zusammenhang mit der jüngsten Parlamentswahl in Australien.

In einer aktuellen Studie zu acht KI-Suchtools stellte das Tow Center for Digital Journalism der Columbia University fest, dass Chatbots "im Allgemeinen schlecht darin sind, Fragen, die sie nicht genau beantworten können, abzulehnen, und stattdessen falsche oder spekulative Antworten geben" (hier archiviert).

Als AFP-Faktenprüferinnen und -prüfer in Uruguay Gemini zu einem KI-generierten Bild einer Frau befragten, bestätigte der KI-Chatbot nicht nur dessen Echtheit, sondern erfand auch Details zu ihrer Identität und dem Ort, an dem das Bild wahrscheinlich aufgenommen wurde.

Grok stufte kürzlich ein angebliches Video einer Großen Anakonda, die im Amazonas schwimmt, als "echt" ein und zitierte sogar glaubwürdig klingende wissenschaftliche Feldforschung, um die falsche Behauptung zu untermauern.

In Wirklichkeit war das Video KI-generiert, berichteten AFP-Faktenprüferinnen und -prüfer in Lateinamerika. Sie wiesen außerdem darauf hin, dass viele Nutzerinnen und Nutzer die Einschätzungen von Grok als Beweis für die Echtheit des Videoclips anführten.

Solche Erkenntnisse geben Anlass zur Sorge, da Umfragen zeigen, dass Internet-Nutzerinnen und -Nutzer für die Informationsbeschaffung und -überprüfung zunehmend von traditionellen Suchmaschinen zu KI-Chatbots wechseln. 

Diese Entwicklung erfolgt auch vor dem Hintergrund, dass Meta Anfang des Jahres angekündigt hat, sein Programm zur Faktenprüfung durch Dritte in den USA einzustellen. Die Aufgabe, Falschmeldungen zu entlarven, wird nun an normale Nutzerinnen und Nutzer übertragen, und zwar im Rahmen eines Modells, das als "Community Notes" bekannt ist und von X populär gemacht wurde.

Fachleute haben die Wirksamkeit von "Community Notes" bei der Bekämpfung von Falschmeldungen wiederholt in Frage gestellt.

"Voreingenommene Antworten"

Die Überprüfung von Fakten durch Menschen ist seit langem ein Streitpunkt in einem hyperpolarisierten politischen Klima. Dies gilt insbesondere für die USA, wo in konservativen Kreisen behauptet wird, dass dadurch die Meinungsfreiheit unterdrückt und rechtsgerichtete Inhalte zensiert würden – was professionelle Faktenprüferinnen und -prüfer vehement zurückweisen.

AFP arbeitet derzeit in 26 Sprachen mit dem Faktenprüfungsprogramm von Meta zusammen, darunter in Asien, Lateinamerika und der Europäischen Union.

Die Qualität und Genauigkeit von KI-Chatbots kann je nach ihrer Programmierung und ihrem Training variieren, was zu Bedenken führt, dass ihre Ergebnisse politisch beeinflusst oder kontrolliert werden könnten.

Musks xAI machte kürzlich eine "unautorisierte Änderung" dafür verantwortlich, dass Grok unaufgefordert Beiträge mit Verweisen auf einen "Genozid an Weißen" in Südafrika generierte.

Als der KI-Experte David Caswell Grok fragte, wer seine Systemaufforderung geändert haben könnte, nannte der Chatbot Musk als "wahrscheinlichsten" Schuldigen.

Musk, der in Südafrika geborene Milliardär und Unterstützer von US-Präsident Donald Trump, hatte zuvor die unbegründete Behauptung verbreitet, dass die südafrikanischen Regierungschefs "offen für einen Völkermord" an Weißen eintreten würden.

"Wir haben gesehen, wie KI-Assistenten Ergebnisse fälschen oder voreingenommene Antworten geben können, nachdem ihre Anweisungen durch menschliches Programmieren gezielt geändert wurden", sagte Angie Holan, Direktorin des International Fact-Checking Networks, gegenüber AFP.

"Besonders besorgniserregend finde ich, wie Grok Anfragen zu sehr sensiblen Themen falsch gehandhabt hat, nachdem es Anweisungen erhalten hatte, vorab autorisierte Antworten zu geben."

Haben Sie eine Behauptung gefunden, die AFP überprüfen soll?

Kontaktieren Sie uns