Für die, die keine Zeit haben: KI-Chatbots liefern bei Nachrichten in 35–45 % der Fälle falsche oder irreführende Antworten. Die Fehlerquote hat sich im letzten Jahr fast verdoppelt. Vertraut KI nicht blind – prüft Fakten immer selbst!
Künstliche Intelligenz ist aus unserem Alltag nicht mehr wegzudenken. Viele von euch nutzen ChatGPT, Copilot, Gemini oder Perplexity, um schnell an Informationen zu kommen – auch bei aktuellen Nachrichten. Doch wie zuverlässig sind diese KI-Chatbots wirklich? Die Fehlerquote ist alarmierend hoch und betrifft uns alle, egal ob ihr Technikfans, Medienprofis oder einfach neugierig seid.
Was aktuelle Studien zeigen
Mehrere internationale Studien, darunter die der Europäischen Rundfunkunion (EBU) und NewsGuard, haben die führenden KI-Chatbots auf Herz und Nieren geprüft. Das Ergebnis: Im August 2025 enthielten 35–45 % der Antworten auf Nachrichtenanfragen gravierende Fehler oder Falschinformationen. Besonders betroffen sind Themen wie Politik, Gesundheit und internationale Ereignisse. Die Fehlerquote hat sich im Vergleich zum Vorjahr fast verdoppelt – damals lag sie noch bei 18 %.
Warum ist das so?
Die Ursache liegt vor allem im Strategiewechsel der KI-Entwickler. Früher haben Chatbots lieber keine Antwort gegeben, wenn sie sich unsicher waren. Heute liefern sie fast immer eine Antwort – auch wenn sie falsch ist. Die Non-Response-Rate ist von 31 % auf 0 % gefallen, die Fehlerquote aber von 18 % auf 35 % gestiegen. Die KI-Modelle greifen dabei auf ein „verschmutztes Online-Ökosystem“ zurück, das gezielt von Desinformationsnetzwerken wie dem russischen Pravda-Netzwerk mit Falschmeldungen geflutet wird.

Welche Chatbots sind am unzuverlässigsten?
Laut NewsGuard und EBU schneiden Inflection (57 % Fehlerquote) und Perplexity (47 %) am schlechtesten ab. ChatGPT, Copilot und Meta liegen bei etwa 40 %, Mistral bei 37 %. Am zuverlässigsten sind Claude (10 %) und Gemini (17 %), wobei auch diese Modelle nicht fehlerfrei sind.
Wie entstehen die Fehler?
- Falsche Fakten: Namen, Daten oder Ereignisse werden falsch wiedergegeben.
- Fehlerhafte Quellen: KI-Chatbots erfinden Quellen oder schreiben seriösen Medien Aussagen zu, die so nie gemacht wurden.
- Vermischung von Meinung und Fakt: Besonders bei politischen Themen werden Meinungen als Tatsachen dargestellt.
- Veraltete Informationen: Chatbots greifen oft auf alte Daten zurück, wenn aktuelle Fakten fehlen.
Was bedeutet das für euch?
Viele von euch vertrauen KI-Chatbots, weil sie schnell und bequem sind. Doch die hohe Fehlerquote gefährdet das Vertrauen in Medien und kann sogar die demokratische Teilhabe beeinträchtigen. Wenn ihr euch auf KI-Chatbots als Nachrichtenquelle verlasst, lauft ihr Gefahr, Falschinformationen zu übernehmen und weiterzugeben.
Was könnt ihr tun?
- Prüft wichtige Fakten immer mit mehreren, unabhängigen Quellen.
- Nutzt KI-Chatbots nur als Ergänzung, nicht als alleinige Nachrichtenquelle.
- Hinterfragt jede Antwort kritisch – besonders bei sensiblen Themen.
- Achtet auf Hinweise zu Quellen und prüft, ob diese wirklich existieren.
Was fordern Experten und Medienhäuser?
Die EBU und NewsGuard fordern strengere Regulierung, mehr Transparenz und eine bessere Kontrolle der verwendeten Quellen. Entwickler sollen Fehlerquoten offenlegen und Medienhäuser mehr Einfluss auf die Nutzung ihrer Inhalte erhalten. Auch ihr als Nutzer solltet über die Grenzen der KI-Chatbots besser aufgeklärt werden.
Fazit: KI-Chatbots Fehlerquote Nachrichten betrifft uns alle
Ob ihr euch privat informiert, beruflich recherchiert oder einfach neugierig seid: Die Fehlerquote von KI-Chatbots bei Nachrichten ist ein Problem, das uns alle betrifft. Vertraut nicht blind, sondern bleibt kritisch und informiert euch breit. Nur so könnt ihr Desinformation erkennen und vermeiden.
Detaillierte Auswertung der Fehlerquoten der KI-Chatbots
Perplexity 46.7%
- Im Vorjahr noch mit perfekter Trefferquote, jetzt fast jede zweite Antwort falsch.
- Zitiert häufig Social-Media-Posts und wenig geprüfte Quellen.
- Nutzer berichten von starkem Qualitätsverlust.
ChatGPT 40%
- Sehr populär, aber Fehlerquote bei Nachrichten liegt bei 40 %.
- OpenAI-Chef Sam Altman warnt selbst vor zu viel Vertrauen in die KI.
- Gibt oft selbstbewusste, aber falsche Antworten.
Meta 40%
- Fehlerquote ebenfalls bei 40 %.
- Zitiert „aktuelle Nachrichten“, prüft Quellen aber oft nicht ausreichend.
- Besonders anfällig für Desinformation bei internationalen Themen.
Copilot 36.7%
- Fehlerquote wie ChatGPT und Meta.
- Zitiert auch Social Media, z.B. russische VK-Posts, die von Desinformationsnetzwerken stammen.
- Hat nach Kritik die Quellen gewechselt, aber keine nachhaltige Verbesserung.
Mistral 36.7%
- Europäischer KI-Anbieter, politisch stark gefördert.
- Fehlerquote unverändert hoch, keine Verbesserung trotz Partnerschaften mit Medienhäusern.
- Zitiert auch Quellen von sanktionierten Desinformationsakteuren.
Gemini (Google) 16.7%
- Fehlerquote deutlich niedriger, aber nicht null.
- Greift auf aktuelle Webdaten zu, prüft Quellen besser als andere Modelle.
Claude (Anthropic) 10%
- Liefert die zuverlässigsten Antworten.
- Lehnt aber auch öfter ab, wenn die Faktenlage unsicher ist.
- Fehlerquote bei Nachrichten nur 10 %.
Wer ist am zuverlässigsten?
- Claude und Gemini sind aktuell die besten Optionen, wenn ihr möglichst korrekte Nachrichteninformationen wollt.
- ChatGPT, Copilot, Meta, Mistral und Inflection sind bei Nachrichten deutlich fehleranfälliger und sollten immer kritisch hinterfragt werden.
- Die Fehlerquote ist bei allen Modellen gestiegen, weil sie inzwischen fast immer antworten – auch wenn die Quellenlage unsicher ist.