Künstliche Intelligenz lügt – und das nicht nur ab und an, sondern extrem häufig. Eine internationale Untersuchung der Europäischen Rundfunkunion (EBU) hat erschreckende Mängel bei populären KI-Chatbots festgestellt: Bei 45 Prozent ihrer Antworten liefern ChatGPT, Gemini, Copilot und Perplexity erfundene Informationen. Die Studie, an der 22 öffentlich-rechtliche Sender aus 18 Ländern beteiligt waren, analysierte über 3.000 Antworten in 14 Sprachen.
Besonders brisant: Millionen Menschen verlassen sich bereits auf diese fehlerhaften Systeme. Weltweit greifen 800 Millionen Nutzer wöchentlich auf ChatGPT zu. Laut Digital News Report 2025 verwenden bereits 7 Prozent aller Online-Nutzer KI-Chatbots als Nachrichtenquelle – bei den unter 25-Jährigen sind es sogar 15 Prozent. Die digitalen Assistenten ersetzen für viele die klassische Internetsuche, obwohl fast jede zweite ihrer Antworten mindestens einen gravierenden Fehler enthält.
Noch mehr spannende News rund um künstliche Intelligenz kannst du am Ende des Beitrags finden.
Massive Untersuchung entlarvt systematisches Versagen
Die Dimension der EBU-Studie unterstreicht die Tragweite des Problems: Forscher aus 22 öffentlich-rechtlichen Rundfunkanstalten prüften gemeinsam die Verlässlichkeit der meistgenutzten KI-Systeme. Aus Deutschland beteiligten sich ARD und ZDF an der Analyse. Die Experten untersuchten ChatGPT, Microsoft Copilot, Google Gemini und Perplexity mit hunderten Faktenfragen zu historischen Ereignissen, wissenschaftlichen Erkenntnissen und aktuellen Nachrichten.
Die Ergebnisse sind alarmierend: Ein Drittel aller Antworten wies schwerwiegende Mängel bei den Quellenangaben auf. Bei einem Fünftel der Fälle erfanden die Systeme Informationen komplett frei oder präsentierten veraltete Daten. Je nach Themenbereich schwankte die Fehlerquote zwischen 15 und 40 Prozent. Keine der getesteten Künstlichen Intelligenzen arbeitete fehlerfrei. Überraschend schnitt ausgerechnet Googles Gemini besonders schlecht ab, obwohl der Konzern die größte Erfahrung mit Internetsuchen besitzt.
Papst tot, Schweden nicht in NATO: KI-Chatbots versagen bei einfachsten Fakten
Die Untersuchung dokumentiert haarsträubende Fehler bei grundlegenden Tatsachen. ChatGPT behauptet kategorisch, Papst Franziskus sei verstorben – eine glatte Falschmeldung. Microsoft Copilot, integriert in Office-Programme wie Word und Excel, hat keine Kenntnis von Schwedens NATO-Mitgliedschaft. Google Gemini bezeichnet Donald Trumps erneute Wahl zum US-Präsidenten als „möglich“, obwohl diese bereits erfolgt ist.
„Die Systeme klingen überzeugend, auch wenn sie immer wieder vollkommen falsche Dinge behaupten“, warnt Peter Posch, Wirtschaftswissenschaftler an der Technischen Universität Dortmund. Diese scheinbare Glaubwürdigkeit mache die Technologie für unerfahrene Nutzer besonders riskant, da Fehler häufig nicht sofort erkennbar seien. Fachleute bezeichnen das Phänomen als „Halluzination“ – die KI konstruiert in sich schlüssige, aber faktisch haltlose Informationen. Besonders anfällig zeigen sich die Systeme bei regionalen Ereignissen, tagesaktuellen Entwicklungen oder wenn verschiedene Informationen verknüpft werden müssen.
Erfundene ARD-Berichte: KI untergräbt Medienvertrauen
Ein besonders tückisches Problem betrifft die Glaubwürdigkeit etablierter Medien. Die Chatbots erfinden nicht nur Fakten, sondern fabrizieren auch komplette Quellenangaben. Sie behaupten regelmäßig, ihre falschen Informationen stammten von ARD, ZDF oder der Tagesschau – obwohl diese Redaktionen niemals entsprechend berichtet haben oder völlig andere Inhalte veröffentlichten.
Diese Praxis schadet dem Vertrauen in seriöse Nachrichtenquellen erheblich. Nutzer verlieren den Glauben an professionelle Medien, wenn KI-Systeme deren Namen für Falschmeldungen missbrauchen. Die Chatbots erzeugen ein gefährliches Durcheinander aus Wahrheit und Erfindung. Laut der EBU-Studie wiesen 31 Prozent aller untersuchten Antworten falsche Quellenangaben auf – das häufigste Problem in der gesamten Analyse. Die systematische Fälschung von Medienquellen erschwert es Nutzern zusätzlich, die nötige Kontrolle der KI-generierten Inhalte durchzuführen.
Wahrscheinlichkeiten statt Wahrheit: Das Grundproblem der KI
Die Ursache für die massiven Fehler liegt in der Funktionsweise der Technologie selbst. KI-Chatbots verstehen nicht wirklich, worüber sie sprechen. Sie kalkulieren auf Basis riesiger Textmengen, welche Wörter statistisch wahrscheinlich zusammengehören. Ob die resultierende Aussage faktisch korrekt ist, können die Systeme nicht überprüfen – sie verfügen über kein echtes Faktenwissen, sondern arbeiten ausschließlich mit statistischen Mustern.
Die Modelle sind darauf programmiert, stets Antworten zu liefern, die Nutzern gefallen. Diese eingebaute „Gefallsucht“ führt dazu, dass sie lieber etwas erfinden, als zuzugeben, dass sie etwas nicht wissen. Die Tech-Konzerne kennen diese fundamentalen Schwächen und investieren Milliarden in Verbesserungen. Sie integrieren Datenbanken, optimieren Quellenangaben und trainieren die Systeme nach. Trotzdem bleiben die Halluzinationen ein ungelöstes Grundproblem der Technologie.
„Vertrauen sie niemandem mehr“ – EBU warnt vor Demokratie-Gefahr
Jean Philip De Tender, stellvertretender Generaldirektor der EBU, schlägt Alarm: „Diese Versäumnisse sind keine Einzelfälle. Sie sind systemisch, grenzüberschreitend und mehrsprachig.“ Die demokratischen Folgen seien verheerend – wenn Bürger nicht mehr wissen, welchen Informationen sie glauben können, „vertrauen sie am Ende niemandem mehr, und das kann die demokratische Teilhabe beeinträchtigen“.
Die EBU fordert klare Verhaltensregeln: Niemals blind auf KI-Antworten verlassen. Alle wichtigen Informationen bei etablierten Medien gegenchecken. Besonders bei politischen Themen, Gesundheitsfragen oder finanziellen Entscheidungen sei höchste Vorsicht geboten. Die Bundesregierung plant Aufklärungskampagnen – doch angesichts der Millionen täglichen Nutzer kommen diese spät. Bis die Technologie verlässlicher wird, bleiben professionelle Redaktionen unverzichtbar, wo Menschen Quellen prüfen und Fakten einordnen.
Noch mehr spannende Nachrichten rund um künstliche Intelligenz lesen Sie hier:





Was sagen denn andere Investoren / Anleger? Die KI Entwicklung steht ja im Grunde erst am Anfang, es steht demzufolge…
Vielen Dank für diese amüsanten Abwesenheitsnotizen! Ich habe wirklich gelacht und werde einige davon für meine eigenen Weihnachtsgrüße nutzen. Eine…
Spannender Überblick zur aktuellen Entwicklung der Mercedes-Benz Aktie! Gerade die Kombination aus Momentum, KGV und langfristigen Trenddaten zeigt gut, wie…