Skip to main content

ChatGPT halluziniert, aber weiß nicht, wann. Diese fehlende Selbstreflexion unterscheidet KI fundamental von menschlichem Denken. Während Sokrates‘ Weisheit darin bestand, seine Wissensgrenzen zu kennen, fehlt LLMs genau dieses Bewusstsein. Für UnternehmerInnen und Führungskräfte bedeutet das: Die Differenzierung liegt nicht mehr im Zugang zu KI-generierten Antworten, sondern im Urteilsvermögen darüber. Epistemische Bescheidenheit – das Bewusstsein für die Grenzen des eigenen und des KI-generierten Wissens – wird zur entscheidenden Kompetenz im Umgang mit generativer KI.

Das Problem: KI kennt ihre Grenzen nicht

Stell dir vor, du fragst ein ChatGPT nach einer Information, die es nicht hat. Es antwortet trotzdem. Mit derselben syntaktischen Eleganz und Überzeugungskraft wie bei korrekten Antworten.

Studien zeigen: Große Sprachmodelle können trainiert werden, Unsicherheit auszudrücken. Aber das ist Mustererkennung, keine echte Selbstreflexion. Ein statistisches Echo, keine Einsicht.

Ein System, das wirklich seine Grenzen kennt, würde innehalten. Ein LLM rechnet einfach weiter.

Die größte Gefahr liegt nicht in offensichtlich falschen Antworten, sondern in denen, die so überzeugend klingen, dass niemand nachfragt.

Wissen ist nicht Weisheit

Wir verwechseln oft zwei verschiedene Dinge.

Wissen bedeutet: Informationen haben und sie in Beziehung setzen. Muster erkennen. Wahrscheinliche Zusammenhänge modellieren.

Weisheit bedeutet: Erkennen, wann diese Informationen relevant sind und wann nicht.

  • Wann eine technisch korrekte Antwort ethisch fragwürdig ist.
  • Wann Effizienz dem Sinn im Weg steht.
  • Wann Nichtwissen wertvoller ist als vorschnelle Gewissheit. Künstliche Intelligenz liefert Wissen. Die Übersetzung in Weisheit bleibt menschlich.

Der Automation Bias: Wenn Vertrauen blind macht

Menschen tendieren dazu, Computersystemen übermäßig zu vertrauen (Automation Bias). Die Erleichterung, eine schnelle Antwort zu haben überwiegt oft den Reflex zur kritischen Prüfung. Es ist der Reflex, jede Unsicherheit sofort mit einem Prompt aufzulösen. Jede Frage mit einer KI-generierten Antwort zu beantworten, bevor man selbst nachgedacht hat.

Dabei wäre genau das die Kompetenz, die du entwickeln musst: Nicht die Bedienung der Tools. Sondern das Urteilsvermögen über das, was diese Tools dir liefern.

Praxis-Checkliste: Kritischer Umgang mit KI-Outputs Bevor du einen KI-Output übernimmst, prüfe:

  • Datengrundlage: Auf welchen Daten und Annahmen basiert diese Aussage?
  • Blinde Flecken: Was könnte das System strukturell übersehen haben? (z.B. Nischenerfahrungen, die nicht im Mainstream-Diskurs vorkommen)
  • Alternative Prüfung: Wie würde ich das ohne KI prüfen? Welche Quellen würde ich konsultieren?
  • Kontext: Ist die Antwort für meinen spezifischen Kontext relevant oder nur generisch plausibel?
  • Bias-Check: Welche Verzerrungen könnten in den Trainingsdaten stecken?

Die dritte Frage ist dabei die wichtigste: Sie zwingt dich, die eigene Denkfähigkeit nicht zu outsourcen.

Epistemische Bescheidenheit als Differenzierung

Im KI-Zeitalter wird Wissen zur Commodity. Jeder hat Zugang zu denselben Modellen, denselben Antworten, denselben Mustern.

Die Differenzierung liegt nicht mehr darin, was du weißt. Sondern darin, wie du damit umgehst:

  • Welche Fragen du stellst
    • Was du bewusst weglässt
    • Wann du innehältst
    • Wie du kontextualisierst

Das Bewusstsein für die Grenzen des eigenen Wissens und des KI-generierten Wissens – wird damit zur Kernkompetenz.

Das bedeutet konkret:

  1. Nicht jede Frage muss sofort beantwortet werden. Räume des Nichtwissens haben einen Wert. Sie schaffen Platz für Reflexion, für Abwägung, für echtes Verstehen.
  2. Kritisches Questioning wird wichtiger als Tool-Kompetenz. Die Fähigkeit, KI-Outputs zu hinterfragen und ethisch zu bewerten, unterscheidet kompetente von unkritischen NutzerInnen.
  3. Weisheit statt Wissen als Ziel. Die Fähigkeit zur ethischen Bewertung und Sinnstiftung lässt sich nicht an KI delegieren.

Was das für dein Unternehmen bedeutet

Entwickle in deinem Team keine KI-Bedien-Kompetenz, sondern KI-Beurteilungs-Kompetenz:

Statt: „Wie nutzen wir ChatGPT effizient?“

Besser:„Wie beurteilen wir, welche Aufgaben wir an KI delegieren sollten und welche nicht?“

Statt: „Wie schreiben wir bessere Prompts?“

Besser: „Wie erkennen wir, wann KI-Outputs unzureichend, verzerrt oder gefährlich sind?“

Statt: „Wie automatisieren wir mehr Prozesse?“

Besser: „Welche kognitiven Fähigkeiten wollen wir im Team erhalten und schärfen?“

Sokrates wusste, wann er etwas nicht wusste. LLMs wissen das nicht. Aber du kannst es wissen.

Genau darin liegt der Unterschied zwischen Nutzen und Verstehen. Zwischen Antworten generieren und Weisheit entwickeln.

Im Zeitalter generativer KI wird nicht derjenige erfolgreich sein, der am schnellsten Antworten generiert. Sondern derjenige, der am besten beurteilen kann, welche Antworten relevant, ethisch vertretbar und wahr sind.

Die KI weiß nicht, dass sie nichts weiß. Aber wir können es wissen und genau das ist unser Vorteil.

Kathrin Lückenga

Kathrin Lückenga ist Gründerin von Initiative Neuland, Speakerin und Trainerin für generative KI. Ihr Fokus: KI-Technologien nicht nur effizient, sondern auch verantwortungsvoll einzusetzen. Mit über 20 Jahren Erfahrung im digitalen Marketing und fundierten Zertifizierungen (PSPO I, PSMI, IREB) verbindet sie strategisches Geschäftsverständnis mit praktischer KI-Kompetenz. In ihren Schulungen und Coachings macht sie generative KI für Führungskräfte, Soloselbständige und Teams greifbar und direkt anwendbar. Kathrin Lückenga hält regelmäßig Vorträge bei namhaften Unternehmen, darunter TÜV Süd und Fraport AG und ist Co-Autorin im Fachbuch zum Thema Co-Value-Creating mit dem Beitrag „KI als strategischer Hebel im CVC-Ökosystem". (Haufe Fachbuch, erscheint im Februar)

Der Artikel hat dir gefallen? Gib uns einen Kaffee aus!

Kommentar hinterlassen