← Level 1
Level 1· Lektion 2 von 10

Halluzinationen erkennen

Warum AI selbstbewusst luegt und wie Du es merkst.

Was ist eine Halluzination?

Das Modell erfindet Fakten, Zitate, Paper-Titel, Personen oder Links, und praesentiert sie wie gesichertes Wissen. Es "weiss" nicht dass es nicht weiss.

Klassische Halluzinations-Muster

  • Erfundene Buch- oder Paper-Titel mit "echten" Autoren
  • URLs die plausibel aussehen aber nicht existieren
  • Falsche Versionsnummern oder Daten bei Software
  • Komplett erfundene Zitate von echten Leuten
  • Falsche Code-APIs die aussehen als könnten sie existieren

Wie Du Dich schuetzt

  1. Trau keiner Zahl die Dir das Modell gibt ohne Quelle
  2. Lass Dir Quellen nennen, aber check sie selber
  3. Frag nach Unsicherheit: "Wie sicher bist Du?"
  4. Bei Code: immer testen, nie blind kopieren
  5. Bei Recht/Medizin/Finanzen: immer Zweitquelle

Die Faustregel: Je spezifischer eine Aussage klingt, desto misstrauischer solltest Du sein.

Du liest ohne Account. Login speichert Deinen Fortschritt, damit Du beim nächsten Mal direkt weitermachen kannst. Einloggen →