fachtagseminar
KI

Halluzination

2 Min. Lesezeit

Kurz erklärt

Halluzinationen sind faktisch falsche Informationen, die KI-Modelle überzeugend als wahr darstellen – das Erkennen und Vermeiden dieser Fehler ist eine Kernkompetenz im Umgang mit KI.

Als Halluzination wird im KI-Kontext eine Ausgabe bezeichnet, die ein Sprachmodell mit hoher Überzeugungskraft formuliert, die jedoch faktisch falsch, erfunden oder nicht durch die zugrunde liegenden Daten gestützt ist. Halluzinationen entstehen, weil Large Language Models Texte auf Basis statistischer Wahrscheinlichkeiten generieren – sie berechnen, welches Wort am wahrscheinlichsten als Nächstes folgt, ohne ein echtes Verständnis von Wahrheit oder Fakten zu besitzen.

Halluzinationen treten in verschiedenen Formen auf: erfundene Zitate und Quellenangaben, falsche Statistiken, nicht existierende Studien, inkorrekte historische Daten oder plausibel klingende, aber sachlich falsche Erklärungen. Besonders tückisch ist, dass halluzinierte Inhalte sprachlich nicht von korrekten Antworten zu unterscheiden sind. Die KI liefert falsche Informationen mit derselben Überzeugung wie richtige.

Es gibt verschiedene Strategien, um Halluzinationen zu reduzieren: Retrieval Augmented Generation (RAG) verknüpft das Modell mit verifizierten Datenquellen. Gut formulierte Prompts, die das Modell anweisen, nur gesicherte Informationen zu verwenden oder Unsicherheiten kenntlich zu machen, helfen ebenfalls. Letztlich bleibt die menschliche Überprüfung der wichtigste Schutzmechanismus.

Bedeutung für Unternehmen

Halluzinationen stellen eines der größten Risiken beim Unternehmenseinsatz von KI dar. Wenn falsche Informationen ungeprüft in Kundenkommunikation, Berichte oder Entscheidungsgrundlagen einfließen, kann das erheblichen Schaden verursachen. Unternehmen müssen daher klare Prozesse etablieren: KI-generierte Inhalte sollten immer überprüft werden, bevor sie veröffentlicht oder für Entscheidungen herangezogen werden. Besonders in regulierten Branchen wie Finanzen, Recht oder Gesundheitswesen ist dieser Überprüfungsschritt unverzichtbar.

Praxisbeispiel

Ein Mitarbeiter bittet ChatGPT um eine Zusammenfassung aktueller Branchentrends inklusive Quellenangaben. Das Modell liefert einen überzeugenden Text mit Verweisen auf drei Studien – doch bei der Überprüfung stellt sich heraus, dass zwei der drei Studien nicht existieren. Durch die Implementierung eines Review-Prozesses und die Schulung der Mitarbeitenden im Erkennen von Halluzinationen wird dieses Risiko systematisch reduziert.

Das lernen Sie im Seminar

Im KI Seminar lernen Sie, Halluzinationen zu erkennen und zu vermeiden. Sie erarbeiten Strategien für die kritische Prüfung von KI-Ausgaben und etablieren Workflows, die Halluzinationen systematisch reduzieren – eine Kernkompetenz für den sicheren Einsatz von KI im Unternehmen.