Als Robert F. Kennedy Jr. kurz nach seinem Amtsantritt als US-Gesundheitsminister den 200-seitigen „Make America Healthy Again“-Bericht präsentierte, staunte die Öffentlichkeit. Von 522 Fußnoten führten Dutzende zu Fachzeitschriften, die nie existierten. 37 Fußnoten kamen mehrfach vor. In vielen Einträgen standen kryptische Platzhalter wie „oaicite“ – ein untrüglicher Fingerabdruck generativer KI. Die Behörde musste das PDF über Nacht austauschen.
Natürlich hätten die Mitarbeiter des Ministeriums den Bericht selbst verfassen können. KI-Enthusiasten sehen das Hauptproblem woanders: Sprachmodelle arbeiten mit Wahrscheinlichkeiten, nicht mit Wahrheitsprüfungen. Wenn eine Pressestelle schreibt: „Bitte ergänze die Umsatzsteigerung in Prozent“, ohne die Zahl zu liefern, erfindet das Modell eine plausible Kennziffer. In der Forschung heißt dieses Verhalten „Completion Imperative“: Das Modell hält Schweigen für das größere Übel.
Wenn-dann-sonst-Prompts einbauen
Die schnellste Abhilfe hierfür ist sprachliche Hygiene. Bauen Sie Wenn-dann-sonst-Regeln ein: „Falls der Umsatz 2025 vorliegt, nenne ihn; sonst schreibe ‚Zahl folgt‘.“ Dasselbe gilt für Zitate: „Falls CEO-Zitat vorhanden, einfügen; sonst Platzhalter [Zitat folgt].“
Besonders robust ist es, der KI ein zweistufiges Vorgehen vorzugeben: Schritt eins lässt das Modell auflisten, welche Informationen tatsächlich vorliegen; Schritt zwei erzeugt den Text ausschließlich mit diesen Feldern. So bleibt jede Lücke sichtbar. Kein Bot erfindet Geburtsdaten für Personen im Text.
Zusätzlich hilft immer: Kontext. Laden Sie geprüfte Factsheets, Tabellen oder Texte als Kontext in die Anfrage oder kopieren Sie die Daten direkt in den Prompt („Hier ist die Quelle: …“). Dann weisen Sie das Modell an, ausschließlich daraus zu zitieren. Studien berichten bei diesem Kniff von bis zu 40 Prozent weniger Halluzinationen.
Wenn Sie nicht genug Kontext haben, können Informationen auch aus dem Netz kommen. Fast jedes Modell führt heute Websuchen durch. Doch Vorsicht: Auch KI-Texte mit Web-Unterstützung können schwere Fehler enthalten. Eine spektakuläre Bauchlandung hat Google hingelegt: Die neue Suchfunktion „AI Overview“ riet ernsthaft, Bastelkleber in die Pizzasauce zu rühren, damit der Käse haftet, und empfahl gleich noch, täglich einen Stein zu essen. Beide Tipps entstammten Memes aus dem Netz.
Lesen Sie auch:
- KI-Tool-Tipps von Kommunikationsprofi Rainer Grill
- Pressemitteilungen bleiben gefragt
- PR hat maßgeblichen Einfluss auf KI-Reputation
Untersuchungen zeigen: Suchmaschinen-Algorithmen sind anfällig für Clickbait-Seiten. Genau so entstand das Klebstoff-Desaster bei Google. Auch wer mitten in der KI-Konversation ständig neue Web-Recherchen startet, mischt dem Modell ein Deck widersprüchlicher Karten bei. Besser: Erst gebündelt mit ChatGPT recherchieren, irrelevante Informationen streichen, Quellen fixieren und dann in einem frischen Chat den Text formulieren.
Was die inkompetenten Helfer im US-Gesundheitsministerium wohl auch nicht wussten: Schon ein anderes Modell hätte Wunder gewirkt. Das Standardmodell bei ChatGPT ist „4o“: Es ist schnell, hilfsbereit – und schludrig. OpenAis Vorzeigemodell nennt sich aber „o3“. Es ist langsam, aber schlau. Anfragen, die mehrere Schritte erfordern, teilt „o3“ sich auf und arbeitet sie ab. Es bewertet Zwischenergebnisse und schärft nach. Wählen Sie das Modell in ChatGPT durch einen Klick auf „ChatGPT“ oben links im Chatfenster.
Außerdem funktioniert das Vieraugenprinzip auch in der Welt der Sprachmodelle. Kopieren Sie einen KI-Text in einen Chat und fordern Sie das Modell auf, den Text kritisch zu prüfen. Das senkt die Wahrscheinlichkeit für Falschinformationen weiter.
Für besonders knackige Fälle gibt es dann noch die Recherche-Bazooka: Klicken Sie auf „Tools“ unter Ihrem ChatGPT-Eingabefeld und wählen Sie „Deep Research“ aus. Diese Funktion stellt Ihnen ein umfangreiches Dossier aus Dutzenden Onlinequellen zusammen. Die Konkurrenz von Anthropic (Modell: „Claude“) und Google („Gemini“) hat ebenfalls starke Tools in dieser Kategorie. „o3“ von OpenAi setzt noch ein Abo voraus.
Dieser Beitrag erschien zuerst in der gedruckten Ausgabe #Nachhaltig. Das Heft können Sie hier bestellen.