Mensch oder Maschine?

Erkennen von Inhalten

Es nimmt mitunter wettbewerbshafte Züge an, wenn Nutzer*innen auf Social-Media-Plattformen diskutieren, ob bestimmte Kommentare oder Social-Media-Posts KI-generiert sind. Vor Kurzem ging ein Post auf Linkedin viral, in welchem der Verfasser aus einem mutmaßlichen Heiratsantrag an seine Freundin Lehren für das B2B-Sales-Geschäft zog. Die auf steten Erkenntnisgewinn getrimmten Linkedin-Nutzer*innen mögen ja einiges gewohnt sein, aber eine solche Pervertierung privaten Glücks in businesstauglichen Content ist selbst für Linkedin-Verhältnisse eine neue Blüte. Und für einige (prominente) User ein klarer Hinweis auf künstliche Intelligenz.

Indizien für KI-Content

Tatsächlich werden immer mehr Inhalte mithilfe künstlicher Intelligenz erstellt – Texte, Bilder, sogar Videos, ob für Social Media, Websites, Mitarbeiter- oder Kundenmagazine. Gerade erst war zu lesen, dass die Lufthansa ihr Bordmagazin künftig durch KI-generierte Mitarbeitertexte ersetzen will.

Modelle wie ChatGPT, Gemini oder Claude machen es möglich. Und sie werden ständig besser. Mit der jüngsten Version ChatGPT-4o machte der US-Konzern OpenAI sein leistungsstarkes GPT-4-Modell nun auch der nicht zahlungswilligen Allgemeinheit zugänglich. Womit die Hürden, eloquente Zeilen von einer Maschine erstellen zu lassen, weiter sinken.

Bei Bildern sind noch immer der sechste Finger an der Hand oder andere Unregelmäßigkeiten verräterische Indizien für KI-generierte Inhalte. Bei Texten deuten mitunter bestimmte Formulierungen oder das scheinbar unabdingbare „Fazit“ zu jeder Anfrage auf ihren synthetischen Ursprung hin. An oben genanntem Post fielen User*innen neben dem kuriosen Inhalt auch merkwürdig gewählte Emojis auf.

Doch KI-Inhalte sind häufig nur schwer als solche zu erkennen. Wie schwer, das zeigt eine Studie, deren Ergebnisse diese Woche auf einer Konferenz für IT-Sicherheit in San Francisco vorgestellt wurden.

Können Menschen synthetische Inhalte erkennen?

Forschende des Cispa-Helmholtz-Zentrums für Informationssicherheit, der Ruhr-Universität Bochum, der Leibniz-Universität Hannover und der TU Berlin überlegten, ob Menschen grundsätzlich in der Lage sind, synthetisch erzeugte Medien zu erkennen. Keine völlig abwegige Frage, da menschliche Intelligenz zumindest aktuell der künstlichen gerade in ganzheitlichen Beurteilungen durchaus noch überlegen ist. Und sie gewinnt angesichts mangelhafter automatisierter Erkennungsmechanismen und der bevorstehenden globalen Wahlen an Relevanz. Den Forschenden zufolge ist es das erste Mal, dass eine große länderübergreifende Studie diese Form der Medienkompetenz überprüft hat.

Dazu befragten sie mehr als 3.000 Menschen in Deutschland, den USA und China. Per Zufallsprinzip wurden die Befragten einer der drei Mediengruppen „Text“, „Bild“ oder „Audio“ zugeordnet. Sie sahen 50 Prozent reale und 50 Prozent KI-generierte Medien. Zu lesen bekamen die Probanden Nachrichten, zu sehen fotorealistische Porträts und zu hören Ausschnitte aus Literatur. Darüber hinaus wurden sozio-biografische Daten, das Wissen zu KI-generierten Medien sowie Faktoren wie Medienkompetenz, holistisches Denken, generelles Vertrauen, kognitive Reflexion und politische Orientierung erhoben.

Ergebnis: Die Studienteilnehmer*innen klassifizierten KI-generierte Medien über alle Medienarten und Länder hinweg mehrheitlich als menschengemacht. „Überrascht hat uns, dass es sehr wenige Faktoren gibt, anhand derer man erklären kann, ob Menschen besser im Erkennen von KI-generierten Medien sind oder nicht. Selbst über verschiedene Altersgruppen hinweg und bei Faktoren wie Bildungshintergrund, politischer Einstellung oder Medienkompetenz sind die Unterschiede nicht sehr signifikant“, sagt Cispa-Forscher Thorsten Holz.

Es zeigte sich allerdings, dass Menschen mit einem höheren allgemeinen Vertrauen dazu neigten, maschinell generierte Inhalte als menschlich zu bewerten. Personen mit einer hohen kognitiven Reflexionsfähigkeit erkannten maschinell generierte Medien besser als solche, die weniger reflektierten.

Technologie weiter fortgeschritten

Überraschend sind die Ergebnisse aber auch angesichts der Tatsache, dass die Befragung bereits zwischen Juni und September 2022 stattfand – ein halbes Jahr, bevor ChatGPT-4 veröffentlicht wurde. GPT-3.5 war noch deutlich ungelenker als sein Nachfolger. Inzwischen dürfte es infolge des technologischen Fortschritts erheblich schwieriger geworden sein, künstlich erzeugte Inhalte zu erkennen.

Die Forschenden planen nun eine weitere Studie, in der Teilnehmende erklären sollen, woran sie erkennen, ob etwas KI-generiert ist oder nicht. Möglicherweise helfen diese Erkenntnisse ja, eine technische Lösung zum Erkennen von synthetischen Inhalten zu entwickeln. Denn die besten Ergebnisse, das wissen wir aus Erfahrung, bringt das Zusammenspiel von Mensch und Maschine – sofern beide über eine gewisse Intelligenz verfügen.


Dieser Beitrag ist Teil der Themenreihe „How-to GenAI“, die sich mit dem Einsatz von generativer künstlicher Intelligenz in der Unternehmenskommunikation beschäftigt. Regelmäßig erscheinen an dieser Stelle Beiträge wechselnder Autor*innen zu theoretischen und praktischen Aspekten.

Weitere Artikel