Deepfakes: Eine Gefahr für die Demokratie?

Künstliche Intelligenz

Deepfakes sind Bilder, Audios oder Videos, die mithilfe von künstlicher Intelligenz täuschend echt erzeugt oder verfälscht werden. Der Begriff – ein Kofferwort aus Deep Learning und Fake – wird seit 2017 verwendet .

Während 60 Prozent von Deepfakes gehört oder gelesen haben, können nur 15 Prozent gut erklären, was ein Deepfake ist. Folge der Unkenntnis und Verunsicherung: Acht von zehn Personen würden ein Deepfake nicht erkennen, 44 Prozent sind schon mal darauf reingefallen.

Das sind die Ergebnisse einer repräsentativen telefonischen Befragung von 1002 Personen ab 16 Jahren in Deutschland, die Bitkom Research im Auftrag des Digitalverbands Bitkom durchgeführt hat.

Vertrauensverlust und positiver Nutzen durch Deepfakes

Deepfakes führen bei 70 Prozent zu einem Vertrauensverlust bezüglich der Rezeption von Fotos und Videos. Während 63 Prozent angeben, dass Deepfakes ihnen Angst machen, führt die Verunsicherung bei 60 Prozent der Befragten zur Aussage, Deepfakes seien eine Gefahr für die Demokratie.

Bei 55 Prozent sind hingegen auch positive Einsatzmöglichkeiten von Deepfakes denkbar, vor allem in künstlerischer Hinsicht. Bitkom-Hauptgeschäftsführer Dr. Bernhard Rohleder kann das nachvollziehen: „Die Retusche ist so alt wie die Fotografie und seit jeher werden Audios und Videos bearbeitet und verändert. Solche Eingriffe waren früher hochspezialisierten Experten vorbehalten, heute können sie mit wenigen Klicks auch ohne entsprechende Vorbildung erzeugt werden. Umso wichtiger ist es, Bewusstsein für dieses Phänomen zu schaffen und die Menschen dafür zu sensibilisieren.“

Nur drei Prozent haben bisher versucht, Deepfakes mithilfe einer Software selbst zu erstellen.

Kennzeichnungspflicht für Deepfakes?

Während 84 Prozent eine Kennzeichnungspflicht für Deepfakes fordern, wollen 60 Prozent sie ganz verboten wissen. Die Entlarvung von Deepfakes im Internet, die nicht als solche gekennzeichnet waren, gelang nur zwei Prozent der Befragten.

Dr. Bernhard  Rohleder sieht eine Kennzeichnungspflicht kritisch: „Selbst wenn es eine Kennzeichnungspflicht oder gar ein Verbot gäbe, würden sich genau diejenigen nicht daran halten, vor denen man sich schützen möchte, wie beispielsweise Cyberkriminelle oder die Troll-Fabriken uns feindlich gesonnener Staaten.”

Für den Kampf gegen Deepfakes hält Dr. Rohleder Aufklärung und Medienkompetenz für unverzichtbar. Darunter fällt für ihn auch die Sorgfaltspflicht: „Jede und jeder Einzelne sollte genau prüfen, ob ein Text, Bild oder Video authentisch ist, bevor man es zum Beispiel in sozialen Medien likt oder teilt.“

Weitere Artikel