Deepfakes sind in der PR angekommen

"AIDS is over"

Donald Trump verkündet stolz, “Aids ist besiegt”. Wem wir das zu verdanken haben? Natürlich ihm. Das sagt der US-Präsident in einem knapp 30-sekündigen Video. Zumindest scheint es so. Tatsächlich hat Trump diese Fake News nie verbreitet. Bei dem Video handelt es sich um einen Deepfake, eine täuschend echt aussehenden Fälschung. Der Begriff setzt sich aus den englischen Begriffen Deep Learning und Fake zusammen. Es ist Teil einer Kampagne der NGO Solidarité SIDA im Kampf gegen AIDS. Die Falschnachricht einer Welt ohne AIDS ist die Realität, die sich die NGO wünscht.

„Die klare Ansage, dass der Inhalt gefälscht ist, und der positive Zweck der Kampagne unterscheiden das Trump-Video der Solidarité Sida natürlich klar vom Großteil der Deepfakes, die online kursieren. Noch dazu wirkt es bewusst überzeichnet. Wenn man so will ist hier die Fälschung selbst das Stilmittel – und eine tatsächliche Täuschung derer, die das Video sehen, nicht die Absicht“, sagt Katharina Nachbar, Head Of Communication beim Global Public Policy Institute. Gleichzeitig schmelze das grundsätzliche Vertrauen in Videos und Audioaufnahmen durch solche offenen Fälschungen. „Deshalb brauchen wir eine breite Debatte über das disruptive Potential von Deepfakes und wie wir damit umgehen sollten. Das gilt auch für ihren Einsatz im Marketing oder in der Kommunikation.“

Die erste große Deepfake-Kampagne nutzte David Beckham Anfang des Jahres als Testimonial. In dem Video der Non-Profit-Organisation Malaria No More spricht der Sportler mit den Stimmen von neun Malaria-Überlebenden in verschiedenen Sprachen. Dazu wurde sein Gesicht 3D-gerendert. Der KI-Algorithmus glich das Rendering im laufenden Video mit der Mimik der eigentlichen Sprecher ab. 

Deepfakes wie das Trump- oder Beckham-Video treten immer häufiger auf. Die Firma Deeptrace stieß bei einer Analyse mittlerweile auf 14.700 Deepfake-Videos. Im Dezember 2018 registrierte das Unternehmen noch 8.000. Doch die wenigsten entfallen auf PR-Kampagnen. Die meisten, 96 Prozent der gefundenen Videos, bezogen sich auf pornographische Inhalte. Betroffen sind fast ausschließlich Frauen. Meist seien Gesichter berühmter Schauspielerinnen und Künstlerinnen aus den USA, Großbritannien, Südkorea und Indien montiert worden. Aber auch Firmenbosse sind nicht vor Deepfakes gefeit. 

Im Juni kursierte ein Video von Facebook-CEO Mark Zuckerberg auf Instagram. In dem Clip redet Zuckerberg Klartext. “Ich wünschte, ich könnte euch weiterhin erzählen, dass es unsere Mission ist, Menschen zu vernetzen. Doch das stimmt nicht. Wir wollen nur euer zukünftiges Verhalten vorhersagen. Spectre hat mir gezeigt, wie ich euch manipulieren kann, intime Daten und alles was ihr liebt kostenlos zu teilen. Je mehr ihr euch darstellt, desto mehr besitzen wir euch.” Bei Spectre handelt es sich um eine Sicherheitslücke in Mikroprozessoren.

 

 
 

 

Sieh dir diesen Beitrag auf Instagram an

 

 
 
 

 
 

 
 
 

[NEW RELEASE] ‘I wish I could…’ (2019) Mark Zuckerberg, founder of @facebook reveals the ‘truth’ about privacy on #facebook . This artwork is part of a series of AI generated video works created for ‘Spectre’ – an immersive exploration of the digital influence industry, technology and democracy. [link in bio]. Art by Bill Posters & @danyelhau for @sheffdocfest @sitegallery #artnotmisinformation #thefutureisntprivate #deepfakes #deepfake #spectreknows #surveillancecapitalism #privacy #democracy #dataism #contemporaryartwork #digitalart #generativeart #newmediaart #codeart #markzuckerberg #artivism #contemporaryart

Ein Beitrag geteilt von Bill Posters (@bill_posters_uk) am Jun 13, 2019 um 5:18 PDT

Katharina Nachbar warnt. „Gut gemachte Deepfakes sind auch für geschulte Augen oder Ohren nicht mehr als gefälscht zu erkennen. Das macht sie so gefährlich. Je ausgereifter die Technologien werden, desto schwieriger haben es selbst computergestützten Verfahren, die manipulierten Content entlarven sollen.“ Die PR-Berater von Faktenkontor raten Firmen, Videoveröffentlichungen eng zu monitoren, um bei einem Deepfake sofort aktiv zu werden. Denn auch wenn Betroffene die Möglichkeit haben, juristisch gegen solche Videos vorzugehen, sei es nur mit großer Anstrengung aus dem Netz zu entfernen, wenn es einmal viral gehe.