Was wäre geschehen, hätte die Adidas-Kommunikation bei der Planung einer Werbekampagne die Stichworte „Olympia 1972“ und „Bella Hadid“ bei ChatGPT eingegeben? Womöglich wäre dem Sportartikelhersteller im Sommer 2024 ein Shitstorm erspart geblieben. Der intelligente Bot hätte wohl darauf hingewiesen, dass Hadid, ein US-Model mit palästinensischen Wurzeln, in der Vergangenheit durch israelfeindliche Aussagen auffiel und damit denkbar schlecht für die Promotion eines Schuhs geeignet ist, der an die Olympischen Spiele in München erinnern sollte. Damals wurden israelische Sportler von palästinensischen Terroristen ermordet.
Mit der KI unmittelbar reagieren
Bei der sogenannten Risk Mitigation – der Reduktion potenzieller Risiken – zeigt sich der Wert von künstlicher Intelligenz für die Krisenkommunikation besonders deutlich. Für Kerstin Steglich von der Agentur Ketchum gehört KI nicht nur deshalb in jedes Krisenteam. „In der Krisenkommunikation geht es darum, in Echtzeit zu agieren und zu kommunizieren“, sagt die Beraterin, die kürzlich mit Kollegen eine Publikation zu dem Thema veröffentlicht hat. „Mit der Hilfe von generativen Sprachmodellen wie ChatGPT können wir nochmal deutlich schneller und effizienter sein.“
Wie stark ChatGPT und Co. eingesetzt werden, ist unklar. Steglich spricht von einer rapiden Professionalisierung, insbesondere bei großen Unternehmen. Angesichts der Zahlen, die der Bundesverband der Kommunikatoren in seiner „Berufsfeldstudie“ im Dezember vorlegte, nach welcher bis dato nicht einmal die Hälfte der befragten Kommunikationsverantwortlichen künstliche Intelligenz überhaupt in der Unternehmenskommunikation einsetzte, scheint eine breite strategische Nutzung allerdings kaum denkbar.
Die Lust, mit den Tools zu experimentieren, ist allerdings da. Bei Boehringer Ingelheim zum Beispiel. Der Pharmakonzern aus Rheinland-Pfalz nutzt seit etwa zwei Jahren konzerneigene Versionen von Copilot und ChatGPT – seit Kurzem auch für Krisentrainings.
Aus bereits vorhandenen Standardformulierungen prompted das Team spezifische, auf die jeweilige Lage abgestimmte Statements – etwa für eine Pressemeldung oder einen Social-Media-Post, wie Kristin Jakobs, Head of Communication Germany, berichtet. Auch zur Erstellung von Fragen und Antworten, sogenannten Q&As, macht sie mit den KI-Chatbots gute Erfahrungen. „Wir haben der KI unsere Tonalität und unser Wording eingeprompted“, sagt Jakobs. Der Vorteil: „Die KI hilft im Ernstfall, schnell vom leeren Blatt zu etwas Vernünftigem zu kommen.“
Kristin Jakobs (l.), Head of Communication Germany bei Boehringer Ingelheim. © Frank Daum und Alexandra Borys, Senior Manager Crisis Communications bei Clariant © Ivgenia Moebus
Das nützt nicht nur Kommunikatoren. Alexandra Borys, Senior Manager Crisis Communications beim Schweizer Chemiekonzern Clariant, erzählt, dass fachfremde Kollegen mithilfe der konzerneigenen KI einen ersten Entwurf für eine Pressemitteilung oder ein Q&A generieren könnten. „Wir haben zwar vorgefertigte Templates für verschiedene Szenarien im Einsatz. Aber einfach die KI aufzufordern, aus den Basisinformationen eine Pressemitteilung zu formulieren, hilft enorm“, sagt Borys. Der Entwurf geht anschließend an den zuständigen Kommunikationsverantwortlichen, der den Text nur noch zu finalisieren braucht.
Unterstützung bei Krisenschulungen
Darüber hinaus lässt Borys sich von der KI, die bei Clariant „Clarita“ heißt und auf dem Modell Claude von Anthropic basiert, bei der Vorbereitung von Krisenschulungen helfen, etwa wenn sie sich Übungsszenarien ausdenkt und Trainingsmaterial erstellt. „Ich gebe Clarita wesentliche Informationen über den jeweiligen Standort und ein dazu passendes Szenario, Clarita liefert einen Entwurf für das Playbook.“ Dieses werde von Krisenexperten geprüft und gegebenenfalls angepasst oder weiterentwickelt. Im praktischen Teil der Übung liefert die KI dann beispielsweise fiktive Medienberichte.
Grundsätzlich lassen sich mit ChatGPT und Co. anhand einer allgemeinen Beschreibung des Vorfalls auch potenzielle Fragen verschiedener Stakeholder prognostizieren, wie das zum Beispiel bei Siemens Healthineers oder Audi gemacht wird. So kann man die KI kritische Journalistenanfragen formulieren und Interviewsituationen durchspielen lassen. „Aber vor die Kamera können Sie eine KI nicht stellen“, gibt Borys zu bedenken. Die Emotionen und der Druck, die in einer Krisensituation kumuliert auf das Krisenteam einwirkten, ließen sich mit einer KI nicht simulieren.
Im Bereich Medienmonitoring dagegen gräbt sich künstliche Intelligenz schon länger durch große Datenmengen, um mithilfe von Keywords potenzielle Issues zu identifizieren. Generative KI kann Stimmungen und Emotionen in Texten erkennen, selbst wenn Ironie oder Slang vorkommen. Da ChatGPT, Claude und Co. zudem in der Lage sind, audiovisuelle Inhalte zu transkribieren, können auch Tiktok-Videos oder Podcasts in die Analyse einfließen.
Lesen Sie auch:
Effizientes Werkzeug
Der Idealfall sieht so aus: Mithilfe von KI werden vorhandene Informationen schneller und effizienter ausgewertet, daraus Handlungsszenarien entwickelt und Folgen abgeschätzt. Zudem protokollieren die Tools Gespräche sowie Entscheidungen und gleichen Botschaften mit Kommunikationslinien ab. „Die KI dient rund um die Uhr als Nachschlageinstanz: Was haben wir wann gesagt?“, erläutert Kerstin Steglich. Die KI hilft, stets ein aktuelles Lagebild zu haben und eine konsistente Kommunikation sicherzustellen.
Zugleich warnt Steglich davor, die KI zu überschätzen. In einer Krisensituation müsse eine Grundhaltung entwickelt werden, aus der sich ein sogenanntes Master-Narrativ ableiten lässt. Oft sind aber viele Dinge ungewiss. Wichtige Informationen fehlen noch. Dennoch müssen Entscheidungen getroffen werden. „Da kann die KI nicht wirklich helfen, denn auch sie kann ja nur auf die Informationen zugreifen, die da sind.“
Wie sieht eigentlich mit der Zuverlässigkeit generativer KI aus? Eine Studie von der LMU München und Adobe Research zeigte kürzlich, dass KI-Sprachmodelle Schwierigkeiten haben, in langen Texten die richtigen Informationen zu verknüpfen und Schlüsse zu ziehen.
„Gerade bei Q&As kommt manchmal kompletter Blödsinn raus“, hat Jakobs beobachtet. Sie sieht den Menschen in der Pflicht, die Inhalte zu kontrollieren: Stimmt die Faktenbasis, mit der man die KI füttert, erhöht sich auch die Chance auf korrekte Antworten. Steglich mahnt: „Im Krisenfall sollte man sich nie auf KI verlassen.“ KI könne ein effizientes Werkzeug sein. Am Ende müssten Ergebnisse aber stets von Menschen überprüft werden.
Dennoch sehen die Kommunikatorinnen in der generativen KI erhebliches Potenzial. Alexandra Borys kann sich etwa Chatbots oder eine KI-Hotline für Stakeholder wie Anwohner vorstellen. Und Kristin Jakobs zeichnet das Bild von der KI als ein Fels im Sturm: „Krisen passieren ja gerne mal freitagnachmittags oder am Abend. Da ist es gut zu wissen, dass in einer solch belastenden Situation ein System verfügbar ist, das ganz emotionslos funktioniert.“
Dieser Beitrag erschien zuerst in der gedruckten Ausgabe #Krise. Das Heft können Sie hier bestellen.