Was Sie über generative KI wissen sollten

Künstliche Intelligenz

Dieser Beitrag bildet den Auftakt zu unserer neuen Themenreihe „How-to GenAI“, die sich mit dem Einsatz von generativer künstlicher Intelligenz in der Unternehmenskommunikation beschäftigt. Künftig finden Sie an dieser Stelle Beiträge von wechselnden Autor*innen, die das Thema aus theoretischer und praktischer Sicht beleuchten.

Um es gleich vorwegzunehmen: Dieser Text wurde nicht von künstlicher Intelligenz geschrieben – aber mit ihrer Hilfe. Auch wenn es vielen nicht bewusst ist: Wir alle nutzen KI in unserer täglichen Arbeit, indem wir uns zum Beispiel in Word Grammatiktipps anzeigen lassen. In dieser Kolumne soll es aber um „generative KI“ gehen, also um die Möglichkeit, mit wenigen Eingaben völlig neue Inhalte wie Texte und Bilder zu erzeugen. Und vor allem wollen wir uns fragen, wie Algorithmen unsere Arbeit als Kommunikator:innen verändern werden.

Seit dem Start von ChatGPT vor knapp einem Jahr ist viel passiert und noch mehr geschrieben worden. Die Stimmung in unserer Branche schwankt irgendwo zwischen Begeisterung, Ernüchterung und Verzweiflung (wenn die Rechts- oder IT-Abteilung dem Einsatz von KI-Tools einen Riegel vorgeschoben hat).

Schwierig dabei: In die aktuelle Diskussion um Chancen und Risiken generativer KI haben sich einige Falschinformationen eingeschlichen, die gerne und regelmäßig wiederholt werden. Umso wichtiger, an dieser Stelle einige wichtige Grundlagen zu besprechen.

1. Generative KI basiert auf Statistik, ist aber mehr als die Reproduktion bereits vorhandener Informationen.

Unser Bild, dass Computer auf der Basis von Statistik vorhandene Inhalte lediglich neu zusammenstellen, ist falsch. KI ist in der Lage, kreativ zu sein und Inhalte zu schaffen, die es vorher nicht gab. Die falsche Sichtweise rührt daher, dass wir die Dinge zu sehr vereinfachen, wenn wir versuchen, das komplexe „Transformermodell“, mit dem die großen Sprach-KI funktionieren, verständlich zu machen.

ChatGPT hat mehrfach bewiesen, dass es in der Lage ist, etwas völlig Neues zu erschaffen und die meisten Menschen in Sachen Kreativität zu übertreffen. Der Grund dafür liegt in der Mathematik selbst und in der Tatsache, dass Maschinen anders funktionieren als unser Gehirn. Computer zerlegen die zugrundeliegenden Informationen oder Aufgaben bis auf einzelne Wortbestandteile und generieren daraus auf Basis eines mehrschichtigen mathematischen Modells völlig neue Inhalte.

Eine wichtige Variable ist dabei der Zufall („Temperatur“), der es der KI erlaubt, an jeder Stelle auch vom Pfad des statistisch signifikantesten Ergebnisses abzuweichen. Kurz gesagt: Selbst auf eine einfache Frage gibt es für die KI unendlich viele Antwortmöglichkeiten und es fällt ihr überhaupt nicht schwer, unkonventionelle Lösungen zu entwickeln. Wir Menschen hingegen denken in Kategorien und neigen dazu, Inhalte aus dem Gedächtnis zu rekonstruieren.

2. KI macht innerhalb ihres Modells keine Fehler – wenn sie halluziniert, ist das das Ergebnis einer falschen Anwendung.

Das Halluzinieren von Chatbots, also die Ausgabe von falschen Fakten, wird als eines ihrer größten Probleme angesehen. In diesem Zusammenhang ist es wichtig zu verstehen, wofür sogenannte Large Language Models geschaffen wurden: um Sprache zu erzeugen und zu verarbeiten. ChatGPT ist kein Brockhaus oder Wikipedia mit Chat-Funktion. Das Weltwissen, mit dem es trainiert wurde, wurde ihm gegeben, um Sprache zu lernen, nicht um Inhalte korrekt wiederzugeben.

Ein Faktencheck und die Nachvollziehbarkeit von Antworten sind zwar wünschenswert, aber in den Modellen schlicht nicht vorgesehen. In dieser Hinsicht ist die KI dem Menschen gar nicht so unähnlich: Wer von uns erinnert sich noch genau an den Moment, in dem er oder sie gelernt hat, wie die Hauptstadt Italiens heißt?

Dieses Wissen um die Funktionsweise und die Grenzen von KI-Modellen ist jedoch unerlässlich, wenn es darum geht, diese Modelle in der Kommunikationspraxis anzuwenden und Fehler zu vermeiden.

3. Es gibt genügend Möglichkeiten, KI datenschutzkonform einzusetzen und auch mit sensiblen Unternehmensdaten zu trainieren.

Das derzeit beliebteste Killerargument gegen KI ist der Datenschutz. Dabei gibt es längst Möglichkeiten, leistungsfähige KI-Anwendungen zu implementieren, ohne dass Daten den eigenen Server oder die eigene sichere Cloud-Umgebung verlassen. Es geht nicht um das „Ob“, sondern um das „Wie“.

Nun stellt sich die Frage, was Kommunikationsabteilungen davon haben, sich mit dem Einsatz von KI-Tools zu beschäftigen. Führt es zu mehr Effizienz? Führt es zu einer Verbesserung unserer Arbeit oder gefährden wir die Glaubwürdigkeit der Kommunikation, indem die Welt mit computergenerierten Inhalten überschwemmt wird, von denen viele gar nicht stimmen?

Die Verantwortung liegt bei uns selbst

Diese Fragen können nur wir selbst beantworten, und es liegt an uns, KI verantwortungsvoll und sinnstiftend einzusetzen. Die Gefahr ist groß, dass sich manche von den technischen Möglichkeiten dazu verleiten lassen, automatisiert Unmengen von Inhalten zu produzieren. Oder sogar Fake News zu verbreiten. Und die Gefahr ist real, wie man im Zusammenhang mit zahlreichen Falschmeldungen rund um den Anschlag der Hamas auf Israel gesehen hat: Innerhalb von drei Tagen musste Meta rund 800.000 Bilder von seinen Plattformen löschen, die offensichtlich KI-generiert waren.

Als leistungsstarke Tools genutzt kann KI unsere Arbeit jedoch schon jetzt effizienter machen und uns zeitraubende Tätigkeiten abnehmen. Hierfür ist es aber notwendig, die Handhabung der KI-Tools zu beherrschen, denn ein einfacher Prompt in ChatGPT führt in der Regel nicht auf Anhieb zu einem brauchbaren Ergebnis.

Sich dieses Wissen anzueignen, ist aber in jedem Fall eine lohnende Investition – auch in die eigene berufliche Zukunft.

Weitere Artikel