Wie Unternehmen GPT sicher nutzen können

Künstliche Intelligenz

Neulich beim Kunden: Eben habe ich über die Potenziale aktueller KI-Modelle gesprochen, habe den Teilnehmenden meines Workshops den Weg zu einer KI-Strategie für die Kommunikationsabteilung aufgezeigt. Und beobachtet, mit welch großer Faszination die Mitarbeitenden immer neue Ideen entwickelten, wie künstliche Intelligenz ihnen dabei helfen könnte, ihre Aufgaben künftig schneller und besser zu erledigen. Die Begeisterung im Publikum für die sich bietenden Chancen ist groß.

Doch dann kommen Sorgen zur Sprache: Was ist mit unseren Daten? Wo liegen die Informationen eigentlich? Und manchmal heißt es auch: Wir würden ja. Aber das dauert bei uns noch. Mal ist es die Führungsriege, mal die IT-Abteilung, die zu große Bedenken hat.

Ambivalenter Blick auf KI

Leider keine Einzelfälle. Eine repräsentative Studie des Digitalverbands Bitkom hat vor Kurzem deutlich gemacht, wie ambivalent die deutsche Wirtschaft auf das Thema KI blickt: Während zwei Drittel der 605 befragten Unternehmen künstliche Intelligenz und die Macht der Large Language Modelle (LLMs) als die gegenwärtig bedeutendste Zukunftstechnologie bezeichnen, integrieren aktuell gerade einmal zwei Prozent generative KI in ihre zentralen Geschäftsbereiche. Woher die Zurückhaltung kommt, liegt auf der Hand: Nach wie vor sind zu viele Fragen ungeklärt in Sachen Datensicherheit, Datenschutz und Urheberrecht. Wie kann man als Unternehmen diesem Dilemma entkommen? Wie lassen sich Datenschutzverordnungen und Kreativpotenzial übereinbringen, um die Power der KI zu nutzen?

Mit ihrem AI Act hat die Europäische Union einen ersten Rahmen zur politischen Regulierung von künstlicher Intelligenz gesteckt. Politische Verordnungen allein aber lösen die Probleme nicht. Zielführender sind Produkte, die Anbieter von KI-Tools jüngst entwickelt haben: sogenannte Corporate GPTs – ein Synonym für geschützte KI-Modelle eines Unternehmens. Stark vereinfacht sind darunter Lösungen zu verstehen, die die Potenziale von KI-Modellen in einer isolierten und damit juristisch abgesicherten Umgebung nutzen.

GPT als Azure OpenAI Service

Bis Ende 2023 bot OpenAI nur eine Alternative zu ChatGPT: die Integration eines individuellen GPT über Microsoft Azure in die firmeneigene Cloud. Das LLM liegt dann auf dem gleichen Serverökosystem wie die Office-, Teams- oder Sharepoint-Anwendungen des Unternehmens.

Datenschutztechnisch ist das eine solide Lösung: Jeder Client trainiert das firmeneigene GPT mit den für sie/ihn relevanten Inhalten, ohne befürchten zu müssen, dass sensible Daten in unbefugte Hände geraten. Der Vorteil: Auch aus diesen Informationen kann das GPT lernen – und zwar genau das, was es am Ende können soll. Große Unternehmen wie Telekom, Allianz, DM oder Bosch haben solche Lösungen mit Azure als OpenAI Service bereits umgesetzt.

Der Nachteil: Ein isoliertes GPT hat im Ursprungszustand keine Benutzeroberfläche – das digitale Werkzeug braucht also ein userfreundliches Frontend, bevor es genutzt werden kann. Der Funktionsumfang solcher Interfaces ist dem Angebot von OpenAI aber nach wie vor weit unterlegen: Es gibt keine Chat-Historie, es ist nicht multimodal. Das heißt: Braucht ein User einen Text, steuert er das GPT über die Texteingabe an. Wenn ein Bild gebraucht wird, muss man über ein Bildmodul arbeiten, analog dazu bei der Arbeit mit Audiodateien. In der GPT-4 Oberfläche sind die unterschiedlichen Anwendungen nahtlos integriert – hier wird der Entwicklungsvorsprung von OpenAI spürbar.

ChatGPT for Enterprise und ChatGPT for Teams

Doch es gibt inzwischen Alternativen – denn OpenAI hat Ende 2023 zwei Neuerungen für den deutschen Markt veröffentlicht:

Erste Neuerung: Abschluss eines sogenannten Auftragsdatenverarbeitungsvertrages (AVV). Ein solcher AVV regelt die Rechte und Pflichten von Aufraggeber und Auftragnehmer sowie möglicher Subdienstleister beim Umgang mit Daten. Damit können Unternehmen nun den Umgang mit sensiblen Daten bei der Zusammenarbeit mit OpenAI auf ein transparentes Fundament stellen.

Zweite Neuerung: ChatGPT for Enterprise. Der große Vorteil dieser Bezahloption liegt laut einem Blogeintrag des Unternehmens darin, dass OpenAI nicht mit Geschäftsdaten oder Konversationen arbeitet und die Modelle des Unternehmens nicht aus der Nutzung lernen.

Diese Weiterentwicklung lässt sich OpenAI natürlich bezahlen: Wer GPT for Enterprise nutzen will, muss mindestens 300 Lizenzen kaufen – für 30 Dollar pro Stück. Und weil dieses Angebot aus Kostengründen offenbar nur zurückhaltend aufgenommen wurde, bietet OpenAI schon eine Alternative an: ChatGPT for Teams, das bereits ab zwei Lizenzen nutzbar ist.

Der Vorteil beider Varianten: Alle Daten, die von Mitarbeitenden eingegeben werden, werden nicht zum Training des GPT-Modells verwendet – OpenAI-Ehrenwort. Wenn der Account gekündigt wird, ist jede Kommunikation mit dem Modell gelöscht. Weiterer Vorteil: Die Kommunikation erfolgt über bekannte Interfaces, User genießen vollen Funktionsumfang und Multimodalität. Ein weiterer Vorteil liegt in der schnellen Verfügbarkeit: Das GPT muss nicht erst entwickelt und gebaut werden. Es steht innerhalb weniger Minuten zur Verfügung.

Der Haken: die laufenden Kosten und der Verwaltungsaufwand. Jede Lizenz kostet etwa 30 Dollar – pro User und pro Monat. Das kann für manche Unternehmen ein gewaltiges Investment sein. Neben Geld braucht es aber auch Zeit: Beim Onboarding muss jeder User einzeln eingeladen, beim Offboarding wieder abgemeldet werden. Im Gegensatz dazu lässt sich bei der Azure-Lösung einfach das gesamte Unternehmen einladen. Und: Man macht sich weniger abhängig von nur einem Anbieter. Denn weitere Modelle lassen sich integrieren und auch kombinieren.

Bevor Sie nun ob der zahlreichen Wenns und Abers abwinken – denken Sie an die Potenziale, die KI schon heute bietet. Wo aber fange ich an, wenn ich die Kompetenzen nicht im eigenen Unternehmen habe? Mein Appell: Bauen Sie sie jetzt auf! Noch ist der Vorsprung aufzuholen, er wird aber mit jedem Tag größer.

Den tatsächlichen Bedarf klären

Wir bei Palmer Hargreaves gehen mit unseren Kunden folgenden Weg: Wir lassen die Vor- und Nachteile, die Stärken und Schwächen der GPT-Modelle in einem ersten Schritt beiseite und klären zunächst die Erwartungen und den tatsächlichen Bedarf. Wie sieht die Wertschöpfungskette aus, wie der Workstream in der Abteilung?

Wir gehen bei unserer Analyse also von der konkreten Arbeitssituation aus und suchen Prozesse und Workstreams, die wir mit KI sinnvoll unterstützen können. Wir orientieren uns dabei an drei Fragestellungen:

  1. Wo lassen sich im typischen Workstream Aspekte identifizieren, die lästig sind, die viel Aufwand bedeuten, die Zeit rauben?
  2. Was hätte ich schon immer gerne gemacht? Eine aufwändige Animation vielleicht? Oder mehr Wissen über meine Audience oder Voraussagen über die Performance meiner Kommunikation? Oder die Möglichkeit, mein Publikum extrem individuell anzusprechen? Das sind Indizien, die bei der Suche nach dem passenden KI-Modell helfen.
  3. Wo sammle ich Daten, mit denen ich bislang noch nicht arbeite?

Machen Sie sich also jetzt daran, Antworten auf diese Fragen zu finden. Denn sicher ist: Künstliche Intelligenz wird in naher Zukunft enorme Wettbewerbsvorteile bieten.


Dieser Beitrag ist Teil der Themenreihe „How-to GenAI“, die sich mit dem Einsatz von generativer künstlicher Intelligenz in der Unternehmenskommunikation beschäftigt. Wöchentlich erscheinen an dieser Stelle Beiträge wechselnder Autor*innen zu theoretischen und praktischen Aspekten.