Nur (rechts)sicher ist smart ‒Juristische Leitlinien für KI in der Unternehmenskommunikation
- Dr. Holger Weimann & Dr. Birgit Münchbach, Advant Beiten
- 2. Mai
- 6 Min. Lesezeit
Aktualisiert: vor 7 Tagen
Dr. Holger Weimann ist Rechtsanwalt und Partner bei ADVANT Beiten in München. Er berät Medien- und Technologieunternehmen (Rundfunk, Internet, Print- und Musikverlage, Film- und Fernsehproduktion, Werbe- und PR-Agenturen) auf dem Gebiet des Urheberrechts (Content, Verwertungsgesellschaften), Persönlichkeitsrechts und des Wettbewerbsrechts.
Dr. Birgit Münchbach ist Fachanwältin für Informationstechnologierecht und Partnerin bei ADVANT Beiten München. Sie berät nationale und internationale Unternehmen bei der Umsetzung von digitalen Geschäftsmodellen, Technologieprojekten, Forschungs- und Entwicklungskooperationen, Joint Ventures, IT-Projektverträgen sowie der Lizenzierung von Softwareprodukten und Cloud-Lösungen.
Künstliche Intelligenz verändert die Unternehmenskommunikation grundlegend. Aktivitäten, insbesondere auf Social Media, lassen sich mithilfe generativer KI skalieren – von der Content-Erstellung bis zur Analyse von Nutzerverhalten. Doch wer KI nutzt, bewegt sich in einem zunehmend regulierten Raum. Besonders im Hinblick auf Urheberrecht, Transparenz und Datenschutz gilt: Wer die Technologie nutzt, sollte die Spielregeln kennen.
KI-Nutzung ist kein Selbstläufer: „Vertrauen ist gut, Kontrolle ist besser“
Die Kehrseite der Skalierbarkeit von Kommunikationsaktivitäten, das heißt der schnelleren und kostengünstigeren Erstellung von Content, ist der Aufwand, den Output auf inhaltliche Richtigkeit zu überprüfen.
Wer KI nutzt, sollte sich der Anfälligkeit für inhaltliche Fehler bewusst sein. Die Anbieter von KI weisen mit gutem Grund darauf hin, dass KI-generierte Inhalte gründlich überprüft werden müssen.
Unwahre Angaben in der Unternehmenskommunikation sind oft wettbewerbswidrig. Dies kann Ansprüche von Wettbewerbern und Verbraucherschutzverbänden zur Folge haben.
Wenn die KI in der Unternehmenskommunikation (mit-)schreibt, sind Transparenz und Qualitätskontrolle unentbehrlich. Wer KI im Marketing professionell mit Augenmaß einsetzt, sollte daher auf menschliche Intelligenz nicht verzichten, die den KI-generierten Content überprüft.
Urheberrecht: Zwischen Prompt und Plagiat
Wird durch gezieltes Prompting ein Output generiert, der bereits existierenden Werken sehr ähnlich ist, besteht die Gefahr, dass eine urheberrechtswidrige Bearbeitung eines Werkes vorliegt. Um Urheberrechtsverletzungen zu vermeiden, ist es daher wichtig, ausreichend Abstand zwischen dem KI-generierten Output und dem Original zu wahren. Dann liegt eine zulässige freie Benutzung vor.
„Blackbox“ KI-Trainingsdaten: Programmieren Unternehmen KI-Anwendungen nicht selbst, bestehen in der Regel kaum Einsichtsmöglichkeiten, mit welchen Inhalten die KI trainiert wurde. Die meisten generativen KI-Anwendungen arbeiten nicht mit Quellenangaben, sodass nicht nachvollziehbar ist, auf welchen Quellen der Output basiert. Übernimmt die KI bei der Generierung von Text ganze Passagen wörtlich aus anderen Quellen, sind schnell Urheberrechte verletzt.
Transparenzpflicht: KI-Inhalte richtig kennzeichnen
Zwar treten die Transparenzpflichten nach der KI-Verordnung der EU erst ab 2. August 2026 in Kraft. Verstöße gegen das Transparenzgebot können aber auch nach aktueller Rechtslage Konsequenzen haben. Für jede öffentlichen Kommunikation gilt: Zweck und Herkunft einer Veröffentlichung müssen erkennbar sein. Werbung muss als solche gekennzeichnet und darf nicht als redaktionelle Berichterstattung getarnt sein. Sonst sind wettbewerbsrechtliche Ansprüche wegen irreführender Werbung denkbar.
Wer fremde Texte veröffentlicht, darf sie nicht als eigene ausgeben. Wer fremde Quellen nutzt, sollte über die dazu erforderlichen Rechte verfügen und die Herkunft kennzeichnen. Daraus folgt: Wer KI-generierte Inhalte verwendet, der darf sich nicht als Autor bezeichnen.
In der KI-Verordnung (AI Act) ist das Transparenzgebot speziell für KI-generierte Inhalte verankert. Danach gilt: Der künstliche Charakter von Deepfakes muss offengelegt werden (Art. 52 Abs. 3 AI Act). Jede Interaktion von KI mit Menschen, also z.B. automatisierte Postings und Chatbot-Inhalte, muss als solche gekennzeichnet werden (Art. 52 Abs. 1 AI Act).
Wenn nicht erkennbar ist, dass Inhalte unter Einsatz von KI generiert wurden, ist dies vergleichbar mit einem Fotocredit zu kennzeichnen, zum Beispiel mit dem Hinweis ‚KI-generiert‘, ggf. sollte auch das jeweils genutzte KI-Tool angegeben werden. Wird die generative KI nur genutzt, um Ideen für einen Text zu sammeln, wobei der Textvorschlag der KI anschließend überarbeitet wird, hängt die Kennzeichnungspflicht davon ab, wie viele KI-Inhalte im Endergebnis noch enthalten sind. Werden nur Informationen oder der Aufbau eines Textes übernommen, muss dies nicht gekennzeichnet werden. Je näher der veröffentlichte Text an dem von der KI generierten Text ist, umso mehr gilt die Kennzeichnungspflicht. Werden zum Beispiel ganze Sätze oder Absätze übernommen, so ist – wie bei jedem anderen Text, der unter Nutzung anderer Quellen entsteht – die Quelle zu zitieren, das heißt, die KI-gestützte Erstellung offenzulegen.
Chatbots im Kundenkontakt: Nur mit Transparenz und Datenschutz
Live-Chats und Messengerdienste lassen sich durch KI automatisieren und 24/7 verfügbar machen. Die KI-Verordnung stuft Chatbots für die Kundenkommunikation in die Kategorie „begrenztes Risiko“ ein. Es gelten spezielle Transparenzanforderungen. Kunden müssen darauf hingewiesen werden, dass sie mit einer KI korrespondieren und nicht mit einem Menschen. Um Fehlleistungen zu minimieren, sollten die automatisierten Antworten des Chatbots überwacht und dokumentiert werden. Ein menschliches Eingreifen sollte jederzeit möglich sein.
Verarbeitet der Chatbot personenbezogene Daten (zum Beispiel Namen, E-Mail-Adressen, Telefonnummern oder andere Informationen, die einen Rückschluss auf eine Person zulassen, das heißt diese identifizierbar machen), was regelmäßig in der Kommunikation mit Kunden der Fall ist, so gilt die Datenschutz-Grundverordnung (DS-GVO). Der Verwender der KI muss den Kunden dann über die Verarbeitung seiner Daten informieren, und zwar in einer transparenten und verständlichen Weise. Die Verarbeitung der Kundendaten bedarf einer Rechtsgrundlage nach Art. 6 DS-GVO. Dies kann eine Einwilligung sein, das heißt eine ausdrückliche, freiwillige Zustimmung, oder der Rechtfertigungsgrund der Verarbeitung der Daten zur Durchführung eines Vertrages. Die Verarbeitung der Daten ist in jedem Fall auf das zur Bearbeitung der Anfrage des Kunden zwingend Notwendige zu beschränken (sog. Grundsatz der Datensparsamkeit). Die Daten dürfen außerdem nicht länger als erforderlich gespeichert werden, das heißt müssen wieder gelöscht werden, wenn sie zur Durchführung des Auftrags nicht mehr erforderlich sind oder die Einwilligung widerrufen worden ist. Der Kunde hat einen Anspruch auf Auskunft, welche personenbezogenen Daten verarbeitet wurden, sowie einen Anspruch auf Löschung seiner Daten.
Die KI-Anwendung, auf der der Chatbot basiert, sollte daher technisch so konzipiert sein, dass die Datenverarbeitung dokumentiert ist und einzelne Daten jederzeit gelöscht werden können. Dies stellt praktisch oft eine technische Herausforderung dar. Denn eine KI ist keine Datenbank. Die Funktionsweise der KI basiert auf der Errechnung von Wahrscheinlichkeiten. Die einzelnen Datenverarbeitungsvorgänge sind in der Regel nicht berechenbar, damit nicht vergleichbar mit einem Computerprogramm, das bei gleichem Input immer zu gleichem Output führt. Werden einmal Daten in die KI eingegeben, sind diese technisch nur schwer wieder vollständig zu entfernen.
Extern beauftragt: Veränderte Anforderungen an die Zusammenarbeit
Was für das Arbeiten mit KI in der eigenen Kommunikations- und Marketing-Abteilung eines Unternehmens gilt, gilt auch, wenn externe Agenturen mit der Erstellung von Inhalten beauftragt werden.
Auch gegenüber externen Dienstleistern sollte sichergestellt werden, dass beim Einsatz von KI bestimmte Regeln beachtet werden. Das setzt klare Vorgaben zur Erstellung, Kontrolle und Veröffentlichung von KI-generierten Inhalten voraus. Unternehmensintern können diese in einer KI-Nutzungsrichtlinie festgehalten werden.
In Verträgen mit Agenturen oder anderen externen Dienstleistern empfiehlt sich eine KI-Klausel, mit der die Nutzung von KI-Tools für zu erstellende Inhalte untersagt oder eingeschränkt wird. Ein Praxisleitfaden der EU-Kommission für Anbieter von KI-Modellen mit allgemeinem Verwendungszweck (GPAI) soll demnächst erscheinen. Er soll Leitlinien für die Wahrung von Transparenz, Urheberrecht sowie Risikomanagement beinhalten. Daraus werden sich sicherlich auch für Nutzer von KI-Tools Best Practices ableiten lassen.
Ausblick: Neue Spielregeln für den KI-Einsatz
Der rechtssichere Einsatz von generativen KI-Tools in der Unternehmenskommunikation wird Unternehmen vor einige Herausforderungen stellen. Um Haftungsrisiken zu vermindern, sollte die Einführung von generativen KI-Systemen im Unternehmen nicht nur technisch, sondern auch aus rechtlicher Perspektive fachkundig begleitet werden. Durch technische und organisatorische Maßnahmen sowie durch den Betrieb der KI-Anwendung in einer geschlossenen Umgebung können datenschutzrechtliche Anforderungen gewahrt und Risiken minimiert werden. Bei der Nutzung der KI für die Erstellung von Content können Risiken minimiert werden, indem klare Leitlinien formuliert werden, sowohl für die eigene Abteilung wie für eine beauftragte externe Agentur. Außerdem ist die Kennzeichnung von KI-generierten Inhalten als solche essenziell. Last but not least sollte der Output der KI durch menschliche Intelligenz überprüft werden. Auch wenn der AI Act erst ab dem 2. August 2026 vollständig gilt, lohnt sich eine frühzeitige Auseinandersetzung. Denn viele der künftigen Pflichten – etwa zur Transparenz, Kennzeichnung oder zur Risikobewertung – greifen bereits heute als Branchenstandard oder lassen sich aus bestehenden Gesetzen ableiten. Der AI Act wird für Unternehmen zum rechtlichen Rahmen, innerhalb dessen sich der Einsatz generativer KI in der Kommunikation künftig bewegen muss. Wer sich jetzt vorbereitet, reduziert nicht nur rechtliche Risiken, sondern schafft Vertrauen – bei Kunden, Partnern und der Öffentlichkeit.
RECHTLICHE SPIELREGELN
KI in der Unternehmenskommunikation
Die Integration von KI in der Unternehmenskommunikation bietet enormes
Potenzial, doch rechtlich sicher ist sie nur mit klarem Regelwerk, Transparenz
und Kontrolle.
Inhalte prüfen
KI kann Fehler machen. Der Output muss fachlich und rechtlich kontrolliert werden – falsche Aussagen können abmahnfähig sein.
Transparent bleiben
Der Einsatz von KI und -generierte Inhalte sollten klar gekennzeichnet werden. Das schafft Vertrauen und ist bald gesetzlich Pflicht (AI Act ab 2026).
Urheberrechte wahren
KI darf keine bestehenden Werke kopieren. Inhalte müssen eigenständig genug sein, sonst drohen Urheberrechtsverletzungen.
Datenschutz beachten
Wer personenbezogene Daten verarbeitet, z. B. via Chatbot, muss DSGVO-Vorgaben einhalten und Löschung ermöglichen.
Klare Regeln setzen
Ob intern oder mit Agenturen: Der KI-Einsatz braucht Richtlinien, Kontrolle und vertragliche Vereinbarungen.