top of page

Werben im Kommunikationsmanager

Ihre Anzeige – zielgerichtet platziert für maximale Sichtbarkeit

Sie möchten Ihre Produkte, Dienstleistungen oder Veranstaltungen einer qualifizierten Fachzielgruppe präsentieren? 

Der kommunikationsmanager bietet Ihnen die ideale Plattform, um Entscheiderinnen und Entscheider aus Kommunikation, Marketing und Medien wirkungsvoll zu erreichen.  
Ob im Printmagazin oder auf unserer Website – mit Ihrer Anzeige profitieren Sie von einer hochwertigen Umgebung, in der Inhalte und Sichtbarkeit Hand in Hand gehen.
marion_6899.jpg

Senior Partnership und Event Managerin

Telefon / E-Mail

Droht ein stiller Putsch? Wie Künstliche Intelligenz die demokratische Meinungsbildung manipulieren kann

  • Stefan Watzinger, impact Agentur für Kommunikation GmbH
  • 8. Apr.
  • 5 Min. Lesezeit

Aktualisiert: vor 2 Tagen


Stefan Watzinger, Jahrgang 1981, ist geschäftsführender Gesellschafter der impact Agentur für Kommunikation GmbH, einer der führenden inhabergeführten Kommunikationsagenturen Deutschlands. Nach seinem Diplom im Fach Biologie wechselte er vor mehr als 15 Jahren in die Kommunikationsbranche. Als Mitglied im Deutschen Rat für Public Relations wirkte er maßgeblich an der Entwicklung der KI-Richtlinie des DRPR mit und setzt sich darüber hinaus für eine kritische und verantwortungsbewusste Nutzung Künstlicher Intelligenz in der Kommunikation ein.



Mit einem blauen Auge davongekommen, könnte man sagen. Denn rückblickend wurde im Vorfeld der Bundestagswahl glücklicherweise noch nicht das volle Potential der KI-gesteuerten Meinungsmanipulation ausgeschöpft – doch wie lange bleibt das so? Und selbst wenn man die vereinzelten KI-basierten Versuche der Einflussnahme berücksichtig, bleibt festzuhalten: Die Bundestagswahl 2025 ist zum Glück nicht zu einem Testlauf für eine völlig neue Dimension digitaler Einflussnahme geworden – und was technisch bereits möglich wäre, wurde nur in Ansätzen genutzt.



KI als unkontrollierter und unkontrollierbarer Akteur der politischen Kommunikation?


Bedenklich ist, dass KI vielerorts als Treiber für Effizienzsteigerung und Innovation reduziert wird und ihr Einfluss auf gesellschaftliche Wahrnehmungen und politische Meinungsbildung in der Gesamtbetrachtung unterschätzt oder gar völlig unbeachtet bleibt. Dabei gibt es bereits jetzt eine ganze Reihe von Warnsignalen. Eine aktuelle Studie der Cornell University mit dem Titel „The Influence of Large Language Models on Political Attitudes“ zeigt beispielsweise, dass KI-gestützte Algorithmen nicht nur bestehende Meinungen verstärken, sondern aktiv politische Überzeugungen formen können. Inhalte werden demnach nicht nach ihrer Wahrhaftigkeit, sondern nach ihrem Engagementpotential priorisiert.

Die sich so bildenden „Echokammern“ – oder auch Filterblasen – sind eine immense Gefahr, denn sie verstärken die gesellschaftliche Polarisierung und schaffen eine perfekte Bühne für Populisten und Extremisten.


Manipulative KI-Strategien im Bundestagswahlkampf 2025


Inwieweit Künstliche Intelligenz ganz konkret einen Einfluss auf den Wählerwillen bei der Bundestagswahl hatte, ist aktuell noch nicht untersucht. Fakt ist allerdings, dass es diverse Beispiele für den Einsatz von KI zu Manipulationszwecken gab. Im Deutschen Rat für Public Relations haben wir unlängst den AfD-Kreisverband Göttingen dafür gerügt, Statements und Wahlempfehlungen fiktiver Personen in Umlauf gebracht zu haben.


Weitere Beispiele gibt es zuhauf. Wochen vor der Wahl tauchten täuschend echte Deepfake-Videos auf, die angeblich von der Tagesschau stammten. Sie imitierten das bekannte Nachrichtenlayout, täuschten seriöse Berichterstattung vor und verbreiteten gezielt Falschinformationen. Darunter auch ein gefälschtes Video im Tagesschau-Layout und mit Anmoderation von Tagesschau-Sprecherin Susanne Holst, auf dem das Stabsmusikkorps am Kanzleramt vermeintlich den im Kontext des Sylt-Pony-Bar-Skandals in Verruf geratenen Song „L‘amour toujours“ von Gigi D‘Agostino probt. Über diese Form von „lustiger“ Satire mag man noch hinwegsehen, aber spätestens, wenn Politikern per Deepfake Aussagen in den Mund gelegt werden, die sie nie getätigt haben, findet eine Grenzüberschreitung statt. Mal ganz davon abgesehen, dass damit auch Persönlichkeitsrechte und das Recht am eigenen Bild ein Thema werden.


Neben der Erstellung von Inhalten gibt es noch einen weiteren Weg, über KI gezielt Meinung zu manipulieren. So wurden auf Social-Media-Plattformen wie X und Telegram im Kontext diverser Wahlkämpfe – beispielsweise in den USA, Argentinien, aber auch im Bundestagswahlkampf – automatisierte Bot-Netzwerke identifiziert, die dafür eingesetzt wurden, um gezielt Content-Pieces hunderttausendfach zu verbreiten und zu verstärken. Dass ein Großteil dieser Kampagnen aus Russland gesteuert wurden, dürfte kaum noch verwundern. Im Bundestagswahlkampf wurden dabei unter anderem KI-generierte Posts verbreitet, die Zweifel an der Glaubwürdigkeit des deutschen Wahlsystems säen sollten – ein Muster, das auch aus dem US-Wahlkampf bekannt sein dürfte.

Das Ziel dieser und ähnlicher Kampagnen ist nichts anderes, als Narrative zu etablieren und durch schiere Masse an Posts jede Gegenrede zu unterdrücken und den öffentlichen Diskurs zu verschieben. Oder anders: Mehrheitsmeinungen zu suggerieren, die es in der Realität nicht gab oder gibt.


Verantwortung in einer digitalen Blackbox


Was das Ganze neben der stetigen Weiterentwicklung der Fähigkeiten von KI deutlich gefährlicher macht, ist, dass das Wissensniveau in Sachen Künstlicher Intelligenz in der Breite der Bevölkerung noch äußerst gering ist. Dabei sind die Mechanismen, die bei der KI-basierten Erstellung von Inhalten greifen, für viele eine Blackbox. Nicht zuletzt gibt es – anders als in traditionellen Medien, die klaren redaktionellen Standards und Regulierungen unterliegen – im digitalen Raum bislang kaum vergleichbare Kontrollmechanismen. Und gerade weil KI bereits heute so tief in unseren Informationsfluss eingreift, stehen wir vor grundlegenden Fragen: „Wie kann man künftig sicherstellen, dass KI-generierte Inhalte klar von nicht-KI-generierten Inhalten zu unterscheiden sind? Wer definiert, welche politischen Inhalte in welcher Form verstärkt werden? Wer stellt sicher, dass KI nicht gezielt zum Missbrauch in der Willens- und Meinungsbildung genutzt wird? Und am Ende stellt sich sogar die „ganz große“ Frage: Was ist eigentlich noch wahrhaftig und echt – und was nicht? Beziehungsweise: Was ist noch richtig – und was ist falsch?



Die Zukunft der Meinungsbildung: Was getan werden muss


Die Art und Weise, wie wir Informationen konsumieren und unsere Meinung bilden, verändert sich rasant – nicht zuletzt durch den Einfluss von Künstlicher Intelligenz. KI-gestützte Algorithmen steuern, welche Inhalte wir sehen, während manipulierte oder KI-generierte Informationen immer schwerer von echten Nachrichten zu unterscheiden sind. Ohne klare Regeln drohen Manipulation, Desinformation und ein Vertrauensverlust in demokratische Prozesse.


Um dem entgegenzuwirken, braucht es konkrete Maßnahmen, denn nur wenn wir diese Herausforderungen proaktiv angehen, können wir eine informierte und resiliente Gesellschaft erhalten:



  1. Transparenzpflichten für KI-Algorithmen

    Die Funktionsweise von generativen KI-Systemen muss nicht nur offengelegt, sondern so verständlich erklärt werden, dass Nutzer:innen nachvollziehen können, warum ihnen bestimmte Inhalte angezeigt werden. Unternehmen, die solche Systeme entwickeln und bereitstellen müssen verpflichtet werden, diese Erklärungen transparent und gut auffindbar zu veröffentlichen.


  2. Klare Kennzeichnungspflichten für KI-generierte Inhalte

    Politische Werbung und KI-generierte Inhalte müssen als solche erkennbar sein. Hier sind insbesondere die Plattformbetreiber gefragt: Sie müssen verpflichtend Mechanismen zur automatisierten Kennzeichnung von KI-Inhalten implementieren und sicherstellen, dass manipulierte Inhalte nicht unkontrolliert verbreitet werden.


  3. Plattformverantwortung stärken

    Plattformbetreiber müssen haftbar gemacht werden, wenn sie die Verbreitung von manipulierten KI-Inhalten nicht aktiv eindämmen. Dies bedeutet, dass sie effektive Prüfmechanismen einführen und Nutzer:innen die Möglichkeit geben müssen, fragwürdige Inhalte schnell zu melden.


  4. Medienkompetenz und digitale Aufklärung frühzeitig stärken

    Die Vermittlung von Medienkompetenz muss bereits in Schulen beginnen, um junge Menschen für KI-generierte Inhalte zu sensibilisieren. Es braucht gezielte Bildungsprogramme, die Schüler:innen und Erwachsene befähigen, digitale Desinformation zu erkennen und kritisch zu hinterfragen. Auch Journalist:innen müssen gezielt geschult werden, um KI-generierte Inhalte effizient zu überprüfen.


Die Bundestagswahl 2025 war zum Glück noch nicht der ultimative Stresstest für unsere Demokratie in Sachen Manipulation durch Künstliche Intelligenz. Dennoch ist Manipulation von öffentlicher Meinung durch KI längst keine Zukunftsbedrohung mehr, sie findet bereits statt.


Die Mechanismen, die heute noch punktuell eingesetzt werden, könnten bereits morgen systematisch und in vollem Umfang eingesetzt werden. Durch eine entfesselt eingesetzte KI droht eine komplette Unterwanderung der demokratischen Willensbildung sowie die Möglichkeit, Wahlen gezielt zu manipulieren, Vertrauen in Institutionen zu zerstören und die Grenzen zwischen Wahrheit und Fake News endgültig aufzulösen. Und ein Blick auf die Trump-Administration genügt, um zu erkennen, dass es nicht an Energie und Agenda mangelt, dies auch zu tun. Die Zeit, in der wir dieses Problem theoretisch diskutieren konnten, ist vorbei.


Und wer glaubt, dass der EU AI Act dieses Problem von selbst lösen wird, verkennt die Realität. Natürlich ist Regulierung wichtig, doch dieses Gesetz bleibt in entscheidenden Punkten zu vage und setzt vor allem auf freiwillige Selbstverpflichtungen der großen Plattformen. Während es detaillierte Vorgaben für Hochrisikoanwendungen gibt, bleiben die Graubereiche der Meinungsmanipulation weitgehend unberührt. Die Vorstellung, dass ein regulatorischer Rahmen allein die Gefahr eindämmen könnte, ist naiv.


Es braucht jetzt nicht nur Regulierung und Transparenz, sondern eine grundsätzliche Neubewertung der Verantwortung aller Akteure – von Politik, Wirtschaft und Medien bis hin zu Plattformen und Kommunikationsprofis. Die Frage ist nicht mehr, ob KI die politische Meinungsbildung verändert, sondern wer sie kontrolliert. Lassen wir zu, dass Techkonzerne und autoritäre Staaten die Deutungshoheit über öffentliche Debatten gewinnen? Oder setzen wir die Leitplanken für eine „digitale Demokratie“, bevor es zu spät ist?



Lesen Sie auch:




bottom of page