Mensch, Maschine, Meinung – (Mit-)verantwortung
- 26. März
- 5 Min. Lesezeit
Wie KI Vertrauen in der Wissenschaftskommunikation stärkt, fordert oder verspielt
von ROMAN MÖHLMANN, MLL-GRUPPE
Generative Künstliche Intelligenz verändert Kommunikation und insbesondere auch die Wissenschaftskommunikation nicht nur operativ, sondern strukturell. Sie ist Werkzeug, Debattengegenstand und zunehmend selbst Akteur im Kommunikationsraum. Gerade im sensiblen Feld von Medizin, Diagnostik und Forschung wird damit Vertrauen zur zentralen Währung – und zur strategischen Gestaltungsaufgabe professioneller Kommunikation.
Wissenschaftskommunikation war stets mehr als Informationsvermittlung. Sie ist Vertrauensarchitektur zwischen Forschung und Öffentlichkeit, zwischen Institution und Individuum, zwischen Erwartung und Evidenz. Mit generativer KI verschiebt sich dieses Gefüge, und zwar nicht graduell, sondern systemisch.
Sichtbarkeit ohne Selbstverständlichkeit: Das veränderte Medienökosystem
Vertrauen entsteht nicht isoliert, sondern in einem Medienökosystem, das sich grundlegend verschoben hat. Mobile Nutzung, vertikale Bildsprachen und ultrakurze Formate dominieren; klassische Gatekeeper verlieren an Einfluss. Plattformen, Creator-Ökonomien und algorithmische Systeme entscheiden zunehmend über Reichweite und Monetarisierung. Für Unternehmen und Organisationen heißt das: Qualität garantiert keine Sichtbarkeit mehr. Inhalte konkurrieren mit Aufmerksamkeitsarchitekturen, und KI wirkt dabei als Produktivitätsmotor und als neuer Filter zugleich. Sie strukturiert, priorisiert und personalisiert Informationszugang.
Damit verändert sich auch Reputation. Wie das „Oxford Handbook of Organisational Social Evaluations“ zeigt, entsteht Unternehmenswert heute maßgeblich über soziale Zuschreibungen – beschleunigt durch Plattformlogiken, ESG-Debatten und KI-getriebene Dynamiken. Wahrnehmung wird damit zur Governance-Frage.
Vertrauen unter KI-Bedingungen
Was folgt daraus für das Vertrauen? Vertrauen entsteht aus Transparenz, Kompetenz und Verantwortungsübernahme. Unter KI-Bedingungen verändern sich alle drei Aspekte. Transparenz bedeutet heute auch, offenzulegen, wo generative Systeme eingesetzt werden und wo bewusst nicht. Kompetenz umfasst die Fähigkeit, Potentiale und Grenzen technologischer Systeme präzise zu benennen. Verantwortungsübernahme manifestiert sich in klaren Review-Prozessen, dokumentierten Workflows und definierter Zuständigkeit.
Die Forschung zur „Unsicherheitskommunikation“ zeigt zudem: Klar benannte Evidenzlücken untergraben Vertrauen nicht zwangsläufig. Im Gegenteil – differenzierte Darstellung von Wahrscheinlichkeiten und Unsicherheiten erhöht langfristig Glaubwürdigkeit. Gerade gegenüber Systemen, die häufig scheinbare Eindeutigkeit produzieren, wird diese Fähigkeit zur nuancierten Einordnung zum strategischen Vorteil.
Gesundheitskommunikation fungiert hier als Reallabor. Sie adressiert Patienten, Ärzte, Politik, Me dien und Fachcommunity zugleich. Sie bewegt sich zwischen individueller Betroffenheit und systemischer Debatte. Gelingt es in diesem Umfeld, KI verantwortungsvoll zu integrieren, sind die gewonnenen Prinzipien branchenübergreifend übertragbar.
Simulation von Mehrheiten und verschobene Verantwortung
Eine neue Herausforderung liegt in der Möglichkeit koordinierter „KI Swarms“. Forschende warnen aktuell vor KI-Agenten, die glaubwürdige Identitäten pflegen und soziale Konformitätsmechanismen ausnutzen können. Schon wenige anschlussfähige Profile können Mehrheitsillusionen erzeugen – ein sozialpsychologisch gut belegtes Phänomen. Parallel dazu belegen Studien zur Wirkung von Onlinekommentaren, dass bereits einzelne irreführende oder verschwörungstheoretische Beiträge unter wissenschaftlichen Inhalten die wahrgenommene Glaubwürdigkeit signifikant verschieben können, selbst wenn der Ursprungspost von ausgewiesenen Experten stammt.
Gerade im Gesundheitsbereich ist diese Dynamik sensibel. Millionen Menschen nutzen KI als Orientierungsinstrument. Sprachliche Sicherheit erzeugt dabei leicht Kompetenzzuschreibung, selbst bei begrenzter Evidenz. Halo-Effekte und Transfervertrauen verstärken diesen Eindruck.
Damit verschiebt sich Verantwortung subtil. KI kann Information strukturieren, aber keine Verantwortung übernehmen. Für Kommunikationsverantwortliche bedeutet das: Vertrauen darf nicht auf performativer Plausibilität beruhen, sondern auf überprüfbarer Qualität, transparenter Systemnutzung und klarer Zuständigkeit.
1. KI als Werkzeug: Produktivität trifft Haftung
Auf der ersten Ebene ist KI ein leistungsfähiges Instrument. Sie unterstützt bei der Erstellung wissenschaftlicher Abstracts, Reden, Positionspapiere oder Presseunterlagen. Sie ermöglicht die zielgruppenspezifische Adaption komplexer Inhalte für Fachpublikum, Patienten, politische Entscheider oder soziale Medien. Sie strukturiert Studienlagen, visualisiert Diagnostikpfade und simuliert Review-Perspektiven. Im medizinischen Kontext – etwa in der Hämatologie oder molekularen Diagnostik – eröffnet das erhebliche Effizienzgewinne. Der Transfer vom Fachartikel zur laienverständlichen Information wird schneller, skalierbarer und mitunter konsistenter.
Doch die Produktivitätsdividende ist untrennbar mit einer Haftungsdimension verbunden. Generative Modelle produzieren plausible Texte, nicht zwingend valide Aussagen. Halluzinationen, implizite Verzerrungen aus Trainingsdaten oder verkürzte Evidenzdarstellungen sind systemimmanent. „Human in the loop“ ist deshalb kein technischer Zwischenschritt, sondern ein Governance-Prinzip: KI formuliert, Menschen verantworten.
2. KI als Gegenstand: Zwischen Innovationsdruck und Regulierung
Auf der zweiten Ebene wird KI selbst zum Kommunikationsgegenstand. Kaum ein Technologiefeld ist gegenwärtig so politisch, ökonomisch und ethisch aufgeladen. Europäische Datenschutzanforderungen, der AI Act, Fragen nach Transparenz, Bias, Haftung und Datenintegrität prägen den Diskurs.
Im Gesundheitswesen verschärft sich diese Spannung: Die Erwartung an präzisere Diagnostik, personalisierte Therapie und effizientere Prozesse trifft auf strenge regulatorische Rahmenbedingungen und berechtigte Sicherheitsanforderungen. Kommunikation bewegt sich hier zwischen Innovationsversprechen und Schutzlogik.
Wer dabei ausschließlich technologische Euphorie bedient, riskiert Glaubwürdigkeitsverlust. Wer wiederum nur die Risiken betont, blockiert Fortschritt. Strategische Wissenschaftskommunikation muss beides integrieren: realistische Potentiale und klare Begrenzungen.
3. KI als Akteur: Neue Vermittlungsinstanzen
Die dritte Ebene ist neu und strategisch besonders relevant: KI tritt als Akteur auf. Chatbots, Suchsysteme und KI-gestützte Assistenzsysteme werden zu eigenständigen Vermittlungsinstanzen zwischen Organisation und Öffentlichkeit.
Studien zeigen, dass Sprachmodelle kommunikative Marker wie Empathie, Struktur und Responsivität überzeugend simulieren können. In manchen Untersuchungen wurden KI-generierte Antworten teilweise bereits als empathischer und qualitativ hochwertiger bewertet als ärztliche Antworten: Formale Kommunikationsqualität ist kein exklusives menschliches Distinktionsmerkmal mehr.
Hinzu kommt die Beobachtung, dass identische Sprachmodelle in rein sozialer Interaktion unterschiedliche stabile Verhaltensprofile ausbilden können – abhängig von Gesprächsdynamik und Kontext. Auch wenn hier nicht von Persönlichkeit im menschlichen Sinne gesprochen werden kann, entstehen konsistente kommunikative Muster. Botschaften treffen also nicht auf neutrale Kanäle, sondern auf adaptive, kontextabhängige Systeme.
+1. Die vierte Dimension: Interne KI-Kompetenz
Zu den drei Ebenen tritt eine vierte, strukturelle Dimension: interne KI-Kompetenz. Sie umfasst Leitlinien für Einsatzfelder, klare Abgrenzungen, verpflichtende Review-Schritte, konsequente Aufklärung und Qualifizierung, Schulungen zu Prompting, Bias-Erkennung und Fehleranalyse. Sie ist kein operatives Detail, sondern Teil sowohl von kluger Markenführung als auch Corporate Responsibility.
Organisationen, die transparent machen, wie sie KI einsetzen, welche Kontrollmechanismen gelten und wie Verantwortung verteilt ist, stärken ihre Reputation. KI-Kompetenz wird damit selbst zum Vertrauenssignal.
Schlussgedanke: Verantwortung als Wettbewerbsvorteil
Generative KI beschleunigt Kommunikation. Doch Geschwindigkeit ist kein Wert an sich. Für Kommunikationsverantwortliche liegt die eigentliche Herausforderung nicht im Beherrschen neuer Tools, sondern im Gestalten neuer Verantwortungsstrukturen. Wissenschaftskommunikation im Gesundheitswesen zeigt exemplarisch, was branchenweit gilt: Klassische Autoritätsmarker reichen nicht mehr aus. Vertrauen entsteht durch nachvollziehbare Prozesse, transparente Systemnutzung und reflektierte Einordnung.
KI wird professionelle Kommunikation nicht ersetzen, sondern als Tool ergänzen; sie verändert die Maßstäbe, an denen Professionalität gemessen wird. Wer technologische Möglichkeiten mit klarer Governance verbindet, gewinnt nicht nur Effizienz, sondern Glaubwürdigkeit.
Für die Kommunikationsbranche insgesamt bedeutet das: KI ist kein Kreativ-Shortcut und kein Bedrohungsszenario. Sie ist ein Stresstest für strategische Integrität. Die Frage ist nicht, ob wir sie nutzen, sondern wie sichtbar wir Verantwortung übernehmen. Und genau darin könnte künftig der eigentliche Wettbewerbsvorteil liegen.
TAKE AWAY
KI in der Wissenschaftskommunikation – das 3+1-Modell
Für Kommunikationsverantwortliche lohnt ein systematischer Blick: Wo genau greift KI ein – und wo liegt jeweils die Verantwortung? Das 3+1-Modell gibt Orientierung.
1. KI als Werkzeug Effizienz, Skalierung, Strukturierung – unter konsequentem Human-in-the loop-Prinzip.
2. KI als Gegenstand Regulierung, Ethik, Datenschutz, Erwartungsmanagement zwischen Innovation und Schutz.
3. KI als AkteurChatbots und Suchsysteme als neue Vermittlungsinstanzen, die Inhalte transformieren und kontextualisieren.
+1 Interne KI-Kompetenz
Governance, Schulung, transparente Workflows – als Teil von Marken- und Vertrauensstrategie
Roman Möhlmann, M. A., ist Leiter Kommunikation und Marketing der MLL-Gruppe in München. Zuvor verantwortete er als Bereichsleiter Wissenschaftskommunikation bei der Fraunhofer-Gesellschaft langjährig die Kommunikationsstrategie, Medienarbeit und Vorstandspositionierung. Der gebürtige Wuppertaler, Wahlbayer sowie Geschichts-, Politik- und Literaturwissenschaftler schreibt und berät seit vielen Jahren zu Kommunikations- und Wissenschaftsthemen mit Schwerpunkt Innovation und Technologie, KI, Gesundheit, Energie und Public Affairs.

