Für Menschen unter 30 sind Social Media Plattformen die zentrale Informationsquelle. Das gilt für Unterhaltung und Lifestyle ebenso wie für Politik, Gesellschaft – und auch Gesundheit. Informationen zu gesundem Lebensstil, zu Früherkennungsuntersuchungen, Aufklärung über medizinische Falschinformationen – „Wer Menschen dieser Altersgruppe erreichen will, kommt um Social Media nicht herum“, sagt Nicolas Merl, Psychologe im Deutschen Krebsforschungszentrum. Doch Einrichtungen des öffentlichen Gesundheitswesens haben oft nicht die notwendigen Ressourcen, um dauerhaft qualitativ hochwertige Social Media-Beiträge zu erstellen. Eine Lösung für dieses Dilemma könnten KI-generierte Inhalte sein.
KI-Inhalte erzielen mehr Aufmerksamkeit und Interaktion
Doch wie werden KI-generierte Inhalte von den Nutzern angenommen und wahrgenommen? Ein Team um Erstautor Nicolas Merl hat dafür eine systematische Übersichtsarbeit samt Meta-Analyse durchgeführt. Die Forschenden werteten 33 internationale Studien aus, die zwischen 2020 und 2025 erschienen sind und KI-generierte mit von Menschen erstellten Inhalten vergleichen.
Das Ergebnis: KI-generierte Beiträge führten im Durchschnitt zu 12 Prozent mehr Interaktionen – etwa Likes, Shares, Kommentare oder Klicks – als vergleichbare Inhalte, die von Menschen erstellt wurden. Auch die Qualität der Beiträge wurde häufig positiv bewertet. Zwar war dieser Trend statistisch nicht in allen Studien signifikant, jedoch zeigte sich eine klare Tendenz zugunsten von KI-basierten Inhalten. „Besonders gut wirken Beiträge, die sowohl als glaubwürdig wahrgenommen werden als auch emotional gestaltet sind“, erklärt Erstautor Merl.
Chancen und Verantwortung für die Krebsprävention
KI-generierte Social Media Inhalte ermöglichen große Reichweiten bei niedrigen Kosten, personalisierte Präventionsbotschaften, mehrsprachige und barrierearme Informationen sowie schnelle Reaktion auf neue Informationsbedarfe. Doch gleichzeitig betonen die Forschenden die Notwendigkeit klarer Leitlinien. KI darf nicht zu Verunsicherung oder zur Verbreitung ungewollter Fehlinformationen führen. „Generative KI bietet enorme Chancen für die öffentliche Gesundheit, aber nur, wenn Transparenz, fachliche Überprüfung und ethische Regeln eingehalten werden“, sagt Studienleiter Titus Brinker vom DKFZ. Er und sein Team fordern deshalb für den Einsatz von KI-generierten Inhalten in der Gesundheitskommunikation:
- Transparenz über den Einsatz von KI („erstellt mit KI“),
- Fachliche Kontrolle der Inhalte durch Expertinnen und Experten,
- Vermeidung manipulativer emotionaler Darstellungen,
- Qualitätssicherung durch institutionelle Standards
Nicolas B. Merl, Franziska Schramm, Christoph Wies, Jana T. Winterstein, Titus J. Brinker: Generative AI in social media health communication: systematic review and meta-analysis of user engagement with implications for cancer prevention
European Journal of Cancer, 2025, https://doi.org/10.1016/j.ejca.2025.116114