Fehlinformationen, MIT-Studie: Irreführende Schlagzeilen können mehr Schaden anrichten als Fake News

Fehlinformationen, MIT-Studie: Irreführende Schlagzeilen können mehr Schaden anrichten als Fake News
Fehlinformationen, MIT-Studie: Irreführende Schlagzeilen können mehr Schaden anrichten als Fake News

Untersuchungen des MIT und der University of Pennsylvania haben gezeigt, dass sachliche Inhalte, die jedoch auf mögliche Gefahren von Covid-19-Impfstoffen hinweisen, ein größeres Potenzial haben, die Bevölkerung davon abzuhalten, sich impfen zu lassen: Hier ist, was sie herausgefunden haben

Die Verbreitung von kontextfremden oder gar falschen Inhalten ist ein Problem, das zunehmend unter die Lupe von Regulierungsbehörden und großen Plattformen gerät. In Science veröffentlichte Forschungsergebnisse bieten wichtige Denkanstöße: Irreführende Nachrichten, solche, die sich in einer „Grauzone befinden, die sich Faktenprüfern entzieht“, d. h. „Inhalte, die sachlich korrekt, aber dennoch irreführend sind“, richten mehr Schaden an als gefälschte. Oder zumindest – wie aus den Ergebnissen der Studie einer Forschungsgruppe des MIT und der University of Pennsylvania hervorgeht – geschah dies mit Impfstoffen gegen Covid-19 in den Vereinigten Staaten, basierend auf der Analyse von über 13.000 auf Facebook gepostete Beiträge. Die Ergebnisse der Studie deuten darauf hin, dass mehrdeutige Inhalte, die von Faktenprüfern nicht als falsch gekennzeichnet wurden, aber Zweifel an der Wirksamkeit und Sicherheit von Impfstoffen aufkommen ließen, 46-mal wirksamer bei der Auslösung von Impfskepsis waren als Fehlinformationen, die als solche gekennzeichnet wurden.

Wie viele verschiedene Arten von Inhalten sind im Umlauf?

Die Forschung wurde, wie erwähnt, von einer Gruppe des MIT und der University of Pennsylvania durchgeführt und nutzte – wie im Beitrag hervorgehoben wird – von Facebook zur Verfügung gestellte Daten. Die Forscher wählten 13.206 Links aus, die auf Inhalte zu Covid-19-Impfstoffen verwiesen, mindestens hundert Mal auf der Plattform geteilt wurden und in den ersten drei Monaten der Impfkampagne in den USA (zwischen Januar und März 2021) veröffentlicht wurden. . In diesem Zeitraum wurden als Fehlinformationen gemeldete Inhalte 8,7 Millionen Mal aufgerufen, was nur 0,3 % der Aufrufe aller Impfinhalte auf Facebook in diesem Zeitraum ausmacht. Stattdessen wurden Inhalte, die „nicht von Faktenprüfern gemeldet worden waren, aber dennoch implizierten, dass Impfstoffe gesundheitsschädlich seien – viele davon aus glaubwürdigen und weit verbreiteten Medien – hunderte Millionen Mal angesehen.“

lesen Sie auch

KI zwischen Vorurteilen und Fehlinformationen: Gina Neff spricht

Die Macht von Inhalten in der „Grauzone“

Inhalte, die einen möglichen Schaden andeuteten, aber keine offensichtlichen Unwahrheiten enthielten, wurden viel häufiger aufgerufen als Inhalte, die offen als falsch gekennzeichnet wurden. Die Studie ging jedoch noch tiefer: Welche dieser Inhaltskategorien haben der Impfkampagne den größten Schaden zugefügt? Eine an über 18.000 Menschen durchgeführte Umfrage auf der Grundlage von 130 Titeln zum Thema Impfstoffe ergab, dass als Fehlinformation gemeldete Inhalte Menschen besser davon abhalten können, sich impfen zu lassen, als nicht gemeldete Inhalte. Kombiniert man jedoch die Überzeugungskraft der Inhalte mit der Häufigkeit, mit der sie aufgerufen werden, hat die Menge an Inhalten, die in der „Grauzone“ zwischen wahr und falsch liegen, eine 46-mal größere Fähigkeit, die Bevölkerung von einer Impfung abzuhalten.

lesen Sie auch

Wahlen: So reagierten die Plattformen auf Fehlinformationen

Ein einzelner Inhalt wird häufiger gesehen als alle Fake News

Die Studie liefert ein bedeutendes Beispiel für diesen Effekt: Ein von der Chicago Tribune veröffentlichter Artikel mit dem Titel „Ein gesunder Arzt stirbt zwei Wochen nach der Impfung, das CDC untersucht die Ursachen“ wurde von mehr als 50 Millionen Menschen gesehen. Dies ist sechsmal höher als die Anzahl der Aufrufe aller als Desinformation gemeldeten Inhalte zusammen. „Die Covid-19-Pandemie wurde durch den schlechten Einsatz von Impfstoffen verschärft, der durch die Verbreitung von Fehlinformationen verursacht wurde“, schrieb Ekeoma Uzogara, Herausgeberin von Science. „Glücklicherweise wurden die Auswirkungen offensichtlich falscher Informationen über Impfstoffe auf Facebook erheblich abgemildert, nachdem die Beiträge von Faktenprüfern überprüft und gemeldet wurden. Die unklaren Informationen blieben jedoch verschwiegen. Die Forscher untersuchten eine Grauzone, die Faktenprüfern entgehen kann: echte Nachrichten, aber mit irreführendem Inhalt. Dieser Inhalt hat Zweifel an der Sicherheit oder Wirksamkeit von Impfstoffen geweckt.“

lesen Sie auch

TikTok, automatische Kennzeichnung von durch KI generierten Inhalten Dritter

„Die Medien sollten auf Schlagzeilen achten“

„Unsere Analyse legt nahe, dass Facebook-Faktenprüfer die schädlichsten Fehlinformationen identifiziert haben, sodass auf Facebook gute Arbeit geleistet wurde“, sagte Jennifer Allen, MIT-Forscherin und Co-Autorin der Studie, gegenüber El Pais. „Allerdings können auch andere Geschichten viral gehen, und schlechte Akteure können rigorose Geschichten nutzen, um irreführende Narrative zu verbreiten, etwas, bei dem Plattformen vorsichtiger sein sollten.“ Aber auch die Medien sollten sich dessen bewusst sein, wenn sie Schlagzeilen schreiben, denn ihre Inhalte können aus dem Kontext gerissen werden.“ Für Allen ist „der Wettbewerb um Klicks eine Herausforderung, aber ich glaube nicht, dass das die Medien aus der Klemme bringt.“ Journalisten sollten bedenken, dass online nur Schlagzeilen gelesen werden und Geschichten aus dem Kontext gerissen werden können. Sie sollten sich bemühen, mögliche Fehlinterpretationen ihrer Arbeit zu vermeiden.“

lesen Sie auch

Wie KI eine ukrainische YouTuberin in ein russisches Mädchen verwandelte

Das AI4TRUST-Projekt

Der Kampf gegen Desinformation steht auch im Mittelpunkt von AI4TRUST, einem europäischen Projekt, das durch das Horizon Europe-Programm der Europäischen Union finanziert wird und dessen Partner Sky TG24 ist. AI4TRUST wurde mit dem Ziel gegründet, eine Plattform gegen Desinformation zu entwickeln, die den Beitrag künstlicher Intelligenz mit den Kontrollen von Journalisten und Faktenprüfern kombiniert.

lesen Sie auch

Desinformation und generative KI, Whitepaper: Wo wir sind




PREV Covid und Fernunterricht: 84 Prozent der italienischen Studierenden und anderen fühlen sich dank der digitalen Welt sicherer und besser vorbereitet
NEXT Covid: Andere Mikroben schützen Kinder vor schweren Verläufen