Laut einer neuen Studie scheinen Twitter-Bots und Trolle Online-Diskussionen über Impfungen zu verzerren, Fehlinformationen zu diesem Thema zu verbreiten und Online-Zwietracht zu schüren.
"Die überwiegende Mehrheit der Amerikaner glaubt, dass Impfstoffe sicher und wirksam sind, aber ein Blick auf Twitter erweckt den Eindruck, dass viel diskutiert wird", so der leitende Studienautor David Broniatowski, Assistenzprofessor an der School of Engineering and Applied Science der George Washington University in Washington , DC, sagte in einer Erklärung. "Es stellt sich heraus, dass viele Anti-Impfstoff-Tweets von Konten stammen, deren Herkunft unklar ist", sagte Broniatowski, einschließlich Bots oder gehackter Konten.
"Obwohl es unmöglich ist, genau zu wissen, wie viele Tweets von Bots und Trollen generiert wurden, deuten unsere Ergebnisse darauf hin, dass ein erheblicher Teil des Online-Diskurses über Impfstoffe von böswilligen Akteuren mit einer Reihe versteckter Agenden generiert werden kann", fügte er hinzu.
Die Forscher fanden heraus, dass sogenannte "Content Polluters" - Bot-Accounts, die Malware und unerwünschte kommerzielle Inhalte verbreiten - Anti-Impfstoff-Nachrichten 75 Prozent mehr als durchschnittliche Twitter-Nutzer austauschten.
Diese Bot-Accounts schienen Anti-Impfstoff-Nachrichten als "Köder" zu verwenden, um Follower dazu zu bringen, auf Anzeigen und Links zu bösartigen Websites zu klicken, sagten die Forscher. "Ironischerweise können Inhalte, die die Exposition gegenüber biologischen Viren fördern, auch die Exposition gegenüber Computerviren fördern", sagte die Co-Autorin der Studie, Sandra Crouse Quinn, Professorin an der School of Public Health der University of Maryland, in der Erklärung.
Russische Trolle und anspruchsvollere Bot-Accounts twitterten ebenfalls häufiger über Impfungen als durchschnittliche Twitter-Nutzer, so die Studie. Aber diese Troll-Accounts posteten sowohl Pro-Impf- als auch Anti-Impfstoff-Botschaften - eine Taktik, die Zwietracht fördert.
Diese Tweets verwendeten oft polarisierende Sprache und banden die Botschaften an politische Themen oder Konzepte wie "Freiheit", "Demokratie" und "Verfassungsrechte", sagten die Forscher.
Zum Beispiel lautete ein Anti-Impfstoff-Tweet unter dem Hashtag VaccinateUS, einem Hashtag, der mit russischen Trollkonten verknüpft ist: "#VaccinateUS obligatorische # Impfstoffe verletzen verfassungsrechtlich geschützte Religionsfreiheiten." Ein Impfstoff-Tweet unter diesem Hashtag lautete: "#VaccinateUS Meine Freiheit endet dort, wo die einer anderen Person beginnt. Dann sollten Kinder # geimpft werden, wenn eine Krankheit für ANDERE Kinder gefährlich ist."
"Diese Trolle scheinen Impfungen als Keilproblem zu verwenden, was zu Zwietracht in der amerikanischen Gesellschaft führt", sagte der Co-Autor der Studie, Mark Dredze, Professor für Informatik an der Johns Hopkins University in Baltimore, in der Erklärung. "Indem sie beide Seiten spielen, untergraben sie jedoch das Vertrauen der Öffentlichkeit in Impfungen und setzen uns alle dem Risiko von Infektionskrankheiten aus. Viren respektieren nicht die nationalen Grenzen."
Es sind Forschungsarbeiten erforderlich, wie diese Anti-Impfstoff-Meldungen bekämpft werden können, ohne den Inhalt von Troll- und Bot-Konten unbeabsichtigt zu "füttern". Zu diesen Strategien gehört "die Betonung, dass ein erheblicher Teil der Antivakzinierungsnachrichten auf" Kunstrasen "(d. H. Nicht an der Basis) organisiert ist", schrieben die Forscher in ihrer Arbeit. "Astroturfing" ist ein Begriff, der verwendet wird, wenn Leute die Sponsoren einer Nachricht maskieren, um den Eindruck zu erwecken, dass sie von der Basis unterstützt wird, wenn dies nicht der Fall ist, sagten die Forscher.
In Bezug auf die Anti-Impfstoff-Botschaften, die von Inhaltsverschmutzern verbreitet werden, "könnten Beamte der öffentlichen Gesundheit in Betracht ziehen, zu betonen, dass die Glaubwürdigkeit der Quelle zweifelhaft ist und dass Benutzer, die solchen Inhalten ausgesetzt sind, möglicherweise häufiger auf Malware stoßen", schrieben die Forscher.