Info Interventions
: Eine Auswahl an Lösungsansätzen, mit denen sich Menschen besser gegen die Radikalisierung im Internet wappnen können. Die Methoden basieren auf Studien der Verhaltensforschung. Ihre Wirksamkeit wurde in Testumgebungen geprüft.
Inhaltswarnungen
Aufmerksamkeit wieder auf den Wahrheitsgehalt lenkenHypothese
Funktionsweise
-
1
1. Eine Person scrollt durch ihre Social-Media-Feeds und stößt dabei auf Inhalte mit möglichen Falschinformationen.
-
2
2. Eine Inhaltswarnung wird ausgelöst und über dem entsprechenden Inhalt angezeigt.
-
3
3. Die Person sieht eine kurze Erklärung, warum ihr der Warnhinweis angezeigt wird. Die Aufmerksamkeit des Nutzers richtet sich jetzt darauf, den Wahrheitsgehalt des Inhalts kritisch zu hinterfragen. Außerdem enthält die Meldung Tipps, wie sich die Informationskompetenz stärken lässt.
-
4
4. Die Person wird nun aufgefordert, Informationen aufmerksamer zu prüfen. Wenn sie das nächste Mal auf ähnliche Inhalte in ihrem Feed stößt, geht sie deshalb unter Umständen kritischer damit um.
Ergebnisse
-
50%
Diejenigen, die Inhaltswarnungen erhalten haben, zeigten sich beim Teilen 50 % kritischer, als diejenigen, die keine Warnhinweise angezeigt bekommen haben. Quelle: Jigsaw.
-
11%
Über Pre-Roll-Videos auf YouTube wuchs das Vertrauen in richtige Inhalte innerhalb von drei Wochen nach der Veröffentlichung um 11 %. Quelle: Jigsaw.
Beispiele
Für diese Tests wurden Onlineumfragen in 16 Ländern mit mehr als 30.000 Teilnehmern durchgeführt. Die Teilnehmer sollten angeben, wie oft sie Nachrichtenüberschriften, die entweder Fehlinformationen enthalten oder faktenbasiert sind, mit anderen Nutzern teilen möchten.
Ressourcen
Redirect Method
Radikalisierung im Internet verhindernHypothese
Funktionsweise
-
1
1. Eine Person führt eine Onlinesuche durch und verwendet dabei Suchbegriffe, die Interesse an extremistischer Propaganda offenbaren.
-
2
2. „The Redirect Method“ erkennt den Suchbegriff und zeigt automatisch Anzeigen mit aufklärendem Inhalt zum Thema an.
-
3
3. Die Person sieht eine Anzeige, die mehr Informationen zum jeweiligen Thema bietet.
-
4
4. Wenn die Person auf die Anzeige klickt, wird sie zu Inhalten weitergeleitet, die den Falschinformationen in extremistischen Narrativen etwas entgegensetzen.
Ergebnisse
Beispiele
Entsprechende Inhalte wurden von Nutzern weltweit hochgeladen, die der Radikalisierung im Internet etwas entgegensetzen wollten. Sachverständige Fachleute wählten aus diesem Korpus das passende Material aus.
Die Kampagne legte den Fokus auf den Teil von ISIS-Sympathisanten, der am empfänglichsten für die Rekrutierungsbotschaften ist. Dabei zeigte sich, dass auch Inhalte, die nicht direkt als Gegennarrativ entwickelt wurden, radikalisierende Erzählungen unterlaufen können. Voraussetzung dafür ist, dass die Inhalte sorgfältig ausgewählt, strukturiert präsentiert und passend für die Zielgruppe sind. Seit 2016 arbeitet Moonshot mit verschiedenen Technologieunternehmen als Partner zusammen, darunter Facebook. Auf den Plattformen sollen über Anzeigen auch Menschen erreicht werden, die durch ihr Onlineverhalten Interesse an anderen Formen von Radikalisierung zeigen, zum Beispiel in Bezug auf rassistische Haltungen, ausgeprägte Frauenfeindlichkeit oder Verschwörungstheorien.
Prebunking
Widerstandsfähigkeit gegenüber Manipulation erhöhenHypothese
Funktionsweise
-
1
1. Eine Gruppe von Nutzern sieht ein Prebunking-Video in den Feeds der sozialen Medien.
-
2
2. In dem kurzen Video wird die Person über Manipulationsversuche aufgeklärt, die ihr online unter Umständen begegnen.
-
3
3. Außerdem werden den Personen relevante Beispiele für eine Manipulationsstrategie oder ein typisches Narrativ gezeigt. Anschließend erhalten sie Gegenargumente, anhand derer sich bestimmte Behauptungen widerlegen lassen.
-
4
4. Im Anschluss erfolgt eine kleine Umfrage. Je nachdem wie gut die Personen, die das Video gesehen haben, sich dabei im Vergleich zur Kontrollgruppe an die Techniken erinnern können, lässt sich die Wahrscheinlichkeit einschätzen, wie resilient diese Nutzer in Zukunft gegen manipulative Inhalte sind.
Ergebnisse
-
73%
aller Personen, die ein Prebunking-Video angesehen haben, waren langfristig eher in der Lage, Fehlinformationen im Internet zu erkennen. Quelle: Science Advances .
-
5%
Durch Prebunking-Videos, z. B. YouTube-Anzeigen, wurden Manipulationstechniken um 5 % häufiger erkannt. Quelle: Science Advances.
Ansätze und Beispiele
Ressourcen
Jigsaw ist ein Tochterunternehmen von Google, bei dem es um die Entwicklung skalierbarer Technologielösungen zum Schutz vor Bedrohungen für offene Gesellschaften geht.