Warum der bisherige Kampf gegen #hatespeech und #fakenews auf Facebook irreführend ist – und welche Alternativen sich bieten

Facebook: "Freunde" in und als GefahrDie Debatte um Fake News und Hatespeech droht, in der falschen Spur stecken zu bleiben. Dabei liegen Vorschläge vor, die der digitalen Radikalisierung konstruktiv begegnen und das Feld nicht intransparenten Unternehmen wie Facebook überlassen…Beitrag von Julia Krüger vom 15. Januar 2017 bei netzpolitik.org externer Link. Aus dem Text:

  • … Vernachlässigt wurde die Manipulation der Diskurse durch Facebook selbst, die über eine Verstärkung beliebter („relevanter“) Inhalte weit hinaus geht. Einer in Expertenkreisen breit diskutierten Studie zufolge ist von einer systematischen und äußerst intransparenten Reduktion der Vielfältigkeit der den Nutzern im Newsfeed angezeigten Inhalte auszugehen, sowohl in Bezug auf die Anzeige als solches (5-8%) wie auch ihre Plazierung im Feed (Anteil offen). Beides beeinflusst die „natürliche Selektion“ der Nutzer (6-17%) elementar. Eine solche Förderung divergenter Diskursräume erinnert an den Turmbau zu Babel: Durch die Förderung divergenter Diskursräume (unterschiedliche Sprachen) verliert sich die gesellschaftliche Kooperation (der Turmbau) in Unverständnis und Verwirrung. Sie bereitet den Boden für die Verstärkung extremer Weltsichten, Hatespeech und Fake News, lernen doch Algorithmen und Menschen durch Wiederholung. Sie behindert den gesellschaftlichen Diskurs – und das in Zeiten eines disruptiven, technologisch-ökonomischen Wandels, der innovative Adaption und Politikgestaltung so dringend macht. Darüber hinaus hat die jüngste US-Wahl deutlich gezeigt, dass sich über Facebook mit umfangreichen, zunehmend verknüpften Datensätzen nicht nur eine äußerst genaue Wählermanipulation austesten, sondern offenbar auch machen lässt…