Der Kampf um die Klicks: Information im digitalen Raum

Die Digitalisierung revolutioniert unseren Alltag. Und beeinflusst, was wir von der Welt sehen. Über die damit verbundenen Risiken und den Umgang damit.

14. Dez 2018 · Jonas Schmid

Heute ist es so einfach wie nie, Informationen zu sammeln und zu teilen. Umso schwieriger ist es geworden, den Durchblick zu behalten.

Der vorliegende Beitrag entstand im Rahmen der Sommerakademie «Science Behind The Scenes» der Schweizerischen Studienstiftung und wurde redaktionell begleitet von reatch.

Auf Facebook werden 317‘000 Status-Updates gepostet, 147‘000 Fotos hochgeladen und 54‘000 Links geteilt. Pro Minute [1]. Früher hatten praktisch ausschliesslich Journalisten, wissenschaftliche Experten und Politiker die Möglichkeit, Informationen auszuwählen und wirkungsvoll zu verbreiten. Heute ist das für fast alle Menschen mit Internetanschluss möglich. Jede und jeder kann über alles schreiben und es ungefiltert mit der ganzen Welt teilen. Die Grenze zwischen Produzent und Konsument verschwimmt. Erst langsam, bald 15 Jahre nach der Gründung von Facebook, verstehen wir, welche Auswirkungen das hat.

Die Macht der Algorithmen

Zwischen den neuen und den altbewährten Medien gibt es einen grundlegenden Unterschied: Bei den traditionellen Massenmedien wie Zeitungen, Fernsehen und Radio nehmen Journalistinnen und Journalisten die Rolle von Vermittlern ein. Sie bekommen Informationen zugesandt, prüfen diese und veröffentlichen sie im Idealfall nur nach zusätzlichen Recherchen und wenn die Qualität stimmt. Diese Kontrolle entfällt in den sozialen Netzwerken grösstenteils.

Die Nutzer von Facebook beispielsweise sind keiner Chefredaktion Rechenschaft schuldig, sondern können publizieren, was ihnen beliebt. Facebook übernimmt für die Inhalte auf seinem Netzwerk kaum redaktionelle Verantwortung, ja weist diese gar explizit von sich [2]. Gelöscht werden nur Dinge, die gegen die eigenen Nutzungsbedingungen verstossen. Inhaltlich fehlerhafte Aussagen, aber auch bewusst manipulative Politpropaganda lässt Facebook hingegen stehen.

Und statt Chefredakteurinnen entscheiden Algorithmen, was die Nutzer zu sehen bekommen. Weil diese Algorithmen dabei helfen sollen, die Werbeeinnahmen für Facebook zu maximieren, steht bei ihrer Auswahl nicht Faktentreue, Relevanz oder Qualität, sondern Aufmerksamkeit und Klick-Potential an erster Stelle. Erst die hitzige Debatte über politische Manipulationen und «Fake News» im Rahmen des US-Wahlkampfs scheint langsam für ein Umdenken bei Facebook zu sorgen [3].

Fake News

Der vieldiskutierte Begriff «Fake News» bezeichnet – im Unterschied zu Zeitungsenten oder Falschmeldungen – bewusst gestreute Fehlinformationen [4]. Fake News sind zwar nichts Neues, doch das Wegfallen einer journalistischen Überprüfung und die effektiveren Kommunikations-möglichkeiten des Internets machen es heute einfacher, sie zu verbreiten. Da sie oft spektakulär sind, werden sie zum Teil sehr schnell und weit verbreitet.

So führte ein inhaltlich falscher Artikel über «Gratis-Führerscheine für Flüchtlinge» in Deutschland zu mehr Interaktionen in sozialen Netzwerken als jeder einzelne Artikel der grossen Nachrichtenportale Spiegel, Süddeutsche Zeitung, FAZ, Stern oder Tagesschau [5]. Problematisch: Eine Korrektur im Nachhinein ist schwierig. Denn Richtigstellungen von älteren Meldungen sind zwar äusserst relevant, jedoch nicht wirklich aufsehenerregend. Deshalb wählen die Algorithmen des Internets sie nicht oft für die Verbreitung aus. Von den Lesern unbemerkt verschwinden die Korrekturen dann in der digitalen Datenflut.

Die Roboter unter uns

Manchmal werden Fake News online gar nicht von Menschen, sondern von sogenannten «Social Bots» verfasst. Das sind kleine Programme, die selbstständig täuschend echte, aber zum Teil inhaltlich falsche Meldungen verfassen und z.B. über Twitter oder Facebook verbreiten. Eine 2017 veröffentlichte Studie schätzt, dass es sich bei 9 bis 15 Prozent aller Twitter Accounts um Bots handelt [6]. Aufgrund ihrer Vielzahl und Produktivität erreichen sie eine enorme Reichweite und verschärfen so die die Problematik von Fake News zusätzlich.

Die Bots versuchen auch die politische Meinung zu beeinflussen: Sie bescheren politischen Nutzerkonten höhere Followerzahlen, manipulieren Videoabrufzahlen und produzieren selbstständig Inhalte, welche sie gleichzeitig über mehrere Konten posten. Dies verhilft bestimmten Themen zu einem Eintrag in die Twitter-Trendliste oder sorgt dafür, dass Hasskommentare auf Facebook verbreitet werden [7].

Social Bots werden so gezielt zur Stimmungsmache missbraucht, wovor man auch hierzulande nicht sicher ist: 2016 schätzte Prof. Simon Hegelich von der TU München, dass es sich auf Twitter bei 15 bis 40 Prozent aller Follower der vier grossen Schweizer Parteien um Social Bots oder inaktive Nutzer handelt [8].

Verschwörungstheorien auf Youtube

Jeden Tag konsumieren Nutzer auf Youtube eine Milliarde Stunden Videomaterial. Davon werden 70 Prozent vom Algorithmus der Videoplattform vorgeschlagen [9]. Youtube zeigt uns aber nicht unbedingt die Videos, die uns besonders gut informieren, sondern diejenigen, die wir am längsten schauen werden. Videos über Verschwörungstheorien oder mit extremen Inhalten ziehen Nutzer schnell in ihren Bann und verleiten sie dazu, sich noch weitere Beiträge anzusehen. Aus diesem Grund werden sie vom Vorschlags-Algorithmus gefördert und generieren oft sehr hohe Zuschauerzahlen [10].

Konkretes Beispiel: In einer Studie suchte Guillaume Chaslot, ein ehemaliger Microsoft- und Google-Ingenieur, nach «is the earth flat or round?». Dabei folgte er jeweils fünf Mal den Empfehlungen von Youtube, wobei mehr als 90 Prozent der empfohlenen Videos behaupteten, die Erde sei flach [11]. Auch Wahlen können beeinflusst werden: Chaslot fand heraus, dass am Tag vor den US-Wahlen 2016 mehr als 80 Prozent der von Youtube empfohlenen Beiträge Donald Trump favorisierten. Suchte man «Trump», wurden einem hauptsächlich Pro-Trump Videos empfohlen. Suchte man «Clinton», erschienen vor allem Anti-Clinton Videos [11].

Neuigkeiten aus der Wissenschaft

Hand in Hand mit dem Aufstieg der Sozialen Netzwerke geht der Niedergang der traditionellen Medien. In den letzten Jahren wurden bei zahlreichen Zeitungen insbesondere Stellen in den Wissenschaftsredaktionen gestrichen [12]. Riskant ist hierbei, dass Mitteilungen aus der Forschung von Journalisten ohne Fachkenntnisse oft falsch interpretiert und nicht richtig eingeschätzt werden. Mediale Berichte über wissenschaftliche Publikationen haben oft einen Hang zur Übertreibung, obwohl gerade neue Resultate in Wissenschaftskreisen oft noch umstritten sind. Gerade deshalb braucht es fähige Journalistinnen und Journalisten, die Forschungsresultate beurteilen und richtig einordnen können. Nur so wird der Leserschaft ein realistisches Bild vermittelt.

Doch wie kann man als Laie die Qualität von Onlinemeldungen beurteilen? Hanna Wick, Leiterin der Sommerakademie «Science behind the Scenes» der Schweizerischen Studienstiftung und Wissenschaftsredaktorin beim SRF, verweist vor allem auf die Wichtigkeit einer guten Quellenkritik. Beim SRF gelte das Zwei-Quellen-Prinzip: Man versuche, alle Meldungen mit einer unabhängigen zweiten Quelle zu verifizieren. Auch lohne es sich zu überprüfen, wer der Verfasser der Meldung ist, und ob Stil und Aufmachung seriös wirken. Zudem könne man sich die Online-Bildsuche zu Nutze machen: Fake News verwenden oft Bilder, die andernorts bereits gebraucht wurden. Dies könne man mit der Bildsuche erkennen und sie so entlarven.

Den Durchblick behalten

Falls man online einen Bericht über einen Skandal aus zweifelhafter Quelle findet, lohne es sich zu recherchieren, ob bereits Medienhäuser darüber berichtet haben, erklärt Wick. Falls dem nicht so ist, handle es sich zwar nicht immer, aber doch relativ oft um Fake News. Ein weiteres verdächtiges Merkmal für unzuverlässige Nachrichten könne missionarischer Eifer sein, der ohne Einordnung nur in eine Richtung zielt. Sie erwähnt zudem, dass man bei Unklarheiten durchaus eine Journalistin oder einen Journalisten kontaktieren und um eine Einschätzung bitten dürfe.

Wick hebt noch einen weiteren Punkt hervor: Informationen, welche die eigene Meinung bestätigen, würden tendenziell weniger infrage gestellt und schneller übernommen. Hier gelte es, sich dieser möglichen Befangenheit bewusst zu sein und kritisch zu bleiben.

Sie betont aber auch, dass das Internet bezüglich des Informationsverhaltens viele Chancen mit sich bringe. So könne man Meldungen mithilfe von Fact-Checking Webseiten direkt auf ihren Wahrheitsgehalt überprüfen oder selber online weiterrecherchieren. Denn grundsätzlich seien zuverlässige Informationen so leicht zugänglich wie nie zuvor. Und jede und jeder könne zur Bekämpfung von Fake News beitragen: Bei verdächtigen Beiträgen auf Social Media helfe es beispielsweise schon, sich in die Diskussion einzubringen und vertrauenswürdige Quellen beizusteuern.

Den Original-Beitrag gibt es hier zu lesen.

[1] Omnicore Agency. Facebook by the Numbers: Stats, Demographics & Fun Facts. 2018. https://www.omnicoreagency.com/facebook-statistics/ (abgerufen am 23.11.2018).

[2] Koene, Ansgar. Facebooks Algorithmen sorgen für mehr redaktionelle Verantwortung. Netzpiloten Magazin. 2017. https://www.netzpiloten.de/facebooks-algorithmen-redaktion-verantwortung/ (abgerufen am 11. Dezember 2018).

[3] Levin, Sam. Is Facebook a publisher? In public it says no, but in court it says yes. The Guardian. 2018. https://www.theguardian.com/technology/2018/jul/02/facebook-mark-zuckerberg-platform-publisher-lawsuit (abgerufen am 11. Dezember 2018).

[4] Müller, Philipp und Nora Denner. Was tun gegen „Fake News“? Eine Analyse anhand der Entstehungsbedingungen und Wirkungsweisen gezielter Falschmeldungen im Internet. Gutachten für die Friedrich Naumann Stiftung. Berlin. 2017. http://www.nccr-democracy.uzh.ch/publications/pdf/pmueller_fakenews.pdf (abgerufen am 23.11.2018).

[5] Schmehl, Karsten. Diese News über kostenlose Führerscheine für Flüchtlinge ist fake, aber sehr erfolgreich. Buzzfeed. 2017. https://www.buzzfeed.com/de/karstenschmehl/diese-news-uber-kostenlose-fuhrerscheine-fur-fluchtlinge?utm_term=.bxz76dbre#.gnAvjxzXY (abgerufen am 31.08.2018).

[6] Varol, Onur, Emilio Ferrara, Clayton A. Davis, Filippo Menczer und Alessandro Flammini. Online Human-Bot Interactions: Detection, Estimation, and Characterization. arXiv. 2017. arXiv:1703.03107 (abgerufen am 23.11.2018).

[7] ZEIT ONLINE, dpa, sk. Twitter überprüft Tausende Nutzerkonten. ZEIT ONLINE. 2018. https://www.zeit.de/digital/2018-02/social-bots-twitter-konten-gesperrt (abgerufen am 26.11.2018).

[8] Fuchs, Martin. Warum Social Bots unsere Demokratie gefährden. Neue Zürcher Zeitung. 2016. https://www.nzz.ch/digital/automatisierte-trolle-warum-social-bots-unsere-demokratie-gefaehrden-ld.116166 (abgerufen am 26.11.2018).

[9] Rodriguez, Ashley. YouTube’s recommendations drive 70% of what we watch. Quartz Media. 2018. https://qz.com/1178125/youtubes-recommendations-drive-70-of-what-we-watch/ (abgerufen am 26.11.2018).

[10] Popken, Ben. As algorithms take over, YouTube’s recommendations highlight a human problem. NBC News Digital. 2018. https://www.nbcnews.com/tech/social-media/algorithms-take-over-youtube-s-recommendations-highlight-human-problem-n867596 (abgerufen am 26.11.2018).

[11] Chaslot, Guillaume und Andreea Gorbatai. YouTube’s A.I. was divisive in the US presidential election. Medium. 2016. https://medium.com/the-graph/youtubes-ai-is-neutral-towards-clicks-but-is-biased-towards-people-and-ideas-3a2f643dea9a (abgerufen am 26.11.2018).

[12] Stephan Russ-Mohl. Opfer der Medienkonvergenz? Wissenschaftskommunikation und Wissenschaftsjournalismus im Internet-Zeitalter. In: Stephan Füssel (Hrsg.). Medienkonvergenz-transdisziplinär. 2012.

Autor*Innen

Jonas Schmid ist Geförderter der Schweizerischen Studienstiftung und studiert Medizin an der Universität Zürich.

Disclaimer

Der vorliegende Blogeintrag gibt die persönliche Meinung der Autoren wieder und entspricht nicht zwingend derjenigen von reatch oder seiner Mitglieder.