Von Clickbaiting auf Transparenz: die Online-Welt

Verhaltenswissenschaftliche Perspektiven auf einer alternativen Internet-Reimagining.

Sie Scrollen durch Ihren YouTube, Facebook oder Twitter-Feed, wenn ein Video erscheint: ein Bericht über geheime politische Angebote, Medien Verschwörungen oder gefälschte wissenschaftliche Studien. Alles scheint durch Tatsachen gesichert werden. Das Video hat Hunderttausende von Klicks und erscheint Traktion weltweit zu gewinnen. Und viele Zuschauer scheinen damit einverstanden sind, gegeben hat es ein „Daumen nach oben.“ Aber was genau bedeutet das alles? Ist es das Video glaubhaft machen? Wie viele Zuschauer das Video zu Ende angeschaut; wie viele links auf halbem Weg? Und warum erscheint das Video in Ihrem Feed in erster Linie? Die Online-Plattform kennt viele Antworten, aber es funktioniert nicht, diese Informationen teilen. Und keine anderen Signale werden zur Verfügung gestellt, dass Sie den Inhalt, die Qualität oder die Glaubwürdigkeit des Videos beurteilen helfen könnte.

Laut dem Reuters Institute Digitale News Report 2019 mehr als die Hälfte (55%) der Internet-Nutzer weltweit nutzen jetzt Social Media oder Suchmaschinen mit den Nachrichten zu halten. Mit anderen Worten, ist die öffentliche Meinung weitgehend von Online-Inhalten, geformt, die wiederum durch Algorithmen kuratiert ist. „Das Ziel ist es, Benutzern für so lange wie möglich bei Laune zu halten, so dass sie auf der Plattform bleiben. Das wird erreicht, indem Unterhaltung bietet und ein Gefühl des Wohlbefindens, zur Gründung der wahrscheinlich erklärt, warum viele Plattformen haben keine Abneigung" Schaltflächen können Benutzer Abwärts Abstimmung Inhalt Das Gefühl Wesen vermittelt ist:.. Du hast Recht Das mag harmlos sein, wenn wir private Inhalte wie Urlaubsfotos zu teilen, aber es verzerrt das Bild, wenn was Ausbreitung sein radikale Meinungen und Unwahrheiten sind“, sagt Co-Autor Stephan Lewandowsky, Professor für Kognitive Psychologie an der University of Bristol.

Ein weiteres Problem besteht darin, dass Newsfeed Algorithmen zeigt nur Benutzer Inhalte, die auf der Grundlage ihres bisherigen Online-Verhalten, sie sind wahrscheinlich zu stimmen. Andere Gesichtspunkte eher nicht zu überhaupt gezeigt. Dies schafft Netzwerke von gleichgesinnten Benutzern, die gemeinsame Meinungen verstärken und die Illusion der breiten Unterstützung zu schaffen, auch wenn eine Meinung eigentlich nicht weit gehalten ist. Aber wie kann der Anwender unterscheiden gefälschte Nachrichten aus Fakten? Und wie Online-Umgebungen müssen entwickelt werden, um diese Bemühungen zu unterstützen? „Die Interventionen schlagen wir vor, werden zur Stärkung der Stellung einzelne Nutzer richten informiert und autonome Entscheidungen in Online-Umgebungen zu machen, im Idealfall, ohne auf unabhängige Tatsache Kontrolleure zu bauen. Die Architektur von Online-Umgebungen Einflüssen Nutzerverhalten. Um dieses Umfeld zum Besseren zu verändern, Blei-Autor der Studie und Forscher am Max-Planck-Institut für Bildungsforschung müssen wir die menschliche Verhalten verstehen und dieses Verhalten berücksichtigt in Design-Entscheidungen nehmen“, sagt Philipp Lorenz-Spreen.

Das Forscherteam hat eine Reihe von Möglichkeiten identifiziert Benutzer zu helfen, die Qualität von Internet-Inhalten zu bewerten und die Mechanismen hinter Algorithmen zu verstehen, ohne die Freiheiten im Mittelpunkt der ursprünglichen Philosophie des Internet beschneidet. Diese Möglichkeiten sind technisch machbar, aber bisher weitgehend ungenutzt. Das Forscherteam hat Online-Empfehlungen zu bevollmächtigen Personen spezifische entwickelt, von den Verhaltenswissenschaften auf zwei Ansätze zeichnen: Anstoßen und zu steigern.

Ziele nudging durch Hervorhebung wichtige Informationen des Verhalten der Menschen zu lenken, ohne Regeln oder Verbote auferlegt. Ziele Förderung von Menschen Entscheidungskompetenz zu verbessern, sie ermöglicht, Situationen autonom zu navigieren und bessere Entscheidungen zu treffen. Nach Angaben der Forscher ist es wichtig, einen mehrgleisigen Ansatz zu nehmen, so viele Menschen wie möglich zu erreichen. Nudging verwendet werden könnte, zum Beispiel, um anzuzeigen, ob der Inhalt bestimmte Qualitätskriterien, wie zum Beispiel erfüllt, ob es aus vertrauenswürdigen Quellen stammt. Dies würde sowohl den Benutzer auffordern, Inhalt gründlich zu überprüfen und eine Anreizstruktur schaffen für Content-Produzenten die erforderlichen Kriterien zu erfüllen. Einschließlich Hyperlinks zu prüft Quellen wäre ein weiterer Schritt sein. Wikipedia könnte als Vorbild dienen hier: Die Verweise und Querverweise es Hilfe bietet präsentiert die Informationen kontextualisieren. Twitter hat vor kurzem einen Schritt in dieser Richtung und damit begonnen, einige Tweets mit einer Fact-Check Warnung markiert werden, einschließlich einem Tweet von Donald Trump zum Thema Briefwahl.

Nudges könnte auch zusätzliche Informationen über andere Benutzer des Online-Verhalten kommunizieren, so dass weiteren Kontext auf, wie andere Inhalte zu bewerten. Zum Beispiel könnte die Anzahl von Leuten in Bezug auf die Gesamtzahl der Leser eingestellt werden: „4287 von 1,5 Millionen Lesern dieser Artikel gefallen hat“ Die Information, dass es 44.000 Klicks auf einem Artikel waren, aber dass nur 3.000 Benutzer es bis zum Ende lesen können ein besserer Indikator für die Qualität als Anzahl von Klicks sein und gern allein. Es hat sich gezeigt, dass eine transparente numerische Formate medizinische Entscheidungen verbessern. Warum sollte nicht gleich mit dem Internet bewerben? Dieser Ansatz könnte die Bildung von Echokammern, in denen Gruppen von Menschen glauben fälschlicherweise, dass ihre Meinung ist weit verbreitet und akzeptiert verhindern.

Eine andere Möglichkeit könnte sein, um es Benutzern zu teilen Informationen etwas schwieriger zu machen, wenn ein Artikel nicht externe Referenzen nennen. Zum Beispiel könnten Benutzer erforderlich vorbei an einem Popup-Fenster klicken, um eine Warnung enthalten, dass Verweise fehlen. Ein andere Art von Schub könnte Ziel, wie Inhalte in Browsern angeordnet ist, das heißt, die Art und Weise eine Art Newsfeed Inhalt. Klar zwischen Inhaltstypen differenzieren, wie Meinungen, Nachrichten oder Beiträgen von Freunden kann, machen Newsfeed transparenter.

Steigerung im Gegensatz dazu Ziele Benutzer Kompetenz auf lange Sicht zu verbessern. Dies könnte zum Beispiel bedeuten, Menschen zu befähigen, anzupassen, wie sie ihre Newsfeed sortiert sind, lassen sie ihre Einstellungen ändern, welche Faktoren am wichtigsten sind sie zu reflektieren und welche Inhalte sie wollen zuerst sehen. Soziale Netzwerke könnten verpflichtet werden, um anzuzeigen, warum einige Inhalte stärker gewichtet wird und erste gezeigt, während andere Inhalte mit niedrigerer Priorität gegeben wird. Ein weiteres Beispiel für einen Schub wäre, die ursprüngliche Quelle einer Information und der Route zu präsentieren, durch die es einem Benutzer erreicht. Einfache Entscheidungsbäume könnten führen den Benutzer durch eine Schritt-für-Schritt-Verfahren zur Überprüfung der Herkunft, den Kontext und die Qualität von Online-Inhalten. Mit anderen Worten, würde Benutzer die Werkzeuge gegeben werden, um Tatsache Kontrolleure selbst geworden. Auf lange Sicht würden sie lernen, Muster zu erkennen, kritisch zu beurteilen Inhalt und Manipulation schneller zu erkennen.

„Der interaktive Charakter der sozialen Medien könnte nutzbar gemacht werden, um diversen demokratischen Dialog und fördern kollektive Intelligenz zu fördern. Unser Ziel ist es, Wege zu finden, das Potenzial des Internet zu stärken, die Entscheidungsprozesse in demokratischen Gesellschaften zu informieren, sie stärkt, anstatt sie zu untergraben. Globale Probleme wie Klimawandel und die corona Pandemie, kollektive Lösungen erfordern deshalb eine koordinierte. und die eine demokratisch verschaltet Online-Welt entscheidend macht“, sagt Ralph Hertwig, Direktor des Zentrums für Adaptive Rationality am Max-Planck-Institut für Bildungsforschung.

Quelle: Max Planck Institute for Human Development. "From clickbait to transparency: Reimagining the online world: Behavioral science perspectives on an alternative Internet." ScienceDaily. ScienceDaily, 15 June 2020. <www.sciencedaily.com/releases/2020/06/200615115801.htm>.