
Od clickbait przejrzystości: Reimagining świat on-line
Jesteś przewijając kanale YouTube, Facebook lub Twitter, gdy pojawia się wideo: raport o tajnych transakcji politycznych, spisków mediów lub fałszywych badaniach naukowych. Wszystko wydaje się być poparte faktami. Teledysk ma setki tysięcy kliknięć i wydaje się, że zyskuje na całym świecie. I mnóstwo widzów wydają się zgadzać z tym, że dał to „kciuk do góry”. Ale co dokładnie to wszystko oznacza? To robi film wiarygodny? Ilu widzów oglądało film do końca; ile w połowie drogi w lewo? I dlaczego pojawiają wideo w kanale w pierwszej kolejności? Platforma internetowa zna wiele odpowiedzi, ale nie udostępniać tych informacji. I żadne inne sygnały są świadczone, które mogłyby pomóc w ocenie treści, jakości i wiarygodności filmu.
Według Raportu Reuters Institute Cyfrowy Aktualności 2019, ponad połowa (55%) światowych internautów teraz korzystać z mediów społecznych lub wyszukiwarki, aby nadążyć z wiadomością. Innymi słowy, opinia publiczna jest kształtowana głównie przez treści online, który jest z kolei kurator algorytmów. „Celem jest, aby utrzymać użytkowników szczęśliwy tak długo, jak to możliwe, że pozostają one na platformie. To się osiągnąć poprzez dostarczanie rozrywki i ustanowienie poczucie dobrego samopoczucia, które prawdopodobnie wyjaśnia, dlaczego wiele platform nie posiada przycisków«nie lubisz», które pozwalają użytkownikom treści dół głosowanie uczucie transportowany jest:.. masz rację, że mogą być nieszkodliwe, gdy dzielimy treść prywatnych takich jak zdjęcia z wakacji, ale zniekształca obraz po co są rozmieszczone są radykalne opinie i nieprawdy „, mówi współautorem Stephan Lewandowsky, profesor psychologii na Cognitive University of Bristol.
Innym problemem jest to, że algorytmy kanałów informacyjnych pokazują tylko treść użytkownikom, że na podstawie ich poprzedniego zachowania w Internecie, są one prawdopodobnie zgodzić. Inne punkty widzenia nie wydają się być pokazany w ogóle. Stwarza sieci podobnych poglądach użytkowników, które wzmacniają współdzielonych opinie i stworzyć iluzję szerokiego poparcia, nawet jeśli opinia jest faktycznie nie powszechne. Ale w jaki sposób użytkownicy odróżnić fałszywe wiadomości z faktami? A jak zrobić środowisku online muszą być tak zaprojektowane, aby wspierać te wysiłki? „Interwencje proponujemy mają na celu umożliwienie poszczególnym użytkownikom do podejmowania świadomych i autonomicznych decyzji w środowisku online, najlepiej, bez konieczności polegania na niezależnych kontrolerów fakt. Architektura środowisku online zachowanie wpływa użytkowników. Aby zmienić to środowisko na lepsze, musimy zrozumieć ludzkie zachowania i wziąć pod uwagę, że zachowanie w opcji projektowych „, mówi Philipp Lorenz-Spreen, główny autor badania i badacza w Max Planck Institute for Human Development.
Zespół naukowców zidentyfikował szereg sposobów, aby pomóc użytkownikom ocenić jakość treści internetowych i zrozumieć mechanizmy odpowiedzialne za algorytmów, bez ograniczania swobody centralnych do oryginalnej filozofii Internetu. Możliwości te są technicznie wykonalne, ale do tej pory w dużej mierze niewykorzystany. Zespół badawczy opracował szczegółowe zalecenia dla osób Empower Internecie, opierając się na dwóch podejść od nauk behawioralnych: szturchając i pobudzenia.
Trącając cele do kierowania postępowaniem człowieka poprzez wyróżnianie ważnych informacji bez narzucania reguł lub zakazy. Zwiększenie ma na celu wzmocnienie kompetencji decyzyjnych ludzi, umożliwiając im poruszanie się sytuacje autonomicznie i podejmować lepsze decyzje. Według naukowców, to ważne jest, aby podjąć wielostronne podejście do osiągnięcia tak wielu ludzi, jak to możliwe. Przesuwanie mogą być stosowane, na przykład, aby wskazać, czy zawartość spełnia określone kryteria jakościowe, takie jak to, czy wynika to z wiarygodnych źródeł. To zarówno zachęty użytkowników, aby sprawdzić zawartość dokładnie i utworzyć strukturę zachęt dla producentów treści, aby spełnić wymagane kryteria. W tym linki do zweryfikowanych źródeł byłoby kolejnym krokiem. Wikipedia może służyć jako model tutaj: Odniesienia i odsyłacze zapewnia pomoc contextualize prezentowanych informacji. Twitter niedawno zrobiła krok w tym kierunku i zaczął słabnącym niektóre tweety z ostrzeżeniem fakt sprawdzić, w tym tweet Donalda Trumpa na temat głosowania korespondencyjnego.
Trąca może również przekazać dodatkowe informacje na temat zachowania w Internecie inni, dając dalszy kontekst, w jaki sposób inni oceniają treść. Na przykład, liczba pokroju może być ustawiony w stosunku do ogólnej liczby czytelników: „4287 z 1,5 mln czytelników Podobał Ci się ten artykuł” Informacje, które tam były 44.000 kliknięć na artykuł, ale to tylko 3000 użytkowników przeczytać ją do końca może być lepszym wskaźnikiem jakości niż ilości kliknięć i lubi sam. Wykazano, że przejrzyste formaty liczbowe mogą poprawić decyzje medyczne. Dlaczego nie powinno samo stosuje się do Internetu? Takie podejście może zapobiec powstawaniu Echo komór, w których grupy osób błędnie wierzą, że ich opinia jest powszechna i akceptowana.
Inną możliwością może być, aby to nieco trudniejsze dla użytkowników informacji zakładowego gdy artykuł nie cytować odnośniki zewnętrzne. Na przykład, użytkownik może być zobowiązany do kliknij obok wyskakującego okienka zawierającego ostrzeżenie, że brakuje odniesienia. Innym rodzajem sugerować może kierować jak zawartość jest umieszczona w przeglądarkach, czyli sposób, w jaki newsfeed zawartość rodzaju. Wyraźnie rozróżniać rodzaje treści, takie jak opinie, wiadomości, lub napisanych przez przyjaciół, może Newsfeeds bardziej przejrzyste.
Zwiększenie, w przeciwieństwie do tego, ma na celu zwiększenie kompetencji firmy w dłuższej perspektywie. Może to na przykład oznaczać umożliwienie ludziom, aby dostosować sposób ich kanały informacyjne są klasyfikowane, pozwalając im zmienić ich ustawienia w celu odzwierciedlenia, jakie czynniki są dla nich najważniejsze i jakie treści chcą zobaczyć pierwszy. Sieci społecznościowe mogą być zobowiązani do wskazania, dlaczego niektóre treści są ważone w większym stopniu i wyświetlane jako pierwsze, a inna zawartość podana jest niższy priorytet. Innym przykładem doładowania byłoby przedstawienie oryginalnego źródła kawałek informacji oraz drogi przez który dotarł użytkownika. Proste drzewa decyzyjne mógłby poprowadzić użytkownika przez proces krok po kroku sprawdzenia pochodzenia, kontekstu i jakości treści online. Innymi słowy, użytkownicy będą mieć narzędzia, aby stać się faktem, warcaby. W dłuższej perspektywie, to oni nauczyć się rozpoznawać wzorce, do krytycznej oceny treści i szybciej zidentyfikować manipulacji.
„Interaktywny charakter mediów społecznościowych może być wykorzystany do promowania zróżnicowaną demokratycznego dialogu i wspierania zbiorowej inteligencji. Naszym celem jest znalezienie sposobów wzmocnienia potencjału w Internecie, aby poinformować procesy decyzyjne w społeczeństwach demokratycznych, wzmacniając je, zamiast je osłabia. Globalnych problemów jak zmiany klimatu i koronawirusa pandemii wymagają skoordynowanych, rozwiązań zbiorowych. i sprawia, że demokratycznie połączone world Online kluczowe „, mówi Ralph Hertwig, dyrektor Centrum Adaptive racjonalności w Max Planck Institute for Human Development.
źródło Max Planck Institute for Human Development. "From clickbait to transparency: Reimagining the online world: Behavioral science perspectives on an alternative Internet." ScienceDaily. ScienceDaily, 15 June 2020. <www.sciencedaily.com/releases/2020/06/200615115801.htm>.