De clickbait com a transparência: Reimagining o mundo on-line

perspectivas das ciências comportamentais em uma Internet alternativa.

Você está percorrendo seu feed YouTube, Facebook ou Twitter, quando um vídeo aparece: um relatório sobre acordos secretos políticos, conspirações mídia ou falsos estudos científicos. Tudo parece ser apoiada por fatos. O vídeo tem centenas de milhares de cliques e parece estar ganhando força em todo o mundo. E abundância de espectadores parecem concordar com ele, depois de ter dado um "polegares para cima". Mas o que exatamente significa tudo isto? Faz o vídeo credível? Quantos espectadores assistiram ao vídeo até o fim; quantas esquerda no meio do caminho? E por que o vídeo aparecer no seu feed, em primeiro lugar? A plataforma on-line sabe que muitas das respostas, mas não compartilhar essas informações. E há outras pistas são fornecidos que pode ajudá-lo a avaliar o conteúdo, qualidade ou credibilidade do vídeo.

De acordo com o Relatório Reuters Institute Digital Notícias 2019, mais da metade (55%) de usuários de Internet do mundo agora usam as mídias sociais ou motores de busca para manter-se com a notícia. Em outras palavras, a opinião pública é formada em grande parte por conteúdo online, que por sua vez é comissariada por algoritmos. "O objetivo é manter os usuários felizes por tanto tempo quanto possível para que eles fiquem na plataforma. Isso é conseguido proporcionando entretenimento e estabelecer uma sensação de bem-estar, o que provavelmente explica por que muitas plataformas não têm botões 'dislike' que permitir que os usuários para conteúdos down-voto a sensação ser transmitida é:.. Você está certo de que pode ser inofensivo quando compartilhamos conteúdo privado, como fotos de férias, mas distorce a imagem quando o que está sendo espalhada são opiniões radicais e inverdades ", diz co-autor Stephan Lewandowsky, Professor de Psicologia Cognitiva da Universidade de Bristol.

Outro problema é que os algoritmos newsfeed só mostram o conteúdo usuários que, com base no seu comportamento on-line anterior, eles são susceptíveis de concordar. Outros pontos de vista tendem a não ser mostrado em tudo. Isso cria redes de usuários like-minded, que reforçam opiniões compartilhadas e criar a ilusão de um amplo apoio, mesmo que uma opinião não é realmente amplamente difundida. Mas como os usuários podem distinguir notícias falsas dos fatos? E como ambientes online precisa de ser concebido para apoiar esses esforços? "As intervenções que propomos visam capacitar os usuários individuais para tomar decisões informadas e autônomos em ambientes on-line, idealmente, sem ter que depender de damas fato independentes. A arquitetura dos ambientes online influencia o comportamento dos usuários. Para alterar esse ambiente para melhor, precisamos entender o comportamento humano e dar esse comportamento em conta nas escolhas de design ", diz Philipp Lorenz-Spreen, principal autor do estudo e pesquisador do Instituto Max Planck para o Desenvolvimento humano.

A equipe de pesquisa identificou uma série de maneiras para ajudar os usuários a avaliar a qualidade do conteúdo da Internet e para compreender os mecanismos por trás algoritmos, sem cercear as liberdades centrais para a filosofia original do Internet. Essas possibilidades são tecnologicamente viável, mas até agora largamente inexplorado. A equipe de pesquisa desenvolveu recomendações específicas para os indivíduos Empower on-line, com base em duas abordagens das ciências comportamentais: nudging e impulsionar.

Cutucando visa orientar o comportamento das pessoas, destacando informações importantes sem impor regras ou proibições. Impulsionar visa aumentar a competência de tomada de decisão das pessoas, permitindo-lhes navegar situações de forma autónoma e tomar melhores decisões. De acordo com os pesquisadores, é importante ter uma abordagem multifacetada para atingir o maior número possível de pessoas. Nudging poderia ser usado, por exemplo, para indicar se o conteúdo atende a determinados critérios de qualidade, como se ela provém de fontes confiáveis. Isso ambas solicitar que os usuários verificar o conteúdo completamente e criar uma estrutura de incentivos para os produtores de conteúdo para atender os critérios exigidos. Incluindo links para fontes verificadas seria mais um passo. Wikipedia poderia servir de modelo aqui: As referências e referências cruzadas que fornece ajuda a contextualizar a informação apresentada. Twitter recentemente tomou um passo nessa direção e começou a sinalizar alguns tweets com um aviso fato-check, incluindo um tweet por Donald Trump sobre o assunto do voto por correspondência.

Nudges também pode comunicar informações adicionais sobre o comportamento online de outros usuários, dando mais contexto sobre como outros avaliam conteúdo. Por exemplo, o número de gostos poderia ser definido em relação ao número total de leitores: "4.287 fora de 1,5 milhões de leitores gostou deste artigo" A informação de que havia 44.000 cliques em um artigo, mas que apenas 3.000 usuários lê-lo até o final poderia ser um melhor indicador de qualidade do que os números de cliques e gosta sozinho. Tem sido demonstrado que os formatos numéricos transparentes podem melhorar as decisões médicas. Por que o mesmo não deve aplicar-se à Internet? Esta abordagem pode prevenir a formação de eco câmaras em que grupos de pessoas acreditam erroneamente que sua opinião é generalizada e aceito.

Outra possibilidade poderia ser a de torná-lo um pouco mais difícil para os usuários a compartilhar informações quando um artigo deixa de citar referências externas. Por exemplo, os usuários podem ser necessárias para clicar passado uma janela pop-up contendo um aviso de que as referências estão em falta. Outro tipo de empurrão pode direcionar como o conteúdo é organizado em navegadores, isto é, a forma como um conteúdo tipos newsfeed. Claramente diferenciação entre tipos de conteúdo, como opiniões, notícias ou mensagens de amigos, pode fazer newsfeeds mais transparente.

Aumentando, em contraste, tem como objetivo aumentar a competência do usuário a longo prazo. Isso poderia, por exemplo, significa capacitar as pessoas para ajustar a forma como os seus feeds de notícias são classificadas, deixá-los mudar suas configurações para refletir quais fatores são mais importantes para eles e qual o conteúdo que eles querem ver em primeiro lugar. As redes sociais podem ser obrigadas a indicar por que algum conteúdo é mais ponderado e exibido pela primeira vez, enquanto outros conteúdos é dada prioridade menor. Outro exemplo de um impulso seria apresentar a fonte original de um pedaço de informação e a via pela qual ele chegou a um usuário. árvores de decisão simples poderiam orientar os usuários através de um processo passo-a-passo de controlo da origem, contexto e qualidade do conteúdo online. Em outras palavras, os usuários seriam dadas as ferramentas para tornar-se fato damas. No longo prazo, eles iriam aprender a reconhecer padrões, para avaliar criticamente os conteúdos, e identificar manipulação mais rapidamente.

"A natureza interativa da mídia social pode ser aproveitado para promover o diálogo democrático diversificada e inteligência coletiva Foster. O nosso objectivo é encontrar formas de reforçar o potencial da Internet para informar os processos de tomada de decisão nas sociedades democráticas, reforçando-os, em vez de prejudicá-los. Os problemas globais como as alterações climáticas eo coronavírus pandemia requerem coordenado, soluções coletivas. e isso faz um mundo on-line democraticamente interligados fundamental ", diz Ralph Hertwig, Diretor do Centro de Adaptive Racionalidade no Instituto Max Planck para o Desenvolvimento Humano.

fonte: Max Planck Institute for Human Development. "From clickbait to transparency: Reimagining the online world: Behavioral science perspectives on an alternative Internet." ScienceDaily. ScienceDaily, 15 June 2020. <www.sciencedaily.com/releases/2020/06/200615115801.htm>.