Estamos cada vez mais conscientes de como a desinformação pode influenciar eleições. Cerca de 73% dos americanos relatam ter visto notícias eleitorais enganosas, e aproximadamente metade tem dificuldades para discernir o que é verdadeiro ou falso.
Quando se trata de desinformação, “tornar-se viral” parece ser mais do que uma simples frase de efeito. Cientistas descobriram uma estreita analogia entre a disseminação da desinformação e a disseminação de vírus. Na verdade, a forma como a desinformação se espalha pode ser efetivamente descrita por meio de modelos matemáticos criados para simular a disseminação de patógenos.
As preocupações com a desinformação estão amplamente difundidas, com uma pesquisa recente da ONU sugerindo que 85% das pessoas em todo o mundo estão preocupadas com isso.
Essas preocupações são bem fundamentadas. A desinformação estrangeira cresceu em sofisticação e escopo desde a eleição de 2016 nos EUA. O ciclo eleitoral de 2024 viu teorias de conspiração perigosas sobre “manipulação do clima” minando o enfrentamento adequado de furacões, notícias falsas sobre imigrantes comendo animais de estimação incitando a violência contra a comunidade haitiana e teorias de conspiração eleitorais enganosas amplificadas pelo homem mais rico do mundo, Elon Musk.
Estudos recentes empregaram modelos matemáticos extraídos da epidemiologia (a ciência de como as doenças ocorrem na população e por quê). Esses modelos foram originalmente desenvolvidos para estudar a propagação de vírus, mas podem ser usados com eficácia para estudar a difusão de desinformação nas redes sociais.
Um tipo de modelo epidemiológico que funciona com a desinformação é conhecido como suscetível-infectado-recuperado (SIR). Esses modelos simulam a dinâmica entre indivíduos suscetíveis (S), infectados (I) e recuperados ou resistentes (R).
Esses modelos são gerados a partir de uma série de equações diferenciais (que ajudam os matemáticos a entender as taxas de mudança) e se aplicam prontamente à disseminação de informações enganosas. Por exemplo, nas mídias sociais, informações falsas são passadas de indivíduo para indivíduo, alguns dos quais são infectados, outros permanecem imunes. Outros atuam como vetores assintomáticos (portadores de doenças), disseminando informações errôneas sem saber ou sem serem afetados negativamente por elas.
Esses modelos são incrivelmente úteis porque nos permitem prever e simular a dinâmica da população e chegar a medidas como o número básico de reprodução (R0) – o número médio de casos gerados por um indivíduo “infectado”.
Como resultado, tem havido um crescente interesse em aplicar essas abordagens epidemiológicas ao nosso ecossistema de informações. A maioria das plataformas de mídia social tem um R0 estimado maior que 1, indicando que as plataformas têm potencial para a disseminação epidêmica de desinformação.
Procurando soluções
Normalmente, a modelagem matemática envolve o que é chamado de pesquisa fenomenológica (em que os pesquisadores descrevem padrões observados) ou trabalho mecanicista (que envolve fazer previsões com base em relações conhecidas). Esses modelos são especialmente úteis porque nos permitem explorar como possíveis intervenções podem ajudar a reduzir a disseminação da desinformação nas redes sociais.
Podemos ilustrar esse processo básico com um modelo ilustrativo simples mostrado no gráfico abaixo, que nos permite explorar como um sistema pode evoluir sob uma variedade de suposições hipotéticas, que podem então ser verificadas.
Figuras proeminentes da mídia social com grande número de seguidores podem se tornar “superdisseminadores” de desinformação eleitoral, divulgando falsidades para potencialmente centenas de milhões de pessoas. Isso reflete a situação atual em que as autoridades eleitorais relatam estar sendo superadas em suas tentativas de checagem de informações.
Em nosso modelo, se presumirmos, de forma conservadora, que as pessoas têm apenas 10% de chance de infecção após a exposição, desmascarar a desinformação tem apenas um pequeno efeito, de acordo com estudos. No cenário de 10% de chance de infecção, a população infectada pela desinformação eleitoral cresce rapidamente (linha laranja, painel esquerdo).
“Inoculação psicológica”
A analogia da disseminação viral da desinformação é adequada exatamente porque permite que os cientistas simulem maneiras de combater sua disseminação. Essas intervenções incluem uma abordagem chamada “inoculação psicológica”, também conhecida como prebunking.
A inoculação psicológica acontece quando os pesquisadores introduzem preventivamente e depois refutam uma falsidade para que as pessoas ganhem imunidade futura à desinformação. É semelhante à vacinação, em que as pessoas são apresentadas a uma dose (enfraquecida) do vírus para preparar seus sistemas imunes para exposição futura.
Por exemplo, um estudo recente utilizou chatbots de Inteligência Artificial para criar prebunks contra mitos comuns sobre fraude eleitoral. Isso envolveu alertar as pessoas com antecedência sobre a possibilidade de os agentes políticos manipularem suas opiniões com histórias sensacionalistas, como a falsa alegação de que “grandes números de votos durante a noite estão virando a eleição”, juntamente com dicas importantes sobre como identificar esses rumores enganosos. Essas “inoculações” podem ser integradas a modelos populacionais de disseminação de desinformação.
Você pode ver em nosso gráfico que, se a inoculação não for empregada, demora mais para as pessoas criarem imunidade à desinformação (painel esquerdo, linha laranja). Já o painel direito ilustra que se o prebunking for implementado em grande escala, ele poderá conter o número de pessoas desinformadas (linha laranja).
O objetivo desses modelos não é fazer com que o problema pareça assustador ou sugerir que as pessoas são vetores crédulos de desinformação. Mas há evidências claras de que algumas notícias falsas se espalham como um simples contágio, infectando os usuários imediatamente.
Enquanto isso, outras histórias se comportam mais como uma doença complexa, em que as pessoas precisam ser expostas repetidamente a fontes de informação enganosas para serem “infectadas”.
O fato de que a suscetibilidade individual à desinformação pode variar não diminui a utilidade das abordagens extraídas da epidemiologia. Por exemplo, os modelos podem ser ajustados dependendo de quão difícil é para a desinformação “infectar” diferentes subpopulações.
Embora pensar nas pessoas dessa forma possa ser psicologicamente desconfortável para alguns, a maior parte da desinformação é difundida por um pequeno número de superdisseminadores influentes, assim como acontece com os vírus.
A adoção de uma abordagem epidemiológica para o estudo de notícias falsas nos permite prever sua disseminação e modelar a eficácia de intervenções como o prebunking.
Alguns trabalhos recentes validaram a abordagem viral usando a dinâmica da mídia social da eleição presidencial de 2020 nos EUA. Um estudo constatou que uma combinação de intervenções pode ser eficaz para reduzir a disseminação de desinformação.
Modelos nunca são perfeitos. Mas se quisermos impedir a disseminação da desinformação, precisamos entendê-la para combater efetivamente seus danos sociais.
Sander van der Linden, Professor of Social Psychology in Society, University of Cambridge e David Robert Grimes, Assistant Professor of Biostatistics, Public Health & Primary Care, Trinity College Dublin
This article is republished from The Conversation under a Creative Commons license. Read the original article.