Algoritmos podem ser aliados no combate a desinformação?

Por Ítalo Alberto, COLAB/USP

As pessoas têm acessado cada vez mais mídias sociais para se informarem e tanto essas plataformas como os algoritmos embutidos nelas estão contribuindo para o aumento da desinformação. O algoritmo responsável pela distribuição de conteúdo, por exemplo, pune o engajamento de postagens que contém links externos que fazem as pessoas saírem de sua plataforma. O objetivo delas é manter as pessoas na plataforma a maior quantidade de tempo possível.

Fonte: https://stablediffusionweb.com/

O algoritmo também favorece publicações que despertam emoção intensa nas pessoas que interagem com esses tipos de publicações. Inclusive, é nesse momento que conteúdos de desinformação acabam se beneficiando desses algoritmos, pois quanto mais chocante for a notícia, mesmo que não esteja refletindo de fato a realidade, mais fortemente essa notícia vai ser beneficiada pelo algoritmo de distribuição.

Quando falamos de se beneficiar com o algoritmo, estamos ressaltando a capacidade dele de promover conteúdos, distribuindo para maiores quantidades de usuários. Isso faz com que algumas informações expressas de um jeito sejam mais visualizadas do que outras, moldando a percepção que as pessoas têm das informações.

O surgimento de IAs cada vez mais poderosas, principalmente as chamadas IAs generativas, que são aquelas que geram textos tão interessantes e convincentes que parecem terem sido escritos por humanos, podem desenvolver centenas de milhares de textos em instantes e acabam trazendo preocupações ainda maiores para uma das questões mais críticas que estamos enfrentando hoje que são os distúrbios informacionais. 

O pensador Paul Virilio constatou: “desastres aéreos só passaram a existir depois que os aviões foram criados”. Hoje com a internet e a inundação de informações que estão sendo expostas na Web, estamos chegando no equivalente a um desastre aéreo, só que se tratando da comunicação, estamos chegando a esse desastre em um nível informacional.

E da mesma forma que usamos tecnologias de ponta e bastante engenharia para lidar com todos os detalhes possíveis encontrados de forma a mitigar erros e evitar a maior parte dos desastres aéreos, temos hoje uma demanda cada vez maior de usar mecanismos tecnológicos e estudos detalhados para evitar esses potenciais “desastres informacionais”.

Ao lidar com desinformação, realizar tarefas de monitoramento de plataformas com algoritmos tendenciosos e IAs generativas com sua super capacidade de geração de textos convincentes é um caminho que acaba exigindo mais do que o uso de práticas de verificação de fatos de forma manual e individualizada, pois o conteúdo desinformacional chega em grande escala e é distribuído em um sistema de favorecimento opaco. Seguir esse modo mais artesanal para combater problemas automatizados é favorecer o caminho do desastre informacional que estamos percorrendo.

A principal questão é porque esse é um dilema complexo, pois decidir se uma informação é ou não falsa acaba sendo uma questão sensível. Dessa forma, acabamos tendo a impressão de que essa deve ser uma tarefa totalmente humana. Porém, temos visto nos últimos tempos diversos exemplos de meios tecnológicos que auxiliam em parte do trabalho massante que costumávamos ter que fazer, abrindo espaço para tratarmos de questões mais importantes que dependiam das nossas habilidades humanas.

O ponto principal do uso de algoritmos para auxiliar na detecção e análise de desinformação é lidar com uma automatização parcial, de modo que o algoritmo faça apenas parte do trabalho, a mais repetitiva e automática, que demandaria mais tempo e recurso para realizar, e o humano a outra parte, aquela mais sensível e subjetiva. 

Um exemplo disso seria a definição de uma massa de amostras que indicam se informações são falsas ou não, a criação dessa massa sinalizada seria uma atividade que especialistas teriam que executar dado o grau de subjetividade. Um algoritmo de Aprendizado de máquina utiliza massas de exemplos como forma de entrada de dados para aprender a identificar o modo que situações se diferenciam uma da outra. Uma vez treinado com essas informações, ele tem a atribuição de realizar essas tarefas em cenários futuros com as novas informações que surgirem. 

Existem diversos algoritmos disponíveis que detectam spam, eles utilizam exemplos massivos de informações que foram sinalizadas como problemáticas e conseguem a partir disso classificar novas mensagens como verídicas ou spam. O uso desse tipo de solução já foi aplicado na detecção de fake news obtendo um resultado eficiente. Porém, o problema da desinformação é que informações novas surgem a cada momento e o algoritmo precisa estar sempre aprendendo com elas para se manter atualizado e eficaz. Temos hoje o conceito de fine tuning, que são mecanismos construídos para afinar algoritmos de forma a conseguir alcançar resultados mais efetivos.

Com tantas novas publicações aparecendo, algumas podem acabar passando despercebidas por agentes humanos checadores de fatos, porém temos hoje algoritmos cada vez mais poderoso para vasculhar as plataformas de forma constante e escalável de forma a capturar possíveis publicações críticas. Um resultado já bastante útil seria a indicação de notícias com potencial de serem falsas para futura classificação humana, trazendo registros que talvez especialistas em checagem de notícias não tenham acessado ainda. 

Diante disso, vemos que o uso do algoritmo não viria como um tomador de decisão final, mas sim como um filtro que realiza uma pré-classificação cuja função é vasculhar a web para trazer tópicos de informações que podem ter maiores chances de serem consideradas falsas. Utilizar abordagens com esses graus avançados de desenvolvimento para lidar com questões críticas informacionais que estamos lidando é fazer o trabalho necessário que precisamos para evitar possíveis e potenciais “desastres informacionais” que talvez tenhamos que lidar cada vez mais nos próximos tempos. 

Fonte: https://desinformante.com.br/algoritmo-aliado-desinformacao/

Ítalo Alberto é mestre em Computação pela USP (Universidade de São Paulo) e doutorando em Ciências sociais aplicadas a Inteligência Artificial na USP. É cientista de dados na Anvisa (Agência Nacional de Vigilância Sanitária) e professor de pós graduação de Inteligência Artificial na Faculdade de Belas Artes.