-
TemáticasInteligência ArtificialPolarizaçãoSocial Media
-
SetorTecnologia da Informação e Comunicação
-
PaísesGlobal
Em um panorama global cada vez mais fragmentado, a polarização política emergiu como uma das maiores ameaças para as democracias contemporâneas. Este fenômeno desgasta a confiança nas instituições, distorce o diálogo público e coloca em risco a estabilidade dos processos eleitorais. A polarização severa, longe de ser um problema pequeno ou passageiro, está minando os princípios fundamentais que fazem as democracias funcionarem. Entre os seus efeitos mais nocivos, está o fato de que os poderes legislativos vão sendo reduzidos a meras câmaras de aprovação, os executivos se fortalecem à custa de outros contrapesos e os ataques à independência do poder judicial se intensificam. Ainda mais preocupante é como a polarização mina normas informais, porém cruciais, como a aceitação pacífica da derrota eleitoral, que são essenciais para a coexistência da diversidade política.
Atualmente, o fenômeno da polarização tem sido acelerado pela expansão das tecnologias de alto impacto: as redes sociais digitais e a inteligência artificial. Ambas modificaram profundamente a forma como o debate público se desenvolve e como a manipulação da informação é realizada. No entanto, embora essas ferramentas tenham ganhado protagonismo nas últimas décadas, a sua relação com a polarização é mais de amplificação do que de origem ou causa. Diversos estudos confirmam que a polarização política tem raízes muito mais profundas do que as redes sociais. Um estudo da Universidade de Cambridge intitulado “From Backwaters to Major Policymakers: Policy Polarization in the States, 1970–2014” (1),afirma que a polarização nos Estados Unidos começou a se intensificar a partir dos anos 70 e experimentou um aumento significativo a partir do ano 2000, muito antes de as plataformas como Facebook ou X alcançarem uma influência significativa.
Ainda assim, não há dúvida de que as redes sociais aceleraram este processo. As plataformas digitais transformaram a maneira como os cidadãos se informam, debatem e tomam decisões políticas. Os algoritmos que controlam essas plataformas não foram desenhados para promover a moderação ou o diálogo construtivo. Em vez disso, priorizam o conteúdo que gera mais interação, o que frequentemente significa amplificar as mensagens mais polarizadas e emocionalmente carregadas. Um estudo recente da LLYC, “The Hidden Drug”(2) , baseado na análise de mais de 600 milhões de mensagens, confirmou que o nível de polarização no diálogo social na América Latina aumentou 39% entre 2018 e 2022. Deste modo, as redes sociais serviram como amplificadores da polarização existente, empurrando as pessoas para posicionamentos mais extremos e dificultando a conversa democrática.
O papel das redes sociais evoluiu com o tempo. Durante a primeira metade da década de 2010, plataformas abertas como Facebook e X dominaram o espaço público e político, com casos emblemáticos como o escândalo da Cambridge Analytica em 2016. Este escândalo mostrou como o uso indevido de dados pessoais, obtidos por meio do Facebook, foi utilizado para realizar um perfil psicológico de mais de 87 milhões de pessoas, que depois foi aproveitado nas campanhas eleitorais de Donald Trump e no referendo do Brexit. Este episódio demonstrou o poder que as redes sociais abertas podiam exercer sobre os processos democráticos.
No entanto, nos últimos anos, o panorama mudou drasticamente. As plataformas fechadas, como WhatsApp e Telegram, ganharam relevância no debate político e social. Segundo dados da Statista, em abril de 2024, o WhatsApp alcançou quase 3 bilhões de usuários (3), o que representa um aumento de 50% em relação ao começo de 2020. Este crescimento mudou o terreno do jogo. Em vez de acontecer nas redes abertas e transparentes, onde o conteúdo é visível para o público e pode ser monitorado, grande parte do debate político migrou para ambientes fechados e opacos, onde a desinformação pode se propagar sem nenhuma supervisão.
Nestes espaços mais fechados, a radicalização pode se desenvolver em círculos pequenos e íntimos, o que dificulta a detecção e o controle. A radicalização política que antes se manifestava abertamente em plataformas como X agora é incubada em espaços privados como o WhatsApp, a partir de onde pode saltar para redes abertas mais visíveis. Esta dinâmica foi fundamental em vários acontecimentos recentes de agitação política, como o ataque ao Capitólio dos Estados Unidos em janeiro de 2021, em que se demonstrou como o planejamento dos eventos foi coordenado por meio de plataformas como WhatsApp e Parler, uma rede de nicho que também promove a privacidade e a comunicação fechada.
Diante da magnitude desses desafios, os sistemas judiciais e os reguladores de vários países começaram a intervir. Um exemplo claro é o caso do juiz Alexandre de Moraes, no Brasil, que em 30 de agosto de 2024, ordenou a suspensão imediata do X (antigo Twitter) devido à negativa da plataforma de eliminar seis perfis de usuários relacionados ao ex-presidente Jair Bolsonaro. Elon Musk, o CEO do X, negou-se a cumprir a ordem, classificando o juiz de “ditador”. Este enfrentamento ressalta a importância crescente da moderação de conteúdos e a difícil relação entre a liberdade de expressão e a luta contra a desinformação.
Nos últimos anos, o panorama mudou drasticamente. As plataformas fechadas, como WhatsApp e Telegram, ganharam relevância no debate político e social
Outro caso notável foi o da prisão, na França, em 24 de agosto de 2024, de Pavel Durov, fundador e CEO do Telegram. Durov foi detido pela suposta falta de cooperação com as autoridades francesas e por não adotar medidas efetivas de moderação na sua plataforma, o que permitiu a proliferação de atividades ilegais e conteúdos perigosos. Estes casos refletem como o impacto das redes sociais nos processos eleitorais e na polarização política forçou os sistemas judiciais a tomar posições firmes, apesar das tensões complexas que surgem entre a regulação e a liberdade de expressão.
No entanto, as ações locais têm um alcance limitado quando nos confrontamos com um fenômeno que é, por natureza, global e transfronteiriço. As operações de desinformação não respeitam as fronteiras nacionais, e o capitalismo digital deu lugar a uma economia internacional de desinformação. Um estudo feito pela Qurium (4) mostra que, em 2022, ativistas iranianos do movimento #MeToo foram atacados por campanhas de desinformação organizadas por empresas paquistanesas de marketing digital. Estas operações transnacionais colocam em evidência como atores mal intencionados podem contratar serviços de desinformação em países com regulações mais flexíveis, o que dificulta ainda mais a luta contra este fenômeno.
Neste contexto, a inteligência artificial se apresenta como uma ferramenta chave para agravar a polarização política. A IA tem um triplo papel: primeiro, os algoritmos de recomendação impulsionados por IA determinam quais conteúdos os usuários veem, amplificando aqueles que geram mais interações, normalmente os mais polarizados. Em segundo lugar, o micro-targeting baseado em dados pessoais permite que os atores políticos dirijam-se a segmentos específicos da população com mensagens personalizadas que podem manipular comportamentos de votação. E por fim, a IA generativa permitiu a criação de desinformação em uma escala sem precedentes. As deepfakes, vídeos e áudios sintéticos, que eram apenas uma curiosidade tecnológica há alguns anos, agora se transformaram em ferramentas poderosas para manipular o público.
Um caso recente, exposto em 2023, é o de uma rede de contas iranianas que a OpenAI desmantelou como parte de uma campanha de desinformação sobre as eleições presidenciais nos Estados Unidos. Esta rede gerava conteúdo falso utilizando IA, o que incluía desde textos até imagens e vídeos, todos eles desenhados para influenciar a opinião pública. A IA generativa, com a sua capacidade de criar conteúdo sintético quase indistinguível da realidade, estabelece um novo desafio para a veracidade nos processos eleitorais.
O caso das deepfakes é especialmente preocupante. Em 2024, a Grok, IA do X, foi acusada de gerar imagens hiper-realistas de políticos como Donald Trump, Kamala Harris e Joe Biden, mostrando-os em situações comprometedoras que nunca ocorreram. Estas imagens não apenas acionaram um alarme entre os serviços de fact- -checking, como também ressaltaram quão difícil é detectar e conter a propagação de desinformação no ambiente atual.
Um relatório do Stanford Internet Observatory (5), feito em parceria com o Centro de Segurança e Tecnologia Emergente da Universidade de Georgetown, publicado no começo de 2023, adverte sobre o impacto dos grandes modelos de linguagem (LLMs) na desinformação. Estes modelos permitem que atores mal-intencionados desenhem e executem campanhas de baixo custo e em uma escala sem precedentes. O relatório ressalta que a capacidade das LLMs de gerar argumentos persuasivos em grande formato, dificilmente detectáveis como conteúdo malicioso, é um risco crescente para as democracias.
Em termos de regulação, a maioria dos países está mal preparada para enfrentar estes desafios. Embora algumas nações, como a China, tenham tentando introduzir regulações sobre o conteúdo gerado por IA (como exigir marcas d’água em vídeos sintéticos), a maioria dos países carece de marcos legais sólidos para abordar este problema. Além disso, existe o risco de que as regulações possam ser mal utilizadas para controlar a informação mais do que para proteger a integridade dos processos democráticos.
A combinação de polarização política, desinformação e poder crescente da inteligência artificial estabelece um desafio existencial para os processos eleitorais e as democracias modernas. À medida que as tecnologias evoluem, os governos e as sociedades devem encontrar maneiras de mitigar os seus efeitos mais corrosivos, sem minar a liberdade de expressão. A pergunta que fica é se seremos capazes de regular estas ferramentas a tempo de proteger a integridade das nossas democracias ou se, pelo contrário, estamos condenados a uma era de eleições manipuladas, polarização extrema e desconfiança institucional.
(1) From Backwaters to Major Policymakers: Policy Polarization in the States, 1970–2014
(2) The Hidden Drug
(3) Number of unique WhatsApp mobile users worldwide from January 2020 to June 2024
(4) Qurium
(5) Generative Language Models and Automated Influence Operations: Emerging Threats and Potential Mitigations
É “engenheiro superior” em telecomunicações e tem mais de 20 anos de experiência em desenvolvimento de soluções de processamento de linguagem natural e tecnologias de inteligência artificial. Na LLYC, lidera a equipe de especialistas encarregada de projetar e implementar soluções inovadoras baseadas em inteligência artificial. Também dirige a área de Data Analytics da empresa, trabalhando com grandes volumes de dados. Em 2008, fundou a Acteo, empresa que foi parceira da LLYC em projetos inovadores de medição da reputação e análise de dados.