-
TemáticasInteligência ArtificialPolarizaçãoSocial Media
-
SetorTecnologias da Informação e Comunicação
-
PaísesGlobal
Num panorama global cada vez mais fragmentado, a polarização política surgiu como uma das maiores ameaças às democracias contemporâneas. Este fenómeno corrói a confiança nas instituições, distorce a conversação pública e põe em risco a estabilidade dos processos eleitorais. A polarização extrema, que está longe de ser um problema menor ou passageiro, está a minar os princípios fundamentais que fazem com que as democracias funcionem. Entre os seus efeitos mais nocivos estão a redução das legislaturas a meras câmaras de aprovação, o reforço dos poderes executivos em detrimento de outros fatores de equilíbrio e a intensificação dos ataques à independência do poder judicial. Mais preocupante ainda é a forma como a polarização enfraquece normas informais mas cruciais, como a aceitação pacífica da derrota eleitoral, que são essenciais para a coexistência da diversidade política.
Atualmente, o fenómeno da polarização foi acelerado pela expansão de duas tecnologias de grande impacto: as redes sociais digitais e a inteligência artificial. Ambas alteraram profundamente a forma como o debate público é realizado e como a manipulação da informação é efetuada. No entanto, embora estas ferramentas tenham ganho destaque nas últimas décadas, a sua relação com a polarização é mais de amplificação do que de origem ou causa. Diversos estudos confirmam que a polarização política tem raízes muito mais profundas do que as redes sociais. Um estudo da Universidade de Cambridge, intitulado “From Backwaters to Major Policymakers: Policy Polarization in the States, 1970-2014” (1) , defende que a polarização nos Estados Unidos começou a intensificar-se a partir de 1970 e registou um aumento significativo a partir do ano 2000, muito antes de plataformas como o Facebook ou o X terem alcançado uma influência significativa.
Ainda assim, as redes sociais aceleraram, sem dúvida, este processo. As plataformas digitais transformaram a forma como os cidadãos se informam, debatem e tomam decisões políticas. Os algoritmos que controlam estas plataformas não são concebidos para promover a moderação ou o diálogo construtivo; em vez disso, dão prioridade aos conteúdos que geram mais interação, o que muitas vezes significa amplificar as mensagens mais polarizadoras e com maior carga emocional. Um estudo recente da LLYC, “The Hidden Drug” (2) , baseado na análise de mais de 600 milhões de mensagens, confirmou que o nível de polarização na conversação social na América Latina aumentou 39% entre 2018 e 2022. Desta forma, as redes sociais têm servido como amplificadores da polarização existente, empurrando as pessoas para posições mais extremas e dificultando a conversação democrática.
O papel das redes sociais evoluiu ao longo do tempo. Durante a primeira metade da década de 2010, plataformas abertas como o Facebook e o X dominaram o espaço público e político, com casos emblemáticos como o escândalo da Cambridge Analytica em 2016. Este escândalo mostrou como a utilização indevida de dados pessoais, obtidos através do Facebook, foi utilizada para a definição de perfis psicológicos de mais de 87 milhões de pessoas, que depois foram explorados nas campanhas eleitorais de Donald Trump e no referendo do Brexit. Este episódio demonstrou o poder que as redes sociais abertas podem exercer sobre os processos democráticos.
No entanto, nos últimos anos, o panorama mudou radicalmente. As plataformas fechadas, como o WhatsApp e o Telegram, assumiram o controlo da conversação política e social. De acordo com dados do Statista, em abril de 2024, o WhatsApp alcançou quase 3000 milhões de utilizadores (3), o que representa um aumento de 50% em comparação com o início de 2020. Este crescimento alterou as condições do jogo. Em vez de ter lugar em redes abertas e transparentes, onde o conteúdo é visível para o público e pode ser monitorizado, grande parte da conversação política migrou para ambientes fechados e opacos, onde a desinformação pode espalhar-se com pouca supervisão.
Nestes espaços mais fechados, a radicalização pode desenvolver-se em círculos pequenos e íntimos, o que torna difícil a sua deteção e controlo. A radicalização política que antes se manifestava abertamente em plataformas como o X está agora a incubar em espaços privados como o WhatsApp, de onde pode saltar para as redes abertas mais visíveis. Esta dinâmica foi fundamental em vários eventos recentes de agitação política, como o ataque ao Capitólio dos Estados Unidos em janeiro de 2021, em que se demonstrou como o planeamento dos eventos foi coordenado através de plataformas como o WhatsApp e o Parler, uma rede de nicho que também promove a privacidade e a comunicação fechada.
Perante a magnitude destes desafios, os sistemas judiciais e as entidades reguladoras de vários países começaram a intervir. Um exemplo claro é o caso do juiz Alexandre de Moraes no Brasil, que a 30 de agosto de 2024 ordenou a suspensão imediata do X (antigo Twitter) devido à recusa da plataforma em eliminar seis perfis de utilizadores relacionados com o ex-presidente Jair Bolsonaro. Elon Musk, o CEO do X, recusou-se a cumprir a ordem, apelidando o juiz de “ditador”. Este confronto sublinha a importância crescente da moderação de conteúdos e a difícil relação entre a liberdade de expressão e a luta contra a desinformação.
Nos últimos anos, o panorama mudou drasticamente. As plataformas fechadas, como o WhatsApp e o Telegram, assumiram o controlo da conversa política e social
Outro caso notável é a detenção, a 24 de agosto de 2024, de Pavel Durov, fundador e CEO do Telegram, em França. Durov foi detido pela sua alegada falta de cooperação com as autoridades francesas e por não ter implementado medidas de moderação eficazes na sua plataforma, o que permitiu a proliferação de atividades ilegais e de conteúdos perigosos. Estes casos refletem a forma como o impacto das redes sociais nos processos eleitorais e na polarização política obrigou os sistemas judiciais a tomarem posições firmes, apesar das complexas tensões que surgem entre a regulamentação e a liberdade de expressão.
No entanto, as ações locais têm um alcance limitado quando confrontadas com um fenómeno que é, por natureza, global e transfronteiriço. As operações de desinformação não respeitam as fronteiras nacionais e o capitalismo digital deu origem a uma economia internacional da desinformação. Um estudo levado a cabo pela Qurium4 mostra que, em 2022, ativistas iranianos do movimento #MeToo foram alvo de campanhas de desinformação organizadas por empresas paquistanesas de marketing digital. Estas operações transnacionais evidenciam a forma como agentes mal-intencionados podem contratar serviços de desinformação em países com regulamentação menos rigorosa, tornando ainda mais difícil o combate a este fenómeno.
Neste contexto, a inteligência artificial apresenta-se como uma ferramenta fundamental para agravar a polarização política. A IA tem um triplo papel: em primeiro lugar, os algoritmos de recomendação orientados pela IA determinam os conteúdos que os utilizadores veem, amplificando os conteúdos que geram mais interações, normalmente os mais polarizadores. Em segundo lugar, a microorientação baseada em dados pessoais permite que os agentes políticos se dirijam a segmentos específicos da população com mensagens personalizadas que podem manipular o comportamento de voto. E, por último, a IA generativa permitiu a criação de desinformação a uma escala sem precedentes. Os deepfakes, os vídeos e os áudios sintéticos, que eram apenas uma curiosidade tecnológica há alguns anos, tornaram-se agora ferramentas poderosas para manipular as audiências.
Um caso recente, exposto em 2023, é o de uma rede de contas iranianas que a OpenAI desmantelou como parte de uma campanha de desinformação sobre as eleições presidenciais nos Estados Unidos. Esta rede gerava conteúdos falsos utilizando a IA, que iam desde textos a imagens e vídeos, todos concebidos para influenciar a opinião pública. A IA generativa, com a sua capacidade de criar conteúdos sintéticos quase indistinguíveis da realidade, coloca um novo desafio à veracidade nos processos eleitorais.
O caso dos deepfakes é especialmente preocupante. Em 2024, Grok, a IA do X, foi acusada de gerar imagens hiper-realistas de políticos como Donald Trump, Kamala Harris e Joe Biden, mostrando-os em situações comprometedoras que nunca aconteceram. Estas imagens não só fizeram soar o alarme entre os serviços de verificação de factos, como também sublinham o quão difícil é detetar e impedir a propagação da desinformação no ambiente atual.
Um relatório do Stanford Internet Observatory (5), em colaboração com o Center for Security and Emerging Technology da Universidade de Georgetown, publicado no início de 2023, alerta para o impacto dos modelos linguísticos de grande escala (LLM) na desinformação. Estes modelos permitem que agentes mal-intencionados concebam e executem campanhas de baixo custo e a uma escala sem precedentes. O relatório sublinha que a capacidade dos LLM para gerar argumentos persuasivos e longos, dificilmente detetáveis como conteúdo malicioso, constitui um risco crescente para as democracias.
Em termos regulamentares, a maioria dos países está mal preparada para enfrentar estes desafios. Embora algumas nações, como a China, tenham tentado introduzir regulamentação sobre os conteúdos gerados por IA, como a exigência de marcas d’água nos vídeos sintéticos, a maioria dos países não dispõe de enquadramentos jurídicos sólidos para resolver este problema. Além disso, existe o risco de que a regulamentação possa ser mal utilizada para controlar a informação em vez de proteger a integridade dos processos democráticos.
A combinação da polarização política, da desinformação e do poder crescente da inteligência artificial coloca um desafio existencial aos processos eleitorais e às democracias modernas. À medida que as tecnologias evoluem, os governos e as sociedades têm de encontrar formas de mitigar os seus efeitos mais corrosivos sem pôr em causa a liberdade de expressão. Permanece a questão de saber se seremos capazes de regulamentar estas ferramentas a tempo de proteger a integridade das nossas democracias ou se, pelo contrário, estaremos condenados a uma era de eleições manipuladas, de polarização extrema e de desconfiança institucional.
(1) From Backwaters to Major Policymakers: Policy Polarization in the States, 1970–2014
(2) The Hidden Drug
(3) Number of unique WhatsApp mobile users worldwide from January 2020 to June 2024
(4) Qurium
(5) Generative Language Models and Automated Influence Operations: Emerging Threats and Potential Mitigations
Engenheiro de telecomunicações, Miguel conta com mais de 20 anos de experiência no desenvolvimento de soluções de processamento de linguagem natural e tecnologias de inteligência artificial. Na LLYC, lidera uma equipa de especialistas focada em conceber e implementar soluções inovadoras baseadas na inteligência artificial. Para além disso, dirige a especialidade de Data Analytics da empresa, trabalhando com grandes volumes de dados. Em 2008, fundou a Acteo, uma empresa com a qual colaborou com a LLYC em projetos inovadores de medição de reputação e análise de dados.