-
TemáticasInteligencia ArtificialPolarizaciónSocial Media
-
SectorTecnologías de la Información y la Comunicación
-
PaísesGlobal
En un panorama global cada vez más fragmentado, la polarización política ha emergido como una de las mayores amenazas para las democracias contemporáneas. Este fenómeno erosiona la confianza en las instituciones, distorsiona la conversación pública y pone en riesgo la estabilidad de los procesos electorales. La polarización severa, lejos de ser un problema menor o pasajero, está minando los principios fundamentales que hacen funcionar las democracias. Entre sus efectos más nocivos, encontramos que las legislaturas se ven reducidas a meras cámaras de aprobación, los poderes ejecutivos se fortalecen a expensas de otros contrapesos y se intensifican los ataques a la independencia del poder judicial. Más preocupante aún es cómo la polarización socava algunas normas informales pero cruciales, como la aceptación pacífica de la derrota electoral, que son esenciales para la coexistencia de la diversidad política.
En la actualidad, el fenómeno de la polarización se ha visto acelerado por la expansión de dos tecnologías de alto impacto: las redes sociales digitales y la inteligencia artificial (IA). Ambas han modificado profundamente la forma en que se desarrolla el debate público y cómo se lleva a cabo la manipulación de la información. Sin embargo, aunque estas herramientas han ganado protagonismo en las últimas décadas, su relación con la polarización es más de amplificación que de origen o causa. Diversos estudios confirman que la polarización política tiene raíces mucho más profundas que las redes sociales. Un estudio de la Universidad de Cambridge titulado From Backwaters to Major Policymakers: Policy Polarization in the States, 1970- 2014 (1), sostiene que la polarización en Estados Unidos comenzó a intensificarse a partir de los años setenta y experimentó un aumento significativo a partir del año 2000, mucho antes de que plataformas como Facebook o X alcanzaran una influencia significativa.
Aun así, es indudable que las redes sociales han acelerado este proceso. Las plataformas digitales han transformado la manera en que los ciudadanos se informan, debaten y toman decisiones políticas. Los algoritmos que controlan estas plataformas no están diseñados para promover la moderación o el diálogo constructivo; en su lugar, priorizan el contenido que genera más interacción, lo que a menudo implica amplificar los mensajes más polarizadores y emocionalmente cargados. Un estudio reciente de LLYC, The Hidden Drug (2), basado en el análisis de más de seiscientos millones de mensajes, confirmó que el nivel de polarización en la conversación social en Latinoamérica aumentó un 39% entre 2018 y 2022. De este modo, las redes sociales han servido como amplificadores de la polarización existente, empujando a las personas hacia posiciones más extremas y dificultando la conversación democrática.
El papel de las redes sociales ha evolucionado con el tiempo. Durante la primera mitad de la década de 2010, plataformas abiertas como Facebook y X dominaron el espacio público y político, con casos emblemáticos como el escándalo de Cambridge Analytica en 2016. Este escándalo expuso el uso indebido de datos personales, obtenidos a través de Facebook, para realizar un perfilado psicológico de más de 87 millones de personas, que luego fue aprovechado en las campañas electorales de Donald Trump y el referéndum del Brexit. Este episodio demostró el poder que las redes sociales abiertas podían ejercer sobre los procesos democráticos.
Sin embargo, en los últimos años, el panorama ha cambiado drásticamente. Las plataformas cerradas, como WhatsApp y Telegram, han tomado el relevo en la conversación política y social. Según datos de Statista, en abril de 2024, WhatsApp alcanzó casi los 3.000 millones de usuarios (3), lo que representa un aumento del 50% en comparación con el comienzo de 2020. Este crecimiento ha cambiado el terreno de juego. En lugar de realizarse en redes abiertas y transparentes, donde el contenido es visible para el público y puede ser monitoreado, gran parte de la conversación política ha migrado a entornos cerrados y opacos, donde la desinformación puede propagarse sin apenas supervisión.
En estos espacios más cerrados, la radicalización puede desarrollarse en círculos pequeños e íntimos, lo que dificulta su detección y control. La radicalización política que antes se manifestaba abiertamente en plataformas como X ahora se incuba en espacios privados como WhatsApp, desde donde puede saltar a las redes abiertas más visibles. Esta dinámica ha sido clave en varios eventos recientes de agitación política, como el ataque al Capitolio de Estados Unidos en enero de 2021, en el que se demostró que la planificación de los eventos se coordinó a través de plataformas como WhatsApp y Parler, una red de nicho que también promueve la privacidad y la comunicación cerrada.
Ante la magnitud de estos desafíos, los sistemas judiciales y los reguladores de varios países han comenzado a intervenir. Un ejemplo claro es el caso del juez Alexandre de Moraes en Brasil, quien el 30 de agosto de 2024 ordenó la suspensión inmediata de X (anteriormente Twitter) debido a la negativa de la plataforma a eliminar seis perfiles de usuarios relacionados con el expresidente Jair Bolsonaro. Elon Musk, el CEO de X, se negó a cumplir la orden, calificando al juez de “dictador”. Este enfrentamiento subraya la creciente importancia de la moderación de contenidos y la difícil relación entre la libertad de expresión y la lucha contra la desinformación.
En los últimos años, el panorama ha cambiado drásticamente. Las plataformas cerradas, como WhatsApp y Telegram, han tomado el relevo en la conversación política y social.
Otro caso notable es el arresto, el 24 de agosto de 2024, de Pável Dúrov, fundador y CEO de Telegram, en Francia. Dúrov fue detenido por su supuesta falta de cooperación con las autoridades francesas y por no implementar medidas efectivas de moderación en su plataforma, lo que permitió la proliferación de actividades ilegales y contenidos peligrosos. Estos casos reflejan cómo el impacto de las redes sociales en los procesos electorales y en la polarización política ha forzado a los sistemas judiciales a tomar posiciones firmes, a pesar de las complejas tensiones que surgen entre la regulación y la libertad de expresión.
Sin embargo, las acciones locales tienen un alcance limitado cuando nos enfrentamos a un fenómeno que es, por naturaleza, global y transfronterizo. Las operaciones de desinformación no respetan las fronteras nacionales, y el capitalismo digital ha dado lugar a una economía internacional de la desinformación. Un estudio llevado a cabo por Qurium (4) muestra que, en 2022, activistas iraníes del movimiento #MeToo fueron atacados mediante campañas de desinformación organizadas por empresas paquistaníes de marketing digital. Estas operaciones transnacionales ponen de relieve cómo actores malintencionados pueden contratar servicios de desinformación en países con regulaciones más laxas, lo que dificulta aún más la lucha contra este fenómeno.
En este contexto, la inteligencia artificial se presenta como una herramienta clave para agravar la polarización política. La IA tiene un triple rol: primero, los algoritmos de recomendación impulsados por IA determinan qué contenidos ven los usuarios, amplificando aquellos que generan más interacciones, normalmente los más polarizadores. En segundo lugar, el microtargeting basado en datos personales permite a los actores políticos dirigirse a segmentos específicos de la población con mensajes personalizados que pueden manipular comportamientos de votación. Y finalmente, la IA generativa ha permitido la creación de desinformación a una escala sin precedentes. Los deepfakes, vídeos y audios sintéticos, que eran solo una curiosidad tecnológica hace unos años, ahora se han convertido en herramientas poderosas para manipular a las audiencias.
Un caso reciente, expuesto en 2023, es el de una red de cuentas iraníes desmantelada por OpenAI que formaba parte de una campaña de desinformación sobre las elecciones presidenciales en Estados Unidos. Esta red generaba contenido falso utilizando IA, lo que incluía desde textos hasta imágenes y vídeos, todos ellos diseñados para influir en la opinión pública. La IA generativa, con su capacidad para crear contenido sintético casi indistinguible de la realidad, plantea un nuevo desafío para la veracidad en los procesos electorales.
El caso de los deepfakes es especialmente preocupante. En 2024, Grok, la IA de X, fue acusada de generar imágenes hiperrealistas de políticos como Donald Trump, Kamala Harris y Joe Biden, mostrándolos en situaciones comprometedoras que nunca ocurrieron. Estas imágenes no solo despertaron la alarma entre los servicios de fact-checking, sino que también subrayan lo difícil que es detectar y detener la propagación de desinformación en el entorno actual.
Un informe del Stanford Internet Observatory (5), en colaboración con el Centro de Seguridad y Tecnología Emergente de la Universidad de Georgetown, publicado a principios de 2023, advierte sobre el impacto de los modelos de lenguaje a gran escala (LLM) en la desinformación. Estos modelos permiten que actores malintencionados diseñen y ejecuten campañas a bajo costo y a una escala sin precedentes. El informe subraya que la capacidad de los LLM para generar argumentos persuasivos en formato largo, difícilmente detectables como contenido malicioso, es un riesgo creciente para las democracias.
En términos regulatorios, la mayoría de los países están mal preparados para enfrentar estos desafíos. Si bien algunas naciones, como China, han intentado introducir regulaciones sobre el contenido generado por IA, como exigir marcas de agua en los vídeos sintéticos, la mayoría de los países carecen de marcos legales sólidos para abordar este problema. Además, existe el riesgo de que las regulaciones puedan ser mal utilizadas para controlar la información, más que para proteger la integridad de los procesos democráticos.
La combinación de la polarización política, la desinformación y el poder creciente de la inteligencia artificial plantea un desafío existencial para los procesos electorales y las democracias modernas. A medida que las tecnologías evolucionan, los Gobiernos y las sociedades deben encontrar maneras de mitigar sus efectos más corrosivos sin socavar la libertad de expresión. La pregunta que queda es si seremos capaces de regular estas herramientas a tiempo para proteger la integridad de nuestras democracias o si, por el contrario, estamos condenados a una era de elecciones manipuladas, polarización extrema y desconfianza institucional.
(1) From Backwaters to Major Policymakers: Policy Polarization in the States, 1970–2014
(2) The Hidden Drug
(3) Number of unique WhatsApp mobile users worldwide from January 2020 to June 2024
(4) Qurium
(5) Generative Language Models and Automated Influence Operations: Emerging Threats and Potential Mitigations
Ingeniero superior en telecomunicaciones, Miguel cuenta con más de 20 años de experiencia en el desarrollo de soluciones de procesamiento de lenguaje natural y tecnologías de inteligencia artificial. En LLYC, lidera un equipo de expertos enfocado en diseñar y desplegar soluciones innovadoras basadas en inteligencia artificial. Además, dirige la especialidad de Data Analytics de la firma, trabajando con grandes volúmenes de datos. En 2008, fundó Acteo, una compañía con la que colaboró con LLYC en proyectos innovadores de medición de reputación y análisis de datos. [España]