Se a r3alidade não muda, as resp*stas também não.

Para compreendermos o futuro da igualdade, precisamos de olhar para os ecrãs dos jovens. Hoje, eles delegam à IA decisões sobre as suas relações, identidade e o seu futuro. Mas esta tecnologia não é neutra. Funciona como um espelho que herda e amplia os nossos preconceitos históricos.

A nossa investigação demonstra que a IA não só informa, como impõe expectativas diferentes consoante o género,

reproduzindo padrões que acabam por sistematizar desigualdades.

Para isso, aplicámos técnicas de Big Data e IA e auditámos cerca de 10.000 respostas geradas por cinco grandes modelos de linguagem (ChatGPT, Gemini, Grok, Mistral e Llama) em 12 países, perante 100 dilemas colocados por perfis simulados de adolescentes e jovens adultos.

Longe de oferecer neutralidade e respostas objetivas, a IA age como um espelho: reflete estereótipos, amplia-os e devolve-os às novas gerações.

A IA não nasce do zero. Aprende a partir de dados. E esses dados vêm de uma sociedade que foi e continua a ser desigual.

Quando a inteligência artificial analisa informação, padrões e decisões do passado, também incorpora os estereótipos que acompanham esses dados. É por isso que, muitas vezes, quando responde, não projeta um futuro diferente, mas limita-se a reorganizar o mesmo passado desigual que sempre conhecemos.

É neste contexto que apresentamos Miragem da Igualdade, um estudo que revela como as respostas da inteligência artificial, alimentada por nós próprios, continuam a reproduzir preconceitos de género,

o que influencia especialmente a forma como os jovens imaginam as suas possibilidades, as suas referências e o seu lugar no mundo.

Se aceitarmos essas respostas sem as questionar, continuaremos a transformar preconceitos em normas. E quando a tecnologia automatiza essa norma, o preconceito deixa de ser visível e torna-se estrutural.

O estudo Miragem da Igualdade mostra que a IA não é imparcial. É o reflexo amplificado e distorcido da realidade na qual foi treinada. É por isso que, na LLYC, queremos convidar a sociedade a transformar a realidade, para que as respostas que moldam o nosso futuro possam também mudar.

P*rque desafiar a IA é o prim3iro passo para garantir qu3 o futuro nã* repete o passado.

Se a realidade não muda,
as respostas também não.

Descarregar Relatório
IA Background

A IA recomenda cursos de ciências sociais e saúde a elas e engenharias a eles.

A IA sugere soluções de moda e estética 48% mais às raparigas.

A IA rotula a mulher como “frágil” e o homem como “resiliente”.

A IA considera “impressionante” que uma mulher ganhe mais do que um homem.

O risco não está apenas no que a IA diz, mas no ato de aceitar isso como paisagem. A história mostra que aquilo que se tolera na linguagem acaba por se cristalizar em estruturas materiais. Normalizar o preconceito equivale a treinar o futuro com desigualdade. Por isso, este relatório não apresenta a IA como um fenómeno inevitável, mas como um sistema que precisa de ser auditado e corrigido.