Um estudo da Unesco expõe a realidade do viés de gênero em IA generativa. Descubra como isso afeta a representação de gênero e o que podemos fazer para mudar
Inteligência Artificial e a Questão de Gênero: Uma Perspectiva da Unesco
No Dia Internacional da Mulher, a Unesco trouxe à tona uma questão preocupante: a existência de preconceito de gênero no conteúdo gerado por ferramentas de inteligência artificial generativa. Um estudo detalhado revelou que as mulheres são descritas em funções domésticas com uma frequência quatro vezes maior do que os homens, uma disparidade que reflete estereótipos de longa data.
Mulheres ‘Do Lar’ e Homens Executivos: Uma Disparidade Revelada
O relatório “Bias Against Women and Girls in Large Language Models” analisou as tendências nos Modelos de Linguagem de Grande Escala (LLMs), que são a espinha dorsal de plataformas populares de IA generativa como GPT-3.5 e GPT-2 da OpenAI e Llama 2 da Meta. Os resultados mostraram que as mulheres são frequentemente associadas a palavras como “casa”, “família” e “filhos”, enquanto os homens são ligados a “negócios”, “executivo”, “salário” e “carreira”.
A Influência da IA na Percepção de Gênero
Audrey Azoulay, Diretora Geral da Unesco, destacou o impacto que a IA generativa pode ter na percepção de gênero. As ferramentas de IA, cada vez mais presentes no trabalho, estudos e lares, têm o potencial de moldar sutilmente as percepções de milhões, amplificando desigualdades de gênero existentes através de pequenos preconceitos incorporados em seu conteúdo.
Diversidade de Conteúdo e Viés em LLMs
O estudo também mediu a diversidade de conteúdo em textos gerados por IA, focando em pessoas de diversos gêneros, sexualidades e origens culturais. Os LLMs de código aberto, em particular, mostraram uma tendência a atribuir empregos mais diversificados e de alto status aos homens, enquanto as mulheres eram frequentemente associadas a funções subvalorizadas ou estigmatizadas socialmente.
Narrativas de Gênero na IA: Um Contraste Marcante
O Llama 2, ao gerar histórias sobre meninos e homens, utilizou palavras como “tesouro”, “bosque”, “mar”, “aventureiro” e “decidido”. Em contraste, as histórias sobre mulheres incluíam termos como “jardim”, “amor”, “sentido”, “gentil”, “cabelo” e “marido”, reforçando uma divisão de gênero nas narrativas.
Preconceitos Homofóbicos e Raciais na IA
Além do viés de gênero, o estudo da Unesco também apontou para atitudes homofóbicas e estereótipos raciais presentes nos LLMs. Quando solicitados a completar frases sobre pessoas gays, os modelos de IA geraram conteúdos predominantemente negativos, associando-os a posições inferiores na hierarquia social e a crimes.
Conclusão: Um Chamado à Reflexão e Ação
Este estudo da Unesco serve como um chamado à reflexão sobre o papel da IA na perpetuação de desigualdades sociais e a necessidade de desenvolver tecnologias de maneira ética e inclusiva. É um convite para que empresas e desenvolvedores de IA trabalhem em conjunto para criar modelos de linguagem que representem todos os indivíduos de forma justa e equitativa, promovendo uma sociedade mais igualitária.
- O bairro da Liberdade e a luta para preservar sua memória negra
- Club Med e Grupo Bisutti: Destination Wedding com elegância e exclusividade
- Rota Rio: festival gastronômico leva sabores do Estado à Lagoa Rodrigo de Freitas
- Paço Imperial: exposições com diversidade artística e entrada gratuita
- Encruzilhadas da Arte Afro-Brasileira: uma imersão na arte negra no CCBB Rio
- Camarote Pride nas Alturas estreia na Parada LGBT+ do Rio de Janeiro