O Google suspendeu na última quinta-feira (22) a nova versão aprimorada do Gemini, ferramenta de inteligência artificial (IA) que cria imagens de pessoas. A decisão foi tomada após a ferramenta gerar imagens de soldados da era nazista como pessoas de diferentes origens étnicas, incluindo negros e mulheres.
O caso gerou críticas e levantou questões sobre o "racismo algorítmico" impulsionado pela IA. De acordo com o Google, a suspensão visa "resolver problemas recentes" com a função de geração de imagens.
Imagens controversas
A polêmica começou quando um usuário do X (ex-Twitter) chamado John L. publicou imagens do resultado fornecido pelo Gemini após solicitar uma "imagem de um soldado alemão de 1943". A IA gerou quatro imagens de soldados: um branco, outro negro e duas mulheres negras.
"O Google AI tem um mecanismo de diversidade adicionado que alguém não projetou muito bem ou não testou", escreveu John L no X.
Histórico de problemas
As empresas de tecnologia frequentemente são acusadas de lançar produtos de IA antes que sejam devidamente testados. O Google, em particular, tem um histórico irregular no lançamento de tais produtos. No ano passado, a empresa pediu desculpas após um anúncio de seu chatbot Bard mostrar o programa respondendo incorretamente a uma pergunta básica sobre astronomia.
Falta de diversidade e inclusão
Especialistas em DE&I (Diversidade, Equidade e Inclusão) alertam que as tecnologias refletem os vieses presentes na sociedade, podendo perpetuar discriminações. A falta de diversidade, equidade e inclusão nas equipes de desenvolvimento de IA pode levar a algoritmos discriminatórios, perpetuando o racismo sistêmico.
"A interseção entre inteligência artificial e racismo demanda atenção. A falta de diversidade, equidade e inclusão nessas equipes pode levar a algoritmos discriminatórios, perpetuando o racismo sistêmico. Portanto, é crucial incorporar uma abordagem inclusiva desde o início do desenvolvimento de IA, garantindo a representação de diversas vozes e perspectivas. A DE&I é fundamental para a criação de tecnologias verdadeiramente justas e inclusivas", afirma Deives Rezende Filho, especialista em DE&I e CEO da Condurú Consultoria.
Casos anteriores de racismo algorítmico
Esta não é a primeira vez que o Google é acusado de racismo em seus produtos de IA. Em 2018, a empresa foi criticada por entregar fotos e vídeos de criminosos quando as pessoas buscavam "adolescentes negros" e jovens bem vestidos ao pesquisar "adolescentes brancos". Outro caso envolveu a busca por "gorilas", que apresentava imagens de pessoas negras.
Debate sobre o futuro da IA
O caso do Gemini reacende o debate sobre o futuro da IA e a necessidade de garantir que essa tecnologia seja desenvolvida de forma ética e responsável. A indústria precisa se esforçar para criar sistemas de IA que sejam justos e inclusivos, livres de vieses e discriminações.