23/02/2024 às 12h49min - Atualizada em 23/02/2024 às 12h49min

Google suspende ferramenta de IA após gerar imagens polêmicas de soldados nazistas

"Racismo algorítmico" da IA reacende debate sobre o futuro da tecnologia

O Google suspendeu na última quinta-feira (22) a nova versão aprimorada do Gemini, ferramenta de inteligência artificial (IA) que cria imagens de pessoas. A decisão foi tomada após a ferramenta gerar imagens de soldados da era nazista como pessoas de diferentes origens étnicas, incluindo negros e mulheres.

O caso gerou críticas e levantou questões sobre o "racismo algorítmico" impulsionado pela IA. De acordo com o Google, a suspensão visa "resolver problemas recentes" com a função de geração de imagens.

Imagens controversas

A polêmica começou quando um usuário do X (ex-Twitter) chamado John L. publicou imagens do resultado fornecido pelo Gemini após solicitar uma "imagem de um soldado alemão de 1943". A IA gerou quatro imagens de soldados: um branco, outro negro e duas mulheres negras.
 

"O Google AI tem um mecanismo de diversidade adicionado que alguém não projetou muito bem ou não testou", escreveu John L no X.


Histórico de problemas

As empresas de tecnologia frequentemente são acusadas de lançar produtos de IA antes que sejam devidamente testados. O Google, em particular, tem um histórico irregular no lançamento de tais produtos. No ano passado, a empresa pediu desculpas após um anúncio de seu chatbot Bard mostrar o programa respondendo incorretamente a uma pergunta básica sobre astronomia.

Falta de diversidade e inclusão

Especialistas em DE&I (Diversidade, Equidade e Inclusão) alertam que as tecnologias refletem os vieses presentes na sociedade, podendo perpetuar discriminações. A falta de diversidade, equidade e inclusão nas equipes de desenvolvimento de IA pode levar a algoritmos discriminatórios, perpetuando o racismo sistêmico.
 

"A interseção entre inteligência artificial e racismo demanda atenção. A falta de diversidade, equidade e inclusão nessas equipes pode levar a algoritmos discriminatórios, perpetuando o racismo sistêmico. Portanto, é crucial incorporar uma abordagem inclusiva desde o início do desenvolvimento de IA, garantindo a representação de diversas vozes e perspectivas. A DE&I é fundamental para a criação de tecnologias verdadeiramente justas e inclusivas", afirma Deives Rezende Filho, especialista em DE&I e CEO da Condurú Consultoria.


Casos anteriores de racismo algorítmico

Esta não é a primeira vez que o Google é acusado de racismo em seus produtos de IA. Em 2018, a empresa foi criticada por entregar fotos e vídeos de criminosos quando as pessoas buscavam "adolescentes negros" e jovens bem vestidos ao pesquisar "adolescentes brancos". Outro caso envolveu a busca por "gorilas", que apresentava imagens de pessoas negras.

Debate sobre o futuro da IA

O caso do Gemini reacende o debate sobre o futuro da IA e a necessidade de garantir que essa tecnologia seja desenvolvida de forma ética e responsável. A indústria precisa se esforçar para criar sistemas de IA que sejam justos e inclusivos, livres de vieses e discriminações.

"Vamos suspender a geração de imagens de pessoas e em breve lançaremos uma versão aprimorada", disso o Google em comunicado à imprensa.

Link
Notícias Relacionadas »
Comentários »
Comentar

*Ao utilizar o sistema de comentários você está de acordo com a POLÍTICA DE PRIVACIDADE do site https://web3news.com.br/.