19/10/2023 às 19h34min - Atualizada em 19/10/2023 às 19h34min

Pesquisadores de Stanford avaliam transparência dos modelos de IA criados pela Amazon e Google

Resultados levantam preocupações significativas e destacam a necessidade urgente das empresas divulgarem informações detalhadas

A falta de transparência nos modelos fundamentais da inteligência artificial (IA) é uma questão crítica, de acordo com um recente relatório divulgado por pesquisadores da Universidade de Stanford. Este estudo, intitulado "Foundation Model Transparency Index", tem como objetivo avaliar a transparência dos modelos básicos de IA criados por empresas líderes como OpenAI e Google. Os resultados levantam preocupações significativas e destacam a necessidade urgente de empresas divulgarem informações sobre fontes de dados e trabalho humano na formação de seus modelos, sublinhando os riscos potenciais da opacidade na indústria de IA.
 

"Está claro nos últimos três anos que a transparência está em declínio enquanto a capacidade dispara. Consideramos isso altamente problemático porque vimos em outras áreas, como a mídia social, que quando a transparência diminui, coisas ruins podem acontecer como resultado", disse o professor de Stanford, Percy Liang, que desempenhou um papel fundamental na criação do Foundation Model Transparency Index.


Os modelos de base, essenciais para a IA generativa e os avanços na automação, obtiveram classificações decepcionantes no índice. Mesmo o modelo mais transparente, o Llama 2 da Meta, obteve uma modesta pontuação de 54 em 100. O modelo com a classificação mais baixa foi o Titan da Amazon, com apenas 12 em 100. O modelo GPT-4 da IBM, desenvolvido pela OpenAI, recebeu uma pontuação de 48 em 100. Enquanto isso, o PaLM 2 foi avaliado com uma pontuação de 40.
 

Os autores do relatório esperam que este estudo funcione como um catalisador para promover maior transparência no campo da IA e estabelecer-se como um ponto de referência fundamental para os governos à medida que enfrentam os desafios regulatórios dessa tecnologia em expansão.


Na esteira deste estudo, a União Europeia (UE) recentemente fez progressos significativos no sentido de promulgar o primeiro conjunto abrangente de regulamentos para IA do mundo, conhecido como a "Lei de Inteligência Artificial". De acordo com as regras propostas, as ferramentas de IA serão categorizadas de acordo com seus níveis de risco, abordando preocupações sobre vigilância biométrica, disseminação de informações enganosas e linguagem discriminatória. Empresas na UE que utilizam ferramentas generativas de IA, como o ChatGPT, agora estão obrigadas a divulgar qualquer material protegido por direitos autorais que tenha sido utilizado em seu desenvolvimento, promovendo assim a transparência no uso dessas tecnologias.

A falta de transparência em modelos de IA é uma questão de preocupação crescente à medida que a tecnologia continua avançando e desempenhando um papel cada vez mais importante em nossa sociedade. Este estudo e os regulamentos propostos pela UE representam passos significativos na direção de uma IA mais responsável e transparente.

Link
Notícias Relacionadas »
Comentários »
Comentar

*Ao utilizar o sistema de comentários você está de acordo com a POLÍTICA DE PRIVACIDADE do site https://web3news.com.br/.