Pallade Veneta - Inteligência Artificial está longe de ser 'transparente', diz estudo

Inteligência Artificial está longe de ser 'transparente', diz estudo


Inteligência Artificial está longe de ser 'transparente', diz estudo
Inteligência Artificial está longe de ser 'transparente', diz estudo / foto: MARCO BERTORELLO - AFP/Arquivos

Os modelos de Inteligência Artificial (IA), que se multiplicaram desde o lançamento do ChatGPT, carecem de transparência e representam um risco para os aplicativos que os utilizam como base técnica, segundo um estudo da Universidade de Stanford publicado nesta quarta-feira (19).

Alterar tamanho do texto:

Um novo índice projetado e calculado por pesquisadores desta universidade californiana aponta que o modelo mais transparente entre os dez avaliados é o Llama 2, um sistema de Inteligência Artificial lançado pela Meta em julho e reutilizável livremente.

Obteve, no entanto, uma pontuação de apenas 54%, ainda muito insuficiente, segundo os autores do estudo.

GPT-4, o modelo de linguagem criado pela Open AI – empresa financiada pela Microsoft por trás do famoso robô ChatGPT – obteve apenas 48% de transparência.

Os outros modelos conhecidos, como o Palm-2 do Google, ou o Claude 2, da empresa Anthropic (financiada pela Amazon), aparecem ainda mais abaixo no ranking.

Todos os modelos devem tentar alcançar entre 80% e 100% de transparência, estima o diretor de pesquisa de Stanford, Rishi Bommasani, sobre os chamados modelos "de fundação".

A falta de transparência torna mais difícil para as empresas "saberem se podem criar aplicativos seguros baseados nestes modelos de negócio" e "para os acadêmicos confiarem nestes modelos para sua pesquisa", explica o estudo.

Isso também complica a tarefa dos consumidores que querem "compreender os limites dos modelos, ou pedir uma indenização pelos danos sofridos", detalha.

Especificamente, "a maioria das empresas não divulga o alcance dos conteúdos protegidos por direitos autorais usados para treinar seu modelo. Também não divulga o uso de mão de obra humana para corrigir os dados de treinamento, o que pode ser muito problemático", enfatiza.

"Nenhuma empresa fornece informações sobre o número de usuários que dependem de seu modelo, nem fornece estatísticas sobre os países, ou mercados, que o utilizam", destaca Bommasani.

Segundo os autores, este índice de transparência pode ser usado no futuro por autoridades políticas e reguladoras.

União Europeia, Estados Unidos, China, Reino Unido e Canadá anunciaram seu desejo de uma IA mais transparente.

"A Inteligência Artificial é uma grande promessa de oportunidades incríveis, mas também apresenta riscos para a nossa sociedade, para a nossa economia e para a nossa segurança nacional", destacou o presidente dos Estados Unidos, Joe Biden, em julho, aos responsáveis pelas empresas do setor.

A questão esteve em destaque durante a reunião do G7 no Japão, em maio, e o Reino Unido se prepara para receber uma cúpula internacional sobre IA em novembro.

L.Barone--PV