quinta-feira, 25 de maio de 2023

Inteligência artificial traz riscos e requer marco regulatório, diz Villas Bôas Cueva

Para Cueva, IA já faz parte do cotidiano das pessoas, mas suscita problemas sérios



Cada vez mais presentes nas atividades do dia a dia, os mecanismos de inteligência artificial (IA) trazem consigo um risco à sociedade. Diante desse quadro, nomes relevantes do setor de tecnologia clamam por regras, e os países já se mobilizam para criar seus marcos regulatórios a fim de garantir segurança no uso de tais ferramentas, afirma o ministro Ricardo Villas Bôas Cueva, do Superior Tribunal de Justiça.

ara Cueva, a sociedade já se beneficia dos aspectos positivos da inteligência artificial, "seja quando pedimos um crédito, uma contratação de um seguro ou de um beneficio, ou as câmeras de reconhecimento facial". Porém, junto com os inúmeros prós, há também os contras, como os riscos aos direitos de personalidade, de invasão de privacidade e de discriminação de pessoas.

"Há, sobretudo agora, com esses modelos de linguagem ampliada, de IA generativa, como os chatboxes [caso do ChatGPT], o risco de informações erradas, que possam conduzir as pessoas a conclusões erradas. E também o risco de que esses mecanismos ampliem desmesuradamente a desinformação, o que ameaça até mesmo os processos políticos da democracia", disse o ministro.

Ele lembrou que os possíveis impactos negativos da inteligência artificial já levaram executivos de tecnologia e importantes pesquisadores — incluindo Elon Musk, da Tesla, e o pioneiro da IA Yoshua Bengio — a pedir uma moratória no desenvolvimento de novas ferramentas do tipo.

As dúvidas em torno do uso da IA também mobilizam os legisladores ao redor do mundo, segundo o ministro. É o que ocorre na União Europeia, já em avançado estágio de discussão do projeto de sua pioneira Lei de Inteligência Artificial, nos Estados Unidos e também no Brasil, com o Projeto de Lei 2.338/2023, que dispõe sobre o uso da IA no país.

"Então, já se discutem alguns modelos de regulação que levam em conta a classificação de riscos, pois alguns são considerados excessivos, outros considerados altos, outros razoáveis, e para cada um desses riscos há a necessidade de normas específicas." Tudo isso seria supervisionado por uma autoridade encarregada de evitar abusos no uso da tecnologia.

Quanto ao Poder Judiciário, os uso dos algoritmos pode fornecer informações adicionais e relevantes — desde que fidedignas —, ajudando os magistrados na tomada de decisão. Na avaliação do ministro, porém, a tecnologia não pode dar a palavra final no lugar do magistrado.

"Fala-se também nos modelos de justiça preditiva, que seriam modelos pelos quais o magistrado teria uma análise prévia de toda a jurisprudência que já existe a respeito, com muita precisão, para evitar tratamento antiisonômico de casos iguais, para evitar que haja a chamada 'loteria judiciária', e que haja decisões diferentes para casos idênticos."

Clique aqui para assistir à entrevista ou veja abaixo:

Revista Consultor Jurídico, 25 de maio de 2023, 9h45

Nenhum comentário:

Postar um comentário