banner
Centro de notícias
Preços imbatíveis para produtos de qualidade excepcional.

Washington pode parar a IA gratuitamente

Jun 11, 2023

Cinco maneiras de Washington responsabilizar o Vale do Silício

Em abril, os advogados da companhia aérea Avianca notaram algo estranho. Um passageiro, Robert Mata, processou a companhia aérea, alegando que um carrinho de serviço de um voo atingiu e feriu gravemente seu joelho esquerdo, mas vários casos citados no processo de Mata pareciam não existir. O juiz também não conseguiu verificá-los. Acontece que o ChatGPT inventou todos eles, fabricando nomes e decisões. Um dos advogados de Mata, Steven A. Schwartz, usou o chatbot como assistente – a primeira vez que usou o programa para pesquisa jurídica – e, como escreveu Schwartz em um depoimento, “não tinha conhecimento da possibilidade de que seu conteúdo pudesse ser falso. ”

O incidente foi apenas um em uma série de casos de IA generativa espalhando falsidades, sem mencionar fraudes financeiras, pornografia não consensual e muito mais. As empresas tecnológicas estão a comercializar os seus produtos de IA e a obter potencialmente lucros enormes, com pouca responsabilização ou supervisão legal pelos danos no mundo real que esses produtos podem causar. O governo federal agora está tentando recuperar o atraso.

No final do mês passado, a administração Biden anunciou que sete empresas tecnológicas na vanguarda do desenvolvimento da IA ​​tinham concordado com um conjunto de compromissos voluntários para garantir que os seus produtos são “seguros, protegidos e fiáveis”. Esses compromissos seguem-se a uma série de cimeiras da Casa Branca sobre IA, a testemunhos do Congresso sobre a regulamentação da tecnologia e a declarações de várias agências governamentais de que estão a levar a IA a sério. No anúncio, OpenAI, Microsoft, Google, Meta e outros comprometeram-se a submeter os seus produtos a testes de terceiros, investir na redução de preconceitos e ser mais transparentes sobre as capacidades e limitações dos seus sistemas de IA.

Leia: A América já tem uma subclasse de IA

A linguagem é promissora, mas também apenas uma promessa, carecendo de mecanismos de aplicação e de detalhes sobre os próximos passos. A regulamentação da IA ​​exige uma burocracia pesada para enfrentar empresas notoriamente secretas e tecnologias em rápida evolução. Grande parte da linguagem da administração Biden imita as linhas de relações públicas dos luminares da tecnologia sobre as capacidades mundiais dos seus produtos, como armas biológicas e máquinas que se “auto-replicam”. A acção governamental será essencial para salvaguardar a vida e os meios de subsistência das pessoas – não apenas contra a suposta ameaça a longo prazo de máquinas malignas e superinteligentes, mas também contra ameaças quotidianas. A IA generativa já exibiu preconceitos grosseiros e potencial para uso indevido. E durante mais de uma década, algoritmos menos avançados, mas igualmente opacos e muitas vezes discriminatórios, têm sido utilizados para analisar currículos e determinar pontuações de crédito, em software de diagnóstico e como parte de ferramentas de reconhecimento facial.

Falei com vários especialistas e saí com uma lista de cinco das formas mais eficazes pelas quais o governo poderia regular a IA para proteger o país contra os riscos quotidianos da tecnologia, bem como os seus perigos mais hipotéticos e apocalípticos.

1. Não acredite na palavra das empresas de IA em nada.

Um medicamento anunciado para quimioterapia tem de beneficiar comprovadamente os pacientes com cancro em ensaios clínicos, tais como a redução de tumores, e depois obter a aprovação da FDA. Em seguida, o fabricante deve divulgar os efeitos colaterais que os pacientes podem sentir. Mas não existe tal responsabilidade para produtos de IA. “As empresas estão fazendo alegações de que a IA é capaz de fazer coisas X ou Y, mas não comprovam que podem”, disse-me Sarah Myers West, diretora administrativa do AI Now Institute e ex-conselheira sênior da FTC em IA. Numerosas empresas de tecnologia foram criticadas por deturpar o quão tendenciosos ou eficazes são os seus algoritmos, ou por não fornecerem quase nenhuma evidência para avaliá-los.

Exigir que as ferramentas de IA sejam submetidas a testes de terceiros para garantir que atendam às métricas acordadas de parcialidade, precisão e interpretabilidade “é um primeiro passo realmente importante”, Alexandra Givens, presidente do Centro para Democracia e Tecnologia, uma organização sem fins lucrativos que Defende a privacidade e os direitos humanos na Internet e recebe algum financiamento da indústria tecnológica, disse-me. As empresas poderiam ser obrigadas a divulgar informações sobre como os seus programas foram treinados, as limitações do software e como atenuaram potenciais danos. “Neste momento, existe uma assimetria de informação extraordinária”, disse ela – as empresas tecnológicas tendem a revelar muito pouco sobre como treinam e validam o seu software. Uma auditoria poderia envolver testar com que frequência, digamos, um programa de visão computacional reconhece erroneamente rostos negros versus brancos ou se os chatbots associam certos empregos a papéis de gênero estereotipados (o ChatGPT afirmou uma vez que os advogados não podem estar grávidas, porque os advogados devem ser homens).