Com a rapidez com que a IA generativa se tornou uma parte significativa das nossas vidas, é fácil pensar que os governos foram apanhados com as calças na mão. Não há quase nenhuma regulamentação em vigor para limitar o alcance da IA, e mesmo a maioria das discussões importantes sobre o que fazer a respeito só começou no ano passado.
Hoje, temos uma ordem executiva do gabinete do presidente Joe Biden que tenta resolver esta questão. A ordem – que ainda não foi divulgada ao público – é um esforço do governo para colocar algumas proteções quando se trata de sistemas generativos de IA, como ChatGPT e Google Bard. No lugar da ordem completa, a administração Biden emitiu uma ficha informativa que resume pontos significativos. Verifique o link anterior para ver você mesmo.
Embora não resumiremos a planilha completa aqui, queremos destacar algumas coisas que vimos. Por favor, entenda que, como isso se baseia na ficha informativa e não no pedido completo, algumas nuances podem ter sido perdidas:
- Infelizmente, devido aos limites de uma ordem executiva, tudo nela se aplica apenas a agências federais que desejam trabalhar com outras organizações. Não limita uma empresa privada a trabalhar com outras empresas privadas, por exemplo. Isto dá a tudo na ordem uma fraqueza considerável.
- O melhor aspecto do pedido é que ele exige que os desenvolvedores que trabalham em sistemas de IA que possam representar ameaças à segurança nacional, econômica ou à saúde pública notifiquem o governo durante a fase de treinamento do modelo. Isso faz todo o sentido para nós e deve ser um regulamento fácil de ser aprovado fora da ordem executiva, eventualmente.
- O Instituto Nacional de Padrões e Tecnologia (NIST) e o Departamento de Segurança Interna trabalharão em padrões e práticas para serviços de IA de “equipe vermelha”. “Red teaming” é quando hackers tentam fazer com que um sistema faça algo “ruim” ou atacam o sistema em um ambiente controlado para que possam impedir a exploração maliciosa desse sistema. No entanto, a linguagem na ficha informativa relacionada à ordem de Biden é vaga aqui, então não está claro o quão importante isso é.
- Embora muitas das empresas de IA mais proeminentes – incluindo OpenAI e Google – já tenham concordado voluntariamente em implementar sistemas de marca d’água para conteúdo generativo de IA, a ficha informativa sugere que a ordem de Biden também pressiona por isso. Infelizmente, a ordem não parece exigir nada nem oferecer sistemas que possam funcionar para esse fim; apenas sugere que isso deveria ser feito.
- Embora a ordem mencione preocupações sobre a privacidade do usuário, ela não exige nem sugere nada relacionado a ela.
- Visivelmente ausentes da ficha informativa estão quaisquer menções ao roubo de propriedade intelectual de roubos de IA, direitos autorais, transparência de dados ou impedimento de sistemas generativos de IA de criarem obras imitadoras que poderiam ser mal interpretadas como provenientes de um criador real.
Em resumo, esta ordem é um gesto político abrangente. Isto prova que a administração Biden sabe e compreende que a IA precisa de regulamentação, mas não consegue realmente fazer muito a respeito. É claro que, para que ocorra uma regulamentação adequada, as leis terão de ser aprovadas no Congresso, e não através de ordens executivas da mesa do presidente. Dado o estado tumultuado do Congresso no momento, não é provável que vejamos isso em breve, tornando esta ordem tudo o que temos por enquanto.