![OpenAI no site em smartphone foto stock (1) OpenAI no site em smartphone foto stock (1)](https://i0.wp.com/rafasgeek.com.br/wp-content/uploads/2024/06/Carta-aberta-de-especialistas-em-IA-um-apelo-por-seguranca.jpg?ssl=1)
Edgar Cervantes / Autoridade Android
DR
- Especialistas em IA, incluindo ex-funcionários da OpenAI, divulgaram uma carta aberta pedindo melhores medidas de segurança e proteção aos denunciantes na indústria de IA.
- A carta destaca preocupações sobre os riscos imediatos da IA, como violações de direitos autorais e desinformação, juntamente com potenciais ameaças de longo prazo.
- Os signatários propõem a eliminação de cláusulas de não depreciação, a implementação de sistemas de denúncia anónima e a promoção de uma cultura de crítica aberta e transparência.
Um grupo de atuais e ex-funcionários das principais empresas de IA, como OpenAI e Google DeepMind, uniram-se para expressar as suas preocupações sobre a necessidade de medidas de segurança mais fortes no campo de rápido crescimento da IA. A carta intitulada ‘righttowarn.ai’, assinada por mais de uma dúzia de especialistas em IA, salienta que, embora a IA tenha o potencial de trazer benefícios incríveis para a humanidade, também existem alguns riscos sérios envolvidos.
Estes riscos vão desde o aumento das desigualdades existentes até à propagação de desinformação e até mesmo à possibilidade de resultados como uma IA desonesta causar a extinção humana. Os signatários sublinharam que estas preocupações são partilhadas não apenas por eles, mas também pelos governos, outros especialistas em IA e até pelas próprias empresas. Aqui está a carta na íntegra:
Em suma, eles estão dizendo que as empresas de IA podem estar um pouco focadas demais em ganhar dinheiro e não o suficiente em garantir que sua tecnologia seja segura. Eles acreditam que a abordagem atual de permitir que as empresas se auto-regulam e partilhem voluntariamente informações sobre os seus sistemas de IA não é suficiente para enfrentar os riscos complexos e potencialmente de longo alcance envolvidos.
Para resolver isso, os funcionários sugeriram algumas ideias. Eles acham que as empresas de IA deveriam prometer não punir os funcionários que levantam preocupações, criar formas anônimas para as pessoas relatarem problemas e encorajar a discussão aberta sobre os riscos da IA. Eles também acham que os funcionários atuais e antigos deveriam poder falar abertamente sobre suas preocupações, desde que não revelem nenhum segredo da empresa.
Este apelo à ação surge após algumas controvérsias recentes no mundo da IA, como a dissolução da equipa de segurança da OpenAI e a saída de algumas figuras-chave que eram grandes em segurança. Curiosamente, a carta tem o apoio de Geoffrey Hinton, um respeitado pioneiro da IA que recentemente deixou o Google para poder falar mais livremente sobre os perigos potenciais da IA.
Esta carta aberta é um lembrete não tão gentil de que a IA está se desenvolvendo tão rapidamente que as regras e regulamentos ainda não foram totalmente alcançados. À medida que a IA se torna mais poderosa e aparece em mais lugares, torna-se muito importante garantir que seja segura e transparente. Estes especialistas em IA estão a defender a responsabilização e a proteção daqueles que se manifestam, na esperança de garantir que, à medida que continuamos a desenvolver a IA, o fazemos de uma forma que seja boa para todos.