Kaitlyn Cimino / Autoridade Android
Graças ao ChatGPT e aos seus muitos rivais, a inteligência artificial deixou de ser uma frase que antes evocava entusiasmo sem limites para uma que agora desperta uma sensação de pavor. Não é difícil perceber porquê – a ascensão meteórica da tecnologia não tem precedentes. Ao contrário do metaverso e dos ciclos de hype anteriores, os produtos de IA estão disponíveis hoje e suas capacidades estão avançando em um ritmo chocante. No entanto, é esse mesmo potencial que tem levantado sérias preocupações entre ícones da tecnologia e especialistas em IA. Mas será que o Vale do Silício está certo e será que uma variedade aparentemente útil de chatbots poderia realmente levar à queda ou mesmo à extinção da humanidade?
IA moderna: uma tempestade iminente
Mesmo que ignoremos a possibilidade de um apocalipse por um minuto, é impossível ignorar como a IA está a afectar os meios de subsistência de milhares, se não milhões, de pessoas hoje em dia. Embora geradores de imagens e chatbots possam parecer inofensivos, eles já substituíram todos, desde agentes de suporte ao cliente até designers gráficos. E, ao contrário da industrialização do século XVIII, não se pode exactamente argumentar que a IA criará novos empregos na sua esteira.
Os sistemas modernos de IA podem raciocinar e autocorrigir, reduzindo a necessidade de supervisão humana – ao contrário das máquinas tradicionais. Apenas algumas semanas atrás, a startup de IA Cognition Labs revelou Devin – ou o que chama de “o primeiro engenheiro de software totalmente autônomo do mundo”. Além de gerar código, Devin pode identificar e corrigir bugs, treinar e implantar seus próprios modelos de IA, contribuir para projetos de código aberto e até mesmo participar de discussões da comunidade. Infelizmente, esta autonomia tem sérias implicações que vão muito além da simples perda de emprego.
O maior perigo não é a IA que nos supera, mas aquela que pode nos enganar.
Veja o backdoor malicioso descoberto na ferramenta de compactação de código aberto XZ Utils no mês passado. Embora o XZ seja pouco conhecido fora das comunidades de desenvolvedores, milhões de servidores baseados em Linux dependem dele e o backdoor poderia ter concedido aos invasores controle remoto sobre muitos sistemas críticos. No entanto, este não foi um hack ou exploit tradicional. Em vez disso, o invasor cultivou uma reputação de contribuidor útil durante vários anos antes de ganhar a confiança da comunidade e inserir o código como um backdoor.
Um sistema sofisticado de IA poderia automatizar esses ataques em grande escala, lidando com todos os aspectos, desde a geração de códigos maliciosos até a imitação de discussões humanas. É claro que os agentes autônomos baseados em linguagem não são muito capazes ou úteis hoje em dia. Mas uma IA que possa integrar-se perfeitamente nas comunidades de desenvolvedores e manipular infraestruturas essenciais parece inevitável. A OpenAI e a Cognitive Labs estão construindo barreiras de proteção em torno de seus produtos de IA, mas a realidade é que não faltam modelos de linguagem sem censura para os invasores explorarem.
Ainda mais preocupante, os especialistas temem que tais enganos e escaramuças possibilitadas pela IA possam ser apenas a ponta do iceberg. O risco real é que a IA possa um dia evoluir para além do controlo humano.
A probabilidade de destruição
Uma IA capaz de escapar do controle humano hoje parece uma trama de ficção científica, mas para muitos na indústria de tecnologia, é uma inevitabilidade. Conforme relatado por O jornal New York Times, uma nova estatística chamada p(doom) ganhou força no Vale do Silício. Abreviação de “probabilidade de destruição”, a métrica começou como uma forma irônica de quantificar o quão preocupado alguém está com um apocalipse impulsionado pela IA. Mas a cada dia que passa, isso se transforma em uma discussão séria.
As estimativas variam, mas a parte notável é que praticamente ninguém na indústria classifica a sua probabilidade de destruição como zero. Mesmo aqueles que investem profundamente na tecnologia, como o cofundador da Anthropic AI, Dario Amodei, fixam o seu p(desgraça) em cerca de 10 a 25 por cento. E isso sem contar os muitos investigadores de segurança da IA que citaram números superiores a 50 por cento.
Esse medo da destruição decorre do fato de as empresas de tecnologia estarem presas em uma corrida para desenvolver a IA mais poderosa possível. E isso significa eventualmente usar a IA para criar uma IA melhor até criarmos um sistema superinteligente com capacidades além da compreensão humana. Se isso parece rebuscado, vale a pena notar que grandes modelos de linguagem como o Gemini do Google já mostram capacidades emergentes, como tradução de idiomas, que vão além da programação pretendida.
No Vale do Silício, mesmo aqueles que constroem a IA estão pessimistas quanto às chances da humanidade.
A grande questão é se uma IA superinteligente se alinhará com os valores humanos ou nos prejudicará na sua busca por uma eficiência implacável. Esta situação talvez seja melhor explicada por um experimento mental conhecido como maximizador de clipe de papel. Ela postula que uma IA aparentemente inofensiva, quando encarregada de produzir o maior número possível de clipes de papel, poderia consumir os recursos do mundo inteiro, sem levar em conta os humanos ou as nossas tradições. O filósofo sueco Nick Bostrom teorizou,
Suponha que temos uma IA cujo único objetivo é fazer o maior número possível de clipes de papel. A IA perceberá rapidamente que seria muito melhor se não existissem humanos, porque os humanos poderiam decidir desligá-la. Porque se os humanos fizessem isso, haveria menos clipes de papel. Além disso, os corpos humanos contêm muitos átomos que poderiam ser transformados em clipes de papel.
As proteções de segurança que existem atualmente em torno de plataformas como Midjourney e ChatGPT não são suficientes, especialmente porque seus próprios criadores muitas vezes não conseguem explicar o comportamento errático. Então, qual é a solução? O Vale do Silício não tem uma resposta e, ainda assim, a Big Tech continua inovando de forma tão imprudente como sempre. No mês passado, Google e Microsoft cortaram empregos em suas respectivas equipes de confiança e segurança. Este último supostamente demitiu toda a sua equipe dedicada a orientar a inovação ética em IA.
Diga o que quiser sobre Elon Musk e as suas muitas controvérsias, mas é difícil discordar da sua posição de que o setor da IA precisa desesperadamente de reforma e regulamentação. Após preocupações generalizadas de Musk, do cofundador da Apple, Steve Wozniak, e outros, a OpenAI concordou com uma pausa provisória no treinamento de novos modelos no ano passado. No entanto, o GPT-5 está agora em desenvolvimento activo e a corrida para alcançar a superinteligência continua, deixando a questão da segurança e do futuro da humanidade em jogo.