No contexto: Transformadores pré-treinados generativos (GPT), como os usados no chatbot ChatGPT da OpenAI e no gerador de imagens Dall-E, são a tendência atual na pesquisa de IA. Todo mundo quer aplicar os modelos GPT a quase tudo, e isso gerou uma controvérsia considerável por vários motivos.
A Scientific American observa que um grupo de pesquisadores desenvolveu um modelo GPT que pode ler a mente de um ser humano. O programa não é diferente do ChatGPT, pois pode gerar linguagem coerente e contínua a partir de um prompt. A principal diferença é que o prompt é a atividade do cérebro humano.
A equipe da Universidade do Texas em Austin acaba de publicar seu estudo na Nature Neuroscience na segunda-feira. O método usa imagens de uma máquina fMRI para interpretar o que o sujeito está “ouvindo, dizendo ou imaginando”. Os cientistas chamam a técnica de “não invasiva”, o que é irônico, já que ler os pensamentos de alguém é o mais invasivo possível.
No entanto, a equipe quer dizer que seu método não é clinicamente invasivo. Não é a única vez que os cientistas desenvolveram uma tecnologia que pode ler pensamentos, mas é o único método bem-sucedido que não requer eletrodos conectados ao cérebro do sujeito.
treinamos e testamos nosso decodificador em respostas cerebrais enquanto os sujeitos ouviam histórias narrativas naturais. dadas respostas cerebrais a novas histórias que não foram usadas no treinamento, o decodificador recuperou com sucesso o significado das histórias (3/7) pic.twitter.com/HmJDIB36WM
– Jerry Tang (@jerryptang) 30 de setembro de 2022
O modelo, apelidado sem imaginação de GPT-1, é o único método que interpreta a atividade cerebral em um formato de linguagem contínua. Outras técnicas podem cuspir uma palavra ou frase curta, mas GPT-1 pode formar descrições complexas que explicam a essência do que o sujeito está pensando.
Por exemplo, um participante ouviu uma gravação de alguém afirmando: “Ainda não tenho minha carteira de motorista”. O modelo de linguagem interpretou a imagem fMRI como significando: “Ela ainda nem começou a aprender a dirigir”. Portanto, embora não leia os pensamentos da pessoa literalmente, pode obter uma ideia geral e resumi-la.
Métodos invasivos podem interpretar palavras exatas porque são treinados para reconhecer funções motoras físicas específicas no cérebro, como os lábios se movendo para formar uma palavra. O modelo GPT-1 determina sua saída com base no fluxo sanguíneo no cérebro. Ele não pode repetir pensamentos com precisão porque funciona em um nível mais alto de funcionamento neurológico.
“Nosso sistema funciona em um nível muito diferente”, disse o professor assistente Alexander Huth, do Centro de Neurociência e Ciência da Computação da UT Austin, em uma coletiva de imprensa na última quinta-feira. “Em vez de olhar para essa coisa motora de baixo nível, nosso sistema realmente funciona no nível das ideias, da semântica e do significado. É nisso que ele quer chegar.”
Leia também: Líderes em tecnologia assinam carta aberta pedindo uma pausa de seis meses no desenvolvimento avançado de IA
A descoberta veio depois de alimentar comentários do Reddit GPT-1 e contas “autobiográficas”. Em seguida, eles o treinaram nas varreduras de três voluntários que passaram 16 horas cada um ouvindo histórias gravadas enquanto estavam na máquina de fMRI. Isso permitiu que o GPT-1 vinculasse a atividade neural às palavras e ideias nas gravações.
Uma vez treinados, os voluntários ouviram novas histórias enquanto eram escaneados, e o GPT-1 determinou com precisão a ideia geral do que os participantes estavam ouvindo. O estudo também usou filmes mudos e a imaginação dos voluntários para testar a tecnologia com resultados semelhantes.
Curiosamente, o GPT-1 foi mais preciso ao interpretar as sessões de gravação de áudio do que as histórias inventadas pelos participantes. Pode-se atribuir isso à natureza abstrata dos pensamentos imaginados versus as ideias mais concretas formadas ao ouvir algo. Dito isso, o GPT-1 ainda estava bem próximo ao ler pensamentos não falados.
o mesmo decodificador também trabalhou em respostas cerebrais enquanto os sujeitos imaginavam contar histórias, embora o decodificador fosse treinado apenas em dados de fala percebidos. esperamos que o treinamento do decodificador em alguns dados de fala imaginários melhore ainda mais o desempenho (4/7) pic.twitter.com/z63D7Xe3Sa
– Jerry Tang (@jerryptang) 30 de setembro de 2022
Em um exemplo, o sujeito imaginou, “[I] passou por uma estrada de terra através de um campo de trigo e um riacho e por alguns edifícios de troncos.” O modelo interpretou isso como “Ele teve que atravessar uma ponte para o outro lado e um edifício muito grande à distância.” Então, perdeu alguns detalhes indiscutivelmente essenciais e contexto vital, mas ainda apreendeu elementos do pensamento da pessoa.
Máquinas que podem ler pensamentos podem ser a forma mais controversa de tecnologia GPT até agora. Embora a equipe imagine a tecnologia ajudando pacientes com ELA ou afasia a falar, ela reconhece seu potencial de uso indevido. Requer o consentimento do sujeito para operar em sua forma atual, mas o estudo admite que os maus atores podem criar uma versão que substitui essa verificação.
“Nossa análise de privacidade sugere que a cooperação do sujeito é atualmente necessária tanto para treinar quanto para aplicar o decodificador”, diz o texto. “No entanto, desenvolvimentos futuros podem permitir que os decodificadores ignorem esses requisitos. Além disso, mesmo que as previsões do decodificador sejam imprecisas sem a cooperação do sujeito, elas podem ser intencionalmente mal interpretadas para fins maliciosos. Por esses e outros motivos imprevistos, é fundamental aumentar a conscientização sobre os riscos da tecnologia de decodificação do cérebro e promulgar políticas que protegem a privacidade mental de cada pessoa.”
Obviamente, esse cenário pressupõe que a tecnologia fMRI pode ser miniaturizada o suficiente para ser prática fora de um ambiente clínico. Quaisquer outras aplicações além da pesquisa ainda estão muito distantes.