Muitos projetaram que os vídeos falsos desempenhariam um papel importante nas eleições de 2020, com a perspectiva de interferência estrangeira e campanhas de desinformação se aproximando do dia das eleições. No entanto, se houve uma surpresa nas táticas de campanha neste ciclo, é que esses vídeos gerados por IA desempenharam um papel muito menor, pouco mais do que uma participação especial (até agora, pelo menos).
Vídeos Deepfake são muito mais convincentes hoje devido aos saltos gigantescos no campo das Redes Adversariais Gerativas. São vídeos gerados que são adulterados para alterar a realidade, mostrando acontecimentos ou retratando discursos que nunca aconteceram. Como as pessoas tendem a dar crédito substancial ao que veem e ouvem, os deepfakes representam um perigo muito real.
As preocupações sobre deepfakes influenciando as eleições têm borbulhado desde que a tecnologia surgiu há vários anos, mas houve poucos casos de deepfakes nas eleições de 2020 nos EUA ou em eleições globais. Um exemplo é uma falsificação profunda que mostra o ex-vice-presidente Joe Biden mostrando a língua, que foi retuitada pelo presidente. Em outro, o primeiro-ministro da Bélgica apareceu em um vídeo online dizendo que a pandemia COVID-19 estava ligada à “exploração e destruição de nosso ambiente natural pelos humanos”. Exceto que ela não disse isso, era uma mentira profunda.
Essas foram as exceções. Até agora, os deepfakes políticos têm sido principalmente satíricos e entendidos como falsos. Alguns até foram usados como parte de uma campanha de serviço público para expressar a importância de salvar a democracia.
Criado para representUS, um grupo sem fins lucrativos e apartidário anticorrupção e de boa governança, por uma agência de publicidade usando tecnologia deepfake.
A razão de não ter havido mais falsos fundos malévolos com motivação política, planejados para alimentar a opressão, a divisão e a violência é uma questão de conjectura. Um dos motivos pode ser a proibição que algumas plataformas de mídia social colocaram em mídias que foram manipuladas ou fabricadas e consideradas reais. Dito isso, pode ser difícil identificar um deepfake bem feito, e nem todos são detectados. Muitas empresas estão desenvolvendo ferramentas de IA para identificar esses deepfakes, mas ainda precisam estabelecer um método infalível. Uma ferramenta de detecção discutida recentemente afirma 90% de precisão ao analisar as diferenças sutis na cor da pele causadas pelo batimento cardíaco humano.
Ao mesmo tempo, aqueles que criam deepfakes aprendem com os esforços de detecção publicados e continuam a aprimorar seus recursos para criar vídeos com aparência mais realista. E ferramentas mais avançadas para criar deepfakes também estão proliferando. Por exemplo, desenvolvimentos recentes projetados para melhorar a videoconferência podem ser usados para criar deepfakes mais realistas e evitar a detecção.
Outra razão pela qual podemos não ter visto mais deepfakes visando eleições é porque os meios tradicionais de falsificação parecem funcionar bem o suficiente por meio da edição seletiva. Encontrar um videoclipe de verdade que, por exemplo, mostre um candidato dizendo que aumentará os impostos não é difícil. Cortar essas frases de efeito do contexto mais amplo do clipe original e redirecioná-las para impulsionar uma agenda é uma prática comum, embora antiética, de persuasão política.
Também pode ser que mais energia esteja indo para projetos que geram benefícios comerciais mais imediatos, como a criação de imagens de mulheres nuas com base em fotos tiradas nas redes sociais.
Alguns veem o lado positivo dos deepfakes, com usos positivos, eventualmente, reduzindo o estigma associado à tecnologia. Esses usos positivos às vezes são chamados não de deepfakes, mas de “vídeos sintéticos”, embora a tecnologia subjacente seja a mesma. Já existem vídeos de treinamento corporativo sintéticos. E algumas pessoas afirmam que vídeos sintéticos podem ser usados para aprimorar a educação, recriando eventos históricos e personalidades, trazendo figuras históricas de volta à vida para criar uma sala de aula mais envolvente e interativa. E há usos apenas para diversão, como transformar uma imagem de Elon Musk em um zumbi.
Os deepfakes ainda são um problema?
Em junho deste ano, quase 50.000 deepfakes foram detectados online, um aumento de mais de 330% no decorrer de um ano. Os perigos são reais. Vídeos falsos podem retratar falsamente uma pessoa inocente participando de uma atividade criminosa, mostrar falsamente soldados cometendo atrocidades ou mostrar líderes mundiais declarando guerra a outro país, o que poderia desencadear uma resposta militar muito real.
Falando em uma recente conferência virtual da Cybertech, o ex-chefe do comando cibernético dos EUA, Maj.-Gen. (aposentado) Brett Williams disse: “inteligência artificial é a coisa real. Já está em uso por invasores. Quando eles aprenderem a fazer deepfakes, eu diria que isso é uma ameaça existencial ”.
A implicação é que aqueles que usariam deepfakes como parte de um ataque online ainda não dominaram a tecnologia, ou pelo menos não como evitar qualquer migalha de pão que levaria de volta ao perpetrador. Talvez essas também sejam as razões mais convincentes – falta de tecnologia madura e medo de a fonte ser descoberta – pelas quais não vimos falsificações mais graves nas campanhas políticas atuais.
Um relatório recente do Center for Security and Emerging Technology ecoa essa observação. Entre as principais conclusões do relatório, “fatores como a necessidade de evitar a atribuição, o tempo necessário para treinar um modelo de aprendizado de máquina e a disponibilidade de dados restringirão como os atores sofisticados usam deepfakes personalizados na prática”. O relatório conclui que deepfakes personalizados produzidos por atores tecnicamente sofisticados representarão uma ameaça maior no futuro.
Mesmo que os deepfakes não tenham desempenhado um papel significativo nesta eleição, provavelmente é apenas uma questão de tempo antes que eles afetem as eleições, subvertam a democracia e talvez levem a engajamentos militares.
Gary Grossman é o vice-presidente sênior de prática de tecnologia da Edelman e líder global do Edelman AI Center of Excellence.
Como as startups estão escalando a comunicação:
A pandemia está fazendo com que as startups analisem de perto o desenvolvimento de suas soluções de comunicação. Aprenda como