Uma start-up de tecnologia britânica prometeu combater o abuso de seu equipamento de clonagem de voz depois que a voz de Sir David Attenborough também foi usada em uma gravação racista. Os áudios foram postados no quadro de mensagens 4Chan depois que os usuários abusaram da tecnologia de clonagem de voz no último uso indevido da IA.
A tecnologia lançada pela ElevenLabs, uma empresa de pesquisa, permite que os usuários usem a ferramenta de conversão de texto em áudio para digitar palavras e ouvi-las repetidas em voz humana.
A empresa foi fundada por dois ex-engenheiros do Google e da Palantir, que também criaram recursos de clonagem de voz e dublagem para as indústrias cinematográfica e editorial.
A tecnologia foi abusada por alguns usuários que usaram a ferramenta de clonagem de voz para criar um deepfake a partir de uma gravação de apenas um minuto.
O presidente Biden também foi alvo de uso indevido com uma gravação do presidente fazendo comentários sexistas e transfóbicos.
Em um anúncio recente, os fundadores da ElevenLabs, Mati Staniszewski e Piotr Dabkowski, declararam que receberam financiamento de £ 1,6 milhão.
Essas tecnologias de “IA generativa” estão conquistando o setor e foram elogiadas pela capacidade de revolucionar as indústrias criativas e outros negócios.
No entanto, a nova tecnologia provou trazer grandes benefícios, mas grandes riscos, pois as empresas de IA se veem presas no que foi chamado de “dilema de abertura”.
Desde então, a start-up de pesquisa tecnológica prometeu implementar defesas contra esse abuso de seus produtos.
LEIA MAIS: China ataca EUA ‘sem escrúpulos’ após repressão à Huawei
Ele twittou: “Obrigado a todos por experimentar nossa plataforma Beta. Enquanto vemos nossa tecnologia sendo aplicada de forma esmagadora para uso positivo, também vemos um número crescente de casos de uso indevido de clonagem de voz.”
Esses problemas enfrentados pelo ElevenLabs fizeram com que o programa de inteligência artificial VALL-E da Microsoft fosse fechado ao público.
O software pode duplicar uma voz de um clipe de áudio de três segundos, mas a empresa citou questões éticas como motivo para não disponibilizá-lo ao público em geral.
A Microsoft acrescentou que o uso indevido incluía “falsificação de identificação de voz ou personificação de um locutor específico”.
Enquanto isso, o ElevenLabs observou que identificou que “falar na voz de outra pessoa levanta questões éticas, pois pode ser usado para fins nefastos”.
NÃO PERCA:
Sétimo policial de Nichols ‘dispensado’ e três bombeiros demitidos (INSIGHT)
General dos EUA adverte que o Exército Britânico não é mais uma força de combate de alto nível (REVEAL)
O ritual pós-escola de Meghan ensina uma lição de vida emocionante a Archie (INSIGHT)
A startup de tecnologia foi acusada pelo especialista em deepfakes Henry Ajder de ser “bastante ingênua”.
Ele disse: “O que eles desenvolveram, tecnologicamente, é muito impressionante [but] ao abrir esses modelos, eles fizeram, infelizmente, um julgamento bastante ingênuo sobre as intenções das pessoas que usarão esses modelos.
“Neste clima de ciclo de hype em torno da IA generativa, muitas empresas estão se apressando e se esforçando muito para se destacar de uma cena muito barulhenta.
“Eu me preocupo que o tipo de pressa febril talvez esteja levando certas organizações a cortar custos quando se trata de considerações de segurança, embora eu não esteja dizendo que é necessariamente o que motivou a Eleven neste caso.”