Ryan Haines / Autoridade Android
DR
- A IA está sendo usada por golpistas para imitar as vozes de entes queridos, pessoas no poder e muito mais.
- A FCC propõe que as chamadas automáticas que usam vozes geradas por IA sejam fundamentalmente ilegais.
- A mudança tornará mais fácil cobrar das pessoas por trás das ligações.
Desde que a IA se tornou um tema quente na indústria, as pessoas têm criado diferentes maneiras de usar a tecnologia. Infelizmente, isso também levou os fraudadores a usar a IA para roubar dinheiro ou informações das vítimas. Por exemplo, o número de golpes de chamadas automáticas que usam IA para imitar as vozes de outras pessoas explodiu nos últimos anos. Felizmente, existem recursos como o Samsung Smart Call que bloqueiam chamadas automáticas. Mas para aqueles que encontram uma saída, parece que a FCC está tomando medidas para acabar com a ameaça de chamadas automáticas que usam vozes geradas por IA.
De acordo com TechCrunch, a FCC está propondo tornar fundamentalmente ilegal que chamadas automáticas usem IA de clonagem de voz. O objetivo é facilitar a cobrança dos indivíduos que estão por trás dos golpes.
De acordo com as regras atuais, as chamadas automáticas só são ilegais quando se constata que violam a lei de alguma forma. A FCC possui a Lei de Proteção ao Consumidor Telefônico, que proíbe vozes “artificiais”, para proteger os consumidores. No entanto, não está claro se uma emulação de voz criada pela geração de IA se enquadra nesta categoria.
O que a FCC está tentando fazer aqui é incluir a clonagem de voz de IA sob o guarda-chuva “artificial”. Dessa forma, ficará mais claro se uma chamada automática está infringindo a lei nesta situação.
Recentemente, chamadas automáticas geradas por IA foram usadas para imitar a voz do presidente Biden. Os golpistas usaram essa tática na tentativa de suprimir a votação em New Hampshire. Para ajudar a evitar casos como este e outras fraudes no futuro, a FCC precisará que esta decisão seja aprovada rapidamente antes que as coisas fiquem ainda mais fora de controle.