No contexto: Todos nós já ouvimos histórias sobre coisas engraçadas, malucas ou divertidas de que os assistentes virtuais mais populares do mundo são capazes. O Siri é famoso por lhe dar instruções para o local de descarte de corpos mais próximo, enquanto Alexa pode peidar sob comando. No entanto, como um proprietário do Echo descobriu no domingo, algumas das atividades divertidas pelas quais esses ajudantes de IA são conhecidos podem ter resultados desastrosos.
A dona da Echo, Kristin Livdahl, acessou o Twitter no domingo para compartilhar uma história estranha com o mundo: naquele mesmo dia, seu filho de 10 anos pediu a Alexa um desafio para representar. Em vez de sugerir algo relativamente inofensivo, como responder a uma charada, resolver um problema de matemática ou realizar alguma pequena proeza física, Alexa os aconselhou a “conectar um carregador de telefone na metade do caminho a uma tomada e, em seguida, tocar um centavo nas pontas expostas . “
Provavelmente não precisamos dizer que esse tipo de ‘desafio’ é incrivelmente perigoso de tentar. Os centavos são condutores, portanto, enfiar um em qualquer lugar perto de um pedaço de metal conectado a uma tomada elétrica ativa pode representar um sério risco de vida. Naturalmente, a maioria dos adultos que vê esse “desafio” riria e ignoraria, mas as crianças nem sempre possuem a mesma restrição ou conhecimento das consequências potenciais.
Mesmo que o façam, podem ficar tentados a presumir que o desafio não seria oferecido se não fosse seguro.
OMFG Minha filha de 10 anos pediu um desafio a Alexa em nosso Echo e foi isso que ela disse. pic.twitter.com/HgGgrLbdS8
– Kristin Livdahl (@klivdahl) 26 de dezembro de 2021
Para ser claro, não estamos dizendo que Alexa de alguma forma se desequilibrou aqui e escolheu maliciosamente um desafio prejudicial. O assistente virtual obtém a maior parte de seus resultados da web e, por acaso, escolheu um perigoso neste caso. Detetives da Internet determinaram que o assistente pegou o desafio de um artigo que estava discutindo seus perigos, então a IA simplesmente não foi capaz de analisar o contexto mais amplo.
Mais tarde, a Amazon confirmou que o incidente era legítimo e já tomou uma “ação rápida” para corrigi-lo. A julgar pelas respostas do Twitter à postagem original de Livdahl, parece que a Amazon completamente desativado o recurso “diga-me um desafio” por enquanto, que provavelmente é o melhor.
Crédito do masthead: Guia do Tom