Calvin Wankhede / Autoridade Android
DR
- Os termos de uso do Copilot da Microsoft declaram explicitamente: “O Copilot é apenas para fins de entretenimento”.
- Embora outras empresas de IA alertem os usuários para verificarem novamente os resultados da IA, esta isenção de responsabilidade do Copilot vai um pouco além.
- A Microsoft tem promovido fortemente os usos comerciais do Copilot, apesar da mensagem apenas de entretenimento.
Apesar de todas as reclamações que as pessoas fazem sobre a IA substituir as habilidades humanas, há um outro lado: a ascensão da IA também forçou os humanos a desenvolver novas habilidades, especificamente em termos de serem capazes de separar os resultados úteis da IA do lixo incorreto e alucinado. Nos últimos dois anos, muitos de nós nos tornamos muito bons nisso e aprendemos a aproveitar ao máximo as muitas limitações que enfrentamos com tantos agentes de IA. Embora as empresas por trás desses projetos estejam igualmente cientes das limitações que enfrentamos, uma delas parece estar compensando um pouco demais o departamento jurídico, já que os usuários do Copilot notam alguma linguagem preocupante nos termos de serviço da Microsoft.
Não quero perder o melhor de Autoridade Android?
Qualquer pessoa que use IA para qualquer coisa, mesmo que remotamente séria, já deve saber como verificar a sanidade do resultado do programa – a IA compartilhará com segurança os erros como verdades, e os usuários precisam estar vigilantes para não considerar seus resultados pelo valor nominal. Da mesma forma, todos os principais intervenientes fazem isenções de responsabilidade neste sentido, tentando promover os benefícios dos seus produtos, ao mesmo tempo que reconhecem as suas limitações. A visão geral do Gemini do Google é um bom exemplo disso, explicando como o Gemini faz o que faz, ao mesmo tempo que chama a atenção para locais onde ainda precisa de melhorias.
E depois há a Microsoft. Como muitas outras empresas que utilizam IA, ela gosta de anunciar todas as tarefas importantes nas quais o Copilot pode ajudá-lo, como criar novas estratégias para o seu negócio:
À primeira vista, não há nada de incomum nisso – bastante parecido com sua moderna plataforma de IA. Esperamos apenas que os clientes empresariais que a Microsoft está perseguindo com anúncios como esse não estejam lendo os termos de uso completos do Copilot (via Ferragens do Tom). Porque se o fizessem, veriam esta isenção de responsabilidade preocupante:
O Copilot é apenas para fins de entretenimento.
Esse “só” é fazer um todo muito trabalho lá. A Microsoft continua:
Pode cometer erros e pode não funcionar como pretendido. Não confie no Copilot para obter conselhos importantes. Use o Copilot por sua própria conta e risco.
Agora, que bit, na verdade, parece relativamente alinhado com as isenções de responsabilidade que vimos de outras empresas de IA: tenha cuidado e verifique a exatidão de qualquer resultado de IA antes de agir de acordo com ele. Por si só, não estaríamos parando e pensando duas vezes sobre isso surgir nos termos do Copilot.
Mas por alguma razão, a Microsoft foi obrigada a voltar atrás e adicionar o que é basicamente um “LOL JK” a todo o documento.
Honestamente, este é provavelmente apenas um advogado sentindo a necessidade de corrigir demais e cobrir as responsabilidades da Microsoft – eles simplesmente foram longe demais no processo, convidando ao ridículo. Se ao menos alguém tivesse pedido ao Copilot para examinar os termos e identificar quaisquer possíveis constrangimentos – exceto que, como sabemos agora, não é para isso que ele foi feito!
Obrigado por fazer parte da nossa comunidade. Leia nossa Política de Comentários antes de postar.


