Eu não posso ficar chateado: Embora os modelos atuais de LLM e IA generativa estejam longe de desenvolver a inteligência humana, os usuários observaram recentemente que o ChatGPT apresenta sinais de “preguiça”, uma característica inatamente humana. As pessoas começaram a notar a tendência no final de novembro.
Um usuário do Reddit afirmou que pediu ao ChatGPT para preencher um arquivo CSV (valores separados por vírgula) com várias entradas. A tarefa é algo que um computador pode realizar facilmente – até mesmo um programador iniciante pode criar um script básico que faça isso. No entanto, o ChatGPT recusou o pedido, essencialmente afirmando que era muito difícil, e disse ao usuário para fazer isso sozinho usando um modelo simples que ele poderia fornecer.
“Devido à natureza extensa dos dados, a extração completa de todos os produtos seria bastante demorada”, disse a máquina. “No entanto, posso fornecer ao arquivo esta entrada única como modelo e você pode preencher o restante dos dados conforme necessário.”
Os desenvolvedores do OpenAI reconheceram publicamente o comportamento estranho, mas estão confusos sobre o motivo disso estar acontecendo. A empresa garantiu aos usuários que estava pesquisando o problema e trabalharia para corrigi-lo.
ouvimos todos os seus comentários sobre o GPT4 ficar mais preguiçoso! não atualizamos o modelo desde 11 de novembro e isso certamente não é intencional. o comportamento do modelo pode ser imprevisível e estamos tentando consertar isso ð«¡
– ChatGPT (@ChatGPTapp) 8 de dezembro de 2023
Alguns usuários postularam que ele pode estar imitando humanos que tendem a desacelerar na época dos feriados. A teoria foi apelidada de “hipótese das férias de inverno”. A ideia é que o ChatGPT tenha aprendido com a interação com os humanos que o final de novembro e dezembro são momentos para relaxar. Afinal, muitas pessoas usam as férias como desculpa para passar mais tempo com a família. Portanto, o ChatGPT vê menos ação. No entanto, uma coisa é tornar-se menos ativo e outra é recusar imediatamente o trabalho.
O pesquisador amador de IA Rob Lynch testou a hipótese das férias de inverno alimentando as tarefas da API ChatGPT com datas falsificadas do sistema de maio e dezembro e depois contando os caracteres nas respostas do bot. O bot pareceu mostrar respostas mais curtas “estatisticamente significativas” em dezembro, em oposição a maio, mas isso não é de forma alguma conclusivo, embora seus resultados tenham sido reproduzidos de forma independente.
@ChatGPTapp @OpenAI @tszzl @emollick @voooooogel Resultado selvagem. gpt-4-turbo sobre a API produz conclusões mais curtas (estatisticamente significativas) quando “pensa” que é dezembro versus quando pensa que é maio (conforme determinado pela data no prompt do sistema).
Eu recebi exatamente a mesma solicitação … pic.twitter.com/mA7sqZUA0r
-Rob Lynch (@RobLynch99) 11 de dezembro de 2023
Lynch conduziu seu teste após Will Depue da OpenAI confirmado que o modelo de IA apresentava sinais de “preguiça” ou recusa de trabalho no laboratório. Depue aludiu que esta é uma ocorrência “estranha” que os desenvolvedores já experimentaram.
“Não estou dizendo que não temos problemas com recusas excessivas (definitivamente temos) ou outras coisas estranhas (trabalhar para corrigir um problema recente de preguiça), mas isso é um produto do processo iterativo de servir e tentar apoiar tantos casos de uso de uma vez”, ele tuitou.
A questão pode parecer insignificante para alguns, mas uma máquina que se recusa a trabalhar não é uma direção que alguém queira que a IA siga. Um LLM é uma ferramenta que deve ser compatível e fazer o que o usuário pede, desde que a tarefa esteja dentro de seus parâmetros – obviamente, você não pode pedir ao ChatGPT para cavar um buraco no quintal. Se uma ferramenta não cumpre sua finalidade, chamamos isso de quebrada.