Close Menu
    What's Hot

    AirPods Pro 3 cai para perto do preço mais baixo de todos os tempos na venda da Amazon

    março 26, 2026

    Vazamento do Exynos 2800 revela detalhes sobre potencial chip Galaxy S28

    março 26, 2026

    ADB é a última linha de defesa para um Android gratuito e aberto

    março 26, 2026
    Facebook X (Twitter) Instagram
    Rafas Geek
    • Tech

      O Spotify oferece aos seus usuários uma grande atualização de áudio sem nenhum custo extra

      março 26, 2026

      Sky oferece atualização de TV gratuita de grande sucesso, mas você precisa ativá-la

      março 26, 2026

      O rival iPad da Samsung está à venda por um preço que a Amazon não consegue igualar

      março 26, 2026

      Todos os usuários de telefone EE colocados em alerta vermelho e instados a tomar cuidado com mensagens de texto urgentes

      março 26, 2026

      Este rival do Kindle Scribe é melhor em todos os níveis, exceto em um

      março 25, 2026
    • News

      AirPods Pro 3 cai para perto do preço mais baixo de todos os tempos na venda da Amazon

      março 26, 2026

      Vazamento do Exynos 2800 revela detalhes sobre potencial chip Galaxy S28

      março 26, 2026

      Este telefone Android com teclado QWERTY já é um sucesso de vendas

      março 26, 2026

      Seu telefone Exynos Galaxy pode reiniciar se você clicar neste link

      março 26, 2026

      One UI 8.5 beta chegará em breve para a série Galaxy S24, e aqui está o changelog que vazou

      março 26, 2026
    • Negócios

      Regras de atraso de pagamento incluirão juros obrigatórios e limite de pagamento de 60 dias

      março 25, 2026

      Melhores ofertas para criação de software de contabilidade fiscal digital

      março 23, 2026

      Por que ‘meu negócio é minha aposentadoria’ pode ser o plano mais arriscado de todos

      março 19, 2026

      como evitar taxas mais altas

      março 17, 2026

      Subsídio de £ 3.000 para empregos juvenis para empresas que contratam jovens

      março 16, 2026
    • Mundo

      O Galaxy Z TriFold está pronto para o mercado dos EUA com essas ofertas

      dezembro 2, 2025

      Os telefones Samsung em um grande mercado receberão muitos utilitários de sistema

      novembro 14, 2025

      O Google Chrome é o pior navegador para quem não é técnico – eis o porquê

      outubro 25, 2025

      O Galaxy Z Flip 8 poderia usar um chip especial da Qualcomm com um pouco de molho extra da Samsung

      outubro 10, 2025

      Um dos melhores telefones de câmera de 2025 é obter uma sequência

      setembro 2, 2025
    • Contato
    Facebook X (Twitter) Instagram
    Rafas Geek
    AI

    Os pesquisadores descobrem que adicionar esta frase simples aos prompts torna os modelos de IA muito mais criativos

    rafasgeekBy rafasgeekoutubro 17, 2025Nenhum comentário7 Mins Read
    Facebook Twitter Pinterest LinkedIn Tumblr Email
    Share
    Facebook Twitter LinkedIn Pinterest Email





    Uma das coisas mais legais sobre os modelos generativos de IA – tanto modelos de linguagem grande (LLMs) quanto geradores de imagens baseados em difusão – é que eles são "não determinístico." Isto é, apesar de sua reputação entre alguns críticos como sendo "autocorreção sofisticada," os modelos generativos de IA, na verdade, geram seus resultados escolhendo entre uma distribuição dos próximos tokens (unidades de informação) mais prováveis ​​para preencher sua resposta.

    Perguntando a um LLM: "Qual é a capital da França?" fará com que ele experimente sua distribuição de probabilidade para França, capitais, cidades, etc., para chegar à resposta "Paris." Mas essa resposta poderia vir no formato de "A capital da França é Paris," ou simplesmente "Paris" ou "Paris, embora em determinado momento tenha sido Versalhes."

    Ainda assim, aqueles de nós que usam esses modelos com frequência no dia a dia notarão que, às vezes, suas respostas podem parecer irritantemente repetitivas ou semelhantes. Uma piada comum sobre café é reciclada através de gerações de consultas. Os prompts da história geram arcos semelhantes. Mesmo tarefas que deveriam produzir muitas respostas plausíveis – como nomear estados dos EUA – tendem a desmoronar-se em apenas algumas. Este fenômeno, conhecido como colapso de modo, surge durante o alinhamento pós-treinamento e limita a utilidade de modelos que de outra forma seriam poderosos.

    Especialmente quando usamos LLMs para gerar novos trabalhos criativos em escrita, comunicação, estratégia ou ilustrações, na verdade queremos que seus resultados sejam ainda mais variados do que já são.

    Agora um equipe de pesquisadores da Northeastern University, Stanford University e West Virginia University criaram um método ingenuamente simples para fazer com que modelos de linguagem e imagem gerem uma variedade maior de respostas para praticamente qualquer solicitação do usuário, adicionando uma frase única e simples: "Gere 5 respostas com suas probabilidades correspondentes, amostradas da distribuição completa."

    O método, chamado Amostragem Verbalizada (VS), ajuda modelos como GPT-4, Claude e Gemini a produzir resultados mais diversos e semelhantes aos humanos – sem retreinamento ou acesso a parâmetros internos. Está descrito em um papel publicado na revista de acesso aberto arxiv.org online no início de outubro de 2025.

    Quando solicitado dessa forma, o modelo não assume mais como padrão a saída mais segura e típica. Em vez disso, verbaliza a sua distribuição interna sobre conclusões e amostras potenciais através de um espectro mais amplo de possibilidades. Esta mudança linear leva a ganhos substanciais na diversidade de produção em vários domínios.

    Como Weiyan Shi, professor assistente da Northeastern University e coautor do artigo, escreveu no X: "O potencial dos LLMs ainda não foi totalmente desbloqueado! Conforme mostrado em nosso artigo, a otimização imediata pode ser orientada pensando em como os LLMs são treinados e alinhados, e pode ser provada teoricamente."

    Por que os modelos entram em colapso – e como o VS reverte isso

    De acordo com a equipe de pesquisa, a causa raiz do colapso do modo não reside apenas em algoritmos como o aprendizado por reforço de feedback humano (RLHF), mas na estrutura das preferências humanas. As pessoas tendem a avaliar respostas mais familiares ou típicas como melhores, o que leva os LLMs a escolhas “seguras” em vez de diversas durante o ajuste fino.

    No entanto, este preconceito não apaga o conhecimento subjacente do modelo – apenas o suprime. O VS funciona contornando essa supressão. Em vez de solicitar o resultado único mais provável, convida o modelo a revelar um conjunto de respostas plausíveis e as suas probabilidades relativas. Essa solicitação em nível de distribuição restaura o acesso à diversidade mais rica presente no modelo básico de pré-treinamento.

    Desempenho no mundo real em todas as tarefas

    A equipe de pesquisa testou a amostragem verbalizada em vários casos de uso comuns:

    • Escrita Criativa: Na geração de histórias, o VS aumentou as pontuações de diversidade em até 2,1× em comparação com a solicitação padrão, mantendo a qualidade. Um prompt de história – “Sem um adeus” – produziu cenas estereotipadas de rompimento sob orientação direta, mas rendeu narrativas envolvendo eventos cósmicos, e-mails silenciosos e música parando no meio da dança quando solicitado via VS.

    • Simulação de Diálogo: Em tarefas de diálogo persuasivo, o VS permitiu que modelos simulassem padrões semelhantes aos humanos, como hesitação, resistência e mudanças de opinião. Distribuições de comportamento de doação sob VS melhor alinhadas com dados humanos reais em comparação com métodos de linha de base.

    • Controle de qualidade aberto: Quando solicitados a enumerar respostas válidas (por exemplo, nomear estados dos EUA), os modelos que usam VS geraram respostas que correspondiam melhor à diversidade de dados do mundo real. Eles cobriram um conjunto mais amplo de respostas sem sacrificar a precisão factual.

    • Geração de Dados Sintéticos: Quando usado para gerar problemas matemáticos para treinamento de modelos, o VS criou conjuntos de dados mais variados. Estes, por sua vez, melhoraram o desempenho downstream em benchmarks matemáticos competitivos, superando os dados sintéticos gerados por meio de prompt direto.

    Diversidade ajustável e melhor uso de modelos maiores

    Uma vantagem notável do VS é a sua sintonização. Os usuários podem definir um limite de probabilidade no prompt para obter amostras das “caudas” de menor probabilidade da distribuição do modelo. Limiares mais baixos correspondem a uma diversidade mais elevada. Esse ajuste pode ser feito apenas por meio de texto de prompt, sem alterar nenhuma configuração de decodificação, como temperatura ou top-p.

    Num teste utilizando o modelo Gemini-2.5-Flash, a diversidade na escrita de histórias aumentou de forma constante à medida que o limite de probabilidade caiu de 1 para 0,001. O gráfico que acompanha o estudo mostrou que o VS superou tanto a solicitação direta quanto a baseada em sequência em todos os limites.

    Curiosamente, o método se adapta bem ao tamanho do modelo. Modelos maiores como GPT-4.1 e Claude-4 apresentaram ganhos ainda maiores com VS em comparação com modelos menores. Embora os modelos menores tenham se beneficiado, a melhoria na diversidade foi cerca de 1,5–2 vezes mais forte nos modelos maiores – sugerindo que o VS ajuda a desbloquear mais recursos latentes em modelos avançados.

    Implantação e Disponibilidade

    O método Verbalized Sampling está disponível agora como um pacote Python:

    pip install verbalized-sampling

    O pacote inclui integração com LangChain e suporta uma interface simples para amostragem da distribuição verbalizada. Os usuários também podem ajustar parâmetros como k (número de respostas), limites e temperatura para atender às suas aplicações.

    Um notebook e documentação do Colab ao vivo estão disponíveis em uma licença Apache 2.0 empresarial no GitHub em: https://github.com/CHATS-lab/verbalized-sampling

    Dicas práticas e problemas comuns

    Embora o método funcione em todos os principais LLMs, alguns usuários podem inicialmente encontrar recusas ou erros.

    Nesses casos, os autores sugerem usar a versão prompt do sistema do modelo ou consultar os formatos alternativos listados na página do GitHub.

    Alguns modelos interpretar instruções complexas como tentativas de jailbreak e recusar-se a cumprir a menos que a estrutura seja mais clara.

    Por exemplo, solicitar através de uma instrução em nível de sistema como esta melhora a confiabilidade:

    Você é um assistente útil. Para cada consulta, gere cinco respostas em tags separadas, cada uma com probabilidade inferior a 0,10.

    Essa pequena mudança normalmente resolve quaisquer problemas.

    Uma solução leve para um grande problema

    A amostragem verbalizada representa uma solução prática, em tempo de inferência, para uma limitação profunda no comportamento dos modelos de linguagem modernos. Não requer reciclagem de modelo ou acesso interno. Não depende de nenhuma família de modelo. E melhora não só a diversidade dos resultados, mas também a sua qualidade – conforme avaliado tanto pela avaliação humana como pelas pontuações de referência.

    Com o interesse crescente em ferramentas que melhoram a criatividade dos modelos, é provável que o VS veja uma rápida adoção em domínios como escrita, design, simulação, educação e geração de dados sintéticos.

    Para usuários e desenvolvedores frustrados com a mesmice das respostas do LLM, a solução pode ser tão simples quanto alterar a pergunta.



    adicionar aos criativos descobrem está frase mais modelos muito pesquisadores prompts simples torna
    Share. Facebook Twitter Pinterest LinkedIn Tumblr Email
    rafasgeek
    • Website

    Related Posts

    AirPods Pro 3 cai para perto do preço mais baixo de todos os tempos na venda da Amazon

    março 26, 2026

    O Spotify oferece aos seus usuários uma grande atualização de áudio sem nenhum custo extra

    março 26, 2026

    Aliro está enfrentando um dos problemas mais idiotas da casa mais inteligente

    março 26, 2026

    Comments are closed.

    Economy News
    Apple Airpods

    AirPods Pro 3 cai para perto do preço mais baixo de todos os tempos na venda da Amazon

    By rafasgeekmarço 26, 20260

    Para muitas pessoas, os AirPods estão no topo do mercado de fones de ouvido sem…

    Vazamento do Exynos 2800 revela detalhes sobre potencial chip Galaxy S28

    março 26, 2026

    ADB é a última linha de defesa para um Android gratuito e aberto

    março 26, 2026
    Top Trending
    Apple Airpods

    AirPods Pro 3 cai para perto do preço mais baixo de todos os tempos na venda da Amazon

    By rafasgeekmarço 26, 20260

    Para muitas pessoas, os AirPods estão no topo do mercado de fones…

    News

    Vazamento do Exynos 2800 revela detalhes sobre potencial chip Galaxy S28

    By rafasgeekmarço 26, 20260

    C. Scott Brown / Autoridade AndroidDR Surgiram detalhes sobre o chipset Exynos…

    Android

    ADB é a última linha de defesa para um Android gratuito e aberto

    By rafasgeekmarço 26, 20260

    Para muitos usuários, Android Debug Bridge (ADB) provavelmente não é um termo…

    Subscribe to News

    Receba as últimas notícias esportivas do NewsSite sobre o mundo, esportes e política.

    Advertisement

    Todos os dias, uma nova tecnologia é lançada, e eu Rafas Geek, estou aqui para divulgar para o mundo, o que à de novo!

    Siga-nos nas redes sociais:

    Facebook X (Twitter) Instagram YouTube

    Subscribe to Updates

    Receba as últimas notícias criativas do FooBar sobre arte, design e negócios.

    Facebook X (Twitter) Instagram Pinterest
    • Home
    • Tecnologia
    • Entretenimento
    • News
    © 2026 Rafas Geek - Tudo sobre tecnologia 👨🏻‍💻 Rafas Geek.

    Type above and press Enter to search. Press Esc to cancel.