
Os sistemas multiagentes, projetados para lidar com tarefas de longo prazo, como engenharia de software ou triagem de segurança cibernética, podem gerar até 15 vezes o volume de tokens dos bate-papos padrão – ameaçando sua relação custo-benefício no tratamento de tarefas empresariais.
Mas hoje, a Nvidia procurou ajudar a resolver este problema com o lançamento do Nemotron 3 Superum modelo híbrido de 120 bilhões de parâmetros, com pesos publicados em Abraçando o rosto.
Ao fundir filosofias arquitetônicas díspares – modelos de espaço de estados, transformadores e um novo "Latente" design com mistura de especialistas – a Nvidia está tentando fornecer a profundidade especializada necessária para fluxos de trabalho de agentes sem o inchaço típico dos modelos de raciocínio denso e todos disponíveis para uso comercial sob pesos principalmente abertos.
Arquitetura híbrida tripla
No centro do Nemotron 3 Super está uma tríade arquitetônica sofisticada que equilibra eficiência de memória com raciocínio preciso. O modelo utiliza um Backbone híbrido Mamba-Transformerque intercala camadas do Mamba-2 com camadas estratégicas de atenção do Transformer.
Para compreender as implicações para a produção empresarial, considere o "agulha no palheiro" problema. As camadas do Mamba-2 agem como um "viagem rápida" sistema rodoviário, lidando com a grande maioria do processamento de sequência com complexidade de tempo linear. Isso permite que o modelo mantenha uma enorme janela de contexto de 1 milhão de tokens sem que o consumo de memória do cache KV exploda. No entanto, os modelos puros de espaço de estados muitas vezes lutam com a recordação associativa.
Para corrigir isso, a Nvidia insere estrategicamente camadas de atenção do Transformer como "âncoras globais," garantindo que o modelo possa recuperar com precisão fatos específicos enterrados em uma base de código ou em uma pilha de relatórios financeiros.
Além do backbone, o modelo introduz Mistura Latente de Especialistas (LatentMoE). A mistura tradicional de especialistas (MoE) projeta tokens de rota para especialistas em toda a sua dimensão oculta, o que cria um gargalo computacional à medida que os modelos são dimensionados. O LatentMoE resolve isso projetando tokens em um espaço compactado antes de encaminhá-los para especialistas.
Esse "compressão especializada" permite que o modelo consulte quatro vezes mais especialistas pelo mesmo custo computacional. Essa granularidade é vital para agentes que precisam alternar entre sintaxe Python, lógica SQL e raciocínio conversacional em um único turno.
Acelerando ainda mais o modelo está a Predição Multi-Token (MTP). Enquanto os modelos padrão preveem um único próximo token, o MTP prevê vários tokens futuros simultaneamente. Isso serve como "modelo de rascunho embutido," permitindo decodificação especulativa nativa que pode fornecer velocidades de clock de até 3x para tarefas de geração estruturadas, como código ou chamadas de ferramenta.
A vantagem da Blackwell
Para as empresas, o salto técnico mais significativo do Nemotron 3 Super é a sua otimização para a plataforma GPU Nvidia Blackwell. Ao pré-treinar nativamente em NVFP4 (ponto flutuante de 4 bits), a Nvidia alcançou um avanço na eficiência de produção.
Na Blackwell, o modelo oferece inferência 4x mais rápida do que os modelos de 8 bits executados na arquitetura Hopper anterior, sem perda de precisão.
Na prática, o Nemotron 3 Super é uma ferramenta especializada para raciocínio agente.
Atualmente ocupa a posição número 1 no DeepResearch Bench, uma referência que mede a capacidade de uma IA de conduzir pesquisas completas e em várias etapas em grandes conjuntos de documentos.
|
Referência |
Nemotron 3 Super |
Qwen3.5-122B-A10B |
GPT-OSS-120B |
|
Conhecimento Geral |
|||
|
MMLU-Pro |
83,73 |
86,70 |
81,00 |
|
Raciocínio |
|||
|
AIME25 (sem ferramentas) |
90,21 |
90,36 |
92,50 |
|
HMMT 25 de fevereiro (sem ferramentas) |
93,67 |
91,40 |
90,00 |
|
HMMT 25 de fevereiro (com ferramentas) |
94,73 |
89,55 |
– |
|
GPQA (sem ferramentas) |
79,23 |
86,60 |
80,10 |
|
GPQA (com ferramentas) |
82,70 |
– |
80.09 |
|
LiveCodeBench (v5 2024-07↔2024-12) |
81.19 |
78,93 |
88,00 |
|
SciCode (subtarefa) |
42.05 |
42h00 |
39h00 |
|
HLE (sem ferramentas) |
18h26 |
25h30 |
14h90 |
|
HLE (com ferramentas) |
22,82 |
– |
19,0 |
|
Agente |
|||
|
Banco Terminal (subconjunto rígido) |
25,78 |
26,80 |
24h00 |
|
Núcleo de Bancada Terminal 2.0 |
31h00 |
37,50 |
18h70 |
|
Banco SWE (OpenHands) |
60,47 |
66,40 |
41,9 |
|
Banco SWE (OpenCode) |
59,20 |
67,40 |
– |
|
Banco SWE (Codex) |
53,73 |
61,20 |
– |
|
SWE-Bench Multilíngue (OpenHands) |
45,78 |
– |
30,80 |
|
TauBench V2 |
|||
|
Companhia aérea |
56,25 |
66,0 |
49,2 |
|
Varejo |
62,83 |
62,6 |
67,80 |
|
Telecomunicações |
64,36 |
95,00 |
66,00 |
|
Média |
61,15 |
74,53 |
61,0 |
|
BrowseComp com pesquisa |
31.28 |
– |
33,89 |
|
Banco PÁSSARO |
41,80 |
– |
38,25 |
|
Bate-papo e acompanhamento de instruções |
|||
|
IFBench (prompt) |
72,56 |
73,77 |
68,32 |
|
Escalar múltiplos desafios de IA |
55,23 |
61,50 |
58,29 |
|
Arena-Difícil-V2 |
73,88 |
75,15 |
90,26 |
|
Contexto longo |
|||
|
AA-LCR |
58,31 |
66,90 |
51,00 |
|
RÉGUA @ 256k |
96h30 |
96,74 |
52h30 |
|
RÉGUA @ 512k |
95,67 |
95,95 |
46,70 |
|
RÉGUA @ 1M |
91,75 |
91,33 |
22h30 |
|
Multilíngue |
|||
|
MMLU-ProX (média em comprimento) |
79,36 |
85.06 |
76,59 |
|
WMT24++ (pt→xx) |
86,67 |
87,84 |
88,89 |
Ele também demonstra vantagens significativas de rendimento, alcançando rendimento até 2,2x maior que o gpt-oss-120B e 7,5x maior que o Qwen3.5-122B em configurações de alto volume.
Licença ‘aberta’ personalizada – uso comercial, mas com advertências importantes
O lançamento do Nemotron 3 Super sob o Contrato de licença de modelo aberto da Nvidia (atualizado em outubro de 2025) fornece uma estrutura permissiva para a adoção empresarial, embora tenha características distintas "salvaguarda" cláusulas que o diferenciam de licenças puras de código aberto, como MIT ou Apache 2.0.
Principais disposições para usuários corporativos:
-
Usabilidade Comercial: A licença afirma explicitamente que os modelos são "comercialmente utilizável" e concede uma licença perpétua, mundial e isenta de royalties para vender e distribuir produtos baseados no modelo.
-
Propriedade da saída: A Nvidia não reivindica os resultados gerados pelo modelo; a responsabilidade por esses resultados – e a propriedade deles – é inteiramente do usuário.
-
Obras Derivadas: As empresas são livres para criar e possuir "Modelos Derivativos" (versões ajustadas), desde que incluam o aviso de atribuição obrigatório: "Licenciado pela Nvidia Corporation sob a licença Nvidia Open Model."
O "Linhas Vermelhas":
A licença inclui dois gatilhos críticos de rescisão que as equipes de produção devem monitorar:
-
Guarda-corpos de segurança: A licença termina automaticamente se um usuário ignorar ou burlar as regras do modelo "Guarda-corpos" (limitações técnicas ou hiperparâmetros de segurança) sem implementar um "substancialmente semelhante" substituição apropriada para o caso de uso.
-
Gatilho de litígio: Se um usuário iniciar um litígio de direitos autorais ou patentes contra a Nvidia, alegando que o modelo viola sua propriedade intelectual, sua licença para usar o modelo será encerrada imediatamente.
Esta estrutura permite que a Nvidia promova um ecossistema comercial enquanto se protege de "Trollagem de IP" e garantir que o modelo não perca seus recursos de segurança para uso malicioso.
‘A equipe realmente cozinhou’
O lançamento gerou um burburinho significativo na comunidade de desenvolvedores. Chris Alexiuk, engenheiro sênior de pesquisa de produto da Nvidia, anunciou o lançamento do X sob seu comando @llm_wizard como um "SUPER DIA," enfatizando a rapidez e transparência do modelo. "O modelo é: RÁPIDO. O modelo é: SMART. O modelo é: O MODELO MAIS ABERTO QUE JÁ FIZEMOS," Chris postou, destacando o lançamento não apenas de pesos, mas de 10 trilhões de tokens de dados e receitas de treinamento.
A adoção pela indústria reflete esse entusiasmo:
-
Nuvem e Hardware: O modelo está sendo implantado como um Microsserviço Nvidia NIMpermitindo que ele seja executado no local por meio do Fábrica de IA da Dell ou HPEbem como no Google Cloud, Oracle e, em breve, AWS e Azure.
-
Agentes de Produção: Empresas como Código Coelho (desenvolvimento de software) e Greptil estão integrando o modelo para lidar com análises de base de código em larga escala, enquanto líderes industriais como Siemens e Palantir estão implantando-o para automatizar fluxos de trabalho complexos em manufatura e segurança cibernética.
Como observou Kari Briski, vice-presidente de software de IA da Nvidia: "À medida que as empresas vão além dos chatbots e passam para aplicações multiagentes, elas enfrentam… uma explosão de contexto."
Nemotron 3 Super é a resposta da Nvidia a essa explosão – um modelo que fornece o "inteligência" de um sistema de parâmetros 120B com a eficiência operacional de um especialista muito menor. Para a empresa, a mensagem é clara: o "pensando imposto" está finalmente caindo.