Close Menu
    What's Hot

    Karpathy compartilha a arquitetura ‘LLM Knowledge Base’ que contorna o RAG com uma biblioteca de descontos em evolução mantida pela IA

    abril 4, 2026

    Os usuários do Pixel relatam que o aplicativo Now Playing está finalmente funcionando como deveria

    abril 3, 2026

    A Microsoft realmente disse que o Copilot é ‘apenas para fins de entretenimento’

    abril 3, 2026
    Facebook X (Twitter) Instagram
    Rafas Geek
    • Tech

      O2 emite novo alerta pedindo aos clientes que ‘liguem para número de três dígitos’

      março 31, 2026

      Os usuários da Virgin Media finalmente recebem uma grande atualização gratuita do canal Sky TV amanhã

      março 31, 2026

      Freeview e Sky rivalizam com uma atualização de TV gratuita muito inteligente da EE

      março 31, 2026

      Os compradores da Argos correm para pegar o rival barato do iPad, tudo que você precisa é este código

      março 30, 2026

      Milhões de proprietários de Fire TV Stick colocados em alerta vermelho conforme novo bloco é confirmado

      março 30, 2026
    • News

      Os usuários do Pixel relatam que o aplicativo Now Playing está finalmente funcionando como deveria

      abril 3, 2026

      A Microsoft realmente disse que o Copilot é ‘apenas para fins de entretenimento’

      abril 3, 2026

      Mais evidências dos novos Galaxy Buds secretos da Samsung acabaram de surgir

      abril 3, 2026

      Ganhe 37% de desconto na câmera de segurança Baseus X1 Pro altamente avaliada

      abril 3, 2026

      Este vazamento do DJI OSMO Pocket 4 tornou a espera ainda mais difícil

      abril 3, 2026
    • Negócios

      Novo ano fiscal – 2026/27 – o que os pequenos empresários precisam saber

      abril 1, 2026

      5 benefícios comerciais de investir em números fixos virtuais

      março 30, 2026

      Aceitar pagamentos online para empresas de comércio eletrônico

      março 27, 2026

      Estabelecendo limites e cronogramas fiscais digitais

      março 26, 2026

      Regras de atraso de pagamento incluirão juros obrigatórios e limite de pagamento de 60 dias

      março 25, 2026
    • Mundo

      O Galaxy Z TriFold está pronto para o mercado dos EUA com essas ofertas

      dezembro 2, 2025

      Os telefones Samsung em um grande mercado receberão muitos utilitários de sistema

      novembro 14, 2025

      O Google Chrome é o pior navegador para quem não é técnico – eis o porquê

      outubro 25, 2025

      O Galaxy Z Flip 8 poderia usar um chip especial da Qualcomm com um pouco de molho extra da Samsung

      outubro 10, 2025

      Um dos melhores telefones de câmera de 2025 é obter uma sequência

      setembro 2, 2025
    • Contato
    Facebook X (Twitter) Instagram
    Rafas Geek
    Data

    Karpathy compartilha a arquitetura ‘LLM Knowledge Base’ que contorna o RAG com uma biblioteca de descontos em evolução mantida pela IA

    rafasgeekBy rafasgeekabril 4, 2026Nenhum comentário10 Mins Read
    Facebook Twitter Pinterest LinkedIn Tumblr Email
    Share
    Facebook Twitter LinkedIn Pinterest Email





    Os codificadores de vibração de IA têm mais um motivo para agradecer Andrej Karpatiao cunhador do termo.

    O ex-diretor de IA da Tesla e cofundador da OpenAI, agora executando seu próprio projeto independente de IA, recentemente postado no X descrevendo um "Bases de conhecimento LLM" abordagem que ele está usando para gerenciar vários tópicos de interesse de pesquisa.

    Ao construir um registro persistente de seus projetos mantido pelo LLM, Karpathy está resolvendo a principal frustração de "apátrida" Desenvolvimento de IA: a temida redefinição do limite de contexto.

    Como qualquer pessoa que tenha vibe coded pode atestar, atingir um limite de uso ou encerrar uma sessão muitas vezes parece uma lobotomia para o seu projeto. Você é forçado a gastar tokens (e tempo) valiosos reconstruindo o contexto da IA, esperando que ela "lembra" as nuances arquitetônicas que você acabou de estabelecer.

    Karpathy propõe algo mais simples, mais flexível e desordenadamente elegante do que a solução empresarial típica de um banco de dados vetorial e pipeline RAG.

    Em vez disso, ele descreve um sistema onde o próprio LLM atua como um "bibliotecário de pesquisa"— compilar, lintar e interligar ativamente arquivos Markdown (.md), o formato de dados mais compacto e compatível com LLM.

    Ao desviar uma parte significativa de seu "taxa de transferência de token" na manipulação de conhecimento estruturado em vez de código padronizado, Karpathy apresentou um plano para a próxima fase do "Segundo Cérebro"—um que é auto-recuperável, auditável e totalmente legível por humanos.

    Além do RAG

    Nos últimos três anos, o paradigma dominante para dar aos LLMs acesso a dados proprietários tem sido Geração Aumentada de Recuperação (RAG).

    Em uma configuração RAG padrão, os documentos são divididos em "pedaços," convertidos em vetores matemáticos (embeddings) e armazenados em banco de dados especializado.

    Quando um usuário faz uma pergunta, o sistema executa uma "pesquisa de similaridade" para encontrar os pedaços mais relevantes e inseri-los na abordagem do LLM.Karpathy, que ele chama Bases de conhecimento LLMrejeita a complexidade dos bancos de dados vetoriais para conjuntos de dados de médio porte.

    Em vez disso, depende da capacidade crescente do LLM de raciocinar sobre textos estruturados.

    A arquitetura do sistema, conforme visualizada pelo usuário X @himanshu em parte das reações mais amplas à postagem de Karpathy, funciona em três estágios distintos:

    1. Ingestão de dados: Matérias-primas – artigos de pesquisa, repositórios GitHub, conjuntos de dados e artigos da web – são despejados em um raw/ diretório. Karpathy utiliza o Obsidiana Web Clipper para converter conteúdo da web em Markdown (.md), garantindo que até mesmo as imagens sejam armazenadas localmente para que o LLM possa referenciá-las por meio de recursos de visão.

    2. A etapa de compilação: Esta é a inovação central. Em vez de apenas indexar os arquivos, o LLM "compila" eles. Ele lê os dados brutos e escreve um wiki estruturado. Isso inclui a geração de resumos, a identificação de conceitos-chave, a autoria de artigos em estilo enciclopédico e, o que é crucial, a criação de backlinks entre ideias relacionadas.

    3. Manutenção Ativa (Linting): O sistema não é estático. Karpathy descreve corrida "exames de saúde" ou "enrolado" passagens onde o LLM verifica o wiki em busca de inconsistências, dados ausentes ou novas conexões. Como membro da comunidade Charly Wargnier observado, "Ele atua como uma base viva de conhecimento de IA que realmente se cura."

    Ao tratar os arquivos Markdown como "fonte da verdade," Karpatia evita o "caixa preta" problema de incorporação de vetores. Cada afirmação feita pela IA pode ser rastreada até um ponto específico .md arquivo que um ser humano pode ler, editar ou excluir.

    Implicações para a empresa

    Embora a configuração do Karpathy seja atualmente descrita como um "coleção hacky de scripts," as implicações para a empresa são imediatas.

    Como empresário Vamshi Reddy (@tammireddy) anotado em resposta ao anúncio: "Cada empresa possui um diretório raw/. Ninguém nunca compilou isso. Esse é o produto."

    Karpathy concordou, sugerindo que esta metodologia representa uma "novo produto incrível" categoria.

    A maioria das empresas atualmente "afogar" em dados não estruturados – registros do Slack, wikis internos e relatórios em PDF que ninguém tem tempo de sintetizar.

    UM "Estilo Karpatia" a camada empresarial não pesquisaria apenas esses documentos; seria o autor ativo de um "Bíblia da Empresa" que é atualizado em tempo real.

    Como educador de IA e autor de boletins informativos Ole Lehmann colocou no X: "acho que quem empacota isso para pessoas normais está sentado em algo enorme. um aplicativo que sincroniza com as ferramentas que você já usa, seus favoritos, seu aplicativo de leitura posterior, seu aplicativo de podcast, seus tópicos salvos."

    Eugen Alpeza, cofundador e CEO da construtora de agentes empresariais de IA e startup de orquestração Edra, observou em uma postagem X que: "O salto do wiki de pesquisa pessoal para as operações empresariais é onde tudo se torna brutal. Milhares de funcionários, milhões de registros, conhecimento tribal que se contradiz entre equipes. Na verdade, há espaço para um novo produto e estamos construindo-o na empresa."

    À medida que a comunidade explora o "Padrão Karpatia," o foco já está mudando da pesquisa pessoal para a orquestração multiagente.

    Uma análise arquitetônica recente por @jumperzfundador da plataforma de criação de agentes de IA Segundo companheiroilustra esta evolução através de uma "Base de conhecimento do enxame" que dimensiona o fluxo de trabalho do wiki para um sistema de 10 agentes gerenciado via OpenClaw.

    O principal desafio de um enxame multiagente – onde uma alucinação pode se agravar e "infectar" a memória coletiva – é abordada aqui por um dedicado "Portão de qualidade."

    Utilizando o modelo Hermes (treinado pela Nous Research para avaliação estruturada) como supervisor independente, cada rascunho do artigo é pontuado e validado antes de ser promovido ao "ao vivo" wiki.

    Este sistema cria um "Loop Composto": os agentes despejam os resultados brutos, o compilador os organiza, o Hermes valida a verdade e os briefings verificados são retornados aos agentes no início de cada sessão. Isto garante que o enxame nunca "acorda em branco," mas, em vez disso, inicia cada tarefa com um briefing filtrado e de alta integridade de tudo o que o coletivo aprendeu

    Dimensionamento e desempenho

    Uma crítica comum às abordagens não vetoriais é a escalabilidade. No entanto, Karpathy observa que em uma escala de aproximadamente 100 artigos e aproximadamente 400.000 palavras, a capacidade do LLM de navegar por resumos e arquivos de índice é mais que suficiente.

    Para um wiki departamental ou um projeto de pesquisa pessoal, o "fantasia RAG" infra-estrutura muitas vezes introduz mais latência e "ruído de recuperação" do que resolve.

    Podcaster de tecnologia Lex Fridman (@lexfridman) confirmou que ele usa uma configuração semelhante, adicionando uma camada de visualização dinâmica:

    "Muitas vezes faço com que ele gere HTML dinâmico (com js) que me permite classificar/filtrar dados e mexer nas visualizações de forma interativa. Outra coisa útil é fazer com que o sistema gere uma mini-base de conhecimento focada temporariamente… que então carrego em um LLM para interação em modo de voz em uma longa corrida de 7 a 10 milhas."

    Esse "wiki efêmero" conceito sugere um futuro onde os usuários não apenas "bater papo" com uma IA; eles geram uma equipe de agentes para construir um ambiente de pesquisa personalizado para uma tarefa específica, que então se dissolve assim que o relatório é escrito.

    Licenciamento e a filosofia ‘file-over-app’

    Tecnicamente, a metodologia de Karpathy é construída em um padrão aberto (Markdown), mas vista através de lentes proprietárias, mas extensíveis (aplicativo de anotações e organização de arquivos Obsidiana).

    • Remarcação (.md): Ao escolher o Markdown, Karpathy garante que sua base de conhecimento não fique restrita a um fornecedor específico. É à prova de futuro; se o Obsidian desaparecer, os arquivos permanecerão legíveis por qualquer editor de texto.

    • Obsidiana: Embora o Obsidian seja um aplicativo proprietário, seu "local primeiro" a filosofia e o EULA (que permite o uso pessoal gratuito e requer uma licença para uso comercial) se alinham com o desejo do desenvolvedor de soberania de dados.

    • O "Codificado por vibração" Ferramentas: Os mecanismos de pesquisa e ferramentas CLI mencionados por Karpathy são scripts personalizados – provavelmente baseados em Python – que preenchem a lacuna entre o LLM e o sistema de arquivos local.

    Esse "arquivo sobre aplicativo" a filosofia é um desafio direto para modelos pesados ​​​​de SaaS, como Notion ou Google Docs. No modelo Karpathy, o usuário possui os dados, e a IA é apenas um editor altamente sofisticado que "visitas" os arquivos para realizar o trabalho.

    Bibliotecário vs. mecanismo de pesquisa

    A comunidade de IA reagiu com uma mistura de validação técnica e "codificação de vibração" entusiasmo. O debate centra-se em saber se a indústria indexou excessivamente os bancos de dados vetoriais para problemas que são fundamentalmente relacionados à estrutura, e não apenas à similaridade.

    Jason Paul Michaels (@SpaceWelder314), um soldador que usa Claude, expressou o sentimento de que ferramentas mais simples são muitas vezes mais robustas:

    "Nenhum banco de dados vetorial. Sem incorporações… Apenas markdown, FTS5 e grep… Cada correção de bug… é indexada. O conhecimento se compõe."

    No entanto, os elogios mais significativos vieram de Steph Ango (@Kepano), cocriador de Obsidian, que destacou um conceito chamado "Mitigação de Contaminação."

    Ele sugeriu que os usuários deveriam manter seus dados pessoais "cofre" limpe e deixe os agentes jogarem em um "cofre bagunçado," trazendo apenas os artefatos úteis depois que o fluxo de trabalho voltado para o agente os tiver destilado.

    Qual solução é a certa para seus projetos empresariais de codificação vibe?

    Recurso

    Vetor DB / RAG

    Wiki Markdown de Karpathy

    Formato de dados

    Vetores opacos (matemática)

    Markdown legível por humanos

    Lógica

    Similaridade semântica (vizinho mais próximo)

    Conexões explícitas (backlinks/índices)

    Auditabilidade

    Baixo (caixa preta)

    Alto (rastreabilidade direta)

    Composição

    Estático (requer reindexação)

    Ativo (autocura por meio de fiapos)

    Escala Ideal

    Milhões de documentos

    100 – 10.000 documentos de alto sinal

    O "Banco de dados vetorial" abordagem é como um armazém enorme e desorganizado com um motorista de empilhadeira muito rápido. Você pode encontrar qualquer coisa, mas não sabe por que está ali ou como se relaciona com o palete próximo a ele. Karpatia "Wiki Markdown" é como uma biblioteca com curadoria e um bibliotecário-chefe que está constantemente escrevendo novos livros para explicar os antigos.

    A próxima fase

    A exploração final de Karpathy aponta para o destino final desses dados: Geração de Dados Sintéticos e Ajuste Fino.

    À medida que o wiki cresce e os dados se tornam mais "puro" por meio de linting LLM contínuo, ele se torna o conjunto de treinamento perfeito.

    Em vez do LLM apenas ler o wiki em seu "janela de contexto," o usuário pode eventualmente ajustar um modelo menor e mais eficiente no próprio wiki. Isto permitiria ao LLM "saber" a base de conhecimento pessoal do pesquisador em seus próprios pesos, essencialmente transformando um projeto de pesquisa pessoal em uma inteligência privada e personalizada.

    Resumindo: Karpathy não apenas compartilhou um roteiro; ele compartilhou uma filosofia. Ao tratar o LLM como um agente ativo que mantém a sua própria memória, ele contornou as limitações do "tiro único" Interações de IA.

    Para o pesquisador individual, significa o fim do "marcador esquecido."

    Para a empresa, significa a transição de um "lago bruto/dados" para um "ativo de conhecimento compilado." Como o próprio Karpathy resumiu: "Você raramente escreve ou edita o wiki manualmente; é o domínio do LLM." Estamos entrando na era do arquivo autônomo.



    arquitetura base biblioteca compartilha contorna descontos evolução Karpathy Knowledge LLM mantida pela RAG uma
    Share. Facebook Twitter Pinterest LinkedIn Tumblr Email
    rafasgeek
    • Website

    Related Posts

    É uma boa sexta-feira para ganhar um desconto à vista de $ 150 no Galaxy Tab S11

    abril 3, 2026

    A Samsung tem uma solução para as fotos borradas do seu Galaxy S26 Ultra

    abril 3, 2026

    O Google tem uma maneira fácil de dar nova vida ao seu PC antigo

    abril 3, 2026

    Comments are closed.

    Economy News
    Data

    Karpathy compartilha a arquitetura ‘LLM Knowledge Base’ que contorna o RAG com uma biblioteca de descontos em evolução mantida pela IA

    By rafasgeekabril 4, 20260

    Os codificadores de vibração de IA têm mais um motivo para agradecer Andrej Karpatiao cunhador…

    Os usuários do Pixel relatam que o aplicativo Now Playing está finalmente funcionando como deveria

    abril 3, 2026

    A Microsoft realmente disse que o Copilot é ‘apenas para fins de entretenimento’

    abril 3, 2026
    Top Trending
    Data

    Karpathy compartilha a arquitetura ‘LLM Knowledge Base’ que contorna o RAG com uma biblioteca de descontos em evolução mantida pela IA

    By rafasgeekabril 4, 20260

    Os codificadores de vibração de IA têm mais um motivo para agradecer…

    Android apps

    Os usuários do Pixel relatam que o aplicativo Now Playing está finalmente funcionando como deveria

    By rafasgeekabril 3, 20260

    Andy Walker / Autoridade AndroidDR Depois que o aplicativo Now Playing foi…

    Microsoft

    A Microsoft realmente disse que o Copilot é ‘apenas para fins de entretenimento’

    By rafasgeekabril 3, 20260

    Calvin Wankhede / Autoridade AndroidDR Os termos de uso do Copilot da…

    Subscribe to News

    Receba as últimas notícias esportivas do NewsSite sobre o mundo, esportes e política.

    Advertisement

    Todos os dias, uma nova tecnologia é lançada, e eu Rafas Geek, estou aqui para divulgar para o mundo, o que à de novo!

    Siga-nos nas redes sociais:

    Facebook X (Twitter) Instagram YouTube

    Subscribe to Updates

    Receba as últimas notícias criativas do FooBar sobre arte, design e negócios.

    Facebook X (Twitter) Instagram Pinterest
    • Home
    • Tecnologia
    • Entretenimento
    • News
    © 2026 Rafas Geek - Tudo sobre tecnologia 👨🏻‍💻 Rafas Geek.

    Type above and press Enter to search. Press Esc to cancel.