Close Menu
    What's Hot

    O alto-falante inteligente OpenAI pode aumentar o arrepio com uma câmera

    fevereiro 20, 2026

    Samsung finalmente trará opções de dados multi-SIM para usuários dos EUA

    fevereiro 20, 2026

    Estação de energia Jackery Explorer 5000 Plus cai para preço recorde

    fevereiro 20, 2026
    Facebook X (Twitter) Instagram
    Rafas Geek
    • Tech

      O WhatsApp finalmente corrige um grande problema com mensagens para usuários de iPhone e Android

      fevereiro 20, 2026

      Argos está distribuindo fones de ouvido Beats de última geração por menos da metade do preço

      fevereiro 19, 2026

      Sky confirma aumento de preços para clientes de banda larga e TV

      fevereiro 19, 2026

      Dyson lança limpador de piso úmido da espessura de um lápis – você aguenta o preço?

      fevereiro 19, 2026

      O Pixel 10a do Google está aqui e parece muito familiar por dentro e por fora

      fevereiro 19, 2026
    • News

      O alto-falante inteligente OpenAI pode aumentar o arrepio com uma câmera

      fevereiro 20, 2026

      Samsung finalmente trará opções de dados multi-SIM para usuários dos EUA

      fevereiro 20, 2026

      Estação de energia Jackery Explorer 5000 Plus cai para preço recorde

      fevereiro 20, 2026

      Usuários do YouTube Premium estão ouvindo anúncios surpresa no Google Home

      fevereiro 20, 2026

      Usuários do YouTube Premium estão ouvindo anúncios surpresa no Google Home

      fevereiro 20, 2026
    • Negócios

      Como iniciar um negócio de máquinas de venda automática

      fevereiro 20, 2026

      O que é uma máquina PDQ e como funciona?

      fevereiro 20, 2026

      Os 7 melhores sistemas POS para bares e pubs

      fevereiro 19, 2026

      Como iniciar um negócio de panificação

      fevereiro 16, 2026

      Transferência Internacional de Dinheiro para Empresas – Melhores Provedores para Enviar Dinheiro para o Exterior

      fevereiro 13, 2026
    • Mundo

      O Galaxy Z TriFold está pronto para o mercado dos EUA com essas ofertas

      dezembro 2, 2025

      Os telefones Samsung em um grande mercado receberão muitos utilitários de sistema

      novembro 14, 2025

      O Google Chrome é o pior navegador para quem não é técnico – eis o porquê

      outubro 25, 2025

      O Galaxy Z Flip 8 poderia usar um chip especial da Qualcomm com um pouco de molho extra da Samsung

      outubro 10, 2025

      Um dos melhores telefones de câmera de 2025 é obter uma sequência

      setembro 2, 2025
    • Contato
    Facebook X (Twitter) Instagram
    Rafas Geek
    Featured Markets

    O Microsoft Copilot ignorou os rótulos de confidencialidade duas vezes em oito meses – e nenhuma pilha DLP detectou nenhum deles

    rafasgeekBy rafasgeekfevereiro 20, 2026Nenhum comentário7 Mins Read
    Facebook Twitter Pinterest LinkedIn Tumblr Email
    Share
    Facebook Twitter LinkedIn Pinterest Email





    Durante quatro semanas, a partir de 21 de janeiro, o Copilot da Microsoft leu e resumiu e-mails confidenciais, apesar de todos os rótulos de confidencialidade e políticas de DLP dizerem para não fazê-lo. Os pontos de aplicação quebraram o pipeline da própria Microsoft e nenhuma ferramenta de segurança na pilha os sinalizou. Entre as organizações afetadas estava o Serviço Nacional de Saúde do Reino Unido, que registrou como INC46740412 — um sinal de até que ponto a falha atingiu os ambientes regulamentados de saúde. A Microsoft o rastreou como CW1226324.

    A assessoria, relatado pela primeira vez por BleepingComputer em 18 de fevereiro, marca a segunda vez em oito meses que o pipeline de recuperação do Copilot violou seu próprio limite de confiança – uma falha na qual um sistema de IA acessa ou transmite dados que estava explicitamente proibido de tocar. O primeiro foi pior.

    Em junho de 2025, a Microsoft corrigiu CVE-2025-32711uma vulnerabilidade crítica de zero clique que os pesquisadores da Aim Security apelidaram de “EchoLeak”. Um e-mail malicioso contornou o classificador de injeção imediata do Copilot, sua redação de link, sua política de segurança de conteúdo e suas menções de referência para exfiltrar silenciosamente dados corporativos. Nenhum clique e nenhuma ação do usuário foram necessários. A Microsoft atribuiu-lhe um Pontuação CVSS de 9,3.

    Duas causas raízes diferentes; um ponto cego: um erro de código e uma cadeia de exploração sofisticada produziram um resultado idêntico. O Copilot processou dados que foram explicitamente proibidos de tocar e a pilha de segurança não viu nada.

    Por que EDR e WAF continuam arquitetonicamente cegos para isso

    A detecção e resposta de endpoint (EDR) monitora o comportamento de arquivos e processos. Os firewalls de aplicativos da Web (WAFs) inspecionam cargas HTTP. Também não existe uma categoria de detecção para “seu assistente de IA acabou de violar seu próprio limite de confiança”. Essa lacuna existe porque os pipelines de recuperação de LLM ficam atrás de uma camada de aplicação que as ferramentas de segurança tradicionais nunca foram projetadas para observar.

    O Copilot ingeriu um e-mail rotulado que foi instruído a ignorar, e toda a ação aconteceu dentro da infraestrutura da Microsoft. Entre o índice de recuperação e o modelo de geração. Nada foi descartado no disco, nenhum tráfego anômalo cruzou o perímetro e nenhum processo foi gerado para um agente de endpoint sinalizar. A pilha de segurança relatou tudo limpo porque nunca viu a camada onde ocorreu a violação.

    O bug CW1226324 funcionou porque um erro de caminho de código permitiu que mensagens em Itens Enviados e Rascunhos entrassem no conjunto de recuperação do Copilot, apesar dos rótulos de confidencialidade e regras DLP que deveriam tê-los bloqueado, de acordo com o comunicado da Microsoft. O EchoLeak funcionou porque os pesquisadores da Aim Security provaram que um e-mail malicioso, redigido para parecer uma correspondência comercial comum, poderia manipular o pipeline de geração de recuperação aumentada do Copilot para acessar e transmitir dados internos para um servidor controlado pelo invasor.

    Os pesquisadores da Aim Security o caracterizaram como um falha fundamental de design: os agentes processam dados confiáveis ​​e não confiáveis ​​no mesmo processo de pensamento, tornando-os estruturalmente vulneráveis ​​à manipulação. Essa falha de design não desapareceu quando a Microsoft corrigiu o EchoLeak. CW1226324 prova que a camada de aplicação em torno dele pode falhar de forma independente.

    A auditoria de cinco pontos que mapeia ambos os modos de falha

    Nenhuma das falhas desencadeou um único alerta. Ambos foram descobertos por meio de canais de consultoria de fornecedores – não por meio de SIEM, nem por meio de EDR, nem por meio de WAF.

    CW1226324 tornou-se público em 18 de fevereiro. Os locatários afetados foram expostos desde 21 de janeiro. A Microsoft não divulgou quantas organizações foram afetadas ou quais dados foram acessados ​​durante essa janela. Para os líderes de segurança, essa lacuna é a história: uma exposição de quatro semanas dentro do pipeline de inferência de um fornecedor, invisível para todas as ferramentas da pilha, descoberta apenas porque a Microsoft decidiu publicar um comunicado.

    1. Teste a aplicação de DLP diretamente no Copilot. O CW1226324 existiu por quatro semanas porque ninguém testou se o Copilot realmente respeitava os rótulos de confidencialidade em itens enviados e rascunhos. Crie mensagens de teste rotuladas em pastas controladas, consulte o Copilot e confirme se ele não pode exibi-las. Execute este teste mensalmente. Configuração não é imposição; a única prova é uma tentativa fracassada de recuperação.

    2. Impedir que conteúdo externo chegue à janela de contexto do Copilot. O EchoLeak foi bem-sucedido porque um e-mail malicioso entrou no conjunto de recuperação do Copilot e suas instruções injetadas foram executadas como se fossem a consulta do usuário. O ataque contornou quatro camadas de defesa distintas: classificador de injeção de prompt cruzado da Microsoft, redação de link externo, controles de política de segurança de conteúdo e salvaguardas de menção de referência, de acordo com a divulgação da Aim Security. Desative o contexto de e-mail externo nas configurações do Copilot e restrinja a renderização de Markdown nas saídas de IA. Isso detecta a classe de falha da injeção imediata, removendo totalmente a superfície de ataque.

    3. Logs de Auditoria para interações anômalas do Copilot durante a janela de exposição de janeiro a fevereiro. Procure consultas do Copilot Chat que devolveram conteúdo de mensagens etiquetadas entre 21 de janeiro e meados de fevereiro de 2026. Nenhuma das classes de falha produziu alertas através do EDR ou WAF existente, pelo que a deteção retrospetiva depende da telemetria do Purview. Se o seu locatário não conseguir reconstruir o que o Copilot acessou durante a janela de exposição, documente essa lacuna formalmente. É importante para a conformidade. Para qualquer organização sujeita a exame regulamentar, uma lacuna não documentada no acesso a dados de IA durante uma janela de vulnerabilidade conhecida é uma descoberta de auditoria à espera de acontecer.

    4. Ative a descoberta de conteúdo restrito para sites do SharePoint com dados confidenciais. O RCD remove totalmente os sites do pipeline de recuperação do Copilot. Ele funciona independentemente de a violação de confiança vir de um bug de código ou de um prompt injetado, porque os dados nunca entram na janela de contexto. Esta é a camada de contenção que não depende do ponto de fiscalização que rompeu. Para organizações que lidam com dados confidenciais ou regulamentadoso RCD não é opcional.

    5. Crie um manual de resposta a incidentes para falhas de inferência hospedadas pelo fornecedor. Os manuais de resposta a incidentes (IR) precisam de uma nova categoria: violações dos limites de confiança dentro do pipeline de inferência do fornecedor. Defina caminhos de escalonamento. Atribuir propriedade. Estabeleça uma cadência de monitoramento para avisos de integridade de serviços de fornecedores que afetem o processamento de IA. Seu SIEM também não detectará o próximo.

    O padrão que vai além do Copilot

    UM Pesquisa de 2026 feita por Cybersecurity Insiders descobriram que 47% dos CISOs e líderes seniores de segurança já observaram agentes de IA exibirem comportamento não intencional ou não autorizado. As organizações estão implantando assistentes de IA na produção mais rápido do que conseguem construir uma governança em torno deles.

    Essa trajetória é importante porque esta estrutura não é específica do Copilot. Qualquer assistente baseado em RAG que extrai dados corporativos segue o mesmo padrão: uma camada de recuperação seleciona o conteúdo, uma camada de aplicação controla o que o modelo pode ver e uma camada de geração produz resultados. Se a camada de aplicação falhar, a camada de recuperação alimentará o modelo com dados restritos e a pilha de segurança nunca os verá. Copilot, Gemini for Workspace e qualquer ferramenta com acesso de recuperação a documentos internos apresentam o mesmo risco estrutural.

    Execute a auditoria de cinco pontos antes da próxima reunião do conselho. Comece com mensagens de teste rotuladas em uma pasta controlada. Se o Copilot os revelar, todas as políticas subjacentes serão um teatro.

    A diretoria responde: “Nossas políticas foram configuradas corretamente. A aplicação falhou dentro do pipeline de inferência do fornecedor. Aqui estão os cinco controles que estamos testando, restringindo e exigindo antes de reativarmos o acesso total para cargas de trabalho confidenciais”.

    A próxima falha não enviará um alerta.



    confidencialidade copilot deles detectou DLP duas ignorou meses Microsoft nenhum Nenhuma oito pilha rótulos vezes
    Share. Facebook Twitter Pinterest LinkedIn Tumblr Email
    rafasgeek
    • Website

    Related Posts

    At a Glance do Pixel acaba de adicionar duas novas categorias pelas quais os usuários esperavam há muito tempo

    fevereiro 20, 2026

    O WhatsApp finalmente corrige um grande problema com mensagens para usuários de iPhone e Android

    fevereiro 20, 2026

    Primeiras impressões do Google Gemini 3.1 Pro: um ‘Deep Think Mini’ com raciocínio ajustável sob demanda

    fevereiro 19, 2026

    Comments are closed.

    Economy News
    News

    O alto-falante inteligente OpenAI pode aumentar o arrepio com uma câmera

    By rafasgeekfevereiro 20, 20260

    Stephen Schenck / Autoridade AndroidDR;TL A OpenAI está dedicando mais de 200 funcionários aos seus…

    Samsung finalmente trará opções de dados multi-SIM para usuários dos EUA

    fevereiro 20, 2026

    Estação de energia Jackery Explorer 5000 Plus cai para preço recorde

    fevereiro 20, 2026
    Top Trending
    News

    O alto-falante inteligente OpenAI pode aumentar o arrepio com uma câmera

    By rafasgeekfevereiro 20, 20260

    Stephen Schenck / Autoridade AndroidDR;TL A OpenAI está dedicando mais de 200…

    eSIM

    Samsung finalmente trará opções de dados multi-SIM para usuários dos EUA

    By rafasgeekfevereiro 20, 20260

    Megan Ellis / Autoridade AndroidDR;TL Os telefones Samsung Galaxy oferecem opções granulares…

    Battery

    Estação de energia Jackery Explorer 5000 Plus cai para preço recorde

    By rafasgeekfevereiro 20, 20260

    Edgar Cervantes / Autoridade AndroidEsta oferta está disponível diretamente na Jackery. Faz…

    Subscribe to News

    Receba as últimas notícias esportivas do NewsSite sobre o mundo, esportes e política.

    Advertisement

    Todos os dias, uma nova tecnologia é lançada, e eu Rafas Geek, estou aqui para divulgar para o mundo, o que à de novo!

    Siga-nos nas redes sociais:

    Facebook X (Twitter) Instagram YouTube

    Subscribe to Updates

    Receba as últimas notícias criativas do FooBar sobre arte, design e negócios.

    Facebook X (Twitter) Instagram Pinterest
    • Home
    • Tecnologia
    • Entretenimento
    • News
    © 2026 Rafas Geek - Tudo sobre tecnologia 👨🏻‍💻 Rafas Geek.

    Type above and press Enter to search. Press Esc to cancel.