Modelo de IA descobre falhas críticas em bibliotecas open-source
A empresa de inteligência artificial Anthropic anunciou que seu novo modelo de linguagem, Claude Opus 4.6, identificou mais de 500 falhas de segurança de alta severidade em bibliotecas open-source, como Ghostscript, OpenSC e CGIF. Lançado em 6 de fevereiro de 2026, o modelo apresenta habilidades aprimoradas em revisão de código e depuração, além de melhorias em análises financeiras e criação de documentos. Segundo a Anthropic, o Claude Opus 4.6 é capaz de descobrir vulnerabilidades sem a necessidade de ferramentas específicas ou instruções detalhadas, analisando o código de forma semelhante a um pesquisador humano. Durante testes, a equipe de segurança da empresa validou cada falha encontrada, garantindo que não eram falsas. Entre as vulnerabilidades identificadas, destaca-se uma falha de buffer overflow no OpenSC e uma vulnerabilidade no CGIF que requer um entendimento do algoritmo LZW. A Anthropic enfatizou a importância de corrigir rapidamente as falhas conhecidas, especialmente em um cenário onde o uso de IA em fluxos de trabalho cibernéticos está se tornando mais comum. A empresa também se comprometeu a atualizar suas salvaguardas à medida que novas ameaças forem descobertas.
Fonte: https://thehackernews.com/2026/02/claude-opus-46-finds-500-high-severity.html
Este conteúdo foi processado automaticamente pelo BR Defense Center (By River de Morais e Silva).
