Anthropic é designada como risco à cadeia de suprimentos pelo Pentágono
A empresa de inteligência artificial Anthropic se manifestou contra a decisão do Secretário de Defesa dos EUA, Pete Hegseth, que designou a companhia como um ‘risco à cadeia de suprimentos’. Essa medida ocorreu após meses de negociações que não avançaram, especialmente em relação ao uso de seu modelo de IA, Claude, para vigilância em massa e armas autônomas. Anthropic defende que seu modelo não deve ser utilizado para vigilância doméstica, argumentando que isso é incompatível com os valores democráticos e apresenta riscos à liberdade. Em resposta, o presidente Donald Trump ordenou que todas as agências federais descontinuem o uso da tecnologia da Anthropic em seis meses, enquanto Hegseth exigiu que todos os contratantes do Departamento de Defesa (DoD) interrompessem qualquer atividade comercial com a empresa imediatamente. O impasse gerou polarização na indústria de tecnologia, com funcionários de empresas como Google e OpenAI apoiando a Anthropic. Em contraste, o CEO da OpenAI, Sam Altman, anunciou um acordo com o DoD para o uso de seus modelos, enfatizando a segurança da IA e a responsabilidade humana em operações militares. A situação destaca a crescente tensão entre inovação tecnológica e considerações éticas na aplicação de IA em contextos militares.
