Em um desenvolvimento alarmante para a segurança nacional dos Estados Unidos, o Pentágono expressou profundas preocupações sobre as restrições de IA em contratos militares comerciais. Segundo uma autoridade de alto escalão, termos abrangentes presentes em acordos de inteligência artificial, firmados durante a administração de Joe Biden, representam uma ameaça substancial de paralisação de missões militares em tempo real. Essas limitações, conforme detalhado, poderiam impactar criticamente a capacidade das Forças Armadas de planejar e executar operações de combate essenciais.
A revelação foi feita nesta terça-feira, 3 de março, por Emil Michael, subsecretário de Defesa para Pesquisa e Engenharia. Ele compartilhou um momento de apreensão pessoal ao revisar os termos que governam os modelos de IA já integrados em alguns dos comandos mais sensíveis do aparato militar norte-americano. Michael, contudo, optou por não divulgar o nome do fornecedor específico de IA cujos contratos estavam sob sua análise, mantendo a identidade da empresa em sigilo.
Restrições de IA em contratos militares dos EUA ameaçam missões
As preocupações com as restrições de IA em contratos militares foram levantadas por Michael durante sua participação na American Dynamism Summit, um evento realizado em Washington. Este encontro reúne diversas empresas de tecnologia com interesse em projetos relacionados ao espaço e à segurança nacional, servindo como um palco crucial para discussões sobre inovação e defesa. A cúpula ocorreu apenas alguns dias após uma notável desavença sobre a maneira como o Pentágono poderia empregar as poderosas e amplamente difundidas ferramentas de IA desenvolvidas pela Anthropic. Tal desacordo escalou a ponto de o presidente Donald Trump emitir uma proibição para que a startup fizesse negócios com o governo norte-americano, classificando-a como um risco iminente à segurança nacional.
Emil Michael relatou sua surpresa ao deparar-se com as cláusulas contratuais. “Eu tive um momento de nossa, que surpresa”, disse ele na American Dynamism Summit. Ele descreveu que as restrições são tão extensas que impactam a própria essência do planejamento militar. “Há coisas você não pode planejar uma operação se isso puder levar a impactos cinéticos ou explosões”, exemplificou o subsecretário, evidenciando o perigo de ter ferramentas de IA que possam se recusar a operar sob certas condições pré-determinadas.
A análise de Michael revelou dezenas de restrições incorporadas aos acordos. Essas cláusulas abrangem comandos cruciais, responsáveis por operações aéreas estratégicas em regiões sensíveis como o Irã, a China e a América do Sul. A estrutura desses contratos é particularmente preocupante, pois, conforme Michael explicou, “se um operador violar os termos de serviço, o modelo de IA pode, teoricamente, simplesmente parar no meio de uma operação”. Tal cenário introduz um nível de incerteza e potencial paralisação que é inaceitável em um contexto de segurança militar.
Na época em que Michael conduziu sua análise, o Claude, desenvolvido pela Anthropic, era o único modelo de inteligência artificial acessível ao Departamento de Defesa dos EUA em seus sistemas confidenciais. A intensificação de suas preocupações ocorreu após um executivo sênior de uma empresa de IA não identificada levantar questionamentos sobre se seu software havia sido empregado no que Michael descreveu como uma das operações militares de maior sucesso na história recente. Há indícios de que o Claude, da Anthropic, teria desempenhado um papel fundamental no planejamento de uma operação do governo dos EUA que resultou na captura do ex-presidente venezuelano Nicolás Maduro em janeiro.
A postura do Pentágono é clara: não se permitirá que empresas privadas ditem as políticas de defesa de uma nação soberana. “O que não vamos fazer é permitir que qualquer empresa dite um novo conjunto de políticas além do que o Congresso aprovou”, afirmou Michael, sublinhando a primazia da legislação e da autoridade governamental sobre os termos comerciais. Essas revelações são cruciais para entender a fundo a disputa pública que emergiu entre a Anthropic e o Departamento de Defesa dos EUA.
Imagem: Dado Ruvic via infomoney.com.br
O secretário de Defesa, Pete Hegseth, chegou a declarar a Anthropic um risco para a cadeia de suprimentos da defesa, devido à sua recusa em ceder nas negociações sobre as restrições relativas a armas autônomas e vigilância em massa. A inflexibilidade da startup em relação a esses pontos críticos para a segurança nacional gerou um impasse significativo. Contudo, poucas horas após a declaração de Hegseth, uma empresa rival, a OpenAI, anunciou que havia fechado seu próprio acordo com o Pentágono.
Uma declaração subsequente do presidente-executivo da OpenAI, Sam Altman, sugeriu que o Departamento de Defesa havia concordado com restrições similares para os modelos de IA fornecidos pela OpenAI. Este desenvolvimento indica uma possível flexibilização por parte do Pentágono ou uma estratégia de negociação diferenciada com a OpenAI, comparada à sua postura com a Anthropic, destacando a complexidade e a delicadeza das parcerias entre o setor de tecnologia e as forças armadas em um cenário global cada vez mais dependente da inteligência artificial.
Confira também: Imoveis em Rio das Ostras
As discussões sobre as restrições contratuais de inteligência artificial em missões militares dos EUA continuam a evoluir, evidenciando o dilema entre a inovação tecnológica e a soberania nacional. Acompanhe as últimas notícias e análises sobre política e defesa em nosso portal para entender o impacto dessas decisões no futuro da segurança global.
Crédito da imagem: Reuters