Mostrar resumo Ocultar resumo
Sam Altman, CEO da OpenAI, disse a funcionários que pretende ampliar o uso dos seus modelos de inteligência artificial para além do Pentágono, com a meta de disponibilizá‑los a países da NATO. A iniciativa reacende debates sobre segurança, ética e soberania tecnológica num momento em que os aliados reforçam os seus sistemas de defesa.
Segundo reportagem do The Wall Street Journal, a declaração de Altman ocorreu numa sessão interna após a divulgação do acordo recente entre a OpenAI e o Departamento de Defesa dos EUA. Esse contrato permite que o Pentágono utilize os modelos da empresa em sistemas classificados, sem exigir que a OpenAI tome decisões operacionais.
Do lado da empresa, funcionários e gestores permanecem cautelosos: o anúncio interno não veio acompanhado de detalhes públicos sobre como a expansão para outros membros da NATO seria operacionalizada, quais salvaguardas seriam exigidas ou que contratos bilaterais seriam firmados.
O que já foi acordado com o Pentágono
Altman afirmou publicamente que o entendimento com o Departamento de Defesa inclui compromissos vinculados à segurança e à limitação de usos sensíveis. Entre os pontos citados pelo executivo estão a proibição de vigilância em massa em solo nacional e a manutenção de responsabilidade humana em decisões que envolvam emprego da força.
A OpenAI também disse que fornecerá suporte técnico direto — incluindo a disponibilização de engenheiros — e que os modelos serão implantados apenas em redes fechadas na nuvem, segundo declarações do próprio Altman nas redes sociais.
Reações da concorrência e riscos políticos
A resposta da rival Anthropic foi imediata e crítica. A empresa, criadora do modelo Claude, acusa o Pentágono de estabelecer um “precedente perigoso” ao excluir fornecedores que exigem limites no uso militar de suas tecnologias.
Em comunicado, a Anthropic afirmou negociar há meses com o Departamento de Defesa para obter garantias contratuais que impeçam o uso das suas ferramentas em vigilância massiva ou em armas totalmente autónomas. Afirmou também que não retrocederá nessas exigências por razões éticas.
As tensões escalaram após declarações do secretário interino da Defesa, Pete Hegseth, que ameaçou rotular fornecedores como risco na cadeia de abastecimento — uma classificação normalmente reservada a empresas estrangeiras ou ligadas a países hostis. O anúncio foi interpretado pela Anthropic como intimidação e gerou críticas sobre a possibilidade de politizar contratos tecnológicos.
O assunto ganhou contorno político: o ex‑presidente Donald Trump declarou que vetaria a Anthropic em agências federais, intensificando a pressão sobre a start‑up e levantando dúvidas sobre o impacto econômico de eventuais proibições governamentais.
O que está em jogo para aliados e para o público
Se a OpenAI formalizar acordos com múltiplos membros da NATO, a adoção conjunta de modelos de IA em sistemas militares pode acelerar a integração tecnológica entre as forças aliadas — com ganhos operacionais, mas também riscos relacionados a dependência de fornecedores privados, uniformização de capacidades e questões de responsabilidade em conflitos.
- Segurança e soberania: países que adotarem modelos estrangeiros podem enfrentar riscos de dependência e dificuldade em auditar sistemas classificados.
- Ética e legislação: limites ao uso em vigilância e armamento autónomo continuam a ser pontos de atrito entre empresas e governos.
- Mercado e concorrência: exclusões ou designações de risco na cadeia de abastecimento podem fragmentar o setor e reduzir opções para governos.
- Transparência: ausência de detalhes públicos sobre contratos e salvaguardas aumenta a pressão por mecanismos de fiscalização independentes.
| Ator | Posição | Reivindicação principal |
|---|---|---|
| OpenAI | Acordo com o Pentágono; intenção de estender a aliados | Garantias técnicas, proibição de vigilância em massa, responsabilidade humana |
| Anthropic | Negocia com o Departamento de Defesa; recusa a certos usos | Exige limites contratuais contra uso em vigilância e armas autónomas |
| Departamento de Defesa (EUA) | Busca acesso a tecnologias avançadas de IA | Quer assegurar utilização plena para defesa; pressionou por inclusão de fornecedores |
Para observadores, o episódio sublinha um dilema crescente: como conciliar inovação rápida em IA com normas de segurança, ética e controle democrático. A maneira como a NATO e seus membros tratem contratos, vetos e requisitos de compliance nos próximos meses pode definir padrões globais para a tecnologia militar.
Ainda não há anúncio oficial sobre contratos além do acordo com o Pentágono. Resta aguardar detalhes formais da OpenAI sobre qualquer expansão às nações aliadas — e acompanhar as reações regulatórias e políticas que essa movimentação deverá provocar.












