A decisão do CEO da Anthropic, Dario Amodei, de recusar a renegociação de contratos com o Pentágono que permitiriam uso militar sem supervisão voltou a colocar em destaque limites éticos e estratégicos da inteligência artificial — assunto que estará no centro do 35.º congresso da APDC, marcado para 6 e 7 de maio em Lisboa. Em entrevista à Lusa, o presidente do evento defende que a postura de Amodei é justificável e lembra que a incorporação da IA na Defesa já não é uma escolha remota, mas uma necessidade prática.
António Gameiro Marques, ex-diretor‑geral do Gabinete Nacional de Segurança e atual presidente do congresso da APDC, disse acreditar que a recusa em permitir usos militares autónomos do modelo Claude foi uma decisão ética coerente com a responsabilidade empresarial.
Segundo Gameiro Marques, a exigência de mecanismos de controle — a chamada supervisão — é, na prática, uma forma de regulação. Esse ponto será discutido durante o fórum LISPOLIS, cujo tema é a tensão entre soberania, segurança e inovação digital na Europa.
IA puxa retorno às ciências sociais: alerta fundador da Netflix
25 de Abril no Barreiro: Ivandro em concerto, desfiles e oficinas animam a cidade
O dirigente observa também que, apesar da tempestade política criada em torno da Anthropic nos EUA, o agente de IA da empresa continua operacional e deve influenciar o financiamento e o rumo da companhia.
Gameiro Marques rejeitou como exagerada a classificação da Anthropic como fornecedora de «alto risco», equiparada a empresas como a Huawei. Para ele, essa etiqueta reflete mais uma postura confrontacional da atual administração norte‑americana do que uma avaliação técnica equilibrada.
Há, acrescenta, sinais claros de tensões internas nas grandes empresas de IA: profissionais que deixam cargos por discordâncias sobre aplicações militares ou de vigilância, revelando fraturas éticas que já influenciam decisões corporativas.
Quando perguntado sobre a entrada da IA na área das Forças Armadas, Gameiro Marques foi direto: a incorporação é inevitável. Para ele, a tecnologia pode ajudar a mitigar problemas crónicos, como a escassez de quadro humano, permitindo automatizar tarefas e compressão de tempo operativo — sem, contudo, substituir totalmente pessoas ou eliminar riscos.
- Decisão ética: Amodei optou por limitar usos autônomos e vigilância em massa — postura vista por especialistas como eticamente defensável.
- Impacto financeiro: A continuidade do uso de Claude pode influenciar investimentos e o posicionamento comercial da Anthropic.
- Regulação prática: Supervisão operacional aparece como alternativa viável à proibição pura e simples.
- Política e rótulos: A classificação como «alto risco» envolve também fatores geopolíticos, não só técnicos.
- Defesa e pessoal: A IA pode aliviar limitações de recursos humanos nas forças armadas, mas exige liderança na transformação.
- Agenda nacional: A ANIA contém medidas consideradas relevantes para o avanço de Portugal no domínio da IA.
Gameiro Marques salientou que a Anthropic já tinha experiência de colaboração com o Pentágono, o que pode representar vantagem competitiva em relação a outras empresas que não mantiveram esse vínculo. Ao mesmo tempo, alertou para a necessidade de as instituições de Defesa serem protagonistas na integração dessas tecnologias, e não meras receptoras de soluções externas.
Sobre a Agenda Nacional de Inteligência Artificial, o ex-chefe do GNS classificou várias propostas como úteis e oportunas para Portugal acelerar capacidades regulatórias e de inovação. Resta, na visão dele, que o setor público e as forças armadas transformem intenção em prática operacional.
O debate que se aproxima na APDC promete confrontar questões técnicas, éticas e estratégicas: como regular a supervisão de modelos, como compatibilizar soberania tecnológica com colaboração internacional, e que papel as empresas e governos devem assumir para evitar usos indevidos sem travar a inovação.












