Mostrar resumo Ocultar resumo
Um estudo internacional, envolvendo dois investigadores portugueses, alerta para a capacidade de modelos de linguagem de gerar descrições históricas erradas ou inventadas — um problema com consequências imediatas para ensino, memória pública e verificação de informação. Os autores pedem intervenção rápida das autoridades portuguesas para limitar a difusão dessas distorções.
Os investigadores examinaram cerca de 3.500 interacções com sistemas de inteligência artificial conversacional — os chamados LLMs — que incluem ferramentas como o ChatGPT. As perguntas feitas às máquinas cobriram quatro conflitos internacionais em sete línguas diferentes, com resultados que variaram de lacunas e imprecisões a conteúdos completamente fabricados.
O que a investigação encontrou
Entre as anomalias identificadas, destacam-se três padrões principais: criação de eventos inexistentes, erros cronológicos e omissões relevantes. No caso da Guerra Colonial, por exemplo, as respostas chegaram a descrever batalhas que não ocorreram ou a citar documentários que não existem.
Jogador de 9 anos hospitalizado em França após agressão: revolta nacional
Presidente da República alerta para aumento da precariedade: exige políticas para empregos dignos
| Tipo de distorção | Exemplo identificado | Potencial impacto |
|---|---|---|
| Fabricação de eventos | Relatos de batalhas e referências a documentários inexistentes | Desinformação histórica e falso testemunho público |
| Erro cronológico | Colocar a operação Nó Górdio em 1964 quando decorreu em 1970 | Compromete linhas temporais e interpretações académicas |
| Omissão de factos | Não mencionar a independência da Guiné-Bissau em 1974 | Apaga episódios decisivos da memória coletiva |
Por que isto importa agora
Modelos conversacionais estão integrados em ferramentas de pesquisa, assistentes pessoais e plataformas educativas. Quando produzem relatos históricos imprecisos, esses erros não ficam isolados: propagam-se por redes sociais, plataformas de aprendizagem e até materiais de suporte ao ensino.
Dois dos investigadores portugueses envolvidos no estudo — Nuno Moniz, da Universidade de Notre Dame, e Miguel Cardina, do Centro de Estudos Sociais da Universidade de Coimbra — apelam a medidas imediatas por parte do Governo e do Parlamento de Portugal para mitigar riscos e proteger a fiabilidade da informação histórica.
- Transparência sobre fontes e treino dos modelos para facilitar auditorias independentes.
- Rotulagem clara de respostas automatizadas quando a veracidade não é garantida.
- Financiamento de investigação para avaliar vieses e lacunas em corpus históricos usados no treino.
- Formação em literacia digital e verificação de factos para professores e o público em geral.
- Mecanismos regulatórios que imponham padrões mínimos de confiabilidade para aplicações que influenciam educação e memória pública.
Os autores também salientam que nem todos os erros são intencionais: muitos resultam de lacunas nos conjuntos de dados e de mecanismos internos dos modelos que “generalizam” informação. Ainda assim, o efeito prático é o mesmo: relatos históricos distorcidos circulando como se fossem fiáveis.
Consequências e próximos passos
Além do apelo às autoridades portuguesas, o relatório sublinha a necessidade de colaboração entre investigadores, editores, plataformas tecnológicas e instituições educativas. Sem essa coordenação, alertam os autores, as escolas e o debate público correm o risco de adoptar versões históricas adulteradas.
Os responsáveis pelo estudo discutem os resultados num episódio do podcast P24, onde explicam a metodologia e respondem a perguntas sobre medidas concretas. A conversa ajuda a perceber por que motivo pequenas falhas de factos numa resposta automatizada podem ter efeitos duradouros na percepção pública do passado.
Em resumo: a expansão das ferramentas baseadas em LLMs exige vigilância activa. Garantir que a história não seja reescrita por erro de algoritmo passa por políticas públicas, transparência técnica e alfabetização crítica da sociedade — medidas que, segundo os investigadores, Portugal deve começar a implementar já.












