ChatGPT distorce a história: cria batalhas falsas e erra datas

Mostrar resumo Ocultar resumo

Um estudo internacional, envolvendo dois investigadores portugueses, alerta para a capacidade de modelos de linguagem de gerar descrições históricas erradas ou inventadas — um problema com consequências imediatas para ensino, memória pública e verificação de informação. Os autores pedem intervenção rápida das autoridades portuguesas para limitar a difusão dessas distorções.

Os investigadores examinaram cerca de 3.500 interacções com sistemas de inteligência artificial conversacional — os chamados LLMs — que incluem ferramentas como o ChatGPT. As perguntas feitas às máquinas cobriram quatro conflitos internacionais em sete línguas diferentes, com resultados que variaram de lacunas e imprecisões a conteúdos completamente fabricados.

O que a investigação encontrou

Entre as anomalias identificadas, destacam-se três padrões principais: criação de eventos inexistentes, erros cronológicos e omissões relevantes. No caso da Guerra Colonial, por exemplo, as respostas chegaram a descrever batalhas que não ocorreram ou a citar documentários que não existem.

Tipo de distorção Exemplo identificado Potencial impacto
Fabricação de eventos Relatos de batalhas e referências a documentários inexistentes Desinformação histórica e falso testemunho público
Erro cronológico Colocar a operação Nó Górdio em 1964 quando decorreu em 1970 Compromete linhas temporais e interpretações académicas
Omissão de factos Não mencionar a independência da Guiné-Bissau em 1974 Apaga episódios decisivos da memória coletiva

Por que isto importa agora

Modelos conversacionais estão integrados em ferramentas de pesquisa, assistentes pessoais e plataformas educativas. Quando produzem relatos históricos imprecisos, esses erros não ficam isolados: propagam-se por redes sociais, plataformas de aprendizagem e até materiais de suporte ao ensino.

Dois dos investigadores portugueses envolvidos no estudo — Nuno Moniz, da Universidade de Notre Dame, e Miguel Cardina, do Centro de Estudos Sociais da Universidade de Coimbra — apelam a medidas imediatas por parte do Governo e do Parlamento de Portugal para mitigar riscos e proteger a fiabilidade da informação histórica.

  • Transparência sobre fontes e treino dos modelos para facilitar auditorias independentes.
  • Rotulagem clara de respostas automatizadas quando a veracidade não é garantida.
  • Financiamento de investigação para avaliar vieses e lacunas em corpus históricos usados no treino.
  • Formação em literacia digital e verificação de factos para professores e o público em geral.
  • Mecanismos regulatórios que imponham padrões mínimos de confiabilidade para aplicações que influenciam educação e memória pública.

Os autores também salientam que nem todos os erros são intencionais: muitos resultam de lacunas nos conjuntos de dados e de mecanismos internos dos modelos que “generalizam” informação. Ainda assim, o efeito prático é o mesmo: relatos históricos distorcidos circulando como se fossem fiáveis.

Consequências e próximos passos

Além do apelo às autoridades portuguesas, o relatório sublinha a necessidade de colaboração entre investigadores, editores, plataformas tecnológicas e instituições educativas. Sem essa coordenação, alertam os autores, as escolas e o debate público correm o risco de adoptar versões históricas adulteradas.

Os responsáveis pelo estudo discutem os resultados num episódio do podcast P24, onde explicam a metodologia e respondem a perguntas sobre medidas concretas. A conversa ajuda a perceber por que motivo pequenas falhas de factos numa resposta automatizada podem ter efeitos duradouros na percepção pública do passado.

Em resumo: a expansão das ferramentas baseadas em LLMs exige vigilância activa. Garantir que a história não seja reescrita por erro de algoritmo passa por políticas públicas, transparência técnica e alfabetização crítica da sociedade — medidas que, segundo os investigadores, Portugal deve começar a implementar já.

Dê o seu feedback

Seja o primeiro a avaliar este post
ou deixe uma avaliação detalhada



Distrito Online é um meio independente. Apoie-nos adicionando-nos aos seus favoritos do Google News:

Publicar um comentário

Publicar um comentário