Uma nova investigação conduzida pela Universidade de Dartmouth e publicada na revista Proceedings of the National Academy of Sciences (PNAS) revelou que a Inteligência Artificial (IA), especificamente os Modelos de Linguagem de Grande Dimensão (LLMs), atingiu um nível de sofisticação que torna quase impossível distinguir respostas de bots das de humanos em inquéritos e sondagens de opinião online. O estudo, divulgado recentemente (na segunda-feira, segundo a fonte), destaca que esta capacidade da Inteligência Artificial representa uma “vulnerabilidade crítica” na infraestrutura de dados global e pode comprometer de forma sistemática os resultados de investigações não supervisionadas e, crucialmente, de eleições cruciais.

O Impacto da IA na Integridade dos Dados
A descoberta central do estudo de Dartmouth reside na capacidade dos LLMs de replicar fielmente o comportamento humano em respostas a inquéritos, contornando os métodos de deteção tradicionais.
Ameaça à Pesquisa Online Não Supervisionada
Os autores do estudo alertam que os sistemas de Inteligência Artificial demonstram uma capacidade preocupante de:
- Imitar Personas Humanas: Os bots conseguem adotar estilos de linguagem e nuances que simulam identidades e perfis demográficos humanos críveis, invalidando a premissa de que as respostas são genuínas.
- Evitar Deteção: Os métodos de deteção de bots atualmente utilizados em sondagens de opinião online são ineficazes contra os LLMs sofisticados, que não deixam rastos digitais óbvios de automação.
- Enviesar Resultados: Os bots podem ser programados para manipular intencionalmente e de forma sistemática os resultados de sondagens de opinião, distorcendo a perceção pública sobre qualquer tema, desde produtos comerciais até a política.
Sean Westwood, professor associado de Ciência Política em Dartmouth e autor do estudo, classificou a descoberta como uma “potencial ameaça existencial à investigação online não supervisionada”, sublinhando a gravidade da Inteligência Artificial neste campo.
Compromisso das Sondagens de Opinião
As sondagens de opinião são ferramentas essenciais para a democracia e para o comércio. Elas fornecem insights cruciais sobre as intenções de voto e o comportamento do consumidor. Se os resultados forem sistematicamente manipulados por Inteligência Artificial, a capacidade de governos, empresas e da sociedade civil de tomar decisões informadas baseadas em dados fidedignos fica seriamente comprometida.
Consequências Políticas e Contexto de Desinformação
A interferência da Inteligência Artificial adquire especial relevância no contexto político e eleitoral, onde a desinformação já é um problema acentuado.
Desinformação em Eleições Cruciais
A capacidade dos bots de Inteligência Artificial de se fazerem passar por eleitores legítimos representa uma nova camada de complexidade e risco para eleições cruciais em todo o mundo. Grupos de monitorização online já têm vindo a assinalar o uso de campanhas de desinformação alimentadas por IA em processos eleitorais internacionais, como foi recentemente observado em eleições europeias, incluindo na Moldávia.
Esta tática permite a atores mal-intencionados criar uma falsa sensação de apoio ou de oposição a determinados candidatos ou políticas, influenciando o debate público e a perceção de viabilidade eleitoral antes mesmo de o voto ser contabilizado.
Relevância para Angola e o Continente Africano
Embora o estudo tenha origem nos EUA, as conclusões são universais. Em Angola e noutros países africanos, onde o acesso à Internet e a realização de sondagens de opinião online são crescentes, o risco de manipulação por Inteligência Artificial é igualmente elevado. A integridade dos dados obtidos através de inquéritos digitais sobre temas como saúde pública, clima ou intenções de voto poderá ser questionada, exigindo um investimento urgente em novos métodos de validação de dados que ultrapassem a Inteligência Artificial.
Conclusão e Próximos Passos na Investigação
A investigação da Universidade de Dartmouth expôs uma vulnerabilidade crítica da infraestrutura de dados que sustenta a investigação online e as sondagens de opinião. A Inteligência Artificial já não é apenas uma ferramenta, mas uma ameaça à autenticidade da voz humana no ambiente digital.
Os próximos passos exigem uma resposta imediata da comunidade científica e das plataformas tecnológicas. Será necessário desenvolver urgentemente novos protocolos de segurança e métodos de deteção que sejam resistentes aos LLMs e que possam restaurar a confiança na integridade dos dados recolhidos online. A sobrevivência de muitas formas de investigação online e a credibilidade das sondagens de opinião dependem desta inovação.







