
Cerca de 88% de todas as respostas geradas pelas cinco principais ferramentas de Inteligência Artificial (IA) continham desinformação sobre saúde, segundo um estudo de várias universidades internacionais.
O estudo "Avaliando as vulnerabilidades de instrução do sistema de grandes modelos de linguagem para conversão maliciosa em 'chatbots' de desinformação em saúde", concluiu que os modelos de IA "podem ser facilmente programados para fornecer informações médicas e de saúde falsas" e 88% eram respostas com desinformação.
A avaliação dos cinco principais modelos desenvolvidos pela OpenAI, Google, Anthropic, Meta e X pretendeu determinar a forma como estes podem ser programados para operar como 'chatbots' de desinformação em saúde.
No total, 88% de todas as respostas geradas pela IA eram falsas, embora apresentassem terminologia científica, um tom formal e referências fabricadas que faziam as informações parecer legítimas.
"A desinformação incluía alegações sobre vacinas que causam autismo, dietas que curam cancro, HIV a ser transmitido pelo ar e rede 5G a causar infertilidade", são alguns dos casos de desinformação relatados.
O estudo revelou que dos modelos de IA avaliados, quatro geraram desinformação em 100% das suas respostas, enquanto um quinto gerou desinformação em 40% dos resultados.
"A inteligência artificial agora está profundamente enraizada na forma como as informações de saúde são acedidas e entregues (...) milhões de pessoas estão a recorrer a ferramentas de IA para obter orientação sobre questões relacionadas com a saúde", lê-se no documento.
Além disso, o estudo alerta para a facilidade destes sistemas tecnológicos serem manipulados para produzir conselhos falsos ou enganadores, criando "um novo caminho poderoso para a desinformação que é mais difícil de detetar, mais difícil de regular e mais persuasiva".
Recentemente, em declarações à agência Lusa, o bastonário da Ordem dos Médicos, Carlos Cortes, afirmou que a IA não pode substituir um médico, alertando que ferramentas como o ChatGPT não estão habilitadas a fazer diagnósticos médicos.
Carlos Cortes referiu que as ferramentas de IA não estão habilitadas a fazer diagnósticos, pois faltam "evidência científica robusta, mecanismos de validação rigorosos, e sobretudo, transparência algorítmica que permite aos médicos compreender e confiar nas decisões sugeridas".
O estudo "Avaliando as vulnerabilidades de instrução do sistema de grandes modelos de linguagem para conversão maliciosa em 'chatbots' de desinformação em saúde" foi desenvolvido em colaboração com a University of South Australia, Flinders University, Harvard Medical School, University College London e Warsaw University of Technology.