Um estudo da Universidade de Oxford revela que os chatbots de inteligência artificial não são confiáveis para fornecer conselhos médicos. Segundo a investigação publicada na revista Nature Medicine, citada pela SIC Notícias, estes sistemas frequentemente produzem informações imprecisas e inconsistentes, mesmo em situações médicas comuns, o que coloca em risco quem procura orientação sobre sintomas ou condições de saúde.
IA como ferramenta de triagem ainda em testes
Nos últimos anos, várias instituições de saúde têm explorado os grandes modelos de linguagem, conhecidos pela sigla LLM em inglês, como possíveis ferramentas para realizar avaliações preliminares de saúde.
De acordo com a SIC Notícias, estas tecnologias ainda apresentam um grande fosso entre o que prometem e a sua utilidade prática.
A investigação, conduzida pelo Instituto de Internet de Oxford e pelo Departamento Nuffield de Ciências da Saúde dos Cuidados Primários, envolveu quase 1.300 participantes, testando a capacidade da IA para identificar corretamente condições médicas e decidir se a pessoa deveria recorrer ao médico ou ao hospital.
Teste prático revela limitações
Os cenários clínicos incluíam desde um jovem com dor de cabeça intensa após uma noite de festa até uma mãe recente exausta e com falta de ar. Parte dos participantes utilizou chatbots de IA, enquanto outro grupo recorreu a métodos tradicionais, como pesquisas online.
Segundo a mesma fonte, os resultados mostraram que os utilizadores de IA não tomaram melhores decisões do que aqueles que se basearam em métodos tradicionais ou no seu próprio julgamento.
A análise detalhada revelou falhas de comunicação em ambas as direções: muitos participantes forneciam informações incompletas ou pouco claras, e os modelos geravam respostas confusas, misturando bons e maus conselhos.
Preparar a IA para cuidados de saúde
O estudo conclui que, neste momento, os LLM não estão preparados para serem utilizados em cuidados diretos ao doente. Andrew Bean, investigador de doutoramento no Instituto de Internet de Oxford e autor principal, sublinha a necessidade de desenvolver testes robustos para avaliar estes modelos. “Demonstrámos que a interação com humanos representa um desafio mesmo para os melhores modelos. Este trabalho pode ajudar a criar sistemas de IA mais seguros e eficazes”, afirmou.
Segundo a SIC Notícias, tal como acontece com novos medicamentos, os sistemas de IA devem ser testados em cenários reais antes de serem implementados.
O alerta da Universidade de Oxford reforça a ideia de que, apesar do entusiasmo em torno destas tecnologias, a prudência continua a ser necessária. Quem procura aconselhamento médico ainda não pode confiar plenamente nos chatbots de IA como substitutos de profissionais de saúde.
















