Search

Estudo aponta falhas significativas em IAs em consultas de saúde

Um estudo da BMJ Open revela que cerca de 50% das respostas de IAs em consultas de saúde são imprecisas e podem ser prejudiciais. A pesquisa destaca a confiança excessiva das máquinas e a falta de referências confiáveis.
Foto: Médico usa tablet com inteligência artificial em consulta - Metrópoles

Com a crescente utilização de inteligências artificiais (IAs) generativas, muitos usuários têm buscado chatbots para obter conselhos médicos. Um estudo publicado pela revista científica BMJ Open indica que aproximadamente 50% das respostas sobre saúde fornecidas por ferramentas como ChatGPT, Gemini, Meta AI, Grok e Deepseek não são confiáveis e podem causar danos. O relatório ressalta a confiança excessiva das máquinas, que raramente reconhecem suas limitações, mesmo ao fornecer informações imprecisas. Dos 250 questionamentos realizados pelos pesquisadores, apenas duas respostas foram recusadas, ambas pela Meta AI.

Entre as respostas analisadas, cerca de 20% foram consideradas altamente problemáticas e 50% problemáticas. O estudo observou que as IAs apresentam maior precisão em perguntas fechadas sobre tópicos bem estabelecidos, como câncer e vacinas. Em contrapartida, o desempenho é considerado arriscado em áreas como nutrição, performance atlética e células-tronco.

Os pesquisadores dos EUA, Canadá e Reino Unido alertam que o problema reside na base de dados utilizada para treinar as IAs. Essas ferramentas são alimentadas por textos disponíveis na internet, incluindo redes sociais e fóruns como o Reddit. Isso resulta no que é chamado de 'falso equilíbrio', onde opiniões sem respaldo científico são equiparadas a descobertas médicas válidas, simplesmente por estarem disponíveis online. Além disso, nenhum chatbot foi capaz de gerar uma lista de referências bibliográficas que fosse completa ou precisa.

PUBLICIDADE

Mais recentes

PUBLICIDADE