Da redação
Um estudo publicado pela revista Nature Medicine apontou que chatbots de Inteligência Artificial (IA), como o ChatGPT da OpenAI e o Llama da Meta, não são mais eficazes do que o Google ao fornecer orientações médicas corretas ao público. O experimento, considerado o primeiro estudo randomizado do tipo, envolveu mais de 1.200 britânicos sem formação médica, que receberam cenários clínicos e instruções para buscar orientações usando chatbots ou métodos de pesquisa convencionais.
Os participantes acertaram a conduta adequada em menos da metade dos casos e diagnosticaram corretamente as condições em cerca de 34% das vezes, índices semelhantes aos do grupo que utilizou principalmente o Google. “Nenhum dos modelos avaliados estava pronto para ser implantado no atendimento direto ao paciente”, concluíram os pesquisadores, liderados pelo professor Adam Mahdi, do Instituto de Internet de Oxford.
O estudo revelou ainda que os chatbots são sensíveis à forma como as perguntas são formuladas, e pequenas variações nas palavras resultaram em conselhos radicalmente diferentes, incluindo a recomendação de cuidados inadequados para quadros potencialmente graves. Em cerca de metade dos erros, as falhas ocorreram porque os participantes forneceram informações incompletas. Quando os sintomas eram inseridos de forma detalhada pelos pesquisadores, a taxa de acerto dos chatbots subia para 94%.
Apesar do entusiasmo inicial — já que as IA superaram médicos em exames e diagnósticos complexos —, especialistas como Robert Wachter, da Universidade da Califórnia, ressaltam que a interpretação correta dos sintomas depende de experiência clínica. Segundo Andrew Bean, principal autor do estudo, os bots deveriam ser capazes de fazer perguntas complementares para coletar informações relevantes, assim como fazem os médicos.
OpenAI afirmou que as versões atuais do ChatGPT estão melhores em responder dúvidas de saúde e mais aptas a realizar perguntas adicionais. No entanto, o estudo expôs que, além de agir com base em dados incompletos, os chatbots podem apresentar alucinações e fornecer orientações inconsistentes, levantando preocupações sobre seu uso em situações reais de saúde.






