WASHINGTON (AP) - Com centenas de milhões de pessoas a recorrerem a chatbots para obter conselhos, era apenas uma questão de tempo até as empresas tecnológicas começarem a disponibilizar programas pensados especificamente para responder a dúvidas de saúde.
Em janeiro, a OpenAI apresentou o ChatGPT Health, uma nova versão do seu chatbot que, segundo a empresa, consegue analisar registos clínicos dos utilizadores, aplicações de bem-estar e dados de dispositivos wearables para responder a perguntas sobre saúde e medicina.
De momento, o programa tem uma lista de espera. A Anthropic, uma empresa rival na área da IA, disponibiliza funcionalidades semelhantes a alguns utilizadores do seu chatbot Claude.
Ambas as empresas sublinham que estes programas, conhecidos como modelos de linguagem de grande dimensão, não substituem cuidados prestados por profissionais e não devem ser usados para diagnosticar doenças. Em vez disso, defendem que os chatbots podem resumir e explicar resultados de exames complexos, ajudar na preparação de uma consulta médica ou identificar tendências importantes escondidas em registos clínicos e métricas de aplicações.
A seguir, alguns pontos a ter em conta antes de falar com um chatbot sobre a sua saúde:
ChatGPT Health e outros chatbots podem dar informação mais personalizada do que uma pesquisa no Google
Alguns médicos e investigadores que trabalharam com o ChatGPT Health e programas semelhantes consideram-nos um avanço em relação ao que existe hoje.
As plataformas de IA não são infalíveis - por vezes “alucinam” ou dão maus conselhos -, mas a informação que produzem tende a ser mais personalizada e específica do que aquela que os doentes encontrariam numa simples pesquisa no Google.
“A alternativa muitas vezes é não haver nada, ou o doente desenrascar-se”, disse o Dr. Robert Wachter, especialista em tecnologia médica na Universidade da Califórnia, em São Francisco. “E por isso acho que, se usar estas ferramentas de forma responsável, pode obter informação útil.”
Uma das vantagens dos chatbots mais recentes é responderem às perguntas com base no contexto do historial clínico do utilizador, incluindo medicação prescrita, idade e notas do médico.
Mesmo que não permita que a IA aceda aos seus dados clínicos, Wachter e outros especialistas aconselham a fornecer o máximo de pormenores possível para melhorar a qualidade das respostas.
Se tiver sintomas preocupantes, evite a IA
Wachter e outros peritos insistem que há situações em que o melhor é ignorar o chatbot e procurar assistência médica imediata. Sintomas como falta de ar, dor no peito ou uma dor de cabeça intensa podem indicar uma emergência.
Mesmo quando o caso não parece urgente, doentes e médicos devem encarar estes programas de IA com “uma dose de cepticismo saudável”, afirmou o Dr. Lloyd Minor, da Universidade de Stanford.
“Se estamos a falar de uma decisão médica importante, ou mesmo de uma decisão mais pequena sobre a sua saúde, nunca deve confiar apenas no que está a obter de um modelo de linguagem de grande dimensão”, disse Minor, que é o director da escola de medicina de Stanford.
Pense na privacidade antes de carregar quaisquer dados de saúde
Muitas das vantagens prometidas pelos bots de IA dependem de o utilizador partilhar informação médica pessoal. Mas é essencial perceber que tudo o que é partilhado com uma empresa de IA não está protegido pela lei federal de privacidade que, normalmente, regula informação clínica sensível.
Conhecida como HIPAA, essa lei permite aplicar multas e até penas de prisão a médicos, hospitais, seguradoras ou outros serviços de saúde que divulguem registos médicos. No entanto, a lei não se aplica a empresas que criam chatbots.
“Quando alguém está a carregar o seu processo clínico para um modelo de linguagem de grande dimensão, isso é muito diferente de o entregar a um novo médico”, disse Minor. “Os consumidores precisam de entender que são padrões de privacidade completamente diferentes.”
Tanto a OpenAI como a Anthropic dizem que a informação de saúde dos utilizadores é mantida separada de outros tipos de dados e sujeita a protecções adicionais de privacidade. As empresas afirmam não usar dados de saúde para treinar os seus modelos. Os utilizadores têm de dar consentimento para partilhar a informação e podem desligar essa ligação a qualquer momento.
Testes indicam que os chatbots também falham
Apesar do entusiasmo em torno da IA, os testes independentes a esta tecnologia ainda estão numa fase inicial. Estudos preliminares sugerem que programas como o ChatGPT conseguem ter excelentes resultados em exames médicos de alto nível, mas frequentemente tropeçam quando têm de interagir com pessoas.
Um estudo recente da Universidade de Oxford, com 1,300 participantes, concluiu que as pessoas que usaram chatbots de IA para pesquisar condições de saúde hipotéticas não tomaram decisões melhores do que aquelas que recorreram a pesquisas online ou ao seu próprio julgamento.
Quando os chatbots de IA receberam cenários médicos em formato escrito, completo e bem estruturado, identificaram correctamente a condição subjacente em 95% das vezes.
“Esse não era o problema”, disse o autor principal, Adam Mahdi, do Oxford Internet Institute. “Onde tudo se desmoronou foi durante a interacção com os participantes reais.”
Mahdi e a sua equipa identificaram vários problemas de comunicação. Muitas vezes, as pessoas não forneciam aos chatbots a informação necessária para estes chegarem à identificação correcta do problema de saúde. Por outro lado, os sistemas de IA respondiam frequentemente com uma mistura de informação boa e má, e os utilizadores tinham dificuldade em distinguir uma da outra.
O estudo, realizado em 2024, não utilizou as versões mais recentes dos chatbots, incluindo novidades como o ChatGPT Health.
Uma segunda opinião de IA pode ser útil
A capacidade de os chatbots fazerem perguntas de seguimento e puxarem pelos detalhes-chave junto dos utilizadores é um ponto em que Wachter considera haver margem para evoluir.
“Acho que é aí que isto vai ficar mesmo bom: quando as ferramentas forem um pouco mais ‘médicas’ na forma como vão e vêm” com os doentes, disse Wachter.
Por agora, uma forma de ganhar mais confiança na informação recebida é consultar vários chatbots - de modo semelhante a pedir uma segunda opinião a outro médico.
“Às vezes coloco informação no ChatGPT e informação no Gemini”, disse Wachter, referindo-se à ferramenta de IA da Google. “E quando os dois concordam, sinto-me um pouco mais seguro de que essa é a resposta certa.”
Comentários
Ainda não há comentários. Seja o primeiro!
Deixar um comentário