A OpenAI destaca família a usar o ChatGPT para decisões sobre tratamento de cancro, mas estudos recentes mostram que as ferramentas de saúde de IA têm problemas significativos de precisão e segurança. (ReadA OpenAI destaca família a usar o ChatGPT para decisões sobre tratamento de cancro, mas estudos recentes mostram que as ferramentas de saúde de IA têm problemas significativos de precisão e segurança. (Read

OpenAI Promove ChatGPT para Decisões de Saúde em Meio a Preocupações com Precisão

2026/03/05 09:21
Leu 3 min
Para enviar feedbacks ou expressar preocupações a respeito deste conteúdo, contate-nos em crypto.news@mexc.com

OpenAI promove ChatGPT para decisões de saúde em meio a preocupações com a precisão

Terrill Dicki 05 de mar. de 2026 01:21

A OpenAI destaca família que usa o ChatGPT para decisões de tratamento de cancro, mas estudos recentes mostram que as ferramentas de saúde impulsionadas por IA têm problemas significativos de precisão e segurança.

OpenAI promove ChatGPT para decisões de saúde em meio a preocupações com a precisão

A OpenAI publicou esta semana um estudo de caso que apresenta uma família que usou o ChatGPT para se preparar para as decisões de tratamento de cancro do seu filho, posicionando o chatbot de IA como um complemento à orientação médica. O momento levanta questões dada a crescente evidência de que as ferramentas de saúde impulsionadas por IA apresentam problemas significativos de fiabilidade.

A peça promocional, divulgada a 4 de março, descreve como os pais utilizaram o ChatGPT juntamente com a equipa de oncologia do seu filho. A OpenAI apresenta isto como um uso responsável da IA—suplementando em vez de substituir a experiência médica.

Mas a narrativa otimista colide com conclusões de investigação desconfortáveis. Um estudo publicado na Nature Medicine que examinou o próprio produto "ChatGPT Health" da OpenAI encontrou problemas substanciais com precisão, protocolos de segurança e preconceito racial nas recomendações médicas. Isso não é uma ressalva menor para uma ferramenta que as pessoas podem usar ao tomar decisões de vida ou morte sobre o tratamento de cancro.

O problema da precisão

A investigação independente pinta um quadro misto na melhor das hipóteses. Um estudo da Mass General Brigham descobriu que o ChatGPT alcançou aproximadamente 72% de precisão em todas as especialidades médicas, subindo para 77% para diagnósticos finais. Parece decente até considerar o que está em jogo—embarcaria num avião com 23% de probabilidade de o piloto cometer um erro crítico?

A empresa de IA de saúde Atropos apresentou números ainda mais sombrios: os modelos de linguagem de grande escala de uso geral fornecem informações clinicamente relevantes apenas 2% a 10% do tempo para os médicos. A lacuna entre "às vezes útil" e "suficientemente fiável para decisões sobre cancro" permanece vasta.

A American Medical Association não poupou palavras. A organização recomenda contra o uso médico de ferramentas baseadas em LLM para assistência na decisão clínica, citando preocupações de precisão e ausência de diretrizes padronizadas. Quando a AMA diz aos médicos para se manterem afastados, os pacientes provavelmente devem tomar nota.

O que o ChatGPT não pode fazer

Os chatbots de IA não podem realizar exames físicos. Não conseguem ler a linguagem corporal de um paciente ou fazer as perguntas de acompanhamento intuitivas que os oncologistas experientes desenvolvem ao longo de décadas. Podem alucinar—gerando informações com aparência confiante que são completamente fabricadas.

As preocupações com a privacidade acrescentam outra camada. Cada sintoma, cada medo, cada detalhe sobre o cancro de uma criança digitado no ChatGPT torna-se em dados sobre os quais os utilizadores têm controlo limitado.

O estudo de caso da OpenAI enfatiza que a família trabalhou "juntamente com a orientação especializada de médicos." Esse qualificador importa. O perigo não são os pacientes informados a fazer melhores perguntas—são as pessoas vulneráveis em crise que potencialmente dependem excessivamente de uma ferramenta que erra com mais frequência do que o marketing sugere.

Para os investidores de cripto que observam as ambições empresariais da OpenAI, o impulso na área da saúde sinaliza uma expansão agressiva em setores de alto risco. Se os reguladores tolerarão as empresas de IA a promover ferramentas de tomada de decisão médica com problemas de precisão documentados permanece uma questão em aberto a caminho de 2026.

Fonte da imagem: Shutterstock
  • openai
  • chatgpt
  • ai healthcare
  • medical ai
  • health tech
Isenção de responsabilidade: Os artigos republicados neste site são provenientes de plataformas públicas e são fornecidos apenas para fins informativos. Eles não refletem necessariamente a opinião da MEXC. Todos os direitos permanecem com os autores originais. Se você acredita que algum conteúdo infringe direitos de terceiros, entre em contato pelo e-mail crypto.news@mexc.com para solicitar a remoção. A MEXC não oferece garantias quanto à precisão, integridade ou atualidade das informações e não se responsabiliza por quaisquer ações tomadas com base no conteúdo fornecido. O conteúdo não constitui aconselhamento financeiro, jurídico ou profissional, nem deve ser considerado uma recomendação ou endosso por parte da MEXC.