ChatGPT Health ignora emergências de saúde e pode levar a mortes desnecessárias

Siga o Olhar Digital no Google Discover
Uma avaliação independente do ChatGPT Health, versão da ferramenta da OpenAI voltada para saúde, apontou falhas graves na hora de identificar emergências e sinais de ideação suicida. Os autores alertaram que isso pode levar a uma falsa sensação de segurança e causar mortes desnecessárias.
O recurso foi lançado em janeiro para um grupo restrito de pessoas (o Olhar Digital deu os detalhes aqui). A ideia é permitir que os usuários façam consultas relacionadas à saúde, inclusive com o compartilhamento de registros médicos e informações sensíveis, em um ambiente protegido. Segundo a OpenAI, mais de 40 milhões de pessoas recorrem diariamente ao ChatGPT para conselhos médicos.
O trabalho, publicado nesta semana na revista Nature Medicine, resolveu investiga
Fontes
- —
Este artigo foi redigido com apoio de ferramentas de IA e revisado por nossa equipe. Citamos as fontes originais e seguimos as políticas do Google Notícias.
