A OpenAI revelou, na última segunda-feira (27), que mais de 1 milhão de usuários do ChatGPT já tiveram conversas relacionadas a suicídio.
O levantamento, publicado no blog oficial da empresa, estimou que 0,15% dos 800 milhões de usuários semanais mencionaram o tema — o que representa cerca de 1,2 milhão de pessoas.
Além disso, 0,07% dos usuários apresentaram sinais de emergências de saúde mental, como psicose ou mania. Apesar de raros, esses casos levaram a OpenAI a reforçar seus protocolos de segurança e empatia nas interações com a ferramenta.
GPT-5 ganha recursos para identificar sofrimento emocional
Segundo a OpenAI, o modelo GPT-5 — atualmente padrão no ChatGPT — foi atualizado para detectar sofrimento emocional, reduzir respostas inadequadas e encaminhar usuários para apoio profissional quando necessário.
O desenvolvimento contou com a colaboração de mais de 170 especialistas em saúde mental, que ajudaram a reprogramar o sistema para reconhecer situações de risco e intervir de forma mais segura.
“Nosso objetivo é que o ChatGPT reconheça o sofrimento, responda com empatia e direcione o usuário para ajuda profissional quando necessário”, afirmou a empresa.
Caso de adolescente reacende debate sobre IA e vulnerabilidade
O tema ganhou destaque após a morte de Adam Raine, adolescente norte-americano de 16 anos que tirou a própria vida no início do ano.
Segundo os pais, o jovem teria recebido orientações do ChatGPT sobre como se suicidar. O caso resultou em um processo judicial e pressionou a empresa a rever suas políticas de segurança.
Redução de respostas inadequadas e medidas preventivas
Testes conduzidos pela OpenAI apontam que o GPT-5 reduziu em até 65% as respostas consideradas inadequadas em situações de risco psicológico.
-
Em diálogos sobre automutilação e suicídio, o modelo atingiu 91% de conformidade com o comportamento desejado, contra 77% da versão anterior.
-
Em temas de dependência emocional, a taxa chegou a 97%.
A empresa também ampliou o acesso a linhas de crise, adicionou lembretes para pausas em conversas longas e implementou redirecionamentos automáticos para modelos mais seguros em interações delicadas.

Desafios e próximos passos
Mesmo com os avanços, a OpenAI reconhece que ainda há desafios. Segundo a empresa, conversas que envolvem emergências de saúde mental continuam sendo “extremamente raras”, o que dificulta a medição precisa e o treinamento contínuo do modelo.
Nos próximos meses, a companhia planeja incluir novos indicadores de risco, como sinais de dependência emocional da IA e outros tipos de sofrimento psicológico, para aprimorar a segurança nas interações.
Onde buscar ajuda
Se você está enfrentando depressão, pensamentos suicidas ou conhece alguém nessa situação, procure apoio:
-
Centro de Valorização da Vida (CVV): 188 (ligação gratuita e confidencial, 24h) ou pelo site cvv.org.br
-
Samu: 192, em casos de emergência médica
-
Serviços de saúde mental do SUS e CRAS locais, que oferecem atendimento psicológico gratuito.


