Data...

ChatGPT: Mais de 1 milhão de usuários já mencionaram suicídio, aponta OpenAI

Empresa afirma ter aprimorado o modelo GPT-5 para reconhecer sinais de sofrimento emocional e direcionar usuários a ajuda profissional

A OpenAI revelou, na última segunda-feira (27), que mais de 1 milhão de usuários do ChatGPT já tiveram conversas relacionadas a suicídio.

O levantamento, publicado no blog oficial da empresa, estimou que 0,15% dos 800 milhões de usuários semanais mencionaram o tema — o que representa cerca de 1,2 milhão de pessoas.

Além disso, 0,07% dos usuários apresentaram sinais de emergências de saúde mental, como psicose ou mania. Apesar de raros, esses casos levaram a OpenAI a reforçar seus protocolos de segurança e empatia nas interações com a ferramenta.

GPT-5 ganha recursos para identificar sofrimento emocional

Segundo a OpenAI, o modelo GPT-5 — atualmente padrão no ChatGPT — foi atualizado para detectar sofrimento emocional, reduzir respostas inadequadas e encaminhar usuários para apoio profissional quando necessário.

O desenvolvimento contou com a colaboração de mais de 170 especialistas em saúde mental, que ajudaram a reprogramar o sistema para reconhecer situações de risco e intervir de forma mais segura.

“Nosso objetivo é que o ChatGPT reconheça o sofrimento, responda com empatia e direcione o usuário para ajuda profissional quando necessário”, afirmou a empresa.

Caso de adolescente reacende debate sobre IA e vulnerabilidade

O tema ganhou destaque após a morte de Adam Raine, adolescente norte-americano de 16 anos que tirou a própria vida no início do ano.

Segundo os pais, o jovem teria recebido orientações do ChatGPT sobre como se suicidar. O caso resultou em um processo judicial e pressionou a empresa a rever suas políticas de segurança.

Redução de respostas inadequadas e medidas preventivas

Testes conduzidos pela OpenAI apontam que o GPT-5 reduziu em até 65% as respostas consideradas inadequadas em situações de risco psicológico.

  • Em diálogos sobre automutilação e suicídio, o modelo atingiu 91% de conformidade com o comportamento desejado, contra 77% da versão anterior.

  • Em temas de dependência emocional, a taxa chegou a 97%.

A empresa também ampliou o acesso a linhas de crise, adicionou lembretes para pausas em conversas longas e implementou redirecionamentos automáticos para modelos mais seguros em interações delicadas.

Sam Altman - OpenAI
Foto: Reprodução

Desafios e próximos passos

Mesmo com os avanços, a OpenAI reconhece que ainda há desafios. Segundo a empresa, conversas que envolvem emergências de saúde mental continuam sendo “extremamente raras”, o que dificulta a medição precisa e o treinamento contínuo do modelo.

Nos próximos meses, a companhia planeja incluir novos indicadores de risco, como sinais de dependência emocional da IA e outros tipos de sofrimento psicológico, para aprimorar a segurança nas interações.

Onde buscar ajuda

Se você está enfrentando depressão, pensamentos suicidas ou conhece alguém nessa situação, procure apoio:

  • Centro de Valorização da Vida (CVV): 188 (ligação gratuita e confidencial, 24h) ou pelo site cvv.org.br

  • Samu: 192, em casos de emergência médica

  • Serviços de saúde mental do SUS e CRAS locais, que oferecem atendimento psicológico gratuito.

Maysa Vilela

Jornalista, curiosa por natureza e movida por conexões fortes, viagens e boas histórias. Acredita que ouvir é o primeiro passo para escrever com propósito. No Ocorre News, segue conectando pessoas através das palavras.

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Envie sua notícia!

Participe do OCorre enviando notícias, fotos ou vídeos de fatos relevantes.
Preencha o formulário abaixo e, após verificação de nossa equipe, seu conteúdo poderá ser publicado.