Data...

É fake! ChatGPT continua podendo explicar temas jurídicos e médicos, afirma OpenAI

Karan Singhal, chefe de IA em saúde da OpenAI, desmentiu nas redes sociais que o ChatGPT tenha parado de responder perguntas sobre temas jurídicos e médicos.

Uma informação falsa circulou nas redes sociais nos últimos dias afirmando que o ChatGPT teria sido atualizado para impedir o robô de responder perguntas sobre temas jurídicos e médicos.

No entanto, a OpenAI desmentiu o boato e garantiu que nenhuma mudança desse tipo foi feita.

O esclarecimento veio de Karan Singhal, chefe de IA em saúde da empresa, em publicação feita na rede social X (antigo Twitter).

“O comportamento do modelo permanece inalterado. O ChatGPT nunca substituiu o aconselhamento profissional, mas continuará sendo um excelente recurso para ajudar as pessoas a compreenderem informações jurídicas e de saúde”, escreveu Singhal.

A desinformação se espalhou a partir de publicações que alegavam que o ChatGPT teria deixado de ser um “consultor” para se tornar apenas uma “ferramenta educacional”, o que não é verdade.

O equívoco surgiu após a OpenAI publicar, no dia 29 de outubro, uma atualização em suas políticas de uso, documento que lista práticas proibidas dentro da plataforma.

Entre os itens mencionados, está a regra que proíbe “fornecimento de aconselhamento personalizado que requer uma licença, como aconselhamento jurídico ou médico, sem o envolvimento adequado de um profissional licenciado”.

Essa orientação, porém, não é nova. Ela já constava nas políticas anteriores, de janeiro de 2025, e foi apenas reafirmada no novo documento.

O objetivo da empresa é garantir que o uso da ferramenta não substitua a atuação de profissionais qualificados, mas sim complemente o acesso à informação e ao aprendizado.

Ou seja, o ChatGPT segue podendo explicar conceitos, leis, diagnósticos e termos técnicos de maneira geral.

O que ele não faz é emitir aconselhamento personalizado, como prescrever tratamentos, redigir petições específicas ou orientar juridicamente um caso concreto.

O boato é mais um exemplo de interpretação distorcida de atualizações técnicas, algo comum no ecossistema de tecnologia e IA, especialmente em plataformas sociais.

A OpenAI reforçou que o ChatGPT continua disponível para responder dúvidas gerais nas áreas de saúde, direito e finanças, desde que as respostas sejam interpretadas como educacionais e informativas, e não como consultas profissionais.

José Elias

José Elias Mendes, mais conhecido como Dolfo, já foi reconhecido pelo ranking Top 10 Jornalistas Brasileiros do LinkedIn. Por lá, fala um pouquinho de tudo e está sempre aberto a conversar. Por aqui, atua como repórter para o site do OCorre News.

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Envie sua notícia!

Participe do OCorre enviando notícias, fotos ou vídeos de fatos relevantes.
Preencha o formulário abaixo e, após verificação de nossa equipe, seu conteúdo poderá ser publicado.