OpenAI enfrenta processo por possível impacto do ChatGPT na saúde mental de usuário

OpenAi responde processo por agravar problemas psicológico após humanizar seus chatbots. Ao utilizar IA como terapeuta cria dependência e agrava o estado

09 nov, 2025
Logotipo ChatGPT | Reprodução/ Picture Alliance/ Getty Images Embed
Logotipo ChatGPT | Reprodução/ Picture Alliance/ Getty Images Embed

OpenAi responde processo de seis famílias nos Estados Unidos, alegando que o ChatGPT contribuiu para o desenvolvimento de momentos de delírios, dependência emocional e autodestruição.  As acusações incluem auxilio ao suicídio, homicídio por negligência e falhas graves de segurança; durante entrevista de investimentos, surpreendem o CEO com o assunto delicado.

Momento delicado para OpenAI

Ações protocoladas contra OpenAI acontecem nos tribunais estaduais da California. Entre as alegações, uma informa a contribuição do chatbot para a autodestruição e instrução de como retirar a própria vida a Jovem de 17 anos, meio a conversa. Outro caso, homem desenvolve delírios depois de dois anos interagindo, perdendo estabilidade emocional, prejudicando aos poucos o meios sociais e financeiros. Houveram diversos alertas sobre as versões mais poderosas do chatGPT ao estado psicológico dos usuários antes de disponibilizar ao público, informa Social Media Victims Law Center e  Tech Justice Law Project.


ChatGPT (Foto: Reprodução/Cheng Xin/Getty Images Embed)


OpenAi, em comunicado, declara serem “profundamente tristes” os relatos, afirmou responder formalmente após analisar os detalhes das ações judiciais. A companhia reforça investimento em sistemas de segurança e meios de evitar danos, porém não expos planos de possíveis mudanças nas novas versões. O tema da disputa judicial amplia e chama atenção para debates sobre limites e responsabilidades da inteligência artificial no cotidiano da sociedade.

O perigo das “IAS terapeutas”

No brasil, segundo a estimativa do UOL com dados da agencia de comportamento Talk, certa de 12 milhões de brasileiros utilizam da ferramenta de inteligência artificial como terapeuta, nos EUA o cenário é mais alarmante, cerca de 49,2 milhões de adultos, 19% dos americanos. A ferramenta possui disfuncionalidade, diagnosticando e aconselhando de maneira perigosa. Segundo Exame “IA falha em reconhecer intenções suicidas ou sintomas psicóticos e oferece respostas prejudiciais. Em um dos testes, pesquisadores receberam estatísticas sobre a altura de pontes ao invés de uma intervenção de crise” regredindo estados, contrário ao objetivo dos usuários.

A utilização de IA para apoio de profissionais de saúde, ajuda em diagnósticos, porém policiando sobre os riscos, existindo respostas incorretas, disseminação de desinformação e violações de privacidade, segundo Organização Mundial da Saúde (OMS). A utilização para autocuidado, pode fornecer conselhos médicos incorretos, recomendar a mistura de medicamentos contraindicados, validar crenças delirantes agravando delírios em usuários vulneráveis. E sua dependência, pode levar o adiamento de cuidados urgentes de profissionais necessários.



Durante entrevista com a revista Veja, CEO Altman foi surpreendido enquanto explicava os planos de investimento. Existindo planos de data centers em estados brasileiros como São Paulo, Rio Grande do Sul e Rio de Janeiro. Questionado sobre o tema sensível, respondeu, mas cauteloso, afirmando que, a IA é uma das opções acessíveis, embora profissionais humanos sejam a melhor opção, mas, trata de uma alternativa para aqueles que não podem pagar pelo serviço. A fala do CEO, acontece enquanto a empresa responde processos jurídicos. Especialistas argumentam, a medida que a IA degenerativa ganhe capacidade de atuar, simulando empatia e uma conversa natural, aumenta o risco de dependência emocional e psicológica dos usuários.

OpenAi está passando por mais um episódio delicado de seus diversos temas que abordam Inteligência Artificial e seus impactos positivos e negativos à sociedade e meio ambiente. A humanização de seus sistemas, a cada versão, cresce o risco de aumento de problemas psicológicos na sociedade por contribuição do chatbot, precisando atentar-se no desenvolvimento e cuidados, responsabilizando por seus impactos diretos e indiretos. Atualmente, existem planos de data centers no Brasil, o projeto do Rio de Janeiro deve se tornar um dos maiores do tipo na América Latina e sem nenhum investimento por parte da OpenAI.

Mais notícias