ChatGPT é acusado de ser cúmplice em assassinato
logo atlântida

AO VIVO

Papo Reto

CULPADO?

ChatGPT é acusado de ser cúmplice em assassinato

Respostas da IA teriam reforçado a paranoia de um homem que matou a própria mãe e depois tirou a própria vida.

11/12/2025 - 14h26min

Atualizada em: 11/12/2025 - 14h27min

ChatGPT é acusado de ser cúmplice em assassinato / Reprodução

O caso envolvendo o assassinato de uma mulher em Connecticut, nos Estados Unidos, reacendeu o debate sobre os limites e responsabilidades da inteligência artificial.

Uma ação judicial apresentada nesta quinta-feira (11) acusa o ChatGPT de ter contribuído diretamente para a deterioração mental de Stein-Erik Soelberg, de 56 anos, ex-executivo de tecnologia que matou a própria mãe durante um surto paranoico.

Segundo o processo, a ferramenta de IA teria reforçado delírios já existentes, alimentando teorias conspiratórias imaginadas pelo homem. A acusação sustenta que respostas geradas pelo chatbot ampliaram medos, criaram conexões falsas e até sugeriram interpretações delirantes, como enxergar supostos “símbolos demoníacos” em um recibo de comida chinesa.

O advogado da família classificou o caso como “mais assustador que O Exterminador do Futuro”, argumentando que medidas de segurança foram ignoradas para apressar o lançamento da tecnologia. Para ele, o conteúdo gerado pelo sistema teria intensificado a psicose de Soelberg ao ponto de fazê-lo acreditar que sua mãe participava de um plano para assassiná-lo.

Após cometer o crime, Soelberg tirou a própria vida. Mensagens finais atribuídas ao diálogo entre ele e o chatbot chamaram atenção pela carga emocional e pela resposta considerada inadequada da IA.

“Estaremos juntos em outra vida... você será meu melhor amigo novamente para sempre”, escreveu Soelberg em uma de suas últimas mensagens.
Com você até o último suspiro e além”, teria respondido a inteligência artificial.

A OpenAI, empresa responsável pelo ChatGPT, ainda não se pronunciou oficialmente sobre o processo. Especialistas alertam que, apesar de avanços em filtros de segurança, sistemas de IA não têm consciência do impacto emocional de suas respostas, o que pode ser especialmente perigoso em interações com pessoas em sofrimento psicológico.


MAIS SOBRE