O ChatGPT passou por uma mudança significativa em suas diretrizes de uso. A partir de 29 de outubro, o chatbot da OpenAI não oferecerá mais conselhos personalizados nas áreas de saúde, direito e finanças.
A decisão, segundo a empresa, busca evitar riscos legais, desinformação e mau uso da ferramenta, que passa a ser oficialmente classificada como uma plataforma educacional e explicativa, e não mais como um sistema de consultoria.
Com a atualização, o ChatGPT passa a apenas explicar princípios gerais ou conceitos teóricos, recomendando sempre que o usuário procure profissionais especializados, como médicos, advogados ou consultores financeiros, para obter orientações específicas.
O que muda na prática
A IA não poderá mais sugerir medicamentos, indicar dosagens, montar petições jurídicas ou recomendar investimentos, mesmo que o usuário forneça detalhes sobre seu caso. A restrição inclui também orientações sobre diagnósticos, tratamento de doenças, estratégias tributárias ou decisões financeiras pessoais.
Motivos por trás da decisão
A OpenAI justificou a medida como uma forma de proteger a privacidade dos usuários e evitar que informações sensíveis, como dados bancários ou históricos médicos, sejam compartilhadas em conversas com o chatbot. Além disso, a empresa destaca que temas que envolvem julgamento humano e ética profissional, como direito, medicina e finanças, não devem ser automatizados, pois exigem responsabilidade e avaliação individualizada.
Com isso, a companhia busca reforçar a ideia de que o ChatGPT não substitui especialistas, mas pode ser um aliado no aprendizado e na compreensão de conceitos complexos.

