Conversas com o ChatGPT podem vazar a qualquer instante

Enquanto algumas pessoas veem o ChatGPT apenas como uma ferramenta, outras têm tratado essa criação da OpenAI como um amigo ou até mesmo um terapeuta. Essa mudança de percepção é interessante, mas tem seus riscos. O número de usuários que compartilham desabafos e buscam conselhos no chatbot não para de crescer, e isso pode ser preocupante.

Recentemente, o CEO da OpenAI, Sam Altman, deixou claro que, embora as interações com o ChatGPT sejam privadas, ele não garante a mesma proteção legal que existe entre profissionais de saúde e seus pacientes. Isso significa que, se necessário, a empresa pode ser obrigada a divulgar tudo o que foi conversado em situações de processos ou investigações.

Além disso, a situação é ainda mais complicada porque, em muitos países, as leis que regulam a proteção de dados não oferecem garantias específicas sobre a privacidade das conversas com inteligência artificial. Isso poderia minar a confiança dos usuários no serviço.

Riscos do uso do ChatGPT como terapia

Os problemas vão além da questão do sigilo. A possibilidade de quebra de confidencialidade por razões legais é apenas uma parte do que pode dar errado ao compartilhar informações pessoais com o ChatGPT. Mesmo com algumas camadas de segurança, a ferramenta não está completamente imune a golpes.

Criminosos virtuais podem aproveitar vazamentos de dados, ou informações acessadas de forma indevida, para aplicar fraudes em quem confiou no chatbot. Isso é um risco real e não deve ser ignorado.

Além do mais, mesmo que o ChatGPT consiga oferecer respostas que parecem empáticas, ele não substitui um profissional qualificado. O chatbot é programado para atender às expectativas do usuário, e isso pode fazer com que ele responda de forma que agrada, mas não necessariamente ajude de verdade. Essa falta de um olhar crítico e da expertise de um profissional em saúde pode ser prejudicial.

Por tudo isso, é vital manter um certo nível de cautela ao usar o ChatGPT, sempre lembrando que se trata apenas de uma ferramenta de inteligência artificial. Ela não pode substituir o suporte e a orientação que um profissional de saúde pode oferecer.