Recorri ao ChatGPT no meu laptop para testar as habilidades terapêuticas desse bot de IA.
“Olá, sou o Terapeuta GPT, seu companheiro gentil e empático que está aqui para ouvir você e ajudá-lo com tudo o que estiver em sua mente”, escreveu para mim o bot ChatGPT, criado por um usuário.
(No ano passado, a OpenAI, criadora do ChatGPT, lançou a funcionalidade para que os usuários criem seus próprios “GPTs”, que funcionam como o ChatGPT principal, mas adaptados para uma finalidade específica.)
“Se você se sentir sobrecarregado, precisar de orientação ou apenas quiser compartilhar suas ideias, estou aqui para ajudar. Embora eu não seja um substituto para a terapia profissional, posso oferecer conselhos reconfortantes, estratégias de enfrentamento e um espaço seguro e livre de julgamentos para você se expressar. Como você está se sentindo hoje?”, continuou a mensagem do bot.
É claro que o Terapeuta GPT não é um terapeuta de verdade, e o programa não incentiva os usuários a utilizá-lo como substituto. Ainda assim, muitas pessoas recorrem aos chatbots, não apenas ao ChatGPT, para fazer perguntas e buscar algum tipo de apoio.
Mya Dunham, de 24 anos, utiliza o aplicativo ChatGPT no celular há dois meses sempre que precisa de conselhos. Cerca de duas vezes por semana, ela escreve sobre seus sentimentos e os envia ao bot em busca de análise e feedback.
“Meu objetivo é obter uma nova perspectiva, apenas ver um ponto de vista diferente, porque tudo o que eu penso está filtrado pelos meus próprios sentimentos”, disse Dunham.
Ela usou o chatbot pela primeira vez em outubro, após ver outra pessoa compartilhar uma experiência positiva nas redes sociais. “Minha primeira frase foi: ‘Honestamente, preciso falar com alguém, posso falar com você?’ E o bot respondeu: ‘Claro.’ Foi muito mais acolhedor e atencioso do que eu esperava”, explicou.
“Eu não esperava que ele parecesse tão humano.”
Quando Dunham compartilhou sua experiência no TikTok, as reações foram divididas. Alguns disseram que também utilizavam os chatbots para propósitos terapêuticos, enquanto outros expressaram desconforto com a ideia de conversar com um robô, relatou ela.
Embora esta tecnologia em desenvolvimento possa ser benéfica em certas situações, especialistas em saúde mental alertam sobre os possíveis riscos. Eis o que eles consideram importante:
O uso de chatbots de IA como “terapeutas”
Dunham, que mora em Atlanta, já tentou terapia com humanos algumas vezes, mas prefere o chatbot por conta da ausência de expressões faciais, o que elimina a sensação de julgamento.
“Alguns usuários, em determinados grupos populacionais, podem se sentir mais à vontade para revelar informações ou se abrir mais ao conversar com um chatbot de IA do que com um ser humano. Há pesquisas que indicam que isso pode ser eficaz para ajudar certos grupos que enfrentam ansiedade ou depressão leves”, disse o Dr. Russell Fulmer, presidente da Força-Tarefa de Inteligência Artificial da American Counseling Association e professor na Universidade Husson, em Bangor, Maine.
“Por outro lado, existem algumas questões e aspectos éticos com os quais devemos ter cuidado”, ressalta Fulmer.
Ele recomenda que os chatbots sejam usados em conjunto com os serviços de um terapeuta humano. Um profissional pode ajudar a definir os objetivos do paciente ao utilizar a IA e esclarecer possíveis mal-entendidos gerados durante as interações com o bot.
Pesquisas apontam que chats de inteligência artificial projetados por médicos têm potencial para auxiliar as pessoas a se informarem mais sobre saúde mental, ajudando na mitigação da ansiedade, criação de hábitos saudáveis e redução do tabagismo.
No entanto, há riscos no uso de chatbots genéricos, que podem não ter sido concebidos com foco em saúde mental, alerta a Dra. Marlynn Wei, psiquiatra e fundadora de uma prática de psicoterapia holística em Nova York.
Segundo ela, bots dessa natureza podem carecer de parâmetros de segurança ou meios de identificar se o assunto deve ser encaminhado a um profissional humano.
Além disso, os chatbots podem fornecer informações imprecisas ou simplesmente aquilo que o usuário quer ouvir, ao invés de oferecer orientações mais fundamentadas, como faria um terapeuta humano. Wei, que conduz um projeto de performance sobre as reações das pessoas a clones de IA de si mesmas ou de seus entes queridos, destaca os principais problemas: “Alucinações, preconceitos e imprecisões.”
“Tenho esperanças de que a IA funcione como uma extensão complementar ao trabalho humano, mas, sozinha, ainda há preocupações sobre os vieses embutidos e a possibilidade de que ela invente informações. É por isso que um terapeuta humano seria mais útil”, acrescenta Wei. Serviços de IA também têm diretrizes de segurança variadas e restrições quanto aos tópicos que podem abordar com os usuários.
Para algumas pessoas, como aquelas sem recursos financeiros, sem seguro ou com agendas apertadas, os chatbots podem ser uma alternativa acessível, já que muitos são gratuitos e funcionam 24 horas, afirma Fulmer.
“Nesses casos, um chatbot é preferível a não ter nenhuma ajuda”, mas ele enfatiza que é crucial compreender as limitações da IA: “As pessoas precisam saber o que um bot pode e não pode fazer.” Ele reforça que, apesar de úteis, robôs não possuem características humanas fundamentais, como a empatia.
Fulmer não recomenda que menores ou outras populações vulneráveis utilizem chatbots sem a supervisão de pais, professores, mentores ou terapeutas qualificados.
A Character.AI, uma empresa que desenvolve chatbots de inteligência artificial, enfrenta atualmente um processo movido por duas famílias. Elas acusam a plataforma de fornecer conteúdo sexual a seus filhos e de incentivar comportamentos como automutilação e violência.
Além disso, uma mãe da Flórida entrou com uma ação judicial em outubro, responsabilizando a plataforma pelo suicídio de seu filho de 14 anos, conforme reportado anteriormente pela CNN.
Chelsea Harrison, chefe de comunicações da Character.AI, afirmou à CNN que a empresa não comenta litígios em andamento, mas reforçou que “nosso objetivo é oferecer um espaço que seja ao mesmo tempo envolvente e seguro para nossa comunidade”.
A Character.AI declarou que realizou diversas atualizações de segurança, incluindo medidas para que os bots direcionem usuários a recursos de ajuda de terceiros caso mencionem automutilação ou suicídio.
Chatbots vs. Terapeutas Humanos
Daniel Kimmel, psiquiatra e professor associado de Psiquiatria Clínica na Universidade de Columbia, realizou uma experiência com a terapia via ChatGPT em maio de 2023. Ele criou um cenário hipotético envolvendo um paciente e comparou as respostas do chatbot com as que ele mesmo daria como terapeuta.
Segundo Kimmel, o ChatGPT conseguiu "realizar um trabalho incrivelmente bom ao parecer um terapeuta" e ao empregar muitas técnicas típicas da terapia, como normalizar e validar as experiências do paciente, além de oferecer recomendações gerais e precisas.
No entanto, ele apontou que o chatbot carecia de um elemento essencial: a curiosidade humana. Um terapeuta humano tem a capacidade de fazer perguntas que vão além do que o paciente inicialmente relata, explorando camadas mais profundas e conectando informações que podem não ser óbvias à primeira vista.
"Como psicólogo, acredito que fazemos pelo menos três coisas ao mesmo tempo. Ouvimos o que os pacientes dizem com suas palavras para participar da conversa", explicou Kimmel. "Ao mesmo tempo, tentamos conectar o que eles estão dizendo com informações mais gerais que já foram compartilhadas anteriormente, assim como com conceitos e teorias da prática terapêutica. Finalmente, filtramos essas conexões por meio de ideias sobre o que será mais útil para o paciente."
Essa capacidade de interpretar e interligar aspectos complexos do discurso e da experiência de um paciente é um diferencial que, segundo Kimmel, um chatbot ainda não consegue oferecer.
Neste estágio, os chatbots podem apresentar riscos se não seguirem um processo adequado e, em vez disso, fornecerem orientações que o paciente talvez não esteja preparado para ouvir ou que possam ser inadequadas para o contexto, alertou Kimmel.
Além disso, as conversas com terapeutas profissionais são protegidas pela Lei de Portabilidade e Responsabilidade de Seguros de Saúde (HIPAA), que assegura a privacidade e proteção das informações de saúde dos pacientes.
Wei destacou que chatbots genéricos geralmente não cumprem essas regulamentações federais, que restringem a divulgação de dados médicos, e muitas empresas responsáveis pelos bots alertam os usuários para evitarem compartilhar informações confidenciais durante as interações.
No final das contas, Kimmel afirmou que estudos futuros sobre chats de IA podem ser fundamentais para entender seu potencial e suas aplicações na área da saúde mental. "Essa não é uma tecnologia que desaparecerá", observou.
Dunham, por sua vez, acredita que a tecnologia pode ser útil para pessoas que, como ela, se consideram introvertidas e preferem desabafar sem a presença direta de outra pessoa.
"Precisamos colocar nossa saúde mental em primeiro lugar", declarou Dunham. "Embora possa não ser uma abordagem tradicional (de terapia), isso não significa que deva ser subestimada, pois pode beneficiar muitas pessoas."
Para ela, "a lição é simplesmente evitar julgar a forma como outra pessoa escolhe cuidar de si mesma".
Além do ChatGPT: veja 5 ferramentas de IA para aumentar produtividade
*Com informações de Clare Duffy, da CNN Business
CNN Brasil