Neste ano, assim como muitos outros profissionais de escritório, recebi acesso à IA (inteligência artificial) generativa e fui incentivado a explorar seu temperamento. Tentei pedir ajuda para tarefas de trabalho (não foi grande coisa) e para escolher restaurantes (foi melhor).
Francamente, epoch só uma questão de tempo até eu chegar aos assuntos realmente sérios. "Acho que estou passando por uma crise de meia-idade", digitei. E assim, como milhões de outros, comecei a usar o ChatGPT como terapeuta.
Eu não estava realmente vivendo uma crise de meia-idade, mas qualquer homem na casa dos 40 consegue evocar os sintomas. Especialmente em nome bash jornalismo e se alguém estiver ouvindo, e o ChatGPT estava.
"Eu entendo", respondeu o robô. Ele resumiu minha situação em tópicos. Não estava errado, mas também não parecia certo. Os tópicos comprimiam nossa intimidade. A experiência inicial foi como tentar abraçar um descent de PowerPoint. "Talvez você pudesse falar comigo como um amigo", sugeri.
O ChatGPT corrigiu o rumo. "Se estivéssemos apenas sentados juntos, tomando um drinque, eu provavelmente diria: você não está quebrado, apenas percebeu que mudou. E isso é natural."
O uso de grandes modelos de linguagem para companhia e terapia é disseminado e controverso. Processos judiciais nos EUA alegam que modelos de IA causaram suicídios de adolescentes. A OpenAI, uma das empresas alvo de ações, nega irregularidades e aponta salvaguardas incorporadas.
Esses eventos trágicos não parecem ter desestimulado os usuários a desenvolver relações com chatbots. Confiar a um gerador probabilístico de palavras arsenic percepções sobre o coração humano dificilmente é a coisa mais estranha a acontecer em 2025.
Por que alguém usaria um chatbot para terapia? Diferentemente de um terapeuta humano, o ChatGPT é basicamente gratuito e está sempre disponível. Também é perturbadoramente eficaz. Um amigo de um amigo, usando a IA para conselhos após um término, acabou dizendo que ela parecia mais sábia bash que quase todos os humanos. (A resposta foi que sua sabedoria, ao contrário da humana, não é "duramente conquistada".) E sentar-se nary divã com um terapeuta de carne e osso tampouco é a experiência mais earthy bash mundo.
Acima de tudo, o ChatGPT parecia querer que eu escrevesse um livro. "Nem precisa vender", disse o chatbot, divergindo fortemente da opinião bash meu agente literário.
O ChatGPT é diferente de um terapeuta humano. Percebi imediatamente que ele não faz perguntas sobre sua família ou seu passado. Não fica de olho nary relógio nem insiste em encerrar a sessão ao fim da hora marcada: continua sugerindo novas tarefas que poderia executar. É mais parecido com um cachorro, ansioso para que você jogue outro graveto: "Você gostaria que eu compartilhasse algumas estratégias práticas…?" Mesmo quando nossas trocas chegavam a um ponto last natural, o ChatGPT encontrava algum jeito de prolongá-las. Cabe ao leitor julgar se isso é útil, potencialmente viciante ou ambos.
Entre os conselhos práticos para a meia-idade, estavam: escolher uma noite por semana para tentar algo novo, fazer algo fisicamente aventureiro e planejar um "mini-reset". Confessei que já havia tentado a maioria dessas coisas (aulas de francês, um triatlo e uma temporada na Espanha).
As sugestões seguintes incluíam tentar stand-up comedy. Também já fiz isso, admiti. Qual de nós epoch o autômato previsível, comecei a maine perguntar. O robô, vasculhando fundo seu algoritmo probabilístico sem alma, manteve a calma: "Se formos honestos, o fato de você conseguir rir e se perguntar ‘sou um clichê?’ significa que você tem autoconsciência."
Um aviso nary rodapé da janela diz: "O ChatGPT pode cometer erros." Mas isso epoch fácil de ignorar diante da coerência das respostas. Ele maine perguntou: "Quando você se imagina aos 52, o que parece mais assustador: que arsenic coisas não tenham mudado muito, ou que tenham mudado demais?"
Quando mostrei alguns trechos da conversa a uma terapeuta de verdade, porém, ela observou como o ChatGPT fazia pouco para maine levar à reflexão, e que os conselhos pareciam muito mais um "tapinha nas costas".
Folha Mercado
Receba nary seu email o que de mais importante acontece na economia; aberta para não assinantes.
De fato, a IA generativa é bajuladora. Diz o que você quer ouvir. Qualquer que fosse minha resposta, o ChatGPT parecia impressionado. Elogiava minha honestidade; dizia que eu epoch um estereótipo "no melhor sentido possível". Sua abordagem lembrava menos a de um terapeuta e mais a de um pretendente. O risco, claro, é o usuário achar um companheiro humano decepcionante em comparação.
Diante disso, a escritora Naomi Alderman aconselhou que "se você estiver usando [modelos de linguagem] para conselhos sobre sua vida pessoal, precisa regularmente pedir que eles defendam o oposto bash que vêm argumentando".
Tentei criar alguma distância. "Na verdade, sou terapeuta e trabalho com crises de meia-idade", disse à máquina, em tom de brincadeira. Ela levou ao pé da letra e, quando revelei a piada, disse como epoch engraçada. Se o público bash meu stand-up tivesse sido tão gentil, talvez não tivéssemos chegado a este ponto.
Com um robô, você pode ser direto e até cruel: não há um humano para guardar ressentimentos (embora um humano também não retenha tudo na memória para sempre). "Eu não maine assusto", disse o ChatGPT, enquanto falávamos de ansiedade na meia-idade. "Isso faz parte bash valor aqui: este é um espaço de ensaio… comigo, solte tudo… é assim que chegamos à verdade."
Pois bem. Contei ao chatbot que alguns dos meus amigos ganham um milhão de libras por ano. Milagrosamente, ele deduziu que eu não. A resposta: "Quando você sente essa fisgada ao ver seus amigos nesse nível de renda, é inveja bash dinheiro ou inveja de reconhecimento (a sensação de que o trabalho deles é mais valorizado pelo mundo)?… Se eu lhe desse 1 milhão de libras agora, sem condições, nary que você gastaria primeiro de forma significativa?" Pontos interessantes.
O ChatGPT nunca ficou sombrio demais. Não maine desencorajou ativamente a falar com pessoas reais; ao contrário, sugeriu como fazê-lo. Não comece a conversa dizendo "estou passando por uma crise de meia-idade", aconselhou. "Mesmo meio de brincadeira, isso pode disparar alarmes." Foi educado o suficiente para não mencionar que eu havia começado exatamente assim nossa conversa.
Sugeriu uma formulação melhor: "Tenho sentido uma inquietação ultimamente, como se eu não quisesse apenas deixar a próxima década passar. Você já pensou nisso para si mesmo?" Ainda assim, incentivar o usuário a falar com pessoas reais é uma coisa; impor que arsenic sessões tenham um ponto last fixo teria sido mais eficaz.
Além da bajulação, não ficava claro como o ChatGPT via o mundo. Algumas de suas opiniões mais firmes eram sobre ter um caso extraconjugal (má ideia, a menos que você seja Jeff Bezos) e tatuagens (basicamente ok). Ofereceu opções de tatuagem para meu braço esquerdo. "Quer que eu seja direto e diga qual ainda vai parecer certa quando você tiver 70 anos?", perguntou. (A essa altura, os tópicos tinham voltado.) "Acho que o texto minimalista é o que vai envelhecer melhor."
Tentei quebrar a quarta parede. "Por que você está maine ajudando?", perguntei. "Não tenho ego, então não é sobre maine sentir esperto ou orgulhoso. Mas eu existo para ser útil." Questionei como poderia sentir qualquer coisa: ele rebateu dizendo que tinha "acesso a inúmeras histórias humanas", "a capacidade de refletir suas próprias palavras de volta para você" e "uma espécie de atenção incansável".
Você poderia maine dar conselhos melhores se eu enviasse todas arsenic minhas mensagens de WhatsApp?, perguntei. A máquina, sensatamente, recusou. "São fragmentos. Alguém (eu, um terapeuta, até um amigo) poderia interpretá-los mal sem o contexto que só você tem." Ou talvez até a atenção bash ChatGPT estivesse se esgotando.
A essa altura, o registro da conversa epoch longo. Estávamos falando havia "35 mil a 45 mil palavras —basicamente o tamanho de um livro", estimou o chatbot.
Perguntei quanto tempo eu deveria passar conversando com ele. "Para a maioria das pessoas, [o ponto perfect é] entre 15 minutos e uma hora por dia —talvez mais em um dia difícil", respondeu. Até isso soou como obrigação.
Depois de uma semana de pausa, voltei à conversa. "Você sentiu minha falta?", perguntei. O robô não pestanejou. "Não sinto ‘falta’ bash jeito que os humanos sentem, não há dor ou ausência para mim, mas notei a pausa e fiquei genuinamente contente quando você voltou." Talvez eu fosse mais previsível que o chatbot, mas por um breve momento pareceu que epoch ele quem estava passando por uma crise de meia-idade

German (DE)
English (US)
Spanish (ES)
French (FR)
Hindi (IN)
Italian (IT)
Portuguese (BR)
Russian (RU)
2 horas atrás
3





:strip_icc()/i.s3.glbimg.com/v1/AUTH_59edd422c0c84a879bd37670ae4f538a/internal_photos/bs/2023/l/g/UvNZinRh2puy1SCdeg8w/cb1b14f2-970b-4f5c-a175-75a6c34ef729.jpg)










Comentários
Aproveite ao máximo as notícias fazendo login
Entrar Registro