2 horas atrás 2

Você usa IA? Descubra o que fazem com suas conversas sem você ver

Embora pareçam banais, os prompts enviados aos chatbots de inteligência artificial, como ChatGPT e Gemini Google, ajudam a alimentar os sistemas dessas ferramentas, que aprendem com os próprios usuários. Por isso, a popularização da IA no dia a dia das pessoas levanta debates sobre o que realmente acontece com as informações compartilhadas nessas conversas sobre vida pessoal ou profissional. Pensando nisso, o TechTudo preparou uma matéria sobre o que as inteligências artificiais aprendem com os comandos enviados pelos usuários. Confira.

Você usa IA? Descubra o que fazem com suas conversas sem você ver — Foto: Sandra Mastrogiacomo/TechTudo Você usa IA? Descubra o que fazem com suas conversas sem você ver — Foto: Sandra Mastrogiacomo/TechTudo

O que as IAs aprendem com os dados enviados pelos usuários?

Confira, abaixo, um índice com os tópicos que serão abordados nesta matéria:

  1. IA aprende com o que você escreve
  2. Seus dados viram “combustível” para a IA
  3. Riscos vão além do uso pessoal
  4. Big Techs já enfrentam processos
  5. Como usar IA com mais segurança?

1. IA aprende com o que você escreve

Segundo um estudo do National Bureau of Economic Research (NBER) chamado “How People Use ChatGPT” ("Como as pessoas usam o ChatGPT"), os usuários acessam a ferramenta de IA para questões que ultrapassam a vida profissional. Por exemplo, mais de 70% das interações com o chatbot em 2025 não eram relacionadas ao trabalho, mas sim à vida pessoal, com comandos sobre aprendizado e tomada de decisões. O levantamento ainda revela que aproximadamente metade das conversas com a IA envolve usuários buscando orientação ou ajuda para estruturar problemas, destacando o papel desses chatbots como uma espécie de “copiloto cognitivo”.

Esse tipo de interação constante também contribui para refinar as respostas oferecidas pelas ferramentas, já que os sistemas são projetados para reconhecer padrões de uso e linguagem, ajustando a forma como respondem aos comandos. Na prática, isso mostra que, ao mesmo tempo em que recorrem à IA para tomar decisões, os usuários também ajudam a moldar a forma como essas ferramentas respondem, reforçando seu papel como um sistema que se ajusta a partir das interações.

 Reprodução/Freepik Mais de 70% das interações com o ChatGPT em 2025 não eram relacionadas ao trabalho — Foto: Reprodução/Freepik

2. Seus dados viram “combustível” para a IA

O uso crescente das IAs na vida pessoal acende um alerta sobre o uso dos dados compartilhados nas conversas. Afinal, as empresas de tecnologia utilizam essas informações - que incluem textos, comandos, imagens, documentos, arquivos e outros dados - para treinar e aprimorar seus modelos. Na prática, os dados ajudam os algoritmos de aprendizado de máquina a identificar padrões, interpretar imagens, fazer análise preditiva, entender linguagens, personalizar experiências, otimizar processos e muito mais.

Segundo Kenneth Corrêa, professor da Fundação Getulio Vargas (FGV) e especialista em dados, os usuários das ferramentas de IA podem estar fornecendo “combustível” a todo momento sem perceber, principalmente nas contas gratuitas, em que as conversas podem ser usadas para evolução dos sistemas.

“Quando você se cadastra no ChatGPT, habilita o Gemini, ou mesmo se estiver usando o DeepSeek, lembre-se que na sua conta gratuita todos os conteúdos de conversa podem estar sendo utilizados para treinar novos modelos de inteligência artificial. Portanto, é preciso ter cuidado para não compartilhar dados confidenciais”, afirmou.
 Canva Informações compartilhadas com IA ajudam a alimentar os sistemas dessas ferramentas — Foto: Canva

3. Riscos vão além do uso pessoal

Vale destacar que o estudo do National Bureau of Economic Research (NBER) também aponta que, no ambiente de trabalho, cerca de 80% das interações com IA estão voltadas à análise de dados e tomada de decisão. A pesquisa mostra que o uso da ferramenta está concentrado em atividades como coleta, análise e interpretação de dados, além de processos que envolvem resolução de problemas, aconselhamento e pensamento criativo.

Esse resultado pode, portanto, gerar um compartilhamento expressivo de dados sensíveis de terceiros, como empresas parceiras e clientes. Neste sentido, Kenneth Corrêa relembra que o uso indevido de dados de terceiros pode violar a legislação que regula o tratamento de informações pessoais no Brasil. "É preciso lembrar da Lei Geral de Proteção de Dados (LGPD), portanto dados pessoais de outras pessoas, outros usuários, também não devem ser compartilhados", afirma.

 Reprodução/Freepik Informações compartilhadas com IAs podem colocar em risco dados de terceiros — Foto: Reprodução/Freepik

4. Big Techs já enfrentam processos

O uso indevido de dados e a violação de direitos autorais são temas que colocam gigantes da tecnologia, como Microsoft, Meta e Nvidia, no alvo de ações judiciais em diversos países do mundo, sobretudo em processos relacionados ao treinamento de modelos de IA sem consentimento explícito.

"As empresas de inteligência artificial foram treinadas sem uma autorização explícita dos websites e dos donos dos dados propriamente ditos. Inclusive, agora tem ações contra essas empresas, por conta de terem feito isso sem nenhum tipo de consentimento", aponta Kenneth.

Segundo o site ChatGPT is eating the world, os Estados Unidos lideram com 51 ações contra essas empresas até setembro de 2025. O monitoramento se refere ao ChatGPT e à OpenAI, mas outras empresas como Microsoft, Perplexity AI, Tesla, Nvidia, Meta e Anthropic também aparecem na lista. Vale lembrar que, nos EUA, escritores já chegaram a abrir processo contra empresas como Meta, OpenAI e Anthropic, alegando que obras protegidas por direitos autorais estariam sendo utilizadas sem permissão. Além disso, uma ação coletiva também nos EUA acusou a Microsoft e a OpenAI de usarem quase 200 mil livros piratas no treinamento de seus modelos.

 Reprodução/Bloomberg Gigantes da tecnologia enfrentam ações judiciais sobre uso indevido de dados e a violação de direitos autorais — Foto: Reprodução/Bloomberg

5. Como usar IA com mais segurança?

Mesmo com riscos, é possível usar assistentes de IA de forma mais segura ao adotar medidas simples no dia a dia. A principal delas é evitar o compartilhamento de dados sensíveis, como CPF, endereço, informações bancárias ou médicas. Também é importante não expor dados confidenciais de terceiros e, sempre que possível, anonimizar informações.

"Se você compartilhar sua biografia, currículo ou até fotos que já estão em redes sociais, essas informações provavelmente já foram utilizadas no passado para treinar esses modelos", explica Corrêa.

O professor da FGV ressalta que versões pagas das ferramentas costumam oferecer ambientes mais protegidos, mas isso não elimina a necessidade de cautela. “Não quer dizer que você vai aparecer na próxima conversa do ChatGPT, mas, ainda assim, ninguém quer ter dados confidenciais expostos”, afirma.

Outro ponto essencial é reforçar a segurança das contas, já que vazamentos muitas vezes acontecem por falhas básicas, como senhas fracas ou invasões a bancos de dados. A seguir, veja dicas para usar IA com mais segurança:

  • Evite compartilhar dados sensíveis (CPF, endereço, dados bancários ou médicos)
  • Não informe dados confidenciais de outras pessoas
  • Anonimize informações, substituindo nomes por iniciais ou letras
  • Dê preferência a conteúdos que já são públicos
  • Use senhas fortes e ative a autenticação em dois fatores
  • Compartilhe dados pessoais apenas com autorização explícita

Veja também: IA não é terapia! Veja porque você nunca deve desabafar com chatbots

IA não é terapia! Veja porque você nunca deve desabafar com chatbots

IA não é terapia! Veja porque você nunca deve desabafar com chatbots

Leia o artigo inteiro

Do Twitter

Comentários

Aproveite ao máximo as notícias fazendo login
Entrar Registro