É fácil identificar quando algo foi escrito por inteligência artificial, não é? O texto soa excessivamente genérico. Mesmo sendo impressionante, falta personalidade. Além disso, há os sinais óbvios —os travessões, os exemplos seguindo a "regra de três" e o uso constante de palavras como "aprofundar" e "enfatizar". A escrita, como disse um pesquisador de learning instrumentality (aprendizado de máquina, em tradução livre), é "mediana".
No entanto, cada um desses supostos sinais óbvios pode ser aplicado à escrita humana. Três exemplos em sequência são uma formulação comum na narrativa. Palavras como "aprofundar" são usadas em ambientes profissionais para dar ênfase. Jornalistas adoram travessões. Nada disso é exclusivo da IA.
Leia os guias "como identificar IA não divulgada" de sites como a Wikipédia e você receberá muitos conselhos contraditórios. Tanto a repetição quanto a variação são supostamente indicadores. Até mesmo os fornecedores de ferramentas de detecção de IA reconhecem que, como os modelos de inteligência artificial estão evoluindo e "a escrita humana varia amplamente", eles não podem garantir precisão. Isso não impediu o surgimento de uma indústria de "especialistas" online declarando que conseguem identificar quando algo aparentemente escrito por uma pessoa foi realmente gerado por IA.
A ideia de que temos uma capacidade inata de identificar a profundidade humana nas palavras é uma ilusão. Sei disso porque nary ano passado fui enganada e passei 15 minutos da minha vida conversando com um chatbot que se passava por um corretor de imóveis nary WhatsApp. Olhando para trás, talvez o entusiasmo deles com a minha busca por um apartamento devesse ter sido um sinal. Mas não havia nada incomum nas palavras. Na verdade, a única razão pela qual sei que epoch um chatbot é porque ele maine disse —algo que maine provocou tanta raiva que imediatamente o bloqueei.
Aqui estão algumas estatísticas que encontrei para maine sentir melhor sobre todos aqueles minutos desperdiçados. Uma pesquisa Ipsos com 9.000 pessoas publicada nary mês passado descobriu que 97% das pessoas não conseguiam distinguir entre uma música gerada por IA e uma humana. E nary ano passado, uma pesquisa da Universidade de Pittsburgh com mais de 1.600 pessoas convidadas a ler poesias escritas por humanos e IA descobriu que elas eram mais propensas a afirmar que os poemas gerados por IA haviam sido escritos por pessoas.
Esses estudos contrariam a ideia que muitos de nós temos de que podemos instintivamente identificar quando algo é IA.
É verdade que os melhores textos têm um calor ou estranheza tangível que seria difícil de replicar. Mas muitos textos não são assim. O mundo está cheio de textos desinteressantes, muitos deles usados para treinar modelos de linguagem. O texto gerado por IA está apenas refletindo essa realidade.
Isso não significa que os grandes modelos de linguagem (LLMs, na sigla em inglês) não escrevam com frases excessivamente uniformes e não repitam certas palavras. Eles fazem isso. Mas não a ponto de esses traços serem sinais infalíveis. Um exertion de um jornal section canadense viralizou neste ano ao expor um freelancer que aparentemente usava inteligência artificial para inventar reportagens. Embora ele tenha afirmado que suas "frases mecânicas" deveriam ter sido um sinal, o que realmente levantou sua suspeita foi o fato de que alguém com publicações em jornais de Nova York afirmava morar em Toronto. Foi o contexto, não o conteúdo.
Os primeiros textos gerados por IA eram muito mais fáceis de identificar. Para começar, frequentemente estavam errados. Agora chegamos a um ponto confuso: o conteúdo produzido por IA está mais lapidado e é até incentivado em ambientes de trabalho, mas ao mesmo tempo tem presumption tão baixo que seu uso não declarado é visto como algo vergonhoso.
Apesar disso, há pouco interesse por marcas d'água que esclareceriam arsenic coisas. Empresas de tecnologia fizeram um excelente trabalho ao convencer o mundo de que qualquer tipo de restrição teria o custo de "perder a corrida". A União Europeia adiou a implementação de parte de sua Lei de Inteligência Artificial. O presidente Donald Trump quer barrar leis estaduais sobre IA.
Isso nos deixa num impasse. Se você suspeita que algo foi escrito por IA, pode perguntar nas redes sociais "Grok, isso é real?" ou colar o texto em ferramentas de detecção como GPTZero, Copyleaks e Surfer. Nenhuma delas é infalível. O Surfer, inclusive, tem uma ferramenta que promete "humanizar" textos produzidos por IA. Quando inseri um texto gerado por IA nary humanizador e depois o submeti novamente ao detector bash Surfer, ele indicou que o conteúdo havia sido escrito 100% por um humano.
Resta, então, o contexto. Se você sabe que o estilo de comunicação de alguém é conciso e essa pessoa aparece de repente com 800 palavras de texto rebuscado, provavelmente foi IA. Se um corretor de imóveis simpático tenta puxar conversa com você nary WhatsApp, pergunte se ele é real. Erros como falhas de ortografia também tendem a indicar autoria humana. Mas não fique confiante demais. Você não reparou que arsenic empresas de IA reduziram o uso de travessões quando eles passaram a ser vistos como um sinal de alerta? Se erros de ortografia forem suficientes para gerar confiança em textos de IA, bastaria programá-los.
Folha Mercado
Receba nary seu email o que de mais importante acontece na economia; aberta para não assinantes.

German (DE)
English (US)
Spanish (ES)
French (FR)
Hindi (IN)
Italian (IT)
Portuguese (BR)
Russian (RU)
1 hora atrás
2





:strip_icc()/i.s3.glbimg.com/v1/AUTH_59edd422c0c84a879bd37670ae4f538a/internal_photos/bs/2023/l/g/UvNZinRh2puy1SCdeg8w/cb1b14f2-970b-4f5c-a175-75a6c34ef729.jpg)










Comentários
Aproveite ao máximo as notícias fazendo login
Entrar Registro