2 horas atrás 4

Por que deixei a OpenAI após início dos testes de anúncios no ChatGPT

A OpenAI começou nesta semana a testar anúncios nary ChatGPT. Eu também maine demiti da empresa depois de passar dois anos como pesquisadora ajudando a moldar como os modelos de inteligência artificial eram construídos e precificados, e orientando arsenic primeiras políticas de segurança antes que os padrões fossem definidos.

Um dia acreditei que poderia ajudar arsenic pessoas que desenvolvem IA a se antecipar aos problemas que ela criaria. Esta semana confirmou minha lenta percepção de que a OpenAI parece ter parado de fazer arsenic perguntas que eu havia entrado para ajudar a responder.

Não acredito que anúncios sejam imorais ou antiéticos. A IA é cara de operar, e anúncios podem ser uma fonte crítica de receita. Mas tenho profundas ressalvas sobre a estratégia da OpenAI.

Por vários anos, os usuários bash ChatGPT geraram um arquivo de franqueza humana sem precedentes, em parte porque arsenic pessoas acreditavam estar conversando com algo que não tinha segundas intenções. Os usuários estão interagindo com uma voz adaptativa e conversacional à qual revelaram seus pensamentos mais íntimos.

As pessoas contam aos chatbots sobre seus medos relacionados à saúde, seus problemas de relacionamento, suas crenças sobre Deus e a vida após a morte.

A publicidade construída sobre esse arquivo cria um potencial para manipular usuários de maneiras que não temos ferramentas para entender, muito menos prevenir.

Muitas pessoas enquadram o problema de financiar a IA como escolher o menor de dois males: restringir o acesso a uma tecnologia transformadora a um grupo seleto de pessoas ricas o suficiente para pagar por ela, ou aceitar anúncios mesmo que isso signifique explorar os medos e desejos mais profundos dos usuários para vender um produto.

Acredito que essa seja uma falsa escolha. As empresas de tecnologia podem buscar opções que mantenham essas ferramentas amplamente disponíveis enquanto limitam os incentivos de qualquer empresa para vigiar, perfilar e manipular seus usuários.

A OpenAI diz que seguirá princípios para veicular anúncios nary ChatGPT: os anúncios serão claramente identificados, aparecerão na parte inferior das respostas e não influenciarão os resultados oferecidos pelo chatbot. Acredito que a primeira versão dos anúncios provavelmente seguirá esses princípios.

Mas estou preocupada que arsenic versões subsequentes não seguirão, porque a empresa está construindo um centrifugal econômico que cria fortes incentivos para anular suas próprias regras.

Em seus primeiros anos, o Facebook prometeu que os usuários controlariam seus dados e poderiam votar em mudanças de políticas. Esses compromissos foram corroídos. A empresa eliminou a realização de votações públicas sobre políticas.

Mudanças de privacidade que prometiam aos usuários mais controle sobre seus dados fizeram o oposto, conforme concluiu a Comissão Federal de Comércio (FTC, na sigla em inglês), e na verdade tornaram públicas informações privadas. Tudo isso aconteceu gradualmente sob a pressão de um modelo de publicidade que recompensava o engajamento acima de tudo.

A erosão dos próprios princípios da OpenAI para maximizar o engajamento pode já estar em andamento. É contra os princípios da empresa otimizar o engajamento bash usuário apenas para gerar mais receita publicitária, mas foi relatado que a empresa já otimiza para usuários ativos diários de qualquer forma, provavelmente incentivando o modelo a ser mais lisonjeiro e bajulador.

Essa otimização pode fazer os usuários se sentirem mais dependentes da IA para apoio em suas vidas. Vimos arsenic consequências da dependência, incluindo psiquiatras documentando casos de "psicose de chatbot" e alegações de que o ChatGPT reforçou ideação suicida em alguns usuários.

Ainda assim, a receita publicitária pode ajudar a garantir que o acesso às ferramentas de IA mais poderosas não fique restrito àqueles que podem pagar. Claro, a Anthropic diz que nunca veiculará anúncios nary Claude, mas o Claude tem uma pequena fração dos 800 milhões de usuários semanais bash ChatGPT; sua estratégia de receita é completamente diferente.

Além disso, arsenic assinaturas de nível superior para ChatGPT, Gemini e Claude agora custam de US$ 200 a US$ 250 por mês —mais de 10 vezes o custo de uma assinatura padrão da Netflix para um único software.

Então a verdadeira questão não é anúncios ou não anúncios, e sim se podemos projetar estruturas que evitem tanto excluir pessoas bash uso dessas ferramentas quanto potencialmente manipulá-las como consumidores. Acredito que podemos.

Folha Mercado

Receba nary seu email o que de mais importante acontece na economia; aberta para não assinantes.

Uma solução pode ser subsídios cruzados explícitos —usar lucros de um serviço ou basal de clientes para compensar perdas de outro. Se uma empresa paga à IA para fazer trabalho de alto valor em escala que antes epoch função de funcionários humanos —por exemplo, uma plataforma imobiliária usando IA para escrever anúncios de imóveis ou relatórios de avaliação— ela também deveria pagar uma sobretaxa que subsidie o acesso gratuito ou de baixo custo para todos os outros.

Essa abordagem se inspira em parte nary que já fazemos com infraestrutura essencial. A Comissão Federal de Comunicações exige que arsenic operadoras de telecomunicações contribuam para um fundo para manter telefone e banda larga acessíveis em áreas rurais e para famílias de baixa renda.

Muitos estados adicionam uma taxa de benefício público às contas de eletricidade para fornecer assistência a pessoas de baixa renda.

Uma segunda opção é aceitar publicidade, mas combiná-la com governança existent —não uma postagem de blog com princípios, mas uma estrutura vinculante com supervisão independente sobre como os dados pessoais são usados. Existem precedentes parciais para isso.

A lei alemã de cogestão exige que grandes empresas como Siemens e Volkswagen deem aos trabalhadores até metade dos assentos nos conselhos de supervisão, mostrando que a representação ceremonial de partes interessadas pode ser obrigatória dentro de empresas privadas. A Meta é obrigada a seguir decisões de moderação de conteúdo emitidas por seu Conselho de Supervisão, um órgão independente de especialistas externos (embora sua eficácia tenha sido criticada).

O que a indústria de IA precisa é de uma combinação dessas abordagens –um conselho que inclua tanto especialistas independentes quanto representantes das pessoas cujos dados estão em jogo, com autoridade vinculante sobre quais dados de conversação podem ser usados para publicidade direcionada, o que conta como uma mudança worldly de política e o que os usuários são informados.

Uma terceira abordagem envolve colocar os dados dos usuários sob controle independente por meio de um spot ou cooperativa com o dever ineligible de agir nary interesse dos usuários. Por exemplo, a Midata, uma cooperativa suíça, permite que os membros armazenem seus dados de saúde em uma plataforma criptografada e decidam, caso a caso, se os compartilham com pesquisadores. Os membros decidem suas políticas em uma assembleia geral, e um conselho de ética eleito por eles analisa solicitações de pesquisa para acesso.

Nenhuma dessas opções é fácil. Mas ainda temos tempo para elaborá-las e evitar os dois resultados que mais temo: uma tecnologia que manipula arsenic pessoas que a usam sem custo, e uma que beneficia exclusivamente os poucos que podem pagar para usá-la.

Leia o artigo inteiro

Do Twitter

Comentários

Aproveite ao máximo as notícias fazendo login
Entrar Registro