Celular com tela mostrando aplicativos

Crédito, Getty Images

  • Há 12 minutos

A maioria da Corte decidiu que as empresas podem ser responsabilizadas por conteúdos criminosos postados por terceiros. Ou seja, as companhias poderão ser punidas se não atuarem para apagar esses conteúdos com agilidade.

O STF estabeleceu diferentes graus de responsabilidade: certos conteúdos criminosos deverão ser apagados após notificação dos usuários.

No entanto, conteúdos considerados mais graves — como mensagens antidemocráticas, postagens de instigação a suicídio, pornografia infantil, entre outras — deverão ser removidos ativamente pelas empresas, independentemente de notificações.

Da mesma forma, as empresas também deverão agir ativamente para inibir e apagar postagens criminosas no caso de conteúdos distribuídos por anúncios, impulsionamentos ou artificialmente por robôs.

Por outro lado, a Corte estabeleceu que as novas regras não serão aplicadas sobre mensagens trocadas privadamente em provedores de serviços de mensagens instantâneas, como o WhatsApp.

Antes dessa decisão, o Marco Civil da Internet previa que as plataformas só eram obrigadas a deletar conteúdos após decisões judiciais. A única exceção ocorria nos casos de "pornografia de vingança" (divulgação de imagens de nudez sem autorização da pessoa fotografada/filmada).

Oito ministros votaram pelo endurecimento das regras: Dias Toffoli, Luiz Fux, Luís Roberto Barroso, Flavio Dino, Cristiano Zanin, Gilmar Mendes, Alexandre de Moraes e Cármen Lúcia.

Eles entendem que a previsão atual do Marco Civil da Internet "não confere proteção suficiente a bens jurídicos constitucionais de alta relevância (proteção de direitos fundamentais e da democracia)".

Por isso, declararam a lei parcialmente constitucional e estabeleceram as novas regras, prevendo que elas terão validade até que o Congresso aprove uma nova legislação. A decisão, inclusive, faz um apelo para que o Parlamento legisle.

O tema, porém, divide muito os congressistas, o que tem dificultado aprovação de uma lei.

Três ministros ficaram contra o endurecimento das regras pelo STF: André Mendonça, Edson Fachin e Nunes Marques. Eles consideraram que apenas o Legislativo poderia alterar as obrigações das plataformas.

Defensores de regras mais rígidas sobre o setor dizem que isso vai evitar a circulação de conteúdo criminoso, como mensagens que incentivem assassinatos em escolas ou ataques contra o sistema democrático.

Já os críticos consideram que as empresas vão acabar deletando conteúdos legítimos com medo de punições, afetando a liberdade de expressão.

Grandes plataformas como Google (dona do YouTube), Meta (dona de Facebook, Instagram e WhatsApp) e X (antigo Twitter) se opõem ao endurecimento das regras, que podem aumentar seus custos operacionais e o risco de punições, como multas elevadas, caso não cumpram regras novas.

A especialista em governança e regulação digital Bruna Santos considerou a decisão do STF "problemática".

"A gente volta para aquele estado meio de faroeste digital que existia antes da aprovação do Marco Civil, em que qualquer pessoa pode denunciar qualquer post e não existe uma base mínima de definição sobre isso", disse Santos, que atua na Witness, organização baseada nos EUA que promove o uso da tecnologia para defesa dos direitos humanos.

Já o professor da FGV Direito Rio Filipe Medon, especialista em Direito Digital, acredita que "a decisão traz um avanço muito grande" e aproxima as regras brasileiras daquelas aplicadas às plataformas na União Europeia.

"Chegou num ponto de insustentabilidade em que era preciso tomar uma atitude. A minha expectativa a partir de agora é que, como essa decisão foi um golpe duro para as empresas, as empresas vão pressionar o Congresso a legislar".

Entenda a seguir melhor quatro pontos da decisão do STF.

Ilustração de fake news

Crédito, Getty Images

Legenda da foto, Supremo determinou que empresas devem deletar conteúdo mesmo sem uma decisão judicial

1) Obrigação de apagar conteúdos criminosos por notificação

O STF estabeleceu que conteúdos criminosos deverão ser apagados a partir de notificação. Isso também valerá no caso de contas denunciadas como inautênticas (perfis falsos).

No entanto, foi estabelecida uma exceção: plataformas não serão obrigadas a apagar conteúdos com crimes contra a honra, como injúria e difamação.

Nesse caso, a empresa poderá deletar eventual conteúdo ofensivo se contrariar as regras da própria plataforma, mas não sofrerá punição se optar por manter no ar, a não ser que haja uma decisão judicial determinando a remoção.

O tema dividiu os ministros.

"A minha dúvida é como tratar [um conteúdo] assim: 'fulano enriqueceu dando golpes na praça'. Aí o sujeito se sente injuriado, é a plataforma que tem que decidir se isso vai ser removido ou não? Aí eu prefiro que seja uma briga privada entre o ofendido e o ofensor [na Justiça], e não a plataforma intervindo", argumentou o presidente do STF, Luiz Barroso, durante o julgamento.

Sinal anti-barulho

Crédito, Getty Images

Legenda da foto, Opinião pública está dividida sobre regulação das redes

2) 'Dever de cuidado' contra circulação massiva de conteúdos graves

A Corte incorporou em sua decisão o "dever de cuidado", princípio previsto na legislação da União Europeia que obriga as plataformas a atuarem sistematicamente para evitar a circulação de conteúdos criminosos.

Segundo o STF, essa obrigação vai ser aplicada em caso de conteúdos considerados mais graves. A decisão lista quais são e aponta as leis que estabelecem esses crimes:

  • certas condutas e atos antidemocráticos previstos nos Código Penal;
  • crimes de terrorismo ou preparatórios de terrorismo tipificados em lei;
  • crimes de induzimento, instigação ou auxílio a suicídio ou a automutilação previstos no Código penal;
  • incitação à discriminação em razão de raça, cor, etnia, religião, procedência nacional, sexualidade ou identidade de gênero (condutas homofóbicas e transfóbicas), passíveis de enquadramento na Lei do Racismo;
  • crimes praticados contra a mulher em razão da condição do sexo feminino, inclusive conteúdos que propagam ódio ou aversão às mulheres, conforme previstos em leis;
  • crimes sexuais contra pessoas vulneráveis, pornografia infantil e crimes graves contra crianças e adolescentes, nos termos do Código Penal e do Estatuto da Criança e do Adolescente;
  • tráfico de pessoas, conforme código penal.

A decisão esclarece que, nos casos acima, as empresas serão punidas caso se comprove falha sistêmica para coibir esses conteúdos. Dessa forma, eventuais casos pontuais, isolados, não devem gerar punição.

"Considera-se falha sistêmica, imputável ao provedor de aplicações de internet, deixar de adotar adequadas medidas de prevenção ou remoção dos conteúdos ilícitos anteriormente listados, configurando violação ao dever de atuar de forma responsável, transparente e cautelosa", estabeleceu a Corte.

O STF prevê ainda que uma pessoa que tenha seu conteúdo deletado poderá contestar a ação da plataforma judicialmente para que sua postagem volte ao ar.

"Ainda que o conteúdo seja restaurado por ordem judicial, não haverá imposição de indenização ao provedor", ressalvou a decisão.

3) Quem vai fiscalizar e punir as empresas que descumprirem as novas regras?

O STF não esclareceu objetivamente em sua decisão como as empresas serão fiscalizadas.

Ao longo do julgamento, ministros sugeririam algumas opções, como o Conselho Nacional de Justiça (CNJ), a Autoridade Nacional de Proteção de Dados (ANPD) ou a Procuradoria-Geral da República. A falta de uma decisão indica que não houve consenso.

Para Filipe Medon, da FGV, a decisão abre a possibilidade de que diferentes instituições possam atuar denunciando as plataformas. A mais óbvia seria o Ministério Público.

"O Ministério Público vai poder entrar com uma ação dizendo: 'Justiça, está acontecendo aqui uma violação sistêmica, a empresa não está fazendo nada, responsabilize essa empresa'", exemplifica.

Na sua visão, as novas regras entram em vigor com a publicação no Diário Oficial da Justiça.

"Mas obviamente as empresas vão correr com isso, porque, se elas perderem tempo, pode ser tarde demais".

Telefone celular com aplicativos

Crédito, PA Media

Legenda da foto, Plataformas dizem temer 'precedente para censura privada'

4) Canais para contestar remoções

A decisão estabelece ainda que cada plataforma tenha sua autorregularão, prevendo "sistema de notificações, devido processo e relatórios anuais de transparência em relação a notificações extrajudiciais, anúncios e impulsionamentos".

Segundo Filipe Medon, o "devido processo" previsto pela Corte é a obrigação de as empresas oferecerem canais para que pessoas possam contestar eventuais remoções de seus conteúdos.

"Tanto quanto possível, [plataformas deverão] oportunizar que as pessoas afetadas pela decisão de excluir o conteúdo sejam ouvidas e se defendam, por exemplo, para dizer que o conteúdo é lícito e não deveria ser removido", explica.

A decisão do STF estabelece ainda que as empresas deverão disponibilizar a usuários e não usuários "canais específicos de atendimento, preferencialmente eletrônicos, que sejam acessíveis e amplamente divulgados nas respectivas plataformas de maneira permanente."

Além disso, toda empresa com atuação no país deverá manter sede e representante legal no país, com identificação e informações para contato facilmente acessíveis.

O que dizem as plataformas?

Procuradas pela BBC News Brasil, empresas do setor manifestam preocupação com o julgamento do STF.

A Câmara Brasileira da Economia Digital (camara-e.net) — que representa empresas de serviços digitais e comércio eletrônico, incluindo Google, Meta e TikTok — disse, em nota, que a formação de maioria no STF "a favor da responsabilização de plataformas digitais por conteúdos publicados por terceiros, mesmo sem decisão judicial, representa um retrocesso preocupante para o ecossistema da internet brasileira".

Na visão da organização, "a tese que se desenha rompe com o equilíbrio estabelecido pelo Marco Civil da Internet e pode abrir precedentes para insegurança jurídica, judicialização em massa, aumento de barreiras à inovação e exclusão preventiva de conteúdos legítimos".

Diante da maioria formada no STF, a camara-e.net pede que a Corte estabeleça "com urgência critérios rigorosos, claros e proporcionais para conter esse retrocesso".

"É imprescindível que a remoção de conteúdos, além dos casos manifestamente ilegais, só ocorra mediante ordem judicial ou, no mínimo, notificação formal e fundamentada, com salvaguardas sólidas que previnam abusos, eliminem insegurança jurídica e garantam o equilíbrio necessário entre a proteção de direitos e a liberdade de expressão", defendeu ainda a camara-e.net.

Em nota enviada à reportagem, o Google disse que já remove "centenas de milhões de conteúdos" que violam suas regras e defendeu o atual modelo, em que a Justiça é quem determina a retirada de outros conteúdos.

"Boas práticas de moderação de conteúdo por empresas privadas são incapazes de lidar com todos os conteúdos controversos, na variedade e profundidade com que eles se apresentam na internet, refletindo a complexidade da própria sociedade."

"A atuação judicial nesses casos é um dos pontos mais importantes do Marco Civil da Internet, que reconhece a atribuição do Poder Judiciário para atuar nessas situações e traçar a fronteira entre discursos ilícitos e críticas legítimas".

Questionada sobre atuação do Google em um seminário de comunicação do PL, a empresa diz que oferece treinamento para diferentes partidos.

"O Google participa de inúmeros eventos oferecendo treinamentos, com foco em ferramentas como Gemini e Google Trends. Esse tipo de iniciativa contribui com o entendimento de profissionais em diversas áreas sobre novas tecnologias, incluindo a inteligência artificial".

"Ao longo dos últimos anos, o Google ministrou treinamentos para organizações pelo país, incluindo partidos políticos de todos os campos, órgãos públicos, empresas e empreendedores."

Procurada, a Meta enviou à reportagem manifestação da empresa de dezembro, quando o STF iniciou o julgamento.

"Temos uma longa história de diálogo e colaboração com as autoridades no Brasil, incluindo o Judiciário. Mas nenhuma grande democracia no mundo jamais tentou implementar um regime de responsabilidade para plataformas digitais semelhante ao que foi sugerido até aqui no julgamento no STF".

"Não é o caso do regime previsto na Lei dos Serviços Digitais (DSA, na sigla em inglês) na União Europeia, nem no NetzDG na Alemanha ou na Seção 230 do Communications Decency Act (CDA) nos Estados Unidos".

A empresa disse esperar "que seja alcançada uma solução balanceada sobre o regime de responsabilidade das plataformas digitais no Brasil à medida que o julgamento sobre a constitucionalidade do Artigo 19 do Marco Civil da Internet avança".

Questionada sobre atuação da Meta no seminário de comunicação do PL, a empresa respondeu: "Treinamentos com partidos políticos com presença no Congresso Nacional são parte recorrente do nosso trabalho há muitos anos. Oferecemos esses encontros para capacitar suas equipes sobre boas práticas em nossas plataformas."

A reportagem tentou contato com o X, por meio do escritório da advogada Rachel Vila Nova Conceição, representante legal da empresa no Brasil, mas não obteve retorno.