Voto divergente do Ministro Barroso na responsabilização dos provedores digitais

Gisele Leite

Professora universitária aposentada. Mestre em Direito. Mestre em Filosofia. Doutora em Direito.
Presidente da Seccional RJ da ABRADE. Pesquisadora-chefe do INPJ. Trinta e sete obras jurídicas publicadas.
Articulista e colunistas dos principais sites jurídicos.

 

Em 18.12.2024, o Plenário do Supremo Tribunal Federal retomou o julgamento que discute a constitucionalidade do artigo 19 do Marco Civil da Internet (MCI) e a possibilidade de as plataformas digitais serem responsabilizadas por conteúdo de usuários.

O atual presidente do STF, o Ministro Luís Roberto Barroso foi o terceiro a votar e  divergiu parcialmente dos votos já apresentados pelos Ministros Toffoli e Fux, relatores de dois casos julgados pelo STF.

Diferentemente dos relatores retromencionados, o Ministro Barroso entendeu que não pode haver responsabilidade objetiva das redes por conteúdos de terceiros, mas propôs dois modelos de responsabilização. Entendeu também que o artigo 19 é parcialmente inconstitucional porque não defendeu adequadamente os direitos fundamentais.

Importante recordar que a Suprema Corte analisa conjuntamente duas ações. No Recurso Extraordinário 1.027.396 (Tema 987 da Repercussão Geral, com a relatoria do Ministro Toffoli) onde é debatida a constitucionalidade do artigo 19 do Marco Civil da Internet.

Exige o descumprimento de ordem judicial de exclusão de conteúdo para a responsabilização do provedor pelos danos decorrentes de atos praticados por terceiros, isto é, por publicações feitas por usuários. O caso concreto é o de um perfil falso criado no Facebook.

O outro caso é no Recurso 1.057.258 (Tema 533 da Repercussão Geral, de relatoria do Ministro Fux) onde é debatida a responsabilidade de provedores de aplicativos e ferramentas de internet pelo conteúdo publicado por usuários, assim como a possibilidade de remoção de conteúdos ilícitos a partir de notificações extrajudiciais. O caso trata da decisão que obrigou o Google a apagar uma comunidade do Orkut.

Após o voto do Ministro Barroso, o Ministro Mendonça pediu vista e, o caso só retornará a ser julgado depois do recesso do Judiciário que vai até 31 de janeiro.

O presidente do Supremo propôs dois modelos de responsabilização. O primeiro deles trata de conteúdos específicos, e a notificação extrajudicial é a regra para crimes em geral. Nesses casos, a plataforma pode ser responsabilizada por não retirar conteúdos após ser notificada.

Colocou como exceções, no entanto, os crimes contra a honra, em que a sistemática adotada deve continuar sendo a do artigo 19, em que só pode haver responsabilização se houver descumprimento de ordem judicial pelas plataformas.

“Não há fundamento constitucional para um regime que incentive que as plataformas permaneçam inertes após tomarem conhecimento de violações às leis penais, o que inclui a criação de perfil falso para causar dano.”

O segundo modelo de responsabilização leva em conta o chamado “dever de cuidado”, em contraposição à responsabilidade objetiva proposta por Toffoli. No dever de cuidado, as plataformas ficam obrigadas a empenhar todos os esforços para prevenir e mitigar riscos sistêmicos criados ou potencializados nas redes sociais.

“Os provedores têm o dever de cuidado de mitigar os riscos sistêmicos criados ou potencializados por suas plataformas. Tal dever se materializa em medidas para minimizar esses riscos e seus impactos negativos sobre direitos individuais, coletivos, segurança e estabilidade democrática.”

Ainda prosseguiu o Ministro Barroso, as plataformas devem atuar proativamente, de ofício, para que seus ambientes estejam livres de conteúdos “gravemente nocivos”, em especial no que se refere a pornografia infantil; crimes graves contra crianças ou adolescentes; induzimento, instigação ou auxílio ao suicídio ou à automutilação; tráfico de pessoas; atos de terrorismo; e abolição violenta do Estado democrático de Direito e golpe de Estado.

A responsabilização em casos como esses pressupõe uma falha sistêmica, e não a ausência de remoção de um conteúdo específico, afirmou o Ministro Barroso.

Para mensurar a correta aplicação do dever de cuidado pelas empresas, o ministro determinou que as plataformas com mais de dez milhões de usuários publiquem anualmente relatórios de transparência que respeitem os mesmos padrões e exigências previstos no Digital Services Act, pacote legislativo europeu sobre serviços digitais.

O relatório deve conter dados sobre conteúdos ilícitos retirados e o tempo médio de tomada de providência pelas plataformas. Erros sistêmicos cometidos pela empresa ao retirar os conteúdos podem ser utilizados em ações de responsabilização, inclusive por dano moral coletivo.

Por fim, o ministro determinou que há responsabilidade das plataformas, independentemente de notificação, nos casos de anúncios e de todos os tipos de impulsionamento de conteúdos criminosos.

Um dos pontos centrais do voto foi a manutenção da exigência de ordem judicial para a remoção de conteúdos relacionados a crimes contra a honra, como calúnia, injúria e difamação.

O ministro justificou a necessidade dessa medida para evitar abusos que possam limitar o debate público, sobretudo em críticas a agentes públicos ou denúncias de condutas inadequadas.

“Se crimes contra a honra pudessem ser removidos apenas por notificação privada, a próxima vez que alguém dissesse que o governador é mentiroso ou medíocre, isso estaria sujeito à remoção pela plataforma, o que seria altamente limitador do debate público.”

Essa posição contrasta com sua proposta de permitir a notificação privada como regra geral para outros crimes, exceto os contra a honra. O ministro argumentou que, nesses casos, a remoção imediata é necessária para evitar a perpetuação de violações graves.

O Ministro Barroso destacou que as plataformas devem ser responsabilizadas apenas de forma subjetiva, ou seja, com base na análise de sua conduta após notificações. Ele propôs um regime em que as plataformas possam avaliar se determinado conteúdo constitui crime e decidir por sua remoção. Caso o Judiciário entenda posteriormente que houve crime, a plataforma seria responsabilizada.

Além disso, o ministro abordou o dever de cuidado das plataformas digitais para mitigar riscos sistêmicos, como a disseminação de conteúdos gravemente lesivos, incluindo pornografia infantil, indução ao suicídio, tráfico de pessoas e atos de terrorismo. Ele defendeu que a responsabilidade nesse caso seja atribuída apenas em situações de falha sistêmica, e não pela ausência de remoção pontual.

O Ministro Barroso resumiu seu voto em três pontos principais:

O artigo 19 do Marco Civil é insuficiente, mas não deve ser eliminado; as exceções previstas no artigo 21 devem ser ampliadas;

A responsabilidade por conteúdos de terceiros deve ser subjetiva, e em caso de dúvida razoável, cabe ao Judiciário decidir;

As plataformas devem assumir um dever de cuidado para mitigar riscos sistêmicos associados a conteúdos gravemente lesivos.

O ministro também relembrou períodos de censura no Brasil, citando episódios históricos como a repressão cultural durante a ditadura militar. Ele mencionou a música “Jorge Maravilha”, composta por Chico Buarque sob o pseudônimo Julinho da Adelaide, cujo verso provocativo – “Você não gosta de mim, mas sua filha gosta” – desafiava os generais da época.

O Ministro Barroso ressaltou que o Brasil já enfrentou episódios de censura que comprometeram a liberdade de expressão e advertiu sobre o risco de excesso de ingerência estatal ou privada na regulação de conteúdos.

“Temos que enfrentar as realidades atuais, mas com cuidado para preservar conquistas fundamentais, especialmente a liberdade de expressão”, concluiu o ministro.

O julgamento no STF continuará no próximo semestre, após pedido de vista do ministro André Mendonça.

Contudo, ele considera haver situações, como nos crimes contra a honra, em que a remoção do conteúdo só deve ocorrer após ordem judicial. Segundo ele, ainda que se alegue a existência de injúria, calúnia ou difamação, a postagem deve permanecer, sob pena de violação à liberdade de expressão. “A supervisão judicial é necessária para evitar a censura e tentativas de silenciar pessoas ou ocultar fatos criminosos ainda pendentes de apuração”, disse.

Para o presidente do STF, em vez de monitoramento ativo, com responsabilidade, independentemente de notificação, por cada conteúdo individual, as empresas devem ter o chamado dever de cuidado, ou seja, devem trabalhar para reduzir os riscos sistêmicos criados ou potencializados por suas plataformas. As medidas, a seu ver, devem minimizar esses riscos e seus impactos negativos sobre direitos individuais e coletivos, segurança e estabilidade democrática.

Assim, as plataformas devem atuar proativamente para que seu ambiente esteja livre de conteúdos gravemente nocivos, como pornografia infantil e crimes graves contra crianças e adolescentes, indução, instigação ou auxílio a suicídio ou a automutilação, tráfico de pessoas, atos de terrorismo, abolição violenta do Estado Democrático de Direito e golpe de Estado.

Além disso, diferentemente dos dois ministros que já votaram – Dias Toffoli e Luiz Fux –, o entendimento de Barroso vai no sentido de inconstitucionalidade “parcial” do artigo 19 do Marco Civil da Internet. Ele entende ser legítimo que a retirada de alguns conteúdos seja realizada só depois de decisão judicial.

O presidente do STF ressaltou que o monitoramento do fluxo de informações não será feito por humanos, mas sim pelos algoritmos. Ele explicou que, neste contexto, não haverá 100% de acerto, ou seja, uma ou outra postagem pode passar pelo filtro de análise.

O presidente da Corte também explicou que a responsabilidade tem que ser verificada sobre o dever de evitar consequências negativas.

 

Referências

REDAÇÃO MIHALHAS. Barroso voto por ordem judicial para remoção de conteúdo contra honra. Disponível em: https://www.migalhas.com.br/quentes/421872/barroso-vota-por-ordem-judicial-para-remocao-de-conteudo-contra-honra

 

ANGELO, Tiago. Barroso considera Marco Civil insuficiente e propõe dois modelos de responsabilização das redes. Disponível em: https://www.conjur.com.br/2024-dez-18/barroso-considera-marco-civil-insuficiente-e-propoe-dois-modelos-de-responsabilizacao-das-redes/