Placar de oito a três a favor da responsabilização das redes sociais
Gisele Leite
Professora universitária há 3 décadas; Mestre em Direito; Mestre em Filosofia; Doutora em Direito; Pesquisadora – Chefe do Instituto Nacional de Pesquisas Jurídicas; 29 obras jurídicas publicadas; Articulistas dos sites JURID, Lex Magister; Portal Investidura, Letras Jurídicas; Membro do ABDPC – Associação Brasileira do Direito Processual Civil; Pedagoga; Conselheira das Revistas de Direito Civil e Processual, Revista de Direito Trabalho e Processo, Revista de Direito Prática Previdenciária da Paixão Editores – POA – RS
Resumo: No dia 26.6.2025, o STF, por maioria de oito votos a três reconheceu a inconstitucionalidade parcial do artigo 19do Marco Civil da Internet, Lei 12.965/2014, que condicionava a responsabilização civil das plataformas digitais é existência de prévia ordem judicial para remoção do conteúdo. O julgamento ocorreu no âmbito de dois recursos extraordinários com repercussão geral reconhecida: RE 1.037.396 (Tema 987) e RE 1.057.258 (Tema 533[1]). Apesar do entendimento firmado pela Suprema Corte, se concluiu que o modelo atual, apesar de assegurar a liberdade de expressão, não garante suficientemente a proteção de direitos fundamentais e da própria democracia, diante da farta disseminação de conteúdos ilícitos no meio digital. Verifica-se que há omissão legislativa parcial e que ainda permanecem os desafios da era digital e seu impacto sobre os direitos fundamentais. Doravante, os provedores poderão ser responsabilizados mesmo sem haver decisão judicial diante as seguintes situações: Conteúdos impulsionados ou pagos, inclusive por robôs ou redes artificiais de distribuição; Casos de circulação massiva de conteúdos gravíssimos, como: atos antidemocráticos (ex: tentativa de golpe); terrorismo; indução ao suicídio ou automutilação; discurso de ódio racial, religioso, sexual, de gênero ou contra mulheres; pornografia infantil, crimes sexuais contra vulneráveis, e tráfico de pessoas. Nessas hipóteses, os provedores devem agir imediatamente para remover os conteúdos ilícitos, sob pena de responderem civilmente. A omissão configura “falha sistêmica”, especialmente se não adotarem medidas preventivas e tecnicamente eficazes.
Palavras-chave: Responsabilidade Civil. Constituição Federal brasileira de 1988. Marco Civil da Internet. Big Techs.
Abstract: On June 26, 2025, the STF, by a majority of eight votes to three, recognized the partialunconstitutionality of article 19 of the Internet Civil Rights Framework, Law 12,965/2014, which conditioned the civil liability of digital platforms on the existence of a prior court order for the removal of content. The judgment was made within the scope of two extraordinary appeals with recognized general repercussions: RE 1,037,396 (Topic 987) and RE 1,057,258 (Topic 533). Despite the understanding established by the Supreme Court, it was concluded that the current model, despite ensuring freedom of expression, does not sufficiently guarantee the protection of fundamental rights and democracy itself, given the widespreaddissemination of illicit content in the digital environment. It is clear that there is partiallegislativeomission and that the challenges of the digital era and its impact on fundamental rights still remain. From now on, providers may be held liable even without a court decision in the following situations: Content promoted or paid for, including by robots or artificial distribution networks; Cases of mass circulation of very serious content, such as: anti-democratic acts (e.g. attempted coup); terrorism; incitement to suicide or self-harm; hate speech involving race, religion, sex, gender or women; childpornography, sexual crimes against vulnerable people, and human trafficking. In these cases, providers must act immediately to remove the illicit content, under penalty of civil liability. Failure to do so constitutes a “systemic failure”, especially if they fail to adopt preventive and technically effective measures.
Keywords: Civil Liability. Brazilian Federal Constitution of 1988. Internet Civil Rights Framework. Big Techs.
Firmou-se a maioria para alterar o regime de responsabilização das plataformas, permanece no Supremo a indefinição sobre os parâmetros que serão usados na tese[2].
O Ministro Barroso ainda tenta costurar um consenso, e a ideia é que os ministros discutam pontos divergentes e convergentes nos votos apresentados.
Os votos de ontem como o da Ministra Cármen Lúcia que seguiu parcialmente Ministro Barroso: manteve a necessidade de ordem judicial para retirada de conteúdo, mas admitiu que a execução da decisão não exige nova ordem. Ela demonstrou preocupação com risco de censura privada.
O Ministro Fachin divergiu da maioria, sustentando que as plataformas só devem ser responsabilizadas se descumprirem ordem judicial. Para ele, eventuais mudanças estruturais devem ser feitas pelo Legislativo, e não pelo Judiciário.
Após os votos dos ministros Edson Fachin e Cármen Lúcia, o ministro Luís Roberto Barroso interrompeu o julgamento do Marco Civil da Internet.
A princípio, o debate será retomado em (26/6) com o voto do ministro Nunes Marques. Contudo, um almoço entre os onze ministros antes da sessão, a convite do presidente Luís Roberto Barroso, será crucial para o prosseguimento do julgamento.
O Ministro Barroso tenta costurar um consenso, já que há maioria para alterar o regime de responsabilização das plataformas de redes sociais por conteúdos postados por usuários, mas não há definição sobre os parâmetros.
No fim da sessão de (25/6), o Presidente do STF chegou a dizer que a tese pode ser lida, caso haja concordância. No entanto, nos bastidores, essa construção ainda não está fechada. No almoço, a ideia é que os ministros discutam sobre pontos divergentes e convergentes nos votos apresentados.
A maioria defende alterar o regime de responsabilização das plataformas de redes sociais por conteúdos postados por usuários. Os ministros entendem que, como regra geral, as empresas devem retirar os conteúdos criminosos assim que houver a notificação do ofendido, sem necessidade de ordem judicial, conforme prevê a legislação atual.
Entretanto, ainda existem pontos indefinidos para a construção final da tese. O placar está 8 a 2.
Na sessão de25.6.2025, a Ministra Cármen Lúcia acompanhou o ministro Luís Roberto Barroso no julgamento do Marco Civil da Internet. Para ela, o artigo 19 não é inconstitucional, mas precisa de uma nova interpretação.
Dessa forma, ela mantém a necessidade de ordem judicial para a retirada de determinados conteúdos e afasta a responsabilidade objetiva das plataformas.
A Ministra Cármen acompanhou o Ministro Barroso[3] após o ajuste que ele fez quanto a não precisar de uma segunda decisão após a primeira determinar a retirada do conteúdo. A ministra lembrou do repositório de fake news que a Justiça Eleitoral já detém.
Contudo, a ministra mostrou-se preocupada com a censura, por isso não reconhece o direito de um particular de determinar a retirada de uma crítica, por exemplo.
O Ministro Edson Fachin divergiu da maioria já formada e votou pela constitucionalidade do artigo 19, do Marco Civil da Internet. Portanto, para Fachin, fica mantida a necessidade de descumprimento de ordem judicial de retirada de conteúdo para as plataformas serem responsabilizadas, como o pagamento de indenizações.
O Ministro acompanhou a divergência aberta pelo ministro André Mendonça, mas ponderou que os fundamentos são diferentes. Na introdução do voto, o Ministro Fachin defendeu uma “regulação estrutural e sistêmica”, mas que não pode ser “via Poder Judiciário”.
O Ministro também falou que os “remédios” para o problema das notícias falsas e remoção de conteúdo “precisam ser encontrados na caixa de ferramentas da própria democracia”.
O Ministro Nunes Marques argumentou que cabe ao Congresso atualizar a legislação sobre as redes sociais. Afirmou:— “Declarar que o artigo 19 é constitucional não impede que o parlamento possa debater o tema de forma ampla e profunda. Aliás, essa discussão é recomendável”.
Embora já haja maioria para declarar totalmente ou parcialmente inconstitucional o artigo 19 do Marco Civil da Internet, de 2014, foram apresentadas diferentes soluções para alterar o regime de responsabilização das empresas.
O trecho em questão condiciona a responsabilização das plataformas por danos gerados por conteúdos de terceiros apenas aos casos em que não forem tomadas providências após decisão judicial.
A maioria dos ministros entendeu que basta a plataforma ser notificada sobre um conteúdo de teor ilícito — e não mais de decisão judicial — para que haja a responsabilização, quando não forem tomadas providências para que a publicação seja removida, mas ainda é preciso definir em que casos esse entendimento deverá valer ou não.
Não há consenso, por exemplo, sobre se essa regra deve ser aplicada para crimes contra a honra, como calúnia e difamação. O ministro Nunes Marques, o único que ainda não votou, só apresentará sua posição após a conversa marcada para hoje.
O provedor de aplicações de internet será responsabilizado civilmente, nos termos do artigo 21 do Marco Civil da Internet, pelos danos decorrentes de conteúdos gerados por terceiros em casos de crime ou atos ilícitos, sem prejuízo do dever de remoção do conteúdo. Aplica-se a mesma regra nos casos de contas denunciadas como inautênticas”.
Outro ponto relevante é a responsabilização da plataforma quando “não promover a indisponibilização imediata de conteúdos” que configurem crimes graves como: Condutas e atos antidemocráticos; Crimes de terrorismo ou preparatórios de terrorismo; Crimes de induzimento, instigação ou auxílio a suicídio ou a automutilação; Incitação à discriminação em razão de raça, cor, etnia, religião, procedência nacional, sexualidade ou identidade de gênero; Crimes praticados contra a mulher em razão da condição do sexo feminino, inclusive conteúdos que propagam ódio ou aversão às mulheres; Crimes sexuais contra pessoas vulneráveis, pornografia infantil e crimes graves contra crianças e adolescentes; Tráfico de pessoas.
No documento, os ministros ressaltam que a decisão é prospectiva, ou seja, não afetará casos passados. Além disso, há um apelo ao Congresso Nacional “para que seja elaborada legislação capaz de sanar as deficiências do atual regime quanto à proteção de direitos fundamentais”.
Há ainda a ordem para as big techs disponibilizarem canais específicos para atendimento, com acessibilidade e ampla divulgação. As regras de cada plataforma deverão ser revisadas de forma periódica.
Ficou decidido também que os provedores precisam ter representantes em território brasileiro para funcionar no país. “Os provedores de aplicações de internet com atuação no Brasil devem constituir e manter sede e representante no país, cuja identificação e informações para contato deverão ser disponibilizadas e estar facilmente acessíveis nos respectivos sítios.”
Apesar do esforço, não houve consenso. Oito ministros declararam o artigo 19 parcial ou totalmente inconstitucional. São eles: Dias Toffoli, Luiz Fux, Luís Roberto Barroso, Flávio Dino, Cristiano Zanin, Gilmar Mendes, Alexandre de Moraes e Cármen Lúcia.
Já os ministros André Mendonça, Edson Fachin e Nunes Marques votaram pela validade do artigo 19 e não endossaram a nova tese.
Durante a sessão, Barroso reforçou que “o tribunal não está legislando”, mas “decidindo casos concretos e estabelecendo critérios que irão prevalecer até que o Poder Legislativo, se e quando entender apropriado, venha a disciplinar a matéria”.
O tribunal analisava conjuntamente duas ações. No Recurso Extraordinário 1.037.396 (Tema 987 da repercussão geral, com relatoria de Toffoli), foi discutida a constitucionalidade do artigo 19 do Marco Civil da Internet. Ele exige o descumprimento de ordem judicial de exclusão de conteúdo para a responsabilização do provedor pelos danos decorrentes de atos praticados por terceiros — ou seja, as publicações feitas por usuários.
In litteris:
“Interpretação do art. 19 do MCI 2. Enquanto não sobrevier nova legislação, o art. 19 do MCI deve ser interpretado de forma que os provedores de aplicação de internet estão sujeitos à responsabilização civil, ressalvada a aplicação das disposições específicas da legislação eleitoral e os atos normativos expedidos pelo TSE. 3. O provedor de aplicações de internet será responsabilizado civilmente, nos termos do art. 21 do MCI, pelos danos decorrentes de conteúdos gerados por terceiros em casos de crime ou atos ilícitos, sem prejuízo do dever de remoção do conteúdo. Aplica-se a mesma regra nos casos de contas denunciadas como inautênticas. 3.1. Nas hipóteses de crime contra a honra aplica-se o art. 19 do MCI, sem prejuízo da possibilidade de remoção por notificação extrajudicial. 3.2. Em se tratando de sucessivas replicações do fato ofensivo já reconhecido por decisão judicial, todos os provedores de redes sociais deverão remover as publicações com idênticos conteúdos, independentemente de novas decisões judiciais, a partir de notificação judicial ou extrajudicial”.
O caso concreto era o de um perfil falso criado no Facebook. Esse pedido teve provimento negado pelo STF. Já no Recurso Extraordinário 1.057.258 (Tema 533 da repercussão geral, com relatoria do ministro Fux), era discutida a responsabilidade de provedores de aplicativos e ferramentas de internet pelo conteúdo publicado por usuários, assim como a possibilidade de remoção de conteúdos ilícitos a partir de notificações extrajudiciais.
O caso dizia respeito a uma decisão que obrigou o Google a apagar uma comunidade do Orkut. Nesse processo, o Plenário deu provimento ao recurso.
Os provedores de aplicações de internet que funcionarem como marketplaces respondem civilmente de acordo com o Código de Defesa do Consumidor (Lei nº 8.078/1990).
Ainda segundo a interpretação da Corte, as big techs terão responsabilidade presumida em caso de conteúdo impulsionado (anúncios pagos) que incorram nos crimes previstos — em outras palavras, será pressuposto que a plataforma revisou e aprovou a publicidade antes de sua circulação.
Não haverá responsabilidade objetiva na aplicação da tese aqui enunciada.
Enquanto não sobrevier nova legislação, o art. 19 do MCI deve ser interpretado de forma que os provedores de aplicação de internet estão sujeitos à responsabilização civil, ressalvada a aplicação das disposições específicas da legislação eleitoral e os atos normativos expedidos pelo TSE.
Nas hipóteses de crime contra a honra, aplica-se o art. 19 do MCI, sem prejuízo da possibilidade de remoção por notificação extrajudicial.
Em se tratando de sucessivas replicações do fato ofensivo já reconhecido por decisão judicial, todos os provedores de redes sociais deverão remover as publicações com idênticos conteúdos, independentemente de novas decisões judiciais, a partir de notificação judicial ou extrajudicial.
Os provedores de aplicações de internet com atuação no Brasil devem constituir e manter sede e representante no país, cuja identificação e informações para contato deverão ser disponibilizadas e estar facilmente acessíveis nos respectivos sítios.
Essa representação deve conferir ao representante, necessariamente pessoa jurídica com sede no país, plenos poderes para responder perante as esferas administrativa e judicial; prestar às autoridades competentes informações relativas ao funcionamento do provedor, às regras e aos procedimentos utilizados para moderação de conteúdo e para gestão das reclamações pelos sistemas internos.
Aplica-se o art. 19 do MCI ao provedor: de serviços de e-mail; de aplicações cuja finalidade primordial seja a realização de reuniões fechadas por vídeo ou voz; de serviços de mensageria instantânea (também chamadas de provedores de serviços de mensageria privada), exclusivamente no que diz respeito às comunicações interpessoais, resguardadas pelo sigilo das comunicações (art. 5º, inciso XII, da CF/88).
Todos os provedores deverão implementar: Autorregulação obrigatória (com sistemas de notificação, devido processo e relatórios de transparência); Canais acessíveis de atendimento a usuários e terceiros; Representação jurídica no Brasil com poderes plenos para responder judicial e administrativamente.
In litteris, a íntegra da tese:
“Reconhecimento da inconstitucionalidade parcial e progressiva do artigo 19 do marco civil da internet, MCI.
- O artigo 19 da lei nº 12.965/2014, marco civil da internet, que exige ordem judicial especial específica para a responsabilização civil de provedor de aplicações de internet por danos decorrentes de conteúdo gerado por terceiros, é parcialmente inconstitucional. Há um estado de omissão parcial que decorre do fato de que a regra geral do artigo 19 não confere proteção suficiente a bens jurídicos constitucionais de alta relevância, proteção de direitos fundamentais e da democracia.
Interpretação do artigo 19 do MCI.
- Enquanto não sobrevier nova legislação, o artigo 19 do MCI deve ser interpretado de forma que os provedores de aplicação de internet estão sujeitos à responsabilização civil ressalvada à aplicação das disposições específicas da legislação eleitoral e os atos normativos expedidos pelo Tribunal Superior Eleitoral (TSE).
- O provedor de aplicações de internet será responsabilizado civilmente, nos termos do artigo 21 do MCI, pelos danos decorrentes de conteúdo gerados por terceiros em casos de crime ou atos ilícitos, sem prejuízo do dever de remoção do conteúdo. Aplica-se a mesma regra nos casos de contas denunciadas como inautênticas.
3.1. Nas hipóteses de crime contra a honra, aplica-se o artigo 19 do MCI, sem prejuízo da possibilidade de remoção por notificação extrajudicial.
3.2. Em se tratando de sucessivas replicações do fato ofensivo já reconhecido por decisão judicial, todos os provedores de redes sociais deverão remover as publicações com idênticos conteúdos, independentemente de novas decisões judiciais, a partir de notificação judicial ou extrajudicial.
Presunção de responsabilidade.
- Fica estabelecida a presunção de responsabilidade dos provedores em casos de conteúdos ilícitos quando se tratar de: (a) anúncios e impulsionamentos pagos; ou (b) rede artificial de distribuição chatbots ou robôs. Nestas hipóteses, a responsabilização poderá se dar independentemente de notificação.
Os provedores ficarão excluídos de responsabilidade se comprovarem que atuaram diligentemente e em tempo razoável para tornarem disponível o conteúdo.
Dever de cuidado em caso de circulação massiva de conteúdos ilícitos graves
- O provedor de aplicações de internet é responsável quando não promover a indisponibilização imediata de conteúdos que configurem as práticas de crimes graves previstos no seguinte rol taxativo:
- Condutas e atos antidemocráticos que se amoldem aos tipos previstos nos artigos 296, parágrafo único, 359-L, 359-M, 359-N, 359-P e 359-R do Código Penal.
- Crimes de terrorismo ou preparatórios de terrorismo tipificados pela lei nº 13.260/2016.
- Crimes de induzimento, instigação ou auxílio a suicídio ou a automutilação nos termos do art. 122 do Código Penal.
- Incitação à discriminação em razão de raça, cor, etnia, religião, procedência nacional, sexualidade ou identidade de gênero.
- Condutas homofóbicas e transfóbicas passível de enquadramento nos artigos 20, 20A, 20B e 20C da Lei nº 7.716, de 1989.
- Crimes praticados contra a mulher em razão da condição do sexo feminino, inclusive conteúdos que propagam ódio às mulheres. (art. 147 § 1º, Art. 147A e Art. 147-B do Código Penal).
- Crimes sexuais contra pessoas vulneráveis, pornografia infantil e crimes graves contra crianças e adolescentes, nos temos dos artigos 217-A, 218, 218-A, 218-B, 218-C do Código Penal e dos artigos 240, 241-A, 241-C, 241-D do Estatuto da Criança e do Adolescente.
- Tráfico de pessoas (Código Penal, art. 149-A).
5.1. A responsabilidade dos provedores de aplicações de internet prevista neste item diz respeito à configuração de falha sistêmica.
5.2. Considera-se falha sistêmica imputável ao provedor de aplicações de internet deixar de adotar adequadas medidas de prevenção ou remoção dos conteúdos ilícitos anteriormente listados, configurando violação ou dever de atuar de forma responsável, transparente e cautelosa.
5.3. Consideram-se adequadas as medidas que, conforme o estado da técnica, forneçam os níveis mais elevados de segurança para o tipo de atividade desempenhada pelo provedor.
5.4. A existência de conteúdo ilícito de forma isolada, atomizada, não é por si só suficiente para ensejar a aplicação da responsabilidade civil do presente item. Contudo, nesta hipótese, incidirá o regime de responsabilidade previsto no artigo 21 do marco civil da internet.
5.5. Nas hipóteses previstas neste item, o responsável pela publicação do conteúdo removido pelo provedor de aplicações de internet poderá requerer judicialmente o seu restabelecimento, mediante demonstração da ausência de ilicitude. Ainda que o conteúdo seja restaurado por ordem judicial, não haverá imposição de indenização ao provedor.
Foram excluídos do rol os crimes contra a honra, como ofensa, calúnia e difamação. Nestes casos, a decisão sobre a ilegalidade das publicações caberá à própria plataforma, exceto se houver ordem judicial para remoção das postagens. Também não entram nas obrigações e os crimes previstos no Código Eleitoral, cuja apuração será de responsabilidade da Justiça Eleitoral.
Na proclamação do resultado, o presidente do STF, Luís Roberto Barroso, descartou que a Corte esteja invadindo competências do Legislativo. “O tribunal não está legislando. O tribunal está decidindo sobre dois casos concretos que se puseram perante ele e estamos definindo critérios que vão prevalecer até o momento que o poder Legislativo, se e quando entender por bem, vier a prover acerca dessa matéria”, disse o magistrado.
Durante o julgamento, alguns ministros propuseram que um órgão fosse responsável por fiscalizar o cumprimento das medidas práticas pelas big techs, bem como a sua responsabilização. Na tese consensual, no entanto, infelizmente esse ponto restou de fora.
A maioria dos ministros entendeu que é necessário ampliar essa responsabilização para garantir maior controle sobre conteúdos ofensivos e ilegais, antecipando o momento das indenizações.
As big techs terão responsabilidade presumida em caso de conteúdo impulsionado (anúncios pagos) que incorram nos crimes previstos — em outras palavras, será pressuposto que a plataforma revisou e aprovou a publicidade antes da sua circulação.
De acordo com o entendimento fixado, as regras valem para redes sociais, aplicativos de mensagens instantâneas e serviços de reunião por vídeo ou voz. As punições cabíveis por falha na moderação, conforme já positivado no Marco Civil da Internet, incluem multas onerosas, suspensão temporária das operações ou proibição total das atividades no Brasil
Referências
ALCÂNTARA, Manoela. STF decide por responsabilizar redes sociais. Veja como ficam regras. Disponível em: https://www.metropoles.com/brasil/stf-decide-por-responsabilizar-redes-sociais-veja-como-ficam-regrasAcesso em 27.6.2025
CAVALCANTE, Isabella. Supremo fixa tese sobre responsabilização de plataformas por conteúdo de usuários. Disponível em: https://www.conjur.com.br/2025-jun-26/supremo-fixa-tese-sobre-responsabilizacao-de-plataformas-por-conteudo-de-usuarios Acesso em 27.6.2025.
Redação Migalhas. STF: Redes sociais respondem por posts mesmo sem ordem judicial; veja tese Ministros declararam parcialmente inconstitucional o art. 19 do marco civil da internet. Disponível em: https://www.migalhas.com.br/quentes/433462/stf-redes-respondem-por-posts-mesmo-sem-ordem-judicial-veja-tese Acesso em 27.6.2025.
Redação Migalhas. STF e big techs: Barroso nega ativismo e diz que não agradará a todos. Disponível em: https://www.migalhas.com.br/quentes/433508/stf-e-big-techs-barroso-nega-ativismo-e-diz-que-nao-agradara-a-todosAcesso e 27.6.2025.
RICHTER, André. Repórter da Agência Brasil. STF decide que redes devem ser responsabilizadas por conteúdos ilegais. Disponível em: https://agenciabrasil.ebc.com.br/justica/noticia/2025-06/stf-decide-que-redes-devem-ser-responsabilizadas-por-conteudos-ilegais Acesso em 27.6.2025.
[1] Título: Dever de empresa hospedeira de sítio na internet fiscalizar o conteúdo publicado e de retirá-lo do ar quando considerado ofensivo, sem intervenção do Judiciário. Descrição: Agravo em recurso extraordinário em que se discute, à luz dos artigos 5º, II, IV, IX, XIV, XXXIII e XXXV; e 220, §§ 1º, 2º e 6º, da Constituição Federal, se, à falta de regulamentação legal da matéria, os aludidos princípios constitucionais incidem diretamente, de modo a existir o dever de empresa hospedeira de sítio na rede mundial de computadores de fiscalizar o conteúdo publicado em seus domínios eletrônicos e de retirar do ar informações consideradas ofensivas, sem necessidade de intervenção do Poder Judiciário.
[2] Casos concretos: No RE 1.037.396, de relatoria do ministro Dias Toffoli, o plenário, por maioria, negou provimento ao recurso extraordinário interposto contra acórdão que reconheceu a responsabilidade da plataforma por danos decorrentes de conteúdo ofensivo. O único voto vencido foi o do ministro Luiz Edson Fachin, que defendia a reforma da decisão anterior.
Já no RE 1.057.258, sob relatoria do ministro Luiz Fux, o Supremo, por maioria, deu provimento ao recurso extraordinário apresentado pela empresa Google do Brasil, afastando a condenação ao pagamento de indenização por danos morais imposta pela 1ª turma recursal de Belo Horizonte/MG.
Prevaleceu, nesse segundo caso, o voto do ministro André Mendonça, o primeiro a divergir e defender a reforma da decisão. Foram vencidos os ministros Luiz Fux (relator), Dias Toffoli, Alexandre de Moraes e Nunes Marques, que votaram pelo desprovimento do recurso e, portanto, pela manutenção da condenação.
[3] Segundo o Ministro Barroso, o julgamento é necessário para estabelecer parâmetros que orientarão não apenas o próprio STF, mas também os demais tribunais do país. O ministro também esclareceu que não cabe ao Tribunal decidir se vai julgar ou não determinadas matérias, mesmo quando envolvem temas controversos ou ainda não regulamentados por lei. “O Tribunal não tinha e não tem a opção de dizer ‘nós não vamos julgar essa questão porque não há lei específica’, ou ‘porque ela é muito complexa’, ou ‘porque ela é divisiva da sociedade'”. Por fim, concluiu: “Se há uma maneira nessa vida de não agradar ninguém, é querer agradar todo mundo”.