Nesta semana o Supremo Tribunal Federal – STF, por maioria (8×3), decidiu que é parcialmente inconstitucional a regra do artigo 19 do Marco Civil da Internet (MCI – Lei nº 12.965, de 23 de abril de 2014).
Veja o inteiro teor do artigo:
Art. 19. Com o intuito de assegurar a liberdade de expressão e impedir a censura, o provedor de aplicações de internet somente poderá ser responsabilizado civilmente por danos decorrentes de conteúdo gerado por terceiros se, após ordem judicial específica, não tomar as providências para, no âmbito e nos limites técnicos do seu serviço e dentro do prazo assinalado, tornar indisponível o conteúdo apontado como infringente, ressalvadas as disposições legais em contrário.
1º A ordem judicial de que trata o caput deverá conter, sob pena de nulidade, identificação clara e específica do conteúdo apontado como infringente, que permita a localização inequívoca do material.
2º A aplicação do disposto neste artigo para infrações a direitos de autor ou a direitos conexos depende de previsão legal específica, que deverá respeitar a liberdade de expressão e demais garantias previstas no art. 5º da Constituição Federal.
3º As causas que versem sobre ressarcimento por danos decorrentes de conteúdos disponibilizados na internet relacionados à honra, à reputação ou a direitos de personalidade, bem como sobre a indisponibilização desses conteúdos por provedores de aplicações de internet, poderão ser apresentadas perante os juizados especiais.
4º O juiz, inclusive no procedimento previsto no § 3º , poderá antecipar, total ou parcialmente, os efeitos da tutela pretendida no pedido inicial, existindo prova inequívoca do fato e considerado o interesse da coletividade na disponibilização do conteúdo na internet, desde que presentes os requisitos de verossimilhança da alegação do autor e de fundado receio de dano irreparável ou de difícil reparação.
De acordo com o STF, há um estado de omissão parcial que decorre do fato de que a regra geral do art. 19 não confere proteção suficiente aos direitos fundamentais e à democracia, bens jurídicos constitucionais de alta relevância.
No julgamento foram apreciados dois Recursos Extraordinários (1.037.396 – Tema 987 e 1.057.258 – Tema 533), com repercussão geral reconhecida, nos quais se discute os limites da responsabilidade civil de plataformas digitais por danos causados por conteúdos postados por terceiros. Em debate está a constitucionalidade do artigo 19 da Lei nº 12.965/2014 (Marco Civil da Internet), que estabelece que as plataformas somente podem ser responsabilizadas se houver uma ordem judicial determinando a remoção do conteúdo e elas descumprirem essa decisão.
O primeiro caso (Tema 987) envolve a criação de um perfil falso no Facebook, em nome de uma pessoa que não tinha conta na rede, usado para ofender várias pessoas. A plataforma foi notificada por meio de sua própria ferramenta de denúncia, mas não removeu o perfil. A pessoa prejudicada recorreu ao Poder Judiciário pedindo tanto a exclusão da conta quanto uma indenização por danos morais. O Juizado Especial determinou a exclusão do perfil, que foi cumprida pela plataforma, mas negou a indenização. Em grau de recurso, o Tribunal condenou o Facebook a pagar danos morais, por entender que a exclusão deveria ter ocorrido após notificação extrajudicial. A empresa recorreu ao STF, argumentando que, pelo art. 19 do Marco Civil, não cabe indenização porque ela cumpriu a ordem judicial.
O segundo caso (Tema 533) trata da criação de uma comunidade no Orkut para falar mal de uma professora, chamando-a, por exemplo, de “feia” e “insuportável”. A professora pediu à rede social que excluísse a comunidade, alegando prejuízos à sua honra e imagem. O Orkut avaliou o pedido e recusou a remoção, afirmando que o conteúdo não violava as leis nem as políticas da rede social. A professora então acionou a Justiça, que determinou a exclusão da comunidade e o pagamento de indenização. A plataforma, então, recorreu ao STF, por entender que não cabia indenização, já que excluiu a comunidade após ordem judicial.
As questões jurídicas analisadas pelo STF foram duas:
- É constitucional o artigo 19 da Lei nº 12.965/2014 (Marco Civil da Internet), que exige ordem judicial prévia para responsabilizar as plataformas digitais por danos causados por conteúdos de terceiros?
- Qual deve ser o regime de responsabilidade das plataformas, considerando a necessidade de proteger os direitos fundamentais e os valores democráticos previstos pela Constituição de 1988 no ambiente digital?
No julgamento, os fundamentos da decisão foram:
- O art. 19 do Marco Civil da Internet, que determina que as plataformas só podem ser responsabilizadas após descumprirem ordem judicial de remoção, é parcialmente inconstitucional, pois ele não oferece proteção suficiente a direitos constitucionais relevantes, como os direitos fundamentais das pessoas e a democracia.
- Enquanto o Congresso não elaborar nova lei capaz sobre o tema, o artigo 19 deve ser interpretado de acordo com a Constituição, de modo a oferecer maior proteção às pessoas contra conteúdos criminosos, ilegais e danosos na internet.
- Provedores de aplicações de internet, como redes sociais e buscadores, podem ser responsabilizados sem necessidade de ordem judicial quando forem notificados extrajudicialmente sobre crimes ou atos ilícitos existentes nas suas plataformas e não removerem tais conteúdos. Essa interpretação amplia o modelo já previsto no artigo 21 do Marco Civil, originalmente aplicado a casos de divulgação não consentida de cenas de nudez privadas. Essa mesma lógica passa a valer para crimes e atos ilícitos em geral, inclusive para casos de contas inautênticas ou falsas.
- Para crimes contra a honra (calúnia, difamação e injúria), a responsabilização das plataformas continuará a exigir ordem judicial, conforme o art. 19 do Marco Civil. Essa diferenciação é importante para proteger a liberdade de expressão, evitando censura e remoção de conteúdos que veiculem críticas, ainda que incômodas. Porém, se o Judiciário entender que um determinado caso é de crime contra a honra e determinar a remoção, os provedores devem remover publicações com conteúdo idêntico, a partir de simples notificação, sem necessidade de novas decisões judiciais.
- A regra do art. 19 continua a valer integralmente para alguns tipos específicos de provedores neutros, que não interferem sobre os conteúdos, como serviços de e-mail, aplicativos para realizar reuniões fechadas e serviços de mensagens instantâneas (como o WhatsApp), exclusivamente quanto às comunicações interpessoais, que são protegidas por sigilo constitucional.
- Em duas hipóteses específicas, as plataformas podem ser responsabilizadas mesmo sem ordem judicial ou notificação privada: (a) em anúncios ou impulsionamento pago de conteúdos, já que nesses casos a plataforma aprova a publicidade; e (b) quando for detectado o uso de redes artificiais de distribuição ilícitas usando robôs. Nesses casos, há uma presunção de que a plataforma tinha conhecimento da ilicitude e ela somente poderá afastar sua responsabilidade se provar que agiu em tempo razoável e com diligência para remover o conteúdo.
- Por fim, nos casos de crimes gravíssimos específicos, a plataforma deve zelar para que tais conteúdos não sejam sequer publicados. Nesses casos, aplica-se o chamado dever de cuidado, de modo que a plataforma deve atuar de maneira diligente e proativa para que esses conteúdos não circulem, independentemente de qualquer notificação ou ordem judicial. Essa regra se aplica aos seguintes crimes: (i) terrorismo; (ii) indução ao suicídio ou à automutilação; (iii) pornografia infantil e crimes graves contra crianças e adolescentes e pessoas vulneráveis; (iv) tráfico de pessoas; (v) discriminação e discurso de ódio; (v) crimes contra mulheres em razão de gênero; e (vi) atos antidemocráticos. A responsabilização por descumprimento desse dever de cuidado ocorrerá apenas quando houver falha sistêmica do provedor, ou seja, quando ele deixar de adotar medidas adequadas para prevenir ou remover esses conteúdos. A mera existência de um conteúdo ilícito isolado não basta para gerar responsabilidade.
- Em todos esses casos, a responsabilização é subjetiva, ou seja, demanda análise de culpa ou dolo da plataforma.
- Para dar efetividade às regras de responsabilização, as plataformas devem, ainda, criar regras próprias para: (i) criar sistema de notificação para usuários fazerem denúncias de crimes e atos ilícitos; (ii) disponibilizar canais de atendimento amplamente divulgados; (iii) implementar um devido processo que permita que os usuários entendam os fundamentos das decisões de remoção e possam recorrer; e (iv) elaborar relatórios anuais de transparência com os dados da atuação de remoção de conteúdo.
- Provedores estrangeiros que atuam no Brasil devem manter representante legal no país para permitir o cumprimento de decisões judiciais.
- A decisão vale apenas para casos futuros, que serão decididos daqui para frente, de modo a garantir segurança jurídica.
No final do julgamento, o STF decidiu que é parcialmente inconstitucional a regra do artigo 19 do Marco Civil da Internet (Lei 12.965/2014). O dispositivo exige o descumprimento de ordem judicial específica para que os provedores de aplicações de internet sejam responsabilizados civilmente por danos causados por conteúdo publicado por terceiros.
Nas alegações de crimes contra a honra, os provedores só podem ser responsabilizados (ter o dever de pagar indenização) se descumprirem uma ordem judicial para a remoção do conteúdo. Nada impede, porém, que as plataformas removam publicações com base apenas em notificação extrajudicial. Também ficou definido que, quando um fato ofensivo já reconhecido por decisão judicial for repetidamente replicado, todos os provedores deverão remover as publicações com conteúdos idênticos a partir de notificação judicial ou extrajudicial, independentemente de novas decisões judiciais nesse sentido.
Os provedores estarão sujeitos à responsabilização civil, se não atuarem imediatamente para retirar conteúdos que configurem as práticas de crimes graves. A lista inclui crimes como tentativa de golpe de Estado, abolição do Estado democrático de Direito, terrorismo, instigação a mutilação ou ao suicídio, racismo, homofobia, crimes contra a mulher e contra crianças, entre outros. Nesse caso, é necessário que haja falha sistêmica, ou seja, se o provedor deixar de adotar medidas adequadas de prevenção ou remoção dos conteúdos ilícitos.
De acordo com a decisão, enquanto o Congresso Nacional não editar nova lei sobre o tema, a plataforma será responsabilizada civilmente pelos danos decorrentes de conteúdos gerados por terceiros em casos de crimes em geral ou atos ilícitos se, após receber um pedido de retirada, deixar de remover o conteúdo. A regra também vale para os casos de contas denunciadas como falsas.
Assim, a tese de julgamento fixada pelo STF no RE 1.037.396 (Tema 987 da Repercussão Geral) e RE 1.057.258 (Tema 533 da Repercussão Geral) foi:
Reconhecimento da inconstitucionalidade parcial e progressiva do art. 19 do MCI
- O art. 19 da Lei nº 12.965/2014 (Marco Civil da Internet), que exige ordem judicial específica para a responsabilização civil de provedor de aplicações de internet por danos decorrentes de conteúdo gerado por terceiros, é parcialmente inconstitucional. Há um estado de omissão parcial que decorre do fato de que a regra geral do art. 19 não confere proteção suficiente a bens jurídicos constitucionais de alta relevância (proteção de direitos fundamentais e da democracia).
Interpretação do art. 19 do MCI
- Enquanto não sobrevier nova legislação, o art. 19 do MCI deve ser interpretado de forma que os provedores de aplicação de internet estão sujeitos à responsabilização civil, ressalvada a aplicação das disposições específicas da legislação eleitoral e os atos normativos expedidos pelo TSE.
- O provedor de aplicações de internet será responsabilizado civilmente, nos termos do art. 21 do MCI, pelos danos decorrentes de conteúdos gerados por terceiros em casos de crime ou atos ilícitos, sem prejuízo do dever de remoção do conteúdo. Aplica-se a mesma regra nos casos de contas denunciadas como inautênticas.
3.1. Nas hipóteses de crime contra a honra aplica-se o art. 19 do MCI, sem prejuízo da possibilidade de remoção por notificação extrajudicial.
3.2. Em se tratando de sucessivas replicações do fato ofensivo já reconhecido por decisão judicial, todos os provedores de redes sociais deverão remover as publicações com idênticos conteúdos, independentemente de novas decisões judiciais, a partir de notificação judicial ou extrajudicial.
Presunção de responsabilidade
- Fica estabelecida a presunção de responsabilidade dos provedores em caso de conteúdos ilícitos quando se tratar de (a) anúncios e impulsionamentos pagos; ou (b) rede artificial de distribuição (chatbot ou robôs). Nestas hipóteses, a responsabilização poderá se dar independentemente de notificação. Os provedores ficarão excluídos de responsabilidade se comprovarem que atuaram diligentemente e em tempo razoável para tornar indisponível o conteúdo.
Dever de cuidado em caso de circulação massiva de conteúdos ilícitos graves
- O provedor de aplicações de internet é responsável quando não promover a indisponibilização imediata de conteúdos que configurem as práticas de crimesograves previstas no seguinte rol taxativo: (a) condutas e atos antidemocráticos que se amoldem aos tipos previstos nos artigos 296, parágrafo único, 359-L, 359- M, 359-N, 359-P e 359-R do Código Penal; (b) crimes de terrorismo ou preparatórios de terrorismo, tipificados pela Lei nº 13.260/2016; (c) crimes de induzimento, instigação ou auxílio a suicídio ou a automutilação, nos termos do art. 122 do Código Penal; (d) incitação à discriminação em razão de raça, cor, etnia, religião, procedência nacional, sexualidade ou identidade de gênero (condutas homofóbicas e transfóbicas), passível de enquadramento nos arts. 20, 20-A, 20-B e 20-C da Lei nº 7.716, de 1989; (e) crimes praticados contra a mulher em razão da condição do sexo feminino, inclusive conteúdos que propagam ódio ou aversão às mulheres (Lei nº 11.340/06; Lei nº 10.446/02; Lei nº 14.192/21; CP, art. 141, § 3º; art. 146-A; art. 147, § 1º; art. 147-A; e art. 147-B do CP); (f) crimes sexuais contra pessoas vulneráveis, pornografia infantil e crimes graves contra crianças e adolescentes, nos termos dos arts. 217-A, 218, 218-A, 218-B, 218-C, do Código Penal e dos arts. 240, 241-A, 241-C, 241-D do Estatuto da Criança e do Adolescente; g) tráfico de pessoas (CP, art. 149-A).
5.1 A responsabilidade dos provedores de aplicações de internet prevista neste item diz respeito à configuração de falha sistêmica.
5.2 Considera-se falha sistêmica, imputável ao provedor de aplicações de internet, deixar de adotar adequadas medidas de prevenção ou remoção dos conteúdos ilícitos anteriormente listados, configurando violação ao dever de atuar de forma responsável, transparente e cautelosa.
5.3. Consideram-se adequadas as medidas que, conforme o estado da técnica, forneçam os níveis mais elevados de segurança para o tipo de atividade desempenhada pelo provedor.
5.4. A existência de conteúdo ilícito de forma isolada, atomizada, não é, por si só, suficiente para ensejar a aplicação da responsabilidade civil do presente item. Contudo, nesta hipótese, incidirá o regime de responsabilidade previsto no art. 21 do MCI.
5.5. Nas hipóteses previstas neste item, o responsável pela publicação do conteúdo removido pelo provedor de aplicações de internet poderá requerer judicialmente o seu restabelecimento, mediante demonstração da ausência de ilicitude. Ainda que o conteúdo seja restaurado por ordem judicial, não haverá imposição de indenização ao provedor.
Incidência do art. 19
- Aplica-se o art. 19 do MCI ao (a) provedor de serviços de e-mail; (b) provedor de aplicações cuja finalidade primordial seja a realização de reuniões fechadas por vídeo ou voz; (c) provedor de serviços de mensageria instantânea (também chamadas de provedores de serviços de mensageria privada), exclusivamente no que diz respeito às comunicações interpessoais, resguardadas pelo sigilo das comunicações (art. 5º, inciso XII, da CF/88).
Marketplaces
- Os provedores de aplicações de internet que funcionarem como marketplaces respondem civilmente de acordo com o Código de Defesa do Consumidor (Lei nº 8.078/90).
Deveres adicionais
- Os provedores de aplicações de internet deverão editar autorregulação que abranja, necessariamente, sistema de notificações, devido processo e relatórios anuais de transparência em relação a notificações extrajudiciais, anúncios e impulsionamentos.
- Deverão, igualmente, disponibilizar a usuários e a não usuários canais específicos de atendimento, preferencialmente eletrônicos, que sejam acessíveis e amplamente divulgados nas respectivas plataformas de maneira permanente.
- Tais regras deverão ser publicadas e revisadas periodicamente, de forma transparente e acessível ao público.
- Os provedores de aplicações de internet com atuação no Brasil devem constituir e manter sede e representante no país, cuja identificação e informações para contato deverão ser disponibilizadas e estar facilmente acessíveis nos respectivos sítios. Essa representação deve conferir ao representante, necessariamente pessoa jurídica com sede no país, plenos poderes para (a) responder perante as esferas administrativa e judicial; (b) prestar às autoridades competentes informações relativas ao funcionamento do provedor, às regras e aos procedimentos utilizados para moderação de conteúdo e para gestão das reclamações pelos sistemas internos; aos relatórios de transparência, monitoramento e gestão dos riscos sistêmicos; às regras para o perfilamento de usuários (quando for o caso), a veiculação de publicidade e o impulsionamento remunerado de conteúdos; (c) cumprir as determinações judiciais; e (d) responder e cumprir eventuais penalizações, multas e afetações financeiras em que o representado incorrer, especialmente por descumprimento de obrigações legais e judiciais.
Natureza da responsabilidade
- Não haverá responsabilidade objetiva na aplicação da tese aqui enunciada.
Apelo ao legislador
- Apela-se ao Congresso Nacional para que seja elaborada legislação capaz de sanar as deficiências do atual regime quanto à proteção de direitos fundamentais.
Modulação dos efeitos temporais
14. Para preservar a segurança jurídica, ficam modulados os efeitos da presente decisão, que somente se aplicará prospectivamente, ressalvadas decisões transitadas em julgado.