A responsabilidade civil de provedores de aplicação na balança

A responsabilidade civil de provedores de aplicação na balança

Quando plataformas de diferentes pesos desafiam a regulação, diferentes medidas são também necessárias

Em 2021, 90% das casas brasileiras possuíam acesso à internet[1] e estima-se que mais de 171 milhões de brasileiros utilizam alguma rede social[2]. Trata-se de um mercado importante para diversas plataformas digitais, que cresceu ainda mais nos últimos três anos, devido à pandemia de COVID-19 e ao aumento das modalidades de trabalho remoto ou híbrido em diversas cidades. O uso – e, por vezes, a dependência – que muitos brasileiros fazem da internet fomentou a circulação de notícias falsas e acompanhou a tendência mundial de organização de movimentos políticos por meio de redes sociais e aplicativos de mensagem instantânea. No Brasil, o maior exemplo desse fenômeno – e das possíveis consequências catastróficas da desinformação em massa – é a invasão aos prédios dos Três Poderes em Brasília, no dia 8 de janeiro de 2023.

Esse cenário aqueceu debates que já vinham circulando em diversos setores sociais e governamentais acerca da responsabilidade civil das plataformas digitais. Nas últimas semanas, alguns ministros do Supremo Tribunal Federal se manifestaram sobre a necessidade de maior regulação e responsabilização das redes sociais, tema que também tem sido debatido no Congresso Nacional a partir do PL 2630 ou “PL das Fake News” e que foi elencado como uma das preocupações do governo recentemente eleito para comandar o Poder Executivo, como expôs o presidente em carta endereçada à Audrey Azoulay, Diretora-Geral da UNESCO, e lida na conferência mundial “Para uma Internet Confiável” (Internet for Trust) no dia 22 de fevereiro de 2023[3].

Atualmente, as fronteiras da liberdade de expressão de usuários e da atuação de plataformas digitais são reguladas pela Lei nº 12.965/2014 – o Marco Civil da Internet (MCI). O ponto nevrálgico da discussão referida acima diz respeito ao artigo 19 do MCI, segundo o qual um provedor de aplicação de internet só pode ser responsabilizado por conteúdo gerado por terceiros “se, após ordem judicial específica, não tomar as providências para, no âmbito e nos limites técnicos do seu serviço e dentro do prazo assinalado, tornar indisponível o conteúdo apontado como infringente”. Ou seja, apenas os autores ou criadores de um conteúdo irregular respondem pela sua circulação; plataformas digitais só poderão ser responsabilizados por aquele conteúdo se descumprirem uma ordem judicial de remoção.

Essa abordagem não é exclusiva do Brasil. Nos Estados Unidos, a Section 230 do Communications and Decency Act, de 1996, exime plataformas de responsabilidade civil. Na União Europeia, plataformas só respondem se forem devidamente notificadas a respeito de um conteúdo irregular e não tomarem nenhuma providência para indisponibilizarem aquele conteúdo, conforme estabelece a Diretiva do Comércio Eletrônico desde junho de 2000.

Também por isso, os debates sobre maior responsabilização das plataformas não ocorrem apenas no Brasil. Nos Estados Unidos, há mais de 25 projetos de lei tramitando no Congresso com o objetivo de alterar a Section 230 e ampliar a responsabilidade das plataformas[4]. Já a União Europeia esteve debatendo nos últimos cinco anos o texto do Digital Services Act (DSA), que deve entrar em vigor em 2024. A “solução” proposta no DSA não foi a ampliação da responsabilidade civil das plataformas, mas, sim, o estabelecimento de mecanismos para conferir maior transparência às atividades de moderação de conteúdo (isto é, à aplicação dos termos de uso da plataforma e da legislação nas decisões sobre a manutenção, restrição ou remoção de um conteúdo de terceiros).

Observar esse movimento internacional é fundamental para enriquecer o debate brasileiro, especialmente diante das preocupações externadas por integrantes dos três poderes da República. Quaisquer iniciativas devem buscar um diálogo amplo com a sociedade civil, a fim de se alcançar uma solução robusta e que atenda, de forma efetiva, os problemas da desinformação.

No meio desse caminho, há, porém, alguns pontos de atenção. O primeiro é o julgamento do Recurso Extraordinário 1.037.396, referente ao Tema 987, no qual o Supremo Tribunal Federal deverá decidir se a exigência de descumprimento de ordem judicial determinando a exclusão de conteúdo como requisito para desencadear a responsabilidade civil de provedores de aplicações prevista no artigo 19 do MCI é constitucional ou não.

Isso porque, apesar de ter relação com a atuação de redes sociais e a circulação de notícias falsas, o artigo 19 é regra geral, que se aplica a todo provedor de aplicação, o que inclui apps de transporte, hospedagem, marketplaces e lojas de aplicativos, por exemplo. Essas aplicações envolvem conteúdos e atividades diversas daquelas encontradas em redes sociais. São aplicações de diferentes “pesos” que estão sujeitas a mesma “medida”, premissa que precisa ser considerada antes de qualquer alteração na regra geral.

Essa diferença é reconhecida no PL 2630, que propõe medidas diferentes que sejam adequadas ao “peso” das redes sociais e aplicativos de mensagem instantânea, sem alterar o artigo 19 do MCI. O texto substitutivo recentemente apresentado pelo Deputado Federal Orlando Silva apresenta pontos que convergem com a nova legislação europeia, em especial pela ênfase atribuída à transparência, e não à responsabilidade civil.

Apesar de não haver previsão de julgamento do Tema 987 pelo STF, no dia 3 de março último, os Ministros Dias Toffoli e Luiz Fux convocaram nova audiência pública conjunta, para o dia 28 de março de 2023, paraouvir o depoimento de experts sobre “o regime de responsabilidade de provedores de aplicativos ou de ferramentas de internet por conteúdo gerado pelos usuários” e “a possibilidade de remoção de conteúdos que possam ofender direitos de personalidade, incitar o ódio ou difundir notícias fraudulentas a partir de notificação extrajudicial”, no âmbito desse recurso e do RE nº 1.057.258/MG (Tema 533).

O desfecho de tais discussões, seja ele qual for, inevitavelmente afetará as bases do direito digital brasileiro e a forma como utilizamos diferentes plataformas digitais. Na pendência de respostas, há uma certeza: a tônica dada ao tema da responsabilidade das plataformas por tantas autoridades certamente estimulará novas ações judiciais e dará margem para que soluções para além do que determina o MCI sejam dadas pelo Poder Judiciário.


[1] https://www.gov.br/casacivil/pt-br/assuntos/noticias/2022/setembro/90-dos-lares-brasileiros-ja-tem-acesso-a-internet-no-brasil-aponta-pesquisa.

[2] https://datareportal.com/reports/digital-2022-brazil.

[3] https://www.gov.br/planalto/pt-br/acompanhe-o-planalto/noticias/2023/02/carta-do-presidente-da-republica-a-diretora-geral-da-unesco.

[4] KOSSEFF, Jeff. A user’s guide to section 230, and a legislator’s guide to amending it (or not). Berkeley Technology Law Journal, vol. 37, n. 2, Ago. 2022.

Referências

Artigo publicado pelo Jota.
Sou assinante
Sou assinante