STF retoma análise sobre responsabilização de redes por conteúdos de usuários
Por: Tiago Angelo
Fonte: Consultor Jurídico
O Plenário do Supremo Tribunal Federal retomou nesta quarta-feira (4/12) o
julgamento que discute a constitucionalidade do artigo 19 do Marco Civil da
Internet (Lei 12.965/2014) e a possibilidade de responsabilização de por
conteúdos de terceiros.
Na sessão desta quarta, Toffoli continuou seu voto, mas ainda não terminou de
votar
O ministro Dias Toffoli, relator de uma das ações em análise pela corte,
começou a votar na última quinta (28/11) e retomou o voto na sessão desta
quarta. Ele ainda não encerrou sua exposição, e o julgamento será retomado
nesta quinta-feira (5/12).
Toffoli disse considerar o artigo 19 inconstitucional. No entanto, ainda não é
possível dizer se ele declarará a inconstitucionalidade total do dispositivo ou se
optará por dar a ele interpretação conforme à Constituição, estabelecendo as
hipóteses de responsabilização das big techs.
O artigo 19 determina que as plataformas digitais e os provedores só podem ser
responsabilizados civilmente quando descumprem ordem judicial de retirada de
conteúdo apontado como “infringente”. Leia a seguir o conteúdo do
dispositivo:
Com o intuito de assegurar a liberdade de expressão e impedir a censura, o
provedor de aplicações de internet somente poderá ser responsabilizado
civilmente por danos decorrentes de conteúdo gerado por terceiros se, após
ordem judicial específica, não tomar as providências para, no âmbito e nos
limites técnicos do seu serviço e dentro do prazo assinalado, tornar indisponível
o conteúdo apontado como infringente, ressalvadas as disposições legais em
contrário.
O voto de Toffoli também indica que o ministro vai determinar a
responsabilização das plataformas nos termos do artigo 21 do Marco Civil, em
que ela passa a valer a partir da comunicação extrajudicial. O dispositivo, no
entanto, é restrito a casos de divulgação de conteúdo sexual.
No Recurso Extraordinário 1.037.396 (Tema 987 da repercussão geral, com
relatoria de Toffoli), é discutida a constitucionalidade do artigo 19 do Marco
Civil da Internet. Ele exige o descumprimento de ordem judicial de exclusão de
conteúdo para a responsabilização do provedor pelos danos decorrentes de atos
praticados por terceiros — ou seja, as publicações feitas por usuários. O caso
concreto é o de um perfil falso criado no Facebook.
Já no Recurso Extraordinário 1.057.258 (Tema 533 da repercussão geral, com
relatoria do ministro Luiz Fux), é discutida a responsabilidade de provedores de
aplicativos e ferramentas de internet pelo conteúdo publicado por usuários,
assim como a possibilidade de remoção de conteúdos ilícitos a partir de
notificações extrajudiciais. O caso trata de decisão que obrigou o Google a
apagar uma comunidade do Orkut.
Além dos dois casos de repercussão geral, está na agenda da corte um terceiro
processo, que está sob a relatoria do ministro Edson Fachin.
Na ADPF 403, os magistrados vão discutir se é possível o bloqueio de
aplicativos por decisões judiciais ou se a intervenção do Judiciário ofende os
direitos à liberdade de expressão e de comunicação.
Imunidade
Para Toffoli, o artigo 19 do Marco Civil da Internet imuniza as redes sociais e
plataformas como o Google ao estabelecer que a responsabilização só pode
ocorrer após o descumprimento de decisão judicial.
“Há uma imunidade total aos conteúdos e ao perfil falso enquanto não houver
uma decisão judicial. Consiste em verdadeira imunidade o privilégio de somente
ser chamado a responder por um dano quando e se descumprir ordem judicial
prévia e específica”, afirmou o ministro na sessão de quinta-feira passada.
Segundo ele, a punição só após a decisão descumprida cria distorções, como a
perpetração de ilegalidades durante o passar dos anos.
“Aquilo (conteúdos ilícitos) pode ficar por anos na internet sem nenhuma
reparação posterior. Porque a responsabilização pelo artigo 19 só surge se
descumprir decisão judicial. Se cumpre, não há responsabilidade. É disso que
se trata. O que é ilícito no mundo real é ilícito no mundo virtual. O direito incide
no mundo dos fatos, sejam eles fatos reais ou digitais. Seja na briga de botequim
ou na briga virtual.”
Inconstitucionalidade
Na sessão desta quarta, o ministro deixou claro que considera o artigo 19
inconstitucional.
“Parece-me evidente que o regime de responsabilidade por conteúdos de
terceiros previsto no Marco Civil da Internet é inconstitucional. Seja porque
desde a sua edição foi incapaz de fornecer proteção efetiva aos direitos
fundamentais, seja porque não está apto a fazer frente aos riscos sistêmicos que
surgiram a partir de novos modelos de negócio e do impacto nas relações
econômicas, sociais e culturais.”
O ministro também disse que vivemos em um “mundo de violência digital” e
que essa violência é acobertada pelas plataformas “enquanto não houver
descumprimento de decisão judicial”. Ele citou casos de atentados a escolas e
o ataque a bomba em frente ao Supremo, no mês passado.
“Todos esses eventos ou foram previamente anunciados nas redes sociais ou
em grupos públicos e canais abertos dos serviços de mensageria, sem que
nenhum desses serviços tomasse atitudes”, prosseguiu Toffoli.
Segundo o magistrado, o Brasil vige o regime da responsabilidade, ao passo que
o artigo 19 excluiu os provedores de responsabilização. Por fim, ele disse que
essas empresas não são neutras.
“Ao contrário, muitas adotam postura ativa e intencional ao gerir o fluxo
informacional de seus ecossistemas. Uma suposta neutralidade não pode
funcionar como escudo contra a responsabilização.”
O que diz o Facebook
Na sessão de quarta-feira passada (27/11), o advogado José Rollemberg Leite
Neto, sócio do escritório Eduardo Ferrão Advogados Associados, defendeu a
constitucionalidade do artigo 19 ao representar o Facebook.
De acordo com ele, não há inércia das plataformas para a supressão de
conteúdos ilícitos. Ele afirmou, por exemplo, que no ano passado 208 milhões
de postagens com pedofilia, violência e discurso de ódio foram removidas
globalmente pelo Facebook a partir de identificações feitas pela própria
plataforma.
Leite Neto também afirmou que a maioria dos processos do gênero trata não
da retirada de publicações, mas da reinclusão de material anteriormente
removido.
Ele pediu que, caso o Supremo não considere o artigo 19 integralmente
constitucional, seja dada interpretação conforme à Constituição determinando
que a retirada obrigatória de perfis e páginas só se dê em casos de exploração
sexual infantil, terrorismo, racismo, abolição violenta do Estado democrático
de Direito e golpe de Estado.
“Por que não mais do que isso? Porque conceitos abertos como ‘fake news’,
‘desinformação’, ‘crimes contra a honra’ e ‘postagens manifestamente ilegais’
incentivariam remoções excessivas e levariam a uma judicialização massiva.”
Por fim, questionado pelo ministro Luís Roberto Barroso, presidente da corte,
sobre o modo como a plataforma exclui perfis falsos, ele disse que em 98% dos
casos há a retirada automática após a comunicação feita por usuários da
plataforma.
O que diz o Google
Já o Google foi representado pelo advogado Eduardo Bastos Furtado de
Mendonça, que também apresentou na semana passada dados sobre a remoção
de conteúdos. Ele disse que em 2023 o YouTube (plataforma de vídeos da
empresa) removeu 1,6 milhão de publicações no Brasil por violações de
políticas da empresa, enquanto no mesmo período os casos judicializados
somaram 614 pedidos.
“Não existe uma inércia que seja parte do modelo de negócio das plataformas.
Nem haveria sentido que existisse. A maioria dos usuários e a generalidade dos
anunciantes repudia esses conteúdos (ilícitos). Não é proveitoso esse tipo de
conteúdo.” Os pedidos que chegam ao Judiciário, disse ele, são de fato casos
em que há controvérsias que merecem intervenção judicial.
Ainda segundo o advogado, “nenhum país democrático do mundo” adota um
modelo de responsabilidade objetiva, em que as plataformas são responsáveis
por todo e qualquer conteúdo de terceiros, ficando obrigadas a monitorar
publicações globalmente.
Ele citou modelos adotados na Europa, sustentando que o que existe lá são
normas que definem que há responsabilidade objetiva quando há
descumprimento de decisões, e que o marco para a responsabilização é a
notificação extrajudicial. No entanto, prosseguiu Mendonça, a
responsabilização só vale para casos específicos, e não para qualquer tipo de
conteúdo.
“No caso da lei alemã, a eventual responsabilização está relacionada à indicação
de ilicitudes específicas e tipos penais específicos, e o que se prevê é uma
responsabilidade pela falha sistêmica de responder adequadamente a essas
notificações.”
“Não faria sentido responsabilizar uma plataforma por não ter removido um
conteúdo cujo exame é polêmico e sujeito a valorações subjetivas, e que muitas
vezes é objeto de divisão no próprio Judiciário”, prosseguiu o advogado.
Ele também destacou que o artigo 21 do Marco Civil prevê a exclusão de
conteúdos após notificação extrajudicial, mas em casos específicos de nudez e
atos sexuais privados. Para Mendonça, em casos de crimes objetivos, as
plataformas identificam e apagam os conteúdos. O mesmo não deveria ser
aplicado em conceitos amplos como desinformação, disse ele.
RE 1.037.396
RE 1.057.258
ADPF 403