O Supremo Tribunal Federal (STF) definiu para o dia 27 de novembro o julgamento de três importantes ações que abordam a responsabilidade das plataformas de internet na remoção de conteúdos relacionados à desinformação e ao discurso de ódio.
Esses processos buscam determinar se provedores de internet devem, de forma extrajudicial, remover esses tipos de conteúdos por determinação expressa da Justiça.
A data foi confirmada nesta quarta-feira (16) pelo presidente do STF, ministro Luís Roberto Barroso, responsável por organizar a pauta de julgamentos do plenário.
A análise das ações vai ser feita pelos ministros Luiz Fux, Edson Fachin e Dias Toffoli, que já haviam liberado os processos para julgamento desde agosto deste ano.
Ações da regulamentação a serem julgadas
Uma das ações a ser analisada, relatada pelo ministro Luiz Fux, debate se empresas que hospedam sites na internet são obrigadas a fiscalizar e remover conteúdos considerados ofensivos sem a necessidade de uma intervenção judicial.
Outro processo, na relatoria do ministro Edson Fachin, discute a legalidade do bloqueio do aplicativo de mensagens WhatsApp por meio de decisões judiciais.
Essa questão ganhou destaque após uma série de bloqueios temporários ao aplicativo no Brasil em anos anteriores, o que gerou amplos debates sobre a proporcionalidade e as consequências dessas medidas para milhões de usuários.
Em ambos os casos, o foco está em discutir as regras do Marco Civil da Internet, que estabelece princípios, garantias e deveres para o uso da internet no Brasil.
No ano passado, o STF organizou uma audiência pública para ouvir especialistas e representantes da sociedade civil sobre as questões técnicas, econômicas e jurídicas relacionadas à regulamentação das redes sociais.
O que esperar do julgamento?
Se a Corte decidir por impor maior responsabilidade às plataformas, isso pode implicar em mudanças significativas na forma como as empresas de tecnologia operam no Brasil, inclusive a necessidade de maior vigilância sobre o que for publicado em seus serviços.
Por outro lado, uma decisão que favoreça as plataformas poderia manter as atuais diretrizes de moderação, onde a remoção de conteúdos ofensivos depende diretamente de ordens judiciais.