Ilustração: Caio Borges

No último dia 16 de maio, o Center for Internet and Society da Stanford Law School lançou uma importante ferramenta para quem pesquisa ou quer entender a dinâmica da liberdade de expressão na Internet. O World Intermediary Liability Map (WILMap), projeto que esteve sob minha responsabilidade nos últimos dois anos, reúne decisões, legislação e projetos de lei que influem na responsabilidade jurídica dos intermediários de internet, ou seja, as normas que regulam plataformas como mecanismos de busca, redes sociais, nossos provedores de conexão, ou até mesmo blogs e sites que aceitam comentários pelo conteúdo que é postado na rede pelos seus usuários.

Estas normas são fundamentais para a liberdade de expressão, pois determinam os riscos e incentivos que as plataformas correm por manter ou obstruir acesso à qualquer informação, bem como os procedimentos que governam a retirada de conteúdo da rede.

Apesar de terem alguma uniformidade, estas normas podem variar amplamente de país para país e, dentro de cada país, dependendo do tema abordado (direitos autorais, pornografia infantil, violação do direito à imagem, etc.), ou mesmo do tipo de intermediário envolvido (provedor de conexão, mecanismo de busca, serviço de hospedagem, etc.). Daí a importância de uma ferramenta que ofereça uma visão geral sobre o tema e auxilie na busca de um delicado equilíbrio regulatório.

No Brasil, a principal regra sobre o tema é o Marco Civil da Internet, que estabelece como regra geral que as plataformas somente poderão ser responsabilizadas pelo conteúdo de terceiros se não tomarem providências após uma ordem judicial específica apontando que determinado conteúdo é infringente. No Brasil, um provedor de conexão jamais será considerado responsável pelo conteúdo que circula em suas redes.

A remoção após ordem judicial representa uma das várias opções ou modelos de regulação dos intermediários. Outros países determinam que certos conteúdos infringentes devem ser removidos mediante uma simples notificação. Este modelo, batizado de notice-and-takedown (notificação e retirada), é utilizado pelos EUA nos casos de violação de direitos autorais – regulados pelo Digital Millennium Copyright Act – e, de maneira geral, pela União Europeia – conforme sua Diretiva de Comércio Eletrônico. Críticos desse modelo apontam, que as plataformas muitas vezes acabam removendo conteúdos perfeitamente legais para evitar o risco de arcar com pesadas indenizações. Sobre este tema, há diversos estudos empíricos.

Outros países determinam que, uma vez notificado, o intermediário deve encaminhar a notificação recebida para o seu usuário (o autor do conteúdo ou o usuário que está cometendo alguma infração, como o download de conteúdos protegidos por direito autoral). Esse regime, conhecido como notice-and-notice, foi adotado no Canada para tratar de violações de direito autoral.

Em um extremo deste debate, existem regras que oferecem ampla blindagem aos intermediários por conta de conteúdos como ofensas à honra, sequer demandando que tal conteúdo seja removido, como no caso dos EUA, na seção 230 do Communications Decency Act. No outro, alguns países estabelecem a obrigação de que o intermediário aja proativamente na remoção de conteúdo, como no caso de recente lei aprovada na Venezuela.

Para além desses modelos gerais, entretanto, muita coisa vem ocorrendo no universo da regulação. Entidades de interesse público clamam por maior transparência das plataformas na remoção de conteúdo baseada nos termos de uso (o contrato que rege a relação entre a plataforma e seus usuários). Isso porque alguns países têm utilizado este caminho para pressionar as plataformas a adotarem certos códigos de conduta ou mecanismos de auto-regulação que permitam a remoção de conteúdos que consideram inadequados, como no caso do discurso de ódio na Europa, ou do combate à discriminação e à pornografia infantil no Brasil.

Se, por um lado, as remoções baseadas nos termos de uso são essenciais para assegurar uma experiência adequada aos usuários (removendo SPAM ou pornografia em plataformas que aceitam menores de idade), este poder na mão dos intermediários também gera questionamentos, especialmente quando um usuário tem a percepção de que sua liberdade de expressão foi restringida indevidamente ou em temas sobre os quais há alguma divergência na sociedade (como no caso de amamentação de bebês pelas mães, que não raras vezes expõem o seio materno). Em resposta a esse tipo de crítica, o Facebook recentemente tornou públicas pela primeira vez as suas diretrizes para o enforcement de seus “community standards.

O avanço da tecnologia tem permitido às plataformas identificar certos conteúdos de maneira automatizada. Isso tem levado os detentores de direito autoral a clamar pelo uso da tecnologia para assegurar o enforcement automatizado de direitos autorais, advogando por uma espécie de notice-and-staydown, ou seja, por um regime que permita uma única notificação e a remoção permanente de certos conteúdos das plataformas. A medida equivaleria, de certa forma, a criar uma obrigação de monitoramento do conteúdo dos usuários pela plataforma, gerando críticas e reações de intermediários e de entidades de interesse público.

Esta multiplicidade de possibilidades regulatórias ganha ainda mais complexidade quando cada um de seus detalhes é desenvolvido pelos tribunais. Ou quando a lei confere poderes a autoridades administrativas para apontar conteúdos infringentes ou para determinar altas penas para empresas que não removem certos conteúdos.

Todos estes são temas centrais para discussões como o direito ao esquecimento, o combate as notícias falsas, entre outras que, sem um approach equilibrado, podem custar caro à liberdade de expressão. São temas que ficarão para minhas próximas colunas, mas que podem desde já ser explorados na base de dados do WILMap.