O sistema de notice and takedown vem sendo adotado por diversas legislações ao redor do mundo na tentativa de apaziguar os efeitos causados por fenômenos que, apesar de acontecerem na esfera online, possuem incidência na realidade física, ou seja, fora da Internet. Alguns exemplos desses fenômenos são a desinformação (como, por exemplo, notícias falsas a respeito da vacina contra a COVID-19, no ano de 2020), discursos xenofóbicos, racistas e homofóbicos, também conhecidos popularmente como discursos de ódio; conteúdos ilegais, como pornografia infantil ou apologia ao terrorismo e ao nazismo, entre outros.

Mas o que é o sistema de notice and takedown, como ele funciona na prática e por que está relacionado a esses fenômenos? Na prática, ele obriga que plataformas digitais de compartilhamento de conteúdo, os provedores de aplicação, como o Facebook, o Twitter e o Instagram, realizem a exclusão ou a moderação de conteúdo em suas redes a partir de uma mera notificação do usuário que se sente lesado pelo conteúdo. Este sistema, para além dos órgãos do Judiciário, delega a responsabilidade de monitoramento e de decisão de retirada de conteúdo para os provedores de aplicação.

De acordo com as suas premissas (que tem a sua tradução literal para o português como “sistema de aviso e retirada”), caso um conteúdo seja sinalizado como não aderente ao Código de Conduta e Termos de Uso de uma plataforma, ou, ainda, se enquadre em algum dos tipos penais existentes no país, será obrigação da plataforma, dentro de um período determinado de tempo, a remoção deste mesmo conteúdo, informando ao usuário que o publicou sobre os motivos que levaram a exclusão da postagem, realizada na rede.

Caso as plataformas não realizem a exclusão do conteúdo indevido dentro do prazo previsto em lei, elas estarão sujeitas a punições, como multa. Na Alemanha, que passou a adotar o sistema de notice and takedown através da NetzDG, o tempo para análise do conteúdo é de 7 dias. A NetzDG (“Netzwerkdurchsetzungsgesetz“ – NetzDG”, em tradução livre: “Lei de Aplicação na Internet”) é uma lei que foi lançada em 2017 e que confere um regime de responsabilidade objetivo às plataformas.

Em caso de violações aos termos da Lei, as empresas que prestam serviços de redes sociais podem ser multadas em até 50 milhões de euros, dependendo da gravidade da infração. Se o conteúdo não incidir nessas políticas próprias da plataforma, mas for identificado como ilegal de acordo com um dos 21 estatutos do código penal alemão relacionados à NetzDG (§ 1 III da NetzDG) ou qualquer outra lei regional específica, ele será restringido localmente. Alguns exemplos de conteúdos ilegais definidos pela NetzDG são discurso de ódio ou extremismo político, conteúdo terrorista ou inconstitucional, violência, difamação ou ofensas, conteúdo sexual, dentre outros.

O notice and takedown, portanto, coloca os provedores de aplicação no centro das atenções no que diz respeito à moderação de conteúdo. Alguns pontos positivos e favoráveis para a aplicação e o estabelecimento de um regime dessa natureza é a já mencionada responsabilização das plataformas por monitorar o que está sendo veiculado em seus canais de transmissão de conteúdo – e fiscalizar se o padrão estabelecido pelos seus Termos de Uso está sendo seguido, assim como prevenir que conteúdos ofensivos e potencialmente danosos ao interesse público tomem grandes proporções.

Já alguns pontos negativos ressaltados por parte da sociedade civil e Academia a respeito desse sistema seria o perigo de, por estarem sob a pressão de potencialmente sofrerem represálias caso o analisado conteúdo não seja excluído, as plataformas comecem a excluir conteúdos de forma automática, porém não reflexiva, ferindo, assim, o direito à liberdade de expressão (Keller, 2021). É o chamado “chilling effect”, ou efeito inibitório: conteúdos legais e legítimos começariam a ser excluídos para evitar responsabilidade das empresas, já que elas poderiam ser prejudicadas caso um conteúdo indevido continuasse no ar, mas não caso um conteúdo legal fosse removido. 

A Bill C-10, um projeto de lei canadense de 2021, sugeriu instituir um sistema de notice and takedown no país. De acordo com a proposta, o provedor teria apenas 24 horas para realizar a análise de um conteúdo. A chance de exclusão de algum conteúdo legal indevidamente seria muito maior, porque a plataforma não teria tempo hábil e considerável para a análise (Geist, 2021). Além disso, o sistema de notice and takedown, na forma como vem sendo adotado em alguns países, como a Alemanha, delegaria às plataformas o direito (e dever) de definir conteúdos passíveis de compartilhamento. Caso outros países adotem o mesmo sistema, ficará a cargo das próprias plataformas, veículos de conteúdo, a definição do que é conteúdo nocivo e o que consequentemente não pode ser veiculado na Internet.

Porém, esse argumento pode ser considerado frágil a partir da visão de que os Termos de Uso propostos pelas plataformas já realizam essa mesma definição do que pode ou não pode ser veiculado nos canais, assim como já o fazem alguns meios de comunicação tradicionais como a televisão, o rádio e o jornal. Apesar disso, fora do sistema de notice and takedown, as plataformas não são obrigadas a fiscalizar, sob pena de multa – essa é a crítica e o que levaria a um possível “tribunal privado de plataformas”, ou a um próprio chilling effect. Afinal, os provedores de aplicação são empresas privadas com uma finalidade muito transparente: a lucratividade econômica. Neste caso, faz parte do Estado zelar pelo interesse público e pelas instituições democráticas de Direito, assim como proteger os direitos fundamentais. Nada mais justo que instituições desse mesmo Estado participem da definição de conteúdo ameaçador, nocivo ou perigoso.

A vigilância também é um problema para países que adotam uma legislação com o notice and takedown como regra, já que muitas vezes esse sistema pressiona as plataformas para que monitorem e até reportem conteúdo ilegal para a polícia local (algo que também está previsto na NetzDG, no país alemão). As plataformas assumem, portanto, um papel de vigilância e punitivismo. Este tipo de sistema provoca um vigilantismo obscuro e perigoso para aqueles que estão presentes na Internet, afetando os direitos da pessoa humana e os próprios princípios de Manila sobre responsabilidade dos intermediários (2015) em relação à liberdade de expressão, à liberdade de associação e o direito à privacidade.

 

A Internet como um Espaço de Livre Expressão

 O problema quando se compara a Internet com mídias tradicionais mencionadas acima é que a Internet foi criada com o ideal de ser um local de livre expressão, onde todos (os usuários) teriam um pedaço, um espaço só seu naquele canal de expressão – diferentemente do que acontece na televisão, por exemplo, onde você precisa ser um apresentador de programa para proferir opiniões, ou uma grande empresa de publicidade para veicular comerciais caríssimos nos intervalos entre os programas já definidos por alguém que não faz parte do “público geral”. Como proferiu John Perry Barlow em 1996, em sua Declaração de Independência do Ciberespaço:

Eu declaro o espaço social global aquele que estamos construindo para ser naturalmente independente das tiranias que vocês tentam nos impor. (…) Estamos criando um mundo onde qualquer um em qualquer lugar poderá expressar suas opiniões, não importando quão singular, sem temer que seja coagido ao silêncio ou conformidade.

Na internet como a conhecemos hoje, o público geral é o próprio conteúdo, assumindo também a função de gerador de conteúdo. Todos têm um pedaço. A visão de que de repente alguém, fora do espaço do “grande público”, possa definir o que poderá ou não ser postado, pode parecer para alguns como a perda de um direito adquirido há muito tempo, quando a Internet era acessada através de máquinas de computadores que já não existem mais e linhas de conexão de telefonia. Infelizmente, em 1996 Barlow não poderia prever que os fenômenos já discutidos aqui teriam consequências drásticas para os modelos democráticos ao redor do mundo, como foi nas eleições americanas de 2018 com o escândalo da Cambridge Analytics, ou durante a pandemia de COVID-19 que perdurou durante os anos de 2020 e 2021, prejudicando a aderência às recomendações de organizações respeitáveis, como a OMS – Organização Mundial de Saúde.

 

A urgência da regulação de conteúdo na Internet

No Brasil, o Marco Civil da Internet define o regime de responsabilidade civil de conteúdos postados por terceiros em provedores de aplicação. No país, o regime de responsabilidade adotado é o de responsabilidade civil subjetiva. Atualmente, um provedor de conexão poderá excluir um conteúdo caso este:

  1. Não esteja de acordo com os seus Termos de Uso;
  2. Exista uma decisão judicial que obrigue a plataforma a remover esse conteúdo.

Porém, o provedor só poderá ser responsabilizado na segunda hipótese explicada aqui, qual seja, caso não remova um conteúdo a partir de uma ordem judicial. Os provedores não são obrigados, tecnicamente, a exercerem uma moderação de conteúdo “prévia” – mas eles podem realizá-la, e muitos já declaram que o fazem (TikTok, YouTube, Twitter…). Há exceções, levantadas pelo próprio Marco Civil da Internet, no art. 21, como conteúdo de nudez não consentida, por exemplo, no qual a plataforma poderá ser responsabilizada caso receba uma notificação de seu participante (ou representante legal) e não promova a retirada do conteúdo, independentemente de ordem judicial ser expedida. Porém, o Brasil, atualmente, não adota o sistema de notice and takedown como regra geral.

Atualmente, em âmbito legislativo, muito se tem discutido a respeito da modificação do regime codificado no Marco Civil da Internet – através de PLs como o PL 2630/2020, por exemplo. Nestas propostas de Lei, o artigo 19 do Marco Civil da Internet é modificado, ou no sentido de que um provedor de conexão não possa remover conteúdo de acordo com seus Termos de Uso, a favor de uma dita liberdade de expressão “plena”, como no PL 492/2021, ou a favor da adoção do sistema de notice and takedown com um tempo hábil de remoção de conteúdo de 24 horas após o recebimento de notificação judicial ou, ainda, do próprio usuário, visto como “prejudicado”, como aparece no PL 2602/2019.

A discussão acalorada acerca do sistema de responsabilidade civil (e em alguns países, como a Alemanha, responsabilidade também penal) existente no Estado brasileiro tem se expandido nos últimos anos. Esse fenômeno pode ser atribuído às enxurradas de fake news que acompanharam as medidas de prevenção ao contágio da COVID-19, quase como em forma de teoria de conspiração. Também, após as eleições brasileiras de 2018, a desinformação na Internet se tornou um assunto discutido em âmbito legislativo a partir da instauração da CPMI das Fake News, criada com o intuito de apurar e investigar a disseminação de notícias falsas durante o período eleitoral de 2018, a utilização de perfis falsos para influenciar os resultados das eleições 2018 e a prática de cyberbullying sobre os usuários mais vulneráveis, assim como o discurso de ódio e ataque a essas pessoas mais vulneráveis, como crianças e adolescentes.

Mais recentemente, e ainda em relação com política e saúde, o Twitter bloqueou a conta de usuário de alguns políticos que proferiram recomendações contrárias à OMS quanto à COVID-19 e à democracia nos Estados Unidos, sugerindo que a população não aceitasse os resultados das eleições americanas. Na Europa, conteúdos xenofóbicos contra imigrantes motivaram a discussão sobre a moderação de conteúdo e responsabilização por parte das plataformas do que é publicado nelas. Todos esses fenômenos, que aconteceram nos últimos 3 a 5 anos, motivaram o debate intenso a respeito de qual seria o mais benéfico modelo de moderação de conteúdo e responsabilização civil de plataformas, de acordo com o interesse público – como as audiências do STF sobre o regime de responsabilidade civil do Marco Civil da Internet, que está acontecendo durante esta semana no Brasil.

 

A Adoção do Sistema de Notice and Takedown pelo mundo

Alguns países que atualmente adotam o sistema de notice and takedown são a Alemanha, na Europa (o país pioneiro a aprovar uma legislação completamente voltada para o combate do discurso de ódio na Europa, a NetzDG, já mencionada anteriormente), e a Austrália (a partir do Acordo de Livre Comércio Austrália-Estados Unidos, de 2004 que introduziu alterações na lei de direitos autorais, do Criminal Code Amendment [Sharing of Abhorrent Violent Material], de 2019, e mais recentemente ampliados a partir do Online Safety Act de 2021). A União Europeia, ao aprovar o GDPR (The General Data Protection Regulation), em 2018, também adota o sistema de notice and takedown ao permitir que usuários enviem um formulário para que as plataformas excluam conteúdos que eles próprios publicaram.

Essa perspectiva do GDPR para o notice and takedown se encaixa num contexto diferente dos analisados anteriormente – no caso em questão, é o próprio usuário que solicita a exclusão de um conteúdo, não porque esse conteúdo é ilegal, mas pelo chamado “direito ao esquecimento”. Esse é um direito que o indivíduo possui para que um dado veiculado sobre a sua pessoa seja “esquecido”, deletado da plataforma.

Frequentemente o direito ao esquecimento está relacionado a fotos ou textos que uma pessoa publicou, no passado, mas que não quer mais que seja “eternizado” através da Internet, dados sobre um usuário que já faleceu, ou informações que um terceiro publicou sobre algum usuário sem o seu consentimento. As plataformas, no entanto, podem deixar de deletar esse dado se este for:

  1. Um conteúdo que precisa de veiculação em favor da liberdade de expressão, como uma notícia sobre um esquema de corrupção;
  2. Em razão do interesse público;
  3. O conteúdo é, legalmente, obrigado a continuar em veiculação.

Já nos Estados Unidos, onde a liberdade de expressão na Internet é garantida indiretamente pela Seção 230 do DMCA, que imuniza os provedores de aplicação da responsabilidade acerca de conteúdos postado por terceiros (conhecido como safe harbour para as plataformas), o sistema de notice and takedown está previsto quando se trata de proteção de direito autoral (copyright). Neste caso, o próprio detentor dos direitos terá que preencher um formulário (o notice) e enviar à companhia (geralmente as plataformas possuem um espaço específico em sua rede, website ou aplicativo para que a pessoa submeta a denúncia).

Porém, somente o detentor dos direitos autorais do conteúdo em questão terá a autoridade de pleitear a exclusão do conteúdo utilizado sem a sua autorização. Um exemplo prático do notice and takedown direcionado a direitos autorais (copyright) nos Estados Unidos é a exclusão de um vídeo publicado no YouTube, digamos, com a trilha sonora de fundo de algum artista famoso sem que este tenha fornecido a sua autorização para utilização. O autor do vídeo receberá um aviso informando que o conteúdo foi removido por infringir as leis de direitos autorais.

A conclusão é de que o debate acerca do regime que mais atende ao interesse público vem crescendo e se tornando pauta ao redor do mundo. O sistema de notice and takedown, como mencionado ao longo do texto, possui pontos positivos e negativos. No contexto brasileiro, a discussão não é tão simples quanto abolir ou não os artigos do Marco Civil da Internet para instaurar um outro regime de responsabilidade civil de conteúdos publicados por terceiros – como alguns PLs recentes se propõem a fazer. A adoção do sistema de notice and takedown em legislações na atualidade ainda é um tema polêmico e que provavelmente precisará de espaço para ser discutido em um ambiente multissetorial, além de ser observado a partir dos efeitos que já está trazendo aos países que o adotam.


Referências:

Declaração de Independencia do Ciberespaço John Perry Barlow Cidadania Digital Cibercidadania DHnet Direitos Humanos. Disponível em: <http://www.dhnet.org.br/ciber/textos/barlow.htm>. Acesso em: 28 mar. 2023.

GEIST, M. Picking Up Where Bill C-10 Left Off: The Canadian Government’s Non-Consultation on Online Harms Legislation – Michael Geist. Disponível em: <https://www.michaelgeist.ca/2021/07/onlineharmsnonconsult/>.

KELLER, D. Twitter. Disponível em: <https://twitter.com/daphnehk/status/1421119790941306881>. Acesso em: 28 mar. 2023.

RECOMENDADAS, P.; LIMITAR, P. Princípios de Manila Sobre Responsabilidade dos Intermediários. [s.l: s.n.]. Disponível em: <https://www.eff.org/files/2015/07/02/manila_principles_1.0_pt.pdf>. Acesso em: 28 mar. 2023.

Isabel Constant

Graduada em Cinema e Audiovisual pela UFPE e em Direito pela Unicap, tendo cursado parte do curso na Faculdade de Direito da Universidade do Porto, Portugal. Alumni da 3ª Edição da Diplomatura en Gobernanza de Internet (DiGi) e integrante do Youth Observatory (ISOC). Atualmente, também ocupa o cargo de Gerente de Inovação no Núcleo de Gestão do Porto Digital. No IP.rec, atua como pesquisadora na área de Responsabilidade Civil de Intermediários, também pesquisando sobre desinformação e regulação de plataformas.

Compartilhe

Posts relacionados