Vivemos uma época de novas estratégias e contra-ataques sociais nas dinâmicas de desinformação na rede. Enquanto isso, regulações imaturas podem por em risco o ecossistema de direitos sem solucionar, realmente, as fake news.

Contra-ataque, limites e escolhas de futuro.

Nas últimas semanas o movimento autointitulado sleeping giants vem promovendo algumas mudanças no campo da propagação de conteúdos publicitários em plataformas digitais que veiculam notícias falsas. O Sleeping Giants (bio: “Uma luta coletiva de cidadãos contra o financiamento do discurso de ódio e das Fake News!”) relaciona a disseminação das fake news – e de notícias em geral – com a publicidade que monetiza tanto as notícias quanto as plataformas nas quais as últimas se inserem. O movimento chega ao Brasil com proposta de combater o discurso de ódio e desinformação.

Como funciona? O sleeping giants, através do Twitter, denuncia às grandes marcas, a exemplo da Nike, Dell, MercadoLivre, entre outras, que suas propagandas estão sendo veiculadas em sites que também veiculam conteúdos com notícias falsas. Assim, um pedido “informal” é realizado: a retirada do anúncio publicitário desses sites. Como a maioria das plataformas e serviços online são financiados através de publicidade, os sites “auditados” perdem recurso financeiro e, consequentemente, a disseminação de notícias falsas é comprometida. A estratégia é bem simples: visa-se enfraquecer o próprio veículo e site que propaga as fake news num plano de combate mais amplo à desinformação. Assim, a lógica do movimento Sleeping Giants não é atacar, diretamente, quem produz a notícia falsa, muito menos o próprio sistema publicitário em si – na verdade, o plano é desmonetizar os canais digitais que veiculam desinformação em sentido amplo. 

O principal meio de atuação do movimento é o Twitter. De certa forma, a escolha desta plataforma específica é estratégica, já que as denúncias produzem mais efeito quando atingem primeiro nichos que possam reverberar as críticas: os próprios analistas de publicidade, responsáveis pela manutenção dos anúncios no ar; jornalistas e profissionais de mídia e comunicação em geral; perfis de políticos; influenciadores digitais, entre outros.

Fonte: Twitter @slpng_giants_pt. Repercussão: 73 comentários; 413 retuítes; 2.746 curtidas até 08 de Junho de 2020.

Como se localizam os movimentos de fiscalização independentes nos mercados de desinformação? O que acontece?

O diferencial deste movimento de combate à desinformação é justamente a informalidade do pedido que é realizado: um tweet de denúncia é lançado na rede, este tweet reverbera nos mais variados nichos digitais (jornalistas, veículos de comunicação, personalidades públicas), e, por fim – e mais importante – os tweets chegam aos próprios usuários da plataforma. Num sistema similar ao utilizado na propagação das próprias fake news em questão, então, os respectivos usuários da rede expandem o manifesto e acabam por retirar do ar (ou seria da rede?) o conteúdo falso. Aniquila-se, portanto, a monetização da plataforma.

Porém, é exatamente neste ponto que o movimento se depara com um problema controverso: atualmente, como os conteúdos online são regulados e/ou retirados do ar? Segundo o Marco Civil da Internet, as plataformas somente se tornam responsáveis juridicamente por um conteúdo a partir do momento em que descumprem uma ordem judicial – ou seja, o Poder Judiciário atribui uma responsabilidade civil subjetiva a estas plataformas (responsabilidade que é exercida em conjunto com o próprio Poder Público). A responsabilidade mútua implica, consequentemente, na necessidade de que não se tenha apenas um único ator ou detentor da decisão de exclusão ou permanência de conteúdos na Internet. Os intermediários também têm o papel de impor seus Termos de Serviço e Diretrizes da Comunidade – removendo, por exemplo, discursos de ódio, conteúdos racistas e supremacistas – como foi o caso recente, no Twitter, Facebook e Instagram, da exclusão de mensagens publicadas pelo político Jair Bolsonaro.

Sobre uma ideologia e “neo-pós-liberalismo” das plataformas.

A moderação de conteúdo, entretanto, é um assunto que precisa ser amplamente debatido já que abarca o direito à liberdade de expressão. Não há transparência suficiente no processo de moderação privada de conteúdo e, em muitos casos, o usuário não sabe quais foram os critérios utilizados no processo de moderação. Destaca-se, ainda, que os Termos de Uso de algumas plataformas comumente são elaborados com base nos valores culturais dos países do norte global, ou seja, consideravelmente diferentes de outras regiões. As singularidades e a diversidade de manifestação cultural de cada país precisam ser respeitadas também nos espaços intangíveis da Internet. A moderação do conteúdo de um local não deve ser realizada a partir de normas rígidas, aplicadas globalmente, a fim de evitar casos como o da remoção da imagem de um casal indígena no Facebook. Outros exemplos são censuras a publicação de grupos ativistas ou de conteúdos artísticos locais.

Ao mesmo tempo em que as plataformas precisam ser imputadas como empresas privadas, esta responsabilização não pode vir acompanhada de um bônus – isto é, um poder ilimitado. As plataformas precisam garantir que seus ambientes não sejam aptos a perpetuar discursos de ódio e conteúdos racistas e supremacistas, mas essa fiscalização precisa ocorrer de forma bilateral, com participação do Estado, sob o risco de a elas ter sido conferido demasiado poder de moderação. Uma condução ilimitada dessas corre o risco de se tornar, como exemplificado, forma de censura privada. Ademais, a função de defesa dos direitos, de promoção da justiça, de investigação, apuração e julgamento é própria aos órgãos do Poder Judiciário.

E, aqui, qual seria a problemática relacionada ao movimento Sleeping Giants – ou até mesmo a outros movimentos similares que, por acaso (mas nem tanto), venham a surgir daqui para frente? É que a prática utilizada pelo movimento, ainda que no intuito de “contra-atacar”, isto é, de combater a desinformação nas redes, se utiliza do mesmo poder de propagação das fake news – se o escândalo repercute, ou seja, se os tweets que denunciam os portais e empresas publicitárias vinculadas a notícias falsas são reproduzidos, é a própria pressão popular quem decide o que deve e o que não deve acontecer. A questão é que, em teoria, as instituições deveriam funcionar, o contrato social deveria ser seguido, e os direitos fundamentais sempre garantidos. Porém, não é o que acontece: observa-se a desinformação e as fake news afetando as escolhas dos representantes do povo, por exemplo, nas eleições públicas; afetando a segurança geral em meio a uma situação de crise sanitária – a exemplo da atual, provocada pela Covid-19; e, enfim, observa-se o poder que a desinformação vem adquirindo de espalhar informações incorretas e perigosas no campo, até, do próprio livre-arbítrio das pessoas (no cotidiano, na educação, em sair ou não sair de casa, na convivência social, na saúde mental, entre outros).

Estes são alguns dos fatores que estão ocasionando um boom, uma repercussão extrema ao movimento ciberativista Sleeping Giants. É que este se apropria das mesmas armas de seu inimigo. O movimento se utiliza do poder de propagação inerente às redes digitais, de uma “cultura do cancelamento” própria dessas, da não regulamentação, da decisão (e pressão pública) do senso comum que joga denúncias para o grande público repercutir (e decidir). Não é nenhuma novidade, porém, que a grande mídia tem o poder de influenciar a justiça – se um crime é bastante noticiado pelos jornais, a comoção pública cresce, o fato ganha destaque nos noticiários, é conduzido de forma mais cautelosa e, às vezes, a justiça e os direitos fundamentais são garantidos. Este é o cenário ideal? Não. Mas a grande mídia por vezes exerce tamanha influência? Sim.

Da urgência de uma regulação: PL das fake news

Entende-se, porém, que quando um movimento, ainda que informal, a exemplo do Sleeping Giants, é o único meio de assegurar a efetivação de direitos fundamentais, este pode ser defendido como solução para a minimização de problemas futuros. E se a desinformação, decorrente de tais problemas iniciais, acaba por atacar direitos fundamentais (nos cenários já citados das eleições, por exemplo, ou de crises sanitárias) e esses problemas futuros significam morte, aniquilação e cenários de guerra, parece simples – até razoável – defender um contra-ataque, sejam quais forem os meios. Através de um sistema de checagem de fatos – fact checking – uma notícia inverídica é identificada pelos ciberativistas e seus apoiadores indiretos são chamados a responder perante a grande plateia da internet… A partir daí, instrumentos de morte são evitados. Parece razoável? O problema, no entanto, é que as ferramentas podem ser utilizadas também pelo outro lado (o lado do discurso de ódio e da desinformação e propagação de fake news). Deve-se decidir, urgentemente, qual é o caminho de futuro a ser trilhado.

É importante, portanto, que o debate acerca da regulação das fake news venha à tona. O Brasil está num cenário onde 1) não há fiscalização ou regulação específica para esta prática (desinformação, promoção ou disseminação de fake news); e 2) a prática é capaz de ameaçar diversas instituições e direitos vigentes. Nos últimos dias, foi alvo de grande repercussão o PL das Fake News (PL 2630/20) em tramitação no Congresso Nacional. Apesar da tentativa concreta de regulação, o PL esbarra em questões como liberdade de expressão, violação de privacidade e criminalização de movimentos sociais e do jornalismo ao focar na disseminação individual de desinformação, ao invés de regular as grandes fábricas ou os grandes grupos de financiamento e distribuição de notícias falsas. Há uma grande vontade política de que se possa rastrear mensagens privadas para que seja possível chegar até o primeiro remetente de uma mensagem que contenha uma informação falsa, bem como identificar essas pessoas através do fornecimento do número do CPF para habilitação de uma linha telefônica pré-paga, por exemplo.

Além disso, já foi ventilada a possibilidade de se limitar o uso de pseudônimos em provedores de aplicação, o que impacta, por tabela, as pessoas trans que usam nome social e ainda não o tem registrado em documentos oficiais. Tais medidas implicam numa coleta massiva de dados pessoais dos usuários de Internet, o que vai totalmente de encontro às disposições da Lei Geral de Proteção de Dados. Por isso, o IP.rec é signatário da nota conjunta das organizações de direitos humanos sobre o PL, na qual manifesta preocupações acerca de seu conteúdo – conteúdo este potencialmente inibidor de liberdades e direitos vários – e solicita que os critérios de transparência sejam prezados em seus termos. Enfim, manifesta-se no sentido de que é necessário e extremamente urgente a criação de uma regulação que evite práticas de desinformação nas redes, mas que esta seja garantidora de direitos fundamentais. 

Finalmente, qualquer eventual regulação sobre desinformação deve ser realizada de forma segura, de modo a salvaguardar – e não ameaçar – direitos. Portanto, é preciso cautela nos diagnósticos e soluções. A estratégia utilizada pelo movimento Sleeping Giants foi similar àquela posta na disseminação de notícias falsas entre o grande público. Em outra esfera, a moderação de conteúdo pelas plataformas foi alvo de críticas de censura pela não observância da cultura local de algumas regiões. São questões complexas que devem ser levadas em consideração na formulação de políticas públicas. 

Isabel Constant

Graduada em Cinema e Audiovisual pela UFPE e em Direito pela Unicap, tendo cursado parte do curso na Faculdade de Direito da Universidade do Porto, Portugal. Alumni da 3ª Edição da Diplomatura en Gobernanza de Internet (DiGi) e integrante do Youth Observatory (ISOC). Atualmente, também ocupa o cargo de Gerente de Inovação no Núcleo de Gestão do Porto Digital. No IP.rec, atua como pesquisadora na área de Responsabilidade Civil de Intermediários, também pesquisando sobre desinformação e regulação de plataformas.

Compartilhe

Posts relacionados