O IP.rec, através do projeto “Responsabilidade Civil de Intermediários Tecnológicos” entrevistou atores de diversos setores (academia, empresas, sociedade civil e governo) com o objetivo de apresentar um panorama em série do debate multissetorial sobre a responsabilidade de intermediários (relativa a diversos danos).

Esta série de entrevistas está sendo publicada como material orientador das pesquisas no Brasil, que apresentam, de forma comparada, diferenças e sinergias no tratamento da matéria. O objetivo central aqui é ampliar o diálogo entre atores, além de trazer um material de consulta importante para os pesquisadores localizados no Brasil e, especificamente, no nordeste brasileiro.

A sexta entrevistada desta série é Rebeca Garcia, Public Policy Manager da Meta no Brasil. É Ph.D em Direito Comercial pela Universidade de São Paulo (USP) e mestra em Direito Civil pela Universidade do Estado do Rio de Janeiro.

1. O paradigma geral de (não) responsabilização ou condicionamento da responsabilização a casos específicos (EUA, Brasil) é suficiente ainda ou precisa ser revisado?

Modelos de responsabilização como o do Marco Civil da Internet representam um ponto de equilíbrio, uma escolha legislativa de proporcionalidade fruto de discussão multissetorial que evidenciou o potencial nocivo que um paradigma de responsabilização por todo e qualquer conteúdo de terceiro traria à liberdade de expressão e aos direitos humanos (provedores teriam incentivos para ampla remoção de conteúdo online).

O modelo do Marco Civil não é de imunidade, mas de responsabilidade – a partir do descumprimento de ordem judicial de indisponibilidade de conteúdo gerado por terceiro. Não à toa, esse arranjo desempenhou e continua a desempenhar papel importante para a internet e a inovação no Brasil. Continua a ser reconhecido como uma abordagem moderna que equilibra direitos e responsabilidades, promovendo a liberdade de expressão, ao mesmo tempo oferecendo mecanismos de responsabilização. É, portanto, um modelo a ser preservado. Como recomenda o decálogo construído colaborativamente pelo capítulo brasleiro da Internet Society, a “manutenção do modelo de Responsabilidade Civil de Intermediários brasileiro, previsto na Lei 12.965/2014, garante princípios e valores alinhados às propriedades críticas da estruturação e do funcionamento da Internet.”

Isso não significa que não há espaço para discussões regulatórias, ou que esse paradigma seja capaz de dar conta de todos os desafios no campo da internet. Mas qualquer nova regulação ou aperfeiçoamento regulatório nesse campo, especialmente em relação à governança de conteúdo e liberdade de expressão, deveria observar princípios como os estabelecidos no Marco Civil, além de priorizar uma abordagem mais procedimental que busque equilibrar liberdade de expressão e redução da prevalência de conteúdo nocivo, ao mesmo tempo mantendo espaço para inovação. Por exemplo, determinando a adoção de sistemas e processos adequados (que poderiam ser proporcionais ao tamanho da plataforma), em vez de simplesmente responsabilizar intermediários por conteúdos de terceiros. E qualquer nova discussão deve envolver um esforço multissetorial, em debate aberto e aprofundado.

2. Qual a sua visão sobre cenários recentes de responsabilidade civil, com a modificação de legislações para aumento de responsabilização de intermediários (Índia, Alemanha, Espanha e México)?

Como indicado anteriormente, abordagens que se limitam a ampliar a responsabilização civil de intermediários tendem a gerar efeitos nocivos à liberdade de expressão e a uma internet que se deseja aberta, diversa, plural, de escala mundial. Isso porque criam incentivos à remoção de conteúdo online, como censura, distanciando-se de padrões internacionais de direitos humanos. É nessa linha que esse tipo de cenário vem sendo objeto de preocupação e crítica externalizada pelos mais diversos atores.

3. Há uma grande discussão atualmente sobre o DSA, que deve modificar a regulação das plataformas na União Europeia para promover um ambiente online mais seguro. Há propostas ou expectativas para modificar também o regime de responsabilização destas plataformas em algum nível, especialmente no que se refere a conteúdo gerado por terceiros? Como isso vem sendo tratado pelos diversos stakeholders?  

O DSA pretende fortalecer o mercado de serviços digitais na União Europeia e trazer clareza sobre o papel das plataformas online para tornar a Internet mais segura – objetivos importantes. Parece positivo estabelecer uma estrutura legal equilibrada que permita às plataformas enfrentar o problema de manter a segurança da Internet e fazer sua parte na criação de um ambiente online mais saudável, ao mesmo tempo salvaguardando a liberdade de expressão.

A Internet mudou significativamente desde a adoção, há duas décadas, da Diretiva europeia de comércio eletrônico, sob a qual muitos serviços inovadores floresceram. E é razoável que haja espaço para aperfeiçoamento regulatório. A Meta tem, assim como diversos outros atores, participado dos debates em torno da formulação do DSA, que pode ajudar a UE a ser mais competitiva em inovação e no mercado digital.

É importante que a estrutura regulatória a ser desenhada permita aos diversos atores do ecossistema digital fazer mais para remover conteúdos nocivos e ajudar a fomentar a confiança dos cidadãos nos serviços digitais. Intermediários online, detentores de direitos, usuários, governo, agentes de aplicação da lei, todos devem agir de maneira responsável e aprimorar a segurança e a confiança na economia digital. O DSA deve ter como objetivo tornar claros os papéis dos diferentes atores online e incentivar a adoção de sistemas e processos adequados, com mecanismos de transparência, para as plataformas combaterem conteúdos nocivos.

Quanto ao regime de responsabilidade, é positivo que a proposta de DSA tenha reafirmado princípios-chave da Diretiva europeia de comércio eletrônico, como o de responsabilidade limitada de serviços de hospedagem e a vedação a um dever de monitoramento. Qualquer regulação nesse campo deveria reconhecer a necessidade de equilibrar a remoção de conteúdo com a proteção da liberdade de expressão e outros direitos fundamentais. Conteúdo nocivo é muitas vezes uma questão contextual, que pode ser culturalmente subjetiva, de difícil definição e juridicamente ambígua – não deveria, assim, fazer parte do regime de responsabilidade. Ao mesmo tempo, é desejável para a sociedade que os intermediários possam moderar conteúdo legal, mas potencialmente nocivo, de acordo com suas políticas claras. Nem todo conteúdo é ou deve ser adequado para todas as diversas plataformas e comunidades.

4. Como você vê o papel de eventos políticos (banimento POTUS, etiquetagem de postagens como falsas) na modificação dos modelos de responsabilidade civil de intermediários?

É importante observar a importância de medidas como o uso de rótulos informativos – não apenas em publicações verificadas e classificadas como falsas por agências independentes de checagem, mas também, por exemplo, o uso de rótulo em postagens que tratam de eleições, direcionando as pessoas a uma página do site da Justiça Eleitoral com informações sobre o processo eleitoral. É também importante reconhecer a possibilidade de plataformas estabelecerem e aplicarem suas regras claras de moderação para manter suas comunidades seguras, ao mesmo tempo em que respeitando padrões de direitos humanos.

Medidas como essas não devem fazer mudar o quadro de responsabilidade civil de intermediários – que, como visto acima, é um quadro equilibrado, contemplando ao mesmo tempo liberdade de expressão, segurança e inovação. Caso contrário, haverá distorções e desequilíbrios, como o incentivo a que provedores deixem de implementar medidas informativas (como rótulos) ou deixem permanecer abusos como discurso de ódio, bullying, assédio, entre outros, para não correr o risco generalizado da responsabilização.

Ainda, eventos como a suspensão da conta de um chefe de estado podem abrir espaço para mudanças importantes e efetivas, fazendo-se avançar em transparência e accountability sem ter de alterar o quadro de responsabilidade de intermediários. Nesse sentido, o Comitê de Supervisão manteve a suspensão das contas do ex-presidente Donald Trump no Facebook e no Instagram, mas criticou a natureza indefinida da suspensão e formulou diversas recomendações para aperfeiçoar políticas e processos. Em resposta a essas recomendações, o Facebook anunciou novos protocolos de aplicação de políticas em casos excepcionais como esse.

As empresas têm e devem continuar a ter liberdade para definir como seus serviços funcionam, como reconhece a Constituição e o Marco Civil da Internet. A definição e a aplicação de regras privadas deve ser respeitada e mesmo estimulada – pois, além de ter respaldo constitucional e legal, destinam-se a manter serviços e pessoas seguros, a observar outros direitos como segurança, dignidade e privacidade, e ajudam mesmo a viabilizar a expressão das pessoas.

Isso não significa que os provedores de aplicações de internet possam agir arbitrariamente. Os provedores devem continuar, em respeito à Constituição, livres para prever e aplicar suas regras, mas devem dar transparência às pessoas – por exemplo: disponibilizar suas políticas e termos de serviço de maneira clara e acessível; publicar relatórios de transparência periódicos sobre sua aplicação; permitir que as pessoas denunciem contas e conteúdos que considerem violadores, e que solicitem revisão caso discordem da decisão. Transparência é algo fundamental para a Meta – é algo que se reflete em suas políticas, práticas e ferramentas, como o Centro de Transparência lançado em maio de 2021 para reunir informações num só lugar: informações como políticas, como elas são desenvolvidas, atualizadas, aplicadas; relatórios periódicos de transparência, como o Relatório de Aplicação de Padrões da Comunidade da Meta.

5. O multissetorialismo nos processos de discussão seria suficiente para garantir uma eficácia e eficiência das normas que pretendem reformar o marco de responsabilidades no Brasil (ex: reforma do Código Eleitoral, Fake News e etc)?

O multissetorialismo é essencial para qualquer discussão que pretenda alterar ou aperfeiçoar o marco de responsabilidades no Brasil – e mesmo, de maneira mais geral, para discussões que pretendam regulatórias no campo da internet, dada sua natureza aberta e plural.

Alguns desafios em particular tornam o multissetorialismo ainda mais importante. É o caso, por exemplo, do fenômeno da desinformação. Abordar efetivamente a desinformação em um nível sistêmico requer uma combinação de abordagens e colaboração entre setor privado, reguladores, sociedade civil, verificadores de fatos, academia, instituições de ensino, entre outros. Isso pode significar ter um equilíbrio entre regulação para lidar com conteúdo nocivo ilegal e intervenções de co- ou auto-regulação (como o código de conduta da UE sobre desinformação), para abordar questões como programas de educação digital, ou como lidar com conteúdo que é legal e potencialmente nocivo. Esse desenho permitiria maior flexibilidade para rapidamente se adaptar a desafios e contextos em constante mudança, servindo ainda de fórum permanente para o diálogo entre as diversas partes interessadas à medida que o ecossistema digital evolui.

Institucional

Compartilhe

Posts relacionados