Publicado em: 6 de junho de 2024


Recentemente, veio a público uma notícia sobre um suposto vazamento de dados internos da Google que revelam informações sigilosas sobre o funcionamento do seu famoso site de buscas. Segundo a reportagem, os dados levam a crer que existem inconsistências em relação às declarações oficiais acerca do algoritmo de pesquisas da empresa. Sem querer entrar no mérito sobre autenticidade dessas informações, apesar da empresa ter confirmado que os documentos vazados são reais, a questão é que, em geral, pouco se sabe sobre o funcionamento dos algoritmos que permeiam as nossas vidas.

Desde a forma como resultados de buscas são apresentados aos usuários até a análise de currículos em vagas de emprego, falta transparência em relação à forma como grande parte das decisões  automatizadas são tomadas atualmente, tornando os algoritmos verdadeiras “caixas-pretas”[1] com capacidade altamente destrutiva para a sociedade[2]. Em meio a esse cenário de opacidade, as empresas normalmente argumentam que a divulgação dessas informações poderia expor o segredo de negócio de suas empresas, além de vulnerabilizar os seus sistemas a ataques de agentes externos, comprometendo a segurança e a inovação dos seus serviços e produtos. Da forma como é muitas vezes colocado pelo setor, o segredo de negócio se torna, portanto, um verdadeiro obstáculo à transparência algorítmica. 

Segundo Elisabeth Fekete, o segredo de negócio corresponde a informações confidenciais úteis à atividade empresarial, que possuem certo grau de originalidade, mas que não estão protegidas por patente. A autora destaca também que as informações devem possuir valor econômico, sendo transmissíveis ou alienáveis, e terem seu acesso restrito, a partir da adoção de medidas razoáveis, que tenham como objetivo mantê-las sob sigilo. Além disso, alerta sobre a importância dessas informações serem lícitas, já que não faria sentido proteger dados que porventura contrariem a lei.

O segredo de negócio se divide em duas espécies: o segredo industrial (informações técnicas, fórmulas, métodos de fabricação, etc) e o segredo comercial (lista de clientes, projetos de publicidade, estudos de mercado, softwares, dados de pesquisa, etc). Trata-se, nesse sentido, de um tipo de proteção menor em relação aos outros institutos tradicionais de propriedade intelectual, como patentes e direitos autorais, mas que não está sujeita aos custos de registro nem à obrigação de divulgação das informações, que acabam ficando, dessa forma, protegidas por tempo indeterminado[3].

Em que pese à concepção doutrinária, não há uma definição legal para o termo no ordenamento jurídico brasileiro[4]. O art. 195, XI, da Lei de Propriedade Industrial (LPI) trata da questão como crime de concorrência desleal, de modo que leva em consideração a utilidade, a não publicidade e a não obviedade da informação ou conhecimento para atrair a proteção da norma. No âmbito internacional, o Brasil é signatário do Acordo sobre Aspectos dos Direitos de Propriedade Intelectual Relacionados ao Comércio (TRIPS) desde 1994. Dessa forma, além dos requisitos citados acima, o art. 39 do TRIPS prevê critérios adicionais, como o sigilo da informação e do seu valor econômico residir no fato de ser mantida em segredo, bem como a necessidade de adoção de providências, por parte do titular, para garantir a manutenção de sua confidencialidade[5]

Na Lei Geral de Proteção de Dados (LGPD), também é possível encontrar várias menções à expressão ao longo do texto. De acordo com o art. 6°, VI, da lei, o princípio da transparência garante aos titulares o acesso a informações claras, precisas e facilmente acessíveis sobre o tratamento de dados pessoais, mas também assegura a proteção aos segredos de negócio das empresas. Essa proteção é inclusive reforçada nos artigos que tratam das atribuições da Autoridade Nacional de Proteção de Dados, que deverá, no exercício de suas competências, zelar pela observância dos segredos comercial e industrial.

Segundo Ana Frazão, em que pese a falta de uma delimitação legal para a expressão, que poderia gerar conflitos entre as obrigações de transparência e a garantia do segredo de negócio das empresas, a LGPD já oferece certas limitações que impedem o uso indiscriminado dessa proteção pelas empresas, especialmente a partir da garantia do direito à explicação e à revisão das decisões automatizadas, previstos no seu art. 20. A LPI inclusive, conforme a autora, também estabelece restrições ao segredo industrial e comercial, ao prever a possibilidade de divulgação dessas informações confidenciais no curso de processos judiciais, desde que corressem em segredo de justiça, conforme dispõe o art. 206 desta lei.

 Além disso, Frazão argumenta que a ANPD é competente, com base no §2º, do art. 20 da LGPD, para realizar auditorias sobre aspectos discriminatórios em tratamento automatizado de dados pessoais, quando a recusa de disponibilizar as informações for fundamentada no segredo comercial e industrial da empresa. Muito embora reconheça que isso talvez não seja suficiente para resolver completamente a questão, a autora ressalta também a importância da realização de auditorias externas independentes que poderiam assegurar maior confiabilidade sobre as informações disponibilizadas pelas empresas, bem como a necessidade de aprofundar a discussão sobre a questão da inversão do ônus da prova e da adoção da presunção relativa em casos complexos que envolvam interesses legítimos em conflito.

Nesse contexto, cumpre notar que o PL 2630/2020, que ficou popularmente conhecido como “PL das Fake News”, pretendia trazer também novos deveres de transparência para as grandes empresas de tecnologia. De acordo com o texto da proposta, os termos de uso dos provedores deveriam apresentar os parâmetros utilizados nos seus sistemas de recomendação de conteúdo e de publicidade direcionada, apresentando informações gerais sobre os algoritmos utilizados, os critérios que determinam a recomendação ou direcionamento de conteúdo ao usuário e opções alternativas de configurações aos usuários, fazendo ressalva quanto ao segredos comercial e industrial  das empresas (art. 21). 

Ademais, o projeto determinava o dever dos provedores de produzirem de relatórios semestrais de transparência claros e acessíveis, nos quais deveriam constar informações, por exemplo,  sobre os critérios, metodologias e métricas utilizados nos sistemas, o número de usuários ativos e perfis de uso, a quantidade de denúncias, notificações e procedimentos de moderação de conteúdos (art. 23). O projeto também estabelecia a necessidade de realização e publicação anual de uma auditoria externa e independente para avaliar o cumprimento da lei (art. 24), bem como estipulava que os provedores deveriam viabilizar o acesso gratuito de dados agregados para fins de pesquisa acadêmica (art. 25).

Na época em que o projeto ainda estava em discussão, essas obrigações não foram consideradas polêmicas, especialmente por parte grande do setor privado, que, em outros pontos, argumentava que a proposta obrigava a divulgação minuciosa de informações estratégicas sobre como seus sistemas funcionavam, afetando a utilidade e a segurança de seus serviços e produtos. A despeito da complexidade técnica que envolve os processos algorítmicos e da dificuldade traduzir fórmulas matemáticas em explicações claras e acessíveis, a divulgação de certas informações sobre o funcionamento dos sistemas algorítmicos pode, de fato, prejudicar a proteção contra agentes externos e limitar a capacidade de exploração econômica dos produtos e serviços desenvolvidos, prejudicando a inovação no setor. Contudo, a opacidade total sobre os sistemas pode, por outro lado, ser utilizada de maneira intencional para assegurar vantagens competitivas desleais, fazer com que empresas escapem da incidência das normas e de possíveis responsabilizações, bem como pode ocultar erros, inconsistências, métodos manipulativos e modelos antiéticos e discriminatórios. 

Sem transparência sobre como funcionam os algoritmos, não há como avaliar se eles realmente estão alinhados aos valores democráticos ou se estão em conformidade com a lei. No contexto da utilização de ferramentas de avaliação de riscos no sistema de justiça criminal dos EUA, Taylor Moore argumenta sobre os perigos que a proteção irrestrita aos algoritmos, com base no segredo de negócio, pode representar para o exercício de direitos fundamentais. O autor defende, nesse sentido, que é necessário desenvolver mecanismos de equilíbrio social, que possam compatibilizar os interesses em questão, mesmo que isso possa desestimular a inovação, uma vez que é contraproducente incentivar o desenvolvimento de uma tecnologia que tem o potencial de provocar mais discrimação.

Nesse sentido, especialistas argumentam que o atual cenário de opacidade pode ser, em certa medida, resultado da falta de regulação e de legislações obsoletas, que não conseguem endereçar o problema de maneira adequada. Dessa forma, um possível caminho seria investir em mais transparência a partir de regulamentação apropriada para equalizar os interesses em jogo. Nesse caso, Moore explica que é preciso fugir de respostas binárias, nas quais é preciso escolher entre o sigilo total ou transparência total das informações. Nessa  mesma linha, Pasquale ressalta a importância da realização de auditorias independentes que podem ser uma forma de mitigar esses problemas, sem que isso leve à divulgação de informações que podem ser sensíveis para os negócios das empresas.

A discussão, no entanto, está longe de ter uma resposta única e definitiva mesmo que se prossiga com a regulamentação da questão. A propósito, a própria transparência, defendida ao longo deste texto, não deve ser vista como um fim em si mesmo[6]. Ao contrário disso, deve ser entendida um meio para inteligibilidade, de modo que possamos compreender, no mínimo, os principais aspectos por trás das decisões automatizadas e tenhamos formas efetivas de contestar possíveis injustiças causadas pelo emprego de sistemas algorítmicos[7]. O mais importante, em suma, é fazer com que a inovação esteja a serviço do bem-estar social e não seja mais uma forma de perpetuar e reproduzir preconceitos e desigualdades.


[1] PASQUALE, Frank. The Black Box Society: the secret algorithms that control money and information. Cambridge, MA: Harvard University Press, 2015.

[2]O’NEIL, Cathy. Algoritmos de Destruição em massa: como o big data aumenta a desigualdade e ameaça a democracia. 1 ed. Santo André, SP: Editora Rua do Sabão, 2020.

[3]RAYMUNDI DOS SANTOS, Gabriela. A proteção dos segredos comercial e industrial na Lei Geral de Proteção de Dados. Trabalho de Conclusão de Curso (Graduação). Universidade Federal do Rio Grande do Sul. Faculdade de Direito. Curso de Ciências Jurídicas e Sociais. Porto Alegre, 2020.

[4] Ibidem.

 [5]Ibidem.

[6] PASQUALE, Frank. The Black Box Society: the secret algorithms that control money and information. Cambridge, MA: Harvard University Press, 2015.

[7]Ibidem.

Rhaiana Valois

Graduada em Direito pela Universidade Federal de Pernambuco (UFPE); participante do 41° Programa de Intercâmbio do Conselho Administrativo de Defesa Econômica (PinCade); ex-integrante do Laboratório de Design Jurídico da USP e da Comissão de Direito e Tecnologia da Informação (CDTI) da OAB/PE. No IP.rec, atua na área de Regulação de Plataformas Digitais.

Compartilhe

Posts relacionados