Crônica de ponto de partida:

Gostaria de iniciar esse texto com uma crônica que aconteceu comigo em 2022. Conforme ia lendo materiais que embasassem a reflexão aqui proponho, lembrei dessa situação. Inicio dessa forma fruto da minha bagagem nas Ciências Sociais, sobretudo na Antropologia, que destaca a necessidade de informar de onde falamos e de se colocar no texto. 

Aqueles que gostam de cinema têm a sua disposição um aplicativo chamado Letterboxd, uma rede social em que você pode registrar os filmes que você assiste, avaliá-los, fazer críticas, seguir outros usuários, entre outras funcionalidades. Em determinado momento de 2021, no alto da minha cinefilia, resolvi assinar a modalidade “pro”, para ter acesso a todos os benefícios. Tudo ia bem e tive acesso ao que queria. 

No ano seguinte, observei uma cobrança no meu cartão de crédito que não havia reconhecido e logo pensei: “Meu Deus de onde foi isso?”; “será que meu cartão foi clonado?”. Em seguida, recebi um e-mail da plataforma avisando que a inscrição foi renovada por mais um ano. Mas eu havia sido notificado dessa renovação? Conforme vi no e-mail, não havia nenhuma sinalização de que a inscrição estava terminando. Fiquei um pouco irritado e incomodado com a dívida não prevista, mas segui em frente.

Com essa crônica, estamos aqui falando de um esquecimento por minha parte, ou de plataformas e aplicativos construídos para se aproveitar – inclusive da falta de memória do cliente, que buscam manipular o usuário em seus designs? Nessa pequena história, esses dois lados estão relacionados. Aqui buscaremos justamente abordar sobre como precisamos estar mais atentos aos aspectos de design de plataformas pelos impactos sociais que elas podem vir a ter nos seus direitos. Esse interesse antigo por minha parte reacendeu na RightsCon de 2022, na trilha de Human Rights Centered Design, também com os debates sobre regulação de plataformas, por meio do PL 2630/2020, assim como por ingressar em uma pós-graduação sobre Design de Interação. Longe de trazer soluções, venho aqui trazer alguns pensamentos sobre o tema.

 

Sobre o Design de Interação

Quando falamos de design de interação, para o presente texto, utilizaremos a conceituação da Interaction Design Foundation  (IxDF), que expressa:

Design de Interação é o design de produtos e serviços interativos no qual o foco do designer vai além do item em desenvolvimento para incluir as formas que o usuário vai interagir. Assim, o exame minucioso da necessidade dos usuários, limitações e contextos, etc. empodera designers para customizar resultados para atender demandas específicas. 

Nessa direção de entendimentos sobre o campo, Jennifer Preece em Design de Interação: Além da interação homem-computador, ainda acrescenta que, ao campo, cabe a criação de experiências para melhorar e ampliar a maneira como as pessoas se comunicam, trabalham e interagem. Traz enquanto preocupação construir produtos centrados no usuário, que coloca, segundo Don Norman em O Design do Dia-a-Dia, a necessidade, capacidade e comportamento humano em primeiro lugar.

Esses entendimentos refletem sobre o papel do designer. No campo teórico, esse seria o profissional responsável por criar uma interação entre o sistema e o usuário, no melhor interesse daquele que utiliza o produto. 

Na prática, no entanto,  designers também foram responsáveis pela manipulação de comportamentos dos usuários. Exemplos podem ser citados, como a utilização de cores para evocar sentimentos ou estudos psicológicos sobre comportamento humano. Observou-se na mesma esteira que diversos sites foram construídos não para permitir a realização de tarefas, mas sim para persuadir e influenciar quem acessava. Nesse ponto, entra com maior gama de problemas o debate acerca de deceptive patterns.

Ademais, precisamos entender que, na construção desses produtos, designers têm um papel relevante em outros aspectos negativos. A forma como funcionalidades são criadas pode desencadear efeitos não intencionais. Assim, buscarei mais à frente debater sobre o papel de affordances no design de interação. 

 

Sobre a manipulação: Deceptive Patterns

A anedota que abre o texto é um caso de deceptive patterns. Este é o termo para práticas de design utilizadas para manipular e/ou enganar o usuário, de modo que ele realize alguma tarefa não desejada por ele inicialmente. No caso em específico da história, tratou-se de uma continuidade forçada (forced continuity), que ocorre, principalmente, quando a pessoa solicita períodos de testes em serviços no qual é necessário cadastrar um cartão de crédito. Este, por sua vez, no final do período de teste, é cobrado, sem que o usuário seja lembrado, causando reações similares às que eu tive.

Além dessa, várias outras são documentadas. O termo deceptive patterns foi cunhado por Harry Brignull, que hoje coordena um projeto de mesmo nome, dedicado a catalogar os tipos, casos no qual empresas foram condenadas pelo uso e leis legislam deceptive patterns. O projeto identificou ao menos quinze tipos de padrões enganosos, que vão desde publicidade disfarçada à interferência visual. 

Um caso clássico é da plataforma Udemy, que utiliza de falsa urgência – uma promoção que está prestes a acabar – para que os que acessam o site comprem os cursos da plataforma. As promoções, entretanto, aos que conhecem a plataforma, são constantes e o timer, caso tenha sumido, reaparece dependendo do navegador e do dispositivo acessado. 

A identificação e avanço no debate sobre deceptive patterns tira o designer de uma posição que apenas é voltada para construir a melhor experiência para o usuário. Na realidade, trata-se de um profissional a serviço de uma empresa, que dependendo de suas inclinações, pode vir a ser mais ou menos ética com quem consome seu serviço. 

As implicações dessa prática são várias. Primeira, de cunho econômico. Aqueles serviços que empregam deceptive patterns como estruturantes nos seus funcionamentos podem lesar os clientes, oferecendo produtos que não estão nos seus horizontes de aquisição. Trago meu próprio relato enquanto um desses exemplos no qual tive prejuízo financeiro, ainda que reduzido.

Segunda, no que concerne à privacidade dos usuários. A prática de deceptive patterns tem sido crucial na forma como empresas coletam dados. Por meio de diversas estratégias, aqueles que têm acesso às plataformas e serviços que utilizam dessas táticas de manipulação muitas vezes entregam dados desnecessários. Entra, dessa forma, a problemática de proteção de dados desses usuários, que em sua maioria não tem conhecimento de seus direitos sobre coleta, armazenamento, tratamento e exclusão desses dados. Voltarei aos horizontes sobre isso no último tópico do texto.

 

Affordance 

Don Norman, já citado aqui, entre vários conceitos popularizados, trouxe para o design a adaptação do conceito de affordance, de James J. Gibson. O termo no design é essencialmente relacional, entre a capacidade do agente e as propriedades do objeto, que pode determinar formas que um objeto pode ser utilizado. O autor, ainda aprofundando sobre o conceito, põe a relação em termos de perceived affordance, isto é, para situações em que o usuário percebe se determinada ação é possível de ser realizada. Nem tudo é perceptível enquanto realizável na relação entre objeto e usuário. Há diversos tipos de limitações (constrains), as quais se dividem em quatro categorias: físicas; lógicas; semânticas e culturais.

Trazendo um exemplo do livro, a maioria das cadeiras podem ser carregadas por uma pessoa, sendo assim, permite (affords) serem carregadas. Entretanto, se uma pessoa fraca não consegue levantar, então, para essa pessoa, a cadeira não tem esse affordance, assim não permite (affords) ser carregada. Por isso, destaca enfaticamente o autor que affordance não é uma propriedade, é uma relação

A perspectiva de Norman, enquanto psicólogo, aborda como situações impedem a pessoa de agir em determinados momentos. Nas Ciências Sociais, colocamos essa perspectiva dentro do binômio da estrutura – que, em oposição à agência, limita o sujeito social em suas ações por meio de instituições, relações, regras, etc. Hoje, no entanto, avançamos em relação a esta polarização. Atualmente, compreende-se que estrutura social e agência do sujeito constroem-se mutuamente. Consequentemente, precisamos entender que a estrutura social, além de oferecer limites, dá ao sujeito possibilidade de agir e criar em cima dela. 

Penso, assim, que precisamos considerar as affordances sendo possibilitadas – e não apenas restringidas – por aspectos sociais e culturais. Questões como gênero, classe, raça, convenções sociais, viéses políticos possibilitam (affords) relações, que nem sempre levam a resultados positivos.

 

Sobre as Affordances e os riscos na interação digital

Por meio de uma perspectiva relacional, abre-se um leque de possibilidades imensas nos quais as affordances são percebidos pelos usuários. Acrescenta-se a isso, conforme busquei explicar anteriormente, que a estrutura social também capacita o ator social para novos usos das ferramentas. Por conseguinte, são muitas as maneiras de utilização de determinada tecnologia, em virtude da infinitude de variantes que podem levar a modos inventivos da ferramenta. Gostaria de trazer um caso que me marcou para exemplificar isso.

O aplicativo de fotos Snapchat tinha um filtro de velocidade que registrava o quão rápido a pessoa que utilizava estava se locomovendo. Críticas rapidamente surgiram, questionando se o aplicativo estava incentivando direção perigosa. Não se trata de objeções sem lastro, pois o filtro estava conectado com quatro acidentes, que, no total, levaram ao falecimento de onze pessoas e a dano cerebral permanente de uma outra pessoa. Como tentativa de solucionar, o serviço adicionou a mensagem “Don’t Snap and Drive”, limitou a velocidade registrada até aproximadamente 56 km/h e moveu de filtros para sticker – deixando a funcionalidade mais escondida. Há dois pontos que gostaria de abordar com isso. 

O primeiro se relaciona com as affordances já citados aqui. Talvez, quando desenvolvido pela equipe do Snapchat, a funcionalidade não estava sendo pensada como passível de tal uso. Entretanto, na interação digital com os produtos, os usuários perceberam – isto é, um perceived affordance – que o filtro poderia ser utilizado para se exibirem para seus colegas e amigos. Em matéria sobre o acidente em Filadélfia, Estados Unidos, a ABC afirma ter identificado vários vídeos no YouTube nesse mesmo direcionamento, com um usuário atingindo 170 km/h. 

Essa forma de uso não pode ser desvinculada de aspectos sociais. Práticas de gamificação do aplicativo buscam reter seus usuários introduzindo pontuações, troféus, de forma que produzam mais conteúdo a fim de notoriedade. Além disso, aspectos de idade, como adolescência e jovem adulto, busca por reconhecimento, formação de identidade e socialização, que hoje passam pelas mídias sociais, também modificam as formas que o objeto pode ser utilizado. Aspectos de socialização de gênero influenciam – e incentivam – comportamentos mais agressivos por parte dos homens no trânsito. 

Por isso prefiro pensar em aspectos sociais capacitando o agente para outros usos de artefatos digitais – para além de restringir ou mesmo pressionar o ator a algo, levando a acidentes, outro aspecto destacado de Norman. Reconhecer isso é perceber a possibilidade criativa de usos de artefatos, tanto para coisas positivas quanto negativas. Outros exemplos dessa criatividade são: canais de Telegram utilizados para desinformação em massa; utilização do “close friends” no Instagram para flertar; utilização de aplicativos de relacionamento para golpes. Esses são apenas um entre vários outros casos de perceived affordances, que lidam com a capacidade criativa dos usuários, dependendo de sua origem sócio-cultural.  

 

E para onde vamos? DSA, PL 2630/2020 e a análise e atenuação de riscos sistêmicos em serviços

O debate de regulação de plataformas no Brasil, com o PL 2630/2020, abre portas profícuas para a intersecção entre design de interação e regulamentação. Não se trata de restringir a função e papel dos designers em sua criatividade e inovação, mas garantir que, neste processo, os direitos dos cidadãos sejam protegidos. Avalio que a Seção II do Cap. II do PL 2630, que rege sobre as obrigações de análise e atenuação de riscos sistêmicos, pode ser um dos caminhos para isso. 

As situações trazidas aqui – de deceptive patterns e risco de design – são alvos legislações que tentam amenizar os danos causados em prol dos cidadãos. Para o caso dos deceptive patterns, a União Europeia vem buscando restringir a prática por um conjunto de leis. Tal movimento ocorre em outros locais, como Estados Unidos. Um estudo da Comissão Europeia, aliado com as autoridades nacionais de direito do consumidor de 23 Estados-Membro, além de Noruega e Islândia, identificou que quase 40% dos sites utilizam práticas manipulatórias.

Apesar do desafio que isso cria, diversas definições para deceptive patterns são colocadas pela União Europeia, como observada na General Data Protection Rules (GDPR), a Unfair Commercial Practices Directive, menção no Digital Market Act (DMA) e no Digital Service Act (DSA). Nesta última, coloca-se um banimento explícito na prática por meio do Artigo 25 (1), além de uma menção dedicada ao problema no Recital 67. No Artigo 25 (1), determina-se:

Os fornecedores de plataformas em linha não podem conceber, organizar ou explorar as suas interfaces em linha de forma a enganar ou manipular os destinatários do seu serviço ou de forma a distorcer ou prejudicar substancialmente de outro modo a capacidade dos destinatários do seu serviço de tomarem decisões livres e informadas.

Com o debate de regulação de plataformas no Brasil, por meio do PL 2630/2020, o caminho para isso está em aberto. Cabe a nós não emular a versão europeia, mas sim legislar uma proposta adaptada para os problemas locais. O texto atual do Projeto de Lei traz um direcionamento importante, que pode, futuramente, pautar o debate sobre deceptive patterns no Brasil. No Artigo 7º,  § 3º, Inciso V da última versão do texto divulgada pelo relator, propõe:

Art. 7º Os provedores devem identificar, analisar e avaliar diligentemente os riscos sistêmicos decorrentes da concepção ou do funcionamento dos seus serviços e dos seus sistemas relacionados, incluindo os sistemas algorítmicos

§ 3º Quando da realização de avaliações de risco, os provedores terão em conta como os seguintes fatores influenciam os riscos sistêmicos referidos no §2º:

V – a influência da manipulação maliciosa e intencional no serviço, incluindo casos de contas criadas ou usadas com o propósito de assumir ou simular identidade de terceiros para enganar o público, ou explorar o serviço de maneira automatizada.

Atualmente, o PL 2630 busca na análise para atenuação de risco que, no mínimo, sejam avaliadas questões como: difusão de conteúdos ilícitos; garantia e promoção do direito à liberdade de expressão, de informação, imprensa e pluralismo dos meios de comunicação social; violências contra mulheres, racismo, criança e adolescentes, idosos e consequências negativas graves para o bem-estar físico e mental da pessoa; Estado democrático de direito e ao processo eleitoral; e discriminação ilegal por meio do uso de dados pessoais sensíveis e impactos desproporcionais em razão de características pessoais.

Apesar de um projeto bem focado na coibição de atividades ilícitas com a noção de dever de cuidado, essa seção caminha, ainda que em um trecho bem específico, para um ecossistema digital mais seguro e ético. Tratando-se de uma legislação que tem como princípio a proteção de dados pessoais e da privacidade, sendo tal proteção direito fundamental, o Inciso V poderia iniciar o caminho para refletir a regulação da temática. A manipulação intencional no serviço, por meio de deceptive patterns, leva a consequências negativas para o cidadão afetado, como mal estar psicológico decorrente das práticas – tal qual trouxe na minha crônica inicial.

Nesse mesmo ponto, cabe refletir a atenuação de riscos aliada com o debate de responsabilidade da plataforma por questões de design. Isto é, poderia ser um serviço responsabilizado por erros de concepção de produto? Assim, finalizo aqui mencionando o debate de affordance.  

Hoje a responsabilização de plataformas digitais é muito tratada no campo dos conteúdos. Por exemplo, nos Estados Unidos, a compreensão para moderação de conteúdo parte da Seção 230 do Communications Decency Act. Em termos gerais, paralelos podem ser feitos com o Marco Civil da Internet, compreendendo que nenhum provedor ou usuário de um “serviço computacional interativo” pode ser tratado enquanto publicador ou porta-voz de uma informação publicada por terceiros.

Cito a legislação estadunidense em virtude do exemplo trazido com o Snapchat. O caso Lemmon v Snapchat envolve o filtro do Snapchat que permitia que os usuários capturassem a velocidade em que eles se encontravam. Os acusadores, pais de filhos mortos em acidente de carro enquanto registravam a velocidade com o aplicativo, processaram a empresa afirmando que o filtro incentiva os usuários a dirigir em velocidade perigosa. O acusado, por sua vez, acionou a Seção 230 para defender que não tinha responsabilidade, tese aceita pela corte distrital. Entretanto, o Nono Circuito reverteu a decisão afirmando que os acusados não processaram a empresa pelos conteúdos, mas sim por questões de design do filtro. Com isso, entendeu-se que a Seção não imuniza empresas por questões de design, sendo dever dela oferecer um produto razoavelmente seguro para seus usuários.

Retorno, então, à Seção II do Cap. II do PL 2630/2020 para finalizar o texto. Justamente por ter como objetivo análise e atenuação de riscos, considero ser essencial pensar como as plataformas podem levar a riscos, que podem desencadear consequências físicas e mentais, inclusive a perda do maior bem jurídico: a vida. 

Toda a seção abre possibilidades para conceber produtos mais éticos e menos perigosos para os usuários. Reconhecer a capacidade criativa dos usuários em plataformas pode ser um grande avanço na análise de risco sistêmico, adaptação de funcionamento dos serviços, interface, de sistemas algorítmicos, entre outros. Essas preocupações e debates precisam, no entanto, ser ampliadas para além do campo da Governança da Internet e atingir aqueles que de fato estão na ponta produzindo os serviços e produtos.

Marcos César M. Pereira

Mestrando no Programa de Pós-Graduação em Antropologia pela Universidade Federal de Pernambuco Pós-graduando em Design de Interação para Artefatos Digitais na Cesar School. Graduado em Ciências Sociais pela Universidade Federal de Pernambuco. Bolsista do Programa Youth 2022 (NIC.br/CGI.br). Participante do Programa Líderes 2.0 (LACNIC). No IP.rec atua na área de Privacidade e Vigilância, com ênfase em criptografia, também possuindo interesse no campo de inovação e design de interação.

Compartilhe

Posts relacionados