A inteligência artificial (IA) é uma tecnologia amplamente implementada em diversas esferas da vida cotidiana e institucional. Apesar disso, essa adoção tem ocorrido de maneira desregulada, sem garantias mínimas que protejam a população dos possíveis efeitos negativos da tecnologia, que já têm sido amplamente identificados. O fortalecimento de estudos sobre esses impactos e a proposição de medidas de governança são fundamentais nesse cenário, principalmente diante do poder econômico e de lobby das big techs.

O projeto Desafios Emergentes da Inteligência Artificial, realizado com apoio do Google, tem como objetivo identificar, investigar e analisar os principais problemas e riscos associados ao uso da IA na atualidade, com foco na proteção dos direitos. Entre os objetivos complementares estão a divulgação científica e a promoção de campanhas educativas voltadas ao público especializado e à população geral, além de pressionar os setores responsáveis por medidas de governança e mitigação de riscos.

As áreas de atuação abordadas no contexto do projeto incluem: reconhecimento facial; custo ambiental da IA, com foco em datacenters; violência de gênero facilitada por ferramentas de IA, como os deepnudes; governança e regulação da IA, com ênfase no Projeto de Lei 2338; e direitos autorais.

Entre os principais desafios emergentes observados destacam-se três: a existência de vieses discriminatórios nos sistemas de IA que podem ampliar problemas sociais estruturais; os impactos ambientais decorrentes da infraestrutura necessária ao funcionamento da IA, especialmente em tempos de crise climática; e os impactos epistemológicos, que dizem respeito à confiabilidade do conhecimento disseminado, à presença de vieses ideológicos, à propagação de desinformação e ao apagamento cultural.

Embora toda a população seja afetada por esses desafios, os grupos mais vulnerabilizados — considerando critérios de classe, raça, etnia, gênero, sexualidade e regionalidade — são especialmente sensíveis a esses efeitos. Mesmo pessoas sem acesso direto a smartphones ou à internet podem ser indiretamente impactadas pela IA.

Os desafios emergentes diferem dos problemas clássicos da IA, pois refletem um cenário de desenvolvimento acelerado a partir da década de 2020, especialmente com os avanços em aprendizado profundo e infraestrutura computacional. A disponibilidade massiva de dados provenientes das redes sociais contribuiu para o treinamento de modelos em larga escala. Isso intensificou questões já conhecidas como privacidade, vieses, precarização do trabalho e impactos ambientais. Hoje, a IA está presente em diversas ferramentas cotidianas, como aplicativos de mobilidade, redes sociais e sistemas de recomendação, influenciando desde interações sociais até debates políticos.

As soluções propostas pelo projeto são de natureza multidisciplinar, abrangendo aspectos técnicos, éticos, regulatórios e sociais. Entre as parcerias institucionais, destacam-se o Laboratório de Políticas Públicas e Internet – LAPIN, o Instituto de Desfesa do Consumidor – Idec e o Grupo de Trabalho sobre IA da Coalizão Direitos na Rede (CDR). O financiamento é fornecido pelo Google e pela Fundação Heinrich Böll.

Até o momento, o projeto já produziu diversos achados relevantes. Entre eles, destacam-se:

  • Contribuições à consulta pública do Senado para o desenvolvimento de uma regulação de IA no Brasil, abordando privacidade, vieses, transparência e responsabilidade civil.

  • Textos que discutem a não neutralidade das tecnologias, os limites das Leis de Asimov como base para a regulação da IA, e a necessidade de aplicar o princípio da vulnerabilidade ao uso de IA.

  • Críticas à forma como especialistas e empresas influenciam o debate público sobre IA, reforçando interesses privados e disseminando desinformação.

  • Questionamentos sobre o mito do excepcionalismo da IA e sobre o impacto dos deepfakes nas eleições.

  • Notas técnicas sobre os riscos do reconhecimento facial e a violência de gênero relacionada a deepfakes pornográficas.

  • Análises sobre o obstáculo que o segredo de negócio representa para a transparência algorítmica.

  • Avaliações críticas do PL 2338/2023, propondo emendas para equilibrar inovação e proteção de direitos.

  • Reflexões sobre a relação entre IA, direitos humanos e responsabilidade corporativa, além de sugestões para a ANPD sobre decisões automatizadas.

  • Discussões sobre o tecnossolucionismo, a explicabilidade da IA, os impactos epistemicidas dos LLMs, e os efeitos ambientais dos datacenters.

Comunicação IP.rec

Compartilhe

Posts relacionados