Desafios Emergentes da Inteligência Artificial
A inteligência artificial (IA) é uma tecnologia amplamente implementada em diversas esferas da vida cotidiana e institucional. Apesar disso, essa adoção tem ocorrido de maneira desregulada, sem garantias mínimas que protejam a população dos possíveis efeitos negativos da tecnologia, que já têm sido amplamente identificados. O fortalecimento de estudos sobre esses impactos e a proposição de medidas de governança são fundamentais nesse cenário, principalmente diante do poder econômico e de lobby das big techs.
O projeto Desafios Emergentes da Inteligência Artificial, realizado com apoio do Google, tem como objetivo identificar, investigar e analisar os principais problemas e riscos associados ao uso da IA na atualidade, com foco na proteção dos direitos. Entre os objetivos complementares estão a divulgação científica e a promoção de campanhas educativas voltadas ao público especializado e à população geral, além de pressionar os setores responsáveis por medidas de governança e mitigação de riscos.
As áreas de atuação abordadas no contexto do projeto incluem: reconhecimento facial; custo ambiental da IA, com foco em datacenters; violência de gênero facilitada por ferramentas de IA, como os deepnudes; governança e regulação da IA, com ênfase no Projeto de Lei 2338; e direitos autorais.
Entre os principais desafios emergentes observados destacam-se três: a existência de vieses discriminatórios nos sistemas de IA que podem ampliar problemas sociais estruturais; os impactos ambientais decorrentes da infraestrutura necessária ao funcionamento da IA, especialmente em tempos de crise climática; e os impactos epistemológicos, que dizem respeito à confiabilidade do conhecimento disseminado, à presença de vieses ideológicos, à propagação de desinformação e ao apagamento cultural.
Embora toda a população seja afetada por esses desafios, os grupos mais vulnerabilizados — considerando critérios de classe, raça, etnia, gênero, sexualidade e regionalidade — são especialmente sensíveis a esses efeitos. Mesmo pessoas sem acesso direto a smartphones ou à internet podem ser indiretamente impactadas pela IA.
Os desafios emergentes diferem dos problemas clássicos da IA, pois refletem um cenário de desenvolvimento acelerado a partir da década de 2020, especialmente com os avanços em aprendizado profundo e infraestrutura computacional. A disponibilidade massiva de dados provenientes das redes sociais contribuiu para o treinamento de modelos em larga escala. Isso intensificou questões já conhecidas como privacidade, vieses, precarização do trabalho e impactos ambientais. Hoje, a IA está presente em diversas ferramentas cotidianas, como aplicativos de mobilidade, redes sociais e sistemas de recomendação, influenciando desde interações sociais até debates políticos.
As soluções propostas pelo projeto são de natureza multidisciplinar, abrangendo aspectos técnicos, éticos, regulatórios e sociais. Entre as parcerias institucionais, destacam-se o Laboratório de Políticas Públicas e Internet – LAPIN, o Instituto de Desfesa do Consumidor – Idec e o Grupo de Trabalho sobre IA da Coalizão Direitos na Rede (CDR). O financiamento é fornecido pelo Google e pela Fundação Heinrich Böll.
Até o momento, o projeto já produziu diversos achados relevantes. Entre eles, destacam-se:
-
Contribuições à consulta pública do Senado para o desenvolvimento de uma regulação de IA no Brasil, abordando privacidade, vieses, transparência e responsabilidade civil.
-
Textos que discutem a não neutralidade das tecnologias, os limites das Leis de Asimov como base para a regulação da IA, e a necessidade de aplicar o princípio da vulnerabilidade ao uso de IA.
-
Críticas à forma como especialistas e empresas influenciam o debate público sobre IA, reforçando interesses privados e disseminando desinformação.
-
Questionamentos sobre o mito do excepcionalismo da IA e sobre o impacto dos deepfakes nas eleições.
-
Notas técnicas sobre os riscos do reconhecimento facial e a violência de gênero relacionada a deepfakes pornográficas.
-
Análises sobre o obstáculo que o segredo de negócio representa para a transparência algorítmica.
-
Avaliações críticas do PL 2338/2023, propondo emendas para equilibrar inovação e proteção de direitos.
-
Reflexões sobre a relação entre IA, direitos humanos e responsabilidade corporativa, além de sugestões para a ANPD sobre decisões automatizadas.
-
Discussões sobre o tecnossolucionismo, a explicabilidade da IA, os impactos epistemicidas dos LLMs, e os efeitos ambientais dos datacenters.