A discussão sobre inteligência artificial e o seu processo de regulação parece ganhar um novo capítulo: o Senador Rodrigo Pacheco protocolou o texto proposto pela comissão de juristas do Senado, que, por sua vez, foi convocada pelo Relator, Sen. Eduardo Gomes, no ano passado. 

O novo texto, sob número 2338/2023, é a reprodução integral daquela comissão, constante no relatório publicado em dezembro de 2022, e apenas trouxe revisões de gramática e erros de digitação. Materialmente, portanto, é felicitado pelos mesmos ganhos e criticável pelas mesmas fraquezas.

O ambiente de debate no entorno do “regramento da IA” tem tudo para se tornar sórdido, e os primeiros movimentos já começaram em colunas e artigos de opinião em jornais. Antes de um julgamento apriorístico, e moralista, é preciso compreender que boa parte deste processo é inerente à dinâmica de interesses em disputa. São motivações muitas vezes diametralmente opostas, falando sobre diferentes paisagens regulatórias e projetos de sociedade. 

Mas não é sobre o contexto brasileiro que devemos olhar, ou não apenas, no debate da IA. Dado que se tornou profissão a importação acrítica de discussões e conceitos do debate internacional, proponho que nos voltemos à análise de declarações e discursos neste mesmo âmbito de modo a evitar que, se isso for possível, certas estratégias de determinados grupos comprometam a praça pública de debate nacional.

A conversa corrente dentre especialistas de diversas áreas, adubada pela explosão e hype de modelos de LLM e pelos “milagres” divulgados em revistas e notícias leigas com ampla dose de imprecisão, é a do debate sobre a AGI (Artificial General Intelligence). A Inteligência Artificial Geral, com capacidades sobre humanas seria um sinal de ultrapassado certo limite que desembocaria no advento da singularidade [1]

Em dois grupos arbitrários, que tem diferenças internas relevantes, existem: (a) aqueles que defendem (a1) a evolução ampla e irrestrita destes modelos, subdivididos entre o avanço contínuo e até desenfreado e (a2) os que já enxergam a existência de uma AGI e a necessidade de parar para refletir sobre; existe, também, (b) o grupo daqueloutros que defendem que os modelos, ainda que possam muito, não são capazes de tamanha proeza e que a discussão posta dessa forma tem desviado de debates relevantes de IA, e seus efeitos danosos pervasivos e complexos. 

Os extremos da discussão chegam, de um lado, ao banimento e punição de atividades envolvendo IA, se tratando, obviamente, de uma minoria, e, de outro lado, um conjunto de de cultores da ideia de um evolucionismo autocentrado (e delirante) ao ponto de necessidade de criação de uma igreja – e nela, a proteção dos direitos desses entes especiais e matematicamente divinos (AGI), o verdadeiro advento criador de uma nova realidade.

Entre entreveros diários, é possível citar alguns posicionamentos da última semana dentro de uma gama de temas relacionados à inteligência artificial. Yann Lecun, cientista-chefe para a área de IA da Meta, declarou que não se deve ouvir cientistas da computação que estão preocupados com as repercussões sociais de seu trabalho. O tema era o possível desemprego em massa que poderia ser causado pela IA. Na visão dele, apenas economistas teriam a formação para avaliar estes impactos da tecnologia no setor laboral.

E não para por aí: Geoffrey Hinton, ex-cientista da Google, apareceu nas manchetes dos jornais americanos (e brasileiros) afirmando que o tempo para um alerta da IA consciente passou, que isso já é uma realidade, e que empresas como Google e OpenAI já sabem disso. O mesmo Hinton afirmou que denúncias de ex-funcionários do setor de ética eram de menor importância, pois não se tratavam das questões existenciais, o fim do mundo, que ele estava abordando. As citadas denúncias, com muito foco na vocalização de Timnit Gebru, falavam sobre viéses e danos em populações negras e, especialmente, em mulheres negras e a falta de compromisso destes atores privados com processos de adequação mínimos para o amortecimento de danos de toda ordem.

Outros posicionamentos recentes estão relacionados com a importância ou erros de da famosa conferência da área de ciência da computação, FaccT – Conference on Fairness, Accountability, and Transparency, que reuniria pessoas sem diversidade e sem foco num debate realmente crítico. A origem da celeuma pode ser encontrada neste texto. Tivemos ainda falas dos que defendem que denunciar as alucinações dos modelos é algo que deve ser feito, mas não é importante do ponto de vista estrutural, sendo certo que a mudança de adoção de transformers, LLMs e afins não irá retroceder. É preciso, portanto, parar de tentar denunciar os absurdos, de forma casuística, e focar em como lidar com isso.

Boa parte dos especialistas também tem defendido uma crítica em dois ramos: o primeiro de que o debate de “ética em IA” está contaminado e fadado ao fracasso. Uns dizem que pessoas da área técnica dimensionam de forma equivocada o debate sobre ética, sequer podendo falar sobre ele de forma especializada. Contudo, estas mesmas pessoas estariam, agora, defendendo um fim do mundo provocado pelos riscos desta IA. Outros defendem uma crítica realista e, neste segundo ramo, criticam a falta de domínio do debate ético sobre atores críticos, que trazem influências sociológicas, antropológicas, a partir da teoria racial crítica  e outros. 

John Tassioulas, diretor do Instituto “Ethics in AI”, da Universidade de Oxford, defendeu em reportagem recente que o foco em aspectos éticos é distorcido como a mera implementação de medidas técnicas e que, com vistas a conter o desenvolvimento equivocado da AI, é preciso ignorar o que certos especialistas dizem e buscar a produção de consensos mínimos de padrões regulatórios entre países democráticos.

Até mesmo a FTC tem se posicionado em comunicados e artigos, pelos quais alerta para a necessidade de cuidado dos players de inovação, do ponto de vista de práticas comerciais, com a promessa falsa de que certos produtos tenham alcançado esse nível de desenvolvimento e possam entregar certas soluções que, para boa parte dos cientistas envolvidos, não está sequer perto, além de maquiar os danos da implementação apressada de modelos em aplicações postas no mercado.

Um elemento importante, antes mesmo de usarmos os prompts do chatgpt ou dos geradores de imagens para inundar o mundo com desinformação e informação falsa, é que há um risco evidente da falta de um piso mínimo de razoabilidade no debate e a profusão de manifestações, em regime de infodemia, não parece estar ajudando. 

E a Razão[2], aqui recuperada como o seu mais essencial sentido dentro de um humanismo ocidental, desaparece dos debates tamanha a falta de compartilhamento de uma “gramática comum de valores”, pois para muitos atores, escolhas éticas duvidosas são justificáveis, e de uma “gramática comum sobre elementos técnicos”, dado que muitos atores consomem conteúdos rasos sobre o tema e, ainda assim, se manifestam, sendo centros catalisadores de opiniões absurdas e delírios.

Há aqui a possibilidade de recuperar outro ensinamento básico da filosofia clássica sobre as provas retóricas (logos, pathos e ethos). São três dimensões do discurso e do pensamento exauridas no ato discursivo perante um auditório, e teriam campos distintos de exercício. Logos estaria voltado à razão do bom argumento (e, portanto, com a formalização e valor de verdade, o apodítico). Ethos seria a prova a ser exercida pelo virtuoso por seu exemplo, está ligado à autoridade de quem fala. Mas é o Pathos, o que envolve todos os argumentos fora do apodítico, que é o mais efetivo perante as audiências – era assim na Grécia Clássica, é assim na sociedade informacional das fake news. Com o pathos é possível mobilizar medos, sentimentos, preconceitos e outras dimensões que fazem parte do conhecimento e experiência do mundo, mas não estão no ambiente racional.

É, portanto, o pathos que vem sendo exercitado nas disputas setoriais e nas diferentes vozes, contraditórias e que não compartilham valores, em reflexões éticas para além de um discurso estratégico de certos interlocutores. São importâncias diversas dadas a temas diversos. Por exemplo: o redlining racial no uso de tecnologias, ou seja, zonas de exclusão na oportunidade e possibilidade de uso de tecnologias, que saem do virtual ao real, são consideradas mal menor diante da promessa de uma entidade divina que é a singularidade. 

A habilidade de discursar manejando emoções é vital, inclusive para alguns é condição da compreensão. Aristóteles deixava claro que, como bom virtuoso, quem discursa deve focar no equilíbrio e não no excesso das provas retóricas. Afinal, em bom português, o excesso de pathos converte o discurso em algo patético. O uso massivo das TICs e IA, entretanto, tem nos levado a contradizer que toda a sociedade esteja, de pronto, apta a reconhecer isso. Parece que há uma mediação do ethos, mas, sempre uma oposição ao logos. Razão e emoção, como inimigas, apontam para a destruição da praça pública. 

Ciência sem convencimento, apesar dos aproveitadores de hype e cultuadores das trends, não é ciência, mas fora de um piso de razoabilidade nada parece efetivamente convincente ante o discurso do marketing com que estas iniciativas passam – aqui no blog do IP.rec isso já foi ressaltado aqui e aqui

Nelson Saldanha, professor recifense, traz em ensaio importante, que as imagens arquetípicas do jardim e da praça, relacionando uma série de símbolos do privado e do público, tem importância para o nosso próprio conhecimento – afinal, da experiência concreta que se extrairia o conhecimento geral. E qual o motivo disso? A casa se expande na cidade e abandona-se a verdade mística grega pela verdade laica, “com a valorização do diálogo e da palavra-argumento, desenvolvida precisamente dentro do espaço público” (SALDANHA, 2005, p. 48).

Ao apelar para o inerente à esfera pessoal e às distorções destes aspectos pessoais, o discurso formatado para o pathos não só cai no campo do patético, mas, também do patológico. Ao invés da construção pública saudável, construída na praça, se subverte o papel do privado, expondo-o como uma (falsa) média pública – essa média que, construída na praça da antiguidade foi associada à noção de ordem e do justo (a média da balança, em estado de equilíbrio, ius aequm).

Eis a ligadura histórica e a conclusão: o excesso e a condição adoentada da profusão de informação, as opiniões em vozes dissonantes, sem fundo comum, o favorecimento de discursos irracionais mediados por algoritmos e negócios de marketing, o delírio metafísico-matemático contra os fatos e a tentativa de combate a esta quimera destruirá a sociabilidade que é a base de um conhecimento duradouro e capaz de estabelecer limites a um privatismo egóico. Nós iremos perder, mantido este movimento. É preciso denunciar os farsantes, os antiéticos, os neófitos, mas é preciso educar a sociedade para a razão-argumento, em todas as suas três dimensões.


[1] De acordo com Stuart Russel & Peter Norvig (2021, p. 51), os esforços da pesquisa e desenvolvimento de IA sairiam de um nível humano para um nivel muito além da capacidade humana. Singularidade, por outro lado, não é idêntica à IA Geral, mas uma hipótese teórica-matemática que implica na criação de um ente, ab ovo, que tenha uma espécie de ordem a partir de toda a produção e gasto energético do universo – seria uma consciência de ordem superior. 

[2] Razão é a busca das regularidades essenciais, oposto aos acidentes. É a razão que abstrai as categorias essenciais que nós usamos para diferenciar as experiências no mundo. Razão abstrai, é extrair algo para fora, revelando o seu sentido. Importante notar que o conhecimento humano é, também, abdutivo – das abstrações feitas, nós comparamos os dados de mundo e apontamos semelhanças. É assim que entre “cadeiras” nós sabemos identificar quais os elementos – são necessárias quatro pernas? Ou três e poder sentar em cima já é suficiente? O tema filosófico é de suma importância para entender os delírios e a incompreensão de desenvolvedores sobre o que significa o “interligar” da inteligência humana. De inteligência, os modelos de IA nada tem. 


Referências:

RUSSEL, Stuart J.; NORVIG, Peter. Artificial Intelligence – a modern approach. Pearson, 2021.

SALDANHA, Nelson Nogueira. O jardim e a praça: o privado e o público na vida social e histórica. Rio de Janeiro: Atlântica Editora, 2005.

André Fernandes

Diretor e fundador do IP.rec, é graduado e mestre em Direito pela UFPE, linha teoria da decisão jurídica. Doutorando pela UNICAP, na linha de tecnologia e direito. Professor Universitário. Membro de grupos de especialistas: na Internet Society, o Grupo de Trabalho sobre Responsabilidade de Intermediários; no Governo Federal, Grupo de Especialista da Estratégia Brasileira de IA (EBIA, Eixo 2, Governança). Fundador e Ex-Conselheiro no Youth Observatory, Internet Society. Ex-Presidente e Fundador da Comissão de Direito da Tecnologia e da Informação (CDTI) da OAB/PE. Alumni da Escola de Governança da Internet do CGI.br (2016). No IP.rec, atua principalmente nas áreas de Responsabilidade Civil de Intermediários, Automação do Trabalho e Inteligência Artificial e Multissetorialismo.

Compartilhe

Posts relacionados