O futuro da tecnologia e o reflexo na escuridão para o direito (parte 2)
ROBÔS SONHAM COM OVELHAS ELÉTRICAS?
Quando olhamos para a tecnologia discutida neste texto (I.A., automação, etc) podemos verificar que tudo o que é repetitivo pode ser automatizado. O impacto na atividade jurídica é a liberdade que ela, fatalmente, possibilitará ao jurista de se deter nos temas que realmente são o cerne do seu trabalho. Esse cenário aparece como fatídico, quer se queira fugir disso, ou se abraçar ao futuro hipertecnológico que nasce, nas mentes, como expectativa estereotipada.
Do ponto de vista judiciário, pela perspectiva da processualização da vida vivida, teríamos o foco na definição de novas teses jurídicas. Mas a situação é mais grave, pois fará o direito solapar suas construções metafísicas/artificiosas em um muro tenaz. Isto é o que já temos em curso.
No contexto de obsolescência crescente do trabalho e a incerteza sobre a transformação do mesmo para a valorização de atividades criativas e cognitivas, a incerteza ganha contornos de aversão — cresce a resposta do status quo com seu ímpeto conservador e aspiração ludista. Pesquisas recentes mostram, no contexto chinês, a possibilidade de automação entre 28% a 58% dos trabalhos jurídicos.
É a dinâmica da “caixa preta”, mencionada na primeira parte, que descreve o conhecimento da fase anterior à construção de uma tecnologia e seu resultado final, influenciando o mundo dos fatos: aqui há ligação direta com a construção de uma I.A. Pense-se, brevemente, no “Google Duplex”, o assistente robótico da Google que foi alvo de intensa cobertura midiática ao pedir uma pizza, sem a intervenção do sujeito humano, com a proficiência capaz de se passar por uma pessoa.
As alegações dos setores de aplicação da lei, nos Estados Unidos, exigindo da empresa a certificação (aviso prévio) da atuação do robô, em ligações para entes privados e, especialmente, entes públicos, não desvela a possibilidade de ter superado o Teste de Turing? De forma mais detida, ao mercado, o que restaria das linhas de trabalho de “call center”, usadas com predileção no contexto brasileiro?
Freud diz, na página 364 da coletânea consultada, que:
[…] o efeito inquietante é fácil e frequentemente atingido quando a fronteira entre fantasia e realidade é apagada, quando nos vem ao encontro algo real que até então víamos como fantástico, quando um símbolo toma a função e o significado plenos do simbolizado, e assim por diante.
Eis a reafirmação do unheimlich. Percebe-se a quebra da fronteira que Freud aponta: o real como um simulacro do fantástico e a ambivalência de uma relação, cujos instrumentos de precisão, de trabalho e de conhecimento, ou seja, ao nível da prática e da análise cognitivo-epistemológica, são complexos. Não por outro motivo as tendências totalizantes são postas em cheque, para estabelecer, cabalmente, um raciocínio contingencial, relativo, controlado por instrumentos de comparação entre os dados apresentados e sua acurácia (que falaremos mais adiante).
De outra parte, para um horizonte distanciado no tempo, devemos pensar na computação cognitiva com o poder de se aproximar ou simular o pensamento humano — estamos no campo das conjecturas e das expectativas. Aqui novas questões: será que ela será capaz de criar novas teses jurídicas? Ou fará “previsões” de decisões com base em dados históricos? O que é de fato isso que chamamos de robôs? Como funciona o uso de inteligência artificial, o que são capazes de fazer, em termos de treinamento, resultados e aplicações? É preciso responder e fazer ficha do tema — até para estabelecer um diálogo em patamar comum.
BREVIÁRIO DE UM CENÁRIO TECNOLÓGICO
Quando pensamos em Inteligência Artificial (I.A.), nos vem à mente a ideia de tecnologia de ponta. Mas a ideia de uma inteligência semelhante à humana remonta à antiguidade, mais precisamente na Grécia. Nela, o filósofo Aristóteles já imaginava uma inteligência não humana capaz de pensar por si. A humanidade vem desde então buscando a criação de tal inteligência não humana, mas foi apenas na metade do século passado que ela conseguiu avanços significativos em tal área.
Após a Segunda Guerra Mundial, vários conceitos da I.A. foram criados, entretanto ainda faltavam máquinas com poder de processamento capazes de colocar em prática os conceitos postos. Foi aí que surgiu, em 1997, o Deep Blue da IBM que foi o primeiro computador da história a vencer o melhor jogador de xadrez de todos os tempos.
Em processo concomitante, com a popularização da Internet e dos smartphones, houve a geração de uma massa de dados gigantesca. Tal geração de dados levou a avanços tecnológicos a nível de hardware, permitindo que o montante gigantesco fosse passível de armazenamento. Eis a conexão do tema com o Big Data, ou seja, uma quantidade absurda de dados não estruturados, que não são passíveis de processamento por software comuns e que possibilitam a análise preditiva de comportamentos, assim como a correlação de informações e determinação de padrões. Com o suporte dessas novas tecnologias e com pesados investimentos, a I.A. apresentou avanços cabais, possibilitando sua aplicação nos mais diversos e complexos campos do conhecimento.
Para compreender melhor o que seria essa tal de inteligência artificial, pode-se considerar como sistemas inteligentes aqueles que atuam de maneira a apresentar a um observador um comportamento que parece ser inteligente. Pode-se também definir como a capacidade de um sistema simular o comportamento comparável a uma inteligência humana.
Com este entendimento de I.A. em mente, fica mais fácil compreender os diferentes tipos existentes, ou pelo menos existentes no campo conceitual.
Primeiramente deve-se mencionar a I.A. fraca/limitada ou de propósito específico. Este tipo de inteligência se refere a sistemas que atuam em problemas bem delimitados e específicos. São sistemas especializados como, por exemplo, o utilizado para derrotar o campeão mundial de xadrez — sendo esta a única coisa que ele sabe realizar. Caso este sistema seja colocado para jogar damas, o mesmo não seria capaz de tomar nenhuma ação. Além disso, o conceito de I.A. fraca está relacionado aos sistemas incapazes de raciocinar por si próprios.
Além da I.A fraca, tem-se a I.A geral/completa ou forte, capaz de resolver qualquer problema sem nenhuma interferência externa, fazendo uso dos seus processos internos do início ao fim. Seria, em tese, a tecnologia capaz de igualar a inteligência humana realizando qualquer atividade intelectual como se humano fosse. Tal tecnologia seria capaz de pensar e ter “consciência própria”, não sendo apenas um simulador do pensamento humano — essa é a síntese da descrição feita por Jones Granatyr.
Além dos tipos anteriormente citados, já se fala em outras I.A.. Uma super I.A, v. g., seria a tecnologia com capacidade intelectual superior à humana que possibilitaria, por sua vez, um grande avanço tecnológico para além de nossas capacidades cognitivas.
Outro termo muito citado atualmente é o machine learning. O aprendizado de máquina pode ser entendido como uma subcategoria da I.A. Aqui observa-se a capacidade do próprio sistema aprender sozinho, sem a necessidade de nenhum treinamento manual, através da realização de uma análise e determinação de padrões a partir da inferência sobre uma grande quantidade de dados. Com base nestes padrões observados, o sistema é capaz de realizar determinações ou predições. Isso quer dizer, explicitamente: são sistemas capazes de realizar predições a partir da análise de dados.
Para os sistemas de I.A. chegarem a níveis de acerto desejáveis são necessárias algumas abordagens de treinamento, nas modalidades supervisionado, não-supervisionado e reforçado. O treinamento supervisionado tem como objetivo permitir à I.A. generalizar seus conhecimentos de maneira a responder a problemas para os quais não foi, inicialmente, instruída. O reforçado é usado para problemas que exigem várias etapas, como por exemplo a direção de um carro autônomo. Nessa forma de treinamento, não existe uma resposta correta esperada que a I.A. deva atingir: o agente inteligente vai interagir com os problemas e após cada ação realizada será dado a ele um feedback positivo ou negativo.
Já a modalidade não-supervisionada está voltada para os casos em que se possui pouco ou nenhum conhecimento do resultado a ser esperado. Nele não é possível fornecer feedback para cada ação tomada em virtude do desconhecimento do resultado esperado. Esta abordagem é utilizada para categorizar dados com base em variáveis.
A I.A. pode ser classificada, ainda, em simbólica ou conexionista. Quando se pensa em I.A simbólica tem-se sistemas nos quais o comportamento inteligente é simulado. Estes sistemas são criados com base em instruções pré-definidas, tornando o aprendizado difícil de ocorrer, onde tem-se, como exemplo, um corretor ortográfico que não aprende novas palavras sozinho, ficando dependente da adição de novas palavras ao seu dicionário por parte do usuário. Já quando pensamos na I.A. conexionista, temos a simulação do cérebro, sem a posse de instruções pré-definidas — e por não possuí-las, essas redes são capazes de aprender com seus erros e acertos, além de executar diferentes processos.
O tema está ligado ao desdobramento das redes neurais. As r.n.a’s foram criadas tendo como inspiração as conexões dos neurônios. Desta maneira, uma rede neural usa neurônios artificiais dotados de sensores de entrada, um corpo de processadores e uma saída.
Assim como no cérebro, os neurônios artificiais são conectados a outros neurônios, permitindo a formação de uma rede neural, a qual é capaz de aprender a solucionar um problema proposto, como por exemplo reconhecer formas ou cores. Uma estrutura básica de uma rede neural é composta de uma camada de neurônios externa, uma camada interna e uma camada de saída. Isto pode ser visualizado na imagem abaixo:
Agora que a ideia de rede neural foi explicitada, o conceito do deep learning pode ser facilmente explicado. Com o aumento da capacidade computacional devido ao avanço tecnológico, tornou-se possível aumentar o tamanho das redes neurais através do aumento do número das camadas de neurônios. E com o fornecimento de um número massivo de exemplos de treinamento, estas redes foram se tornando cada vez mais precisas. Assim, as redes se tornaram mais profundas, ou seja, deep. Isto tornou o aprendizado de máquina muito superior ao que já existia, possibilitando a resolução de problemas muito complexos, tais como o reconhecimento facial.
Além do reconhecimento facial, a I.A. foi aplicada para performar no jogo chinês Go. O AlphaGo, um computador dotado de inteligência artificial desenvolvido pelo Google, foi capaz de derrotar o melhor jogador mundial de Go. O AlphaGo foi treinado para aprender a jogar como os humanos jogam.
Depois da vitória sobre o campeão mundial, a Google desenvolveu o AlphaGo zero, que não necessitava de treinamento humano para aprender a jogar. Ele é capaz de aprender sozinho apenas praticando o jogo. Esta nova versão da I.A foi capaz de superar AlphaGo em apenas 3 dias de disputas.
A Tesla também faz uso de I.A. para desenvolver seu sistema Autopilot 8.0, o qual é capaz de detectar perigo a até dois carros a frente e alertar o motorista do risco iminente. Além disso, ela já trabalha no desenvolvimento do piloto automático para seus carros.
Com esse breviário informacional sobre a performance dos computadores no presente, podemos dar adiantamento ao cerne da questão: a tecnologia aplicada ao direito.
COMPUTADORES FAZEM ARTE, ARTISTAS FAZEM DINHEIRO: O QUE JURISTAS FAZEM?
No âmbito da alta tecnologia e do direito, o sentido utilizado para perceber os avanços e interconexões entre áreas é aquele descrito como uma “visão deturpada através do espelho”. É o campo dos esoterismos e da futurologia sem método, zeitgeist da espiral de voluntarismo, num tempo em que o homem-deus se consolida através da extensão de sua mão e dedo indicador — pois o dedo que indica, no direito, também está ligado ao poder ordenador do déspota (como alusão máxima disso podemos apelar à imagem do polegar indicador de “vida ou morte” no coliseum romano).
É aqui que são reavivadas as discussões e dicotomias metafísicas, com pretensões totalizantes e cujas respostas únicas em termos de “tudo ou nada” não correspondem aos fenômenos diante dos quais essas mesmas perguntas são feitas. “O direito é arte ou ciência”? Exemplo de discussão infrutífera. Até onde se pode dizer, o direito é filho de um contexto histórico. E quando comparados os contextos, no chamado exercício diacrônico, é possível afirmar que o direito é fruto da galáxia Gutemberg, das letras e papéis, da burocracia reinol e da estruturação de uma sociedade que se complexificou sempre aos empuxos, com os arreios de normas (morais, jurídicas, estéticas etc.).
As incongruências de uma sociedade complexa, para diferençar como subtipo da modernidade pré-terceira revolução industrial, colocam o direito no corner não por que ele é um processo social a ser descartado, mas pelo fato de que a praxis da comunidade jurídica criou uma dissociação (ao nível do trabalho e da mentalidade) entre o que o processo jurídico é/pode ser no âmbito da sociedade historicamente situada e do que ele, efetivamente, é. Tal mentalidade nasce da hipóstase ensinada nas catequeses diárias das faculdades, órgãos e bancas de advogados.
Eis o ponto de virada que hoje é infletido pela tecnologia — e aqui alçamos voos filosóficos mais audaciosos:
(1) no âmbito de uma juridicidade — dado fático nascido dos efeitos da comunicação pela linguagem e da narrativa histórica do poder (des)organizado — se estrutura, em certa medida, um simulacro, uma aparência num meio termo que existe como artifício para recusar tanto o verdadeiro, como o falso (o direito é sempre o campo da quase-verdade, da quase-mentira, das verossimilhanças);
(2) é forjado, assim, um direito que passa a “se contar”, narrativamente, como objetivo, sob pressupostos de uma mentira (nos dizeres de Derrida). E dessa forma, exaure o elemento irreal/virtual de sua força criadora da realidade — o que na história pode ser descrito como o deslocamento do âmbito do teológico ao metodológico, forjando a solução secularizadora, como propôs Nelson Saldanha.
É esse paradigma de pensar jurídico atual que vê a tecnologia com olhares místicos entre a adoração e o receio, mas, em definitivo, longe da compreensão. A inflexão cristalizada na história, quando infletida, chama para si possibilidades de disrupção (como uma equação): e esse é o nosso tempo. Vendo através do espelho, a classe jurídica não enxerga a dimensão gradual da automação, e, menos ainda, o crescente potencial de uma disrupção pela automação do trabalho. Ora, a transformação de linhas/setores de trabalho não aperta a sineta da porta, avisando que vai entrar!
Não se ignora que setores específicos de trabalho serão automatizados primeiro: grandes atividades de maquinário agroindustrial, por exemplo. Entretanto, a automação não gera só a substituição de setores econômicos e postos de trabalho, ela também muda o rol de habilidades normais das classes laborantes.
Transforma-se o escopo do trabalho: o direito não morrerá, ele será ressignificado, em verdade ele já vem mutando a muito tempo, como fruto da naturezahistória. Vejamos o exemplo do Nordea Bank, que pretende automatizar linhas de trabalho inteiras, tanto no âmbito reprodutivo, como no âmbito criativo, eliminando, em 3 anos, 6000 postos de trabalho na Suécia — é a regra matriz da ampliação dos lucros e redução dos custos, inerente ao capital industrial e sendo reproduzida no capitalismo da informação.
Algumas pesquisas apontam a necessidade, dentro do horizonte próximo (no qual a automação deve ser sempre considerada), de equilíbrio entre requalificação e contratação com base em competências diferenciadas. De forma mais clara, isso quer dizer que os que não se adaptarem estarão fora daquele nicho de mercado, sendo relegados a posições que o próprio capital considera adequada e que a sociedade considerará, como a história demonstra, subalternas. Na diatribe do capital com o trabalho, o elemento humano é posto sempre em situação de degradação.
O recurso a ser valorado pelo processo econômico não se resume à cultura em oposição ao trabalho braçal — imagem estereotípica da automação — mas, da cultura em sentido ultra-especializado e sempre voltada a uma relação inexorável com robôs. O labor, em si, é subalternizado, enfraquecido diante das vantagens competitivas (trabalho de massa) dos robôs: as empresas passam a criar uma assimetria na relação, já citada, entre trabalho e capital.
O “direito”, por outro lado, é terra minada diante dos horizontes históricos achatados pelos avanços disruptivos da tecnologia e das agregações de desenvolvimento no entorno de técnicas já estabelecidas — como na capacidade de coleta e processamento de dados.
Numa sociedade acostumada ao arbítrio, como é o caso da sociedade brasileira, a substituição do voluntarismo tirânico (o dedo do déspota/o pretor versus a atividade cognitiva do iudex) pela aparência de neutralidade de uma técnica, cuja transformação em produto requer o vínculo a uma imagem apolítica, não se apresenta como um exercício de predição impossível.
Exemplo disso é a alegação em defesa do ius postulandi dos advogados, albergada por lei, diante da redação de peças inteiras por robôs. Menções ao Watson/IBM aparecem como doce na boca de criança para referenciar a computação (dita) quântica, ainda que o desenvolvimento do potencial de processamento em qubits pouco interesse aos advogados, quando, na verdade, essa tecnologia intermediária (entre o hoje mal chamado quântico e futuros processadores de matriz biológica) permite a implementação de cálculos nos modelos teóricos da (já defasada ou mal utilizada) lógica deôntica, tão quista pela educação jurídica tradicional.
Aqui também cabe citar o trabalho de outras empresas, como a Intelivix, que fornece verdadeira análise de dados, com indicadores estratégicos e correção das formatações dos bancos de dados de tribunais — num formato de trabalho que congrega a interdisciplinaridade como ordem e que expõe o direito, sempre jovem, ao retrato decrépito de sua decadência.
Seja permitida uma digressão bem à moda dos dogmáticos: se o ius postulandi tem a ver com ato do advogado e se os sistemas inteligentes ainda não peticionam por si, mas apenas criam minutas para os seus “patrões”, há, formalmente, destituição da capacidade postulatória dos advogados? Me parece que o que ocorre é a modificação do papel do advogado e não sua remoção do processo de peticionamento e ação dentro da lide.
Mais ainda, a relativização do ius postulandi, apontando seu papel de estrutura conceitualista cartelizadora, é dano à sociedade? Reflitamos sobre a ideia posta no art. 133 da CRFB: o advogado como indispensável à administração da Justiça. Existe confronto efetivo entre o ius postulandi como ação/comunicação no processo e a revisão de minutas escritas por automação? O que garante maior acesso à justiça (inerente à administração da Justiça): a manutenção do status quo pela força da norma jurídica ou a possibilidade das pessoas garantirem a apreciação dos seus pleitos no Judiciário através de minutas rápidas, cuja taxa de acerto é maior e cujo processamento por robôs garante maior celeridade? Afinal, celeridade, acesso à justiça, não são os valores mais exaltados por advogados e processualistas? O que falar, por fim, da livre revelação do direito, que está intimamente ligada a uma sociedade mais democrática, cujo acesso ao conhecimento é farto e irrestrito?
O tema descamba em outras preocupações da classe jurídica, como, por exemplo, o perigo da automação no ensino do direito: substituir o elemento humano pelo elemento robótico, em estereótipos de “aulas dadas por professores-siri (apple)” ou robôs androides. Aqui a dimensão aguda do tema toma proporções que merecem rechaço por múltiplos motivos. Discutir a automação da educação nas universidades de direito, sem discutir a automação da educação (cuja demarcação temporal acumula mais de 20 anos de teoria e empiria) é trivialidade de um senso comum jurídico. A automação do ensino não começa com sistemas como SIRI ou andróides, ela foi iniciada, com sucesso, desde o uso das reprografias e datashows — conforme dimensão de automação explicitada nesse artigo (parte 1).
Falar disso apenas quanto ao direito não é relevante, mas dissociante do conhecimento produzido pela pedagogia geral. Ademais, qual a característica típica da catequese jurídica que demarca esse tipo de “ensino” como, possivelmente, aniquilável pela remoção do elemento humano? Não seria melhor refletir sobre o aspecto reprodutivo das escolas de direito, o treino alienante de “adequação do caso à norma e da norma ao caso”?
Procurando por um ensino de habilidades analíticas (relativas ao fomento, nos estudantes, do poder de processar, criticar e rearrumar esquemas lógicos, bancos de dados e induzir mudanças sociais significativas), não teremos na lista as faculdades de direito, salvo honrosas exceções. Deixemos este tema, também, para momento futuro.
UMA COMÉDIA DE ERROS
Não existem “robôs malvados”, contra “humanos indefesos”, existem robôs bem treinados cujos objetivos divergem, ou não, daqueles escolhidos por uma sociedade democraticamente organizada — a técnica é política! Não existem robôs, como autômatos-mecânicos exercendo funções específicas, existem “robôs” como uma palavra coringa para definir uma gama de tecnologias de mímeses do agir humano. Estamos falando, a todo tempo, de simulacros substitutivos do elemento humano na cadeia do trabalho mundial, seja ele criativo, reprodutivo ou físico — nesse sentido, robôs podem prescindir de um corpo, se manifestando como código (não são, necessariamente, andróides ou ciborgues).
É preciso alertar, portanto, que se você pagou por uma inteligência artificial, provavelmente você foi enganado. Ou, como sempre me permito, “as coisas não são tão bem assim como parecem ser”.
Na redação de códigos que podem servir à automação de atividades pelo computador — grosseiramente entendidos como robôs — e no processo de escrita de um algoritmo, a utilização de linguagens formais que permitam a mais rápida substituição, reforma e adição das sintaxes (strings) anteriores através de regras arbitrariamente definidas ganha destaque. Especificamente, devemos destacar o uso da linguagem formal regex (acrônimo em inglês para “expressões regulares”).
Se os cientistas da computação/informação possuem uma ferramenta que auxilia sobremaneira na reforma de sintaxes de um código e análise léxica, qualquer que seja, eles abrem espaço para a construção de “códigos que aprendem sozinhos” (deep e machine learning). A inteligência artificial, aquela das ficções científicas, não será pautada pela regularidade, mas pela manipulação de modelos difusos de reconstrução de sintaxes — não se fala apenas do domínio de valores difusos entre a cadeia “0 a 1”, mas de valores aleatórios. A análise crítica dos reflexos desses trabalhos deve reter algo da mais vital importância: seja I.A. propriamente dita ou regex, todos esses instrumentos lógicos já permitem processos vorazes de automação.
O manejo dessas técnicas, e registros produzidos, guarda relação com a diferença, no campo estatístico, entre o preciso e o exato, a partir de valores de referência (a chamada acurácia). Quanto ao que já foi dito há expressa relação com a disjunção entre causalidade e concorrência e entre causalidade e função. A operação da mentalidade jurídica, não vendo diferenças, criou simulacros de duplos (doppelganger), e por não entender bem os seus duplos artificiais, virou um gerenciamento de erros e perdeu sua relevância enquanto “saber e trabalho”, ou seja, enquanto “transcendentalidade e utilidade”. Esse direito, assim posto, é não apenas inútil diante dos recentes desenvolvimentos da computação e da tecnologia, como não fomenta a libertação/adaptação/evolução dos seres humanos.
No último ano, várias notícias abordaram uma gama de análises de decisões da Suprema Corte dos Estados Unidos (SCOTUS), todas com fins preditivos. A técnica empregada nas análises testemunhou justamente acerca de instrumentos escritos com base em regex, fundamentando o processo de aprendizagem de programas que devastaram as ações dos Ministros, criando padrões de comportamento com base em assunto, época, entre outros — a acurácia ultrapassou os 70%.
Dentre as querelas envolvendo I.A. e decisões judiciais, o caso Eric L. Loomis logo se destaca. Naquele processo houve a contestação dos critérios estabelecidos em algoritmo (Compas), cujos fins semi-preditivos e o código-base são construídos com base em scores e critérios preconcebidos criando bias (vieses). O raciocínio da defesa é claro: a parte já possuía um score estabelecido, tornando tendenciosa a metrificação do algoritmo que gerou a condenação.
O uso de técnicas preditivas, com base em I.A., não se restringe ao campo penal, a Suprema Corte já virou objeto de outros sistemas, como o empregado pelo Ogletree Deakins, em matéria de acordos de arbitragem.
A instauração de modelos preditivos põe em cheque a impossibilidade de criar padrões que convertam e ultrapassem, reciprocamente, os planos de prescrição, injunção e indicação das normatizações. A novidade não para na análise dos textos, mas também na absorção de dados a partir das exposições públicas (votos em sessões) e elementos mais sutis do modus operandi decisório dos Tribunais.
Por outro lado, esses modelos ressaltam a modificação das reflexões sobre os limites éticos da predição e os limites éticos no processo de construção dos algoritmos, programas, robôs — a vontade da técnica é “vontade” por possuir opiniões preconcebidas.
Ao tempo em que o problema ético dos modelos preditivos é homérico, ele também entrega um dado valioso: a questão da automação é holística e interdisciplinar. A temática demanda a produção de conhecimento, esforços e especialistas quanto à indexação/tratamento/estruturação de bancos de dados cada vez maiores (diz-se que a acurácia aumenta quanto mais se puder referenciar a pergunta feita). Eis mais um exemplo de modificação das habilidades e competências do chamado “profissional jurídico”, seja do advogado ao magistrado.
O que resta saber é: a resposta dos juristas, enquanto classe com poder social, desvelará o “anseio do cartel” ou a decupagem do poder, através do conhecimento? No fim, o que e quem será visto nessa imagem refletida na escuridão do porvir?
André Fernandes
Diretor e fundador do IP.rec, é graduado e mestre em Direito pela UFPE, linha teoria da decisão jurídica. Doutorando pela UNICAP, na linha de tecnologia e direito. Professor Universitário. Membro de grupos de especialistas: na Internet Society, o Grupo de Trabalho sobre Responsabilidade de Intermediários; no Governo Federal, Grupo de Especialista da Estratégia Brasileira de IA (EBIA, Eixo 2, Governança). Fundador e Ex-Conselheiro no Youth Observatory, Internet Society. Ex-Presidente e Fundador da Comissão de Direito da Tecnologia e da Informação (CDTI) da OAB/PE. Alumni da Escola de Governança da Internet do CGI.br (2016). No IP.rec, atua principalmente nas áreas de Responsabilidade Civil de Intermediários, Automação do Trabalho e Inteligência Artificial e Multissetorialismo.