Resumo Este artigo investiga a capacitação dos juízes brasileiros para exercer controle ético sobre ferramentas de inteligência artificial (IA) aplicadas à atividade jurisdicional. O Judiciário brasileiro vem investindo fortemente no uso e no desenvolvimento de ferramentas de IA, contando com 64 sistemas de IA em uso ou desenvolvimento nos diversos tribunais. A Resolução nº 332/2020, que trata da ética, da transparência e da governança na produção e no uso de IA no Judiciário, adotou, entre outros, o princípio do controle do usuário, que estabelece direitos e deveres ao usuário quanto ao controle ético da IA. Assim, cabe ao juiz, como usuário interno, exercer tal controle ao utilizar ferramenta de IA no desempenho da atividade jurisdicional. Porém, para fazê-lo, precisa conhecer o poder-dever que lhe cabe, e estar capacitado a exercê-lo. Utilizando-se de metodologia de pesquisa quantitativa do tipo survey, apurou-se que a grande maioria dos magistrados brasileiros desconhece os termos da Resolução nº 332/2020; não se considera preparada para exercer controle ou supervisão de ferramentas de IA; tampouco se qualificou para tanto nos últimos três anos. Considerando que já há ferramentas de IA em uso pelo Judiciário, conclui-se pela necessidade de refletir sobre a política até então adotada, sugerindo que os investimentos na área sejam também direcionados à inclusão ou ampliação da capacitação dos magistrados para exercer o controle esperado. Palavras-chave: Ética. Inteligência artificial. Magistratura. Princípios de Bangalore. Abstract This article deals with Brazilian judges’ ability to perform ethical control over artificial intelligence (AI) tools applied to the judicial function. The Brazilian Judiciary has strongly invested in use and development of AI tools, with 64 AI systems currently being used or developed in various courts. Resolution no. 332/2020, which regulates ethics, transparency and governance in the production and use of AI in the Judiciary, established, among others, the principle of user control, which entails rights and duties to the user regarding the ethical control of AI. Thus, as an internal user, the judge must perform such control when using AI tools in the judicial function. However, in order to do it, they must be informed of this power-duty, and be trained to perform it. The findings of a quantitative survey research revealed that the vast majority of Brazilian judges have no knowledge of Resolution no. 332/2020’s contents; neither feel able to perform control or supervision of AI tools; nor have qualified for this in the past three years. Considering that the Judiciary is already using AI tools, this article points out to the need to reflect upon the current policies, suggesting that the investments in the field should also include training into the development of abilities to perform such control. Keywords: Ethics. Artificial intelligence. Magistracy. Bangalore Principles. Sumário: Introdução. 1 Um panorama da inteligência artificial no Poder Judiciário brasileiro. 2 O poder-dever ético do juiz enquanto usuário controlador da inteligência artificial. 3 Educação e ética para uso de inteligência artificial no Judiciário. 4 Análise da pesquisa empírica. Considerações finais. Referências. Introdução À semelhança do que vem ocorrendo em diferentes esferas do setor público no Brasil e no mundo, o Poder Judiciário brasileiro passa por importante transformação digital, buscando adotar e desenvolver tecnologias que contribuam para o melhor desempenho de suas funções. Nessa jornada, já ultrapassou as fronteiras da digitalização processual para incorporar ferramentas mais sofisticadas, como sistemas de business intelligence, robôs, assistentes virtuais e cortes digitais. A mais nova fronteira que vem sendo desbravada pelo Poder Judiciário é a da inteligência artificial (IA), tecnologia com potencial de impactar significativamente os julgamentos e as relações de trabalho na instituição, especialmente diante do quadro de um Judiciário congestionado e cuja força de trabalho vem sendo paulatinamente reduzida. Pesquisa realizada pela Fundação Getúlio Vargas (2020, p. 69) relata a existência de 64 projetos de IA em tribunais brasileiros, voltados ao atendimento de várias necessidades típicas da função jurisdicional, tais como sugestões de redação de minutas, classificação de petições e processos, estimativa de probabilidade de reversão de decisões, entre outras. Diante de tamanho investimento em IA, cabe perguntar: Estão os magistrados brasileiros preparados para os desafios trazidos por essa tecnologia? Em 2020, o Conselho Nacional de Justiça (CNJ) baixou a Resolução nº 332/2020, que “dispõe sobre a ética, a transparência e a governança na produção e no uso de inteligência artificial no Poder Judiciário”. Naquela resolução, inspirada em grande parte pela Carta Europeia de Ética sobre o Uso da Inteligência Artificial em Sistemas Judiciais e seu Ambiente (CEPEJ, 2018), adotou-se o princípio “sob controle do usuário”, com vistas a “garantir que os utilizadores sejam agentes informados e controlem as suas escolhas” (FGV, 2020, p. 20). Ao mesmo tempo que se trata de uma tecnologia promissora e revolucionária, a IA também traz grandes riscos que não podem ser ignorados, dado seu potencial de causar lesões a direitos. Tais riscos revestem-se de especial preocupação em se tratando de sistemas de IA para uso do Poder Judiciário, um dos três poderes do Estado Democrático de Direito instituído pela Constituição Federal, a quem cabe apreciar lesão ou ameaça a direito, nos termos dos arts. 1º, 2º e 5º, XXXV (BRASIL, 1988). Conforme Peixoto (2020), o uso da IA no Judiciário traz riscos tais como redução de direitos fundamentais, detrimento do devido processo legal, quebra da paridade de armas, violação da privacidade, redução do combate à discriminação, fragilização democrática e enfraquecimento da cidadania. Um dos exemplos mais conhecidos e que melhor ilustra os riscos trazidos pelo uso da IA no sistema judicial é o da ferramenta norte-americana COMPAS, que, na seara criminal, criou um perfil de gerenciamento de infratores para predizer a chance de reincidência, invariavelmente concluindo que réus negros eram mais propensos a reincidir do que brancos, como analisado por Kehl e Kessler (2017). É justamente atentando para esses e outros tipos de riscos potenciais, incidentes em maior ou menor grau a direitos juridicamente tutelados, que Peixoto (2020) aponta fatores críticos que não podem ser negligenciados para que se produza IA no Judiciário dentro de parâmetros éticos. Com efeito, tendo em vista a dimensão do papel do Poder Judiciário no âmbito do Estado Democrático de Direito, como garantidor de direitos e liberdades fundamentais à sociedade, a questão dos riscos da utilização de ferramentas de IA pelos juízes adquire especial relevância. São enormes os desafios para cada juiz que, ao utilizar ferramentas de IA na função jurisdicional, necessita exercer efetiva supervisão daquelas, garantindo sua aplicação ética. Conforme determina a Resolução nº 332/2020 do CNJ, o usuário – e, portanto, também o juiz-usuário – deve ter controle sobre a ferramenta, garantindo-se, desse modo, sua autonomia relativamente àquela. Trata-se de verdadeiro poder-dever, pois, ao mesmo tempo que busca garantir independência decisória ao magistrado, também lhe impõe o dever de supervisão da tecnologia para garantir à sociedade uma prestação jurisdicional legítima e justa. O exercício do controle da IA pelo juiz-usuário, entretanto, pressupõe conhecimento para fazê-lo. Afinal, a tecnologia transforma a percepção humana e sua forma de vida (IHDE, 1979; TRIPATHI, 2017), exigindo dos juízes uma postura consciente e ativa na realização daquele. Assim, a par do dever ético geral de competência atribuído aos magistrados, de acordo com os Princípios de Bangalore de Conduta Judicial (ONU, 2008), há um comando específico no sentido de informar-se para poder exercê-lo – afinal, os juízes devem ter consciência dos riscos de se acomodar a resultados automatizados, ou se deixar influenciar pela previsibilidade de reforma ou confirmação de suas decisões por instâncias recursais, deixando de cumprir seu dever de analisar todas as circunstâncias do caso concreto. Considerando o panorama atual do desenvolvimento e da utilização de ferramentas de IA no Poder Judiciário brasileiro, o presente estudo, partindo do pressuposto de que o conhecimento é fundamental ao pleno exercício do controle pelo usuário-juiz, investiga se os juízes, usuários dessas ferramentas, percebem-se ou não aptos a com elas operarem. Igualmente, investiga se os juízes brasileiros têm procurado formação específica quanto ao tema ou recebido oferta dessa formação das escolas judiciais dos tribunais respectivos. Nesse contexto, o presente artigo traça um panorama da IA no Poder Judiciário brasileiro e analisa os regramentos éticos estabelecidos pelo CNJ à luz da ética aplicada, inquirindo quanto à efetiva implementação das condições que permitam ao juiz-usuário exercer o poder-dever de controle que lhe incumbe. 1 Um panorama da inteligência artificial no Poder Judiciário brasileiro O relatório Justiça em Números 2021, elaborado pelo Conselho Nacional de Justiça (2021, p. 11), informa que o Poder Judiciário brasileiro se compõe de 90 diferentes tribunais, além do Supremo Tribunal Federal. São 27 Tribunais de Justiça Estaduais, 5 Tribunais Regionais Federais, 24 Tribunais Regionais do Trabalho, 27 Tribunais Regionais Eleitorais, 3 Tribunais de Justiça Militar Estaduais, o Superior Tribunal de Justiça, o Tribunal Superior do Trabalho, o Tribunal Superior Eleitoral e o Superior Tribunal Militar. Segundo o relatório, durante o ano de 2020, a quase totalidade dos novos processos ingressou no Judiciário na forma digital, com apenas 3,1% na modalidade física (CNJ, 2021, p. 127), dado que bem demonstra o avançado nível de digitalização do processo judicial que se alcançou em todo o país. Em paralelo, o relatório também aponta que o Poder Judiciário contava com um estoque de 75,4 milhões de processos pendentes no final do ano de 2020 (CNJ, 2021, p. 102), para uma força de trabalho de 22.695 magistrados – dos quais 20,7%, ou 4.707 cargos, estão vagos (CNJ, 2021, p. 94). Quanto aos servidores, do total de 267.613, 224.001 são efetivos (83,7%) e, destes, há 49.662 cargos criados e não providos, representando 18% dos cargos (CNJ, 2021, p. 96). Tais números indicam uma sobrecarga de trabalho humano que pode impactar diretamente no tempo de tramitação dos feitos, problema que pode ser amenizado de maneira significativa com a adoção de IA como ferramenta auxiliar para tarefas repetitivas e de grande volume, entre muitas outras possibilidades de aplicação. Em dezembro de 2020, o Centro de Inovação, Administração e Pesquisa do Judiciário da Fundação Getúlio Vargas (FGV) divulgou o relatório da primeira fase da pesquisa “Tecnologia aplicada à gestão dos conflitos no âmbito do Poder Judiciário com ênfase em inteligência artificial”, coordenada pelo Ministro Luis Felipe Salomão, do Superior Tribunal de Justiça, que mapeou o desenvolvimento e a utilização de IA pelas Cortes de Justiça nacionais, verificando que, até dezembro de 2020, já existiam ao menos 64 projetos de IA em 47 tribunais brasileiros, em variados estágios de desenvolvimento (FGV, 2020, p. 26). Ainda de acordo com o documento, é possível visualizar que tais projetos começaram timidamente em 2018, expandindo-se em 2019 e dando um salto em 2020 (FGV, 2020, p. 67-68). Destaca-se, ademais, que os projetos de IA não acarretaram aumento significativo de despesas, porque se observou que “a série histórica de despesas com informática ficou praticamente estável” (FGV, 2020, p. 69). O relatório da pesquisa informou que, ao tempo de sua publicação, em diferentes fases (desenvolvimento, projeto-piloto ou produção), havia nove projetos de IA no Supremo Tribunal Federal, no Superior Tribunal de Justiça e no Tribunal Superior do Trabalho; 16 projetos distribuídos entre todos os cinco Tribunais Regionais Federais; sete projetos em Tribunais Regionais do Trabalho; e 31 projetos em Tribunais Estaduais (FGV, 2020, p. 66). Quanto aos números de projetos apontados, fez-se a ressalva de que os dados foram coletados entre fevereiro e agosto de 2020, principalmente por formulário, que teve um retorno de 98%, e não 100%; e também que o número inicial de projetos era de 72, o que foi reduzido após a constatação de que alguns eram sistemas de TI, e não IA propriamente dita. Destacou-se ainda que, devido ao dinamismo no campo tecnológico, há uma necessidade constante de atualização dos números correspondentes (FGV, 2020, p. 8, 24 e 26). A pesquisa da FGV também cuidou de verificar a origem do desenvolvedor das soluções de IA encontradas nos diversos tribunais, constatando que, da grande maioria que foi desenvolvida entre 2019 e 2020, 47 projetos foram elaborados internamente pelas próprias secretarias de tecnologia dos tribunais, três mediante parceria com universidades, 13 em parceria com uma empresa privada e um por outros órgãos (FGV, 2020, p. 69). No tocante à aplicabilidade das ferramentas variadas de IA existentes nos tribunais, o relatório da pesquisa aponta (FGV, 2020, p. 69): De forma geral, os projetos de IA nos tribunais comportaram as seguintes funcionalidades: verificação das hipóteses de improcedência liminar do pedido nos moldes enumerados nos incisos do art. 332 do Código de Processo Civil; sugestão de minuta; agrupamento por similaridade; realização do juízo de admissibilidade dos recursos; classificação dos processos por assunto; tratamento de demandas de massa; penhora online; extração de dados de acórdãos; reconhecimento facial; chatbot; cálculo de probabilidade de reversão de decisões; classificação de petições; indicação de prescrição; padronização de documentos; transcrição de audiências; distribuição automatizada; e classificação de sentenças. Por meio das funcionalidades apontadas, pode-se depreender que os tribunais estão buscando utilizar a IA principalmente para aumentar a produtividade, reduzir o tempo de tramitação dos processos, otimizar recursos humanos e materiais e garantir mais segurança jurídica via respeito aos precedentes – pela previsibilidade de aplicação das mesmas regras a casos semelhantes. Em dezembro de 2020, o CNJ noticiou que passou a disponibilizar, em seu portal na Internet, para consulta em tempo real, o Painel de Projetos com Inteligência Artificial, buscando conferir mais transparência a respeito de quantos tribunais estão utilizando a tecnologia e quais são as funcionalidades, destacando que 88% das iniciativas utilizam, em alguma medida, código-fonte na linguagem Python. O painel apresenta 41 projetos em 32 tribunais, contendo diversas informações e permitindo fazer download de relatórios (CNJ, 2020a). Constata-se, portanto, que as ferramentas de IA estão avançando no Poder Judiciário brasileiro, com um número significativo de projetos em desenvolvimento ou já em plena utilização. Para os fins deste trabalho, resta investigar em que medida o conhecimento e a formação dos juízes usuários estão em compasso com o avanço tecnológico. 2 O poder-dever ético do juiz enquanto usuário controlador da inteligência artificial Em dezembro de 2018, a Comissão Europeia para a Eficácia da Justiça (CEPEJ), órgão do Conselho da Europa, divulgou a Carta Europeia de Ética sobre o Uso da Inteligência Artificial em Sistemas Judiciais e seu Ambiente, estabelecendo cinco princípios que devem nortear a aplicação de inteligência artificial no âmbito da Justiça: princípio do respeito dos direitos fundamentais; princípio da não discriminação; princípio da qualidade e da segurança; princípio da transparência, da imparcialidade e da equidade; princípio “sob controle do usuário”. No Brasil, o CNJ baixou a Resolução nº 332, de 21 de agosto de 2020, que “dispõe sobre a ética, a transparência e a governança na produção e no uso de inteligência artificial no Poder Judiciário”, fazendo constar expressamente em seus “considerandos” que tomou por base a Carta Ética europeia. Naquela resolução, foram incorporados os cinco princípios mencionados supra, constantes da referida carta. Ademais, a Resolução nº 332/2020 atribuiu ao juiz, que se enquadra como usuário interno, o encargo de controlar a ferramenta de IA ao aplicá-la em sua atividade jurisdicional. Trata-se de tarefa deveras desafiadora, pois deve o magistrado ser capaz de detectar falhas nos dados utilizados ou nos resultados apresentados pela IA, ou vieses revelando discriminação de gênero, raça e classe social, entre outras situações que podem ser prejudiciais aos jurisdicionados. Além disso, como já mencionado, o juiz precisa ter consciência dos riscos de acomodação aos resultados automatizados oferecidos pela IA e dos potenciais incentivos para tanto, particularmente em um contexto em que os magistrados ainda são majoritariamente avaliados pela produção numérica em comparação a outros critérios qualitativos de avaliação (CNJ, 2020b). É interessante notar que a Resolução CNJ nº 332/2020 se preocupou em adotar providências concretas para mitigar o risco de vieses nos sistemas de IA usados na Justiça brasileira, a exemplo da busca por ampla diversidade expressa no art. 20 quanto às equipes de desenvolvedores, no que se refere a “gênero, raça, etnia, cor, orientação sexual, pessoas com deficiência, geração e demais características individuais”. Ainda, de acordo com o § 1º do mesmo dispositivo, houve preocupação com que a participação representativa existisse em todas as etapas do processo (CNJ, 2020). A diversidade, ainda, deve ser observada para fins de distribuição de vagas de capacitação (CNJ, 2020). Porém, muito embora tais providências sejam importantes e necessárias, não são suficientes em se tratando do magistrado. É preciso que o juiz, usuário-controlador, também tenha consciência dos possíveis riscos de discriminações algorítmicas, preparando-se para identificá-las e corrigi-las. Para tanto, capacitações em julgamento com perspectiva de gênero, em letramento racial e em proteção de dados são de fundamental importância, cabendo também aos tribunais prover essa necessidade. Para o escopo deste trabalho, portanto, interessa uma análise mais detalhada das regras em torno da figura do usuário, enquanto controlador − por ser o papel que caberá ao juiz desempenhar. Nesse passo, no capítulo que trata das disposições gerais da Resolução nº 332/2020, há o conceito de usuário, desdobrado em interno e externo (CNJ, 2020). Usuário é definido como a “pessoa que utiliza o sistema inteligente e que tem direito ao seu controle, conforme sua posição endógena ou exógena ao Poder Judiciário”, conforme o art. 3º, IV, da resolução. O juiz se enquadra na categoria de usuário interno, definido como “membro, servidor ou colaborador do Poder Judiciário que desenvolva ou utilize o sistema inteligente”, nos termos do inciso V do citado dispositivo. Usuário externo, por sua vez, é a “pessoa que, mesmo sem ser membro, servidor ou colaborador do Poder Judiciário, utiliza ou mantém qualquer espécie de contato com o sistema inteligente”. São exemplos de usuários externos advogados e jurisdicionados, entre outros atores constantes do rol exemplificativo no inciso VI do mesmo art. 3º da Resolução nº 332/2020 (CNJ, 2020). A definição de usuário interno está relacionada ao fato de que o desenvolvimento de um sistema de IA é interdisciplinar, conforme o art. 20, caput e § 4º, da Resolução nº 332/2020, por ser feito em equipe e envolver tanto profissionais da área de Tecnologia da Informação (engenheiros e cientistas de dados, entre outros), que detêm o conhecimento técnico necessário à programação do sistema, como também profissionais da área em que o sistema inteligente será aplicado − no caso, a área jurídica −, pois é a partir das considerações, das informações de ordem prática e das necessidades concretas destes que os projetos são desenvolvidos (CNJ, 2020). No caso do Poder Judiciário, tais profissionais são principalmente magistrados e servidores, prevendo-se também a participação de profissionais de outras áreas do conhecimento em conformidade com cada projeto específico. Quanto aos usuários internos, incluindo o juiz, o art. 17, caput e inciso II, da Resolução nº 332/2020 estabelece que “o sistema inteligente deverá assegurar a autonomia dos usuários internos”. Para tanto, deve possibilitar “a revisão da proposta de decisão e dos dados utilizados para sua elaboração, sem que haja qualquer espécie de vinculação à solução apresentada pela inteligência artificial” (CNJ, 2020). De acordo com o parágrafo único do art. 18 da resolução, destaca-se “o caráter não vinculante da proposta de solução apresentada pela inteligência artificial, a qual sempre é submetida à análise da autoridade competente” (CNJ, 2020). Além disso, o art. 19, caput e parágrafo único, da Resolução nº 332/2020 dispõe que os sistemas de IA usados para a elaboração de decisão judicial, enquanto ferramenta de auxílio, “observarão, como critério preponderante para definir a técnica utilizada, a explicação dos passos que conduziram ao resultado”, devendo sempre “permitir a supervisão do magistrado competente” (CNJ, 2020). É possível notar, dessas disposições normativas, uma preocupação em reforçar o caráter auxiliar da IA no uso jurisdicional, vista como uma ferramenta sempre sujeita ao controle do juiz, o qual deverá ser capaz de aferir a observância dos parâmetros éticos da proposta elaborada pelo sistema inteligente e corrigir erros, sabendo identificar se o erro partiu dos dados que alimentam o sistema ou da forma como a IA processou esses dados. Ocorre que somente é possível controlar o que se conhece, o que remete a uma reflexão sobre a aplicação dos parâmetros éticos relativos ao juiz-controlador no âmbito do Poder Judiciário brasileiro. 3 Educação e ética para uso de inteligência artificial no Judiciário O debate que se inicia a partir da definição de parâmetros éticos para o exercício adequado da função jurisdicional com o uso da IA remete, necessariamente, para a discussão do conceito de ética e do que ela enseja do ponto de vista prático. O que poderia ser definido como ética na Resolução nº 332/2020? Certamente, a leitura da referida resolução conduz a uma série de reflexões que não podem ser esgotadas em um único artigo. Fica claro, no entanto, que a IA deve estar situada no “lugar” de mera auxiliar no cenário jurídico, de modo que não haja risco de que se firam os direitos fundamentais, bem como sejam garantidos e preservados a transparência, a segurança e o controle do usuário. Chama atenção, contudo, o fato de já existirem inúmeros projetos de IA em andamento sem que exista uma política de formação instituída para que tais iniciativas aconteçam de forma relativamente segura e em consonância com o título da própria “Carta Europeia de Ética sobre o Uso da Inteligência Artificial em Sistemas Judiciais e seu Ambiente”, que inspirou o ato normativo brasileiro. Os cinco princípios que versam sobre “direitos fundamentais; não discriminação; qualidade e segurança; transparência, imparcialidade e equidade; sob controle do usuário” parecem garantir que a questão ética seja valorizada e, ao mesmo tempo, conduzem o cidadão a uma conclusão básica de que, sem formação educativa para o uso da IA no contexto judiciário, tal perspectiva passa a gozar de perigosa fragilidade quando a meta a ser alcançada é o bem público. Nessa esteira, parece fundamental primeiramente revisitar o conceito de ética e, por conseguinte, examinar de que maneira o Judiciário pode valer-se dela para utilizar recursos de IA em seu cotidiano. De acordo com Cortina e Martinez (2005), a ética não tem como função apenas o esclarecimento e a fundamentação do fenômeno da moralidade, mas também a aplicação de suas descobertas aos diferentes âmbitos da vida social. Em conjunto com a missão de fundamentação está a tarefa da aplicação, que consiste em averiguar como os princípios ajudam a orientar os diferentes tipos de atividade. Os autores ressaltam que não basta refletir sobre como se aplicam os princípios em cada âmbito concreto, fazendo-se necessário levar em conta a especificidade de cada atividade com suas próprias exigências morais e seus próprios valores. Trata-se, pois, de verificar quais são os bens internos que cada tipo de atividade deve trazer para a sociedade e quais são os valores e os hábitos que é preciso incorporar para alcançá-los. Para chegar a isso, deve-se trabalhar interdisciplinarmente com os especialistas de cada área, por meio da implementação de uma cultura educativa comprometida e constante que seja capaz de ampliar o olhar ético para o moral cívico, regente do tipo de sociedade em que vivemos. O uso ético de recursos de IA no Judiciário carece, ao menos, da organização de uma política formativa contundente para que os usuários internos estejam minimamente esclarecidos a respeito do funcionamento e/ou impacto que esse tipo de tecnologia pode provocar. O viés prático da questão ética está, nesse caso, inteiramente vinculado a uma proposição educacional consistente que priorize a aprendizagem dos magistrados e dos servidores, capacitando-os para serem também agentes éticos quando da utilização desse tipo de recurso no âmbito jurisdicional. Nesse caso, a ética só se faz prática mediante a existência de um processo de ensino que permita a adequada preparação do magistrado para o exercício consciente e esclarecido da sua função quando auxiliado por esse tipo de recurso. É importante esclarecer que, caso a questão ética se encerre apenas na deflagração de princípios sem que haja uma preocupação com a sua tradução concreta, o ferimento à própria ética como princípio acaba por se constituir. Os filósofos alemães da Escola de Frankfurt, durante o século XX, enfatizaram a importância de que a postura geral da sociedade fosse pautada pela ética, pelo cuidado com o outro, pela alteridade e pela solidariedade, ressaltando o dever humano de repensar constantemente as situações vividas e reconhecer o sofrimento alheio. Nesse sentido, tal forma social de ser teria a importante função de fortalecer seu vínculo com a ética e de conduzir os indivíduos à maior amplitude de experiências. Seguindo essa orientação, a relação entre ética e educação deve ser predominantemente refletida para que possa ser incorporada ao campo das ações. Conforme Adorno (1995), a educação não se restringe exclusivamente à pauta do desenvolvimento das estratégias de esclarecimento da consciência, mas tem o compromisso de levar em conta e em grande medida a forma social em que ela se dá, concretizando-se, também, como apropriação de conhecimentos técnicos. Portanto, compreender que o atendimento ao compromisso ético do Judiciário frente à implementação de projetos de IA passa necessariamente por um vultoso dever educacional é condição sine qua non para que a Carta Europeia e a Resolução nº 332/2020 possam justificar a sua existência. Veja-se que o princípio da competência se inclui entre os Princípios de Bangalore de Conduta Judicial, de acordo com o art. 6.3. Tal princípio se desdobra em deveres tanto para o juiz – que deve buscar manter e aprimorar seu conhecimento, suas habilidades e suas qualidades pessoais necessárias ao desempenho adequado de suas funções – quanto para os tribunais – que devem proporcionar treinamento adequado aos juízes (ONU, 2008). Ademais, o CNJ recentemente promoveu alterações na Resolução nº 75/2009, que trata dos concursos públicos para a magistratura, exigindo, entre outros conteúdos, conhecimentos sobre inteligência artificial e outras tecnologias, em deliberação unânime do Ato Normativo nº 0006767-49.2021.2.00.000, por ocasião da 93ª Sessão Virtual do CNJ, encerrada em 24 de setembro de 2021 (CNJ, 2021b). Assim, quanto aos magistrados que já se encontram na carreira, cabe perquirir se a utilização e o desenvolvimento de sistemas de IA nos tribunais vêm sendo acompanhados do dever ético educativo correspondente, indispensável a que o juiz possa efetivamente exercer o controle enquanto usuário de ferramentas auxiliares de IA. 4 Análise da pesquisa empírica O presente estudo, como antes mencionado, investiga a percepção dos juízes brasileiros quanto a seus conhecimentos sobre IA, bem como sua busca por capacitação e a oferta disponibilizada pelas escolas judiciais. Para tanto, a pesquisa se utilizou de uma metodologia quantitativa, de natureza aplicada, com objetivos exploratórios e procedimentos do tipo survey. Como instrumento de coleta de dados, estruturou-se um questionário com termo de consentimento livre e esclarecido contendo oito perguntas, que foi respondido por 688 magistrados integrantes de quatro dos cinco ramos da Justiça brasileira, a saber: federal, estadual, trabalhista e militar. Optou-se por não incluir o ramo da Justiça Eleitoral, visto que tal jurisdição é exercida por juízes estaduais, nos termos do art. 121 da Constituição Federal (BRASIL, 1988), para evitar duplicidade de respostas. No universo de 17.988 cargos providos de magistrados, de acordo com o relatório Justiça em Números 2021 (CNJ, 2021), o quantitativo de 688 respostas obtidas entre os dias 14 e 21 de setembro de 2021 ultrapassa a amostra ideal de 642 respondentes, permitindo atingir 99% de nível de confiança, com 5% de margem de erro, de acordo com a seguinte fórmula, em que (N) é o universo total de juízes que poderiam responder à pesquisa; (e) é a margem de erro; (k) é o nível de confiança; (p) é a probabilidade de sucesso; e (q) é a probabilidade de fracasso: Figura 1: Fórmula estatística utilizada na pesquisa. Fonte: Questionpro, 2021. Quando perguntados sobre seu grau de conhecimento a respeito das expressões “algoritmo”, “aprendizado de máquina”, “aprendizado profundo” e “redes neurais artificiais”, apenas 9,3% dos respondentes disseram saber explicar o conceito de todas essas expressões. Como se pode ver do gráfico a seguir (questão 2), 35,8% dos respondentes não sabiam explicar o conceito de nenhuma, enquanto os demais (54,6%) reportaram saber explicar o conceito de apenas parte das expressões: Gráfico 1: Respostas ao segundo questionamento. Fonte: Elaborado pelas autoras. Os juízes reportaram, em sua esmagadora maioria, ter pouco ou nenhum conhecimento sobre a Resolução nº 332/2020 do CNJ, o que indica uma possível falta de conhecimento também de seu papel enquanto controladores na utilização de ferramentas de IA – papel imposto pela referida resolução (a seguir, questão 3): Gráfico 2: Respostas ao terceiro questionamento. Fonte: Elaborado pelas autoras. Ainda, 61,3% dos juízes relataram se sentir totalmente despreparados para exercer o controle e a supervisão de sistemas auxiliares de IA para a elaboração de decisões judiciais, sendo que apenas 8,7% se consideraram bem-preparados para tanto (questão 4, a seguir): Gráfico 3: Respostas ao quarto questionamento. Fonte: Elaborado pelas autoras. Perguntados sobre o quão preparados se sentiam para julgar litígios envolvendo a aplicação de IA, 57,3% afirmaram sentir-se totalmente despreparados, e apenas 9,3% reportaram estar bem-preparados para tanto (questão 5, a seguir): Gráfico 4: Respostas ao quinto questionamento. Fonte: Elaborado pelas autoras. Veja-se que, pelo gráfico supra, a maioria dos juízes não apenas se considera totalmente despreparada para exercer o controle e a supervisão de sistemas auxiliares de IA para a elaboração de decisões judiciais, como também se considera totalmente despreparada para julgar litígios envolvendo a aplicação de IA. Quanto à capacitação, embora 38,1% dos respondentes tenham afirmado que as escolas judiciais de seus tribunais respectivos não ofereceram nenhum curso específico sobre IA aplicada à função judicante, chama a atenção que 41,7% desconhecem se a respectiva escola judicial ofereceu ou não tal formação nos últimos três anos (a seguir, questão 6): Gráfico 5: Respostas ao sexto questionamento. Fonte: Elaborado pelas autoras. Não obstante a percepção de despreparo para trabalhar com IA, os magistrados não cursaram formações específicas em IA aplicada à função judicante nos últimos três anos, nem nas escolas judiciais dos tribunais respectivos – 87,5% (questão 7, a seguir) – nem em qualquer outra instituição – 82,3% (questão 8, a seguir): Gráfico 6: Respostas ao sétimo questionamento. Fonte: Elaborado pelas autoras. Gráfico 7: Respostas ao oitavo questionamento. Fonte: Elaborado pelas autoras. Analisada em seu conjunto, a pesquisa revela que os magistrados brasileiros pouco ou nada conhecem sobre a Resolução nº 332/2020 do CNJ, do que se pode validamente depreender que tampouco estão devidamente informados sobre seu poder-dever enquanto usuários controladores das ferramentas de IA com que venham a trabalhar, ou já estejam trabalhando, em suas funções jurisdicionais. Tal desconhecimento pode explicar, em alguma medida, o fato de que, apesar de os juízes se perceberem como despreparados para exercer o controle e a supervisão de ferramentas de IA, não terem ainda buscado formação específica para suprir essa deficiência. Ademais, a pesquisa indica também a falta de oferta – ou de devida comunicação das ofertas existentes – de cursos específicos por parte das escolas judiciais, sendo possível – hipótese que, naturalmente, dependeria de investigação mais aprofundada – que também as administrações dos diversos tribunais e das escolas judiciais não estejam adequadamente informadas sobre os deveres impostos pela Resolução nº 332/2020 do CNJ. Os dados coletados, portanto, quando confrontados com o fato de que há ao menos 64 projetos de IA nos tribunais brasileiros, inclusive levando à edição de uma resolução específica para tratar da matéria pelo CNJ, sugerem que: a) os investimentos maciços no desenvolvimento e na adoção de ferramentas de IA pelos tribunais não têm sido distribuídos de forma a contemplar a capacitação necessária para que os juízes exerçam o papel de usuário-controlador que deles se espera; b) a Resolução nº 332/2020, muito embora louvável enquanto normativo para regular o desenvolvimento e o uso de IA pelos tribunais brasileiros, não vem sendo comunicada de forma eficiente aos magistrados, em especial chamando a atenção para seu dever enquanto usuários-controladores; c) as escolas judiciais tampouco se mobilizaram para capacitar os juízes a cumprir com o poder-dever que lhes incumbe por força da Resolução nº 332/2020, o que também poderia se explicar por uma comunicação ineficiente daquela aos tribunais e pelo próprio fato de que aquele normativo não incluiu entre seus dispositivos o dever de capacitação; d) os juízes que vêm utilizando ferramentas de IA nos diversos tribunais não estão plenamente capacitados para exercer a função de usuários controladores, em prejuízo ao cumprimento do princípio ético “do controle do usuário”, previsto no Capítulo VII da Resolução nº 332/2020. A pesquisa, portanto, acende um sinal de alerta quanto ao uso ético de IA pelos magistrados brasileiros. Ela aponta para a necessidade de reflexão sobre a atual estratégia de investimentos em uso e desenvolvimento dessa tecnologia, para também incluir ou ampliar investimentos na capacitação dos magistrados e na comunicação do que deles se espera enquanto usuários-controladores, na forma da Resolução nº 332/2020. Veja-se que a provável e rápida sofisticação dos sistemas recomenda a pronta atuação do Poder Judiciário nesse sentido, a partir de uma estratégia eficiente de comunicação que engaje magistrados e escolas judiciais na tarefa de promover e buscar aprendizagem. Considerações finais Os novos desafios impõem ao juiz contemporâneo ser mais tecnológico e ao mesmo tempo mais humano, buscando o aperfeiçoamento contínuo, não só para exercer suas funções em um Judiciário cada vez mais digital, mas para se manter atento à evolução da sociedade e ao dever de garantir a todos o direito fundamental de acesso à justiça. Quando se analisa o cenário atual de desenvolvimento de projetos sobre IA aplicada ao Poder Judiciário, percebe-se um ritmo intenso e acelerado, com foco, sobretudo, no aumento da produtividade e na redução do tempo de tramitação dos processos. Contudo, embora seja inegável o potencial de contribuição da IA para atingir o objetivo maior da melhoria da prestação do serviço jurisdicional, não se pode ter em mente apenas aspectos quantitativos: é fundamental atentar também para a questão da qualidade. A independência do Judiciário confere direitos e prerrogativas ao juiz, constitucionalmente assegurados, mas também lhe impõe obrigações éticas. Entre elas, inclui-se o dever de executar o trabalho judicial com competência e diligência. Isso implica dizer que o juiz deve ter substancial habilidade profissional, adquirida, mantida e regularmente reforçada por treinamento ao qual ele tem não apenas o dever, mas também o direito, de submeter-se. Morley e colaboradores (2020, p. 2.147) defendem que é chegada a hora de se passar para a “segunda fase” da ética em IA, aquela que traduz entre “o quê” para “como”. Segundo eles: “[...] the gap between principles and practice is large, and widened by complexity, variability, subjectivity, and lack of standardization, including variable interpretation of the ‘components’ of each of the ethical principles”.[1] Fazendo um paralelo com a problemática trazida no presente artigo, não basta normatizar o poder-dever do juiz enquanto usuário-controlador da IA para garantir sua utilização ética pelo Poder Judiciário: é preciso comunicar amplamente esse poder-dever e garantir a capacitação necessária para que ele seja devidamente exercido. Segundo o sumário executivo divulgado em dezembro de 2019 sobre o “Estudo da imagem do Poder Judiciário brasileiro”, encomendado pela Associação dos Magistrados Brasileiros (AMB) à Fundação Getúlio Vargas (FGV), com a participação do Instituto de Pesquisas Sociais, Políticas e Econômicas (IPESPE), os atributos mais importantes que representariam um sistema de justiça ideal, na visão da sociedade, são um Judiciário confiável (41%), imparcial/igual para todos (35%) e transparente (34%). A pesquisa de que trata este artigo sugere que o uso da IA pelos tribunais brasileiros não vem sendo acompanhado do pleno exercício do controle pelo juiz-usuário, uma vez que os juízes não apenas se sentem despreparados para realizar tal controle, como também desconhecem essa incumbência que lhes é atribuída. Ademais, a pesquisa também revela a carência de um movimento consistente por parte das escolas judiciais, no sentido de promover a ampla capacitação com foco nos juízes brasileiros, preparando-os para essa intensa revolução tecnológica hoje vivenciada. À míngua de medidas para contornar tais deficiências, corre-se o risco de produzir impactos indesejáveis na atividade jurisdicional, deixando o Judiciário de corresponder aos atributos dele esperados pela sociedade. A existência de diversos sistemas de IA já em uso pelo Judiciário convida, portanto, à reflexão quanto ao pleno atendimento dos princípios de uma IA ética por parte da instituição. Assim, o presente artigo alerta para a necessidade de que o Poder Judiciário brasileiro amplie a estratégia atualmente aplicada ao uso e ao desenvolvimento de sistemas de IA para incorporar, de modo mais efetivo, as diretrizes éticas correspondentes – em especial, o princípio “sob controle do usuário”. Consequentemente, propõe que, ao lado dos investimentos no desenvolvimento técnico das ferramentas, também se invista em comunicação e na capacitação dos magistrados para que desenvolvam as competências necessárias para garantir uma IA ética no Poder Judiciário brasileiro. Referências ADORNO, Theodor W. Educação e emancipação. Rio de Janeiro: Paz e Terra, 1995. BRASIL. Constituição da República Federativa do Brasil de 1988, de 5 de outubro de 1988. Disponível em: http://www.planalto.gov.br/ccivil_03/constituicao/constituicao.htm. Acesso em: 28 set. 2021. COMISSÃO EUROPEIA PARA A EFICÁCIA DA JUSTIÇA (CEPEJ). Carta Europeia de Ética sobre o Uso da Inteligência Artificial em Sistemas Judiciais e seu Ambiente. Disponível em: https://rm.coe.int/carta-etica-traduzida-para-portugues-revista/168093b7e0. Acesso em: 28 set. 2021. CONSELHO NACIONAL DE JUSTIÇA (CNJ). Painel dá transparência a projetos de inteligência artificial no Judiciário. Notícias CNJ/Agência CNJ de Notícias, 23 dez. 2020. Disponível em: https://www.cnj.jus.br/painel-da-transparencia-a-projetos-de-inteligencia-artificial-no-judiciario/. Acesso em: 29 set. 2021. CONSELHO NACIONAL DE JUSTIÇA (CNJ). Justiça em Números 2021. Brasília: CNJ, 2021. Disponível em: https://www.cnj.jus.br/wp-content/uploads/2021/09/relatorio-justica-em-numeros2021-12.pdf. Acesso em: 29 set. 2021. CONSELHO NACIONAL DE JUSTIÇA (CNJ). Resolução nº 75, de 12 de maio de 2009. Disponível em: https://atos.cnj.jus.br/atos/detalhar/100. Acesso em: 28 set. 2021. CONSELHO NACIONAL DE JUSTIÇA (CNJ). Resolução nº 332, de 21 de agosto de 2020. Disponível em: https://atos.cnj.jus.br/atos/detalhar/3429. Acesso em: 28 set. 2021. CONSELHO NACIONAL DE JUSTIÇA (CNJ). Resolução nº 325, de 29 de junho de 2020. Disponível em: https://atos.cnj.jus.br/atos/detalhar/3365. Acesso em: 28 set. 2021. CORTINA, Adela; MARTINEZ, Emílio. Ética. São Paulo: Loyola, 2005. FUNDAÇÃO GETÚLIO VARGAS (FGV). Estudo da imagem do Judiciário brasileiro. AMB/FGV/IPESP, 2019. Disponível em: https://www.amb.com.br/wp-content/uploads/2020/04/ESTUDO_DA_IMAGEM_DO_JUDICIARIO_BRASILEIRO_COMPLETO.pdf. Acesso em: 28 set. 2021. FUNDAÇÃO GETÚLIO VARGAS (FGV). Inteligência artificial: tecnologia aplicada à gestão de conflitos no âmbito do Poder Judiciário. Coordenação Luis Felipe Salomão, 2020. Disponível em: https://ciapj.fgv.br/sites/ciapj.fgv.br/files/estudos_e_pesquisas_ia_1afase.pdf. Acesso em: 28 set. 2021. IHDE, Don. Technics and praxis. Dordrecht: D. Reidel, 1979. KEHL, Danielle Leah; KESSLER, Samuel Ari. Algorithms in the criminal justice system: assessing the use of risk assessments in sentencing. 2017. Disponível em: https://dash.harvard.edu/handle/1/33746041. Acesso em: 28 set. 2021. MORLEY, Jessica et al. From what to how: an initial review of publicly available AI ethics tools, methods and research to translate principles into practices. Science and Engineering Ethics, v. 26, n. 4, p. 2.141-2.168, 2020. Disponível em: https://link.springer.com/article/10.1007/s11948-019-00165-5%23Sec2. Acesso em: 28 set. 2021. ORGANIZAÇÃO DAS NAÇÕES UNIDAS (ONU). Escritório contra Drogas e Crime. Comentários aos Princípios de Bangalore de Conduta Judicial. Traduzido por Marlon da Silva Malha e Ariane Emílio Kloth. Brasília: Conselho da Justiça Federal, 2008. Tradução de: Commentary on The Bangalore Principles of Judicial Conduct. Disponível em: https://www.unodc.org/documents/lpo-brazil/Topics_corruption/Publicacoes/2008_Comentarios_aos_Principios_de_Bangalore.pdf. Acesso em: 28 set. 2021. PEIXOTO, Fabiano Hartmann. Inteligência artificial e direito: convergência ética e estratégica. Curitiba: Alteridade, 2020. Coleção Direito, Racionalidade e Inteligência Artificial. QUESTIONPRO. Calculadora de amostra de pesquisa. 2021. Disponível em: https://www.questionpro.com/pt-br/mobile-diaries.html. Acesso em: 28 set. 2021. TRIPATHI, Arun Kumar. Hermeneutics of technological culture. 2017. Disponível em: https://link.springer.com/content/pdf/10.1007/s00146-017-0717-4.pdf. Acesso em: 28 set. 2021. [1] “O vão entre princípios e prática é grande, e ampliado pela complexidade, pela variabilidade, pela subjetividade e pela falta de padronização, incluindo interpretação variável dos ‘componentes’ de cada um dos princípios éticos.” (Tradução livre de Morley et al., 2020, p. 2.147) |