INTELIGÊNCIA ARTIFICIAL NO PROCESSO PENAL 

Já estamos sendo julgados por robôs

Por Alessandra Jirardi

(Advogada Criminalista, Amicus Curiae no Supremo Tribunal Federal, Presidente da Comissão do Tribunal do Júri da ABRACRIM e desde 1997 atua no Processo Penal Brasileiro)

Você conhece o Victor, o Sócrates, a Leia, a Clara, o Radar e o Jerimum? Vou apresentar a vocês os robôs que estão substituindo os seres humanos em julgamentos de processos no Brasil.

Não é ficção científica. A inteligência artificial chegou aqui no Brasil aos Tribunais Estaduais e também aos Tribunais Superiores, e, quando falamos de inteligência artificial como substituta de julgadores, não há como não extrapolarmos a seara tecnológica e adentrarmos o campo da ética.

Em Setembro de 2019, o ministro Dias Toffoli, à época presidente do Supremo Tribunal Federal, em uma conferência realizada em Londres que reuniu profissionais do Direito, estudantes e acadêmicos do Brasil e do Reino Unido sobre novas tendências do Direito, apresentou o PJe, o nosso Processo Judicial Eletrônico, e o Victor, um programa julgador que já está implementado no STF, mesmo que de forma experimental.

Segundo Dias Toffoli, “o programa Victor, que está em fase de estágio supervisionado, promete trazer maior eficiência na análise de processos, com economia de tempo e de recursos humanos”. Toffoli disse ainda que “as tarefas que os servidores do tribunal levam, em média, 44 minutos, o Victor faz em menos de 5 segundos”.

O nome Victor é uma homenagem a Victor Nunes Leal, que foi ministro do STF de 1960 a 1969 e foi o principal responsável pela sistematização da jurisprudência do STF em súmulas, o que facilitou a aplicação dos precedentes judiciais aos recursos, que é basicamente o que pretendem com Victor.

Existe, ainda, outra plataforma do STF que vem sendo desenvolvida, em parceria com a Universidade de Brasília. O programa ainda está sem nome, mas será uma ferramenta de inteligência artificial destinada a identificar os recursos extraordinários vinculados a temas de repercussão geral, não apenas no STF, mas com potencial de atuação em todo o Poder Judiciário.

Como funciona efetivamente a inteligência artificial e a sua aplicação no processo penal? Afinal, uma coisa é a Advocacia e o Ministério Público utilizarem a inteligência artificial como habilidade estratégica baseada em algoritmos jurisprudenciais e doutrinários; outra coisa é um ser humano privado de direitos fundamentais, como no caso de um réu preso, que está com a sua liberdade cerceada, ter o seu caso concreto analisado por um robô.

O Conselho Nacional de Justiça recentemente criou o Laboratório de Inovação para o Processo Judicial Eletrônico (Inova PJe), um ambiente para a pesquisa, a produção e a incorporação de inovações tecnológicas à plataforma responsável pela gestão do PJe.

No Superior Tribunal de Justiça não é diferente: na gestão do ministro João Otávio Noronha na presidência do STJ, foi desenvolvido o Sócrates, uma ferramenta que utiliza técnicas de inteligência artificial — a partir do exame automatizado do recurso e do acórdão recorrido — para fornecer informações relevantes aos relatores, por exemplo, se determinado caso se encaixa na categoria de demandas repetidas, as referências legislativas, a listagem de processos semelhantes e até sugestões de decisão.

Nos Estados do Acre, Alagoas, Amazonas, Ceará e Mato Grosso do Sul, temos o robô Leia. Ou seja, em um país em que a Justiça leva, em média, 4 anos para decidir um caso e há mais de 78 milhões de processos à espera de uma sentença, os juízes estão recorrendo à tecnologia na tentativa de limpar escaninhos. No caso do robô Leia, ele tem a capacidade de ler milhões de páginas em segundos para identificar casos com jurisprudência no STF. Mas como ficam as novas teses jurídicas?

O Tribunal de Justiça de Minas Gerais também conta com o auxílio de um robô, o qual realiza a leitura de processos e a identificação do que é requerido e de qual o entendimento a ser aplicado no caso. A plataforma Radar, como é chamada, também consegue identificar a qual tribunal pertence determinado entendimento, se é do Superior Tribunal de Justiça, do Supremo Tribunal Federal ou do próprio Tribunal de Justiça de Minas Gerais.

No Rio Grande do Norte, os robôs Clara e Jerimum estão em fase de teste e serão responsáveis por ler documentos, recomendar tarefas e sugerir decisões.

Em Rondônia também há um núcleo de desenvolvimento de inteligência artificial. Criado em 2018, a expectativa é de que o robô Sinapse reduza em até 60% o tempo gasto com as tramitações no estado.

Em São Paulo, foi firmado um acordo de cooperação entre a Universidade de São Paulo e o Tribunal Bandeirante em um convênio para incrementar o uso de inteligência artificial no Tribunal Paulista.

De varas de primeira instância ao Supremo Tribunal Federal, cada vez mais magistrados usam softwares de inteligência artificial em que robôs virtuais desempenham tarefas antes executadas por humanos, ou seja, estamos sendo julgados por robôs.

Como vimos, o uso da inteligência artificial na Justiça ganhou notoriedade no segundo semestre de 2019, quando o Conselho Nacional de Justiça, órgão que dá as diretrizes do trabalho dos juízes, publicou uma portaria elencando a adoção desse modelo como uma das prioridades para desafogar a fila de processos país afora.

A inteligência artificial como ferramenta é incrível, principalmente quando aplicada na automação de documentos jurídicos, no gerenciamento de prazos e em pesquisas jurídicas. 

Mas o direito penal pode ser manipulado por algoritmos? Entendo que não. Não há como excluir a sensibilidade humana de um julgamento, principalmente nos casos criminais, em que há uma série de circunstâncias que só os seres humanos conseguem definir.

A liberdade para o ser humano é um bem absoluto, e um robô jamais conseguirá distinguir o que é verdade do que é mentira, como no depoimento de uma testemunha ou no interrogatório de um réu no processo penal.

É evidente que a inteligência artificial traz uma infinidade de informações, mas não podemos esquecer que informação não é conhecimento. Ou seja, mais tecnologia, mais informação, menos conhecimento, menos sabedoria.

O futuro é agora. Vivemos no cenário pós-pandêmico, em que o mundo derruba barreiras tecnológicas e caminha definitivamente para a virtualização de todos os aspectos da vida.

Mas é importante que façamos uma reflexão: de que adianta a celeridade trazida pela inteligência artificial melhorar se o operador, no caso, o robô que está buscando, não consegue refletir sobre o buscado? E mais: como um robô pode entender o conceito de princípios?

O Direito Penal é ciência humana, e a aplicação de um princípio deve ser ponderada através da perspectiva de um ser humano julgador, e não de um robô.

Ao sermos julgados por um robô, podemos ser vítimas de mitigação de direitos e valores que um robô não poderá analisar, devido à sua própria natureza desprovida de sentimentos e percepções inerentes à condição humana.

Considerando a delicada cooperação entre peritos em processo penal e engenheiros do conhecimento na construção dos algoritmos que irão ensinar a máquina nas pesquisas preditivas, qual dos dois caminhos seria o adequado? 

A disparidade de premissas interpretativas no processo penal coloca em risco possíveis construções silogísticas que possam partir de silogismos?

O uso de inteligência artificial na análise preditiva de decisões processuais penais viola ou assegura garantias constitucionais?

Devemos levar em conta essas questões, notadamente quanto aos riscos de prevalências de preconceitos que possam estruturar equivocadamente as pesquisas preditivas e os seus resultados.

Uma outra questão extremamente importante é em relação aos critérios de escolha do perito escolhido para servir de ponte em relação ao conhecimento específico do processo penal e a incapacidade de tradução dos aspectos relevantes do Direito e do processo penal pelo engenheiro do conhecimento. 

Não é preciso muito esforço para identificar na doutrina de processo penal de hoje em dia uma pluralidade bastante significativa de discursos e fundamentos antagônicos, teses divergentes.

O Direito Penal foi criado para controlar os seres humanos e as suas relações. Basicamente, surgiu pelos humanos e para os humanos. A máquina não é humana e jamais será, então, sustento que não há como aplicar inteligência artificial no Direito Penal. 

Assim, enquanto o computador responde de forma sintática, a mente humana responde de forma semântica, e essa resposta semântica é permeada de intencionalidade. 

No caso dos robôs julgadores, são os algoritmos que dão vida à máquina. Eles se caracterizam por um conjunto de instruções matemáticas ou, ainda, uma sequência de tarefas que informam ao computador o que ele deve fazer para alcançar um determinado resultado esperado em um tempo limitado.

Como é possível que um robô julgue subjetivamente se um robô requer instruções precisas e não ambíguas?

Um robô não tem sensibilidade e também não se comove com as realidades sociais.

Entendo que o sistema de inteligência artificial até pode atuar, mas como uma ferramenta de auxílio, como um mero instrumento, nunca em substituição de um ser humano julgador.

Qual o risco de se ter uma construção dos algoritmos a partir de um silogismo, ainda mais quando não ficarem preestabelecidas, de forma clara, qual das diferentes correntes dogmáticas do processo penal foi adotada?

E na remota hipótese de que a inteligência artificial e esses robôs julgadores funcionem, será que a parte relacionada diretamente com o processo penal admitiria ser julgada e eventualmente condenada sem a menor presença humana?

O certo, por ora, é que mesmo que uma máquina seja considerada “inteligente”, é fundamental compreender qual o alcance dessa inteligência, até para saber em quais setores e com qual grau de eficiência ela poderia ser empregada em decisões relacionadas à matéria penal.

O processo criminal não é mecânico; ao contrário, o processo penal exige humanidade e jamais poderá ser analisado por uma perspectiva de massa. 

Por mais que estejamos avançados em termos de tecnologia robótica, nenhum algoritmo pode emitir uma decisão se determinada interpretação se ajusta ou não se ajusta de forma satisfatória em um caso concreto.

E mais uma reflexão: quais são as implicações de baixar o tempo de 44 minutos para 5 segundos em relação à média de tempo em que é analisada uma decisão?

Será que celeridade é sinônimo de Justiça?

Com essas considerações, pergunto: se fosse um ente querido, um familiar, um filho seu? E se você fosse o réu no processo penal? Concordaria em ser julgado por um robô?

Eu prefiro uma Justiça tardia, mas humana, realizada por um juiz natural, do que uma Justiça célere protagonizada por um robô desprovido de sentimentos e emoções inerentes à condição humana.

Então, para arrematar, entendo ser impossível a criação de um emulador de emoções humanas que julgue o processo penal com todas as suas peculiaridades. Portanto, no meu entendimento, um robô não pode e não deve nos julgar em razão da sua própria natureza desprovida de sentimentos e percepções inerentes à condição humana.

Compartilhe:

Notícias relacionadas