Limites e possibilidades das novas tecnologias: prova e decisão no processo penal

Capítulo escrito pelo sócio Luiz Eduardo Cani para o livro em homenagem ao Professor Nereu Giacomolli, publicado pela Almedina.

“A palavra de água se dissolve

Na palavra sede, a boca cede”

(Arnaldo Antunes – O buraco do espelho)

1. Prólogo

Juiz, Advogado, Parecerista, Professor e, sobretudo, Defensor da liberdade. Aprisionado aos livros, Nereu se dedicou ao processo penal nos últimos 30 anos. Na década de 90, após orientação do saudoso professor Tupinambá Pinto de Azevedo na Especialização em Ciências Penais da UFRGS, lançou sua primeira obra: Juizados Especiais Criminais, analisando ponto a ponto os aspectos materiais e processuais penais da Lei nº 9.099/95.

Sua densa contribuição acadêmica alcançou dezenas de livros, centenas de artigos, incontáveis palestras e inúmeras orientações. A repercussão de suas ideias alcançou destaque como referência doutrinária no cenário nacional e internacional, assim como nos tribunais Pátrios.

Nós, como ex-alunos e amigos, sentimo-nos honrados em escrever para homenagear nosso Mestre. Nereu é um professor com sensibilidade, educação e simplicidade ímpares, sempre disposto ao diálogo e a construir pontes de conhecimento. Crítico ácido, como todos sabem, maneja as palavras cuidadosamente, sem se exceder. Este texto é uma contribuição para as discussões que tivemos e continuamos a ter com o Professor Nereu Giacomolli. Na condição de homenagem, nunca está à altura do homenageado, apesar das tentativas.

2. Introdução

As transformações no Direito, operadas pela técnica, e o estranhamento dos juristas com as novas tecnologias, justificam este artigo. Se por um lado temos a informatização de órgãos públicos, a implantação de plataformas de processos eletrônicos e o surgimento de novos aparelhos digitais, por outro, frequentemente os juristas se limitam ao uso das funcionalidades básicas de seus computadores e smartphones. Nesse contexto, refletir sobre limites e possibilidades das novas tecnologias, na articulação entre prova e decisão penal, move o desenvolvimento deste texto e objetiva facilitar a compreensão e o alcance do tema.

Ao responder à pergunta de pesquisa: Quais os limites e as possibilidades das novas tecnologias em relação à prova e à decisão penal?, os esforços estarão concentrados em traçar esclarecimentos sobre a inteligência artificial, partindo da premissa de que essa é a tecnologia com impacto premente no processo penal. Não abordaremos, portanto, a robótica, a biologia sintética, os sistemas cibernético-físicos e a manufatura aditiva em três dimensões. Além de açodado nessa quadra, implicaria especulações sobre: robôs para substituir sujeitos processuais, policiais e agentes prisionais; representação da cena do crime em tamanho real por meio de impressão em três dimensões; etc.

Ao ultrapassar a investigação sobre a inteligência artificial, seguiremos os objetivos específicos de avaliar a prova e a decisão judicial penal como atos produzidos a partir de informações, identificando os limites e as possibilidades das novas tecnologias na produção de dados servíveis como prova e como base argumentativa e de fundamentação de uma decisão penal.

3. Novas tecnologias: a questão digital

O ser humano se deslumbra com a extensão de si mesmo[1]. A partir disso, Mcluhan, apresentando as tecnologias como necessidades do homem, sentenciou que “um computador consciente ainda seria uma extensão de nossa consciência”[2]. Kerckhove, em A pele da cultura, tratando da “sabedoria eletrônica”, advertiu que num determinado momento as redes neurais poderão ser instruídas “a ler o nosso jornal por nós e escolher o que precisamos saber, ou selecionar os programas de televisão que não podemos perder”[3]. Aqui estamos, esse dia chegou!

O advento do novo milênio trouxe consigo uma miríade de novas tecnologias, que impulsionou e continua a estimular a chamada Revolução 4.0, possibilitando a fusão entre a física, a biologia e o digital[4]. Nessa linha, o termo Quarta Revolução Industrial é empregado para se referir ao crescente impacto digital na vida humana e à repercussão do constante desenvolvimento tecnológico-científico sobre os meios de produção[5], a partir da incorporação dos meios e métodos digitais à vida cotidiana.

Ou seja, o século XXI vem permeado por inúmeros avanços científicos que englobam as mais diversas áreas da vida humana[6]. Schwab fez uso da expressão revolução para indicar as transformações bruscas que tendem a ocorrer nos aspectos socioeconômicos da humanidade a partir do desenvolvimento de novas tecnologias[7]. E o Direito não é exceção. No entanto, a progressão tecnológica dá-se em uma velocidade muito mais vertiginosa do que o legislador se vê capaz de incorporar ao ordenamento jurídico, de modo que o emprego das novas tecnologias no Direito fica submisso a intervenções pontuais e inconstantes de seus operadores[8].

No ponto-chave dessa interseção entre Direito e tecnologia, está a inteligência artificial[9] (artificial intelligence), uma subárea da computação que estuda o desenvolvimento de “programas capazes de aprender com a experiência e tomar decisões com base nas experiências obtidas anteriormente. É usada em várias áreas, de jogos a aplicações médicas”[10].

Contudo, a inteligência artificial é mais complexa do que essa simples definição. Essa área do conhecimento está concatenada com a aprendizagem de máquina (machine learning), e esta, por sua vez, com as redes neurais profundas (deep learning). A inteligência artificial é um sistema que tenta simular a inteligência humana[11]. Já a aprendizagem de máquina é um sistema que tenta “aprender” algo dos dados inseridos sem que esse conhecimento seja programado expressamente. Nesse sentido, a inteligência artificial e a aprendizagem de máquina seriam aspectos complementares[12] ou a aprendizagem de máquina seria uma subárea da inteligência artificial.

A aprendizagem de máquina não opera com rotinas manuais implementadas conforme instruções dadas pelo criador, mas é “treinada” para aprender sozinha a executar tarefas[13]. Por fim, a rede neural profunda é um algoritmo[14] com estruturas complexas inspiradas no cérebro humano, constituídas por vários “neurônios” interligados em várias camadas para aprender atividades mais difíceis[15]. Portanto, a aprendizagem de máquina é um dos meios para produzir a inteligência artificial, e a rede neural profunda é um dos meios para atingir a aprendizagem de máquina[16].

No Brasil, o tema ganhou folego quando, em 2018, o Supremo Tribunal Federal implementou o software Victor, cuja função é a leitura de todos os recursos extraordinários e respectivos agravos que alcançam a Corte, atuando na identificação de processos (padrões) que versam sobre temáticas revestidas de repercussão geral e verificando se cumprem ou não o requisito de admissibilidade do art. 102, § 3º, da Constituição Federal[17].

Noutra perspectiva e no mesmo período, o Tribunal de Justiça de São Paulo conheceu o Assistente Digital do Magistrado, ferramenta que reúne as peças de um processo sugerindo uma decisão judicial já com análise de leis aplicáveis ao caso e pesquisa de entendimentos daquela matéria nos tribunais[18]. Ao que tudo indica, o software aprenderá padrões de decisões daquele magistrado e, a partir disso, apresentará o caminho a ser seguido, cabendo ao juiz humano revisar o posicionamento.

Recentemente, em 2019, o Conselho Nacional de Justiça promoveu o projeto “Execução Fiscal: automação e governança”, visando à aplicação de algoritmo de inteligência artificial nos processos de execução fiscal[19]. Uma das inspirações foi o Sistema Elis[20], oriundo do Tribunal de Justiça do Estado de Pernambuco (TJ/PE)[21] – que, inclusive, elabora versões preliminares de decisões para que o julgador possa, a partir destas, construir o decisum final[22].

Observa-se um perigoso deslocamento de competência: da perspectiva de emprego das inovações tecnológicas como ferramentas auxiliares, capazes de levar ao julgador uma rede de informações aptas a simplificar as fontes de Direito aplicáveis ao julgamento[23], à concepção de centralizar o julgador humano apenas como revisor de uma experiência de escolha da decisão mais acertada pelo computador. Nesta última hipótese, já não se poderia dizer que a máquina não decide.

Nessa perspectiva, apesar da importante função auxiliar que as novas tecnologias já têm no Direito, a tomada de decisão pelo algoritmo traz consigo uma rede de complexidades, que, segundo Ferrari, Becker e Wolkart pode se desenvolver em três escalas: (1) datasets viciados (o conjunto de dados de alimentação, ou seja, as informações para o que o algoritmo seja treinado formando padrões pode estar viciado, demonstrando, por exemplo, um preconceito que vem da base de dados[24]. Pode-se falar também no caso de um dataset incompleto, terminando com uma decisão com menor acurácia); (2) opacidade (a ausência de transparência da função algorítmica, da forma de geração da decisão, mostra uma caixa-preta do sistema[25]. Em síntese, a lógica da decisão é opaca.); e (3) discriminação (diferente do dataset viciado, cujo erro é da base de dados, aqui o preconceito é da ausência de neutralidade do próprio algoritmo[26]).[27]

Apesar desses fatores, depreende-se uma já assinada tendência de, cada vez mais, empregar novas tecnologias endereçadas à tomada de decisão. É preciso considerar, no entanto, que a formação do convencimento do julgador é um mecanismo extremamente abstruso, ainda mais no âmbito penal, quando a decisão carrega grande carga de provável violação de direito fundamentais.

4. Articulações entre prova penal e decisão penal

O processo é uma máquina retrospectiva[28], por meio da qual o julgador realiza uma “atividade recognitiva”: sem conhecer o caso, mas precisando conhecê-lo, tem o poder de dizer o direito aplicável ao fato concreto (jurisdição), com efeito definitivo (coisa julgada)[29]. As informações[30] que constituem objeto de cognição judicial, que é também a recognição do caso, não são ilimitadas e nem totais[31]. Os seus limites refletem no grau de conhecimento acessível ao julgador e, consequentemente, ao grau de certeza possível ao magistrado no momento da decisão.

Essas informações constituem o objeto das decisões. O aporte das informações se dá pela complexa atividade probatória, que engloba desde a obtenção de prova até a formação do provimento final[32] e é regulada através de limites que “[…] surgem como decorrência do nível de evolução do processo penal que conduz à valoração da forma dos atos processuais enquanto ‘garantia’ a ser respeitada”[33].

Esgotada a atividade probatória, o julgador deve realizar o julgamento, isto é, proferir o provimento final do processo (sentença ou acórdão). Isso significa, dentre outras coisas, que todo o procedimento está ordenado em contraditório de modo a encaminhar o processo ao provimento final. Ao apresentar o processo como procedimento em contraditório, Fazzalari afastou a noção de contraditório como mera participação das partes, fazendo com que o provimento final não fique apenas nas mãos do julgador. Localiza-se aqui a estrutura democrática do processo, já que, segundo o autor, “a identificação do ‘processo’ nos permite compreender e valorar plenamente que o princípio constitucional do contraditório está mortificado no esquema do mero procedimento”[34].

É nessa perspectiva que Fazzalari traz a noção de contraditório paritário, tendo aqueles que participam do procedimento oportunidades concretas de oposição em paridade de armas. Os destinatários do ato final, “interessados” ou “contrainteressados”, estão diante de uma série de normas (e atos, e posições jurídicas), com as quais se relacionam simetricamente como condição de validade do provimento final[35].

O livre convencimento motivado parte dessas normas lógicas para a apreciação do conjunto probatório formado no curso do processo, sendo que, sobre essa interpretação, incidem fatores “sociais, psicológicos e históricos”[36]. Seria ingenuidade acreditar que a decisão penal é prolatada longe de prejulgamentos, preconceitos ou outras condicionantes externas que influenciam o apreciar da prova. São inúmeras variantes, de caráter imprevisível, que afetam a decisão final e que não podem ser consideradas previamente[37].

Apesar disso, o julgador é forçado a agir dentro de determinados padrões de racionalidade que impedem que a decisão seja exarada em uma “corazonada”, uma vez que os fundamentos lógicos (e idôneos) devem ser expostos no decisum[38]. A sentença, como provimento final, não será “um ato sentimental e solitário do juiz, mas a consequência e expressão jurídica, racionalizada e categoricamente conclusiva, dos atos realizados do procedimento em contraditório entre as partes”[39].

Ou seja, a apreciação da prova leva a uma decisão motivada, que explica o processo lógico que a formou. E, nessa esteira, a fundamentação das decisões judiciais é garantia fundamental constitucionalmente insculpida no artigo 93, IX, da Constituição Federal, e o status outorgado a esse direito processual tem razão de ser. A exposição racional da motivação da decisão é pressuposto de legitimidade do decisum e atua como óbice a julgamentos arbitrários, na medida em que a lei não pode adquirir sentido no caso concreto a partir da margem subjetiva dos julgadores[40].

Na esteira da aplicação específica da inteligência artificial no Direito, então, a problemática da motivação das decisões significa concluir que “o processo de atribuição de sentido, especialmente para singularização das situações jurídicas” deve sempre competir ao julgador humano[41], não sendo possível robotizar por completo o processo de julgamento. As palavras não possuem significado ou sentido por si mesmas, mas dependem das circunstâncias em que são empregadas[42], adquirindo lógica no caso concreto. A fundamentação da decisão exarada por uma inteligência de máquina não é equiparável àquela que seria prolatada por um humano, especialmente quando se admite (e se deva admitir) que a captura psíquica do julgador é influenciada por fatores externos[43].

5. Limites e possibilidades das novas tecnologias no processo penal: como podem ser   utilizadas na produção de prova penal e na elaboração da decisão penal?

As discussões sobre as possíveis articulações entre o Direito e as novas tecnologias existem há décadas. Dentre os diversos pontos de pauta nessas discussões, estão os modelos de racionalização das decisões judiciais e sobre as potencialidades da inteligência artificial para tornar mais racionais as decisões judiciais, mas com riscos de retirar a decisão dos humanos[44]. Essas discussões vão desde o uso das novas tecnologias para suporte das atividades dos juristas à propositura de substituição de juristas por algoritmos – o que, além de perigoso, é impossível.

A difusão da inteligência artificial, por exemplo, tem alcançado tarefas como o monitoramento de dados públicos, a elaboração de predições de decisões judiciais, a automatização de petições, a elaboração de pronunciamentos judiciais, a confecção de documentos jurídicos (contratos), o contato profissional, a propositura de resoluções on-line de lides, a compilação de dados e a aplicação da estatística ao Direito[45]. Para tanto, são utilizadas redes neurais profundas, desenvolvidas para aplicação em texto a fim de realizar funções de processamento de linguagem natural. No âmbito penal, como consequência, podem ser desenvolvidas redes neurais profundas para apoio[46] em política criminal, compliance e na persecução criminal.

Contudo, não podemos ser ingênuos em relação às aplicações das novas tecnologias, muito menos em relação à inteligência artificial, à aprendizagem de máquina e à rede neural profunda. Isso porque os algoritmos, assim como os humanos, possuem limites inerentes ao grau de conhecimento da ciência da computação, bem como estão sujeitos a vieses e a heurísticas[47]. Desconsiderar isso serve apenas para se deixar manipular por tendências e atalhos que podem ser escamoteados nos códigos de programação[48]. Ademais, não é possível saber com precisão como as máquinas aprendem, apenas conhecer o que é inserido no treinamento e os resultados retornados. São caixas pretas que impõem um dever de transparência, sem o qual não podemos sequer exercer o contraditório no processo.

Nessa esteira, há de se reconhecer que o desenvolvimento das inteligências artificiais inevitavelmente redunda em um maior ganho de autonomia por parte das máquinas, na medida em que a alimentação do algoritmo com os dados necessários confere ao software maior liberdade para a tomada de decisões com cada vez menos interferência humana[49]. Insta pontuar, entretanto, que o processo de programação e inclusão de dados no algoritmo – para que este possa valer-se  das informações que lhe são oferecidas para, a partir destas, produzir os efeitos que são esperados – sempre depende de um humano. Não pode a inteligência artificial (por ora) programar-se sozinha, muito embora possa ser programada para buscar fontes de informação para além dos dados que lhe são originalmente fornecidos.

Assim, o fato é que existe um crucial problema no emprego da inteligência artificial: a máquina deve ser alimentada com dados para, a partir de seu algoritmo, gerar a resposta esperada. E nunca se pode precisar o tipo de informação que está ao alcance do software[50].

6. Considerações finais

A partir disso, não pode existir dúvida acerca da impossibilidade de substituir os humanos pelas novas tecnologias, até mesmo porque a inteligência artificial ainda é muito restrita (a IA geral ainda é uma utopia). Devemos, ao contrário, pensar em usos alternativos para essas ferramentas, que tornem mais ágeis e mais precisas as atividades rotineiras dos juristas, sem ignorar a necessidade de limites[51]. Daí a urgência de compreendermos melhor como funcionam para que possamos reduzir os aspectos negativos[52] e ampliar os aspectos positivos, sem cair na ingenuidade de uma bondade supostamente inerente à “neutralidade” da técnica[53].

A complexidade aumenta ao lembrar que a inteligência das máquinas depende de um complexo processo de programação e alimentação (aprendizagem) constante do software por humanos[54]. Dessa forma, o software emprega as informações obtidas para concretizar o fim precípuo pelo qual foi programado, lembrando que as bases (humanas) nunca são neutras.

É certo considerar, nesse contexto, que a formação da decisão pela máquina com a chance de ser aceita pelo magistrado revisor como provimento final já qualifica aquele ato como judicial. A tendência é a multiplicação de decisões, com cada vez mais assertividade da supervisão do aprendizado. Esse movimento, por si só, fará crer que essas ferramentas tecnológicas conseguem ser cada vez mais justas.

Portanto, em vez de as novas tecnologias agirem de modo a maximizar a eficiência da prestação jurisdicional, levando ao julgador humano as fontes de Direito cabíveis no caso concreto[55], acabarão decidindo e substituindo-o. Não deslocarão o julgador enquanto humano, mas suprirão o ato de sentença, o que, inclusive, aumentará o número de demandas judiciais, agora questionando a forma de tomada da decisão impugnada. Muito embora os sistemas de inteligência para execuções fiscais, por exemplo, tragam cifras atraentes, não se pode aplicar a mesma lógica aos processos criminais. Não precisamos apenas de um resultado, precisamos de Direito.

Referências

AGAMBEN, Giorgio. A linguagem e a morte: um seminário sobre o lugar da negatividade. Belo Horizonte: Editora UFMG, 2006.

AMARAL, Augusto Jobim do. O dispositivo inquisitivo: entre a ostentação penal e a estética política do processo penal. 2014. 499 f. Tese (Doutorado em Ciências Criminais) – Pontifícia Universidade Católica do Rio Grande do Sul, Porto Alegre, 2014.

ANDRADE, Manuel da Costa. “Bruscamente no Verão Passado”, a Reforma do Código de Processo Penal: observações críticas sobre uma lei que podia e devia ter sido diferente. Coimbra: Coimbra Editora, 2009.

ANGWIN, Julia; LARSON, Jeff; MATTU, Surya; KIRCHNER, Lauren. Machine Bias: there’se software used across the country to predict future criminals. And it’s biased against blacks. ProPublica, 23 mai. 2016. Disponível em: https://www.propublica.org/article/machine-bias-risk-assessments-in-criminal-sentencing. Acesso em: 11 mar. 2020.

ASIMOV, Isaac. Eu, Robô. Porto Alegre: Pocket Ouro, 2012.

BRASIL. Ministério da Indústria, Comércio e Serviços. Agenda brasileira para a indústria 4.0. Disponível em: http://www.industria40.gov.br/. Acesso em: 9 jan. 2020.

BRITO, Bruno. TJPE usará inteligência artificial para agilizar processos de execução fiscal no Recife. Notícias TJPE, 20 nov. 2018. Disponível em: https://www.tjpe.jus.br/noticias/-/asset_publisher/ubhL04hQXv5n/content/id/2079372. Acesso em: 9 mar. 2020.

BRUM, Nilo Bairros de. Requisitos retóricos da sentença penal. São Paulo: Revista dos Tribunais, 1980.

CANTÓN, Fernando Diaz. La Motivación de la Sentencia Penal y Otros Estudios. Buenos Aires: Del Puerto, 2005. p. 99.

CARNELUTTI, Francesco. As misérias do processo penal. São Paulo: Conan, 1995.

CARNELUTTI, Francesco. Como se faz um processo. Leme: Edijur, 2012.

CARNELUTTI, Francesco. Verdade, dúvida e certeza. Folha Acadêmica, Curitiba, n. 116, a. LIX, p. 5, 1997.

CASTRO, Beatriz. Justiça de Pernambuco usa inteligência artificial para acelerar processos. G1, 4 mai. 2019. Disponível em: https://g1.globo.com/pe/pernambuco/noticia/2019/05/04/justica-de-pernambuco-usa-inteligencia-artificial-para-acelerar-processos.ghtml. Acesso em: 9 mar. 2020.

COPELAND, Michael. What’s the difference between artificial intelligence, machine learning and deep learning? Disponível em: https://blogs.nvidia.com/blog/2016/07/29/whats-difference-artificial-intelligence-machine-learning-deep-learning-ai/ . Acesso em: 13 mar. 2020.

CORDERO, Franco. Procedimiento Penal. Santa Fe de Bogotá: Editorial Temis S.A., 2000. t. 2.

COUTINHO, Jacinto Nelson de Miranda. Barbárie do processo penal não pode ser enfrentada apenas com retórica. Consultor Jurídico, São Paulo, 25 set. 2015. Disponível em: https://www.conjur.com.br/2015-set-25/limite-penal-barbarie-processo-penal-nao-enfrentada-apenas-retorica. Acesso em: 13 mar. 2020.

COUTINHO, Jacinto Nelson de Miranda. Glosas ao “Verdade, dúvida e certeza”, de Francesco Carnelutti. Empório do Direito, Florianópolis, 19 mar. 2015. Disponível em: http://emporiododireito.com.br/backup/glosas-ao-verdade-duvida-e-certeza-de-francesco-carnelutti-por-jacinto-nelson-de-miranda-coutinho/. Acesso em: 13 mar. 2020.

COUTINHO, Jacinto Nelson de Miranda. Glosas ao verdade, dúvida e certeza, de Francesco Carnelutti, para os operadores do direito. In: SÁNCHEZ RUBIO, David; HERRERA FLORES, Joaquín; CARVALHO, Salo de (org.). Anuário Ibero-americano de Direitos Humanos (2001-2002). Rio de Janeiro: Editora Lumen Juris, 2002.

COUTINHO, Jacinto Nelson de Miranda. Introdução aos princípios gerais do processo penal brasileiro. Revista da Faculdade de Direito. Universidade Federal do Paraná, Curitiba, v. 30, n. 30, p. 163-198, 1998.

COUTINHO, Jacinto Nelson de Miranda. O núcleo do problema no sistema processual penal brasileiro. Boletim IBCCRIM, v. 175, p. 11-13, 2007.

COUTINHO, Jacinto Nelson de Miranda. O papel do novo juiz no processo penal. In: COUTINHO, Jacinto Nelson de Miranda (Org.). Crítica à teoria geral do Direito processual penal. Rio de Janeiro: Renovar, 2001.

COUTINHO, Jacinto Nelson de Miranda. Sistema acusatório. Cada parte no lugar constitucionalmente demarcado. Revista de Informação Legislativa, Brasília, a. 46, n. 183, p. 103-115, 2009.

DENEUBORG, Jean-Louis. Nova Robótica e Inteligência Colectiva? In: BINDÉ, Jerome. (Org.). As Chaves do Século XXI. Lisboa: Instituto Piaget, 2000.

ELIAS, Paulo Sá. Algoritmos, Inteligência Artificial e o Direito. Consultor Jurídico, 2017. Disponível em: https://www.conjur.com.br/dl/algoritmos-inteligencia-artificial.pdf. Acesso em: 21 mar. 2020.

FAZZALARI, Elio. Instituições de direito processual. Campinas: Bookseller, 2006.

FERRARI, Isabela; BECKER, Daniel; WOLKART, Erik Navarro. Arbitrium ex machina: panorama, riscos e a necessidade de regulação das decisões informadas por algoritmos. Revista dos Tribunais, v. 995, pp. 635–655, set. 2018.

FOUCAULT, Michel. Vigiar e Punir. Petrópolis: Editora Vozes, 1999.

FLUSSER, Vilém. Filosofia da caixa preta: ensaios para uma filosofia da fotografia. São Paulo: É Realizações, 2018.

GIACOMOLLI, Nereu José. O Devido Processo Penal: abordagem conforme a Constituição Federal e o Pacto de São José da Costa Rica. 2. ed., rev. e ampl. São Paulo: Atlas, 2015.

GOODFELLOW, Ian; BENGIO, Yoshua; COURVILLE, Aaron. Deep learning. Cambridge: MIT Press, 2016.

GRIFFIN, Andrew. Tay Tweets: Microsoft creates bizarre Twitter robot for people to chat to. The Independent, 23 mar. 2016. Disponível em: https://www.independent.co.uk/life-style/gadgets-and-tech/news/tay-tweets-microsoft-creates-bizarre-twitter-robot-for-people-to-chat-to-a6947806.html. Acesso em: 9 mar. 2020.

INTELIGÊNCIA artificial vai agilizar a tramitação de processos no STF. Notícias STF, Brasília, 30 mai. 2018. Disponível em: http://www.stf.jus.br/portal/cms/verNoticiaDetalhe.asp?idConteudo=380038. Acesso em: 9 mar. 2020.

JESUS, Diego Santos Vieira de; STEIBEL, Fabro; VICENTE, Victor Freitas. Possibilidades e Potenciais da Utilização da Inteligência Artificial. In: FRAZÃO, Ana; MULHOLLAND, Caitlin [coord.]. Inteligência Artificial e Direito. São Paulo: Thomson Reuters Brasil, 2019.

KERCKHOVE, Derrick de. A pele da cultura: investigando a nova realidade eletrônica. São Paulo: Annablume, 2009.

LEAL, Rosemiro Pereira. Teoria geral do processo: primeiros estudos. São Paulo: Thomson-IOB, 2004.

LOPES JR., Aury. Direito processual penal. 15. ed. São Paulo: Saraiva, 2018.

LYU, Shing. Practical rust projects. Building game, physical computing, and machine learning applications. New York: Apress, 2020, p. 187.

MAGRANI, Eduardo; SILVA, Priscilla; VIOLA, Rafael. Novas perspectivas sobre ética e responsabilidade de inteligência artificial. In: FRAZÃO, Ana; MULHOLLAND, Caitlin (coord.). Inteligência Artificial e Direito. São Paulo: Thomson Reuters Brasil, 2019.

MCCLELLAND, Calum. The difference between artificial intelligence, machine learning, and deep learning. Medium, 4 dez. 2017. Disponível em: https://medium.com/iotforall/the-difference-between-artificial-intelligence-machine-learning-and-deep-learning-3aa67bff5991. Acesso em: 13 mar. 2020.

MCLUHAN, Marshall. Os meios de comunicação como extensões do homem. São Paulo: Cultrix, 2007.

MENDES, Alexandre José; ROSA, Alexandre Morais da; ROSA, Izaias Otacílio da. Testando a Methodology Milticriteria Decision Aid – Constructivist (MCDA-C) na construção de algoritmos de apoio à estabilidade das decisões judiciais. Revista Brasileira de Direito, Passo Fundo, v. 15, n. 2, p. 281-305, 2019.

MENDES, Paulo de Sousa. Causalidade complexa e prova penal. Coimbra: Almedina, 2018.

MONTENEGRO, Carlos Manuel. CNJ usará automação e inteligência artificial para destravar execução fiscal. Notícias CNJ – Agência CNJ de notícias, Brasília, 10 abr. 2019. Disponível em: https://www.cnj.jus.br/cnj-usara-automacao-e-inteligencia-artificial-para-destravar-execucao-fiscal/. Acesso em: 9 mar. 2020.

MORAES DA ROSA, Alexandre. Capítulo 2.8: Decisão e Ideologia. In:  MORAES DA ROSA, Alexandre; AMARAL, Augusto Jobim do. Cultura da Punição: a ostentação do horror. 2. ed. Florianópolis: Empório do Direito, 2015. 2ª parte.

MORALES, Rodrigo Rivera. La Prueba: un análisis racional y práctico. Madrid: Marcial Pons, 2011.

MORIMOTO, Carlos Eduardo. Dicionário técnico de informática. 3. ed. Disponível em: https://fasam.edu.br/wp-content/uploads/2016/06/Dicion%C3%A1rio-T%C3%A9cnico-de-Inform%C3%A1tica.pdf. Acesso em: 7 mar. 2020.

NIEVA FENOLL, Jordi. Inteligencia artificial y proceso judicial. Madri: Marcial Pons, 2018.

NUNES, Dierle; MARQUES, Ana Luiza Pinto Coelho. Inteligência artificial e direito processual: vieses algorítmicos e os riscos de atribuição de função decisória às máquinas. Revista de Processo, v. 285, p. 421-447, 2018.

NUNES, Dierle; MEDEIROS, Nathália. Inteligência artificial – litigantes habituais e eventuais. Consultor Jurídico, São Paulo, 20 nov. 2018. Disponível em: https://www.conjur.com.br/2018-nov-20/opiniao-tecnologia-direito-litigantes-habituais-eventuais. Acesso em: 13 mar. 2020.

NUNES, Dierle; RUBINGER, Paula Caetano; MARQUES, Ana Luiza Pinto. Os perigos do uso da inteligência artificial na advocacia. Consultor Jurídico, São Paulo, 9 jul. 2018. Disponível em: https://www.conjur.com.br/2018-jul-09/opiniao-perigos-uso-inteligencia-artificial-advocacia. Acesso em: 05 mar. 2021.

OHLHEISER, Abby. Trolls turned Tay, Microsoft’s fun millennial AI bot, into a genocidal maniac. The Washington Post, 25 mar. 2016. Disponível em: https://www.washingtonpost.com/news/the-intersect/wp/2016/03/24/the-internet-turned-tay-microsofts-fun-millennial-ai-bot-into-a-genocidal-maniac/. Acesso em: 05 mar. 2021.

O’NEIL, Cathy. Weapons of math destruction. how big data increases inequality and treathens democracy. Nova Iorque: Crown Publishers, 2016.

ROSA, Alexandre Morais de. A Questão Digital: o impacto da inteligência artificial no Direito. Revista de Direito da Faculdade Guanambi, v. 06, n. 02, e259, p. 01-18, jul./dez. 2019.

SCHWAB, Klaus. A Quarta Revolução Industrial. São Paulo: Edipro, 2016.

STRECK, Lenio L.; MENDES, Gilmar F. Comentário ao artigo 93, IX. In: CANOTILHO, J. J. Gomes; SARLET, Ingo W.; STRECK, Lenio L. (coord.). Comentários à Constituição do Brasil. São Paulo: Saraiva; Almedina, 2013.

TARUFFO, Michele. Judicial decisions and artificial intelligence. Artificial intelligence and law, v. 6, p. 311-324, 1998.

TURING, A. M. Computing Machinery and Intelligence. Mind, n. 49, 1950, p. 433-460.

SPALER, Mayara Guibor; XAVIER, Luciana Pedroso. Patrimônio de Afetação: uma possível solução para os danos causados por sistemas de inteligência artificial. In: FRAZÃO, Ana; MULHOLLAND, Caitlin (coord.). Inteligência Artificial e Direito. São Paulo: Thomson Reuters Brasil, 2019.

WOJCIECHOWSKI, Paola Bianchi; ROSA, Alexandre Morais da. Vieses da justiça: como as heurísticas e vieses operam nas decisões penais e a atuação contraintuitiva. Florianópolis: EModara, 2018.

[1] Nessa mesma linha, Kerckhove revela que: “As tecnologias invadem a realidade com pouca ou nenhuma resistência consciente por parte dos que as adoram rapidamente. Os impulsos tecnológicos e as promessas do mercado, assim como um exuberante tecnofetichismo, entorpecem o público em geral que permanece psicologicamente ligado às antigas imagens de si e do mundo” (KERCKHOVE, Derrick de. A pele da cultura: investigando a nova realidade eletrônica. São Paulo: Annablume, 2009. p. 188).

[2] MCLUHAN, Marshall. Os meios de comunicação como extensões do homem. São Paulo: Cultrix, 2007.

[3] KERCKHOVE, Derrick de. A pele da cultura: investigando a nova realidade eletrônica. São Paulo: Annablume, 2009. p. 170.

[4] BRASIL. Ministério da Indústria, Comércio e Serviços. Agenda brasileira para a indústria 4.0. Disponível em: http://www.industria40.gov.br/. Acesso em: 9 jan. 2020.

[5] SPALER, Mayara Guibor; XAVIER, Luciana Pedroso. Patrimônio de Afetação: uma possível solução para os danos causados por sistemas de inteligência artificial. In: FRAZÃO, Ana; MULHOLLAND, Caitlin (coord.). Inteligência Artificial e Direito. São Paulo: Thomson Reuters Brasil, 2019. p. 543.

[6] Não é à toa que Andrade se vale do mito de Jano para definir os desenvolvimentos científicos da humanidade: por um lado, descomplexificam o cotidiano da própria vida humana; por outro, configuram riscos à privacidade e à individualidade, especialmente na esfera penal (ANDRADE, Manuel da Costa. “Bruscamente no Verão Passado”, a Reforma do Código de Processo Penal: observações críticas sobre uma lei que podia e devia ter sido diferente. Coimbra: Coimbra Editora, 2009. p. 148).

[7] SCHWAB, Klaus. A Quarta Revolução Industrial. São Paulo: Edipro, 2016. p. 15.

[8] ANDRADE, Manuel da Costa. “Bruscamente no Verão Passado”, a Reforma do Código de Processo Penal: observações críticas sobre uma lei que podia e devia ter sido diferente. Coimbra: Coimbra Editora, 2009. p. 148.

[9] Cabe referir que a inteligência das máquinas vem sendo estudada pela humanidade há décadas; a doutrina aponta que o fenômeno da inteligência coletiva de sociedades de insetos sempre fascinou os pesquisadores por sua capacidade de auto-organização, isto é, pela habilidade de aprender e replicar atividades simples. DENEUBORG, Jean-Louis. Nova Robótica e Inteligência Colectiva? In: PRIGOGINE, Ilya et al. As Chaves do Século XXI. Lisboa: Instituto Piaget, 2000. p. 281). A inteligência artificial é subdividida em geral e estrita/específica: “Ao invés de contar com a memória de um julgado, da existência de decisão anterior – ‘puxada da memória’ – da recente alteração legislativa, o ecossistema jurídico pode ser relacionado em novas bases. Para tanto, faz-se necessário distinguir a Inteligência Artificial forte e fraca. Enquanto o objetivo da primeira (forte) é construir uma máquina que responda à inteligência geral humana, a segunda (fraca) busca emular a realização de tarefas específicas (LÓPEZ DE MÁNTARAS BADIA; MESEGUER GONZÁLEZ, 2017). Enquanto na geral se busca um substituto, na especializada se pretende predizer aplicações individualizadas. O alvo das duas é diferenciado e, no que se refere ao Direito, a pretensão se vincula à compreensão fraca, dada a multiplicidade de fatores que podem, em potência, constituir-se em fatores da decisão” (ROSA, Alexandre Morais da. A questão digital: o impacto da inteligência artificial no Direito. Revista de Direito da Faculdade Guanambi, v. 6, n. 2, e259, p. 01-18, 2019. p. 8). A inteligência artificial geral simula todas as características da inteligência humana. A inteligência artificial estrita/específica realiza apenas uma ou algumas atividades que decorrem da inteligência humana  – We can put AI in two categories, general and narrow. General AI would have all of the characteristics of human intelligence, including the capacities mentioned above. Narrow AI exhibits some facet(s) of human intelligence, and can do that facet extremely well, but is lacking in other areas. A machine that’s great at recognizing images, but nothing else, would be an example of narrow AI” (MCCLELLAND, Calum. The difference between artificial intelligence, machine learning, and deep learning. Medium, 4 dez. 2017. Disponível em: https://medium.com/iotforall/the-difference-between-artificial-intelligence-machine-learning-and-deep-learning-3aa67bff5991. Acesso em: 13 mar. 2020).

A inteligência artificial geral neste momento é apenas uma utopia – e talvez jamais chegue a ser desenvolvida, sobretudo porque as tarefas mais fáceis para os humanos são as mais difíceis para um computador, e vice-versa Ironically, abstract and formal tasks that are among the most difficult mental undertakings for a human being are tamong the easiests for a computer. […] A person’s everyday life requires na immense amount of knowledge about the world. Much of these knowledge is subjective and intuitive, and therefore diffucult to articulate in a formal way” (GOODFELLOW, Ian; BENGIO, Yoshua; COURVILLE, Aaron. Deep learning. Cambridge: MIT Press, 2016. p. 2). A aprendizagem de máquina é subdividida em três modalidades. A aprendizagem supervisionada é realizada por meio da alimentação do algoritmo com um dataset completamente anotado (a anotação do dataset é a classificação dos dados em grupos para que o algoritmo “aprenda” a classificar os dados em conformidade com as anotações do dataset. Por exemplo: um dataset completamente anotado, composto por imagens de gatos e cachorros, serve para treinar um algoritmo para identificar gatos e cachorros) para o treinamento. A aprendizagem não supervisionada é realizada por meio da alimentação de um algoritmo com um dataset sem anotações para o treinamento, de modo que o algoritmo deve aprender não apenas a identificar os dados, mas também os padrões. Já a aprendizagem semissupervisionada se dá a partir de datasets parcialmente anotados para o treinamento. A aprendizagem semissupervisionada apresenta resultados menos precisos que a aprendizagem supervisionada e a aprendizagem não supervisionada tem pior desempenho que a aprendizagem semissupervisionada (LYU, Shing. Practical rust projects. Building game, physical computing, and machine learning applications. New York: Apress, 2020. p. 188-189.)

[10] MORIMOTO, Carlos Eduardo. Dicionário técnico de informática. Disponível em: https://fasam.edu.br/wp-content/uploads/2016/06/Dicion%C3%A1rio-T%C3%A9cnico-de-Inform%C3%A1tica.pdf. Acesso em: 7 mar. 2020.

[11] No âmbito específico da computação – da qual Alan Turing é considerado o patrono – e da robótica, a inteligência artificial foi objeto de pesquisa desde os anos 1930, a partir dos estudos de Turing, que elaborou o Teste de Turing, por meio do qual se afere a capacidade de um software de exteriorizar inteligência similar à humana (SPALER, Mayara Guibor; XAVIER, Luciana Pedroso. Patrimônio de Afetação: uma possível solução para os danos causados por sistemas de inteligência artificial. In: FRAZÃO, Ana; MULHOLLAND, Caitlin [coord.]. Inteligência Artificial e Direito. São Paulo: Thomson Reuters Brasil, 2019. p. 546). O Teste de Turing foi proposto quando da publicação por Turing, em 1950, do artigo Computing Machinery and Intelligence (TURING, A. M. Computing Machinery and Intelligence. Mind, n. 49, p. 433-460, 1950), e consiste na interação entre três jogadores: um homem, uma mulher e um julgador. O juiz, que deve encontrar-se em um cômodo distinto dos dois outros participantes, tem a missão de descobrir quem é o homem e quem é a mulher dentre os demais. Um dos jogadores, no entanto, deve ser substituído por uma máquina – aquela da qual se quer aferir a capacidade de reproduzir inteligência humana –, sem que o julgador disto tenha conhecimento. Esse processo de imitação (A expressão “Jogo da Imitação”, ou The Imitation Game, diz respeito à propositura de Alan Turing, em 1950, do que veio a ser conhecido como Teste de Turing. No ponto, cf. Turing: “I propose to consider the question, ‘Can machines think?’. This should begin with definitions of the meaning of the terms ‘machine’ and ‘think’. The definitions might be framed so as to reflect so far as possible the normal use of the words, but this attitude is dangerous, if the meaning of the words ‘machine’ and ‘think’ are to be found by examining how they are commonly used it is difficult to escape the conclusion that the meaning and the answer to the question, ‘Can machines think?’ is to be sought in a statistical survey such as a Gallup poll. But this is absurd. Instead of attempting such a definition I shall replace the question by another, which is closely related to it and is expressed in relatively unambiguous words” (TURING, A. M. Computing Machinery and Intelligence. Mind, n. 49, p. 433-460, 1950. p. 433) da inteligência humana se dá a partir da “habilidade de um sistema de interpretar corretamente dados externos, aprender a partir desses dados e usar o aprendizado para alcançar objetivos e tarefas específicos por meio da adaptação flexível (JESUS, Diego Santos Vieira de; STEIBEL, Fabro; VICENTE, Victor Freitas. Possibilidades e Potenciais da Utilização da Inteligência Artificial. In: FRAZÃO, Ana; MULHOLLAND, Caitlin [coord.]. Inteligência Artificial e Direito. São Paulo: Thomson Reuters Brasil, 2019. p. 54.).

[12]The terms machine learning and artificial intelligence are sometimes used interchangeably, but there is a subtle difference. Artificial intelligence focuses on ‘intelligence’. An AI system tries to behave as if it possesses human intelligence, no matter what the underlying method or algorithm is. But in machine learning, the focus is on ‘learning’ where the system is trying to learn something from the data without a human explicitly programming the knowledge. For example, one of the early successes in AI was the expert system. In an expert system, the knowledge of a particular field is written down as rules and programmed directly into the code, so the system can answer questions or perform tasks as if it were a domain expert. This kind of system might appear to have some level of human intelligence, but underneath it’s not actually ‘learning’ from data. So this system can be called an AI system but not a machine learning system” (LYU, Shing. Practical rust projects. Building game, physical computing, and machine learning applications. New York: Apress, 2020. p. 187).

[13] A aprendizagem de máquina é apenas um meio de treinar um algoritmo para aprender: “So instead of hard-coding software routines with specific instructions to accomplish a particular task, machine learning is a way of ‘training’ an algorithm so that it can learn how. ‘Training’ involves feeding huge amounts of data to the algorithm and allowing the algorithm to adjust itself and improve” (MCCLELLAND, Calum. The difference between artificial intelligence, machine learning, and deep learning. Medium, 4 dez. 2017. Disponível em: https://medium.com/iotforall/the-difference-between-artificial-intelligence-machine-learning-and-deep-learning-3aa67bff5991. Acesso em: 13 mar. 2020).

[14] Algoritmo (algorithm) é um “conjunto de cálculos matemáticos, usado para encriptar dados, compactar arquivos, entre várias outras aplicações” (MORIMOTO, Carlos Eduardo. Dicionário técnico de informática. 3. ed. p. 68. Disponível em: https://fasam.edu.br/wp-content/uploads/2016/06/Dicion%C3%A1rio-T%C3%A9cnico-de-Inform%C3%A1tica.pdf. Acesso em: 7 mar. 2020).

[15]Machine learning at its most basic is the practice of using algorithms to parse data, learn from it, and then make a determination or prediction about something in the world. So rather than hand-coding software routines with a specific set of instructions to accomplish a particular task, the machine is ‘trained’ using large amounts of data and algorithms that give it the ability to learn how to perform the task. […] Another algorithmic approach from the early machine-learning crowd, artificial neural networks, came and mostly went over the decades. Neural networks are inspired by our understanding of the biology of our brains – all those interconnections between the neurons. But, unlike a biological brain where any neuron can connect to any other neuron within a certain physical distance, these artificial neural networks have discrete layers, connections, and directions of data propagation” (COPELAND, Michael. What’s the difference between artificial intelligence, machine learning and deep learning? Disponível em: https://blogs.nvidia.com/blog/2016/07/29/whats-difference-artificial-intelligence-machine-learning-deep-learning-ai/. Acesso em: 13 mar. 2020).

[16]So instead of hard-coding software routines with specific instructions to accomplish a particular task, machine learning is a way of ‘training’ an algorithm so that it can learn how. ‘Training’ involves feeding huge amounts of data to the algorithm and allowing the algorithm to adjust itself and improve. […] Deep learning is one of many approaches to machine learning. Other approaches include decision tree learning, inductive logic programming, clustering, reinforcement learning, and Bayesian networks, among others” (MCCLELLAND, Calum. The difference between artificial intelligence, machine learning, and deep learning? Disponível em: https://blogs.nvidia.com/blog/2016/07/29/whats-difference-artificial-intelligence-machine-learning-deep-learning-ai/ . Acesso em: 13 mar. 2020).

[17] INTELIGÊNCIA artificial vai agilizar a tramitação de processos no STF. Notícias STF, Brasília, 30 mai. 2018. Disponível em: http://www.stf.jus.br/portal/cms/verNoticiaDetalhe.asp?idConteudo=380038. Acesso em: 9 mar. 2020.

[18] Ver mais em: http//www.sajdigital.com.

[19] MONTENEGRO, Carlos Manuel. CNJ usará automação e inteligência artificial para destravar execução fiscal. Notícias CNJ – Agência CNJ de notícias, Brasília, 10 abr. 2019. Disponível em: https://www.cnj.jus.br/cnj-usara-automacao-e-inteligencia-artificial-para-destravar-execucao-fiscal/. Acesso em: 9 mar. 2020.

[20] O Sistema Elis atua sob a perspectiva de, em quinze dias, processar cerca de oitenta mil feitos de execução fiscal, o que tomaria aproximadamente dezoito meses, caso fosse realizado exclusivamente por força de trabalho humana (BRITO, Bruno. TJPE usará inteligência artificial para agilizar processos de execução fiscal no Recife. Notícias TJPE, 20 nov. 2018. Disponível em: https://www.tjpe.jus.br/noticias/-/asset_publisher/ubhL04hQXv5n/content/id/2079372. Acesso em: 9 mar. 2020.

[21] CASTRO, Beatriz. Justiça de Pernambuco usa inteligência artificial para acelerar processos. G1, 4 mai. 2019. Disponível em: https://g1.globo.com/pe/pernambuco/noticia/2019/05/04/justica-de-pernambuco-usa-inteligencia-artificial-para-acelerar-processos.ghtml. Acesso em: 9 mar. 2020.

[22] BRITO, Bruno. TJPE usará inteligência artificial para agilizar processos de execução fiscal no Recife. Notícias TJPE, 20 nov. 2018. Disponível em: https://www.tjpe.jus.br/noticias/-/asset_publisher/ubhL04hQXv5n/content/id/2079372. Acesso em: 9 mar. 2020.

[23] ROSA, Alexandre Morais de. A Questão Digital: o impacto da inteligência artificial no Direito. Revista de Direito da Faculdade Guanambi, v. 06, n. 02, e259, p. 01-18, jul./dez. 2019. p. 04.

[24] O caso trazido pelos autores é elucidativo: “Imagine, agora, uma cidade hipotética em que a mesma quantidade de crimes seja cometida em dois bairros diferentes: um de classe média alta e um bairro pobre. Suponha que a atuação da polícia não seja semelhante nos dois bairros, e que os mais humildes sejam, com frequência, mais sujeitos à fiscalização. Naturalmente, mais ilícitos serão descobertos no bairro pobre, ainda que a sua ocorrência seja idêntica àquela do bairro mais rico. Tendo acesso a essa base de dados, a leitura natural do algoritmo determinaria que houvesse maior policiamento nessa localidade, o que, por sua vez, geraria uma percepção ainda mais acentuada sobre os crimes ali cometidos” (FERRARI, Isabela; BECKER, Daniel; WOLKART, Erik Navarro. Arbitrium ex machina: panorama, riscos e a necessidade de regulação das decisões informadas por algoritmos. Revista dos Tribunais, v. 995, pp. 635-655, set. 2018. p. 641).;

[25] Nessa linha, Elias adverte que: “Muitos sistemas de aprendizado de máquina são verdadeiras caixas pretas, cujos métodos são difíceis de interpretar. Embora esses sistemas possam produzir resultados estatisticamente confiáveis, o usuário final não será necessariamente capaz de explicar como esses resultados foram gerados ou quais características específicas de um caso têm sido importantes para chegar a uma decisão final, causando desafios de interpretabilidade e transparência” (ELIAS, Paulo Sá. Algoritmos, Inteligência Artificial e o Direito. Consultor Jurídico, 2017. Disponível em: https://www.conjur.com.br/dl/algoritmos-inteligencia-artificial.pdf. Acesso em: 21 mar. 2020).

[26]  A discriminação algorítmica merece o centro do debate no uso de algumas ferramentas de IA. É o caso da polícia preditiva, cujo exemplo mais lembrado é o PredPol, oriundo de um projeto de pesquisa entre o Departamento de Polícia de Los Angeles e a Ucla e utilizado por muitos departamentos de Polícia nos Estados Unidos.  Segundo consulta ao www.predpol.com, o objetivo da ferramenta é, a partir de dados históricos, identificar horários e locais onde determinadas infrações têm maior probabilidade de acontecer, gerando patrulhamento preventivo para impedir que os delitos ocorram. Ou seja, os recursos da polícia são endereçados a esses locais para prevenir aquela determinada modalidade de delito.

Cathy O’Neil, especialista em algoritmos e doutora em matemática pela Universidade de Harvard, trouxe um fator relevante sobre a discriminação algorítmica, destacando que a geografia, no caso do PredPol, é um dado altamente eficaz na substituição das informações sobre a raça. Os bairros pobres, foco geográfico do PredPol, têm, em sua maioria, negros e hispânicos, relata O’Neil e propõe um desafio a partir de um questionamento: “But how about crimes far removed from the boxes on the PredPol maps, the ones carried out by the rich?” (O’NEIL, Cathy. Weapons of math destruction. how big data increases inequality and treathens democracy. Nova Iorque: Crown Publishers, 2016, p. 89-90). Adiante, a autora propõe: “Just imagine if police enforced their zero-tolerance strategy in finance. They would arrest people for even the slightest infraction, whether it was chiseling investors on 401ks, providing misleading guidance, or committing petty frauds. Perhaps SWAT teams would descend on Greenwich, Connecticut. They’d go undercover in the taverns around Chicago’s Mercantile Exchange. Not likely, of course. The cops don’t have the expertise for that kind of work. Everything about their jobs, from their training to their bullet-proof vests, is adapted to the mean streets.” (O’NEIL, Cathy. Weapons of math destruction. how big data increases inequality and treathens democracy. Nova Iorque: Crown Publishers, 2016, p. 90) Mais adiante traz a conclusão: “My point is that police make choises about where they direct their attention. Today they focus almost exclusively on the poor. That’s their heritage, and their mission, as they understand it. And now data scientists are stitching this status quo of the social order into models, like PredPol, that hold ever-greater sway over our lives. The result is that while PredPol delivers a perfectly useful and even high-minded software tool, it is also a do-it-yourself WMD. In this sense, PredPol, even with the bestof intentions, empowers police departments to zero in on the poor, stopping more of them, arresting a portion of those, and sending a subgroup to prison. And the police chiefs, in many cases, if not most, think that they’re taking the only sensible route to combating crime. That’s where it is, they say, poiting to the highlighted ghetto on the map. That’s where it is, they say, pointing to the highlighted ghetto on the map. And now they have cutting-edge technology (powered by Big Data) reinforcing their position there, while adding precision and ‘science’ to the process. The result is that we criminalize poverty, believing all the while that our tools are not only scientific but fair.” (O’NEIL, Cathy. Weapons of math destruction. how big data increases inequality and treathens democracy. Nova Iorque: Crown Publishers, 2016, p. 91).

[27] FERRARI, Isabela; BECKER, Daniel; WOLKART, Erik Navarro. Arbitrium ex machina: panorama, riscos e a necessidade de regulação das decisões informadas por algoritmos. Revista dos Tribunais, v. 995, pp. 635-655, set. 2018. p. 641-644.

[28] CORDERO, Franco. Procedimiento Penal. Santa Fe de Bogotá: Editorial Temis S.A., 2000. t. 2. p. 3.

[29] Cf. COUTINHO, Jacinto Nelson de Miranda. Glosas ao verdade, dúvida e certeza, de Francesco Carnelutti, para os operadores do direito. In: SÁNCHEZ RUBIO, David; HERRERA FLORES, Joaquín; CARVALHO, Salo de. (org.). Anuário Ibero-americano de Direitos Humanos (2001-2002). Rio de Janeiro: Editora Lumen Juris, 2002. p. 176.

[30] “Não se trata do crime – tenha-se bem presente – já existente (pelo menos aparentemente), mas da sua reconstituição, algo que se faz pela linguagem, como não se pode negar. Eis, então, a razão pela qual a linguagem é tão importante no espaço do Direito Processual Penal” (COUTINHO, Jacinto Nelson de Miranda. Sistema acusatório. Cada parte no lugar constitucionalmente demarcado. Revista de Informação Legislativa, Brasília, a. 46, n. 183, p. 103-115, 2009. p. 108).

[31] Um limite inerente a todo o conhecimento linguístico decorre da impossibilidade de conhecer o todo, pois só se conhece na e pela linguagem. O outro segundo limite, jurídico, decorre da impossibilidade jurídica de devassas por força dos direitos fundamentais. Cf. COUTINHO, Jacinto Nelson de Miranda. Glosas ao “Verdade, dúvida e certeza”, de Francesco Carnelutti. Empório do Direito, Florianópolis, 19 mar. 2015. Disponível em: http://emporiododireito.com.br/backup/glosas-ao-verdade-duvida-e-certeza-de-francesco-carnelutti-por-jacinto-nelson-de-miranda-coutinho/. Acesso em: 13 mar. 2020.

[32] GIACOMOLLI, Nereu José. O Devido Processo Penal: abordagem conforme a Constituição Federal e o Pacto de São José da Costa Rica. 2. ed., rev. e ampl. São Paulo: Atlas, 2015. p. 172.

[33] LOPES JR., Aury. Direito processual penal. 15. ed. São Paulo: Saraiva, 2018. p. 392-393.

[34] FAZZALARI, Elio. Instituições de direito processual. Campinas: Bookseller, 2006. p. 40.

[35] FAZZALARI, Elio. Instituições de direito processual. Campinas: Bookseller, 2006. p. 121.

[36] Cf. Morales: “En desacuerdo con la libre convicción o apreciación, la sana crítica supone métodos, reglas de lógica, reglas de experiencia, e incluso reglas sociales, costumbres, etc., que permitan al juez valorar y apreciar una realidad jurídica determinada. Esa realidad deviene de una situación histórica concreta que produce muchas determinaciones, por ello juez tiene que hacer una apreciación integral, en la cual estén presentes los métodos del pensamiento, todo el acervo probatorio y las determinaciones sociales, psicológicas e históricas” (MORALES, Rodrigo Rivera. La Prueba: un análisis racional y práctico. Madrid: Marcial Pons, 2011. p. 249).

[37] Cf. MORAES DA ROSA, Alexandre. Capítulo 2.8: Decisão e Ideologia. In:  MORAES DA ROSA, Alexandre; AMARAL, Augusto Jobim do. Cultura da Punição: a ostentação do horror. 2. ed. Florianópolis: Empório do Direito, 2015. 2ª parte. p. 203.

[38] CANTÓN, Fernando Diaz. La Motivación de la Sentencia Penal y Otros Estudios. Buenos Aires: Del Puerto, 2005. p. 99.

[39] LEAL, Rosemiro Pereira. Teoria geral do processo: primeiros estudos. São Paulo: Thomson-IOB, 2004. p. 92.

[40] STRECK, Lenio L.; MENDES, Gilmar F. Comentário ao artigo 93, IX. In: CANOTILHO, J. J. Gomes; SARLET, Ingo W.; STRECK, Lenio L. (coord.). Comentários à Constituição do Brasil. São Paulo: Saraiva; Almedina, 2013. p. 1324-1325.

[41] ROSA, Alexandre Morais de. A Questão Digital: o impacto da inteligência artificial no Direito. Revista de Direito da Faculdade Guanambi, v. 06, n. 02. e259, p. 01-18, jul./dez. 2019. p. 04-05.

[42] MORAES DA ROSA, Alexandre. Capítulo 2.8: Decisão e Ideologia. In: MORAES DA ROSA, Alexandre; AMARAL, Augusto Jobim do. Cultura da Punição: a ostentação do horror. 2. ed. Florianópolis: Empório do Direito, 2015. 2ª parte. p. 202.

[43] MORAES DA ROSA, Alexandre. Capítulo 2.8: Decisão e Ideologia. In: MORAES DA ROSA, Alexandre; AMARAL, Augusto Jobim do. Cultura da Punição: a ostentação do horror. 2. ed. Florianópolis: Empório do Direito, 2015. 2ª parte. p. 204-205.

[44]We may concede, at any rate, that there may be efficient AI methods to rationalize the judge’s sentencing. However, the danger is of eliminating the judge’s discretion rather than rationalizeing it. In fact, AI methods may be efficient insofar as they reduce or eliminate the vagueness, the fuzziness, the open texture and the indeterminacy of the standards governing the practice of sentencing” (TARUFFO, Michele. Judicial decisions and artificial intelligence. Artificial intelligence and law, v. 6, p. 311-324, 1998. p. 321).

[45] Cf. NUNES, Dierle; RUBINGER, Paula Caetano; MARQUES, Ana Luiza Pinto. Os perigos do uso da inteligência artificial na advocacia. Consultor Jurídico, São Paulo, 9 jul. 2018. Disponível em: https://www.conjur.com.br/2018-jul-09/opiniao-perigos-uso-inteligencia-artificial-advocacia. Acesso em: 05 mar. 2021.

[46]Una gran parte de la labor de los juzgadores es mecánica. Aunque en ello tiene una gran responsabilidad la absurda – hoy en día – burocracia judicial, que refleja usos del pasado, lo cierto es que buena parte de los funcionários judiciales invierten su tiempo utilizando modelos de resolución y modificando simplemente los datos identificatorios del proceso” (NIEVA FENOLL, Jordi. Inteligencia artificial y proceso judicial. Madri: Marcial Pons, 2018. p. 24). Esse mesmo raciocínio é aplicável a todas as tarefas dos juristas.

[47] Cf. WOJCIECHOWSKI, Paola Bianchi; ROSA, Alexandre Morais da. Vieses da justiça: como as heurísticas e vieses operam nas decisões penais e a atuação contraintuitiva. Florianópolis: EModara, 2018; e NIEVA FENOLL, Jordi. Inteligencia artificial y proceso judicial, Madri: Marcial Pons, 2018. p. 43-60.

[48] “Um algoritmo criado por seres humanos enviesados provavelmente padecerá do mesmo ‘mal’, não de forma proposital, mas em decorrência das informações fornecidas ao sistema. Dessa maneira, surgem os chamados vieses algorítmicos, que ocorrem quando as máquinas se comportam de modos que refletem os valores humanos implícitos envolvidos na programação” (NUNES, Dierle; MARQUES, Ana Luiza Pinto Coelho. Inteligência artificial e direito processual: vieses algorítmicos e os riscos de atribuição de função decisória às máquinas. Revista de Processo, v. 285, p. 421-447, 2018. p. 427).

[49] MAGRANI, Eduardo; SILVA, Priscilla; VIOLA, Rafael. Novas perspectivas sobre ética e responsabilidade de inteligência artificial. In: FRAZÃO, Ana; MULHOLLAND, Caitlin (coord.). Inteligência Artificial e Direito. São Paulo: Thomson Reuters Brasil, 2019. p. 117.

[50] Em 2016, a Microsoft desenvolveu o software Tay – um perfil na rede social Twitter, de modo que o fim da inteligência artificial era engajar-se em conversas com jovens usuários da plataforma e, por meio dessas interações, expandir seu vocabulário e as interações com humanos (GRIFFIN, Andrew. Tay Tweets: Microsoft creates bizarre Twitter robot for people to chat to. The Independent, 23 mar. 2016. Disponível em: https://www.independent.co.uk/life-style/gadgets-and-tech/news/tay-tweets-microsoft-creates-bizarre-twitter-robot-for-people-to-chat-to-a6947806.html. Acesso em: 9 mar. 2020.). Todavia, em menos de 24 horas, Tay passou a publicar ofensas raciais, ideias nazistas e apoio ao genocídio (OHLHEISER, Abby. Trolls turned Tay, Microsoft’s fun millennial AI bot, into a genocidal maniac. The Washington Post, 25 mar. 2016. Disponível em: https://www.washingtonpost.com/news/the-intersect/wp/2016/03/24/the-internet-turned-tay-microsofts-fun-millennial-ai-bot-into-a-genocidal-maniac/. Acesso em: 05 mar. 2021), em face dos dados com os quais havia sido alimentada. Dessa forma, a alimentação incerta das inteligências artificiais é perigosa, mormente quando aplicada ao direito (ANGWIN, Julia; LARSON, Jeff; MATTU, Surya; KIRCHNER, Lauren. Machine Bias: there’se software used across the country to predict future criminals. And it’s biased against blacks. ProPublica, 23 mai. 2016. Disponível em: https://www.propublica.org/article/machine-bias-risk-assessments-in-criminal-sentencing. Acesso em: 11 mar. 2020. Em diversos estados dos Estados Unidos da América, o sistema penal conta com risk assessments. Isto é, a determinação de scores aos cidadãos que são processados criminalmente, por meio dos quais uma inteligência de máquina determina a probabilidade de que aquele indivíduo venha a reincidir na prática de novos delitos. No entanto, descobriu-se que a fórmula da inteligência artificial responsável pela indicação do score reproduzia desigualdade racial, tendo em vista que apontava erroneamente réus negros como possíveis reincidentes quase duas vezes mais do que fazia com acusados caucasianos).

[51] “A metáfora de uma máquina em que se colocam os insumos e há o resultado não acontece, no plano do conhecimento humano, de forma mecânica e sim com múltiplas possibilidades de sentido, em que o trabalho de curadoria (nova função jurídica), será decisivo, justamente porque será a partir dos pressupostos que as respostas serão fornecidas e dentro dos limites de quem estabelece o discurso válido. Assim, desde já, longe de ser um instrumento neutro, o uso da inteligência artificial atende aos anseios teóricos e ideológicos de quem programa e estabelece seus limites responsivos. Isso será decisivo para compreender o espaço de poder que uma máquina, aparentemente neutra, pode ocupar de modo avassalador” (ROSA, Alexandre Morais da. A questão digital: o impacto da inteligência artificial no Direito. Revista de Direito da Faculdade Guanambi, v. 06, n. 02. e259, p. 01-18, jul./dez. 2019. p. 9).

[52] “Já se teve a oportunidade de comentar alguns dos riscos para a advocacia ou de seu emprego para processos decisórios em decorrência dos vieses algorítmicos, entendidos como deturpações cognitivas das máquinas que geram equívocos nos resultados por erros na alimentação de dados durante o aprendizado da máquina – machine learning – (datasets incompletos ou adulterados), ou existência de padrões ocultos que deturpam a realidade dos fatos promovendo generalizações equivocadas, opacidade (não compreensão de como se chegou aos resultados) e geração de preconceito e discriminação” (NUNES, Dierle; MEDEIROS, Nathália. Inteligência artificial – litigantes habituais e eventuais. Consultor Jurídico, São Paulo, 20 nov. 2018. Disponível em: https://www.conjur.com.br/2018-nov-20/opiniao-tecnologia-direito-litigantes-habituais-eventuais. Acesso em: 13 mar. 2020).

[53] “Ao criar um modelo, os programadores devem selecionar as informações que serão fornecidas ao sistema de IA e que serão utilizadas para prever soluções e/ou resultados futuros. Essas escolhas, portanto, fazem com que sempre haja pontos cegos nos algoritmos, os quais refletem os objetivos, prioridades e concepções de seu criador, de modo que os modelos são, a todo tempo, permeados pela subjetividade do sujeito que os desenvolve. Esses blindspots podem ser irrelevantes para os resultados pretendidos pelos modelos. Por outro lado, podem ser ignoradas informações importantes para correta análise da situação, influenciando negativamente nas respostas dadas pelo sistema” (NUNES, Dierle; MARQUES, Ana Luiza Pinto Coelho. Inteligência artificial e direito processual: vieses algorítmicos e os riscos de atribuição de função decisória às máquinas. Revista de Processo, v. 285, p. 421-447, 2018. p. 426).

[54] ROSA, Alexandre Morais de. A Questão Digital: o impacto da inteligência artificial no Direito. Revista de Direito da Faculdade Guanambi, v. 06, n. 02. e259, p. 01-18, jul./dez. 2019. p. 09.

[55] ROSA, Alexandre Morais de. A Questão Digital: o impacto da inteligência artificial no Direito. Revista de Direito da Faculdade Guanambi, v. 06, n. 02. e259, p. 01-18, jul./dez. 2019.