Por Que A Inteligência Artificial é Perigosa Para Julgar Criminosos? - Visão Alternativa

Índice:

Por Que A Inteligência Artificial é Perigosa Para Julgar Criminosos? - Visão Alternativa
Por Que A Inteligência Artificial é Perigosa Para Julgar Criminosos? - Visão Alternativa

Vídeo: Por Que A Inteligência Artificial é Perigosa Para Julgar Criminosos? - Visão Alternativa

Vídeo: Por Que A Inteligência Artificial é Perigosa Para Julgar Criminosos? - Visão Alternativa
Vídeo: O Perigo da INTELIGÊNCIA ARTIFICIAL 2024, Pode
Anonim

A inteligência artificial já está ajudando a determinar seu futuro de alguma forma. Quando você pesquisa algo em um mecanismo de pesquisa, use um serviço como o Netflix ou um banco avalia se você está apto para uma hipoteca. Mas o que acontece se a inteligência artificial tiver que determinar se você é culpado ou não, no tribunal? Curiosamente, em alguns países isso já pode estar acontecendo. Recentemente, o Supremo Tribunal dos EUA, John Roberts, foi questionado se poderia imaginar um dia em que "máquinas inteligentes, controladas por inteligência artificial, ajudarão a encontrar evidências ou mesmo a tomar decisões judiciais" Ele respondeu: "Este dia já chegou e ele está ajudando significativamente as autoridades judiciais no processo."

Talvez Roberts esteja se referindo ao recente caso de Eric Loomis, que foi condenado a seis anos de prisão por recomendação de software proprietário secreto de uma empresa privada. Loomis, que já tinha antecedentes criminais e foi condenado por escapar da polícia em um carro roubado, agora afirma que seu direito de procedimento foi violado porque nem ele nem seus representantes foram capazes de revisar ou contestar o algoritmo de recomendação.

O relatório foi elaborado pelo software Compas, que é vendido pela Notrpointe para navios. O programa incorpora uma nova tendência na pesquisa de IA: ajudar os juízes a tomar decisões “melhores” (ou pelo menos mais baseadas em dados) no tribunal.

Embora os detalhes específicos do caso Loomis permaneçam encerrados, ele certamente contém gráficos e números que definem a vida, o comportamento e a probabilidade de uma recaída de Loomis. Isso inclui idade, raça, identidade de gênero, hábitos, histórico do navegador e algumas medidas do crânio. Ninguém sabe mais precisamente.

Sabe-se que o promotor do caso disse ao juiz que Loomis demonstrou "um alto risco de reincidência, violência, processos pré-julgamento". Isso é padrão quando se trata de sentença. O juiz concordou e disse a Loomis que "Compas o identificou como uma pessoa de alto risco para a sociedade".

A Suprema Corte de Wisconsin condenou Loomis, acrescentando que o relatório Compas acrescentou informações valiosas à sua decisão, mas observou que sem ele, ele proferiu a mesma sentença. Claro, você não poderá verificar isso com certeza. Que preconceitos cognitivos podem existir quando um sistema onipotente "inteligente" como o Compas está envolvido no aconselhamento de juízes sobre o que fazer?

Uso desconhecido

Vídeo promocional:

Vamos ser honestos, não há nada de “ilegal” no que o tribunal de Wisconsin fez - este é apenas um exemplo. Outros tribunais podem e farão o mesmo.

Infelizmente, não sabemos até que ponto a IA e outros algoritmos são usados na sentença. Acredita-se que alguns tribunais estão "testando" sistemas como o Compas em julgamentos fechados, mas não podem reivindicar uma parceria. Também existe a percepção de que várias startups de IA estão desenvolvendo esses sistemas inteligentes.

Image
Image

No entanto, o uso de IA na legislação não começa nem termina com uma frase, começa com uma investigação. O Reino Unido já desenvolveu o sistema VALCRI, que faz um trabalho analítico demorado em questão de segundos - vasculhando toneladas de dados como textos, relatórios de laboratório e documentos policiais para isolar coisas que podem exigir uma investigação mais aprofundada.

A polícia britânica de West Midlands testará o VALCRI nos próximos três anos usando dados anônimos contendo mais de 6,5 milhões de registros. Um teste semelhante está sendo realizado pela polícia de Antuérpia na Bélgica. No entanto, no passado, os projetos de IA e aprendizagem profunda envolvendo conjuntos de dados massivos foram problemáticos.

Benefícios para poucos

A tecnologia forneceu muitas ajudas úteis aos tribunais, desde máquinas copiadoras até extração de DNA de impressões digitais e técnicas sofisticadas de vigilância. Mas isso não significa que qualquer tecnologia seja uma melhoria.

Embora o uso de IA em investigações e condenações possa potencialmente economizar tempo e dinheiro, ele apresenta problemas agudos. Um relatório Compas do ProPublica deixou claro que os negros foram erroneamente considerados pelo programa como mais reincidentes do que os brancos. Mesmo os sistemas de IA mais sofisticados podem herdar os preconceitos raciais e de gênero daqueles que os criaram.

Além disso, qual é o ponto de mudar a tomada de decisão (pelo menos em parte) sobre questões que são exclusivas dos humanos em um algoritmo? Há uma certa dificuldade nos Estados Unidos quando os júris julgam seus pares. Os padrões legais nunca foram a referência, então esses julgamentos com júri são considerados os sistemas de condenação mais democráticos e eficazes. Cometemos erros, mas com o tempo acumulamos conhecimento sobre como não cometê-los, aprimorando o sistema.

O Compas e sistemas semelhantes representam uma caixa preta no sistema jurídico. Não deveria haver tal. Os sistemas jurídicos dependem da continuidade, transparência das informações e capacidade de revisão. A sociedade não quer um sistema que incentive a corrida para construir startups de IA que façam soluções rápidas, baratas e exclusivas. Uma IA feita às pressas será terrível.

Uma versão de código aberto atualizada do Compas seria uma melhoria. Mas, primeiro, os padrões do sistema judiciário terão que ser elevados antes de começarmos a transferir a responsabilidade em favor dos algoritmos.

ILYA KHEL

Recomendado: