China desarrolla con IA un fiscal para delitos menores

IA, Legaltech

No hace mucho que publiqué un artículo relacionando con el ámbito jurídico y la inteligencia artificial, una combinación entre la tecnología más vanguardista y las leyes que legislan nuestro entorno. A corto plazo, sería impensable que las máquinas pudiesen desempeñar las funciones de un humano como fiscal, pero no cabe duda de que China, ha sido la primera potencia en aplicar esta tecnología en sus tribunales para delitos menores o recurrentes.

El profesor Shi Yong líder científico del equipo que ha sido encargado de desarrollar esta tecnología, ha comentado que la fiabilidad de la IA es de un 97% de precisión, habiendo recibido previamente una descripción verbal de lo acontecido. La Fiscalía Popular de Shanghai Pudong fue la encargada de crear y probar esta tecnología, inducida por el alto nivel de concurrencia siendo la mayor de china en más de 17,000 casos desde 2015.

Según el South China Morning Post, la IA es capaz de identificar e imputar los 8 delitos más comunes del distrito, como el fraude con tarjetas de crédito, delitos de juego, conducción temeraria, robo, fraude, obstrucción de deberes oficiales o lesiones intencionales.

El Sistema 206 en China

Posiblemente sea la primera vez que hayas oído hablar sobre este tipo de tecnología en el ámbito jurídico, pero no es la primera vez que se utiliza para defender o imputar a un individuo en china, ya que los fiscales, utilizan una herramienta de inteligencia artificial llamada Sistema 206, esta se encarga de identificar y evaluar las pruebas de un supuesto delito como también de determinar el nivel de peligrosidad del presunto delincuente según su algoritmo.

La «IA fiscal» ha sido creada en base a esta herramienta donde se augura desde el equipo de investigación algunas mejoras en el futuro, aplicando técnicas de aprendizaje automático (machine learning) y actualizaciones del software que permitan identificar delitos poco comunes, además de la imputación de varios casos a un mismo sospechoso, por ejemplo.

Errores no esperados

Cuando hablamos o nos referimos a la inteligencia artificial lo hacemos pensando en una máquina, esta se asemeja lo más parecido a un ser humano, pero en sí, sigue siendo una maquina.

Gracias al aprendizaje automático se pueden descubrir nuevos patrones e ir mejorando este sistema, que en parte, ayuda a identificar y a tomar decisiones en procesos repetitivos pero, ¿qué pasa si se equivoca? ¿Puede un Robocop enviar a la cárcel a un individuo supuestamente no culpable por un error en su algoritmo? Según la entrevista realizada por SCMP a un fiscal anónimo, comentó que:

«Un 97% de precisión sobre la efectividad de la herramienta es bastante alta pero que, siempre habrá una posibilidad de error». Además concluyó diciendo «¿Quién asumirá la responsabilidad cuando suceda? ¿El fiscal, la máquina o el diseñador del algoritmo?» finalizando la intervención del jurista a dicho diario chino.

En resumen, la IA aplicada a este ámbito todavía se encuentra en pañales y no ha sido implementado en toda su amplitud, eso sí, no tardará en mejorar y en ofrecer ciertas garantías en sus resoluciones, basando sus decisiones en la equidad y en la buenas prácticas. Es obvio de que todavía necesita recorrer un largo camino e ir puliendo esas desavenencias entre la máquina y la realidad.

No cabe ninguna duda de que el uso de la IA aplicada al derecho agiliza y facilita a los letrados el trabajo diario, pero ¿al límite de juzgar e imputar? Posiblemente este indicador nos está mostrando que si sigue está tendencia, las maquinas podrían realizar el trabajo sucio tanto de la policía, como la de los tribunales en cuanto a los juicios rápidos se refiere.

NEWSLETTER

Suscribirte a Exploradata.com es recibir en tu bandeja de entrada los últimos artículos y novedades del blog, para que no te pierdas nada.