La inteligencia artificial (IA) está presente en la industria y en el ámbito del control del delito desde, al menos, la década de 1980, aunque es cierto que su utilización se ha multiplicado en el último lustro, y es previsible que se siga generalizando en los próximos años. Al mismo tiempo, estamos asistiendo a una introducción de este tipo de tecnologías en prácticamente todos los campos de la vida social y económica, de un modo absolutamente transversal, sin que se pueda vislumbrar todavía un horizonte claro sobre cuáles van a ser las repercusiones que este fenómeno vaya a tener. Sin embargo, no existe todavía un acuerdo acerca de los mecanismos de regulación más adecuados que permitan ampliar o limitar, cuando corresponda, el uso potencial de la IA. En concreto, el desarrollo de aplicaciones de la IA y su utilización en el sistema penal se ha producido sin que haya habido una previa reflexión sobre los límites y consecuencias de su uso en campos tan específicos y sensibles como la justicia penal, donde están en juego derechos fundamentales como la intimidad, la libertad, la igualdad y no discriminación, la presunción de inocencia o el derecho al debido proceso. Esa reflexión se está produciendo en la actualidad, cuando la IA está siendo progresivamente utilizada tanto en el ámbito de la investigación del delito, como en los de su prevención y represión, y cuando su uso en otros sectores es susceptible de tener repercusiones – en ocasiones insospechadas – en los sistemas penales.
La relación entre justicia penal e inteligencia artificial posee múltiples planos y su utilidad es innegable. Tal vez una de las aplicaciones que más curiosidad, pero también más controversia despierta es el de la automatización de decisiones; es decir, la posibilidad de que los jueces humanos sean reemplazados por máquinas inteligentes a la hora de tomar decisiones fácticas o jurídicas, de modo que estas se objetivicen o se matematicen, si tal cosa es posible. Sin embargo, esta no es, ni mucho menos, la única posibilidad de aplicar a la justicia penal los sistemas de inteligencia artificial. A día de hoy han sido desarrolladas múltiples aplicaciones de inteligencia artificial que pueden ser utilizadas en el ámbito de la justicia penal, tanto en el auxilio a las partes y a los órganos judiciales, en la toma de decisiones automática o en el apoyo a la investigación penal y a la producción de prueba.
En los últimos años se han desarrollado los denominados sistemas expertos, como Ross Intelligence , que elaboran respuestas legales a problemas jurídicos complejos y orienta a las partes sobre la estrategia jurídica a seguir en un pleito. Pero también existen mecanismos de toma de decisión judiciales que orientan o, en ocasiones, sustituyen al juez a la hora de dictar ciertas resoluciones en el seno del proceso, ya sean resoluciones finales más o menos sencillas u otras de carácter interlocutorio. Ejemplos de esto pueden ser aplicaciones como COMPAS, Prometea, Split-up, o Expertius. En este ámbito debe destacarse las herramientas de carácter predictivo, como VioGén o Riscanvi, que ayudan a las Fuerzas y Cuerpos de Seguridad del Estado y a los operadores penitenciarios a tomar decisiones que exigen realizar valoraciones del riesgo y, en consecuencia, aventurar de modo más o menos fiable, qué ocurrirá en un futuro.
En otras ocasiones, se buscará agilizar la toma de decisiones y la gestión de los procesos, a través de la automatización de las decisiones cuando estas no posean un verdadero acto decisorio o este resulta de escasa complejidad o repetitiva. Incluso en tiempos recientes se está explorando igualmente las posibilidades de utilización de la inteligencia artificial en los métodos no heterocompositivos de resolución de conflictos, como puede ser la mediación, donde el papel del mediador podría ser total o parcialmente asumido por la máquina.
Sin embargo, la irrupción de los sistemas de inteligencia artificial no sólo desafía y revoluciona el funcionamiento interno de los sistemas de justicia penal, sino que su presencia en ámbitos cada vez más diversos de la vida económica y social requiere de adaptaciones en la aplicación del derecho penal. La presencia de sistemas automatizados de toma de decisiones desplaza la imputación de responsabilidad del humano a la máquina, o por lo menos, la vuelve más compleja. Ello requiere cuestionarse si los esquemas habituales de determinación de la responsabilidad penal son válidos o requieren de adaptaciones a esta nueva realidad.
El grupo de investigación de la Universidade da Coruña ECRIM (ecrim.es) ha venido desarrollando en los últimos años una línea de investigación centrada en las repercusiones que la aparición y generalización de las tecnologías de Inteligencia Artificial han tenido en el seno de las ciencias penales. La aparición de las máquinas inteligentes (MI) y su introducción paulatina en todos los sectores de la sociedad, suponen, un desafío para las ciencias penales y la psicología jurídica. Por un lado, porque estas MI, funcionando más o menos autónomamente, pueden poner en peligro o causar daños a bienes jurídicos penalmente relevantes, que plantean interrogantes doctrinales acerca de su capacidad de acción, de culpabilidad y de pena. Por otro lado, porque muchos aspectos de la labor policial, forense, judicial y administrativa se pueden ver afectados por la utilización de algoritmos informáticos que condicionan la adopción de decisiones jurídicas de enorme relevancia. En el marco de esta línea de investigación, el Ministerio de Economía e Competitividad ha financiado, a través del Programa Estatal de Fomento de la Investigación Científica y Técnica de Excelencia, Subprograma Estatal de Generación de Conocimiento, el Proyecto de Investigación “La responsabilidad de la inteligencia artificial: un desafío para las ciencias penales” (PID2020-112637RB-I00), Universidade da Coruña Patricia Faraldo Cabana y José Ángel Brandariz García.
Una de las principales actividades ligadas a la ejecución de este proyecto ha sido el llamamiento a la comunidad científica para reflexionar sobre los interrogantes jurídicos y éticos que presenta la introducción de los sistemas de inteligencia artificial, desde el punto de vista de la transparencia, fiabilidad, falibilidad, neutralidad, protección de la intimidad, almacenamiento de datos, discriminación, etc. que deben enfrentarse necesariamente desde las ciencias jurídicas y sociales. Los resultados de esta convocatoria se han presentado en reuniones científicas, como el Congreso Internacional «Aplicacións da Intelixencia Artificial na Xustiza Penal», realizado los días 10 y 11 de noviembre de 2022, en la Universidade da Coruña, o este número especial realizado en colaboración con la Revista de Estudios Penales y Crimonológicos, bajo la coordinación de los Profesores Cristina Fernández Bessa y Xulio Ferreiro Baamonde, ambos investigadores pertenecientes al ECRIM.
Los trabajos que se presentan como consecuencia de este llamamiento han conseguido abordar, de una forma u otra, muchas de las cuestiones anteriormente señaladas, reuniendo un total de once trabajos de diferentes autores y autoras que analizan las implicaciones de las tecnologías de inteligencia artificial y de la utilización de algoritmos predictivos en diversos ámbitos objeto de estudio de las ciencias penales.
Así, Dyango Bonsignore aborda la significación misma de la función de juzgar al hilo de las tecnologías de inteligencia artificial al servicio de las funciones decisorias en el proceso penal. El mito del juez que aplica objetivamente el Derecho, que “dice las palabras de la Ley”, sin dejarse llevar por sus prejuicios, opiniones o sentimientos es potenciado y puesto al alcance de las manos por las tecnologías que prometen una toma de decisiones alejada del subjetivismo y, en consecuencia, justa. Sin embargo, este panorama también presenta sus reversos y se escuchan voces que aluden a la empatía, los sentimientos, la experiencia y otras características humanas esenciales a la función de juzgar.
La intervención de juzgadores no humanos o, cuando menos, la utilización por los tribunales de sistemas de inteligencia artificial que los auxilien en la toma de decisiones no solamente cuestiona la función juzgadora en sí misma, sino que introduce también desafíos para garantizar los derechos de las partes. La transparencia en la toma de decisiones y la capacidad de cuestionar las mismas es un elemento central del derecho a un proceso justo y a la tutela judicial efectiva. Por eso, tal y como hace Cristina San Miguel Caso en su trabajo “Inteligencia Artificial y algoritmos: la controvertida evolución de la tutela judicial efectiva en el proceso penal”, es necesario analizar en qué medida las características de los sistemas algorítimicos afectan al derecho de defensa y a las garantías procesales, para definir los límites a su introducción en el proceso penal, pero también las características que estos mecanismos deben poseer para evitar tensionar los principios democráticos del proceso penal.
Gran parte de las aportaciones que componen el presente trabajo se han centrado en la utilización de los algoritmos y de los sistemas actuarios en el auxilio a los agentes del sistema penal – tribunales, cuerpos policiales, instituciones penitenciarias - a la hora de tomar decisiones sobre valoración del riesgo. No es nueva la necesidad de los agentes del sistema penal de predecir de algún modo el futuro de algunos casos. Ya sean los jueces a la hora de acordar medidas cautelares, en cuanto tengan que establecer el riesgo de reiteración delictiva o la existencia de un peligro para los bienes jurídicos de la víctima, o los operadores penitenciarios, a la hora de conceder ciertos beneficios, valorando cuál será el comportamiento del interno o interna a la hora de disfrutar de éstos. Como indica David Castro Liñares, en el trabajo “Algoritmos de valoración del riesgo: contexto, concepto y limitaciones”, los sistemas de inteligencia artificial prometen realizar estas predicciones de modo más eficiente, gracias al manejo de ingente cantidad de datos y a la substitución de las intuiciones de los operadores penales por decisiones algorítimicas. Pero, tal y como expone el autor, es posible que no exista un cambio de paradigma real y que, en verdad, los sistemas de inteligencia artificial no supongan en la práctica la instauración de una penalidad “mejor” o, en realidad, no se hayan puesto al servicio de una penalidad mejor.
Desde luego, la búsqueda eficiencia y eficacia en el sistema ha llevado a la introducción de varios mecanismos de justicia predictiva. La promesa que traen los sistemas de inteligencia artificial de tomar decisiones de más calidad puede, como se ha dicho, ser cuestionada. Pero, además, como en el caso de las decisiones automatizadas, preocupa también poder acomodar estos instrumentos a las exigencias de la tutela judicial efectiva y de las garantías procesales, cuestión que es abordada por Jordi Gimeno Beviá en su trabajo “Instrumentos actuales de policía y justicia predictiva en el proceso penal español: análisis crítico y reflexiones de lege ferenda ante aplicaciones futuras”.
A caballo entre ambas preocupaciones se encuentra el trabajo de Andrea Bravo “Justicia y explicabilidad algorítmica. Un enfoque sociotecnológico”. La autora trata aquí la cuestión de la justicia algorítimica, como esa necesidad de construir herramientas éticas, adaptadas al concepto de “justicia”. Pretende arrojar claridad metodológica en un campo donde convergen disciplinas dispares (ciencia de datos, matemáticas y derecho), intentando dar respuesta a los siguientes interrogantes: ¿es posible trasladar al lenguaje matemático conceptos como “equidad” o “no discriminación” ?; ¿hay varios conceptos de lo “justo”? ¿son compatibles? ¿qué resultados arrojan?; ¿es posible tender un puente entre ambos lenguajes que brinde resultados objetivamente más justos?; ¿de qué manera el desarrollo de derechos como la igualdad y la no discriminación deben afectar en la programación?
Entre los sistemas de justicia predictiva en uso en nuestro país, seguramente los que más atención han despertado en la doctrina son VioGén y Riscanvi, ya mencionados anteriormente. Tanto David Sanmartín como Andrea M. García Ortiz y Mireia Molina Sánchez abordan en sendos artículos monográficos el estudio del primero de ellos. Sanmartín, en “Prevención algorítmica de la violencia de género: la gestión policial del riesgo en el sistema VioGén”, explora sus características en cuanto «tecnología normativa» de tipo algorítmico. Una tecnología de orientación predictiva, pero alejada en su complejidad y abstracción de las aplicaciones de smart policing existentes en otros contextos. Ello no despeja, sin embargo, algunos problemas propios de los algoritmos punitivos, fruto de las fricciones entre las normatividades jurídica y tecnológica, que el autor aborda. Por su parte, García Ortiz y Molina Sánchez se centran en la relación entre los sistemas de inteligencia artificial y la prevención de la violencia contra las mujeres, en un aspecto muy concreto que conlleva el uso de este mecanismo y es el de la responsabilidad en su uso, qué ocurre cuando la aplicación del sistema algorítmico no prevé adecuadamente la existencia del riesgo y se produce un daño a la víctima que debería haber sido protegida; en qué medida las administraciones públicas son responsables de este daño. En definitiva, se trata de determinar si una adecuada valoración del riesgo constituye un funcionamiento anormal de la administración de justicia que hacer surgir en esta la obligación de indemnizar.
También hay espacio en el número monográfico para un artículo sobre RisCanvi, a cargo de Lorena Alemán: “El uso del RisCanvi en la toma de decisiones penitenciarias”. El objetivo de este trabajo es conocer cómo se utiliza este protocolo en el ámbito penitenciario catalán: en qué momentos y con qué finalidades se utiliza, cómo son los procesos para su aplicación por los distintos agentes que intervienen en la de toma de decisiones penitenciarias, y cuáles son sus consecuencias. Para abordar estas cuestiones, la autora lleva a cabo una investigación cualitativa, innovadora en este campo, mediante la cual pretende mostrar el uso de Riscanvi por parte de quienes intervienen en los procesos de toma de decisiones penitenciarias que, junto con la exposición del marco teórico general de los sistemas de valoración y gestión de riesgos, permite alcanzar un conocimiento ajustado del funcionamiento de este sistema.
Finalmente, los tres últimos trabajos abordan las implicaciones de la toma automatizada de decisiones en diferentes ámbitos con relevancia para el sistema penal. Javier Valls Prieto, analiza el impacto de los sistemas de inteligencia artificial sobre los bienes jurídicos colectivos y cómo se va a poder articular la protección de estos dentro del sistema penal: qué bienes se van a ver afectados, las dificultades dogmáticas que presenta la protección de estos bienes jurídicos ante las amenazas que surgen con la utilización de sistemas inteligentes, etc.
Tulio Felippe Januário – “Inteligencia artificial y responsabilidad penal de personas jurídicas. Un análisis de sus aspectos materiales y procesales” - lo hace en el marco de la actividad de las personas jurídicas, que utilizan sistemas de inteligencia artificial en sus procesos económicos y empresariales, pero también en los mecanismos internos de prevención de delitos, o compliance. Evidentemente esta circunstancia afectará a la aplicación de los principios reguladores de la responsabilidad penal de las personas jurídicas. Por último, Pablo Clemente Espinosa Breen, en “La percepción de la toma de decisiones a través de Inteligencia Artificial en situaciones en las que se produce daño a las personas”, revisa las variables implicadas en la percepción de decisiones relacionadas con la IA, ya sean de carácter ético, deontológico o utilitarista y que pueden tener relevancia en el desarrollo de criterios sobre la responsabilidad legal.
Los editores de este número queremos, por último, manifestar nuestro agradecimiento a los autores y autoras que han participado en este número, y a los revisores y revisoras, sin cuya labor hubiese sido imposible asegurar la altísima calidad que se ha alcanzado en las colaboraciones presentadas. Este agradecimiento debe extenderse también a los investigadores principales del Proyecto de Investigación, Patricia Faraldo y José Ángel Brandariz, por la confianza depositada en nosotros para sacar adelante este número y, finalmente, al equipo de la Revista de Estudios Penales y Criminológicos, y especialmente a su director Fernando Vázquez-Portomeñe Seijas, por su colaboración y las facilidades dadas para sacar adelante este número especial.
A Coruña, 20 de junio de 2023.
Cristina Fernández Bessa.
Xulio Ferreiro Baamonde.
Notas
[1] Estos aspectos han sido ampliamente tratados desde un punto de vista teórico y seguramente, seguirán alimentando el debate en el futuro. Puede verse al respecto, entre otros, a Nieva Fenoll, J.: Inteligencia artificial y proceso judicial, Marcial Pons, Madrid, 2018.
[2] Vide https://blog.rossintelligence.com/.
[3] Pueden verse numerosos ejemplos de este tipo de aplicaciones en Barona Vilar, Silvia, “Una justicia digital y algorítmica para una sociedad en estado de mudanza”, en Justicia algorítmica y neuroderecho. Una mirada multidisciplinar, Silvia Barona Vilar, ed., Valencia, Tirant lo Blanch, 2021, pp. 21-64, pp. 33-37.
[4] Este sistema realiza cálculos probabilísticos sobre la posible comisión de delitos por una persona, sugiriendo medidas cautelares o medidas de ejecución del acusado o preso. Este sistema ha sido puesto en entredicho por la posible vulneración del derecho al debido proceso en el caso que afectó al ciudadano estadounidense Eric Loomis, aunque su uso en este caso fue validado por el Tribunal Supremo de Wisconsin en State v. Loomis - 2016 WI 68, 371 Wis. 2d 235, 881 N.W.2d 749. Vide Barona Vilar, Silvia, “Una justicia digital… op. cit., p. 39.
[5] Vide ESTÉVEZ, E.; LINARES LEJARRAGA, S.; FILLOTRANI, P. Prometea. Transformando la administración de justicia con herramientas de Inteligencia artificial, Banco Interamericano de Desarrollo, Washington, 2020. (https://publications.iadb.org/publications/spanish/document/PROMETEA-Transformando-la-administracion-de-justicia-con-herramientas-de-inteligencia-artificial.pdf).
[6] Se trata de un sistema experto jurídico australiano cuyo dominio es el derecho familiar, y el subdominio la participación de bienes una vez un matrimonio ha sido disuelto; o lo que es lo mismo, es un sistema dotado de inteligencia artificial que lo que viene a hacer es liquidar el patrimonio conyugal, pero también ayudar a tomar decisiones sobre la guarda y custodia de los hijos comunes. Atiende a diversos factores como las contribuciones que haya hecho cada excónyuge, el reparto de tareas durante el matrimonio, la capacidad de atender las necesidades particulares de cada caso concreto, etc. Vide AYLLÓN GARCÍA, Jesús Daniel, “La inteligencia artificial como medio para administrar justicia”, Fodertics 8.0. Estudios sobre tecnologías disruptivas y justicia, F. Bueno de Mata, dir., Granada, 2020, pp. 3-14, p. 9, y Barona Vilar, Silvia, “Una justicia digital… op. cit., p. 52.
[7] De origen mexicano, su fin es concretar pensiones alimenticias teniendo en cuenta consejos de expertos introducidos en sistemas dotados de IA, las situaciones financieras del caso concreto y los argumentos de las partes en conflicto. Vide AYLLÓN GARCÍA, Jesús Daniel, “La inteligencia artificial… op. cit., p. 9.
[8] GUZMÁN FLUJA, V.C., “Sobre la aplicación de la inteligencia artificial a la solución de conflictos (Reflexiones acerca de una transformación tan apasionante como compleja)”, en Justicia civil y penal en la era global, S. Barona Vilar, ed., Tirant lo Blanch, Valencia, 2017, pp. 67-122, p. 110.
[9] A este respecto, la Ley 7/2017, de 2 de noviembre, por la que se incorpora al ordenamiento jurídico español la Directiva 2013/11/UE, del Parlamento Europeo y del Consejo, de 21 de mayo de 2013, relativa a la resolución alternativa de litigios en materia de consumo, establece la resolución de conflictos en línea como una vía ordinaria de resolución de conflictos en materia de consumo y abre la puerta a la algoritmización de la solución del conflicto en sí. Vide BARONA VILAR, SILVIA, “Una justicia digital… op. cit., p. 40.
[10] Resolución de la Presidencia de la AEI de 28 de septiembre de 2021, disponible en http://www.aei.gob.es/stfls/MICINN/Ayudas/PE_2017_2020/PE_Orientada_Retos_Sociedad/FICHEROS/Proyectos_IDI_Retos_Investigacion/Resolucion_de_concesion_PID2020_fda.pdf.