Derecho y la aceleración de la cuarta revolución industrial: ¿qué implicancias surgirían de la interacción entre inteligencia artificial y los principios del derecho probatorio?

Es de esperar que el derecho, en específico, el derecho probatorio no sea extraño a la creciente influencia de esta revolución, por lo que en las siguientes líneas se intentará dilucidar brevemente cuáles podrían ser las consecuencias en los principios del derecho probatorio cuando interactúan la inteligencia artificial y la prueba en el marco del proceso.

0
1655

Por Gabriel Ccopa Enciso

Estudiante de la Facultad de Derecho de la Pontificia Universidad Católica del Perú y miembro de la Comisión de Derecho Civil de “Un Poquito de Derecho”

1. Introducción

La dinámica actual del mundo globalizado es muy acelerada y avanza a pasos agigantados en un torbellino incesante de información. Algunos aluden a una cuarta revolución industrial que está cambiando los cimientos de la vida humana, el trabajo y las relaciones entre las personas[1]. Esta revolución promueve la automatización de los diferentes procesos en la cotidianidad humana a través de herramientas como la robótica, el big data, el cloud computing y, por supuesto, la inteligencia artificial (IA)[2]. La presente infografía tomará como eje a esta última herramienta ya que hoy en día se podría declarar a la luz del auge de los programas IA que ésta es el fenómeno que acelerará dicha revolución.

Es de esperar que el derecho, en específico, el derecho probatorio no sea extraño a la creciente influencia de esta revolución, por lo que en las siguientes líneas se intentará dilucidar brevemente cuáles podrían ser las consecuencias en los principios del derecho probatorio cuando interactúan la inteligencia artificial y la prueba en el marco del proceso.

2. Una definición de inteligencia artificial

¿Qué es inteligencia artificial? Es una pregunta difícil pues ni siquiera los expertos en dicha tecnología tienen un consenso en torno a una definición satisfactoria[3]. Como prevé acertadamente Comoglio (2022), una definición de la inteligencia artificial necesariamente debe tener como precedente una definición sobre qué se entiende por inteligencia humana y las características distintivas del pensamiento humano, las cuales desafortunadamente también padecen de incertidumbre[4].

Sin embargo, se puede aventurar a la definición siguiente: inteligencia artificial es aquella tecnología o herramienta informática que plantea la posibilidad de que una máquina pueda imitar o simular el pensamiento humano a través del aprendizaje y de la utilización de generalidades que las dotarán de capacidad (ciertamente delimitada) para tomar decisiones propias del ser humano. En ese sentido, la inteligencia artificial sería un conjunto de algoritmos informáticos que le permiten a una máquina emular el razonamiento humano de tal forma que se pueda aplicar una función o inferir la probabilidad de que un hecho pueda realizarse en un alto grado de certeza[5].

La digitalización obligada a raíz de las restricciones producto de la pandemia Covid-19 y eventos medulares como el lanzamiento en 2022 de herramientas como ChatGPT o Dalle-E, desarrollados por OpenAI, entre otros programas de inteligencia artificial capaces de conversar, escribir, replicar imágenes u obras de arte y hasta clonar voces han replanteado el debate sobre la inteligencia artificial[6]. Ahora sería ideal delimitar poco a poco el debate: ¿qué consecuencias tendría la aplicación de la inteligencia artificial en el Derecho?

3. Participación de la Inteligencia Artificial en la administración de justicia

El binomio Derecho e inteligencia artificial ya ha iniciado su operatividad. Hay reportes del uso de esta tecnología en la administración pública y, concretamente, judicial en distintos países del globo. En algunos casos esta participación de la IA no estuvo exenta de cuestionamientos.

Un ejemplo polémico de cómo la inteligencia artificial incidió en la labor del Derecho Penal fue la utilización por un juez del algoritmo COMPAS (Correctional Offender Management Profilling for Alternative Sanctions) creada por la empresa Northpointe en Wisconsin, Estados Unidos, para la elaboración de una sentencia penal contra Eric Loomis[7].

El juez de instancia hizo uso de este algoritmo para realizar un risk score o puntaje que determina la probabilidad de reincidencia como fundamento para determinar la cantidad de años de pena privativa de la libertad contra Eric Loomis. De esta forma, Loomis recibió una condena de seis años en prisión porque, según el algoritmo COMPAS, se determinó un puntaje alto de riesgo de reincidencia. Es así que el juez, tomando como un argumento los resultados del algoritmo, emitió dicha decisión[8].

Eric Loomis apeló la sentencia ante el Tribunal Supremo de Wisconsin aduciendo que se había vulnerado su derecho a un juicio justo ya que el fundamento tiene como origen una información poco precisa producto de una decisión automatizada, sin haberse individualizado correctamente a su caso concreto[9]. Sin embargo, su recurso no prosperó y el Tribunal Supremo de Wisconsin argumentó que el uso de dicho algoritmo se concatena con las garantías constitucionales por lo que el derecho de los acusados a un juicio justo no ha sido vulnerado por el hecho de que la defensa no reciba una motivación o explicación adecuada sobre cómo se tratan o funcionan los algoritmos COMPAS.

Este antecedente ha generado inquietud en la doctrina y nos motiva a indagar o explorar mecanismos de protección del derecho al debido proceso ante un posible futuro contexto en el que las decisiones derivadas de un proceso puedan tomarse parcial o totalmente por los algoritmos y la programación basada en el código fuente aprobado[10].

Aparentemente, el uso de las herramientas IA durante el proceso en cortes europeas es aún poco común. No obstante, en la fase anterior al juicio y de obtención de evidencia por parte de entidades públicas pertinentes tales como las fuerzas policiales recurren, por ejemplo, al uso de tecnologías de reconocimiento facial o cualquier otra técnica de vigilancia que se activen ante alguna palabra o facción “clave”.

Estas tácticas han sido cuestionadas porque se han detectado problemas de diferenciación de razas por parte de la tecnología de reconocimiento facial, así como una exagerada reacción ante palabras “clave” por parte de la IA a cargo de vigilar que en las llamadas telefónicas o correos electrónicos no se estén realizando conversaciones de índole ilícito[11].

Si bien es cierto las tecnologías derivadas de la IA aún no se han implantado con fuerza en las cortes europeas a diferencia de las de Estados Unidos, pero ha surgido un incremento en el interés y exploración de posibles aplicaciones en la administración judicial para automatizar labores en las distintas etapas del proceso. Asimismo, surgen propuestas desde la doctrina europea para un uso regulado e idóneo de la IA en la justicia en concordancia con la protección de las garantías procesales y derechos fundamentales que, a su vez, puedan ser adoptadas en las cortes estadounidenses[12]. Esto podría evitar un uso indebido de dicha tecnología tal y como ocurrió en el caso Loomis.

En Latinoamérica también hay casos de aplicación de la IA en el ámbito judicial. Dos de los países latinoamericanos que más ha desarrollado tanto en teoría como en la práctica esta relación entre IA y Derecho son Colombia y Argentina. En el caso argentino, se pueden señalar hasta cuatro iniciativas que han sido impulsadas por los organismos judiciales de la Ciudad Autónoma de Buenos Aires (CABA) de las cuales destaca Prometea, programa de IA creado en 2017 para las labores del Ministerio Público de la CABA. Prometea es un sistema de software que automatiza tareas reiterativas y, a su vez, aplica IA con la finalidad de elaborar de forma automática dictámenes jurídicos basados en casos análogos que tienen solución a partir de precedentes judiciales reiterados lo que significaría una aceleración y productividad judicial amplificada[13].

Un aspecto relevante de Prometea es que al momento de realizar sus funciones se acciona una técnica para determinar el paso a paso de cómo este software llegó al resultado, decisión o predicción y así se evita lo conocido como “caja negra”, es decir, cuando un software IA llega a un resultado, pero no hay una técnica de trazabilidad sobre el procedimiento ni sus mismos creadores saben cómo dicho software determinó ello[14]. Menos aún lo sabría el imputado en un proceso penal tal y como ocurrió en el caso Loomis.

En Colombia hay varios ejemplos de la aplicación de IA en el ámbito judicial [15]tales como “Fiscal Watson” en la Fiscalía General de dicho país[16] asi como “Siarelis” en la Superintendencia de Sociedades en funciones jurisdiccionales[17]. Sin embargo, a partir del antecedente de Prometea en Argentina, se implementó desde el 2020 el sistema PretorIA que busca apoyar y optimizar el proceso de selección de análisis y estructuración de sentencias de tutela de derechos para revisión de la Corte Constitucional de Colombia en pos de agilizar y optimizar la selección de la información[18].

Por ejemplo, PretorIA tiene la capacidad de leer, elaborar resúmenes automáticamente y generar informes estadísticos sobre miles de sentencias en el lapso de 5 segundos. Al igual que su par argentino Prometea, PretorIA es un sistema IA de “caja blanca” por lo que los algoritmos usados por este software son plenamente trazables al momento de llegar a un resultado. Así, el juez a cargo como las partes pueden entender el procedimiento del software que sustenta dicha parte de la decisión[19].

En el Perú la discusión sobre la implementación de la IA en los procesos se encuentra en una fase embrionaria. Como dato anecdótico, se destaca la primera sentencia que hizo uso de Chat GTP en el país emitida en marzo del presente año: la Corte Superior de Justicia de Lima Sur señala que dicho software tuvo incidencia en la resolución de un proceso de pensión de alimentos[20].

Se trata de la sentencia referida en el Expediente 00052-2022-18-3002-JP-FC-01 en la que el órgano jurisdiccional adujo que la importancia de Chat GTP en la resolución del caso se debe a que este programa propuso la técnica de proporción matemática para establecer cuál es el aporte que corresponde a cada padre, en función de sus ingresos, para satisfacer el gasto de manutención de su hija. No obstante, se puede cuestionar dicha aplicación del software porque en realidad lo que habría ocurrido es la aplicación simple de una fórmula aritmética que bien el Juez podría haber hecho por sí mismo.

4. ¿Procesos más “económicos” y “céleres” en detrimento de principios del derecho probatorio?

Como se ha observado, la inteligencia artificial puede utilizarse para mejorar la celeridad de los procesos judiciales por lo que se disminuirían los términos procesales y, a su vez, se garantizaría un acceso a la justicia más amplio y dinámico para los ciudadanos. Empero, tiene que analizarse las posibles contingencias negativas de dicho experimento ya que se han detectado amenazas de vulneración de derechos fundamentales y garantías procesales[21].

Por un lado, el uso de la inteligencia artificial podría repercutir positivamente en la construcción de un estándar probatorio que ya no quedaría tan expuesto a la discrecionalidad potencialmente manipulable del operador jurídico, así como la simplificación de labores repetitivas y automatizables que no conllevan un valor jurídico pero que son obligaciones de ejecución por parte del operador judicial. Esto último generaría una potenciación de la productividad judicial por lo que se garantizarían de mejor manera los principios procesales de eficacia, gratuidad y tutela jurisdiccional efectiva. Asimismo, se descongestionaría la labor judicial al ser más célere y se economizaría el tiempo de las tareas que puedan ser repetitivas de tal forma que los operadores de justicia se dediquen a labores más importantes o de fondo[22].

Por otra parte, estos beneficios procesales podrían acarrear simultáneamente desventajas o riesgos de vulneraciones a principios del derecho probatorio. En efecto, el uso incorrecto de la IA menoscabaría la transparencia del proceso judicial y vulneraría los principios de contradicción y publicidad de la prueba ya que existe la posibilidad de que una decisión judicial que hizo uso de un algoritmo no sea motivada debido a la complejidad de hacer entender el funcionamiento y razonamiento que llevaron a dicho algoritmo a dicha decisión. A la larga, esto resquebraja el derecho a la defensa ya que no se puede contradecir o contra argumentar la parte que no se ha motivado o explicado en una resolución.

Este es el caso ya debidamente referenciado de Estado de Wisconsin vs. Loomis en el que no se permitió a este último conocer el funcionamiento del software que determinó que él tenía un riesgo alto de reincidencia, variable que sustentó los seis años de pena privativa de la libertad que se le impusieron.

En el ámbito de la valoración de la prueba cuyo contexto sea el de un sistema libre y no de tarifa legal, el principio de inmediación puede verse afectado en tanto corre el riesgo de que el uso de esta herramienta tecnológica pueda enajenar al juez del contacto pleno con la actividad probatoria[23].

Es por esto que debe garantizarse que el juez siempre sea el que ejecute los medios de prueba y tome la decisión final: estas herramientas tecnológicas deben tener solo una labor asistencial. El juez, a través del razonamiento probatorio, tendría que producir un planteamiento hipotético del resultado que ofrezca la inteligencia artificial conjuntamente con otros medios de prueba en la etapa de valoración de tal forma que la hipótesis surgida de dicho razonamiento sea contrastada con hipótesis divergentes o contrarias. Esto ocurrirá de acuerdo a la política de exigencia de estándares de prueba o “umbral para aceptar una hipótesis probada” que se haya establecido en cada legislación nacional[24].

En todo caso, a falta de dicho criterio, lo mejor sería depender cada vez más de criterios objetivos en la etapa de valoración de la prueba[25]. Si se cumple todo ello, la aplicación de la IA en la valoración de la prueba resultaría acorde a los principios probatorios y se salvaguardarían apropiadamente los derechos de defensa y al debido proceso.

5. Conclusiones

Como se ha observado, la IA puede vulnerar algunos principios probatorios, pero, a su vez, algunos principios procesales como el de la economía procesal y la celeridad se verían definitivamente potenciados con su uso. En el Perú el interés, regulación y desarrollo de una posible utilización de la IA en el ámbito judicial está atrasado a diferencia de otros países de Latinoamérica como Colombia, Argentina y, en menor medida, Brasil[26]. Por lo tanto, urge el debate y planteamiento de propuestas en torno a la interacción de IA y Derecho en el Perú para poder anticipar una respuesta más diligente ante los retos y potenciales beneficios de usarse debidamente que esta tecnología propone no solo en el ámbito probatorio sino, en general, en nuestro ordenamiento jurídico y órganos jurisdiccionales que padecen de una carga judicial y llena de obstáculos burocráticos cuya consecuencia principal es una justicia lenta.


Bibliografía

Agudelo Londoño, S. (2022). Inteligencia Artificial en el proceso penal: análisis a la luz del Fiscal Watson. Pensamiento Jurídico1(54).

https://revistas.unal.edu.co/index.php/peju/article/view/96091

Calderón Ortega, M. y Cueto Calderón, C. (2022). Prueba por inteligencia artificial: una propuesta de producción probatoria desde el dictamen pericial científico en Colombia. Civilizar: Ciencias Sociales y Humanas, (22) 42, 73-84.

https://doi.org/10.22518/jour.ccsh/20220106

Castellano, P.S. (2021). Inteligencia artificial y valoración de la prueba: las garantías jurídico-constitucionales del órgano de control. THEMIS Revista de Derecho, (79), 283-297.

https://doi.org/10.18800/themis.202101.015

CCBE-COUNCIL OF BARS AND LAW SOCIETIES OF EUROPE (2020). C CCBE-COUNCIL OF BARS AND LAW SOCIETIES OF EUROPE (2020). Considerations on the legal aspects of Artificial Intelligence.

https://www.ccbe.eu/fileadmin/speciality_distribution/public/documents/IT_LAW/ITL_Guides_recommendations/EN_ITL_20200220_CCBE-considerations-on-the-Legal-Aspects-of-AI.pdf

Comoglio, P. (2022). Inteligencia artificial y selección de pruebas en el proceso civil: ¿hacia un proceso más inteligente o hacia un proceso más artificial? Revista Ítalo-Española de Derecho Procesal, (2),55-85.

https://doi.org/10.37417/rivitsproc/840

Corte Constitucional de la República de Colombia (27 de julio de 2020). PretorIA, un ejemplo de  Incorporación de tecnologías de punta en el sector justicia.

https://www.corteconstitucional.gov.co/noticia.php?PRETORIA,-un-ejemplo-de-incorporaci%C3%B3n-de-tecnolog%C3%ADas-de-punta-en-el-sector-justicia-8970

De Miguel Beriain, I. y Pérez Estrada, M. (2019). La inteligencia artificial en el proceso penal español: un análisis de su admisibilidad sobre la base de los derechos fundamentales implicados. RUNED, Revista de Derecho UNED, (25), 531-561.

https://doi.org/10.5944/rduned.25.2019.27013

Gamba, G. (2021). La Inteligencia Artificial (IA) y su implementación en la prueba como mecanismo de tutela para los derechos fundamentales. Especialización en Derecho Procesal, (93).

https://hdl.handle.net/10901/20482

Ferrer, J. (2002). Prueba y verdad en el Derecho. Marcial Pons

Ferrer, J. (2007).  Los estándares de prueba en el proceso penal español. Cuadernos electrónicos de filosofía del Derecho, (15).

https://www.uv.es/CEFD/15/ferrer.pdf

Gómez Urrutia, M., Bazzani Almanza, V. y Londoño Daza, P. (2021). La inteligencia artificial como medio de prueba en contraste con el principio de contradicción. Universitas Estudiantes, (23), 137-160.

https://repository.javeriana.edu.co/handle/10554/57731

Le Fevre Cervini, E. (2022). Uso estratégico de datos e inteligencia artificial en la justicia. Editorial: CAF-Banco de Desarrollo de América Latina,

https://scioteca.caf.com/handle/123456789/1932

Nieva Fenoll, J. (2018). Inteligencia artificial y proceso judicial. Marcial Pons.

Romeo Casabona, C. M. (2018). Riesgo, procedimientos actuariales basados en inteligencia artificial y medidas de seguridad. Revista de Derecho, Empresa y Sociedad (R.E.D.S.), (13), 39-55.

https://dialnet.unirioja.es/servlet/articulo?codigo=6859383

Schwab, K. (2016). The fourth industrial revolution. World Economic Forum.

Terrasa, R. (04 de abril de 2023). ¿Cómo regular el auge de la IA?: “Frenar el desarrollo no es la solución”. El Mundo.

https://www.upc.edu/ca/sala-de-premsa/als-mitjans/pdf/2023-04-04-el-mundo-como-regular-el-auge-de-la-ia-frenar-el-desarrollo-no-es-la-solucion     

Terzidou, Kalliopi. (2022). The use of Artificial Intelligence in the judiciary and its compliance with the right to a fair trial. Journal of Judicial Administration, (31), 154-168.

https://papers.ssrn.com/sol3/papers.cfm?abstract_id=4495715

Vélez Moreno, K.O. y Hernandez Torres, E.E. (2022). Incidencia de la inteligencia artificial como herramienta jurídica en los principios procesales en Colombia. Universidad Libre seccional Cúcuta.

https://repository.unilibre.edu.co/handle/10901/22687

[1] Schwab, K. (2016). The fourth industrial revolution. World Economic Forum.

[2] Calderón Ortega, M. y Cueto Calderón, C. (2022). Prueba por inteligencia artificial: una propuesta de producción probatoria desde el dictamen pericial científico en Colombia. Civilizar: Ciencias Sociales y Humanas, (22) 42, 73-84.

[3] Nieva Fenoll, J. (2018). Inteligencia artificial y proceso judicial. Marcial Pons.

[4] Comoglio, P. (2022). Inteligencia artificial y selección de pruebas en el proceso civil: ¿hacia un proceso más inteligente o hacia un proceso más artificial? Revista Ítalo-Española de Derecho Procesal, (2),55-85.

[5] De Miguel Beriain, I. y Pérez Estrada, M. (2019). La inteligencia artificial en el proceso penal español: un análisis de su admisibilidad sobre la base de los derechos fundamentales implicados. RUNED, Revista de Derecho UNED, (25), 531-561.

[6] Terrasa, R. (04 de abril de 2023). ¿Cómo regular el auge de la IA?: “Frenar el desarrollo no es la solución”. El Mundo. https://www.upc.edu/ca/sala-de-premsa/als-mitjans/pdf/2023-04-04-el-mundo-como-regular-el-auge-de-la-ia-frenar-el-desarrollo-no-es-la-solucion

[7] Gómez Urrutia, M., Bazzani Almanza, V. y Londoño Daza, P. (2021). La inteligencia artificial como medio de prueba en contraste con el principio de contradicción. Universitas Estudiantes, (23), 137-160.

[8] Castellano, P.S. (2021). Inteligencia artificial y valoración de la prueba: las garantías jurídico-constitucionales del órgano de control. THEMIS Revista de Derecho, (79), p. 290.

[9] Ibid., p. 291.

[10] Romeo Casabona, C. M. (2018). Riesgo, procedimientos actuariales basados en inteligencia artificial y medidas de seguridad. Revista de Derecho, Empresa y Sociedad (R.E.D.S.), (13), 39-55.

[11] CCBE-COUNCIL OF BARS AND LAW SOCIETIES OF EUROPE (2020). C CCBE-COUNCIL OF BARS AND LAW SOCIETIES OF EUROPE (2020). Considerations on the legal aspects of Artificial. https://www.ccbe.eu/fileadmin/speciality_distribution/public/documents/IT_LAW/ITL_Guides_recommendations/EN_ITL_20200220_CCBE-considerations-on-the-Legal-Aspects-of-AI.pdf

[12] Terzidou, Kalliopi. (2022). The use of Artificial Intelligence in the judiciary and its compliance with the right to a fair trial. Journal of Judicial Administration, (31), 154-168.

[13] Le Fevre Cervini, E. (2022). Uso estratégico de datos e inteligencia artificial en la justicia. Editorial: CAF-Banco de Desarrollo de América Latina.

[14] Idem.

[15] En Colombia hay más ejemplos de usos de IA como el caso del software PRISMA (Perfil de Riesgos para la Solicitud de Medidas de Aseguramiento) diseñada por la Fiscalía General de la Nación de Colombia cuya función era predecir el riesgo de reincidencia criminal de un sujeto procesal. Para mayor información al respecto véase Gamba G., La Inteligencia Artificial (IA) y su implementación en la prueba como mecanismo de tutela para los derechos fundamentales, Bogotá, 2021, pp.5.

[16] Para mayor información sobre el software “Fiscal Watson” se recomienda ver el artículo: Agudelo Londoño, S. (2022). Inteligencia Artificial en el proceso penal: análisis a la luz del Fiscal WatsonPensamiento Jurídico1(54).

[17] Vélez Moreno, K.O. y Hernandez Torres, E.E. (2022). Incidencia de la inteligencia artificial como herramienta jurídica en los principios procesales en Colombia. Universidad Libre seccional Cúcuta.

[18] Corte Constitucional de la República de Colombia (27 de julio de 2020). PretorIA, un ejemplo de incorporación de tecnologías de punta en el sector justicia. https://www.corteconstitucional.gov.co/noticia.php?PRETORIA,-un-ejemplo-de-incorporaci%C3%B3n-de-tecnolog%C3%ADas-de-punta-en-el-sector-justicia-8970

[19] Le Fevre Cervini, E. Op. cit., p.48.

[20] LP-Pasión por el Derecho. “Urgente: se dicta la primera sentencia en Perú con asistencia de inteligencia artificial (OpenAI-ChatGPT) [Exp.00052-2022-18.3002-JP-FC-01]”. En LP[En línea]: https://lpderecho.pe/primera-sentencia-peru-asistencia-inteligencia-artificial/

[21] Gamba, G. (2021). La Inteligencia Artificial (IA) y su implementación en la prueba como mecanismo de tutela para los derechos fundamentales. Especialización en Derecho Procesal, (93).

[22] Vélez Moreno, K.O. y Hernandez Torres, E.E. Op. cit., p. 19.

[23] Gamba,G. Op. cit. p.19.

[24] Ferrer, J. (2007).  Los estándares de prueba en el proceso penal español. Cuadernos electrónicos de filosofía del Derecho, (15).

[25] Ferrer, J. (2002). Prueba y verdad en el Derecho. Marcial Pons.

[26] Hace poco, se aprobó el proyecto de Ley 2775/2022-CR, “Ley que promueve el uso de Inteligencia Artificial en favor del desarrollo económico y social del país”. La única referencia posible con respecto al tema desarrollado en el presente texto se encuentra en su artículo 4 por el que se declara de interés nacional el fomento del desarrollo y uso de la inteligencia artificial para la mejora de los servicios públicos, entre ellos, la justicia.  Véase dicho proyecto de Ley en: https://wb2server.congreso.gob.pe/spley-portal-service/archivo/ODQ1OTA=/pdf/PL%202775%20(U)