El uso de la inteligencia artificial en el arbitraje y el problema de la “caja negra”: ¿puede mantenerse el principio de debida motivación del laudo?

“Más allá de su potencial técnico [inteligencia artificial], lo que realmente está en juego es la legitimidad de las decisiones arbitrales cuando interviene una herramienta cuya lógica puede resultar opaca o ajena al razonamiento jurídico”

0
22

Por Ariadna Cabanillas Espinoza
Estudiante de Derecho en la Universidad Peruana de Ciencias Aplicadas (UPC), integrante del Grupo de Excelencia Académica (GEA) y becaria de honor por alto rendimiento académico. Miembro del equipo Moot de Arbitraje de la UPC y oradora titular en el Moot Madrid 2025, competencia internacional de arbitraje comercial. Reconocida entre los tres mejores ensayos del Concurso Nacional de Ensayos Jurídicos en Arbitraje, organizado por el Centro de Arbitraje de la Cámara de Comercio de Lima (2025)

I. Introducción

La integración de herramientas de inteligencia artificial (IA) en el arbitraje, desde el análisis documental hasta la redacción de partes del laudo, ya no es una proyección futurista, sino una realidad. Sin embargo, toda evolución tecnológica trae consigo un desafío crucial, pues no toda IA opera de la misma manera, ni todas ofrecen el mismo grado de transparencia en su funcionamiento.

Este ensayo parte de una premisa ya reconocida por diversas guías éticas y documentos de soft- law internacionales, como las SVAMC Guidelines 2024, los árbitros deben notificar a las partes si utilizan IA (SVAMC, 2024). Sin embargo, sostiene que esa notificación, por sí sola, ya no es suficiente. El verdadero debate debe centrarse ahora en qué tipo de IA puede utilizarse sin vulnerar los principios fundamentales del proceso arbitral.

Entre los diversos tipos de sistemas, destacan aquellos conocidos como de “caja negra”. Al respecto, el experto Boris Pastralo, explica que trata de modelos opacos que arrojan resultados sin permitir reconstruir el razonamiento que los sustenta (Prastalo, 2024). Esta falta de explicabilidad, lejos de ser un detalle técnico, entra en colisión directa con uno de los pilares del arbitraje contemporáneo: el deber de motivar debidamente el laudo. El derecho comparado ha sido claro al respecto, normas como la Ley Modelo de UNCITRAL, la Ley de Arbitraje inglesa o los reglamentos de instituciones como la ICC exigen que los árbitros expongan de manera razonada las razones de su decisión. Si el razonamiento ha sido delegado, en todo o en parte, a una herramienta que impide conocer cómo se formó el resultado, entonces la validez de ese laudo podría verse seriamente comprometida.

Así, la tesis que se propone es clara: a fin de preservar la transparencia y la coherencia con los estándares jurídicos actuales, el disclosure en arbitraje debe incluir no solo el hecho de que se utilizó inteligencia artificial, sino también su naturaleza técnica. En especial, si se trató de una IA explicativa (capaz de mostrar su lógica interna) o de una IA generativa, opaca y no verificable. Esta transparencia no debe entenderse como un requisito meramente ético, sino como una condición mínima de legalidad para proteger la integridad del laudo.

II. La caja negra de la inteligencia artificial: origen y naturaleza del problema

Un árbitro redacta su laudo y lo firma. Pero ¿y si parte de ese razonamiento no fue suyo, sino generado por una inteligencia artificial que ni él mismo puede explicar? Este no es un escenario de ciencia ficción, es una realidad cada vez más cercana, y plantea interrogantes jurídicos de gran relevancia.

En tal sentido, el riesgo no está en que la IA se utilice, sino en que su funcionamiento escape al entendimiento humano. Ahí nace el problema de la “caja negra”, una expresión que alude a los sistemas de IA que, aunque son capaces de generar resultados aparentemente válidos, no permiten auditar el proceso lógico o estadístico que los produjo.

Como explica Boris Prastalo, el camino que toma el modelo de IA para llegar a un resultado no es identificable. Este problema se acentúa especialmente en modelos de machine learning y redes neuronales profundas, donde las decisiones emergen de procesos tan complejos y no lineales que ni siquiera sus propios creadores logran explicar por qué el sistema eligió un determinado output sobre otro (Pastralo, 2024).

En este sentido, no toda IA es igual. El derecho comparado y la doctrina especializada, como la distinción introducida por las SVAMC Guidelines, ya reconocen dos grandes categorías:

  • IA explicativa (Explainable AI o XAI): diseñada para que sus decisiones puedan ser rastreadas, justificadas y explicadas.
  • IA generativa: modelos que generan contenidos o decisiones sin revelar la lógica interna de su Son los llamados modelos opacos o de “caja negra”.

Como señala la Dra. Marta Gonzalo Quiroga, este tipo de IA generativa opera en función de los patrones que identifica como más probables según su entrenamiento, sin ofrecer una estructura lógica verificable por el usuario (Quiroga, 2023). Sin embargo, en el arbitraje, donde cada palabra del laudo debe tener fundamento jurídico y ser comprensible para las partes, esta opacidad puede ser problemática. De hecho, la autora añade que estas herramientas enfrentan mayores desafíos en arbitraje debido a la escasa disponibilidad de laudos públicos, lo que reduce la calidad de los datos con los que se entrenan y magnifica posibles sesgos.

Por tanto, el fenómeno de la caja negra representa uno de los principales retos técnicos del arbitraje contemporáneo. En este contexto, no se trata de prohibir la inteligencia artificial, sino de comprender sus límites actuales y operar dentro de ellos.

III. La exigencia de motivación del laudo y sus tensiones con el uso de IA

El principio de motivación del laudo es una garantía procesal esencial en el arbitraje contemporáneo. No se trata de un formalismo estético, sino de un mecanismo que permite verificar que el árbitro ha valorado debidamente los hechos, interpretado las normas aplicables y ponderado jurídicamente su decisión. En palabras de Redfern y Hunter “la motivación es la prueba de que el árbitro ha reflexionado jurídicamente sobre el caso” (Redfern y Hunter, 2023).

Este estándar no es una aspiración doctrinal, sino una exigencia legal. El artículo 31(2) de la Ley Modelo de la CNUDMI dispone que el laudo “debe estar motivado, a menos que las partes hayan convenido otra cosa”. Esta obligación también aparece en el artículo 32(2) del Reglamento de Arbitraje de la ICC, así como en legislaciones nacionales como la inglesa (Ley de Arbitraje de 1996, art. 52(4)), la suiza (LDIP, art. 190(2)(d)) y la francesa (Code de procédure civile, art. 1482). Todas estas normas coinciden en que el razonamiento del árbitro debe ser comprensible y susceptible de seguimiento lógico.

Frente a esta exigencia, los modelos de IA de tipo caja negra presentan un desafío estructural. Si el razonamiento que condujo a la decisión no puede ser auditado, ni siquiera por el propio árbitro, entonces no hay forma de reconstruir cómo se pasó de los hechos a la conclusión. Esto rompe el hilo lógico entre hechos, normas y decisión, vaciando de contenido el principio de motivación.

La consecuencia no es menor. Como advierte la doctrina alemana, cuando el árbitro no puede explicar por qué resolvió en cierto sentido, porque ni él mismo sabe cómo se generó el razonamiento, se elimina la posibilidad de control posterior y se compromete la igualdad de las partes y su derecho a la contradicción. En efecto, la decisión deja de ser razonada, y se vuelve opaca (Haesler e Isler, 2024).

En este contexto, cobra especial relevancia el caso Lapaglia v. Valve (EE. UU., 2024). Allí, una parte solicitó la anulación de un laudo dictado bajo las reglas de la AAA, alegando que el árbitro habría delegado parte de su análisis a una IA generativa. Según la demanda, el árbitro incorporó hechos y fundamentos extraídos por la herramienta sin haberlos verificado, ni haber informado a las partes de su utilización. En ese sentido, el reclamo se centró en que esa opacidad violaba principios elementales del debido proceso.

Este caso demuestra que, más allá del plano técnico, el uso no transparente de IA puede tener efectos procesales concretos. Al respecto, las SVAMC Guidelines (2024) ofrecen una guía clara al respecto: la Directriz N.º 6 prohíbe que el árbitro delegue su función decisoria a sistemas de IA, y la Directriz N.º 7 exige divulgar cualquier uso de IA que aporte hechos o razonamientos no documentados. De lo contrario, el equilibrio procesal entre las partes se rompe.

La arquitectura misma de la IA generativa intensifica este riesgo. Como explica la Dra. Marta Gonzalo, estos modelos no razonan jurídicamente: predicen respuestas con base en patrones estadísticos. Sus salidas no se construyen a partir de lógica normativa, sino de probabilidad lingüística (Quiroga, 2023). Pero la motivación jurídica exige lo contrario, se requiere de razones fundadas, normas aplicadas, ponderaciones explícitas. No basta con un resultado plausible; se necesita uno jurídicamente explicable.

Por ello, si el razonamiento detrás del laudo no puede ser auditado, o si fue generado por una lógica no jurídica, se infringe el principio de motivación. Y con ello, se debilita la legitimidad del laudo, aunque no necesariamente implique su nulidad automática en todos los sistemas. Lo que sí resulta claro es que, en muchos marcos normativos, una decisión inmotivada puede dar lugar a su revisión o cuestionamiento.

IV. ¿Puede una inteligencia artificial razonar como un árbitro humano?

Hasta este punto hemos establecido que una IA generativa no permite rastrear su razonamiento, y por lo tanto compromete la exigencia formal de motivación del laudo. Sin embargo, incluso si un sistema fuera técnicamente transparente, surgiría una objeción más profunda: ¿es posible que una inteligencia artificial, capture la lógica jurídica, el juicio humano y la sensibilidad ética que requiere una decisión arbitral?

Motivar un laudo no se reduce a mostrar cómo se llegó de A a B. Exige algo más: el razonamiento normativo, la interpretación contextual, la ponderación entre derechos contrapuestos, y, en ciertos casos, un criterio de justicia que trasciende la mera legalidad. Como señalan Redfern y Hunter, motivar es “demostrar que el árbitro ha reflexionado jurídicamente sobre el caso”, no simplemente que ha replicado una conclusión plausible (Redfern y Hunter 2023). En esa línea los algoritmos, aunque capaces de identificar patrones, no pueden captar elementos como la empatía, la justicia del caso concreto o la comprensión de necesidades individuales, aspectos que resultan esenciales en decisiones arbitrales, especialmente en arbitraje en equidad.

Asimismo, Camila Abad Quevedo advierte lo mismo desde una perspectiva crítica: “la capacidad de la IA para procesar datos es innegable, pero su incapacidad para abordar adecuadamente la dimensión humana de los conflictos limita su efectividad” (Abad, 2025). La autora propone que la IA solo puede desempeñar un papel complementario, nunca sustitutivo del juicio humano. El riesgo de deshumanizar la justicia no es un temor hipotético, sino un límite estructural cuando se pretende reemplazar la reflexión ética por cálculo automatizado.

En definitiva, incluso si un día llegáramos a transformar la “caja negra” en una “caja blanca”, seguiríamos sin encontrar en ella la justificación que puede ofrecer un ser humano. Porque el razonamiento jurídico no es solo lógico: es interpretativo, argumentativo y, a veces, deliberadamente humano. El árbitro no elige la solución más probable, elige la más justa. Y esa elección puede incorporar empatía, intuición moral o sensibilidad con el futuro de las partes. Elementos que, como bien se ha dicho, nacen de la conciencia humana, no del cálculo automático.

V. Propuestas para una integración responsable de la IA en el arbitraje

A la luz de los desafíos identificados, el uso de inteligencia artificial en el arbitraje no debería prohibirse, pero sí ser cuidadosamente regulado para garantizar que su incorporación sea compatible con los principios fundamentales del debido proceso

Las SVAMC ofrecen un punto de partida valioso. A partir de estos estándares y del análisis previo, podrían considerarse las siguientes propuestas generales:

Fortalecer el deber de disclosure: Los reglamentos arbitrales podrían exigir que el uso de IA sea revelado de manera específica, indicando qué tipo de sistema se empleó (por ejemplo, IA explicativa o generativa), en qué etapa del procedimiento y con qué finalidad.

Consentimiento informado de las partes: En la medida en que la herramienta incida en aspectos sensibles del caso, como la apreciación de pruebas, la redacción del laudo o la valoración jurídica, su uso debería quedar sujeto al consentimiento expreso de las partes, sobre la base de información técnica clara y accesible.

Preferencia por sistemas explicativos (XAI): Sin excluir otras formas de IA, podría promoverse el uso de sistemas que permitan una trazabilidad del razonamiento generado, especialmente cuando su aplicación pueda influir en la motivación del laudo.

Estas sugerencias no pretenden reemplazar las reglas vigentes, sino complementarlas ante un entorno tecnológico en constante evolución. Su propósito es ofrecer puntos de referencia que contribuyan a una integración responsable de la IA en arbitraje, sin comprometer la transparencia, la confianza de las partes ni la legitimidad del resultado. Se trata, en suma, de asegurar que el arbitraje avance con la tecnología, pero sin dejar atrás sus garantías esenciales.

VI. Conclusión

La incorporación de la inteligencia artificial en el arbitraje es una realidad en expansión que plantea desafíos técnicos y jurídicos de creciente relevancia. Este ensayo ha mostrado que no se trata simplemente de permitir o prohibir su uso, sino de identificar los límites en los que puede integrarse sin comprometer el principio fundamental de la motivación del laudo.

Más allá de su potencial técnico, lo que realmente está en juego es la legitimidad de las decisiones arbitrales cuando interviene una herramienta cuya lógica puede resultar opaca o ajena al razonamiento jurídico. En ese contexto, parece necesario seguir reflexionando, desde la práctica y la normativa, sobre cómo garantizar que el uso de IA se mantenga dentro de los márgenes de trazabilidad, transparencia y control humano. Lejos de cerrar el debate, lo expuesto busca contribuir a su desarrollo. Es decir, hacia un arbitraje moderno que dialogue con la tecnología, sin renunciar a los valores jurídicos que le dan sustento.


Referencias bibliográficas  

Abad Quevedo, C. (2025). La inacción de la Inteligencia Artificial en el arbitraje en equidad: Un análisis crítico de sus limitaciones epistemológicas y prácticas en la resolución de conflictos. Revista Ecuatoriana de Arbitraje, 15, 103–124. https://doi.org/10.18272/rea.i15.3830

Comisión Europea. (2019, 8 de abril). Directrices éticas para una IA fiable. AI HLEG. https://digital-strategy.ec.europa.eu/es/library/ethics-guidelines-trustworthy-ai

Gonzalo Quiroga, M. (2023). Inteligencia artificial y motivación jurídica: ¿puede una máquina fundamentar una decisión? Revista Española de Derecho y Tecnología, (27), 45–67. https://revistas.uca.es/index.php/revtecnologia/article/view/9873

Haesler, L., & Isler, M. (2024). Künstliche Intelligenz und Schiedsgerichtsbarkeit: Herausforderungen für die Begründungspflicht. Zeitschrift für Schiedsverfahren, 42(1), 22–39. https://doi.org/10.1007/s12115-024-00652-9

Praštalo, B. (2024, 23 de agosto). Arbitration Tech Toolbox: AI as an Arbitrator: https://arbitrationblog.kluwerarbitration.com/2024/08/23/arbitration-tech-toolbox-ai-as-an-arbitrator-overcoming-the-black-box-challenge/

Puga, D. R. (2024). La “caja negra” de la IA: desafíos para responsabilidad civil en el siglo XXI. LinkedIn. https://es.linkedin.com/pulse/la-caja-negra-de-ia-desaf%C3%ADos-para-responsabilidad-civil-wkxse

Queen Mary University of London & White & Case LLP, School of International Arbitration. (2021). International Arbitration Survey: Adapting Arbitration to a Changing World. https://www.qmul.ac.uk/arbitration/media/arbitration/docs/LON0320037-QMUL-International-Arbitration-Survey-2021_19_WEB.pdf

Redfern, A., & Hunter, M. (2023). Redfern and Hunter on International Arbitration (7th ed.). Oxford University Press.https://global.oup.com/academic/product/redfern-and-hunter-on-international-arbitration-9780192869912

SVAMC. (2024, 30 de abril). SVAMC Guidelines on the Use of Artificial Intelligence in Arbitration (1ª ed.). Silicon Valley Arbitration & Mediation Center. https://svamc.org/wp-content/uploads/SVAMC-AI-Guidelines-First-Edition.pdf

Silicon Valley Arbitration & Mediation Center. (2024). Guidelines on the Use of Artificial Intelligence in Arbitration. https://svamc.org/guidelines-on-ai-in-arbitration/

UNESCO. (2021, 23 de noviembre). Recomendación sobre la ética de la inteligencia artificial.https://es.wikipedia.org/wiki/Recomendaci%C3%B3n_sobre_la_%C3%A9tica_de_la_inteligencia_artificial_de_la_UNESCO