DesEnfoque, espacio interdisciplinario que aborda la presencia del Derecho en el devenir diario cultural
1. Introducción
La inteligencia artificial (IA) se ha enraizado profundamente en nuestra sociedad. Ello se demuestra en cómo ha ingresado paulatinamente en todas las industrias con el objetivo de optimizar los procesos de toma de decisiones. A pesar de estos beneficios tangibles, es necesario tener cuidado al momento de delegarle la ejecución de determinadas actividades, entre ellas, la administración de justicia arbitral.
La labor de los árbitros tiene por característica ser intuitu personae[1], es decir, las partes inmersas en un proceso arbitral designan a los árbitros y a nadie más que a ellos para que resuelvan su controversia. Las partes no depositan su confianza en una herramienta de procesamiento algorítmico[2], sino en el criterio y la racionalidad humana.
En ese contexto, ¿podría cuestionarse en un proceso de anulación un laudo en el que alguna de las partes detecta la participación de la IA en su elaboración? No hay una respuesta absoluta, pues depende de que la parte demandante acredite la ocurrencia de alguna de las causales de anulación reguladas en el Decreto Legislativo que norma el arbitraje[3]. A continuación, plantearemos algunos escenarios sobre posibles cuestionamientos al uso de la IA.
2. La nebulosa algorítmica (“caja negra”) de la IA generativa
En este punto, encontramos uno de los mayores riesgos del uso de la IA generativa: la llamada “caja negra”. Ello quiere decir que si bien una IA generativa pretende hacer el mismo trabajo que el realizado por el árbitro, a diferencia de este último, no es posible obtener la trazabilidad de su procesamiento algorítmico.
Este riesgo es advertido en las Guidelines on the use of artificial intelligence in arbitration emitidas por el Silicon Valley Arbitration & Mediation Center (SVAMC): “Sin perjuicio de cualquier apariencia en contrario, las herramientas de inteligencia artificial disponibles en la actualidad carecen de autoconsciencia, así como de la capacidad para explicar sus propios algoritmos.”[4][Traducción libre]
Esta opacidad genera una duda razonable: si los árbitros pueden utilizar la IA generativa para preparar el laudo a partir de determinados prompts (instrucciones), ¿las partes estarían facultadas para exigir que tales prompts sean previamente puestos en su conocimiento, considerando que no hay forma de verificar la trazabilidad del procesamiento algorítmico de la IA generativa? ¿Se vulneraría el derecho de defensa en caso de que no se les permita pronunciarse respecto de tales prompts?
En principio, las partes no tienen el derecho de auditar el proceso cognitivo, ni la redacción del laudo arbitral, ni las deliberaciones de los árbitros, incluso si estos apoyan su labor en una IA generativa. No obstante, dicha reserva tiene un límite: el respeto a los argumentos y hechos del proceso. Habrá una vulneración al derecho de defensa si la IA generativa (por su falta de trazabilidad) introduce un argumento o un hecho ajeno al expediente y si el árbitro lo incorpora en el laudo arbitral sin que las partes hayan tenido la oportunidad de debatirlo.
Para garantizar que el árbitro no sea un mero validador (Rubber-stamping arbitrator) de las premisas y conclusiones arribadas por una IA generativa, es recomendable el uso de una IA explicable (XAI). Al respecto, las Guidelines on the use of artificial intelligence in arbitration sugieren lo siguiente: “(…) los participantes pueden, en la medida de lo práctico, utilizar herramientas y aplicaciones de IA que incorporen funciones de “IA explicable” o que, de otro modo, les permitan comprender cómo se generó un resultado determinado a partir de datos de entrada específicos. La “IA explicable” es un conjunto de procesos y métodos que permite a los usuarios humanos comprender cómo un sistema de IA llega a un resultado determinado basándose en entradas específicas.”[5][Traducción libre]
3. Los sesgos inherentes de la IA
El laudo no es un mero dictamen técnico, sino el producto del razonamiento crítico de los árbitros luego de transcurridas varias etapas en donde las partes tuvieron la oportunidad de confrontar sus posiciones. Si bien los árbitros (como todo ser humano) pueden tener sesgos cognitivos, existen mecanismos que permiten mitigarlos durante el arbitraje, como lo es el deber de revelación o la recusación. En cambio, en el caso de la IA, sus sesgos no pueden ser mitigados ni rastreados a simple vista, en tanto no provienen de las “opiniones” o “sentimientos”, sino de distorsiones estadísticas en los datos de entrenamiento. Si una IA se entrena con miles de laudos en donde siempre gana la entidad pública frente a los contratistas, la IA “aprenderá” que esa es la regla aplicable.
Esta predeterminación algorítmica quiebra la esencia misma del arbitraje. Es mucho más difícil que un árbitro humano tenga una posición preconcebida antes del inicio de las actuaciones arbitrales que una IA sesgada. Arbitrar carecería de sentido sabiendo que la controversia estaría resuelta antes de comenzar el proceso. La IA no puede “decidir” ser imparcial, porque su decisión futura está sujeta a un conocimiento preconcebido obtenido en su entrenamiento, no cuenta con el “libre albedrío”, característica propia de la condición humana. En efecto, la IA no es un juzgador, es una herramienta.
La propia condición de la IA impide cualquier control preventivo. Si una IA ni siquiera puede ser susceptible de ser analizada a la luz de un control de imparcialidad, mucho menos podría solicitarle alguna revelación o recusarla. Es más, las probabilidades de que ello ocurra son ínfimas, pues ¿cómo las partes podrían saber cómo fue entrenada esa IA? ¿Quién garantizaría su “correcto” entrenamiento? ¿Los centros de arbitraje o el Estado a través de sus organismos de control? Se presentan más interrogantes que respuestas.
Este vacío de control colisiona con el marco convencional. Para el inciso 1 del artículo 8 de la Convención Americana de Derechos Humanos, la imparcialidad del juzgador es una garantía procesal fundamental del proceso: “Toda persona tiene derecho a ser oída, con las debidas garantías y dentro de un plazo razonable, por un juez o tribunal (…) imparcial (…)”
Por lo tanto, si una IA no puede ser sujeto a un control de imparcialidad, no cumple con la garantía procesal necesaria para que participe en la resolución de una controversia, ya que es importante recordar que los árbitros (más allá de las tesis contractualistas), según el inciso 1 del artículo 139 de la Constitución, ejercen función jurisdiccional[6] y, por tal motivo, deben garantizar estándares mínimos a los justiciables.
Ante ese panorama, surge una interrogante, ¿la normativa peruana permitiría llamar arbitraje o proceso (en sentido lato) a la resolución de controversias dirigida por una IA[7] o es acaso que tendría que crearse un nuevo mecanismo de naturaleza puramente contractual?
3. Delegación de la labor jurisdiccional a la IA
Las partes no designan a una IA para que resuelva la controversia, sino a un ser humano. No es factible la delegación de la labor de resolver una controversia a una IA, debido a que el artículo 20 del Decreto Legislativo que norma el arbitraje establece que: “Puede ser árbitro la persona natural”. Lógicamente, la IA no se subsume en ese supuesto de hecho.
Lo anterior es congruente con la Directriz 6 de las Guidelines on the use of artificial intelligence in arbitration: “Un árbitro no delegará ninguna parte de su mandato personal a ninguna herramienta de inteligencia artificial. Este principio se aplicará, de manera particular, al proceso de toma de decisiones del árbitro. El uso de herramientas de inteligencia artificial por parte de los árbitros no sustituirá su análisis independiente de los hechos, el derecho y las pruebas.”[8][Traducción libre]
Esta prohibición de delegar el mandato personal tiene una grave consecuencia procesal. Desde ningún punto de vista, el árbitro puede convertirse en un mero revisor o validador del resultado inferido por una IA (Rubber-stamping arbitrator). De hacerlo, se desnaturalizaría la identidad del juzgador que las partes acordaron, por lo que sería aplicable la causal de anulación del literal c) del inciso 1 del artículo 63 del Decreto Legislativo que norma el arbitraje: “(…) que la composición del tribunal arbitral (…) no se ha ajustado al acuerdo entre las partes o al reglamento arbitral aplicable.”
4. Normas y jurisprudencias inventadas por la IA
Este asunto es problemático, pues la IA no es infalible y muchas veces brinda información ficticia. Al respecto, la Directriz 7 de las Guidelines on the use of artificial intelligence in arbitration indica lo siguiente: “En los casos en que una herramienta de inteligencia artificial no sea capaz de citar fuentes susceptibles de verificación independiente, el árbitro no deberá presumir la existencia de dichas fuentes ni que estas hayan sido caracterizadas con exactitud por la referida herramienta.”[9][Traducción libre]
Desde la perspectiva constitucional, basar una decisión en normas o jurisprudencias ficticias genera dos vicios en el laudo: motivación aparente y deficiencias en la motivación externa. Sobre estos vicios, el Tribunal Constitucional, en su sentencia del expediente N° 0896-2009-PH/TC, señala lo siguiente: “a) Inexistencia de motivación o motivación aparente. (…) solo intenta dar un cumplimiento formal al mandato, amparándose en frases sin ningún sustento fáctico o jurídico. (…) c) Deficiencias en la motivación externa; justificación de las premisas. (…) las premisas de las que parte el Juez no han sido confrontadas o analizadas respecto de su validez fáctica o jurídica. (…)”
Bajo esa doctrina, el uso de la IA sin supervisión vicia el razonamiento del árbitro. En el caso de la motivación aparente, los árbitros, al fundamentarse en una premisa falsa, solo están simulando que están resolviendo conforme a la normativa, ya que en realidad están laudando sobre la base de razones ficticias. Del mismo modo, en la deficiencia en la justificación externa, si los árbitros utilizan una norma o jurisprudencia inventada por una IA (que interpreta de determinada forma una norma), la premisa mayor (normativa) será falsa, lo que genera que el silogismo jurídico sea inválido.
Sin lugar a duda, tales circunstancias constituyen una grave vulneración al deber de motivación, lo que a su vez afecta al debido proceso. Al fracturarse la estructura lógica de la decisión por el uso de premisas inexistentes, la grave consecuencia procesal sería la aplicación de la causal regulada en el literal b) del inciso 1 del artículo 63, toda vez que la parte afectada “no ha podido, por cualquier otra razón, hacer valer sus derechos”.
5. Conclusión
La IA no puede sustituir el rol fundamental de los árbitros: resolver la controversia a partir de las posiciones de las partes. El arbitraje es, por antonomasia, un acto de fe en la racionalidad humana. La IA puede apoyar brindando información verificable, ordenando documentos a través de procesos de sistematización, entre otros asuntos administrativos, pero no supliendo el ejercicio de la función jurisdiccional. Es un estándar internacional ampliamente aceptado que los árbitros, en aplicación del deber de revelación y a fin de evitar cualquier cuestionamiento futuro al laudo arbitral, informen a las partes si utilizarán IA, así como las funciones que esta cumpliría en el proceso arbitral. Definitivamente, la tecnología debe ser un instrumento y no un juez. El uso indebido de la IA no solo expone a que los laudos se anulen, sino también afecta la legitimidad del arbitraje como método de solución de controversias.
Sobre los autores:
- Leandro García Valdez, árbitro y abogado por la Universidad Peruana de Ciencias Aplicadas (UPC), especializado en Derecho de la Construcción, Contratación del Sector Público (obras) y Arbitraje, con amplia experiencia en la dirección y gestión de disputas de alta cuantía. Experto en Gestión Contractual (Contract Management) bajo modelos NEC y bespoke.
- André Gonzales Soto, estudiante de décimo ciclo de la Universidad de San Martín de Porres (USMP)
Referencias bibliográficas:
[1] Ello es concordante con el considerando décimo primero de la sentencia de anulación del expediente N° 68-2017 del 22 de febrero del 2018, emitida por la Corte Superior de Justicia de Lima, Segunda Sala Civil: “(…) asumido el arbitraje como un contrato que vincula a la partes entre sí, pero también a éstas con los árbitros, y cuyo objeto es de índole procesal pues determina la competencia de los árbitros, también es claro e incuestionable que dicha competencia así otorgada por acto de voluntad de las partes en controversia, no puede ser delegada ni transferida por los árbitros, pues dicho contrato tiene por nota característica y elemento típico el carácter personalísimo de la función y de la competencia atribuida a los árbitros, quienes han sido seleccionados y designados como tales, precisamente en atención a sus condiciones, características y cualidades individuales.”
[2]Usamos los términos “procesamiento algorítmico” porque la IA generativa no razona. Así, el humano busca la verdad, en cambio, la IA la probabilidad. Es más, si queremos ser más precisos estamos ante un procesamiento estadístico/ probabilísico.
[3] Decreto Legislativo N° 1071 y sus modificatorias.
[4] “Despite any appearance otherwise, currently available AI tools lack self-awareness or the ability to explain their own algorithms.”
[5] “(…) participants may, as far as practical, use AI tools and applications that incorporate “explainable AI” features or otherwise allow them to understand how a particular output was generated based on specific inputs. “Explainable AI” is a set of processes and methods that allows human users to comprehend how an AI system arrives at a certain output based on specific inputs.”
[6] “Artículo 139.- Principios de la Administración Justicia
Son principios y derecho de la función jurisdiccional: 1. La unidad y exclusividad de la función jurisdiccional. No existe ni puede establecerse jurisdicción alguna independiente, con excepción de la militar y la arbitral.”
[7] La American Arbitration Association (AAA) y su división internacional (ICDR) lanzaron a finales del 2025 una herramienta denominada “AI Arbitrator”, la cual está diseñada para controversias de construcción de baja cuantía y que se resuelven a partir de la revisión de documentos. Más información en el siguiente enlace: https://www.adr.org/news-and-insights/ai-arbitrator-faq/
[8] “An arbitrator shall not delegate any part of their personal mandate to any AI tool. This principle shall particularly apply to the arbitrator’s decision-making process. The use of AI tools by arbitrators shall not replace their independent analysis of the facts, the law, and the evidence.”
[9] “Where an AI tool cannot cite sources that can be independently verified, an arbitrator shall not assume that such sources exist or are characterized accurately by the AI tool.”





