Introducción
El arbitraje de equidad, también denominado “arbitraje de conciencia”, “ex aequo et bono”, se caracteriza porque no obliga a los árbitros a decidir en base a las normas de derecho, en su lugar, les faculta a decidir “conforme a sus conocimientos y leal saber y entender”.
No obstante, dicha flexibilidad decisoria no es absoluta. El margen de actuación del árbitro en equidad se encuentra necesariamente limitado por el orden público, entendido en su dimensión constitucional y sustantiva como el conjunto de principios fundamentales que estructuran el sistema jurídico. En consecuencia, aun cuando el árbitro actúe en conciencia, no puede dictar decisiones que vulneren derechos fundamentales, contravengan normas imperativas o persigan fines ilícitos, pues ello implicaría una transgresión al núcleo indisponible del ordenamiento.
En este contexto de apertura hacia criterios sustantivos, ha emergido un nuevo elemento que transforma el escenario arbitral: la IA.
En los últimos años, su uso se ha expandido como herramienta de apoyo en diversos procesos arbitrales. Su capacidad para procesar grandes volúmenes de información, identificar patrones y proponer alternativas en menor tiempo, convierte a la IA en un recurso atractivo para agilizar procedimientos y optimizar la toma de decisiones.
Sin embargo, surge un reto fundamental: ¿cómo regular la aplicación de la IA en el arbitraje de equidad sin que ello implique desnaturalizar su esencia?
El riesgo está en el exceso de dependencia de algoritmos que pueda restar espacio al criterio humano, que es justamente el que dota al arbitraje de equidad de su flexibilidad, cercanía y sensibilidad hacia las circunstancias concretas de las partes en disputa. El desafío consiste, entonces, en diseñar marcos normativos que permitan aprovechar las ventajas de la IA como herramienta de apoyo, pero sin sustituir la función central del árbitro como garante de justicia.
Desafíos contemporáneos del arbitraje de equidad ante la irrupción algorítimica
2.1. Preservar la discrecionalidad del árbitro frente a decisiones automatizadas
El arbitraje en equidad implica que al resolver los árbitros no deben tener en cuenta solamente la ley aplicable, sino que deben expresar lo que en su íntima convicción es la justicia y la equidad, en el caso que resuelven (Bělohlávek, 2013, como se citó en Flores y Orozco Herrera, 2019, p. 115).
Esta idea condensa la esencia del arbitraje en equidad: alcanzar decisiones fundadas en una evaluación ética, contextual y equitativa del caso, atendiendo a las circunstancias particulares de las partes y la naturaleza del conflicto (Quevedo, 2025, p.105) , es decir, se privilegia la sensibilidad humana, el discernimiento prudente y la justicia sustantiva por encima de la aplicación rígida de normas jurídicas.
En ese marco, la sustitución de este juicio humano por procesos automatizados, por más eficientes que sean, compromete la finalidad misma del arbitraje de equidad, que, según Moreira y Zhang (2024, p.79) exige una toma de decisiones de alta calidad sustentadas en cualidades eminentemente humanas, como inteligencia, temperamento, sabiduría y un compromiso interno con la justicia . (el resaltado es nuestro)
Al relegar el componente ético y contextual que caracteriza esta modalidad, se corre el riesgo de desnaturalizar su función esencial y sobre todo su discrecionalidad, debido a que la IA carece de estas cualidades, su funcionamiento se basa en la recopilación, procesamiento y correlación de datos, sin acceso a la intuición, la empatía ni el juicio prudencial, e incluso el error que distinguen la deliberación humana.
Por más sofisticados que sean sus algoritmos, la IA no puede replicar el compromiso ético ni la sensibilidad contextual que exige el arbitraje en equidad.
Esta limitación estructural ha sido destacada por diversos autores, quienes advierten que: “Las herramientas de IA están limitadas por los datos existentes y no pueden generar nuevas doctrinas o conclusiones como lo hacen los árbitros humanos. Los árbitros humanos son capaces de moldear el derecho y aplicarlo a los hechos específicos del caso. Es este juicio matizado el que la IA no puede alcanzar” (Alnaber, 2025, p.21) .
Es decir, la IA puede ofrecer un apoyo instrumental valioso, pero nunca sustituir la dimensión ética, prudencial y creativa que distingue al juicio humano en la resolución equitativa de los conflictos.
Este debate teórico ha comenzado a adquirir relevancia práctica. Un ejemplo ilustrativo es el caso La Paglia v. Valve Corporation, presentado el 8 de abril de 2025 ante el Tribunal Federal del Distrito Sur de California, considerado uno de los primeros intentos en los Estados Unidos de anular un laudo arbitral debido al uso excesivo de IA por parte del árbitro. Aunque no existe una resolución definitiva, este caso ha puesto de manifiesto que el empleo intensivo e indiscriminado de herramientas de inteligencia artifical en procesos arbitrales, puede generar sospechas legítimas sobre la indebida delegación de la discrecionalidad arbitral a una plataforma tecnológica, debilitando así la confianza en la integridad del procedimiento.
Con mayor razón tratándose de un arbitraje en equidad, preservar la discrecionalidad del árbitro frente a decisiones automatizadas, no constituye únicamente una exigencia técnica, sino una garantía sustantiva de justicia. Por ello, la intervención de herramientas de IA debe limitarse a un rol estrictamente auxiliar, sin interferir en el núcleo deliberativo que demanda sensibilidad, prudencia y compromiso por parte del árbitro.
2.2. Transparencia en algoritmos y sus limitaciones
La transparencia algorítmica se refiere a la capacidad de conocer los datos que un algoritmo utiliza, cómo lo usa, quiénes los emplean, para qué fin y cómo se toman las decisiones. Esto implica que la transparencia puede abarcar tanto el diseño de la plataforma y los mecanismos algorítmicos como, en algunos casos, la lógica subyacente del sistema de software (Ananny y Crawford, 2018, p. 977) .
Aplicada al arbitraje, la transparencia algorítmica implica que tanto las partes como el tribunal puedan acceder a información clara sobre cómo se estructura el modelo, qué datos emplea, qué criterios pondera y cuál es el razonamiento que conduce a sus conclusiones.
No obstante, aun cuando se procure garantizar la transparencia algorítmica, su plena realización resulta difícil de alcanzar. Esta limitación se explica, por un lado, por la falta de fiabilidad inherente al funcionamiento de la IA, que depende de la calidad y de los sesgos de los datos con los que ha sido entrenada, y, por otro, por el fenómeno de las denominadas “alucinaciones”, consistente en la generación de respuestas que, aunque presentadas como verosímiles, carecen de sustento en la realidad o en el marco jurídico aplicable.
En cuanto a falta de fiabilidad, Moreira y Zhang (2024, p.75) advierten que este problema es particularmente pronunciado en casos de arbitraje que involucran conocimiento especializado del dominio, ya que los modelos pueden no comprender e integrar con precisión conceptos complejos específicos de ese campo. Por lo tanto, si estos modelos se emplean para elaborar materiales o resúmenes dentro de un proceso arbitral, existe el riesgo de que los documentos generados incluyan información ajena al caso o presenten una argumentación deficiente y poco coherente.
Dicho de otro modo, las inteligencias artificiales -como ChatGPT- pueden producir respuestas que suenan plausibles, pero que en realidad son incorrectas o carentes de sentido (Thorp, 2023, p.313) .
En cuanto a las alucinaciones, en estudio de Stanford RegLab reportó tasas que oscilan entre el 69 % y el 88 % en respuestas a consultas jurídicas específicas (Ho, 2024) .
De manera complementaria, una investigación de Futuro Legaltech identificó errores en el 42 % de las respuestas generadas por Large Language Modem (LLM) en simulaciones de arbitraje comercial (Belmar, 2023) .
Estas alucinaciones se han visto plasmadas en casos reales de litigios afectados por jurisprudencia inventada, entre ellos el caso Roberto Mata v. Avianca Airlines.
En suma, la transparencia algorítmica constituye un ideal normativo deseable para dotar de legitimidad al uso de la IA en procesos arbitrales. Sin embargo, su consecución plena tropieza con obstáculos estructurales asociados a la fiabilidad de los modelos y a la recurrencia de alucinaciones, que pueden distorsionar el análisis jurídico y comprometer la calidad de las decisiones. Estos límites muestran que la transparencia, por sí sola, no basta: se requieren marcos regulatorios, criterios técnicos y salvaguardas institucionales que garanticen un uso responsable de estas herramientas en el ámbito del arbitraje.
2.3. El deber de confidencialidad ante la incorporación de la IA
La confidencialidad es el estado de “secretismo asociado a elementos susceptibles de protección”, constituye una obligación procesal inherente a la información o documentación producida durante el procedimiento arbitral, referida a la obligación que tienen las partes de no hacer pública, de no revelar a terceros, la información generada durante el procedimiento (Flebes, 2020, p. 468)
Sin embargo, en la era digital surgen dudas respecto de si la práctica de cargar escritos, expedientes o datos sensibles en plataformas tecnológicas, incluidas aquellas que operan mediante IA, se ajusta plenamente a los lineamientos de confidencialidad que caracterizan al arbitraje.
La respuesta depende tanto de la naturaleza de la información compartida como de las garantías que ofrezca la plataforma respecto al cumplimiento de los estándares de confidencialidad en sus términos y condiciones. En cuanto a la relevancia de la información, no es equivalente una filtración de correos electrónicos, nombres o direcciones, que la divulgación de contratos, secretos empresariales, información sensible del mercado, como variaciones de precios, o know-how, cuya exposición podría generar consecuencias económicas y jurídicas de mayor gravedad.
Respecto al cumplimiento de los estándares de confidencialidad, corresponde a las partes actuar con la debida diligencia y verificar si la plataforma garantiza de manera clara e indubitable la protección de la información que se le confía, incluyendo aspectos como la trazabilidad del acceso, la encriptación de los datos, la jurisdicción aplicable en caso de vulneración, y la compatibilidad con las obligaciones pactadas en el convenio arbitral o en el reglamento institucional aplicable. En este contexto, la gestión tecnológica de la información no puede desvincularse de los principios fundamentales del arbitraje, especialmente cuando la confidencialidad ha sido pactada como elemento estructural del procedimiento.
Cabe destacar que, si bien en ciertos casos las plataformas tecnológicas afirman garantizar la confidencialidad de los datos, se han documentado situaciones en las que usuarios han logrado eludir las restricciones de seguridad impuestas por modelos de lenguaje de gran escala (LLM), como ChatGPT, mediante técnicas de jailbreak .
Estas vulneraciones no son meramente teóricas, como advierten Lami, Mohd. Hussein, Rajamanickam y Emmanuel (2024, p.6), existen precedentes concretos que evidencian la fragilidad de los sistemas tecnológicos frente a la protección de datos sensibles. Tal es el caso del escándalo Facebook–Cambridge Analytica, en el que se recolectaron sin consentimiento los datos de aproximadamente 87 millones de usuarios; el incidente de Google+, donde una API impulsada por IA expuso información de más de 500,000 perfiles; o la violación masiva de datos en el caso Marriott, en el que hackers explotaron un sistema de atención al cliente basado en IA, comprometiendo cerca de 383 millones de registros.
Estos ejemplos subrayan la necesidad urgente de revisar críticamente las garantías de confidencialidad ofrecidas por las plataformas digitales, especialmente cuando se emplean en contextos jurídicos o arbitrales que exigen altos estándares de protección.
2.4. Consentimiento frente a la incorporación de IA en el proceso arbitral
En los últimos años, ha surgido una interrogante relevante en torno al consentimiento de las partes respecto al uso de inteligencia artificial en el arbitraje, particularmente en el arbitraje de equidad, donde el estándar decisorio se fundamenta en el leal saber y entender del árbitro.
En este contexto, se debate si la incorporación de la IA podría restringir dicha facultad, incidir en su autonomía decisoria o incluso desdibujar su rol sustantivo dentro del proceso. Sin embargo, también se plantea la posibilidad contraria: que la IA actúe como un instrumento de apoyo funcional, similar al rol que desempeña el secretario arbitral, contribuyendo a la eficiencia del procedimiento mediante la agilización de tareas administrativas, procesando la información de un modo tan rápido que ahorra mucho tiempo y trabajo (Gonzalo, 2023, p.523) .
Más allá de la discusión sobre la eficiencia operativa de la inteligencia artificial, el eje central debe situarse en la voluntad de las partes y en como está se manifiesta dentro del procedimiento arbitral.
En un contexto donde la IA comienza a desempeñar un papel cada vez más protagónico en la dinámica del arbitraje, resulta indispensable que su incorporación esté respaldada por un consentimiento claro y expreso, pues la aceptación o la renuncia a su uso como herramienta de apoyo funcional no puede presumirse.
Esta exigencia cobra aún mayor relevancia si se considera que la IA constituye una tecnología emergente, carente de regulación y control específicos, lo cual introduce un obstáculo esencial: la necesidad de aceptación y confianza para su adopción.
Tal desafío, si bien se presenta con especial intensidad en el arbitraje de equidad, se proyecta también hacia el arbitraje de derecho, en tanto ambos reposan en la legitimidad del proceso y en la garantía de que las decisiones se adopten conforme a parámetros previamente consentidos por las partes.
La incorporación de esta determinación, formulada de manera clara y transparente en el acuerdo arbitral o en las reglas procesales adoptadas, asegura que la intervención tecnológica se mantenga dentro de los límites legítimos del consentimiento informado, resguardando tanto la integridad del procedimiento como el equilibrio entre innovación y autonomía decisoria .
La autonomía decisoria es la facultad del árbitro para dirimir un controvertido en función exclusiva a su juicio, sin interferencia externas, con apego a los límites del convenio arbitral, las reglas del procedimiento y la normativa vigente.
Esta previsión, además, contribuye a mitigar el riesgo de eventuales procesos de anulación del laudo arbitral, en la medida en que las partes, al haber aceptado o rechazado expresamente el uso de inteligencia artificial, asumen las consecuencias jurídicas de su elección.
Ello no implica que la negativa a incorporar la IA suponga la prohibición absoluta de emplear herramientas digitales por parte del árbitro.
La cuestión central radica en que, en aspectos sustanciales del procedimiento, como valoración de la prueba, motivación y redacción del laudo, no resulte admisible recurrir a un apoyo auxiliar proveniente de la inteligencia artificial, reservándose dichos ámbitos al juicio humano y a la autonomía decisoria del árbitro.
Del mismo modo, cuando las partes consienten expresamente el empleo de inteligencia artificial en el proceso arbitral, dicho consentimiento habilita su utilización como herramienta auxiliar en funciones tales como la redacción preliminar del laudo, la identificación e incorporación de doctrina y jurisprudencia pertinente, o el apoyo metodológico al razonamiento del árbitro.
Esta intervención, sin embargo, no sustituye la responsabilidad decisoria del tribunal arbitral ni altera la naturaleza humana del juicio arbitral , puesto que, tal como lo señala el Comité de Ética Judicial de Francia, la función decisoria implica una responsabilidad moral y epistemológica no delegable a sistemas automatizados, que si bien pueden servir como instrumentos de apoyo, no pueden ni podrán reemplazar el juicio de equidad (arbitraje de equidad), el cual es intrínsecamente humano .
En consecuencia, la IA queda autorizada para desempeñar tareas de carácter administrativo y técnico, análogas a los actos de colaboración que tradicionalmente ejerce un secretario arbitral, siempre bajo la supervisión y control del árbitro.
En esa línea de pensamiento, con el fin de reforzar el control sobre la autonomía decisoria del árbitro, se propone: (i) La intervención de la IA debe estar guiada hacia la redacción del laudo, y no así para la valoración probatoria, ni motivacional propias de la autonomía decisoria. (ii) La intervención de la IA en la redacción del laudo, no debe superar el 20%, con el propósito de preservar el núcleo analítico y decisorio, aspecto desarrollado en líneas seguidas.
3. Parámetros para la regulación del empleo de inteligencia artificial en arbitrajes de equidad
3.1. Guías sobre el uso de la inteligencia artificial
En los últimos años, diversas instituciones han elaborado guías orientativas para promover el uso responsable de la inteligencia artificial en el ámbito arbitral. Estas directrices, de alcance tanto internacional como nacional, constituyen referentes normativos que buscan armonizar la incorporación de tecnologías emergentes en la práctica jurídica y en los procedimientos arbitrales.
Existe consenso en que la IA representa una herramienta poderosa y transformadora; sin embargo, su aplicación exige el cumplimiento de principios éticos, garantías de transparencia, supervisión humana no delegable, protección rigurosa de los datos personales y una constante actualización profesional por parte de los operadores jurídicos.
Esta exigencia cobra especial relevancia en el arbitraje de equidad, donde la flexibilidad procedimental y la preeminencia de la justicia sustantiva sobre la legalidad formal requieren una vigilancia aún más estricta respecto al impacto que la IA pueda tener sobre la autonomía decisoria del árbitro, la percepción de imparcialidad y la integridad del proceso.
3.1.1. Guía del AAA-ICDR (American Arbitration Association – International Centre for Dispute Resolution, 2025)
Recalcan el canon V del Code of Ethics for Arbitrators in Commercial Disputes , en el cual se exige que los árbitros conserven el control total sobre la toma de decisiones. Las herramientas de IA deben apoyar, no reemplazar, el criterio y la experiencia del árbitro .
Sobre la confidencialidad, establecen que los árbitros deben garantizar que el uso de IA sea compatible con sus obligaciones de confidencialidad conforma al Canon VI y las reglas arbitrales aplicables.
3.1.2. Guía del SCC (Stockholm Chamber of Commerce, 2024)
En el apartado Managing AI’s potential, se advierte que en materia de confidencialidad, el empleo de determinadas herramientas de inteligencia artificial podría generar efectos no previstos en el desarrollo del procedimiento arbitral. En consecuencia, se recomienda que los participantes, especialmente el tribunal arbitral, se informen de manera rigurosa sobre el modo en que se utilizan y gestionan los datos introducidos al operar con sistemas de IA, a fin de preservar los compromisos de confidencialidad asumidos por las partes . (subrayado agregado)
3.1.3. Guía del SVAMC (Silicon Valley Arbitration & Mediation Center, 2024)
Sobre la no delegación del mantado personal en su Guideline 6, Non-delegation of decision-making responsabilities, se señala que si bien las herramientas de IA son capaces de gestionar información, analizar datos y predecir resultados, no deben sustituir el juicio humano, la discreción, la responsabilidad ni la rendición de cuentas que son inherentes al rol del árbitro. Por ello, los árbitros deben ser conscientes de que no están delegando inadvertidamente parte de su mandato personal en la herramienta de IA.
Esta directriz refuerza la necesidad de que los árbitros revisen los resultados generados por cualquier herramienta de IA para garantizar su precisión, asumiendo plena responsabilidad por cualquier error o inexactitud. En caso de que un árbitro utilice una herramienta de IA generativa para asistir en el análisis de los argumentos o en la redacción de cualquier parte de una decisión o laudo, no podrá reproducir directamente el contenido generado sin asegurarse de que refleja adecuadamente su análisis personal e independiente de las cuestiones y pruebas pertinentes.” (Silicon Valley Arbitration & Mediation Center, 2024, p. 19)
3.1.4. Guía del CIArb (Chartered Institute of Arbitrators, 2025)
En el apartado No. II, General Recommendations About Use of AI in Arbitration, se recomienda a las partes y a los árbitros realizar una investigación razonable sobre cualquier ley, reglamento, norma judicial (si corresponde) o disposición relacionada con la inteligencia artificial que resulte aplicable en las jurisdicciones pertinentes.
Salvo que el tribunal arbitral y las partes acuerden expresamente lo contrario por escrito (sin perjuicio de cualquier norma imperativa aplicable), el uso de una herramienta de inteligencia artificial por cualquier participante en el arbitraje no disminuirá la responsabilidad ni la rendición de cuentas que, en ausencia de dicha herramienta, les correspondería asumir. (Chartered Institute of Arbitrators, 2025, p. 11)
Asimismo, sobre la confidencialidad se señala que las aplicaciones reales de IA pueden emplear múltiples herramientas y plataformas, lo que puede dificultar la identificación de qué datos se utilizan y dónde se almacenan. Es importante considerar cuidadosamente el contexto en el que se entregaron los datos pertinentes y si se obtuvo permiso para utilizarlos con fines distintos a la resolución de la disputa. Será necesario recurrir a acuerdos de confidencialidad y a una comprensión más profunda de cómo estas herramientas protegen la confidencialidad frente a usos indebidos o ciberataques. Al evaluar y considerar herramientas de IA, resulta fundamental analizar si la herramienta ha sido verificada, si cumple con estándares adecuados de privacidad y seguridad, y si se trata de un modelo abierto o cerrado. No todas las herramientas de IA son iguales en este aspecto . (Chartered Institute of Arbitrators, 2025, p. 7)
3.2. Límite en el uso de IA en la redacción de laudos arbitrales: no debe superar el 20%.
Como se señaló anteriormente, con el fin de reforzar el control sobre la autonomía decisoria del árbitro, se plantean dos criterios fundamentales:
i) La intervención de la inteligencia artificial debe restringirse a labores de apoyo en la redacción del laudo, quedando expresamente vedada su utilización en la valoración de la prueba o en la motivación jurídica, funciones que son inherentes a la autonomía decisoria y que constituyen la esencia del rol arbitral.
ii) La participación de la IA en la redacción del laudo no debe superar el 20% del contenido total, de manera que se preserve el núcleo analítico y decisorio humano. Dicho límite busca garantizar que el árbitro conserve el protagonismo intelectual y ético en la elaboración del laudo.
El porcentaje propuesto encuentra sustento en parámetros de originalidad académica, carácter propio de los actos jurisdiccionales. Un ejemplo ilustrativo lo constituyen los criterios adoptados por diversas universidades a nivel mundial, que emplean herramientas como Turnitin para evaluar la autenticidad de los trabajos de investigación y prevenir plagios, exigiendo un nivel mínimo de producción propia del autor. Trasladado al ámbito arbitral, ello implica que, de cada diez palabras contenidas en un laudo, al menos ocho deben provenir directamente del árbitro y no de una herramienta automatizada.
En este sentido, resultaría conveniente la implementación de sistemas técnicos de verificación de originalidad aplicados al arbitraje, que permitan medir con objetividad el grado de intervención de la IA en la redacción de los laudos.
Tales mecanismos reforzarían la transparencia, la confianza de las partes y la legitimidad del proceso arbitral, asegurando que la inteligencia artificial se limite a un rol complementario y que el juicio humano se mantenga como el eje central e indelegable de la función jurisdiccional.
En definitiva, la tecnología puede ser un aliado poderoso, pero nunca se debe olvidar que la justicia y, en particular, la equidad, se traduce como un acto profundamente humano, que no puede ser reemplazado por algoritmos.
3.3. Tipología funcional del uso de IA en arbitraje de equidad: zonas verde, naranja y roja
Los avances actuales y proyectados en la tecnología de la inteligencia artificial están transformando de manera inevitable la forma en que los tribunales arbitrales conducen sus procedimientos. Ante la creciente expectativa de las partes de obtener resoluciones más diligentes, eficientes y menos costosas, los árbitros se ven progresivamente impulsados a incorporar herramientas de IA en el ejercicio de sus funciones.
No obstante, esta incorporación requiere estar guiada por estándares claros y uniformes. Un antecedente ilustrativo lo encontramos en las Directrices de la IBA sobre Conflictos de Intereses en el Arbitraje Internacional, emitidas en 2004, precisamente porque los estándares existentes hasta ese entonces resultaban insuficientes y se aplicaban de manera desigual (International Bar Associate, 2024, p. 6).
De modo análogo, hoy resulta necesario establecer parámetros específicos que regulen el uso de la inteligencia artificial en el arbitraje, a fin de preservar principios esenciales como la independencia e imparcialidad de los árbitros, la transparencia, la confidencialidad de la información y, sobre todo, la confianza de las partes en el proceso, habilitandolas a cuestionar la decisión arbitral.
En ese contexto, se propone una lista orientativa - práctica, estructurada en categorías verde, naranja y roja, destinada a ofrecer pautas claras para los árbitros que recurran al uso de herramientas de inteligencia artificial en procedimientos arbitrales bajo la modalidad de arbitraje de equidad. Esta iniciativa tiene por objeto fomentar la adopción de directrices que encaucen dicha incorporación de manera ética y responsable, salvaguardando la integridad procesal y fortaleciendo la confianza de las partes en el sistema arbitral:
3.3.1. Lista verde: Uso permitido y generalmente aceptado, sin riesgo significativos para la equidad ni la transparencia del procedimiento:
- Organización cronológica de hechos
- Apoyo en la gestión administrativa del caso (plazos, notificaciones, seguimiento de etapas procesales)
- Investigación jurídica (resumenes de jurisprudencia, uso de motores de busqueda, etc.)
- Traducción automática preliminar de documentos, siempre que sea revisada por el árbitro
- Elaboración de transcripciones
- Herramientas de revisión documental
3.3.2. Lista naranja: Uso condicionado, que requiere supervisión humana y evaluación contextual, dado que puede influir en el juicio del árbitro o en la percepción de imparcialidad en el arbitraje de equidad:
- Identificación de normas aplicables en contextos jurídicos complejos o multilaterales.
- Selección de árbitros mediante IA
- Propuestas de conciliación, si la jurisidicción permite que los tribunales formulen propuestas
- Clasificación automatizada de pruebas según relevancia
3.3.3. Lista roja: Uso prohibido o altamente desaconsejado, por comprometer principios fundamentales del arbitraje de equidad, como la decisión personal del árbitro, la confidencialidad y el derecho de las partes a ser oídas:
- Cargar expedientes o escritos que contengan información confidencial de las partes en plataformas digitales de inteligencia artificial sin la autorización previa de las partes.
- Permite que una IA decida los aspectos fácticos o jurídicos del caso
- Redacción de partes del razonamiento jurídico por la IA sin revisión humana
- Fundar el laudo final en resultados creados por la IA sin dar a las partes la oportunidad de pronunciarse sobre aspectos que excedan los hechos o argumentos alegados
- Uso de IA en casos donde la sede del arbitraje o el lugar de ejecución del laudo se encuentren en una jurisdicción que exige que los árbitros sean personas naturales
- Dependencia de la IA cuando el algoritmo utilice datos incompletos o potencialmente sesgados
- Generación de valoraciones morales, éticas o culturales sobre las partes o sus argumentos
- Uso de IA para determinar la credibilidad de los testigos
Conclusiones
La incorporación de la Inteligencia Artificial - IA debe pactarse expresamente en el convenio arbitral, situarse en la voluntad de las partes, y como debe manifestarse en el procedimiento arbitral.
La transparencia algorítmica constituye un ideal normativo deseable para dotar de legitimidad al uso de la IA en procesos arbitrales.
El empleo pleno de la IA tropieza con obstáculos estructurales asociados a la fiabilidad de los modelos y a la recurrencia de alucinaciones, que pueden distorsionar el análisis jurídico y comprometer la calidad de las decisiones, p.ej. caso Mata v. Vianca – New York 2023.
Los límites de la IA exigen la implementación de marcos regulatorios, criterios técnicos y salvaguardas institucionales que garanticen un uso responsable de estas herramientas en el ámbito del arbitraje, para tal efecto se propone listados verde, naranja y roja, así como la fijación de límites cuantitativos y cualitativos en su intervención al arbitraje de equidad.
La intervención de la IA debe conducirse a labores de apoyo en la redacción del laudo, quedando expresamente vedada su utilización en la valoración de la prueba o en la motivación jurídica, funciones que son inherentes a la autonomía decisoria y que constituyen la esencia del rol arbitral.
La participación de la IA en la redacción del laudo no debe superar el 20% del contenido total, de manera que se preserve el núcleo analítico y decisorio humano, conforme a estándares mundiales sobre originalidad analítica aplicable a los actos jurisdiccionales. Dicha situación denota que de cada diez palabras contenidas en el laudo, al menos ocho deben provenir directamente del árbitro, y no de una herramienta automatizada.
Las plataformas tecnológicas afirman garantizar la confidencialidad de los datos, sin embargo, se han documentado situaciones en las que usuarios han logrado eludir las restricciones de seguridad impuestas por modelos de lenguaje de gran escala (LLM), como ChatGPT, mediante técnicas de jailbreak que denotan la fragilidad de dichos sistemas tecnológicos frente a la protección de datos sensibles.
La confidencialidad constituye un pilar esencial del arbitraje; la carga de documentos o información sensible en plataformas de inteligencia artificial solo resulta admisible si se asegura la trazabilidad, la encriptación y la ausencia de transferencia a terceros, en consonancia con el acuerdo arbitral y las reglas aplicables.
Referencias bibliográficas
Abad Quevedo, C. (2025). La inacción de la IA en el arbitraje en equidad: Un análisis crítico de sus limitaciones epistemológicas y prácticas en la resolución de conflictos”. Revista Ecuatoriana de Arbitraje.
Alnaber, R. (2025). An “A-eye” to the future of arbitration: a new world or a better world?. Oxford Academic. International Journal of Law and Information Technology, (33).
American Arbitration Association – International Centre for Dispute Resolution. (2025). AAA-ICDR guidance on arbitrators’ use of AI tools. American Arbitration Association.
Ananny, M. y Crawford, K. (2018). Seeing without knowing: Limitations of the transparency ideal and its application to algorithmic accountability. New Media & Society.
Belmar, E. (2023). Alucinaciones de la IA: qué son y cuáles son sus riesgos. RedUSERS.
Chartered Institute of Arbitrators. (2025). CIArb guidelines on the use of artificial intelligence in international arbitration. Chartered Institute of Arbitrators.
Comité Consultatif National d’Éthique. (2018). Avis 129: Contribution du Comité consultatif national d’éthique à la révision de la loi de bioéthique 2018-2019. Comité Consultatif National d’Éthique.
Flebes Pozo, N. (2021). Confidencialidad, privacidad y transparencia en el arbitraje internacional. Revista de Derecho Privado.
Flores Suasnavas, M. y Orozco Herrera, E. (2019). Alcance y oportunidad del arbitraje en equidad y ex aequo et bono dentro del sistema jurídico ecuatoriano. USFQ Law Review, 6(1),27-51. https://lc.cx/16KQJr
Gonzalo Quiroga, M. (2023). La inteligencia artificial en el arbitraje internacional 2.0. Oportunidades y desafíos en un futuro que ya es presente. Cuaderno de Derecho Transnacional, 15(2),516-550. https://lc.cx/nn-S5p
Ho, Daniel. (2024). ‘Hallucinating Law: Legal Mistakes with Large Language Models are Pervasive’. Stanford Institute for Human-Centered Artificial Intelligence. https://lc.cs/HOQ2Jt.
Ilhão Moreira, J., & Zhang, J. (2024). ChatGPT as a fourth arbitrator? The ethics and risks of using large language models in arbitration. Arbitration International, 41(1), pp.71-84.
International Bar Association. (2024). Directrices IBA sobre conflictos de intereses en arbitraje internacional (versión en español). International Bar Association.
Krantz, T. y Jonker, A. (2024, 12 de noviembre). Jailbreak de la IA: erradicar una amenaza en evolución. IBM. https://lc.cx/IJ4p-D
Lami, B., Mohd. Hussein, S., Rajamanickam, R., & Emmanuel, G. K. (2024). The role of artificial intelligence (AI) in shaping data privacy. International Journal of Law and Management.
Silicon Valley Arbitration & Mediation Center. (2024). Guidelines on the use of artificial intelligence in arbitration. SVAMC.
Stockholm Chamber of Commerce. (2024). SCC guide to the use of artificial intelligence in cases administered under the SCC rules. SCC Arbitration Institute.
Thorp, H. (2023). ChatGPT is fun, but not an author. Science.
United States District Court for the Southern District of California (2025, 8 de abril). Caso No. 3:25-cv-00833 (RBM)-California (ponente: jueza Ruth Bermudez Montenegro).
United States District Court for the Southern District of New York (2023, 22 de junio). Caso No. 22-cv-1461 (PKC)- New York (ponente: juez P. Kevin Castel)