Inteligencia artificial en el arbitraje: ¿un perpetuo ‘hackathon’?
09 de Diciembre de 2024
Ana María Sánchez Silva
Associate Clyde & Co. LLP
Mucho se ha debatido acerca de la utilidad que puede tener el uso de la inteligencia artificial (IA) en el universo de los mecanismos de resolución de controversias. Así, desde utilizarlo para emitir fallos judiciales y/o arbitrales hasta para tasar los daños que se deben indemnizar; el Derecho no ha sido ajeno a los desarrollos que se han venido dando respecto de los modelos de IA[1], especialmente si se considera que 44 % de las actividades legales pueden ser efectivamente automatizables[2].
A pesar de ello, el uso y la utilidad de la IA sigue cuestionándose, pues, además de la recurrente pregunta respecto de la sustitución que puede significar la IA para quienes ejercemos la profesión, el acercamiento y empleo adecuado de esta herramienta y los lineamientos para su uso carecen de un acuerdo pacífico dentro de la comunidad académica y practicante[3], lo que resulta aún más controversial en temas de procedimiento arbitral. Esto, a pesar de existir varios intentos para su regulación[4].
En virtud de esto no son muchos los modelos de IA que se han elaborado a propósito y especialmente respecto del procedimiento arbitral y del arbitraje en sí mismo, pues su misma naturaleza y esencia hacen que la receptividad sea aún más compleja de obtener. A pesar de esto, organizaciones de gran relevancia en el mundo del arbitraje como Jus Mundi se han volcado a desarrollar modelos de IA que cumplan con los más altos estándares de confidencialidad y ética. Su producto Jus AI es, sin duda, una gran apuesta en este sentido.
Un ‘hackathon’ legal
A propósito de Jus Mundi y su nuevo producto Jus AI, el pasado 24 de octubre, en el marco de la Conferencia Anual de Arbitraje y MASC de la ICC, Reino Unido (ICC United Kingdom’s Annual Arbitration & ADR Conference), tuve la posibilidad de participar en un evento que tenía como propósito principal utilizar esta herramienta de IA con la intención de desarrollar y perfeccionar la estrategia de contrainterrogatorio en una audiencia arbitral simulada.
El evento, dispuesto en un formato de hackathon[5] legal, proponía a sus participantes un caso simulado, a partir del cual debíamos emplear las funciones de Jus AI con el fin de (i) entender los hechos del caso, (ii) identificar las partes y sus posiciones legales y (iii) preparar cinco preguntas que utilizaríamos en el contrainterrogatorio, cuestionando la credibilidad e independencia del testigo, entre otros. Para ello, tendríamos que asistir a una capacitación previa con el fin de, por un lado, familiarizarnos con la herramienta y, por el otro, aprender a formular los prompts que nos ayudarían a obtener mayor precisión en las respuestas.
Los participantes éramos abogados de distintas jurisdicciones y con diferentes niveles de experiencia, lo que hacía el ejercicio aún más interesante, pues era evidente que cada uno de nosotros se acercaba a la herramienta de una manera igualmente dispar.
Al inicio del ejercicio, nos entregaron los documentos que debíamos usar (el documento insumo) y sus respectivas instrucciones. El documento insumo incluía los argumentos legales (skeleton arguments) de cada parte, así como las pruebas documentales (exhibits) y testimoniales (witness statements) que cada una pretendía hacer valer. De igual manera, se encontraban incorporados los dictámenes periciales allegados por las partes. Con posterioridad, nos dividieron por equipos y nos dieron un tiempo máximo de dos horas para preparar las preguntas.
El documento insumo constaba de más de 150 páginas, el cual, seguramente hubiera requerido de varias horas de análisis para obtener un resumen estructurado. Sin embargo, a tan solo cinco segundos de haber cargado el documento en la plataforma, Jus AI no solo nos entregó un resumen de los hechos, sino que fue capaz de segregarlo por temas y, peor (o mejor) aún, de entregarnos en un párrafo el resumen requerido, si así lo pedíamos. En general, la herramienta fue muy precisa a lo largo del ejercicio y sus análisis y conclusiones eran bastantes exactos. Si solicitábamos la formulación de las preguntas, nos las daba, pero también nos entregaba un resumen pormenorizado de las pruebas que resultaban relevantes para la narrativa del caso que debíamos defender.
Así, luego de dos horas de trabajo, los equipos entregaron los resultados. ¡Cada exposición no pudo distar más de la otra! Dicha diferencia en los resultados permitió concluir que:
(i) La herramienta, por más lógica y científica, se moldea de acuerdo con la particularidad que rodea la interacción que tiene con cada usuario con la misma. Se trata, entonces, de resultados disímiles en la medida que cada “usuario” utiliza la herramienta de manera diferente. Esto me llevó a reforzar la idea necesaria de una guía que estructura unos mínimos para su empleo ético y adecuado.
(ii) Aun cuando muchas explicaciones pueden derivarse de la diferencia en estos resultados (bien por la distinción en la formulación de los denominados prompts, bien por la lógica que sigue la herramienta de acuerdo con el hilo de la conversación, pues esta arrastra el historial de preguntas que se le ha formulado y las respuestas que ha entregado para crear un hilo conductor), lo cierto es que no dejó de ser sorprendente lo eficiente que pudo ser a la hora de analizar un importante número de hechos, agrupar los distintos argumentos y formular preguntas que, en efecto, pudiéramos utilizar y que, a veces, incluso, se acompañaban de sutiles juicios de valor.
Sin embargo, también fue claro que la herramienta y sus conclusiones no eran útiles ni apropiadas sin que mediara un agente que le otorgara dirección y propósito, aunque tal dirección se limitase a formular los prompts de determinada manera. De allí que, en apoyo de ciertas narrativas del caso, Jus AI empezara a realizar valoraciones sutiles de la conducta de la persona a que supuestamente debíamos interrogar. Con esto, era evidente que la herramienta se alimentaba de la forma en la que cada formulación (de los prompts) estaba proyectada, a efectos de interiorizar la dirección que debían contener sus respuestas.
Esto, por supuesto, dejó más preguntas que respuestas.
La responsabilidad derivada de la utilización de IA en el arbitraje
Estos tenues juicios de valor que en uso de Jus AI quedaron expuestos, así como el contenido mismo de las respuestas obtenidas, dejaron en entre visto varias cuestiones:
1. ¿Qué tan fiable puede considerarse una herramienta de IA si, de manera sutil, esta puede influenciar la respuesta que se exige cuando reconoce en el usuario un objetivo específico?
2. ¿Esta confianza en el modelo/herramienta exime de una verificación por parte de los profesionales del Derecho que le usan o, por el contrario, representa una nueva obligación?
3. En el evento en el que se opte por utilizarla, ¿bajo qué estándares de cuidado se debe estudiar la diligencia del agente que lo usó (si es que se debe estudiar)?
4. De cara a los seguros por responsabilidad civil profesional, ¿una posible negligencia en este respecto estaría cubierta?
Estos son tan solo algunos aspectos que siguen estando difusos en la implementación de IA en el arbitraje, pero que, sin lugar a duda, deberán abordarse más tarde que temprano por las distintos agentes del mundo del arbitraje, incluyendo a los reguladores mismos. ¡Estamos hasta ahora presenciando una antesala!
Gracias por leernos. Si le gusta estar informado, suscríbase y acceda a todas nuestras noticias y documentos sin límites.
Paute en Ámbito Jurídico.
Siga nuestro canal en WhatsApp.
[1] Como bien refiere Layan Al Fatayri en su artículo AI in International Arbitration: What is the big deal?, (Columbia Law School, 16 de febrero de 2024) https://aria.law.columbia.edu/ai-in-international-arbitration-what-is-the-big-deal/?cn-reloaded=1#_top.
[2] Goldman Sachs, Global Economics Analyst. The potentially large effects of Artificial Intelligence on Economic Growth (Briggs/Kodnani) (Goldman Sachs, mar. 26/23) https://www.gspublishing.com/content/research/en/reports/2023/03/27/d64e052b-0f6e-45d7-967b-d7be35fabd16.html
[3] Según el estudio realizado por White & Case y Queen Mary University of London, el 49 % de abogados dedicados al arbitraje pocas veces han utilizado herramientas de IA, si es que lo han hecho (White & Case LLP and Queen Mary University of London, 2021 International Arbitration Survey: Adapting Arbitration to a Changing World (White & Case LLP and Queen Mary University of London, 2021) https://www.whitecase.com/publications/insight/2021-international-arbitration-survey-adapting-arbitration-changing-world.
[4] Silicon Valley Arbitration & Mediation Center. SVAMC Guidelines on the Use of Artificial Intelligence in Arbitration, abr. 30/24: SVAMC-AI-Guidelines-First-Edition.pdf
[5] La palabra hackaton no tiene un equivalente al castellano, pero su significado es bastante aún más diciente que su propia traducción literal: se trata de un evento al que muchas personas asisten con el fin de mejorar un programa informático.
Opina, Comenta