¿Los jueces pueden utilizar inteligencia artificial?
11 de Octubre de 2023
Brittan Heller
Profesora afiliada del CyberPolicy Center de Stanford University
Fellow en el Atlantic Council Digital Forensics Research Lab
Daniel Castaño
Profesor de la Universidad Externado de Colombia
Fundador & CEO de Mokzy
La comunidad legal internacional vio un paradigma redefinido a principios de este año. Un juez colombiano, por primera vez, utilizó abiertamente inteligencia artificial generativa (IAG) para redactar ciertas partes de una sentencia. Ahora, la Corte Constitucional seleccionó este caso para revisión (Exp. T-9.301.656).
A pesar de los momentos de fascinación y pánico suscitados por la IAG, lo cierto es que no estamos frente a una violación concreta de derechos fundamentales, habida cuenta de que el juez no utilizó una inteligencia artificial (IA) para tomar su decisión. Por el contrario, en este caso ambas instancias resolvieron de manera favorable las pretensiones con base en sus propias interpretaciones y argumentos.
Cabe, entonces, preguntar: ¿sobré qué objeto versará la revisión de la Corte Constitucional?, ¿cuál fue la irregularidad procesal del ad quem y cuál fue su efecto determinante en la violación de los derechos fundamentales de las partes?, ¿existe alguna disposición constitucional que prohíba expresamente el uso de IA en la Rama Judicial?
Problemas en la administración de justicia
El panorama de nuestro sistema judicial es crítico. Por ejemplo, la Corte Constitucional revisó alrededor de 600.000 acciones de tutela en el 2022. Según la Corporación Excelencia en la Justicia, nuestro sistema judicial tenía más de 1,8 millones de casos pendientes en diciembre del 2020. No hace falta decir que nuestros jueces podrían tener una ayuda adicional, incluso si es una IA.
Conviene precisar que, si bien no existe una definición técnicamente inequívoca de IA, la comunidad internacional ha entendido que son sistemas que emulan el razonamiento humano con el propósito de optimizar tareas puntuales de naturaleza descriptiva, diagnóstica, predictiva, prescriptiva y generativa. Jamás se deben confundir ni tratar por igual.
En el pasado, el uso de soluciones basadas en IA para orientar el razonamiento judicial en casos sobre libertad condicional ha mostrado sesgos, especialmente en contra de las minorías. En efecto, conjuntos de datos defectuosos causaron problemas, debido a que las conductas pasadas no sirven como base para predecir crímenes futuros.
Uso general
A diferencia de las soluciones específicas de IA desarrolladas para usos legales, la IAG ha sido diseñada, al menos inicialmente, para un uso general. Si bien la IAG puede generar contenido como texto, imágenes, audio y video, sus resultados son impredecibles. Diferentes modelos, limitaciones técnicas, conjuntos de datos e indicaciones producen resultados inconsistentes, debido a alucinaciones y a sus limitaciones técnicas que le impiden, por ahora, entender a cabalidad el contexto de una situación.
La aleatoriedad y la singularidad se aprecian cuando se realizan tareas creativas como generar arte digital o escribir un poema, pero no tanto para usos legales. Ahora bien, esto podría ser mitigado con técnicas de fine tuning, grounding o controlando la base de conocimiento de la IAG.
A pesar de ello, consideramos que, por ahora, los jueces no deberían utilizar IAG para tareas que implican ejercer un alto grado de discrecionalidad y análisis contextual, como lo es interpretar el Derecho, valorar pruebas y tomar decisiones sustanciales que afecten los derechos fundamentales de una persona. Incluso, creemos que sería riesgoso dejar en manos de una IAG ciertas decisiones procesales que se puedan traducir en una denegación de justicia o en violaciones al debido proceso.
Optimización de tareas
No obstante, estamos convencidos de que la IA puede ayudar a optimizar las tareas administrativas que son de naturaleza mecánica o repetitiva, pero críticas para la administración de justicia, como, por ejemplo, la programación y la transcripción de audiencias, la redacción y gestión documental, la investigación de precedentes y la gestión del conocimiento, el mejoramiento de flujos de trabajo, las notificaciones electrónicas y como apoyo para comprender cuestiones técnicas de un caso. Todo lo cual está permitido por los artículos 95 de la Ley Estatutaria de la Administración de Justicia (L. 270/96) y 2º de la Ley 2213 del 2022.
Para ello, recomendamos que, en esta etapa inicial, se puede empezar por aplicar los denominados The Presidio Recommendations on Responsible Generative AI adoptados recientemente por el World Economic Forum, los cuales proporcionan orientación para navegar este complejo panorama y en cuya redacción participó la profesora Brittan Heller, coautora de esta columna.
Varias de las conclusiones consignadas en este documento enfatizan la importancia de la transparencia y la responsabilidad en el desarrollo y el despliegue de la IA. Con base ello, creemos que sería óptimo incorporar mecanismos de rastreabilidad en sistemas de IAG utilizados por el sistema judicial, permitiendo auditorías sobre cómo se toman las decisiones. Los usuarios deben tener un claro entendimiento de las capacidades y las limitaciones del sistema para prevenir una dependencia excesiva.
Impactos sociales
Aunado a ello, diferentes recomendaciones de este documento abogan por evaluar y abordar los impactos sociales de la integración de la IA. Para ello, estimamos necesario garantizar un acceso equitativo a las capacidades de IAG en todos los sistemas judiciales y asegurar que no perpetúen sesgos o desigualdades estructurales. El alcance público puede aumentar la alfabetización en IA en las comunidades legales. Los programas de formación de la fuerza laboral deberían capacitar a los empleados del poder judicial para trabajar eficazmente con la IA.
De esta manera, el uso responsable de IA puede convertirse en una poderosa herramienta para garantizar los derechos fundamentales al debido proceso, al acceso a la administración de justicia y a un recurso judicial efectivo que concluya con una sentencia que sea oportuna para proteger los derechos fundamentales de las personas.
Creemos que en este caso no se cumplen los requisitos señalados por la propia Corte Constitucional en su jurisprudencia para adoptar una eventual sentencia estructural. Por esta razón, consideramos que el Congreso de la República tendría la competencia de regular los potenciales riesgos de la IA a partir de una conversación democrática con todos los actores interesados y con fundamento en evidencia empíricamente verificable obtenida idealmente en un sandbox regulatorio. La regulación jamás puede estar motivada por temores injustificados que sean fruto de visiones doctrinales desconectadas de la realidad.
Finalmente, nada de lo que hemos dicho aquí debe considerarse como un argumento para reemplazar a los jueces. Nuestra visión está alineada con lo que Ken Goldberg llama “multiplicidad”, donde “sistemas de diversas combinaciones de humanos y máquinas trabajan juntos para innovar y responder rápidamente a problemas complejos”. La justicia es humana y así debe permanecer siempre.
Opina, Comenta