03 de Diciembre de 2024 /
Actualizado hace 8 minutos | ISSN: 2805-6396

Openx ID [25](728x110)

1/ 5

Noticias gratuitas restantes. Suscríbete y consulta actualidad jurídica al instante.

Opinión / Columnista Impreso

ChatGPT y rol judicial

159892

Carolina Villadiego Burbano

Asesora jurídica para América Latina de la Comisión Internacional de Juristas

En enero se conoció una sentencia de tutela en la que un juez de Cartagena usó ChatGPT para analizar los problemas jurídicos de un caso concreto. Dado que, tanto ChatGPT como sus nuevas versiones y otras herramientas de inteligencia artificial seguirán desarrollándose y estarán disponibles para el público general, es necesario discutir qué elementos deben tener en cuenta los jueces y otros operadores de justicia cuando las utilicen y cuáles deberían ser las líneas rojas para su uso en el ámbito judicial.

ChatGPT es una herramienta que permite que las personas interactúen con un chatbot, es decir, con un chat que tiene un “programa que imita el comportamiento humano” (definición de la Real Academia de la Lengua Española para el término “bot”). Esta herramienta predice respuestas a partir de información que ha sido extraída de distintos lugares de internet con los que el instrumento ha sido entrenado; es un modelo de lenguaje de gran escala (LLM). No distingue entre fuentes de información ni evalúa si la información es fiable. No es un chatbot específicamente diseñado por la Rama Judicial para responder preguntas jurídicas de manera automática ni es un instrumento que ha sido esbozado con visión jurídica como otros chatbots (justiceconnect.org.au, por ejemplo). Por eso, aunque sus respuestas pueden ser acertadas, también pueden ser equivocadas o tener información verdadera y falsa al mismo tiempo. Además, como la herramienta se nutre de la información que está en internet, tiene sesgos, estereotipos y prejuicios, propios de quienes subimos información en la red.

De esta forma, los operadores del sistema de justicia no pueden utilizar ChatGPT como si fuera un oráculo de las normas o de la jurisprudencia aplicable o, peor aún, de los hechos del caso o de los tipos de pruebas presentadas. Los jueces y los demás operadores del sistema de justicia deben conocer cómo funcionan estas herramientas, identificar qué posibles estereotipos tienen y analizar la confiabilidad de la información brindada. Su uso requiere contrastar las respuestas recibidas y que quien emite la decisión mencione que la ha utilizado por transparencia. También requiere que los operadores de justicia no compartan datos sensibles en el chat.

Es claro que ChatGPT y herramientas similares llegaron para quedarse, por lo que no se debe desconocer su existencia ni tiene sentido prohibir su uso. Pero la Rama Judicial sí debe definir los parámetros para utilizarlas, en especial cuando se emplean para analizar casos concretos, pues los jueces deben decidir con imparcialidad y debida motivación. Por eso, la Rama Judicial debe adoptar principios generales para la interacción de los jueces, empleados y otros actores del sistema de justicia con las herramientas de inteligencia artificial, que distingan entre los tipos de herramientas y los usos de cada una de ellas.  Además, la Escuela Judicial y las universidades deben brindar cursos acerca de estas tecnologías dirigidos a jueces, fiscales y abogados.

El país debe dar un amplio debate sobre las luces y sombras de emplear herramientas de inteligencia artificial en el ámbito judicial. La justicia no puede quedarse atrás en los avances derivados de las herramientas de inteligencia artificial, pero debe usarlas con responsabilidad.

Opina, Comenta

Openx inferior flotante [28](728x90)

Openx entre contenido [29](728x110)

Openx entre contenido [72](300x250)