24 de Noviembre de 2024 /
Actualizado hace 13 horas | ISSN: 2805-6396

Openx ID [25](728x110)

1/ 5

Noticias gratuitas restantes. Suscríbete y consulta actualidad jurídica al instante.

Opinión / Columnista Impreso

Aprender sobre inteligencia artificial

165743

Carolina Villadiego Burbano

Líder del equipo de América Latina

Comisión Internacional de Juristas

Los sistemas de inteligencia artificial (IA) están presentes en herramientas tecnológicas de acceso público que usamos de manera frecuente, como el traductor de Google o los sitios para comprar artículos o películas (como Amazon o Netflix). Así mismo, en los chatbots con los que interactuamos para pedir citas médicas (como Ana María, de EPS Sanitas) y hacer preguntas sobre cualquier tema, incluso legal, como ChatGPT, cuyo uso para decisiones judiciales está siendo revisado por la Corte Constitucional colombiana. Pero también hay sistemas especializados de IA en temas jurídicos, como aquellos que analizan normas y jurisprudencia (como Predictice en Francia), o los que predicen resultados de procesos judiciales frente a jueces específicos (como LexMachina, en EE UU), entre otros.

Por eso, debemos tener claro que interactuamos de manera cotidiana con sistemas de IA, no solo en nuestra vida personal, sino también en la profesional. Es importante que los(las) abogado(as) aprendamos sobre qué sistemas de IA están relacionados con el ejercicio de la profesión jurídica, qué características tienen, cuáles son sus ventajas, cuáles son sus riesgos y cuándo su uso vulnera los derechos humanos.

Por ejemplo, es necesario analizar aquellos sistemas que han sido creados para predecir el riesgo de reincidencia delictiva y que se han utilizado para definir medidas privativas de la libertad. Uno de ellos fue Hart, de Reino Unido, muy criticado, porque incluyó entre los factores de riesgo el origen étnico, generando discriminación, y porque sus predicciones de reincidencia eran sobreestimadas de manera deliberada. También se creó Compas en EE UU, que tuvo sesgos en contra de personas afroamericanas al “predecir” que ellas tenían casi el doble de probabilidades de reincidir que las personas blancas, sin que esto fuera cierto.

Los sesgos en la IA pueden presentarse por muchos factores. En materia de reincidencia, por ejemplo, si los sistemas se nutren con información demográfica y socioeconómica de las personas que están en las cárceles y no se incluye un análisis sociológico de la privación de libertad, pueden hacerse predicciones discriminatorias. En efecto, debido al problema de selectividad del sistema penal en el que se persiguen unos delitos más que otros (más hurtos callejeros que delitos de cuello blanco), es posible que las cárceles tengan más personas de escasos recursos que de otros estratos socioeconómicos, lo que no significa que las personas de ingresos altos no cometan delitos ni que haya mayor riesgo de reincidencia por ser pobre.

Por todo esto, jueces, fiscales y abogados debemos aprender sobre IA, comprender los posibles sesgos en los sistemas de acceso público que utilizamos (como ChatGPT) y propiciar discusiones públicas sobre sistemas cuyo diseño y aplicación pueden generar discriminación o vulneración de derechos humanos. Para ello, podemos comenzar por analizar la Recomendación sobre la ética de la inteligencia artificial de la Unesco y la Carta ética europea.

 

Por último, es necesario regular el uso de la IA en el sistema de justicia y en la profesión jurídica, teniendo como norte el respeto por los derechos humanos y la adopción de principios éticos para su uso. Esto es especialmente importante cuando jueces, abogados y fiscales de manera individual usan sistemas de IA que son de acceso público, y cuando el poder judicial o las fiscalías contratan o crean sistemas de IA para procesar jurisprudencia, predecir resultados o hacer análisis delictivo. También es necesario definir criterios de valoración judicial acerca de la confiabilidad de la información de los sistemas de IA, cuando estos son usados por las partes o los peritos en los procesos.

Opina, Comenta

Openx inferior flotante [28](728x90)

Openx entre contenido [29](728x110)

Openx entre contenido [72](300x250)