21 de Noviembre de 2024 /
Actualizado hace 28 minutos | ISSN: 2805-6396

Openx ID [25](728x110)

1/ 5

Noticias gratuitas restantes. Suscríbete y consulta actualidad jurídica al instante.

Especiales / Informe


¿ChatGPT es confiable para los abogados?

22 de Junio de 2023

Reproducir
Nota:
163774
Imagen
¿ChatGPT es confiable para los abogados? (Shuttrestock)

Sara Milena Cruz Abril

Redactora Ámbito Jurídico

Teniendo en cuenta la mora judicial que enfrentan muchos países y, particularmente, Colombia, donde un proceso ordinario puede tardar 10 años en promedio, lo cual implica que las decisiones resulten inocuas por el cambio de las circunstancias que las originan, las herramientas de inteligencia artificial (IA), tales como ChatGPT, resultan ser de gran apoyo dentro de la administración de justicia.

No obstante, aunque estas herramientas están evolucionando rápidamente y se consolidan como un gran avance para la humanidad en todos los campos y profesiones, entre ellas el Derecho, su utilización debe hacerse con mucho cuidado y previa verificación de la validez de la información, pues, inclusive, los generadores de IA más avanzados arrojan errores que pueden generar datos o fuentes falsos.

Tal es el caso de un hombre que demandó a Avianca, luego de sufrir un accidente con un carrito de comidas, en hechos ocurridos en el 2019, en EE UU. Los abogados que lo asesoraron prepararon un documento en el que citaban muchos antecedentes judiciales relacionados con casos similares en otras partes del mundo.

Sin embargo, al analizar el caso, ni el juez ni los abogados de la aerolínea demandada pudieron hallar uno solo de los antecedentes mencionados. El equipo legal utilizó ChatGPT y, al parecer, esta herramienta lanzó nombres al azar de supuestos casos judiciales. Lo anterior llevó a la anulación del caso y el juzgado advirtió que basarse en herramientas no fiables es un peligro para el ejercicio legal.

Caso colombiano

 

En Colombia, un juez de Cartagena resolvió recientemente un caso relacionado con el cobro de una cuota moderadora por parte de una compañía de seguros para autorizar un procedimiento médico a un menor autista, cuya decisión confirmó el fallo de primera instancia y lo favoreció. El juez transcribió las interacciones con ChatGPT que utilizó para motivar su veredicto.

La responsabilidad no solo respecto al manejo de la información que arrojan estos sistemas, sino frente a la privacidad y la protección de datos es otro aspecto fundamental que debe tenerse en cuenta, pues, en el sistema judicial, se procesan grandes cantidades de datos personales, incluyendo datos sensibles, como información médica o financiera de los involucrados.

En ese sentido, la Superintendencia de Industria y Comercio inició una investigación para determinar si ChatGPT cumple con la regulación colombiana relacionada con la protección de datos personales. Entretanto, la entidad recomendó a los usuarios de dicha aplicación consultar la política de privacidad, valorar la conveniencia de aportar datos personales y consultas que se realicen, además de tomar con cautela la información que el servicio suministra.

El uso jurídico

 

German Darío Flórez, presidente de la Asociación Colombiana de Legal Tech, considera que ChatGPT es una de las herramientas más innovadoras que ha traído la IA en los últimos 20 años y, sin duda, está revolucionando todas las profesiones del mundo. En su opinión, puede ser confiable para los abogados, siempre y cuando se use de una manera responsable y, en ese sentido, se verifique toda la información que provenga de cualquier programa de IA, llámese ChatGPT u otros autorizados para ello.

Según Carolina Villadiego, líder del equipo de América Latina de la Comisión Internacional de Juristas, ChatGPT es una herramienta de acceso público y no fue creada para abogados, ni para jueces ni para el mundo específico del Derecho. Por lo tanto, aunque es coherente, se debe tener en cuenta que puede brindar información falsa; verdadera y falsa al mismo tiempo e información verdadera y, por eso, es importante saber cómo funciona y cuál es su alcance. Su uso no es, entonces, para hacer consultas de jurisprudencia, ni de precedentes, ni de formas de tomar decisiones, pues no ha sido creada para ello.

Para José Miguel de la Calle, abogado y socio de Garrigues, ChatGPT es, en esencia, un modelo de lenguaje que se nutre de la información disponible en línea (hasta el 2021). Con base en ella, la plataforma puede generar respuestas claras y, a veces, profundas a las preguntas que se le dirigen.

Sin embargo, asegura que la plataforma está entrenada para reconocer patrones de lenguaje, no para identificar, leer y analizar fuentes. De hecho, en el contexto de la IA se habla de “alucinación” cuando la plataforma se inventa la información. En el ámbito legal esto sucede con bastante regularidad en las citas de jurisprudencia.

Autenticidad de la información

 

ChatGPT no distingue entre la calidad de la información y, con frecuencia, fabrica información falsa. En ese sentido, De la Calle afirma que es absolutamente necesario que los abogados verifiquen la autenticidad de la información que la plataforma emite y, probablemente, es mejor que, por ahora, no se la utilice como fuente primaria para la búsqueda de información o jurisprudencia. No obstante, es importante no antagonizar estas herramientas y, en cambio, entenderlas como un complemento.

En cuanto a la agilidad de procesos, Flórez considera que ChatGPT puede ayudar a un abogado a estructurar los alegatos de un caso, a depurar información e, inclusive, a perfilar las decisiones de un juez, lo cual depende mucho de cuánto el usuario entrene su IA con los prompts, es decir, aprender a utilizar la herramienta para lo que fue creada, lo cual implicaría un profesional con una herramienta muy poderosa. Por el contrario, si lo que hace es copiar y pegar información tal y como se la da ChatGPT, va a ser un fracaso, como ocurrió con el caso citado de EE UU. 

De la Calle destaca un beneficio en particular para la profesión jurídica: la mejora en la escritura. Como ChatGPT es un modelo de lenguaje tiene acceso a millones de textos que le han permitido desarrollar un conocimiento amplio en materia de gramática y redacción. Consultar temas relativos a la estructura y redacción de textos puede agilizar el desarrollo de distintos documentos legales y, en consecuencia, promover la escritura clara, asegura.

Alfabetización digital

 

Villadiego considera fundamental la alfabetización digital, por varias razones. La primera de ellas es que hay muchas herramientas muy diversas de IA, por lo que es importante saber cuáles son, qué hacen y cómo han sido creadas. “Hay algunas que han sido creadas para uso exclusivo de abogados, en Australia, por ejemplo, existe una que resuelve problemas jurídicos concretos, lo cual es muy distinto a ChatGPT, que es de acceso público y ha sido entrenada con diferentes datos que están en la web. Considerando esto, la confiabilidad de la información de una y otra respecto del uso que puede darle un abogado es totalmente distinta”.

Por su parte, De la Calle advierte que la IA se ha convertido en una fuerza innegable en el mundo y lo será cada vez más. Por lo tanto, es imposible que no permee el ámbito legal. Es más, ignorar estos avances le haría un flaco favor al desarrollo de la profesión. En tal sentido, el reto es entender los límites de estas plataformas y promover campañas efectivas dirigidas tanto a los abogados como los administradores de justicia.

Flórez afirma que la alfabetización digital no se debe enfocar solo en los operadores judiciales y los abogados, sino que debe iniciar desde las facultades de Derecho, pues hoy en día no se concibe una facultad que no enseñe herramientas digitales, inclusive programación básica para abogados, es algo que se necesita y que no es el futuro, sino el presente del Derecho.

Múltiples desafíos

 

En opinión de Villadiego, parte de los desafíos que se tienen en el corto plazo es la definición de criterios y principios para usar las herramientas de IA en el mundo jurídico, no solo respecto de los abogados que litigan, sino también de los operadores judiciales, fiscalías y demás, de manera que las responsabilidades éticas varían dependiendo de los roles y de las mismas herramientas como tal. “Así las cosas, es importante saber cuáles son las herramientas, para qué sirven y cuáles son los riesgos en su uso y la garantía del derecho a la privacidad”, concluye.

Por su parte, De la Calle cree que lo más importante es entender que estamos en una etapa temprana de la IA, inmadura, por así decirlo, lo que significa que, al menos por ahora, se debe restringir su uso en áreas delicadas, como la administración de justicia, en donde se toman decisiones que afectan los derechos de las personas. “No obstante, no podemos descartar de forma absoluta el uso como herramienta de apoyo para el ejercicio de la administración de justicia, en donde su aprovechamiento paulatino, verificado y ético puede conllevar, a mediano plazo, grandes beneficios”.

Así las cosas, aunque las herramientas de IA son un gran avance y apoyo en cuanto al aporte de información en muchas áreas, que mejoraría los tiempos en ciertas actividades, sería necesaria su pronta regulación, pues, de lo contrario, se avecinaría una ola de vacíos normativos. Si bien algunos expertos no dudan sobre su efectividad, otros consideran urgente establecer sus límites claramente para evitar la afectación de derechos.

Opina, Comenta

Openx inferior flotante [28](728x90)

Openx entre contenido [29](728x110)

Openx entre contenido [72](300x250)