19 de Noviembre de 2024 /
Actualizado hace 9 horas | ISSN: 2805-6396

Openx ID [25](728x110)

1/ 5

Noticias gratuitas restantes. Suscríbete y consulta actualidad jurídica al instante.

Opinión / Etcétera

Legaltech

¿Podrá ChatGPT escribir una tesis o la sentencia Blanco?

159718

Grenfieth de J. Sierra Cadena

Director Especialización en Derecho Administrativo

Universidad del Rosario

En los foros de la justicia y de las escuelas de Derecho, sobre ChatGPT se escucha que es el comienzo de una era en la que se desvanecerá lo original y lo humano. Pero, ¿la inteligencia artificial (IA) remplazará al Derecho como justicia y como proyecto de enseñanza científica?

La respuesta es no. ChatGPT trabaja bajo lo que se conoce hace años como aprendizaje natural del lenguaje; el entrenamiento de una máquina a partir de reglas coherentes del lenguaje de un idioma, tal como las asimilamos cuando aprendemos uno. Es el mismo sistema sobre el cual trabaja el traductor de Google. Su novedad radica en la capacidad y el potencial computacional de articular respuestas coherentes construyendo un contexto mediante textos que vienen de una base de datos que ha tratado previamente de forma estadística y sobre la cual puede escribir la misma respuesta de formas distintas. Pero todos sabemos que hablar un idioma no es solo aprender gramática, sino también comprender su contexto, sus polisemias culturales sobre frases y palabras, y la capacidad de recrear miles de lenguajes bajo contextos distintos, siendo siempre el mismo idioma, pero no el mismo lenguaje.

Si reconocemos que el Derecho representa un doble fenómeno (el del lenguaje y el de la cultura), la IA está lejos de simular la capacidad de crear jueces, escribir sentencias y construir la doctrina y los debates sobre lo que es o debe ser. ¿A qué le debemos temer? No a la tecnología, que es instrumental y neutra en su dimensión fáctica, sino al hombre y a su debilidad moral; a los malos jueces y a los malos profesores. Si la IA da respuestas a casos que lleva un juez, estamos frente a un juez que, ante su pobre formación, debe apelar a una máquina para que proyecte una respuesta que saldrá de bases de datos en las que no se han movilizado las reglas del Derecho, los principios generales, la jurisprudencia ni la doctrina de forma coherente y en contexto; en donde preguntas precisas llevará a respuestas inciertas que tendrán un gran riesgo de ser falsas y violatorias de derechos. Es decir, no es la muerte del Derecho por la IA, es la muerte del Derecho por la ausencia del debido proceso.

La sentencia Blanco del Tribunal de Conflictos de Francia es el ejemplo de lo que no podrá hacer la IA: tomar decisiones en el contexto político y social de la Francia del siglo XIX, en donde el desarrollo del derecho administrativo necesitaba un marco competencial (la jurisdicción administrativa), material (falla del servicio y responsabilidad) y orgánico (Consejo de Estado) para distinguirlo de la jurisdicción ordinaria y así consolidar un derecho de protección del interés general y de los fines del Estado. La sentencia no solo resolvió un problema, tuvo un impacto político en la separación de los poderes en el modelo republicano, es decir, en la cultura jurídica.

Desde el mundo universitario sucede algo similar. Si como docentes ponemos trabajos y esperamos respuestas que puedan ser dadas por la IA, el problema no es la IA, el problema es el profesor que hace preguntas superficiales. Y si la IA compite con nuestra producción científica, el problema no es la ciencia, es que somos pensadores básicos. Pensar no es repetir, saber no es informar y escribir no es redactar.

Esta discusión ha sido abordada con cautela en las escuelas de Derecho en Alemania y en Francia. La IA no puede crear lo que se conoce como “plan de trabajo” o cuerpo científico, en donde el desarrollo de un artículo o de una tesis doctoral comienza, no por recoger el estado del arte presentándolo cronológicamente, sino por pensar modelos alternativos para confrontar el pensamiento en un sistema de hipótesis que guíe la redacción; en donde la construcción de la introducción no cruza por resumir autores bajo títulos de moda, sino por desarrollar un problema bajo un aparato teórico, que no es suficiente describir, sino es necesario criticar y contextualizar.

ChatGPT podrá escribir artículos que hoy son estandarizados y con temas de moda, pero difícilmente podrá escribir la conferencia de Jacques Derrida sobre La forcé de la Loi. Se necesitan cosas que la IA no puede desarrollar y que son humanas: cultura, historia, intuición, vacío, angustia de pensar y de existir.

Citando al pensador Michel Serres, “ante el avance de la tecnología debemos anteponer siempre la cultura”. Lo que nos hace humanos no son los datos, es la experiencia cultural de vivir con nuestras frustraciones y construir allí criterios morales y éticos para arriesgarnos a crear actos revolucionarios de transformación del mundo cada día.

Opina, Comenta

Openx inferior flotante [28](728x90)

Openx entre contenido [29](728x110)

Openx entre contenido [72](300x250)