Los retos técnicos y adaptativos de la inteligencia artificial
Nicolás Parra Herrera
@nicolasparrah
Hace unos días tomé un vuelo de París a Boston. Pese a que el vuelo transcurría durante altas horas de la noche, no podía dormir. ¿Estaba incómodo? No creo. Mi compañero de viaje no me hablaba (afortunadamente) y las sillas eran amplias, con algo de espacio en la parte de abajo para el morral y mis pies. Cuando sentía que el espacio no era suficiente, hacía lo que todos los que nos sentamos en pasillo solemos hacer: estirar las piernas en el corredor como si fuese una extensión de nuestro puesto. Pero ¿por qué no lograba conciliar el sueño? La epifanía: unas semanas antes había leído una noticia, publicada en el New York Times, titulada Esto es lo que pasa cuando un abogado usa ChatGPT. Para la minoría que no ha escuchado de ChatGPT, se trata de un modelo de lenguaje de inteligencia artificial (IA) generativa, desarrollado por OpenAI, que tiene la capacidad de desarrollar conexiones –o “aprender”– a partir de los datos e instrucciones que uno le va suministrando. Una vez hice el intento. Le instruí a escribir una columna sobre educación jurídica con el estilo y tono de Nicolás Parra Herrera para un periódico de abogados en Colombia. El resultado no me gustó, pero creo que, en poco tiempo, reconoceré mi voz en ese espejo cibernético. ChatGPT puede hacer eso y muchas otras cosas como redactar contratos, libretos de teatro, poemas, responder preguntas y un largo etcétera.
A 12.000 metros de altura sin conciliar el sueño recordé, entonces, los detalles del caso reseñado en aquella nota periodística. Un viajero interpuso una demanda contra Avianca en las cortes de Nueva York, debido a las heridas que sufrió en la rodilla como consecuencia del impacto del carrito metálico utilizado por una azafata para transportar la comida durante un vuelo operado por esa aerolínea. No he leído el memorial, pero supongo que pidió alguna indemnización por una lesión lo suficientemente grave. ¡Eso era! Yo no podía dormir, porque imaginaba cómo el carrito de metal aplastaba mi rodilla. Ya no duermo igual desde que leí sobre ese caso. La imagen me persigue. Pero lo importante del caso no es que dañó mi futura experiencia onírica en los aviones, sino lo que hizo el abogado con ChatGPT y el ruido que el caso generó en las personas que piensan sobre cómo la IA afectará a la profesión.
Avianca pidió que no se aceptara el caso, porque había prescrito, y el abogado de la persona injuriada respondió a ese memorial citando un sartal de decisiones que, para sorpresa de la contraparte y el juez, no existían. El abogado que había citado estas decisiones reconoció que había usado ChatGPT para hacer la investigación jurídica. Pidió disculpas y prometió no volver a utilizar ChatGPT sin verificar los casos. “Yo no sabía que ChatGPT podía fabricar fuentes”, le insistió al juez que conocía el caso.
Después, como suele suceder, llegó el ruido. La academia jurídica empezó a prevenir a futuros usuarios de ChatGPT e imaginar posibles regulaciones para el uso de esta herramienta en la profesión. Otra facción sostuvo que este era un problema ético de mayor envergadura, pues reflejaba la ignorancia de las personas que acuden a la IA. La realidad es que pocos usuarios saben lo que ocurre detrás de la cortina de estos algoritmos. A mí, quizás en mi ignorancia actual, no me parece problemático este caso. No entiendo cuál es el alboroto.
Hay una distinción básica en teorías del liderazgo adaptativo entre retos técnicos y retos adaptativos. Los seres humanos vivimos una realidad y aspiramos a otra. Esto ocurre en nuestras vidas profesionales, afectivas y políticas. Para pasar de una realidad a la otra empleamos conocimiento, tiempo y recursos económicos. Si tenemos estas herramientas para resolver un reto, nos enfrentamos a un reto técnico. Si, en cambio, no sabemos cómo llegar a nuestra realidad deseada o si los recursos a nuestra disposición no son suficientes, estamos ante un reto adaptativo. En los retos adaptativos típicamente debemos lidiar con pérdidas como sacrificar valores, creencias y lealtades para acoplarnos a la nueva realidad. En los retos técnicos tenemos las soluciones listas para ser aplicadas.
El caso de Avianca y ChatGPT no me parece problemático. En primer lugar, ilustra la negligencia de abogados que no revisan sus fuentes para verificar su existencia. Esto es un problema independiente de la IA. En segundo lugar, no es una imposibilidad lógica que en un futuro cercano ChatGPT o herramientas similares provean solamente fuentes existentes. En este sentido, el caso presenta un reto técnico del modelo de lenguaje, pues con más recursos se corregirán estas inexactitudes. Por último, y quizás lo más importante, porque casos así nos llevan a hacernos las preguntas equivocadas: en lugar de demonizar a la IA, magnificar el peligro de su uso en la profesión jurídica, o aproximarnos a todo lo relacionado con ella con lentes de innovación o urgencia, podemos indagar: ¿a qué debemos renunciar como abogados al incorporar estas herramientas tecnológicas? O, ¿quiénes ganan y quiénes pierden en la implementación de la IA? La pregunta que tenemos que empezar a hacernos es: ¿a qué parte de nuestra identidad profesional estamos dispuestos a renunciar para adaptarnos a la era de la IA?
Opina, Comenta