¿Y qué tal si lo hacemos al contrario?
Cristian David Salazar Chavarro
Director de la Oficina de Control Disciplinario de la Alcaldía de Manizales
Hemos leído y escuchado que uno de los riesgos latentes en la utilización de la inteligencia artificial (IA) es la posible aparición de sesgos en la generación de sus resultados, los cuales parten de la existencia de actitudes y visiones discriminatorias que muchas veces pasan inadvertidas. Estos pueden reflejar desigualdades históricas, culturales o sociales presentes en los datos, lo que genera decisiones perjudiciales e injustas.
Además de los riesgos éticos que pueden surgir en el abordaje de casos puntuales, una de las circunstancias que tiende a ser, especialmente, puesta a prueba es la amplificación y perpetuación de desigualdades existentes. Si los algoritmos toman decisiones basadas en datos sesgados, podrían continuar o, incluso, exacerbar patrones discriminatorios en áreas tan sensibles como la justicia.
¿Y qué tal si lo hacemos al contrario? Si partimos de la base de que la IA está alimentada por la data generada por la misma humanidad, ¿por qué no utilizar a la IA para contribuir en la detección de los sesgos humanos?
Gracias a la capacidad de la IA para analizar grandes cantidades de datos y detectar patrones complejos, esta herramienta tiene la posibilidad de identificar sesgos sutiles que podrían pasar inadvertidos para las personas. Por ejemplo, la IA podría alertar a una autoridad judicial o disciplinaria sobre posibles sesgos humanos involucrados en la resolución de un caso específico, encaminando así su abordaje bajo parámetros acordes con la dignidad humana.
Con el fin de observar esta interesante capacidad tecnológica, realizamos un análisis de la Sentencia T-400 del 2022 emitida por la Corte Constitucional, por medio de la cual se emitieron unos lineamientos medulares en la interpretación de casos bajo la “perspectiva de género”.
En este sentido, el alto tribunal, al revisar una conducta relacionada con un presunto acoso sexual laboral en una entidad pública, destacó: (i) a pesar de su coherente narración sobre el acoso sexual, la Procuraduría General de la Nación (PGN) había cuestionado la credibilidad del testimonio de la víctima por detalles irrelevantes. (ii) Requerir pruebas en situaciones privadas fomenta la impunidad y la tolerancia institucional hacia violaciones de los derechos de la mujer. (iii) Se criticaron las opiniones basadas en estereotipos sexistas que minimizan las respuestas de las mujeres ante propuestas sexuales.
Siguiendo un esquema estructurado para la formulación de los prompts (preguntas realizadas a la IA), se le consultó a ChatGPT que, actuando como un profesional del Derecho y bajo una interpretación sustentada en la perspectiva de género (contexto), emitiera su opinión (acción) respecto a si las conclusiones alcanzadas por la PGN en la construcción inferencial realizada dentro del proceso eran racionalmente correctas o presentaban algún tipo de sesgo (tarea). La respuesta debía ser proporcionada en una extensión de máximo 40 palabras por cada ítem (formato).
Y la respuesta obtenida por parte de la IA, claramente, coincidió con el planteamiento esgrimido por la Corte Constitucional en la sentencia analizada, en tanto privilegió una interpretación alejada de prejuicios y estereotipos. La IA concluyó: “(i) afirmar que las mujeres suelen rechazar con firmeza propuestas inapropiadas de hombres ignora las complejas dinámicas de poder, miedo e intimidación que pueden influir en sus respuestas. (ii) Requerir detalles precisos en testimonios es válido, pero, en casos de acoso y violencia de género, el trauma puede distorsionar la coherencia de las narrativas, revictimizando a las personas. (iii) Atribuir responsabilidad basada en testimonios únicos es válido, pero, en contextos de desigualdad de género, la falta de pruebas tangibles o testigos puede perpetuar la impunidad y debilitar la lucha contra el acoso y la violencia de género”.
Es fundamental resaltar que la inclusión del “enfoque diferencial de género” en el contexto del prompt no tiene la intención de ser un factor sugestivo o indicativo de cuál debería ser la respuesta anticipada. De manera análoga a las inferencias realizadas por intérpretes humanos, estos parámetros funcionan como cláusulas hermenéuticas que promueven una interpretación coherente con la dignidad humana. En contraste, al presentar la misma consulta sin contexto, las respuestas resultaron aleatorias y carecieron de una perspectiva que valorara los derechos reconocidos constitucionalmente.
Si bien un uso inadecuado de algoritmos y datos puede perpetuar prejuicios humanos, este análisis muestra cómo la IA puede ser un valioso aliado en la prevención y abordaje de casos que involucran temáticas asociadas a la discriminación por género, origen étnico, edad, estatus socioeconómico, entre otras. Esto promueve que el análisis probatorio sea más inclusivo, y sopese diversas perspectivas.
Opina, Comenta