Inteligencia artificial y justicia de género
Natalia Ospina Díaz
MD. Derecho Informático y Nuevas Tecnologías
Con ocasión del mes de la mujer, es de resaltar que la Organización de las Naciones Unidas (ONU) ha venido reportando, en varios de sus informes, una mejoría en la condición de igualdad de las mujeres en nuestro país. La organización señala avances normativos que se han construido desde la institucionalidad como marco de acción, y ha remarcado avances en los indicadores de desarrollo. Sin embargo, también es enfática en que se deben seguir implementando iniciativas para mejorar la brecha de manera sostenida hasta lograr su eliminación total, teniendo en cuenta que existen temas en los que los avances no son tan esperanzadores para las mujeres, como lo son las esferas políticas y económicas[1].
En este sentido, la promoción de la igualdad de género es un medio para lograr la justicia de género, y esta promoción se lidera desde varios frentes, entre ellos la tecnología. Las políticas están trazadas, corresponde entonces a todos los frentes de la sociedad ejecutar las acciones afirmativas que lleven a la realidad las cifras con el fin de impactar el bienestar personal de todas y cada una de las mujeres de nuestro territorio, por lo que vale preguntarse: ¿con qué herramientas contamos?
Dentro de todas las herramientas, interesan para este enfoque las tecnológicas. Estas pueden ir de algo sencillo como un chat de atención o servicio al cliente en una IPS o el sistema de identificación y acceso a servicios financieros, a otras complejas como aplicaciones de Inteligencia artificial (IA), para solucionar trámites y tomar decisiones, con uso de lenguaje natural y coherente, como está sucediendo actualmente con el ChatGPT.
Las herramientas de IA ya están en nuestra vida diaria y toman decisiones automatizadas sobre temas que interesan a nuestros propósitos. Estas herramientas son un instrumento óptimo para la ayuda en la toma de decisiones, juegan y jugarán un papel fundamental en la materialización de los derechos a medida que quienes tomen las decisiones se ayuden más en estas. Lo importante aquí es notar que cuando de derechos se trata, no son simplemente “herramientas tecnológicas”. Cuando hablamos de ejercer derechos como la educación, la salud, la vida, la información, son las vías principales para efectivizar el derecho en cuestión o, en últimas, pueden convertirse en el instrumento que veta su ejercicio y por eso su uso debe ser analizado a fondo.
La toma de decisiones y la IA
Apoyarse en herramientas tecnológicas para la toma de decisiones que afectan directamente los derechos es algo que en otras latitudes ejecutan de tiempo atrás. Por ejemplo, el sistema judicial norteamericano permite que sistemas de IA apoyen el análisis de casos y guíen el discernimiento de los jueces, siendo siempre estos últimos los que toman la decisión.
En Colombia, en ámbitos públicos, hemos visto avances serios como los sistemas utilizados por la Corte Constitucional para la selección de tutelas de salud y casos de utilización “mediática” y, en mi opinión, un tanto irresponsable, de sistemas como Chat GPT, por parte de un juez para la decisión de una tutela en la ciudad de Cartagena[2]. Por su parte, en ámbitos privados ha sido más asidua la interacción con estos sistemas de toma de decisión, sobre todo en las empresas e instituciones prestadoras de salud en las que los chats son una cara de atención al público día a día.
Pero, ¿qué sucede cuando el profesional, médico, juez, notario, profesor, se enfrenta a una toma de decisión y decide encarar la situación con el uso de la IA?, ¿qué sucede cuando la toma de decisión no tiene en cuenta el manejo adecuado de los riesgos?, ¿qué sucede cuando la decisión afecta una población que merece atención dentro del marco de reducción de la discriminación, como lo es la población femenina, sobre todo aquella en situación de vulnerabilidad?
En estos contextos es importante no solo mediatizar, como lo hizo el juez de Cartagena, sino innovar de manera responsable, y para esto debe tenerse en cuenta que los sistemas de IA pueden tomar decisiones más justas, pero Estas no estarán libres de sesgos[3]. Los sesgos están presentes en los datos de los cuales se nutre la IA para su propio aprendizaje, o pueden estar presentes en el algoritmo creado por el ser humano para su funcionamiento, o ser consecuencia de las tendencias de la toma de decisiones.
Sesgo positivo y justicia de género
Los sesgos no son sólo negativos, los sesgos también pueden ser positivos, es decir, algoritmos que por razones de política pública permiten estructurar decisiones que favorecen la población objeto de protección. Lo anterior suena bien, sin embargo, cuando creamos sesgos en los sistemas enfocados en favorecer, podemos crear también una falsa ilusión en donde la falta eventual de control, de trazabilidad de la política pública, de su sostenibilidad en el tiempo y de la mitigación del riesgo puede llevar a la posible configuración de sesgos negativos y discriminatorios hacia la población no protegida inicialmente.
Lo importante es saber que estos sesgos en los sistemas llevan a la distorsión y pueden perpetuar los prejuicios[4], lo que debe ser siempre parte de la discusión cuando decidimos permitir la utilización de herramientas tecnológicas de apoyo a nuestro trabajo y gestión. Sabiendo que los sesgos son inevitables, porque la creación misma de la IA viene viciada por el sesgo de sus creadores, es allí donde entra el manejo de riesgos para poder sacar la máxima utilidad a la utilización de la herramienta en la toma de decisiones que protejan derechos.
Herramientas tecnológicas de IA podrán apoyar el logro del objetivo de la justicia de género, sin embargo, el llamado es a reflexionar en que su uso no puede ser a la ligera, ya que lo que se pretende es lograr una sociedad con igualdad de géneros y oportunidades.
[1]https://colombia.unwomen.org/es/onu-mujeres-en-colombia/las-mujeres-en-colombia#:~:text=Colombia%20ha%20ratificado%20todos%20los,derechos%20humanos%20de%20las%20mujeres.
[2] https://www.eltiempo.com/justicia/servicios/juez-de-cartagena-uso-chatgpt-en-sentencia-de-tutela-739042
[3] https://lab.cccb.org/es/pueden-los-algoritmos-ser-mas-justos-que-las-personas/
[4] Idem
Opina, Comenta