15 de Agosto de 2024 /
Actualizado hace 1 minuto | ISSN: 2805-6396

Openx ID [25](728x110)

1/ 5

Noticias gratuitas restantes. Suscríbete y consulta actualidad jurídica al instante.

Opinión / Columnista Online

Inteligencia artificial y derecho penal

200386

Helena Hernández
Experta en Derecho Penal
Twitter: @Helena77Hdez

El desarrollo actual de la inteligencia artificial (IA) ha generado debates en torno a quién debe resultar responsable penal o civilmente por el uso de máquinas con alta complejidad informática que pueden realizar tareas humanas. Así mismo, este crecimiento de sistemas informáticos altamente funcionales y de fácil acceso plantea profundos cuestionamientos éticos sobre la necesidad de una regulación integral, preventiva y sancionatoria, que asegure la prevalencia del bienestar de las personas.

¿Cuál es la responsabilidad predicable al fabricante, programador y/o ocupante de un automóvil automatizado? ¿Cómo deberían programarse los algoritmos en situaciones decisivas de peligro? Cuestionamientos de orden sustancial y procesal, intervenidos por innegables dilemas éticos (algunos, dogmáticos), deben ser expuestos cada vez más a modo reflexivo y propositivo. 

De la atribución de responsabilidad penal ante los cursos causales desviados producidos por máquinas

Algunas situaciones de riesgo en relación con el empleo de máquinas inteligentes han dado lugar a importantes debates éticos y jurídicos, relacionados con la atribución de responsabilidad penal. Alemania es un buen ejemplo para acercarse a estos asuntos, especialmente en lo que concierne a vehículos automatizados.

En dicho país, ya se cuenta con una ley de conducción autónoma que regula los requisitos técnicos para la construcción de los vehículos de motor con funciones de conducción autónoma y procedimientos para la emisión de licencia de operación. Incluso, se espera que el uso de la conducción autónoma se extienda en diversas áreas de la movilidad, como el transporte público.

Además, se define el término “supervisor técnico”. Según el Gobierno Federal, este agente debe ser una persona física que pueda desactivar o liberar las maniobras de conducción del vehículo de motor con función de conducción autónoma desde el exterior en casos individuales. Se requiere un seguro de responsabilidad para la supervisión técnica.

Entre las características del equipamiento técnico que deben tener los vehículos automatizados, se prevé que cumpla de manera independiente las normas de tránsito, disponga de un sistema de prevención de accidentes, evite y reduzca daños, y enfrente situaciones de daños alternativos inevitables a diferentes intereses jurídicos, teniendo la protección de los derechos humanos la máxima prioridad. Ahora, con relación al último aspecto, se estipula que, en caso de una amenaza alternativa inevitable a la vida humana, no se debe dar mayor ponderación basada en características personales (sexo, edad, etnia, entre otras).

Con esta regulación se atendió lo dispuesto por la Comisión de Ética sobre la conducción automatizada, en cuanto la prevalencia de la vida y dignidad humana en cualquier situación dilemática (las cuales no pueden ser definidas previamente o, mejor, obedecer a una evaluación ex ante de situaciones complejas).

Ahora, el modelo de responsabilidad penal de la teoría del delito es adecuado para accidentes causados por máquinas. La responsabilidad de los vehículos automatizados puede atribuirse a las personas encargadas de la construcción y programación, a partir de la posición de garante. Es decir, la respuesta a la pregunta de a quién le compete garantizar que el vehículo funcione correctamente o esté correctamente programado, llevará a la atribución de la responsabilidad penal en el caso concreto (como serían los encargados en las fábricas de construcción y los encargados de la programación de las máquinas). Lo anterior también abre la posibilidad de responsabilidad de personas jurídicas en países donde está prevista.

Asimismo, debe considerarse que, si el algoritmo/la máquina debe ser actualizada y entrenada, resultaría otro agente con posibilidad de responder penalmente, pues es quien selecciona la información que le transfiere al algoritmo. En definitiva, se requiere establecer parámetros normativos, que sirvan de base para el riesgo permitido en la actuación de estos agentes.

Finalmente, ¿qué nivel de especificidad debería emplearse para programar la solución de dilemas morales, cuando el vehículo se encuentra en situaciones en las que debe elegir? Al menos tres aspectos deberían guiar la respuesta: (i) la imposibilidad de valorar o cuantificar la vida entre personas, (ii) la exigencia de que el vehículo automatizado disponga de opciones que permitan ser controlados de manera externa por humanos, así como la opción de apagarse y (iii) la consideración de los sesgos que existirían en la selección a priori.

Por lo pronto, comparto tres reflexiones en torno al tema:

- Situaciones como las expuestas entre IA y derecho penal (no solo las atinentes a los vehículos automatizados) también llegarán a Colombia, tarde o temprano. La construcción de consensos y parámetros normativos es una obligación en mora.

- Por las consecuencias y el empleo que tienen en múltiples áreas, debería exigirse la publicidad de los algoritmos, así como su actualización y supervisión. El control de los datos y la información de origen nos llevaría a conocer sus limitaciones y evitar posibles sesgos.

- La IA, en consonancia con la ética, supone la orientación de algoritmos hacia la veracidad y no discriminación. La promoción de IA que vaya en contravía de estándares éticos acordes al modelo constitucional elegido y reproduzcan tendencias discriminatorias e inequitativas debe ser combatida y generar responsabilidades para sus creadores.

Por lo pronto, aprendamos de otras latitudes y generemos reflexiones alrededor de nuestra realidad.

Gracias por leernos. Si le gusta estar informado, suscríbase y acceda a todas nuestras noticias, los datos identificadores y los documentos sin límites.

Paute en Ámbito Jurídico

Siga nuestro canal en WhatsApp.

Opina, Comenta

Openx inferior flotante [28](728x90)

Openx entre contenido [29](728x110)

Openx entre contenido [72](300x250)