¿Y cómo va la regulación de la inteligencia artificial en Colombia, Latinoamérica y el mundo?
12 de Noviembre de 2024
Wilson Rafael Ríos Ruiz
Abogado digital, profesor universitario y decano de la Facultad de Derecho Bogotá de la Fundación Universitaria del Área Andina – Areandina
Desde 1996, venimos estudiando y siguiéndole el rastro a un tema que, en ese entonces, e incluso en este momento, pareciera de ciencia ficción y de algo propio de una película futurista, pero que, sin duda, ha sido objeto de estudio desde hace más de 70 años y que, en el último lustro, ha generado un interés inusitado por los desarrollos actuales de los modelos de inteligencia artificial (IA) generativa, también denominados LLM (large language models), enmarcados por el machine learning (aprendizaje automático), el deep learning (aprendizaje profundo), los sistemas expertos y las redes neurales.
Por ello, es imperioso analizar y comentar sobre la necesidad o no de legislar y regular de manera positiva el tema y de expedir legislaciones que busquen prever y morigerar las consecuencias y riesgos que ello conlleva, pero sin frenar el desarrollo tecnológico. De esta forma, me permito presentar los siguientes comentarios sobre los proyectos de ley que cursan en nuestro país y la conveniencia de regular el tema relacionado con la IA. Así mismo, haremos mención a algunos proyectos similares que se adelantan en otros países de la región y, por supuesto, mencionaremos los más relevantes a nivel mundial, en especial los que adelantan los países más avanzados en la materia. Para terminar, me permito referenciar un par de documentos que elaboramos en su momento y que pueden ser de utilidad en la materia
El pasado 5 de abril, en mi calidad de decano de la Facultad de Derecho Bogotá de la Fundación Universitaria del Área Andina, por invitación que nos cursó el senador David Luna, tuvimos la oportunidad de intervenir en la Comisión Primera del Senado y presentar nuestra postura sobre la pertinencia o no de regular el tema de IA en nuestro país. En esa oportunidad señalamos lo siguiente:
“Sí debe existir una regulación, pero debe ser general, marco, incluso se debe pensar en la autorregulación que hemos visto en el sector privado y la academia. Ya varias instituciones de educación superior (IES) han regulado a su interior el tema. Por ejemplo, en la Universidad Área Andina hemos incluido un pentálogo de uso responsable y ético sobre el uso de la IA. Y quiero enfatizar en lo ético porque es crucial por todas las implicaciones que tiene esta tecnología, la regulación debe ser supra porque la tecnología avanza y la regulación se quedaría obsoleta si es específica”.
Recomendación:
En síntesis, la regulación que se piense para un país en vía de desarrollo como Colombia debe ser general, marco y con una visión supra, que no regule todos los asuntos pertinentes en detalle y que no frene el desarrollo tecnológico o se convierta en una barrera al mismo. Por ello, el proceso que se adelante por los legisladores colombianos debe ser muy general, y atendiendo el principio de neutralidad tecnológica, y no en detalle, para evitar que se desactualice y sea obsoleto rápidamente debido al avance vertiginoso de la materia.
Por ello, recomendamos que el modelo de regulación nacional se base en una política pública sobre IA, y que el marco jurídico sea fundamentado en principios generales. El modelo europeo puede ser un punto de referencia, pero el reto está en adecuarlo de manera precisa a nuestro entorno, como ya se ha hecho en otros temas tecnológicos, como cuando se utilizaron las normas tipo de la Uncitral sobre comercio electrónico y firmas digitales, lo que a la postre derivó en la Ley 527 de 1999.
Comoquiera que la Unión Europea con su denominada AI Act., es la región que ha tomado la delantera y ha presentado y tiene un marco legal más robusto, adecuado y cercano a nuestro sistema jurídico, en Colombia debemos seguir esa misma línea adoptada en el Viejo Continente.
Proyectos de ley
Desde el año 2023, en el país se han presentado algunas iniciativas parlamentarias, tanto en Senado como en Cámara. Sobre este particular, es muy importante articular estos proyectos dispersos y unificar los mismos para tener una sola iniciativa de regulación que esté en armonía con las necesidades del país. Para inmediata referencia de los lectores, nos permitimos señalar y destacar los mismos.
1. Proyecto de Ley 059/23, que busca regular los lineamientos de política pública para el desarrollo, uso e implementación de lA IA. Pasó el primer debate y se encuentra pendiente de rendir ponencia para el segundo debate en el Senado de la República.
2. Proyecto de Ley 130/23, por el cual se armoniza la IA con el derecho al trabajo. Actualmente, se encuentra pendiente de rendir ponencia en primer debate en el Senado de la República.
3. Proyecto de Ley 91/23, que busca establecer el deber de información para el uso responsable de la IA en Colombia. Actualmente, se encuentra pendiente de rendir ponencia en primer debate en el Senado de la República.
4. Proyecto de Ley Estatutaria 200 de 2023, que aspira ajustar a estándares de respeto y garantía de los derechos humanos a la IA, regular y promover su desarrollo y establecer límites frente a su uso, implementación y evaluación por parte de personas naturales y jurídicas. Está para ponencia en primer debate en la Comisión Primera de la Cámara de Representantes.
Adicionalmente, podemos reseñar el Proyecto de Ley Senado No 225 de 2024, por medio del cual se modifica y establece un agravante al artículo 296 del Código Penal. Este proyecto se radicó en la Secretaría General del Senado el 21 de febrero de 2024. La ponencia presentada para primer debate fue publicada en la Gaceta 463/2023. Estado: Aprobado en primer debate. La ponencia presentada para segundo debate fue publicada el en la Gaceta 111/2024.
Por ser lo más reciente en Colombia, debemos mencionar el Proyecto de ley Estatutaria No 154 del 8 de octubre de 2024 Cámara, por medio del cual se define y regula la IA, se ajusta a estándares de derechos humanos, se establecen límites frente al desarrollo, uso e implementación y se modifica la Ley 1581 de 2012 y se dictan otras disposiciones. Este proyecto busca unificar varios aspectos que se deben contemplar al regular la materia.
Grados y medición de los riesgos en el uso de la IA
Como lo hemos mencionado en ocasiones y escritos anteriores, el denominado AI Act. de la Unión Europea, en aras de garantizar una adecuada protección de los derechos humanos y garantías civiles, evitar la discriminación y sesgos ha optado por catalogar y medir los riesgos en el uso de la IA, de modo que no se frene el desarrollo tecnológico y se puedan usar estas herramientas de AI, pero buscando un equilibrio, ha clasificado los riesgos y ha establecido una serie de limitaciones y obligaciones que buscan morigerar y crear un justo medio en la materia. Los riesgos que establece la regulación europea pueden sintetizarse de la siguiente manera:
1. Riesgo inaceptable o prohibido, como la manipulación de las opiniones y decisiones de las personas; la explotación de los niños, personas con discapacidad mental y personas vulnerables y que resulte en algún daño físico o sicológico; la clasificación social con base en la conducta de las personas, y la identificación en tiempo real de datos biométricos, con algunas excepciones. El uso de estos sistemas está prohibido de plano.
2. Riesgo alto, que incluye el uso de IA para la identificación biométrica, el manejo de infraestructura crítica, la educación, la contratación laboral, el acceso a servicios públicos y privados esenciales, la aplicación de la ley, los servicios migratorios, la administración de justicia y de la democracia. Al ser considerados de alto riesgo, estos deben cumplir, en resumen, dos grandes obligaciones: una evaluación de conformidad previo a entrar al mercado, lo que implicaría la adopción de estándares, la adopción de políticas de gobernanza de datos, ética y de privacidad, requisitos de ciberseguridad, etc. También, deberá haber un plan periódico de seguimiento poscomercialización para asegurar el cumplimiento.
3. Riesgo bajo, como la IA que interactúa con humanos, detecta las emociones, determina categorías con base a información biométrica y genera contenido manipulador. Las empresas que usan, desarrollan y comercializan estas tecnologías deben cumplir algunas obligaciones de transparencia con el público, como poner marcas de agua a los videos deep fake.
4. Riesgo mínimo, que son sistemas de IA que, no estando en las causales anteriores, no están restringidos ni derivan en obligaciones específicas.
Regulación en Latinoamérica y a nivel mundial
En Latinoamérica, adicional a Colombia, algunos países como Argentina, Brasil, Chile, Costa Rica, Ecuador, México, Panamá, Perú y Uruguay adelantan proyectos de regulación sobre la materia.
Por supuesto, EE UU, Canadá, la Unión Europea, China y Reino Unidos hacen lo propio con gran dimensión en su marco regulatorio sobre la AI.,
Finalmente, y para inmediata referencia, me permito compartir el siguiente artículo de mi autoría sobre Regulación legal de la robótica y la inteligencia artificial en Europa es una realidad, texto publicado en este medio y que recoge la propuesta del Parlamento Europeo a la Comisión, sobre los derechos y deberes de los robots–personas y/o ciudadanos electrónicos.
Así mismo de mi canal de Youtube pueden acceder a la charla Aspectos jurídicos y legales de la robótica y la inteligencia artificial.
Gracias por leernos. Si le gusta estar informado, suscríbase y acceda a todas nuestras noticias, con los datos identificadores y documentos sin límite.
Paute en Ámbito Jurídico.
Siga nuestro canal en WhatsApp
Opina, Comenta