¡Advertencia! Este contenido fue generado por inteligencia artificial
Pronto, no bastará con leer el contenido; habrá que leer la advertencia. Porque entre la verdad y la simulación, esa pequeña frase podría ser nuestra única defensa.
14 de Abril de 2025
Cristian David Salazar Chavarro
Profesor de Derecho Disciplinario e Informático
X: @CristianS05
Hace solo unas décadas, la difusión de noticias falsas dependía de teorías conspirativas que requerían un gran esfuerzo persuasivo para captar seguidores. En la actualidad, la inteligencia artificial (IA) ha transformado este fenómeno, eliminando las barreras tradicionales y facilitando la manipulación digital de imágenes y videos en las que cualquier persona puede parecer decir o hacer algo que nunca ocurrió.
La línea entre lo verdadero y lo ficticio se ha vuelto más difusa que nunca. Como lo diría Jean Baudrillard, estamos ante una simulación que puede ser más convincente que la propia verdad.
Cada día, nuestra experiencia en redes se mueve entre desinformación y narrativas manipuladas, donde abrir una noticia impactante, ver un video alterado o escuchar una grabación de una figura pública admitiendo un escándalo puede parecer totalmente auténtico. Todo parece real, pero hay un detalle que lo cambia todo: fue generado por IA.
Así como las leyes 30 de 1986, 1335 de 2009 y 2120 de 2021 han impuesto la obligatoriedad de incluir advertencias en las etiquetas de productos sobre los riesgos del exceso de alcohol, tabaco y azúcares añadidos, algunos gobiernos han comenzado a plantear la necesidad de alertar a los consumidores digitales sobre el contenido generado por IA.
España ha dado el primer paso al aprobar recientemente el anteproyecto de ley de gobernanza de la IA, que impone que cualquier contenido publicado o compartido en internet que haya sido creado o modificado con herramientas de IA debe estar debidamente etiquetado. Estas medidas se encuentran alineadas con las disposiciones del Reglamento Europeo de Inteligencia Artificial (AI Act), vigente desde agosto de 2024.
El objetivo es de esta regulación es otorgar al usuario herramientas para distinguir entre contenido auténtico o manipulado, y sancionar a quienes no acaten las recomendaciones con medidas pecuniarias. Sin embargo, surgen varias preguntas: ¿cómo garantizar que el etiquetado no pueda ser eliminado fácilmente?, ¿quién se encargará de supervisar su cumplimiento?
Desde el punto de vista técnico, una de las principales dificultades es cómo insertar de manera efectiva una marca de identificación en los contenidos generados por IA. Existen dos enfoques principales: (i) logos visibles en imágenes o videos y (ii) marcas de agua en metadatos, implementadas a través de herramientas como SynthID de Google o C2PA.
Sin embargo, ambos métodos presentan vulnerabilidades. Los logos visibles pueden ser fácilmente eliminados con editores gráficos, mientras que las marcas de agua en metadatos, aunque ofrecen mayor seguridad y trazabilidad, su efectividad depende de que las plataformas y usuarios las verifiquen, algo que rara vez ocurre en un entorno digital donde el contenido se consume y difunde a gran velocidad. Después de todo, ¿cuántos usuarios analizan la autenticidad de un archivo antes de compartirlo?
En el contexto jurídico, las dificultades incluyen la falta de uniformidad en las regulaciones internacionales, como también la capacidad real de obligar a las plataformas digitales a restringir el contenido no etiquetado.
Según NewsGuard (sistema de calificación para sitios web de noticias e información), desde mayo de 2023, los sitios que albergan artículos falsos creados por IA han aumentado en más de un 1.000 %, reflejando el rápido crecimiento de este fenómeno y su capacidad para distorsionar la opinión pública.
Ante este panorama, una regulación nacional que establezca la implementación de un distintivo obligatorio permitiría alertar a los usuarios (al igual que las advertencias en los productos físicos) sobre el riesgo de dar credibilidad absoluta a contenido manipulado. Si bien esta medida no erradicaría por completo la desinformación, sí permitiría generar un estándar adicional para que los consumidores puedan distinguir con mayor claridad entre lo real y lo artificial, un aspecto especialmente crítico en el ámbito electoral, donde, a medida que se acercan los comicios, las noticias falsas y deepfakes proliferan en las redes sociales.
Para fines de regulación, proponemos considerar los siguientes tres aspectos esenciales: (i) la adopción de soluciones técnicas robustas que dificulten la eliminación o alteración del distintivo, (ii) un marco legal armonizado a nivel internacional que garantice una aplicación con modelos uniformes y (iii) una normativa flexible y adaptable, que evolucione con el desarrollo tecnológico para evitar su obsolescencia.
Pronto, no bastará con leer el contenido; habrá que leer la advertencia. Porque entre la verdad y la simulación, esa pequeña frase podría ser nuestra única defensa.
Gracias por leernos. Si le gusta estar informado, suscríbase y acceda a todas nuestras noticias, los datos identificadores y los documentos sin límites.
¡Bienvenido a nuestra sección de comentarios!
Para unirte a la conversación, necesitas estar suscrito.
Suscríbete ahora y sé parte de nuestra comunidad de lectores. ¡Tu opinión es importante!