Los algoritmos como mecanismos de rastreo y bloqueo automático de las infracciones de derechos de autor en internet
11 de Octubre de 2022
Laura Ángel Jaramillo
Asociada de Brigard Castro
Cada minuto, más de 300 horas de video son publicadas en YouTube. Presumiblemente, la mayoría de este contenido es legal. Sin embargo, los usuarios de YouTube también publican contenido ilegal, desde pornografía infantil y difamaciones, hasta infracciones de propiedad intelectual. Consecuentemente, si bien es necesario monitorear la plataforma para evitar que estos contenidos ilegales estén disponibles en línea, asumir la responsabilidad legal de realizar dicho monitoreo es un desafío, debido a la cantidad de datos involucrados.
El problema de la vigilancia de tanto contenido se complica, porque los proveedores de servicios de internet (PSI) deben cumplir con disposiciones legales. En 1998 y en el 2000, respectivamente, EE UU y la Unión Europea (UE) establecieron esquemas de responsabilidad legal especiales para los PSI (safe harbors).
Las disposiciones
En EE UU, la norma conocida como DCMA (Digital Copyright Millennium Act.) liberó de responsabilidad a los PSI por el contenido generado por los usuarios (CGU), mientras actuaran de forma rápida y expedita en contra de infracciones por derechos de autor al recibir una queja de los titulares de estos[1].
Por su parte, la Directiva de Comercio Electrónico de la UE (Directiva 2000/31/CE del Parlamento Europeo y del Consejo del 8 de junio de 2000, relativa a determinados aspectos jurídicos de los servicios de la sociedad de la información, en particular el comercio electrónico en el mercado interior) impuso un sistema de responsabilidad basado en negligencia[2].Es decir, los PSI solo son responsables por el CGU infractor de derechos si actúan de forma negligente frente a quejas de los titulares de derechos de autor[3].
Sin embargo, la “nueva” directiva de la UE sobre el mercado único digital exige más cargas, a saber, las de hacer “los mayores esfuerzos por garantizar la indisponibilidad de obras y otras prestaciones específicas respecto de las cuales los titulares de derechos les hayan facilitado la información pertinente y necesaria” y “evitar que se carguen en el futuro” (Directiva 2019/790 del Parlamento Europeo y del Consejo de 17 de abril del 2019, sobre los derechos de autor y derechos afines en el mercado único digital y por la que se modifican las directivas 96/9/CE y 2001/29/CE, artículo 17). Si bien ejercer los “mejores esfuerzos” no supone implementar algoritmos de reconocimiento de infracciones, considerando la cantidad de contenido, solo los filtros automáticos pueden realizar las verificaciones requeridas.
Protección e inversiones
En Colombia, la Sentencia SU-420 del 2019 de la Corte Constitucional estableció que los PSI no son responsables por los contenidos publicados por sus usuarios a priori. Según la Corte, establecer esta responsabilidad automática limitaría la difusión de ideas y otorgaría a los PSI la potestad de regular el flujo de información en la red. Así, la responsabilidad recae en quien directamente publique el contenido infractor (los usuarios de los PSI). Entonces, será la autoridad judicial la que, si determina que el contenido atenta contra los derechos fundamentales de una persona, puede ordenar su remoción directamente al PSI. Si bien la Corte se refería a difamaciones o calumnias alojadas por los PSI, en mi opinión, las infracciones de propiedad intelectual seguirían la misma lógica.
Ante el enorme número de quejas de los titulares de los derechos de autor que los PSI tienen que procesar, han invertido en respuestas tecnológicas (inteligencia artificial). Para volver al ejemplo, en el 2007, YouTube creó Content ID[4], una herramienta que monitorea el contenido generado por los usuarios y publicado por ellos mismos (CGU). Content ID ha probado ser eficaz en el monitoreo del CGU y detectar e infracciones de derechos de autor velozmente[5]. Sin embargo, este es solo un ejemplo entre varias herramientas de su tipo cada vez más populares.
Bloqueos
Entonces, ¿cuál es el problema? Parecería ser que el bloqueo automático de contenido infractor de derechos de autor funciona a la perfección a través de algoritmos. Sin embargo, estas herramientas automatizadas cometen errores y desconocen los regímenes de excepciones y limitaciones del derecho de autor (En Colombia, estas excepciones se encuentran en la Ley 23 de 1982, con sus respectivas modificaciones, en especial, las de la Ley 1915 del 2018).
Entre los errores de Content ID, para volver a nuestro ejemplo, están varios muy reconocidos, como la eliminación del discurso político de Michelle Obama, en la Convención Demócrata del 2012, y la eliminación del video de Jonathan Macintosh, una parodia de las películas Twilight y Buffy Vampire Slayer, con una crítica feminista a las películas para jóvenes adultos. El bloqueo automático de estos contenidos resultaría violatorio de la ley, ya que los discursos políticos se encuentran exceptuados del derecho de autor en varios regímenes mundiales (incluyendo Colombia, L. 23/82, art. 35) y porque podría argumentarse que el video de Macintosh cabe en la excepción de parodia (L. 1915/18, art. 16, lit. d)).
Consiguientemente, si los PSI limitan la vigilancia de las infracciones de derechos de autor a una netamente algorítmica, irían en contravía de las disposiciones jurídicas. En Colombia, irían en contra de la sentencia de la Corte Constitucional antes citada, que concluye: (i) la libertad de expresión necesita especial garantía en el entorno digital, al facilitar el acceso sencillo y rápido a un gran número de personas; (ii) los PSI no pueden censurar a priori el contenido ingresado por sus usuarios.
Entonces, como la “nueva Directiva Europea” lo dispone, sería necesario un mecanismo dispuesto por los PSI para resolver controversias sobre infracciones de derechos de autor, que incluya tanto una fase de filtrado automático o algorítmico, como una fase humana de revisión y, si la disputa continúa, acudir a medios de solución de conflictos judiciales o extrajudiciales[6].
Esta revisión humana debería darse cuando (i) el CGU coincide con una obra protegida según el filtro algorítmico, el contenido es bloqueado y el usuario, al ser notificado impugna el carácter infractor del CGU, o cuando (ii) el CGU no coincide con una obra protegida según el filtro algorítmico, pero el titular de los derechos de autor impugna el carácter no infractor del CGU. En este sentido, a pesar de la enorme ayuda que los algoritmos implican para los PSI y para asegurar que se encuentran cumplimiento de sus deberes legales, la implementación de estas herramientas no los exonera de tener procesos que acudan a la vieja y conocida “intervención humana”.
[1] William M. Landes and Douglas Gary Lichtman, Indirect Liability for Copyright Infringement: An Economic Perspective (2003).
[2] Maurice Schellekens, Liability of Internet Intermediaries: A Slippery Slope? (2011).
[3] Jane Ginsburg and Sam Ricketson, Inducers And Authorisers: A Comparison of the US Supreme Court's Grokster Decision and the Australian Federal Court's Kazaa Ruling (2017).
[4] Leron Solomon, Fair Users or Content Abusers: The Automatic Flagging of Non-Infringing Videos by Content ID on YouTube (2015).
[5] Sabine Jacques, Krzysztof Kornel Garstka and John Street, The Impact on Cultural Diversity of Automated Anti-Piracy Systems as Copyright Enforcement Mechanisms: An Empirical Study of YouTube’s Content ID Digital Fingerprinting Technolog (2017).
[6] Ignacio de Castro, Leandro Toscano y Oscar Suarez. Solución de controversias de derechos de autor y contenidos en el entorno digital, Legis. 2022.
Opina, Comenta