
La irrupción de la inteligencia artificial generativa (IAG), capaz de producir textos, imágenes, música y otros contenidos creativos a partir de vastos conjuntos de datos, ha generado profundas tensiones con el derecho de autor. Estas tensiones se centran en dos ejes principales: el uso de obras protegidas para entrenar modelos de IA (input) y la protección autoral de las creaciones generadas por estos sistemas (output).
En Colombia, regulada por la Ley 23 de 1982 (modificada por decisiones como la 351 de 2013 y la Decisión Andina 351), el derecho de autor exige originalidad y expresión intelectual humana, lo que plantea desafíos ante la autonomía de la IA.
Este artículo, inspirado en análisis especializados, busca enriquecer la discusión con perspectivas de derecho comparado (Unión Europea, Estados Unidos, China y Japón) y doctrina mundial, destacando la necesidad de equilibrar innovación tecnológica con protección a los creadores.
En Colombia, no existe regulación específica sobre IA y derecho de autor hasta diciembre de 2025. El Proyecto de Ley 043 de 2025 (radicado en julio) busca regular la IA de manera ética y responsable, exigiendo respeto a la propiedad intelectual en el desarrollo de sistemas (art. 19 del proyecto): el uso de obras protegidas requiere consentimiento expreso del titular o base jurídica válida. Esto implica que el entrenamiento masivo sin licencia podría constituir infracción.
La Dirección Nacional de Derecho de Autor (DNDA) no ha emitido conceptos vinculantes sobre outputs de IA, pero la jurisprudencia tradicional (Consejo de Estado y Corte Suprema) enfatiza la «huella personal» del autor humano para la originalidad (art. 4 Ley 23/1982).
Derecho Comparado
- Unión Europea: La Directiva (UE) 2019/790 introduce excepciones para minería de textos y datos (TDM, arts. 3 y 4), pero permite a titulares reservar derechos (opt-out machine-readable). El AI Act (2024) impone obligaciones de transparencia y respeto a derechos de autor para modelos de IA general (art. 53). Jurisprudencia reciente (e.g., Tribunal de Múnich en GEMA vs. OpenAI, 2025) considera el entrenamiento como reproducción si implica memorización de obras, excluyendo excepciones comerciales. Esto prioriza protección autoral sobre innovación irrestricta.
- Estados Unidos: Sistema flexible basado en fair use (17 U.S.C. §107). La Copyright Office niega protección a obras puramente generadas por IA (Thaler v. Perlmutter, confirmado en apelación 2025: autoría requiere humanidad). Litigios masivos como New York Times v. OpenAI/Microsoft (2023, en curso 2025) y contra Perplexity alegan infracción masiva en entrenamiento, cuestionando si es «uso transformador». Tribunales evalúan factores como impacto en mercado (factor 4 favorece titulares).
- China: Enfoque pragmático. Tribunales (e.g., Beijing Internet Court, 2023-2025) han protegido imágenes y textos generados por IA si hay intervención humana significativa (prompts detallados y edición), atribuyendo autoría al usuario humano.
- Japón: Posición permisiva: la Oficina de Patentes y el gobierno consideran que derechos de autor no aplican estrictamente a entrenamiento de IA, priorizando innovación (declaraciones 2023-2025).
Doctrinarios internacionales coinciden en la necesidad de intervención humana mínima para autoría:
- Jane C. Ginsburg (Columbia University): Insiste en que obras enteramente generadas por IA no merecen protección autoral, ya que el copyright incentiva creatividad humana. Propone definir umbrales de «intervención significativa» en prompts y edición.
- Pamela Samuelson (UC Berkeley): Analiza fair use en entrenamiento como potencialmente transformador, pero advierte riesgos de sustitución de mercado. Critica extensión irrestricta de excepciones.
- P. Bernt Hugenholtz (Universidad de Ámsterdam): Enfatiza equilibrio europeo: excepciones TDM deben ser limitadas para no erosionar incentivos creativos. Aboga por licencias obligatorias o compensación equitativa.
La OMPI (WIPO) mantiene debates abiertos: consultas globales proponen desde denegación total de protección a outputs autónomos hasta atribución al programador/usuario, sin consenso vinculante.
El derecho comparado revela un espectro: desde rigidez protectora (UE) hasta flexibilidad innovadora (Japón/China). Colombia, con su proyecto de ley alineado al AI Act europeo, parece inclinarse hacia regulación basada en riesgos y respeto obligatorio a PI, evitando vacío como en EE.UU. (litigios costosos). Doctrina mundial urge mecanismos híbridos: opt-out efectivo, transparencia en datos de entrenamiento y posible remuneración colectiva para titulares. Riesgos no resueltos incluyen deepfakes (regulados en proyecto colombiano) y sesgos en outputs.
La IA generativa obliga a replantear fundamentos del derecho de autor: ¿incentivo a creación humana o barrera a progreso tecnológico? En Colombia, el avance del Proyecto de Ley 043/2025 ofrece oportunidad para un marco ético que integre lecciones comparadas, priorizando derechos fundamentales y equidad. Doctrina internacional y experiencias globales sugieren que soluciones híbridas (licencias, transparencia y umbrales humanos) son clave para armonizar innovación con protección creativa. Operadores jurídicos y legisladores deben actuar prontamente para evitar fragmentación y fomentar un ecosistema sostenible.