Inteligencia artificial y derechos de autor en Perú y el derecho comparado: criterios de autoría, entrenamiento y guía práctica de cumplimiento

Derecho de autor Inteligencia artificial Perú y comparado Cumplimiento y evidencia digital

Inteligencia artificial y derechos de autor en Perú y el derecho comparado: criterios de autoría, entrenamiento y guía práctica de cumplimiento

Artículo académico-didáctico para abogados, docentes, creadores, empresas y responsables de cumplimiento que trabajan con IA generativa. Integra marco peruano, Comunidad Andina, tendencias comparadas (EE. UU., UE, España, Colombia, México y otras jurisdicciones), debates sobre entrenamiento y salidas de modelos, y una hoja de ruta práctica con enfoque probatorio, contractual y de debido procedimiento.

Autor: Michael Lincold Trujillo Pajuelo Idioma: es-PE Actualizado: 2026-02-22

Meta description

Panorama comparado y enfoque peruano sobre IA y derechos de autor: autoría humana, entrenamiento de modelos, outputs, deepfakes, riesgos jurídicos, FAQs y checklist de cumplimiento.

Slug sugerido

inteligencia-artificial-derechos-de-autor-peru-comparado-cumplimiento

Keywords sugeridas

IA y derechos de autor Perú, autoría humana IA, obras asistidas por IA, copyrightability outputs IA, entrenamiento de modelos copyright, Decisión Andina 351, Indecopi IA, deepfakes y propiedad intelectual, compliance IA generativa, evidencia digital.

Índice del artículo

Navegación rápida por secciones (clicable).

  1. 1. Delimitación del problema y conceptos operativos
  2. 2. Marco jurídico peruano de IA y derecho de autor
  3. 3. Autoría humana, originalidad y criterios administrativos
  4. 4. Tratamiento comparado por jurisdicciones
  5. 5. Debates globales: training, outputs y responsabilidad
  6. 6. Matriz de riesgos y tabla comparativa de cumplimiento
  7. 7. Guía práctica para creadores, empresas y equipos legales
  8. 8. Mini-caso didáctico aplicado (Perú)
  9. 9. FAQs, conclusiones operativas y checklist final
1

Delimitación del problema y conceptos operativos

La expansión de la inteligencia artificial generativa cambió la conversación clásica del derecho de autor: ya no se discute únicamente si una obra fue copiada o reproducida sin autorización, sino también cómo se entrenan los modelos, quién asume responsabilidad por los datos usados en ese entrenamiento y qué nivel de intervención humana permite considerar que un resultado (texto, imagen, audio o video) puede ser protegido como obra. Este desplazamiento es jurídicamente relevante porque afecta simultáneamente la propiedad intelectual, la protección de datos, la privacidad, la competencia, la responsabilidad civil y, en ciertos escenarios, el derecho penal (por ejemplo, deepfakes, suplantación de voz o explotación no consentida de imagen).

En términos operativos, conviene distinguir desde el inicio tres planos de análisis, porque mezclar estos planos genera errores frecuentes en informes, demandas, descargos o políticas corporativas. Primer plano: entrenamiento (input/training). Aquí se evalúa si el uso de obras protegidas para entrenar modelos tiene licencia, excepción o fundamento jurídico válido según la jurisdicción aplicable. Segundo plano: salida del modelo (output). Aquí se examina si el resultado reproduce elementos protegidos, si existe similitud sustancial o si el output incorpora un aporte humano creativo suficiente para aspirar a protección. Tercer plano: explotación y distribución. Incluso cuando el output sea lícito, la forma de usarlo puede activar otros riesgos: uso de voz/imagen ajena, publicidad engañosa, infracción marcaria, incumplimiento contractual o supresión de información de gestión de derechos.

El texto base del presente artículo identifica correctamente que la pregunta más consultada en 2025-2026 es: “¿quién es titular de una obra generada por IA?”. Sin embargo, una formulación más útil para práctica profesional y cumplimiento es la siguiente: ¿qué pruebas necesito para sostener una pretensión de titularidad, licitud de uso o ausencia de infracción en un entorno de IA generativa? Este giro es decisivo, porque la respuesta jurídica depende cada vez más de la trazabilidad: prompts, iteraciones, datasets, contratos, licencias, políticas de plataforma, versiones del modelo y evidencias de edición humana.

Definiciones operativas útiles (para docencia, asesoría y compliance)

  • Obra generada con IA: resultado producido por un sistema automatizado con intervención humana mínima o indeterminada (categoría descriptiva; no implica por sí sola protección autoral).
  • Obra asistida por IA: resultado en el que la persona usuaria guía, selecciona, corrige, reorganiza o transforma de manera creativa y demostrable el material generado por IA.
  • Prompt: instrucción textual/visual/sonora dirigida al modelo; usualmente se analiza como idea o instrucción técnica, no necesariamente como obra protegible de forma autónoma.
  • Dataset “limpio”: conjunto de datos respecto del cual la organización puede acreditar origen, permisos, limitaciones de uso y medidas de gobernanza (expresión de compliance, no categoría legal cerrada).

Desde un enfoque didáctico, también es importante evitar dos simplificaciones. La primera: “si lo hizo una IA, entonces no tiene derechos”. Esa afirmación es incompleta. Aunque muchas jurisdicciones exigen autoría humana para el registro de obras, un resultado obtenido con IA puede integrar un proceso creativo más amplio en el que sí exista protección sobre selección, composición, edición, arreglo, adaptación o combinación de elementos. La segunda simplificación: “si está en internet, sirve para entrenar”. Tampoco es correcta. La disponibilidad pública de un contenido no equivale automáticamente a autorización para minería, scraping, entrenamiento comercial o reutilización masiva.

Por ello, el problema jurídico real no es binario, sino graduado. El análisis serio exige diferenciar ideas, expresiones, instrucciones, transformaciones y actos de explotación; identificar la jurisdicción relevante; y diseñar estrategias de cumplimiento y prueba desde el inicio del proyecto. Esto vale tanto para un estudio jurídico que publica piezas para redes como para una startup de diseño, una universidad que usa herramientas generativas en contenidos docentes o una empresa que automatiza materiales de marketing.

Qué hacer al cerrar esta sección

  • Separar en su análisis (o política interna) las capas training / output / explotación.
  • Definir si su objetivo es registro, defensa ante reclamo, cumplimiento preventivo o litigio; la evidencia exigida cambia.
  • Evitar afirmaciones absolutas (“todo es libre” o “todo está prohibido”) sin anclar la conclusión en una jurisdicción y un hecho concreto.
2

Marco jurídico peruano de IA y derecho de autor

En el Perú, el análisis de inteligencia artificial y derechos de autor exige una lectura coordinada de varios niveles normativos. En materia autoral, el marco principal se encuentra en la Decisión Andina 351 (Comunidad Andina, 1993) y en el Decreto Legislativo N.° 822 (Ley sobre el Derecho de Autor, Perú), además de sus modificaciones. Ambos instrumentos preservan la idea de que el derecho de autor se vincula a una creación intelectual con aporte humano y originalidad. En paralelo, el país ha desarrollado un marco general de IA (según el texto base: Ley N.° 31814 y su reglamento por D.S. N.° 115-2025-PCM, extremo cuya versión y vigencia deben corroborarse en fuente oficial), y ha incorporado respuestas penales frente al uso ilícito de IA (texto base: Ley N.° 32314, también sujeta a verificación de versión vigente y alcance exacto).

Esta coexistencia de marcos normativos tiene una consecuencia práctica: no basta con analizar si una obra es registrable; también debe revisarse si la forma de generar, entrenar, difundir o usar el contenido activa obligaciones de transparencia, supervisión humana, responsabilidad penal, protección de datos personales o tutela de imagen y voz. Dicho de otro modo: una organización puede no obtener registro de un output plenamente automatizado, pero aun así incurrir en responsabilidad si explota ese output vulnerando derechos de terceros.

El texto base destaca que la regulación general peruana de IA habría incorporado principios como no discriminación, respeto de derechos fundamentales, transparencia, sostenibilidad y supervisión humana, además de una clasificación por riesgo y obligaciones reforzadas en sistemas de alto riesgo. Aun cuando este artículo se enfoca en propiedad intelectual, ese enfoque de gobernanza es útil porque introduce una lógica compatible con compliance autoral: documentar fuentes de datos, finalidades de uso, impactos y controles humanos. En la práctica, esta documentación puede convertirse en evidencia útil en controversias sobre entrenamiento, outputs o diligencia empresarial.

Advertencia de vigencia normativa (Perú)

Cuando se mencionen Ley N.° 31814, su reglamentación, Ley N.° 32314, disposiciones penales, plazos de adecuación o categorías de riesgo, corresponde verificar la versión vigente en El Peruano/SPIJ y revisar reglamentos, lineamientos o desarrollos sectoriales posteriores. Este artículo conserva la estructura del texto base, pero evita afirmar modificaciones, derogatorias o alcances reglamentarios específicos sin confirmación documental actualizada.

En materia de protección de derechos, también resulta relevante el régimen peruano de datos personales (Ley N.° 29733 y reglamentación vigente), especialmente cuando la IA generativa se utiliza sobre bases que contienen datos personales, imágenes, voces o información identificable. Aunque datos personales y derechos de autor son subsistemas distintos, en la práctica litigiosa suelen cruzarse: por ejemplo, en deepfakes, avatares sintéticos, clonación de voz o uso de fotos para entrenamiento sin trazabilidad contractual clara.

El marco penal mencionado en el texto base (agravación por uso de IA en determinados delitos) refuerza un mensaje institucional importante: el ordenamiento peruano no trata la IA solo como motor de innovación, sino también como vector de riesgos que puede intensificar la lesividad de conductas ya tipificadas. Para quienes diseñan políticas corporativas, esto implica que la gobernanza de IA no puede quedar limitada al área tecnológica; debe involucrar a legal, cumplimiento, seguridad de la información y, en ciertos casos, auditoría interna.

Implicancias inmediatas para práctica jurídica en Perú

  • Registro y autoría: la pretensión de protección sobre outputs de IA debe sustentarse en intervención humana significativa y evidencia de proceso creativo, no solo en la generación automática.
  • Contratación y compliance: si se usan plataformas de IA, contratos con clientes, creativos y proveedores deben precisar titularidad, garantías, límites de uso, indemnidad y deberes de revisión.
  • Debido procedimiento: ante controversias administrativas (por ejemplo, registros, oposiciones o actuaciones sancionadoras), la calidad de la motivación y la evidencia digital resultan determinantes.
  • Gestión de riesgos: deepfakes y réplicas digitales exigen protocolos adicionales de consentimiento, autenticidad y respuesta temprana.

Qué hacer al cerrar esta sección

  • Mapear en su organización qué normas peruanas impactan su uso de IA: autor, datos, consumo/publicidad, penal, competencia y contratos.
  • Crear una “ficha de proyecto de IA” con finalidad, herramienta, tipo de dataset, responsables y ruta de validación legal.
  • Incluir en toda opinión jurídica la fórmula: “verificar versión vigente en El Peruano/SPIJ” cuando se cite normativa peruana susceptible de modificación.
3

Autoría humana, originalidad y criterios administrativos

El punto doctrinal y administrativo más estable, tanto en Perú como en buena parte del entorno comparado, es la exigencia de autoría humana. En la Comunidad Andina, la Decisión 351 atribuye la condición de autor a la persona natural, y la originalidad se conecta con un aporte creativo individual. Desde esta base, el razonamiento jurídico es relativamente claro: si el resultado fue producido de manera autónoma por un sistema sin intervención creativa humana demostrable, la protección autoral del output tiende a ser negada. Esto no impide discutir otros derechos o intereses (por ejemplo, derechos contractuales, secretos empresariales, bases de datos, imagen, marcas), pero sí debilita la pretensión de registro autoral clásico.

El texto base reporta decisiones de la Oficina de Derecho de Autor de Indecopi sobre solicitudes relativas a imágenes generadas en Artbreeder (“Objetos para colorear…” y “Animales para colorear…”), donde se habría reafirmado la necesidad de aporte humano creativo y la idea de que los prompts son, en principio, ideas no protegibles. Dado que en la referencia entregada figura una nota de prensa vinculada a la Resolución N.° 236-2024/CDA-Indecopi, se recomienda para uso litigioso o académico formal verificar el texto íntegro de las resoluciones, órgano exacto y fundamentos completos antes de extraer reglas generales. Aun así, el criterio reportado es consistente con la arquitectura andina: la IA no desplaza la centralidad de la persona humana como autora.

En el derecho comparado, la discusión se ha refinado con la noción de “intervención humana significativa”. La idea no es nueva en técnica jurídica, pero ahora adquiere un rol probatorio central: ¿qué hizo exactamente la persona usuaria más allá de introducir un prompt? Seleccionó entre múltiples resultados, modificó composición, ajustó iluminación, hizo inpainting, recortó, reorganizó, añadió elementos, realizó posproducción, integró material propio, descartó versiones y tomó decisiones expresivas sucesivas. Cuanto más documentado esté ese proceso, mayor posibilidad de sostener la existencia de una obra asistida por IA con contenido creativo humano relevante.

Criterio práctico de análisis de originalidad en obras asistidas por IA (orientativo)

No se trata de preguntar únicamente “¿hubo IA?”, sino “¿dónde está la decisión creativa humana verificable?”. Para fines de evaluación interna o asesoría, puede usarse una matriz de cinco preguntas:

  1. ¿El resultado final coincide esencialmente con una sola salida automática o surge de múltiples iteraciones deliberadas?
  2. ¿Existe edición humana posterior que altere de forma expresiva (no meramente técnica) el contenido?
  3. ¿Se incorporaron materiales propios o seleccionados por criterio creativo (texto, fotografía, composición, estructura)?
  4. ¿La persona puede demostrar su proceso (archivos, capturas, versiones, timestamps)?
  5. ¿La contribución humana es identificable en el resultado final y no solo en la idea general?

Un error recurrente en práctica profesional es confundir titularidad contractual con autoría. Una empresa puede pactar con un proveedor que le cede todos los derechos sobre materiales generados con IA; sin embargo, ese pacto no crea por sí mismo un derecho de autor donde el ordenamiento exige originalidad y autoría humana. El contrato sirve para distribuir riesgos y expectativas entre partes, pero no “corrige” por sí solo un déficit de base jurídica en materia de copyright. Por eso, los contratos deben redactarse con precisión: declarando si el entregable es original propio, obra asistida por IA, salida generada con apoyo de herramientas, y qué verificaciones realizó el proveedor.

También es importante la dimensión administrativa y de motivación. Si una autoridad deniega un registro o cuestiona la protección por ausencia de aporte humano, su resolución debería explicar (i) cuál es el estándar aplicable, (ii) qué hechos probados muestran automatización predominante y (iii) por qué la evidencia presentada no acredita intervención creativa suficiente. Del lado del solicitante, un expediente robusto debe ir más allá del archivo final: conviene adjuntar cronología de trabajo, evidencia de iteraciones, capturas del proceso y descripción técnica de las modificaciones humanas.

Error frecuente en docencia y práctica

Afirmar que “los prompts siempre generan derechos de autor” o que “nunca generan protección” como regla universal. El prompt, en muchos casos, operará como instrucción o idea; en otros, podría integrar una pieza literaria más compleja o un sistema de instrucciones creativas protegido en su expresión. La evaluación exige caso concreto y distinción entre idea y forma de expresión.

Qué hacer al cerrar esta sección

  • En solicitudes, contratos o dictámenes, describir qué aportó la persona, no solo qué herramienta se usó.
  • Guardar evidencia de iteraciones, edición y selección creativa (capturas, versiones, metadatos, historial).
  • Evitar fórmulas contractuales absolutas; use cláusulas que reconozcan incertidumbre regulatoria y asignen riesgos.
4

Tratamiento comparado por jurisdicciones

El panorama comparado muestra una combinación de convergencias y divergencias. La convergencia principal es que muchas jurisdicciones mantienen la exigencia de intervención humana para reconocer protección autoral sobre outputs de IA. La divergencia está en el tratamiento del entrenamiento de modelos, las excepciones aplicables, la intensidad de la fiscalización y la relación con otros subsistemas (por ejemplo, protección de datos, imagen, deepfakes, competencia o telecomunicaciones).

Estados Unidos

En Estados Unidos, la discusión se ha desarrollado simultáneamente por vía judicial, regulatoria y de políticas de copyright. El texto base resume litigios ampliamente comentados en 2025 (como Thomson Reuters v. ROSS, Bartz v. Anthropic y acciones contra desarrolladores de modelos generativos), donde emergen criterios distintos sobre uso justo (fair use) según el tipo de material, forma de obtención de datos y propósito del uso. Para práctica jurídica seria, conviene evitar simplificaciones tipo “EE. UU. ya decidió que el training es fair use” o “EE. UU. lo prohibió”; lo correcto es reconocer que existe un análisis casuístico y que los hechos del entrenamiento (origen legal del corpus, transformación, mercado sustituido, uso comercial, bibliotecas pirateadas) pesan intensamente en la valoración.

Además, la U.S. Copyright Office ha publicado una serie de informes sobre IA (réplicas digitales, copyrightability y entrenamiento generativo) que, aunque no sustituyen la ley ni la jurisprudencia, orientan el debate y sistematizan problemas clave: autoría humana, outputs parcialmente editados, eliminación de información de gestión de derechos, y límites normativos para réplicas de voz e imagen. En este frente, el texto base también alude a proyectos como el NO FAKES Act y la Take It Down Act, que reflejan una preocupación regulatoria por la circulación de réplicas digitales no consentidas y contenidos íntimos generados con IA.

Unión Europea y España

La Unión Europea ofrece un marco más normativo y anticipatorio. El AI Act (Reglamento UE 2024/1689) no resuelve por sí solo todas las preguntas de derecho de autor, pero introduce obligaciones de gobernanza, transparencia y gestión de riesgos que impactan en la forma de diseñar y desplegar sistemas de IA. A ello se suman la Directiva 2019/790 (mercado único digital) y el RGPD, que influyen en minería de datos, licencias y obligaciones de tratamiento. En el campo práctico, guías divulgadas por instituciones y organismos especializados (incluida la OMPI, según el texto base difundido por Instituto Autor) recomiendan documentar participación humana, revisar términos de uso y limitar deepfakes o usos de imagen/voz sin consentimiento.

En España, la discusión se mueve entre la dogmática de autoría humana, la práctica registral y reformas o propuestas enfocadas en honor, imagen y deepfakes. El mensaje para operadores peruanos es útil: aunque el marco español tiene particularidades, confirma una tendencia común: la IA no elimina la necesidad de prueba de autoría humana y de control sobre la explotación de contenidos sintéticos.

Colombia y Comunidad Andina

El texto base destaca el criterio de la Dirección Nacional de Derecho de Autor (DNDA) de Colombia en el sentido de negar registro a obras generadas autónomamente por IA y admitir, en cambio, la posibilidad de protección cuando hay aportes humanos significativos. Esto es especialmente relevante para Perú porque refuerza la coherencia regional con la Decisión Andina 351: el debate no gira en torno a “dar personalidad a la IA”, sino a definir cuándo el resultado expresa un trabajo creativo humano identificable y documentado.

México y otros países de América Latina

México aparece en el texto base como un caso de reforma con foco en propiedad industrial e infracciones potenciadas por IA (marcas, diseños, secretos, contenido engañoso), lo que evidencia una tendencia regional: la regulación de IA no ingresa solo por copyright, sino también por mecanismos administrativos de control, aseguramiento de productos, facultades de autoridad y retos probatorios. Para estudios jurídicos y empresas con operación regional, esto exige coordinación entre áreas de autor, marcas, competencia, publicidad y protección al consumidor.

En otros países latinoamericanos, según reportes especializados, se anticipa un aumento del escrutinio sobre originalidad, participación humana, licenciamiento y actualización normativa. La lección práctica es clara: aunque cada país avance a ritmos distintos, el estándar de diligencia empresarial tenderá a elevarse. Quien espere “certeza total” para recién implementar compliance llegará tarde.

Qué hacer al cerrar esta sección

  • No importar acríticamente soluciones extranjeras; adapte criterios comparados al marco peruano y andino.
  • Para operaciones transfronterizas, diseñe una política de IA con estándar interno alto (documentación + revisión + consentimiento + trazabilidad).
  • Cuando cite litigios extranjeros, precise que el valor persuasivo depende del hecho concreto y de la jurisdicción.
5

Debates globales: training, outputs y responsabilidad

El debate global puede ordenarse en tres preguntas jurídicas mayores. (i) ¿Es lícito entrenar modelos con obras protegidas? (ii) ¿Cuándo un output es infractor o protegible? (iii) ¿Quién responde cuando el sistema se usa para producir resultados ilícitos? Responderlas exige combinar doctrina, litigio, regulación sectorial y teoría de la prueba. El texto base recoge de forma pertinente la clasificación práctica difundida en análisis jurídicos de IA generativa: input liability, output liability y riesgos asociados a remoción de información de gestión de derechos (CMI/DMCA en EE. UU.).

1) Training / input liability

En este eje, el núcleo del problema es el origen y uso del corpus de entrenamiento. El riesgo se incrementa cuando existen indicios de scraping masivo sin licencia, incorporación de materiales pirateados, incumplimiento de términos de servicio o ausencia de documentación de permisos. En cambio, el riesgo puede disminuir (aunque no desaparecer) cuando la organización acredita adquisición legítima, límites de uso, base jurídica o encuadre en excepción legal, y adopta medidas de gobernanza. La lección de cumplimiento es directa: la defensa comienza antes del litigio, en el diseño del dataset y su documentación.

2) Output liability y copyrightability

Una salida puede generar al menos dos tipos de controversia: (a) reclamo de terceros por supuesta reproducción/similitud sustancial respecto de obras previas; y (b) pretensión propia de protección autoral sobre el resultado. Estas dos controversias son distintas y no deben confundirse. Un output puede no ser registrable como obra autoral autónoma y, aun así, no infringir derechos de terceros; del mismo modo, un output podría ser intensamente editado por una persona y aspirar a protección, pero seguir generando riesgos si replica de forma reconocible elementos de obras ajenas o incorpora imagen/voz no autorizada.

3) Responsabilidad por distribución y usos dañosos (deepfakes, réplicas, fraude)

El texto base subraya el aumento de la preocupación por deepfakes y la tendencia a reforzar obligaciones de identificación, retiro o consentimiento. Este fenómeno desborda el derecho de autor estricto: involucra honor, imagen, privacidad, protección de datos, competencia desleal, publicidad y tutela penal. Para organizaciones que usan IA generativa, el error más costoso no suele ser “usar la herramienta”, sino no establecer un protocolo de revisión de contenido sintético antes de publicarlo, licenciarlo o monetizarlo.

Implicancias probatorias y de debido procedimiento (administrativo y judicial)

  • Hecho técnico discutido: qué modelo se usó, en qué versión, con qué parámetros y para qué finalidad.
  • Evidencia de proceso: prompts, versiones, historial de edición, archivos fuente, logs, metadatos y contratos.
  • Nexo de imputación: quién tomó la decisión final de publicar/explotar el contenido y qué controles omitió o aplicó.
  • Motivación de la decisión: la autoridad o juez debe razonar sobre hechos técnicos relevantes, no solo repetir categorías abstractas.

En litigios y procedimientos administrativos, una estructura de análisis muy útil es la matriz hecho → prueba → norma → conclusión. Esta matriz obliga a especificar qué se afirma, con qué evidencia se sostiene, qué norma se invoca y por qué la consecuencia jurídica es razonable. En materia de IA, esta técnica evita dos defectos comunes: (i) decisiones basadas en percepciones sobre “lo que hace la IA” sin peritaje o evidencia suficiente, y (ii) defensas corporativas genéricas que alegan “uso de herramienta estándar” sin demostrar controles concretos.

También conviene advertir que la responsabilidad puede ser compartida o escalonada: desarrollador del sistema, implementador, usuario profesional, plataforma de distribución, estudio creativo, anunciante o cliente final pueden tener roles distintos según el caso. El análisis serio exige diferenciar quién generó el contenido, quién lo editó, quién lo aprobó, quién lo publicó y quién obtuvo beneficio económico directo.

Errores frecuentes que debilitan una defensa en IA generativa

  • No conservar historial de versiones ni evidencias del trabajo humano sobre el output.
  • Usar cláusulas contractuales ambiguas (“el proveedor garantiza licitud total”) sin definir estándares de revisión.
  • Invocar “uso justo” o “excepción” sin análisis de jurisdicción, finalidad y origen del material de entrenamiento.
  • Publicar contenido sintético sin revisión de derechos de imagen, voz, marca o reputación.
  • Descartar metadatos o logs que luego podrían exonerar o atenuar responsabilidad.

Qué hacer al cerrar esta sección

  • Separar en sus documentos internos: riesgo de training, riesgo de output y riesgo de distribución.
  • Crear una plantilla de evaluación previa a publicación con preguntas sobre similitud, licencias, imagen/voz y edición humana.
  • Si hay reclamación, reconstruir la cadena fáctica y técnica antes de emitir cualquier respuesta legal o pública.
6

Matriz de riesgos y tabla comparativa de cumplimiento

Para convertir el análisis jurídico en una herramienta de gestión, es recomendable trabajar con una matriz que combine tipo de uso de IA, riesgo jurídico principal, evidencia mínima exigible y acción de control. Este enfoque es particularmente útil para despachos, áreas legales internas, universidades, medios, agencias creativas y emprendimientos tecnológicos, porque permite priorizar recursos y no tratar todas las actividades con la misma intensidad de control.

Tabla comparativa de jurisdicciones (enfoque práctico)

La tabla resume tendencias generales y no reemplaza la revisión de norma, jurisprudencia, guías o criterios vigentes en cada país. Use esta matriz como punto de partida para diseño de compliance y estrategia legal.

Jurisdicción Regla/tendencia sobre autoría del output Enfoque sobre training / uso de obras para modelos Deepfakes / réplicas y medidas asociadas Qué debe probar una organización (mínimo)
Perú (con marco andino) Predominio de autoría humana y originalidad; outputs autónomos de IA enfrentan barreras para protección autoral. Criterios administrativos reportados de Indecopi exigen aporte humano significativo (verificar resoluciones y fundamentos completos). No existe una regla única cerrada de “training” en copyright comparable al debate estadounidense; el análisis debe coordinar derecho de autor, datos personales, contratos y eventualmente otras áreas regulatorias. Riesgos crecientes por uso de IA en fraudes, suplantación y contenidos ilícitos. El texto base refiere agravantes penales por uso de IA (verificar ley y vigencia exacta en El Peruano/SPIJ). Trazabilidad de proceso creativo humano, licencias/condiciones de uso de herramientas, autorización sobre imagen/voz, y controles internos de revisión antes de publicación.
Comunidad Andina / Colombia Tendencia a negar registro cuando el resultado es autónomo de IA; posibilidad de protección si se acredita intervención humana relevante. Discusión en evolución; alto peso de interpretación administrativa y doctrina sobre creatividad humana y alcance de protección. Interacción con datos, imagen y delitos informáticos según caso. Requiere análisis multisistema. Evidencia de aportes humanos, cronología de trabajo, contratos con clientes/proveedores y documentación de herramientas.
EE. UU. U.S. Copyright Office reafirma autoría humana para copyrightability; evaluación caso por caso de contenido generado/asistido. Litigios activos con análisis de fair use altamente casuístico. Hechos de obtención del corpus y uso comercial son determinantes. Fuerte agenda regulatoria y legislativa sobre réplicas digitales, deepfakes y retiro de contenido, además de litigios privados. Origen legal del corpus, términos/licencias, políticas de uso, evidencia de edición humana y control de outputs antes de difusión.
Unión Europea Autoría humana sigue siendo eje; debate se complementa con normativa digital y de IA. Interacción entre Directiva 2019/790, minería de datos (TDM), licencias y obligaciones del AI Act. Relevancia de transparencia y gobernanza. Mayor énfasis en obligaciones de transparencia, cumplimiento y protección de derechos fundamentales. En algunos Estados, reformas sobre honor/imagen. Base legal, gestión de derechos, trazabilidad de datasets, documentación de participación humana y evaluación de riesgos.
España Práctica registral alineada con autoría humana; rechazo de registros sin aporte creativo humano suficiente según reportes comparados. Se analiza dentro del marco UE y de la práctica de licencias/gestión colectiva. Revisión cuidadosa de términos y uso de contenidos. Agenda pública activa sobre deepfakes, honor e imagen; protección reforzada de menores. Consentimientos, revisión de usos de voz/imagen, evidencia de edición humana y bases contractuales claras.
México Debate autoral en evolución junto con reformas más amplias de PI/industrial y medidas administrativas frente a IA. Atención creciente a pruebas de copia, similitud y explotación de activos intangibles mediante IA. Reformas proyectadas con foco en contenidos engañosos y facultades de autoridad (según el texto base y análisis sectoriales). Prueba de origen del contenido, trazabilidad de diseño, registros de aprobación y protocolos de respuesta a reclamos.
Reino Unido Debate doctrinal activo sobre obras generadas por ordenador bajo CDPA y protección del ecosistema creativo; enfoque en equilibrio regulatorio. Consulta pública y documentos oficiales sobre copyright e IA; discusión sobre acceso a contenidos y protección de creadores. Interacción con data protection, publicidad y regulación sectorial, según uso concreto. Política de IA escrita, control de datasets, revisión de términos y documentación de decisiones humanas.
Japón Debate técnico-jurídico con guías institucionales; reconocimiento de necesidad de lineamientos claros para usos de IA y copyright. La Agencia de Asuntos Culturales ha emitido orientación general sobre IA y copyright; revisar siempre traducciones oficiales y textos vigentes. Dependerá del caso y de la combinación con privacidad, reputación o regulación de plataformas. Documentación de finalidad, tipo de uso, origen de materiales y revisión legal previa a explotación internacional.

Lectura de compliance transfronterizo

Si una organización opera en varias jurisdicciones, conviene adoptar un estándar interno de máxima exigencia: trazabilidad integral + revisión humana + política de licencias + control de imagen/voz + respuesta de incidentes. Luego se ajustan requisitos locales (registro, transparencia, exclusiones, notificaciones o procedimientos administrativos).

Qué hacer al cerrar esta sección

  • Transformar la tabla en un anexo interno con columnas adicionales: “responsable”, “evidencia”, “frecuencia de auditoría”.
  • Definir jurisdicción principal y secundarias para cada proyecto (por lugar de operación, cliente, plataforma o público objetivo).
  • Actualizar trimestralmente la matriz con cambios normativos, guías institucionales y casos relevantes.
7

Guía práctica para creadores, empresas y equipos legales

La mejor forma de reducir contingencias en IA generativa no es “prohibir todo”, sino establecer una arquitectura de uso responsable que permita innovar con control jurídico y probatorio. A continuación se propone una mini-guía de implementación aplicable a estudios jurídicos, universidades, medios, equipos de marketing, agencias creativas y empresas con áreas de innovación.

Paso a paso (implementación mínima viable)

  1. Clasifique el uso de IA. No es lo mismo una lluvia de ideas interna que un contenido monetizado, un curso, una campaña publicitaria o una obra que se quiere registrar. Definir la categoría de uso determina el nivel de revisión jurídica.
  2. Identifique herramienta y condiciones. Documente proveedor, versión del modelo, términos de uso, políticas de entrenamiento/reutilización y restricciones de licencia. Si la plataforma cambia condiciones, registre la fecha y versión aplicable al proyecto.
  3. Diseñe una carpeta probatoria del proyecto. Guarde prompts relevantes, capturas de iteraciones, archivos fuente, historial de edición, decisiones creativas y versiones finales. Si hay trabajo colaborativo, registre quién hizo cada intervención.
  4. Aplique revisión de derechos de terceros. Verifique imagen, voz, marcas, fragmentos de obras, estilo visual demasiado cercano a autores identificables, datos personales y potenciales usos engañosos.
  5. Defina la titularidad y las garantías contractuales. En contratos con clientes o proveedores, delimite si el trabajo es totalmente original, asistido por IA o mixto; incluya obligaciones de revisión, atribución de responsabilidades y mecanismos de corrección.
  6. Implemente un protocolo de respuesta a reclamos. Toda organización que publica con IA debe tener ruta de atención: recepción, preservación de evidencia, revisión legal, retiro temporal si corresponde, respuesta motivada y acciones correctivas.
  7. Capacite y audite. El cumplimiento en IA no se logra con un documento aislado. Requiere entrenamiento a equipos de diseño, marketing, contenidos, docentes y abogados, además de auditorías periódicas de casos reales.

Buenas prácticas de redacción administrativa y contractual (IA + PI)

Para políticas internas y manuales

  • Definir categorías de uso permitido, condicionado y prohibido.
  • Incluir obligaciones de registro de prompts/iteraciones en proyectos sensibles.
  • Exigir revisión legal previa en materiales comerciales o de alto impacto reputacional.
  • Regular uso de imagen, voz y datos personales de terceros.
  • Establecer tiempos de conservación de evidencias y responsables.

Para contratos con clientes/proveedores

  • Precisar si se usarán herramientas de IA y con qué finalidad.
  • Definir titularidad, licencias de uso y límites de reutilización.
  • Incluir garantías razonables (no absolutas) y deber de cooperación probatoria.
  • Regular indemnidad, notificación de reclamos y medidas de mitigación.
  • Exigir entrega de evidencias mínimas de proceso y fuentes usadas.

Error crítico recurrente

Asumir que “si el contenido fue generado por IA, entonces no importa documentar el proceso”. En realidad, la ausencia de documentación suele empeorar la posición jurídica: dificulta acreditar aporte humano, diligencia, origen de materiales y capacidad de respuesta frente a un reclamo.

Qué hacer al cerrar esta sección

  • Implementar una plantilla de expediente de proyecto IA (objetivo, herramienta, fuentes, prompts, revisiones, aprobación y archivo).
  • Actualizar contratos estándar con una cláusula específica de uso de IA y evidencia de proceso.
  • Definir un semáforo de riesgo: verde (uso interno), ámbar (publicación revisada), rojo (imagen/voz de terceros, uso masivo, monetización sensible).
8

Mini-caso didáctico aplicado (Perú): hechos → problema → norma → estrategia → resultado esperado

El siguiente caso es un ejercicio académico-didáctico construido para enseñanza y asesoría inicial. No inventa jurisprudencia ni sustituye la revisión de expedientes reales; su finalidad es mostrar cómo estructurar análisis jurídico y probatorio en un conflicto relacionado con IA generativa y derecho de autor en Perú.

Hechos

Una agencia creativa peruana entrega a una empresa cliente una campaña digital (afiches, banners y piezas para redes) elaborada con IA generativa de imágenes y edición humana posterior. Semanas después, una ilustradora extranjera reclama que varias piezas reproducen composición, paleta y elementos distintivos de una obra suya publicada en línea. Además, la agencia solicita registrar una compilación de piezas como obra gráfica y el cliente exige transferencia total de derechos y garantías por infracción cero.

Problema jurídico

Determinar (i) si el resultado puede aspirar a protección autoral en Perú como obra asistida por IA, (ii) si existe riesgo de infracción respecto de la obra alegada por la ilustradora, y (iii) cómo distribuir responsabilidades entre agencia, operador de IA y cliente conforme a contrato y diligencia desplegada.

Norma aplicable

Decisión Andina 351; Decreto Legislativo N.° 822 y modificatorias (verificar versión vigente); reglas contractuales civiles/comerciales aplicables; eventualmente protección de datos o imagen si hay personas identificables. Si se activa actuación administrativa, revisar criterios y precedentes institucionales pertinentes de Indecopi (verificar órgano, número y vigencia).

Estrategia de análisis (matriz hecho–prueba–norma–conclusión)

  • Hechos técnicos: herramienta usada, versión, prompts, número de iteraciones, edición humana realizada.
  • Pruebas: archivos fuente, historial de capas, capturas, fechas, correos de aprobación, contrato, términos de uso de la plataforma.
  • Comparación: evaluar similitud concreta entre la obra reclamada y las piezas finales (no solo “estilo”).
  • Autoría: identificar decisiones creativas humanas verificables (selección, composición, edición, integración).
  • Contrato: revisar si hubo garantía absoluta, estándar de diligencia o cláusula de corrección/indemnidad.

Resultado esperado (criterio técnico)

Si se acredita intervención humana significativa y proceso de edición creativa, puede sostenerse protección sobre la obra final en lo que corresponda al aporte humano; sin embargo, ello no excluye el análisis de posible infracción frente a la obra de la ilustradora. Si la similitud alcanza elementos expresivos protegidos, la estrategia prioritaria será mitigar daño, retirar/ajustar piezas, negociar o contestar con peritaje comparativo, según evidencia disponible.

Errores a evitar

  • Responder “todo lo hizo la IA” para eludir responsabilidad sin analizar publicación y aprobación humana.
  • Solicitar registro sin describir proceso creativo humano y evidencias de edición.
  • Prometer en contrato “inexistencia total de riesgo” sin controles ni revisión legal previa.
  • Destruir historial de trabajo o no preservar pruebas tras recibir el reclamo.

Qué hacer (cierre del caso)

  • Agencia: preservar evidencia, revisar similitud, corregir piezas y reforzar protocolo interno.
  • Cliente: suspender difusión de las piezas cuestionadas mientras se analiza el reclamo.
  • Abogado/a: estructurar respuesta técnica con matriz de hechos y prueba, sin afirmaciones categóricas no sustentadas.
9

FAQs, conclusiones operativas y checklist final

Preguntas frecuentes (FAQ)

¿Cuándo podría protegerse una obra creada con apoyo de IA en el marco peruano?

La respuesta exige análisis caso por caso, pero la regla orientadora es que la protección autoral se sostiene sobre autoría humana y originalidad. Por ello, una salida generada automáticamente por IA, sin intervención creativa humana identificable, enfrenta serias barreras de protección en el Perú y en el entorno andino. En cambio, una obra asistida por IA puede aspirar a protección en la medida en que la persona demuestre decisiones creativas relevantes (selección, composición, edición, reordenamiento, integración de elementos propios, etc.) y pueda probarlas documentalmente. Para trámites o controversias concretas, conviene revisar Decisión Andina 351, D. Leg. N.° 822 y criterios administrativos aplicables (verificando textos vigentes y resoluciones relevantes).

¿Los prompts tienen derechos de autor por sí mismos?

No existe una respuesta universal. En muchos casos, el prompt operará como una idea, instrucción o comando funcional, y el derecho de autor no protege ideas sino su forma de expresión. Sin embargo, algunos prompts complejos podrían incorporar redacción original, estructura creativa o contenido expresivo suficiente para análisis específico. En la práctica, lo más importante no es afirmar automáticamente que el prompt “sí” o “no” está protegido, sino diferenciar el prompt como instrucción del proceso creativo completo y del resultado final. Para fines de compliance, se recomienda conservar los prompts como evidencia de proceso, aunque su protección autoral autónoma sea discutible.

¿Entrenar un modelo con obras protegidas siempre constituye infracción?

No necesariamente, pero tampoco puede asumirse que siempre está permitido. El análisis depende de la jurisdicción, del origen del corpus, de las licencias, de las excepciones aplicables, de la finalidad (investigación, comercial, experimental), del modo de uso y de la evidencia de gobernanza. En EE. UU., por ejemplo, el debate se ha litigado bajo la lógica de fair use con resultados casuísticos; en la UE, el problema interactúa con minería de datos, licencias y el entorno regulatorio digital. Desde una perspectiva de gestión, la respuesta práctica es: documentar corpus, permisos, restricciones y finalidad, en lugar de confiar en argumentos abstractos ex post.

¿Qué evidencia mínima debería reunir una empresa antes de publicar o vender contenido generado con IA?

Como mínimo: (i) identificación de la herramienta/modelo y versión usada; (ii) historial básico del proceso (prompts, iteraciones relevantes, edición humana); (iii) revisión de derechos de terceros (imagen, voz, marcas, obras, datos personales); (iv) términos de uso/licencias de la plataforma; (v) aprobación interna (legal o responsable designado) para usos sensibles; y (vi) contrato o términos con el cliente que definan titularidad, límites y mecanismo de respuesta ante reclamos. En proyectos de mayor riesgo (campañas masivas, monetización, licenciamiento, productos digitales), conviene añadir peritaje comparativo cuando exista sospecha de similitud sustancial.

Conclusiones operativas

La intersección entre inteligencia artificial y derechos de autor se consolidó como uno de los temas jurídicos más sensibles y consultados en el entorno digital contemporáneo. En el Perú, el análisis no puede reducirse a una sola pregunta de registro. Requiere articular la lógica de autoría humana y originalidad (Decisión Andina 351 y D. Leg. N.° 822) con los desarrollos de gobernanza de IA, protección de datos, tutela de imagen/voz y, cuando corresponda, respuesta penal y administrativa frente a usos lesivos de la tecnología.

El panorama comparado confirma que la tendencia no es una “prohibición total” de la IA ni una “libertad absoluta” para explotar outputs y datasets. El eje real es el control jurídico del proceso: quién decide, con qué datos, bajo qué permisos, con qué intervención humana y con qué evidencia. Esa es la razón por la cual los casos más difíciles no se resuelven con slogans tecnológicos, sino con expedientes técnicos y jurídicos bien construidos.

Para creadores, docentes y empresas, la estrategia más inteligente es adoptar una política de compliance por diseño: clasificación de usos, trazabilidad de proyectos, revisión de derechos de terceros, contratos claros, preservación de evidencia y protocolo de incidentes. Para abogados y operadores jurídicos, la clave es mantener una metodología rigurosa de análisis (hecho–prueba–norma–conclusión), evitando extrapolar decisiones extranjeras sin contexto o afirmar vigencias normativas sin verificación.

En síntesis, la pregunta jurídica decisiva ya no es solo “si se puede usar IA”, sino cómo demostrar que se usó con diligencia, respeto de derechos y control de riesgos. Ahí se define la sostenibilidad legal y reputacional de cualquier proyecto de IA generativa.

Checklist final de cierre (aplicable a organizaciones y comunidades)

  • ¿La organización distingue claramente entre training, output y explotación/distribución?
  • ¿Existe evidencia de intervención humana creativa cuando se pretende protección autoral sobre una obra asistida por IA?
  • ¿Se revisaron términos de uso, licencias y condiciones de la plataforma de IA utilizada?
  • ¿Se verificó la ausencia de uso no consentido de imagen, voz, marcas o datos personales de terceros?
  • ¿Hay carpeta probatoria con prompts, iteraciones, edición y aprobaciones internas?
  • ¿Los contratos con clientes/proveedores regulan uso de IA, titularidad, garantías y respuesta a reclamos?
  • ¿Existe protocolo de retiro/corrección y preservación de evidencia ante reclamos?
  • ¿Se verificó la versión vigente de normas peruanas en El Peruano/SPIJ antes de emitir dictamen o decisión?

Referencias (APA 7) — IA y derechos de autor (Perú y comparado)

Se listan fuentes normativas, institucionales, académicas y de prensa utilizadas para orientar el análisis. Donde no se cuenta con dato completo del órgano o edición, se incluye nota de verificación. En normativa peruana, revisar siempre versión vigente en El Peruano/SPIJ.

  1. AP News. (2025, January 29). AI-assisted works can get copyright with enough human creativity, says U.S. Copyright Office. https://apnews.com/article/363f1c537eb86b624bf5e81bed70d459
  2. AP News. (2025). Judge dismisses authors’ copyright lawsuit against Meta over AI training. https://apnews.com/article/e77968015b94fbbf38234e3178ede578
  3. Atilla, A. (2024). Dealing with AI-generated works: Lessons from the UK’s CDPA section 9(3). Journal of Intellectual Property Law & Practice. https://doi.org/10.1093/jiplp/jpad102
  4. Buick, K. (2025). The genie in the machine: Copyright, creators and generative AI. Journal of Intellectual Property Law & Practice. https://doi.org/10.1093/jiplp/jpae131
  5. Comunidad Andina. (1993). Decisión 351: Régimen Común sobre Derecho de Autor y Derechos Conexos. https://www.comunidadandina.org/StaticFiles/DocOf/DEC351.pdf
  6. Congreso de la República del Perú (Centro de Documentación). (s. f.). Nota de prensa sobre Resolución 236-2024/CDA-Indecopi (carpeta de derecho de autor). https://www2.congreso.gob.pe/Sicr/CenDocBib/cat_uibd.nsf/RepPrensa?CARPETA=%28DERECHO_DE_AUTOR%29&FIN=&OpenForm=
  7. Cooper, Z., Martens, B., Peukert, C., & Stocker, V. (2025). The law and economics of generative AI and copyright: A primer to core challenges for our digital future. Review of Network Economics, 24(3), 161–176. https://doi.org/10.1515/rne-2025-0039
  8. Dermawan, B. S. (2024). The AI race and IP rights: Time to slow down? Journal of Intellectual Property Law & Practice. https://doi.org/10.1093/jiplp/jpae084
  9. European Commission. (s. f.). Regulatory framework proposal on artificial intelligence (AI Act). https://digital-strategy.ec.europa.eu/en/policies/regulatory-framework-ai
  10. European Parliament. (2025). Generative AI and copyright (Study). European Parliamentary Research Service / Policy Department for Citizens’ Rights and Constitutional Affairs. https://www.europarl.europa.eu/RegData/etudes/STUD/2025/766218/IPOL_STU(2025)766218_EN.pdf
  11. European Parliament and Council of the European Union. (2019). Directive (EU) 2019/790 on copyright and related rights in the Digital Single Market. https://eur-lex.europa.eu/eli/dir/2019/790/oj
  12. European Parliament and Council of the European Union. (2024). Regulation (EU) 2024/1689 (Artificial Intelligence Act). https://eur-lex.europa.eu/eli/reg/2024/1689/oj
  13. Geiger, C., & Iaia, V. (2024). The forgotten creator: Towards a statutory remuneration right for machine learning of generative AI. Computer Law & Security Review, 52, 105925. https://doi.org/10.1016/j.clsr.2023.105925
  14. Gobierno del Perú. (s. f.). Ley N.° 31814 (verificar publicación, texto vigente y fecha exacta en El Peruano/SPIJ).
  15. Presidencia del Consejo de Ministros del Perú. (s. f.). Decreto Supremo N.° 115-2025-PCM (según texto base; verificar denominación completa, fecha y vigencia en El Peruano/SPIJ).
  16. Congreso de la República del Perú. (s. f.). Ley N.° 32314 (según texto base; verificar texto, fecha de publicación y alcances en El Peruano/SPIJ).
  17. Gobierno del Reino Unido. (2024). Copyright and Artificial Intelligence (consultation). GOV.UK. https://www.gov.uk/government/consultations/copyright-and-artificial-intelligence
  18. Gobierno del Reino Unido. (2024). Copyright and Artificial Intelligence (consultation document). GOV.UK. https://www.gov.uk/government/consultations/copyright-and-artificial-intelligence/copyright-and-artificial-intelligence
  19. Gobierno del Reino Unido. (2025). The consultation on copyright and artificial intelligence (progress statement/report). https://assets.publishing.service.gov.uk/media/693c70c0c72b0f8ccf33d70b/Copyright_and_artificial_intelligence_DSIT_webfv.pdf
  20. Government of Japan, Agency for Cultural Affairs. (2024, May). General Understanding on AI and Copyright in Japan (Overview). https://www.bunka.go.jp/english/policy/copyright/pdf/94055801_01.pdf
  21. Japanese Law Translation. (s. f.). Copyright Act (Japan) [English translation]. https://www.japaneselawtranslation.go.jp/en/laws/view/3379
  22. Lexology. (2021). Copyright in Peru: FAQs. https://www.lexology.com/library/detail.aspx?g=18b28faa-f875-47ec-94ff-e5417d84eec9
  23. Library of Congress, Law Library. (2023, July 19). China: Generative AI measures finalized. Global Legal Monitor. https://www.loc.gov/item/global-legal-monitor/2023-07-18/china-generative-ai-measures-finalized/
  24. Lim, A. (2025). Authors and AI-generated content: Who gets the credit? Journal of Intellectual Property Law & Practice. https://doi.org/10.1093/jiplp/jpae137
  25. Lucchi, N. (2024). ChatGPT: A case study on copyright challenges for generative artificial intelligence systems. European Journal of Risk Regulation, 15(3), 390–412. https://doi.org/10.1017/err.2023.59
  26. Quintais, J. P. (2025). The new copyright in the new AI Act? A critical take on the EU AI Act’s copyright provisions. Computer Law & Security Review, 58, 106129. https://doi.org/10.1016/j.clsr.2025.106129
  27. Reuters. (2024, December 18). Report on deepfakes: What the Copyright Office found and what comes next in AI regulation. https://www.reuters.com/legal/legalindustry/report-deepfakes-what-copyright-office-found-what-comes-next-ai-regulation-2024-12-18/
  28. Reuters. (2025, April 2). U.S. Copyright Office issues highly anticipated report on copyrightability of AI-generated works. https://www.reuters.com/legal/legalindustry/us-copyright-office-issues-highly-anticipated-report-copyrightability-ai-2025-04-02/
  29. Reuters. (2025, May 12). Trump fires head of U.S. Copyright Office. https://www.reuters.com/legal/government/trump-fires-head-us-copyright-office-2025-05-12/
  30. Tyagi, M. (2025). Protecting the UK’s creative ecosystem in the age of AI. Journal of Intellectual Property Law & Practice. https://doi.org/10.1093/jiplp/jpae140
  31. U.K. Parliament. (1988). Copyright, Designs and Patents Act 1988. https://www.legislation.gov.uk/ukpga/1988/48/contents
  32. U.S. Copyright Office. (2024). Copyright and Artificial Intelligence, Part 1: Digital Replicas. https://www.copyright.gov/ai/Copyright-and-Artificial-Intelligence-Part-1-Digital-Replicas-Report.pdf
  33. U.S. Copyright Office. (2025a). Copyright and Artificial Intelligence, Part 2: Copyrightability. https://www.copyright.gov/ai/Copyright-and-Artificial-Intelligence-Part-2-Copyrightability-Report.pdf
  34. U.S. Copyright Office. (2025b). Copyright and Artificial Intelligence, Part 3: Generative AI Training (pre-publication version). https://www.copyright.gov/ai/Copyright-and-Artificial-Intelligence-Part-3-Generative-AI-Training-Report-Pre-Publication-Version.pdf
  35. U.S. Copyright Office. (s. f.). Copyright and Artificial Intelligence. https://www.copyright.gov/ai/
  36. World Intellectual Property Organization (WIPO). (s. f.). Berne Convention for the Protection of Literary and Artistic Works. https://www.wipo.int/treaties/en/ip/berne/
  37. World Intellectual Property Organization (WIPO). (s. f.). WIPO Copyright Treaty (WCT). https://www.wipo.int/treaties/en/ip/wct/
  38. WIPO Lex. (1993). Decisión N.° 351: Régimen Común sobre Derecho de Autor y Derechos Conexos, Comunidad Andina. https://www.wipo.int/wipolex/es/legislation/details/9445
  39. WIPO Lex. (1996). Copyright Law (Legislative Decree No. 822), Peru. https://www.wipo.int/wipolex/en/legislation/details/3412
  40. WIPO Lex. (2014). Law No. 30276 on amendments to the Copyright Law (Legislative Decree No. 822), Peru. https://www.wipo.int/wipolex/en/legislation/details/15464
  41. WIPO Lex. (2014/updated text). Legislative Decree No. 822, Copyright Law (as amended up to Law No. 30276), Peru. https://www.wipo.int/wipolex/en/legislation/details/18762

Nota de verificación de fuentes peruanas

Para trabajos académicos, informes legales, escritos o materiales de docencia formal, verifique denominación completa, órgano emisor, fecha y versión vigente de leyes, decretos, reglamentos y resoluciones en El Peruano/SPIJ y, en el caso de resoluciones administrativas, en el portal institucional correspondiente. Si un dato falta, use la fórmula: “verificar fuente/órgano y número”.

CTA final: implementación inmediata en tu organización o comunidad

Si eres docente, abogado, creador, responsable de cumplimiento o líder de equipo, el siguiente paso práctico es institucionalizar una política de uso de IA generativa con enfoque de derechos: autoría humana verificable, revisión de riesgos de training/output, trazabilidad de evidencias y protocolos de respuesta ante reclamos.

Explora más artículos jurídicos y guías prácticas

Accede a más contenidos sobre Derecho, innovación jurídica, derecho administrativo, investigación, docencia y herramientas aplicadas a la práctica profesional.

Lee la novela jurídica “El Defensor Incansable”

Descubre una propuesta narrativa que articula vocación jurídica, dilemas y formación ética desde un formato creativo, ideal para conectar Derecho, educación y cultura legal.

Nota SEO discreta: este artículo está optimizado para búsquedas informativas y profesionales sobre “inteligencia artificial y derechos de autor en Perú”, “autoría humana en obras asistidas por IA”, “copyrightability de outputs de IA”, “entrenamiento de modelos y copyright” y “compliance jurídico de IA generativa”.

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *