Webinar: IA responsable: En el Laberinto legal de la creatividad y la privacidad

Webinar del programa “IA para todo México” – 1er ciclo de conferencias

Ver todos los webinars del 1er ciclo de conferencias.

Webinar: IA responsable: En el Laberinto legal de la creatividad y la privacidad – 15 de Mayo 2025 – 3 a 5pm

Temas abordados durante esta sesión:

1. Enfoque y estructura de la charla

  • Tema central — cómo usar IA de forma responsable cuando entran en juego derechos de autor y privacidad de datos.
  • Ruta del contenido — se divide en autoría y copyrightprivacidad, y estrategias/prácticas para reducir riesgos, cerrando con preguntas.

2. IA y derechos de autor: ¿quién es el autor?

  • Dilema de autoría — se plantea si el autor es el desarrolladorel usuario o la propia IA, y por qué no es fácil asignarlo.
  • Contribución “mezclada” — el resultado depende de la combinación de promptmodelo y datos de entrenamiento, lo que complica atribución y propiedad.
  • Valor del prompt — se defiende que un buen prompt implica habilidad y creatividad, y que debería considerarse parte del esfuerzo intelectual.
  • Riesgo corporativo — se enumeran riesgos como reclamos por infracciónexposición legal, y dificultad para proteger creaciones generadas o asistidas por IA.
  • Contexto LATAM — se señala un vacío legal en la región sobre obras creadas con IA, pese a que existen leyes de propiedad intelectual en varios países. Se recomienda el uso de IAs que se encuentran reguladas a nivel internacional como Microsoft 365 Copilot.

3. Estrategias para una IA responsable (en la práctica)

  • Medidas recomendadas — debida diligenciatransparenciacontratos claros y monitoreo constante como base para operar con IA.
  • Gobernanza y estrategia — se introduce la necesidad de una estructura de decisión y controles internos (consejos/comités, políticas y roles).

4. Marcos regulatorios y estándares relevantes

  • Panorama normativo — combinación de regulación general (protección de datos, ciberseguridad, PI, laboral) y guías específicas para IA.
  • Privacidad y datos — se citan marcos como RGPD/CCPA/LGPD y principios clave (minimización, finalidad, exactitud, conservación, integridad/confidencialidad).
  • IA Act (UE) — se resume como un marco que define obligaciones, clasifica por niveles de riesgo, y fija plazos según el riesgo.
  • Ciberseguridad — se mencionan referencias como NISISO 27001 y NIST, vinculándolas con gestión de riesgo para sistemas con IA.
  • RIPD — se listan recomendaciones como privacidad/ética/seguridad “desde el diseño”, calidad de datos y anonimización.

5. Supervisión humana y control de decisiones (“Human in the loop”)

  • Niveles de supervisión — desde revisión antes de implementar, intervención solo en anomalías, hasta auditoría después de implementado.
  • Objetivo — reducir daños por erroressesgos, o decisiones de alto impacto, manteniendo responsabilidad y trazabilidad.

6. Qué esperar del futuro cercano

  • Expectativas regulatorias y sociales — más presión por rendición de cuentastransparencia, control de sesgos/discriminación, y mejores prácticas en privacidad y seguridad.
  • Armonización — tendencia hacia marcos comunes e interoperables entre países.

Bottom line

  • La IA responsable exige gestionar simultáneamente copyright y privacidad, no solo “usar la herramienta”.
  • El mayor riesgo no es técnico sino de cumplimiento, atribución y control (datos, prompts, entrenamiento y uso).
  • La mitigación práctica pasa por gobernanzacontratosdiligencia y monitoreo, apoyados por marcos como RGPD y AI Act.
  • La supervisión humana es un mecanismo clave para sostener responsabilidad y reducir impactos en decisiones sensibles.

Ver PDF