Webinar del programa “IA para todo México” – 1er ciclo de conferencias
Ver todos los webinars del 1er ciclo de conferencias.
Webinar: IA responsable: En el Laberinto legal de la creatividad y la privacidad – 15 de Mayo 2025 – 3 a 5pm
Temas abordados durante esta sesión:
1. Enfoque y estructura de la charla
- Tema central — cómo usar IA de forma responsable cuando entran en juego derechos de autor y privacidad de datos.
- Ruta del contenido — se divide en autoría y copyright, privacidad, y estrategias/prácticas para reducir riesgos, cerrando con preguntas.
2. IA y derechos de autor: ¿quién es el autor?
- Dilema de autoría — se plantea si el autor es el desarrollador, el usuario o la propia IA, y por qué no es fácil asignarlo.
- Contribución “mezclada” — el resultado depende de la combinación de prompt, modelo y datos de entrenamiento, lo que complica atribución y propiedad.
- Valor del prompt — se defiende que un buen prompt implica habilidad y creatividad, y que debería considerarse parte del esfuerzo intelectual.
- Riesgo corporativo — se enumeran riesgos como reclamos por infracción, exposición legal, y dificultad para proteger creaciones generadas o asistidas por IA.
- Contexto LATAM — se señala un vacío legal en la región sobre obras creadas con IA, pese a que existen leyes de propiedad intelectual en varios países. Se recomienda el uso de IAs que se encuentran reguladas a nivel internacional como Microsoft 365 Copilot.
3. Estrategias para una IA responsable (en la práctica)
- Medidas recomendadas — debida diligencia, transparencia, contratos claros y monitoreo constante como base para operar con IA.
- Gobernanza y estrategia — se introduce la necesidad de una estructura de decisión y controles internos (consejos/comités, políticas y roles).
4. Marcos regulatorios y estándares relevantes
- Panorama normativo — combinación de regulación general (protección de datos, ciberseguridad, PI, laboral) y guías específicas para IA.
- Privacidad y datos — se citan marcos como RGPD/CCPA/LGPD y principios clave (minimización, finalidad, exactitud, conservación, integridad/confidencialidad).
- IA Act (UE) — se resume como un marco que define obligaciones, clasifica por niveles de riesgo, y fija plazos según el riesgo.
- Ciberseguridad — se mencionan referencias como NIS, ISO 27001 y NIST, vinculándolas con gestión de riesgo para sistemas con IA.
- RIPD — se listan recomendaciones como privacidad/ética/seguridad “desde el diseño”, calidad de datos y anonimización.
5. Supervisión humana y control de decisiones (“Human in the loop”)
- Niveles de supervisión — desde revisión antes de implementar, intervención solo en anomalías, hasta auditoría después de implementado.
- Objetivo — reducir daños por errores, sesgos, o decisiones de alto impacto, manteniendo responsabilidad y trazabilidad.
6. Qué esperar del futuro cercano
- Expectativas regulatorias y sociales — más presión por rendición de cuentas, transparencia, control de sesgos/discriminación, y mejores prácticas en privacidad y seguridad.
- Armonización — tendencia hacia marcos comunes e interoperables entre países.
Bottom line
- La IA responsable exige gestionar simultáneamente copyright y privacidad, no solo “usar la herramienta”.
- El mayor riesgo no es técnico sino de cumplimiento, atribución y control (datos, prompts, entrenamiento y uso).
- La mitigación práctica pasa por gobernanza, contratos, diligencia y monitoreo, apoyados por marcos como RGPD y AI Act.
- La supervisión humana es un mecanismo clave para sostener responsabilidad y reducir impactos en decisiones sensibles.

