El encuentro, abierto al público, reunió a expertos y expertas internacionales y contó con las palabras de bienvenida del presidente del CNTV y de la PRAI, Mauricio Muñoz.
Miércoles 19 de noviembre de 2025. El día de hoy se llevó a cabo la Jornada Abierta PRAI sobre Inteligencia Artificial, un espacio diseñado para reflexionar sobre el acelerado avance de estas tecnologías en el ámbito de las plataformas digitales. El encuentro contó con la participación de Claudia Flores S., Oficial de Datos e Implementación en la Junta de Supervisión de Meta, y Ricard Martínez M., director de la Cátedra Microsoft–UV de Privacidad y Transformación Digital.
Durante la apertura, el presidente del CNTV y de la PRAI, Mauricio Muñoz, destacó que la inteligencia artificial constituye, al mismo tiempo, una oportunidad y un desafío para los organismos reguladores audiovisuales. Subrayó que su potencial contribuye a fortalecer la fiscalización, pero también abre nuevas vulneraciones que deben ser abordadas con rigor y visión estratégica.
“La inteligencia artificial es una enorme potencialidad desde el punto de vista de fortalecer nuestras capacidades fiscalizadoras, pero al mismo tiempo ciertamente constituye un desafío en términos de la emergencia de nuevas eventuales vulneraciones a los derechos de las audiencias que estamos llamados a proteger”, afirmó.
Asimismo, enfatizó la necesidad de profundizar en la gobernanza de Internet y en las complejidades que hoy tensionan los marcos tradicionales de la libertad de expresión, para lo cual es clave contar con miradas expertas y multidisciplinarias.
“Es sumamente importante poder contar con esta mirada experta para ir profundizando el conocimiento de un ámbito extraordinariamente complejo, no solo por lo nuevo y por las vinculaciones entre cuestiones técnicas, sino también por las complejidades que tiene desde el punto de vista del desarrollo de la libertad de expresión”, señaló.
En su intervención, el académico español Ricard Martínez subrayó el rol estratégico de las universidades como espacios donde es posible anticipar escenarios futuros y transferir ese conocimiento al sector público y privado. Destacó que la libertad creativa propia del ámbito académico permite explorar fenómenos emergentes que no siempre pueden ser abordados desde instituciones sujetas a restricciones operativas o normativas.
“La academia, la universidad, interactúe con la industria, con los reguladores, transfiera conocimientos, porque el enfoque que te permite la academia es un enfoque altamente caracterizado por la libertad creativa. Y eso siempre permite explorar escenarios que a veces no es tan fácil de explorar desde un entorno corporativo o desde un entorno de la administración”, afirmó.
Martínez también advirtió sobre la transformación del ecosistema comunicativo, donde emergen creadores individuales con un impacto comparable al de los medios tradicionales, y cuyo funcionamiento exige marcos regulatorios más flexibles y adaptados a la segmentación propia del entorno digital.
“Han aparecido operadores que tienen una influencia, una capacidad en la generación de contenidos propia de un medio de comunicación convencional… No todos los usuarios operan como un bloguero: muchos están operando casi como una emisora convencional, solo que a través de plataformas de streaming y modos de segmentación propios de Internet”, señaló.
Finalmente, explicó que la regulación europea se basa en la protección de los derechos humanos y en estándares de seguridad aplicados al diseño de productos tecnológicos. Advirtió que la IA puede producir riesgos sistémicos para la democracia, lo que exige monitoreos permanentes y marcos de prevención robustos.
“Los productos basados en tecnología, y la Inteligencia Artificial es uno de ellos, no pueden bajo ningún concepto poner en riesgo los derechos humanos… y pueden generar riesgos sistémicos para un sistema democrático. Esto exige algún tipo de alerta, algún tipo de seguimiento sistémico de los riesgos, porque los riesgos se van a producir”, concluyó.
Por su parte, Claudia Flores, representante del Consejo de Supervisión de Meta, profundizó en las dificultades técnicas de implementar regulaciones en plataformas que procesan millones de contenidos. Señaló que las normas deben ser no solo conceptualmente correctas, sino también ejecutables a gran escala, combinando automatización e instancias humanas de revisión.
“Una cosa es hacer una regulación y otra cosa es que la regulación sea aplicable… Parte de mi trabajo es hacer recomendaciones que tengan sentido y que técnicamente sean implementables a escala cuando es una plataforma que toca a millones de personas en el mundo”, comentó.
Flores destacó además los riesgos crecientes asociados a la IA generativa, que hoy facilita la creación de imágenes y videos altamente realistas, con impactos que trascienden lo digital y repercuten en medios masivos, especialmente en contextos electorales o de alta sensibilidad social.
“Ya no estamos hablando solo de imágenes, sino de videos muy realistas, y lo más peligroso es que nos dimos cuenta de que esto no solo se estaba quedando en plataformas digitales, sino que estaba ya saltando a otros medios de distribución masiva”, afirmó.
Finalmente, insistió en la necesidad de que los reguladores cuenten con datos verificables, metodologías claras y seguimiento continuo para evaluar cambios, ya que muchas plataformas no disponen de información histórica suficiente para auditorías completas.
“Es importante definir expectativas claras y medibles, porque si no, las plataformas pueden contestar algo muy bonito a nivel público, pero que a ti como regulador no te va a servir de nada si no hay evidencia clara de que el cambio se está llevando a cabo”, señaló.




