Título del Capítulo: «Inteligencia artificial y verificación en medios públicos: El caso de RTVE y el proyecto IVERES»
Autoría: Esteban Mayoral-Campos; Pere Vila-Fumàs
Cómo citar este Capítulo: Mayoral-Campos, E.; Vila-Fumàs, P. (2025): «Inteligencia artificial y verificación en medios públicos: El caso de RTVE y el proyecto IVERES». En Fieiras-Ceide, C.; Túñez-López, M.; Maroto-González, I. (eds.), Bots, Trols y PSM. Cómo la IA va a cambiar los medios públicos. Salamanca: Comunicación Social Ediciones y Publicaciones.
ISBN: 978-84-10176-14-0
d.o.i.: https://doi.org/10.52495/c3.emcs.40.p116
Capítulo 3. Inteligencia artificial y verificación en medios públicos: El caso de RTVE y el proyecto IVERES
Esteban Mayoral-Campos
Nota previa aclaratoria:
1. Sobre la redacción y la utilización de IA en este capítulo: La evolución de las herramientas digitales de asistencia a la escritura, desde los correctores ortográficos hasta las actuales inteligencias artificiales, permite hoy a los autores optimizar la claridad, coherencia y homogeneidad de sus textos. En este capítulo, la autoría intelectual y el contenido pertenecen íntegramente a Pere Vila Fumàs y Esteban Mayoral Campos, habiéndose empleado la IA como un asistente avanzado para pulir y mejorar la redacción del manuscrito original. Por consiguiente, los autores asumen la total responsabilidad sobre la versión final del texto, sus argumentos y afirmaciones.
2. Sobre el contenido y referencias: Adicionalmente a las citas que constan en el documento, la web del Proyecto IVERES, la web de RTVE de manera directa, y la web de EBU de manera más general, incorporan la información complementaria sobre los aspectos tratados en este capítulo.
La expansión de contenidos manipulados y la circulación masiva de información no verificada en los entornos digitales contemporáneos representan una amenaza creciente para la estabilidad democrática y la cohesión social. La desinformación, amplificada por la inmediatez y viralidad de las plataformas digitales, debilita la confianza en las instituciones y distorsiona los marcos colectivos de interpretación de la realidad. En este contexto, diversos estudios han descrito el fenómeno como una auténtica «pandemia informativa», lo que revela la necesidad de respuestas integrales desde el ámbito político, tecnológico y mediático.
Los medios de comunicación públicos ocupan una posición estratégica frente a esta problemática, no solo por su vocación de servicio, sino por su compromiso institucional con la imparcialidad, el acceso equitativo a la información y la defensa del interés general (EBU-MIS_PSM-Contribution-to-Democracy). Estas características los convierten en agentes clave en la contención de la desinformación y en la promoción de entornos informativos fiables. Sin embargo, los modelos de verificación tradicionales —basados en la revisión manual de datos, la validación de fuentes y el chequeo posterior a la difusión— resultan insuficientes ante la escala y velocidad del ecosistema digital actual.
Ante este escenario, la incorporación de tecnologías avanzadas como la inteligencia artificial (IA) se ha posicionado como una respuesta viable y necesaria. La IA permite identificar patrones de desinformación, automatizar tareas de chequeo y detectar alteraciones en contenidos multiformato —texto, imagen, audio y vídeo— mediante sistemas de análisis masivo en tiempo real. Esta integración no solo mejora la eficiencia operativa, sino que también refuerza la capacidad de anticipación de los medios públicos frente a flujos informativos potencialmente dañinos.
En este capítulo se examina la consolidación de la inteligencia artificial como herramienta estratégica para la verificación informativa desde el servicio público. A través del análisis del proyecto IVERES (https://iveres.es/que-es-iveres/) —iniciativa liderada por RTVE en colaboración con universidades españolas— se abordarán las oportunidades, tensiones y aprendizajes que surgen de su implementación. Este estudio permite comprender cómo la IA puede contribuir al fortalecimiento de los mecanismos de verificación sin renunciar a los principios editoriales y democráticos que definen a los medios de titularidad pública.
La desinformación se ha consolidado como uno de los principales retos que enfrentan los medios de comunicación públicos en el ecosistema digital contemporáneo. La velocidad y el volumen con los que circulan contenidos falsos en plataformas digitales superan con frecuencia la capacidad de respuesta de estas instituciones, poniendo en entredicho la eficacia de los métodos tradicionales de verificación. Este escenario plantea la necesidad de una transformación en las estrategias de fact-checking, orientada a mejorar la agilidad y la cobertura de los mecanismos existentes.
Históricamente, los medios han empleado estrategias de verificación basadas en la consulta de fuentes oficiales, el análisis documental, las entrevistas con especialistas y la contrastación entre testimonios diversos. Estas metodologías, si bien han demostrado su efectividad, implican un consumo elevado de tiempo y recursos. Con la expansión digital, se han incorporado herramientas complementarias como bases de datos especializadas, buscadores avanzados y plataformas de referencia que facilitan el acceso a información verificada. No obstante, el núcleo del proceso sigue descansando en gran medida sobre la intervención humana, lo que plantea limitaciones estructurales en entornos de alta demanda informativa.
A pesar de su solidez metodológica, las técnicas tradicionales de verificación presentan una serie de limitaciones que dificultan su eficacia frente a la desinformación contemporánea:
La proliferación de contenidos falsos y manipulados ha impulsado la incorporación progresiva de tecnologías basadas en inteligencia artificial (IA) en los procesos de verificación informativa desarrollados por los medios públicos.
Debe tenerse en cuenta en este sentido que existe una profunda asimetría entre la producción de desinformación y su desmentido. La creación y difusión de un bulo es rápida, barata y escalable, mientras que su verificación y refutación es un proceso lento, costoso y que requiere un alto estándar de rigor:
La capacidad de estas herramientas para procesar grandes volúmenes de datos de manera automatizada ha demostrado ser especialmente valiosa para detectar patrones de desinformación, anticipar su impacto potencial y prevenir su difusión masiva a través de plataformas digitales cada vez más rápidas, opacas y descentralizadas.
Las estrategias de manipulación de contenido visual y sonoro han evolucionado con rapidez, dando lugar a sofisticadas técnicas de alteración como los deepfakes. Este tipo de contenidos —capaces de imitar rostros, voces y gestos de manera verosímil— plantea un reto considerable para los mecanismos tradicionales de verificación. Ante este fenómeno, se han desarrollado algoritmos específicos que permiten analizar elementos visuales como las inconsistencias en rasgos faciales, la iluminación anómala o la falta de sincronización labial, así como identificar irregularidades acústicas en los archivos de audio mediante el análisis de entonación, frecuencia y ritmo.
En este ámbito, herramientas como Sentinel han sido diseñadas para facilitar la identificación automatizada de vídeos manipulados, mientras que estructuras algorítmicas como las redes neuronales convolucionales (CNN) y las redes generativas adversariales (GAN) se aplican en la detección de patrones anómalos que permiten inferir la falsedad de un contenido. Estas tecnologías conforman una primera línea de defensa frente a la desinformación audiovisual en expansión.
Las redes sociales digitales representan uno de los principales canales de circulación de noticias falsas y contenidos desinformativos, dada su arquitectura algorítmica orientada a la viralización y la fragmentación de audiencias. En este contexto, la inteligencia artificial se ha consolidado como una herramienta eficaz para monitorear, en tiempo real, las dinámicas de propagación de estos contenidos y detectar comportamientos inusuales que puedan estar vinculados a campañas coordinadas de manipulación informativa.
Los modelos de IA aplicados en este ámbito permiten identificar cuentas automatizadas (bots), mapear redes de desinformación, rastrear el origen de los mensajes y evaluar su alcance e impacto. Este tipo de análisis proporciona a los medios públicos una capacidad de intervención anticipada, que mejora la respuesta editorial y reduce el margen de propagación de narrativas engañosas antes de que alcancen una amplia exposición (https://iveres.es/tfg-sistema-de-deteccion-de-bots-en-redes-sociales/).
3.3. Sistemas automatizados de análisis lingüístico y semántico
Además del componente audiovisual, la desinformación también se transmite a través de textos diseñados para inducir confusión, manipular el discurso o generar sesgos informativos. Para afrontar esta dimensión, se han desarrollado sistemas de inteligencia artificial aplicados al análisis lingüístico, capaces de examinar estructuras sintácticas, patrones de redacción, omisiones estratégicas o disonancias semánticas en los mensajes.
Estos sistemas permiten comparar contenidos con bases de datos previamente verificadas, identificar discrepancias relevantes y anticipar posibles campañas de desinformación antes de que logren gran visibilidad. Al automatizar el rastreo y la evaluación textual, estas tecnologías refuerzan la capacidad de detección de los equipos de verificación y permiten focalizar los esfuerzos humanos en la validación final y el juicio editorial.
La integración de sistemas de inteligencia artificial en los procesos de verificación informativa proporciona una serie de ventajas estratégicas para los medios públicos:
El proyecto IVERES (Identificación, Verificación y Respuesta) representa una iniciativa innovadora en el ámbito de la verificación automatizada de contenidos, surgida como respuesta directa a la creciente amenaza que supone la desinformación para la estabilidad democrática y la integridad del espacio público informativo. Impulsado por RTVE en colaboración con la Universidad Autónoma de Barcelona (UAB) y otras instituciones académicas, IVERES ha sido reconocido por su capacidad para integrar tecnologías de inteligencia artificial (IA) en la verificación de contenidos en múltiples formatos, consolidándose como un referente en el contexto hispanohablante (https://oi2media.es/uncategorized/conoce-el-nuevo-proyecto-iveres-identificacion-verificacion-y-respuesta/).
El objetivo central del proyecto es dotar a la comunidad hispanohablante de herramientas basadas en IA capaces de verificar información en distintos soportes: texto, imagen, audio y vídeo. Este desarrollo se enmarca dentro del Plan de Recuperación, Transformación y Resiliencia financiado por la Unión Europea, con el propósito de fortalecer las capacidades institucionales frente a la desinformación, fomentar la alfabetización mediática y promover entornos informativos más seguros.
La necesidad de una solución tecnológica de estas características responde a la creciente complejidad de los contenidos manipulados, entre los que se incluyen deepfakes, audios sintéticos y otros formatos de alteración difícilmente detectables mediante procedimientos manuales. En este contexto, la creación de un sistema automatizado que complemente —sin sustituir— la labor humana de verificación se ha convertido en una prioridad, dada la magnitud del flujo informativo en redes sociales y plataformas digitales.
El desarrollo del proyecto IVERES se articuló en ocho fases secuenciales, comenzando por la conformación de alianzas interinstitucionales y el análisis comparativo de herramientas de verificación ya existentes. A partir de esta evaluación preliminar, se procedió al diseño de una interfaz de usuario integrada con una red multicapa de inteligencia artificial, orientada a permitir la verificación automatizada de información en tiempo real.
Uno de los elementos distintivos del proyecto es su enfoque multiformato, que contempla distintos tipos de análisis y procesamiento de contenidos:
4.3. Resultados obtenidos y lecciones aprendidas: impacto en la velocidad y precisión del fact-checking
Los resultados alcanzados por el proyecto IVERES evidencian mejoras sustanciales en la velocidad y la precisión de los procesos de verificación informativa. Las herramientas desarrolladas para el análisis automatizado de vídeo y audio han permitido reducir hasta en un 60% los tiempos requeridos para verificar contenidos, optimizando de forma significativa los flujos de trabajo. Asimismo, los algoritmos destinados a la detección de cuentas automatizadas han logrado niveles de precisión superiores al 85% en la identificación de bots implicados en la propagación de desinformación, reforzando así la capacidad de respuesta ante campañas coordinadas en redes sociales.
El impacto institucional del proyecto se ha visto reflejado en su adopción por parte de entidades como la Agencia EFE, el Consejo Audiovisual Andaluz y OBERAXE (Observatorio Español del Racismo y la Xenofobia), que han integrado IVERES en sus propias estrategias de verificación. Estas colaboraciones demuestran el valor operativo de la herramienta y su potencial de aplicación más allá del ecosistema estrictamente periodístico.
A pesar de los logros obtenidos, el desarrollo y despliegue de IVERES ha enfrentado diversos desafíos. Entre ellos destaca la constante evolución de los contenidos manipulados, especialmente en lo que respecta a deepfakes, cuya creciente sofisticación obliga a una actualización continua de los algoritmos de detección. Otro obstáculo relevante ha sido el acceso limitado a datos y contenidos en plataformas como TikTok y X (anteriormente Twitter), cuyas políticas de uso restringido dificultan la obtención de información necesaria para el entrenamiento y validación de los modelos.
En el transcurso del proyecto, el equipo de desarrollo identificó la necesidad de mantener una retroalimentación constante con los usuarios finales. La interacción con profesionales de VerificaRTVE y otros agentes del entorno mediático permitió ajustar funcionalidades, mejorar la experiencia de uso y optimizar la interfaz de la herramienta, favoreciendo su adopción en contextos reales de verificación periodística.
En conjunto, IVERES representa un hito en la integración de inteligencia artificial en el ámbito del periodismo y la verificación de contenidos en España. Su diseño modular y de código abierto garantiza la posibilidad de seguir evolucionando ante los desafíos emergentes de la desinformación, consolidando así un modelo adaptable, escalable y alineado con los principios del servicio público.
5.1. Colaboración interuniversitaria: tecnología, ingeniería y periodismo
La lucha contra la desinformación en el ecosistema digital actual requiere enfoques interdisciplinarios que integren saberes provenientes de la tecnología, la ingeniería y el periodismo. En este sentido, el papel de las universidades como espacios de investigación aplicada y formación especializada resulta fundamental para el desarrollo de soluciones innovadoras en materia de verificación informativa.
Distintas instituciones académicas han establecido colaboraciones estratégicas con RTVE mediante cátedras conjuntas, centradas en la aplicación de inteligencia artificial (IA) al ámbito mediático. La Universidad Autónoma de Barcelona (UAB), a través de la Cátedra RTVE-UAB, ha liderado investigaciones orientadas al uso de la IA en los informativos, publicando informes sobre herramientas aplicadas a la edición y verificación de noticias. La Universidad de Granada (UGR), mediante la Cátedra RTVE-UGR, ha desarrollado sistemas capaces de diferenciar entre voces humanas y voces generadas por IA, lo que representa un avance relevante para la detección de audios manipulados. Por su parte, la Universidad Carlos III de Madrid (UC3M), a través de la Cátedra RTVE-UC3M en Big Linked Data, ha centrado sus esfuerzos en el análisis de datos masivos y redes sociales mediante técnicas de procesamiento de lenguaje natural, aplicadas a la detección de patrones de desinformación. Finalmente, la Universidad Politécnica de Cataluña (UPC) ha colaborado en el diseño de herramientas de verificación de contenidos audiovisuales, aportando su experiencia en análisis de señales e ingeniería audiovisual.
Estas colaboraciones han permitido el desarrollo de tecnologías avanzadas alineadas con las necesidades del entorno mediático, fortaleciendo así la capacidad de los medios públicos para identificar, clasificar y responder a la desinformación desde una perspectiva multidisciplinar.
Radiotelevisión Española (RTVE) ha asumido un papel activo en la integración de tecnologías emergentes para el fortalecimiento de sus procesos de verificación. A través del proyecto IVERES —desarrollado junto a la UAB y con la participación de otras universidades—, la corporación ha implementado sistemas de verificación en lengua española de carácter abierto y accesible, que integran soluciones tecnológicas diseñadas para ser operativas en contextos reales y de uso sencillo por parte de profesionales.
Además de su labor técnica, RTVE ha promovido la difusión del conocimiento adquirido mediante la participación en seminarios y cursos organizados por instituciones como la Universidad de Santiago de Compostela y la Universidad de Zaragoza, donde ha compartido la experiencia acumulada en el marco del proyecto IVERES. Estas actividades subrayan el potencial de los medios públicos para liderar procesos de innovación tecnológica orientados a garantizar la calidad informativa y reforzar la confianza social (https://www.rtve.es/corporacion/catedras-rtve/).
La plataforma Impulsa Visión RTVE (https://www.rtve.es/corporacion/impulsavision/) ha desempeñado un rol clave en la articulación de colaboraciones entre el sector audiovisual, el ámbito universitario y los entornos de emprendimiento tecnológico. A través de programas de apoyo a la investigación aplicada y al desarrollo de proyectos, esta iniciativa ha facilitado la financiación y el acompañamiento de propuestas orientadas a combatir la desinformación desde enfoques innovadores.
Impulsa Visión ha promovido la transferencia de conocimiento y la aplicación práctica de tecnologías emergentes en medios de comunicación, organizando jornadas de intercambio, seminarios de formación continua y espacios de experimentación colaborativa. De este modo, se ha consolidado como un actor central en la vertebración de alianzas entre el entorno académico y el ecosistema mediático.
La experiencia acumulada en las colaboraciones entre RTVE y diversas universidades constituye un modelo replicable para otras instituciones que deseen abordar el fenómeno de la desinformación desde una perspectiva integrada. Entre las principales recomendaciones destaca la conveniencia de establecer cátedras conjuntas centradas en la investigación aplicada sobre IA y periodismo, que favorezcan la transferencia tecnológica y la innovación editorial.
Asimismo, la organización de cursos y talleres prácticos, como los realizados en el marco de IVERES, contribuye a la capacitación profesional en el uso de herramientas avanzadas de verificación. La creación de observatorios especializados, como el Observatorio para la Innovación de los Informativos en la Sociedad Digital (OI2), también puede resultar útil para analizar narrativas informativas, estudiar la evolución de los formatos y reflexionar sobre la dimensión tecnológica de la comunicación en la era digital.
En definitiva, la promoción de una cultura de colaboración interdisciplinaria entre medios, universidades y centros tecnológicos se presenta como una estrategia eficaz para enfrentar la desinformación desde múltiples frentes, articulando experiencia profesional, conocimiento académico y desarrollo tecnológico en un mismo horizonte de acción.
6.1. La inteligencia artificial como herramienta indispensable frente a la desinformación
La inteligencia artificial se ha consolidado como una herramienta esencial para la identificación, seguimiento y mitigación de la desinformación en el entorno digital. Su capacidad para analizar grandes volúmenes de datos en tiempo real, identificar patrones anómalos y detectar contenidos manipulados ha permitido a los medios de comunicación mejorar significativamente su capacidad de respuesta frente a la propagación de noticias falsas. Iniciativas como el proyecto IVERES han demostrado la eficacia de la IA en la verificación automatizada de contenidos multiformato, estableciendo un modelo replicable para futuras propuestas en el ámbito del periodismo público.
No obstante, debe subrayarse que la inteligencia artificial no sustituye el juicio editorial, ni la responsabilidad ética inherente a la labor periodística. Estas tecnologías deben concebirse como herramientas de apoyo que amplifican las capacidades humanas, pero cuya supervisión y uso deben permanecer bajo criterios profesionales y principios democráticos. El valor añadido de los periodistas continúa siendo insustituible en la validación final, la interpretación contextual y la transmisión veraz de la información.
Los medios públicos, y en particular RTVE, desempeñan una función insustituible en la promoción de la alfabetización mediática, formando a la ciudadanía para que pueda discernir de manera crítica entre contenidos verificados y desinformación. Mediante iniciativas educativas y la difusión de contenidos explicativos sobre el funcionamiento de las tecnologías de verificación automatizada, es posible fortalecer la conciencia pública acerca de los riesgos informativos y el rol de la inteligencia artificial en su contención.
Asimismo, la transparencia en el uso de herramientas basadas en IA, junto con la colaboración activa con instituciones académicas, refuerza la confianza social en los medios públicos. La generación de espacios formativos, la apertura de procesos de innovación y la participación ciudadana son componentes clave para construir entornos informativos más robustos y democráticos.
La evolución constante de las tecnologías de inteligencia artificial plantea el desafío permanente de actualizar, adaptar y mejorar los sistemas desarrollados para combatir la desinformación. En este contexto, la sostenibilidad tecnológica se convierte en una condición esencial para la eficacia continuada de los proyectos implementados.
Para ello, resulta imprescindible diseñar estrategias de actualización periódica, reforzar la inversión en investigación aplicada y asegurar la formación continua de los profesionales implicados en los procesos de verificación. Del mismo modo, deben contemplarse con atención los desafíos éticos asociados al uso de IA, garantizando el cumplimiento de principios como la equidad, la transparencia, la trazabilidad de los procesos y la responsabilidad institucional en su aplicación.
En conjunto, los avances logrados con proyectos como IVERES apuntan a una dirección clara: la inteligencia artificial puede —y debe— ser un aliado estratégico de los medios públicos en la defensa del derecho a una información veraz, plural y confiable. Su desarrollo futuro dependerá no solo de la tecnología disponible, sino de la voluntad colectiva de integrarla al servicio del bien común.
3.