Bots, Trols y PSM. Cómo la IA va a cambiar los medios públicos (2025)

 

 

Título del Capítulo: «Impacto de los bots en el discurso de los medios públicos»

Autoría: Martín Vaz-Álvarez; Sara Pérez-Seijo

Cómo citar este Capítulo: Vaz-Álvarez, M.; Pérez-Seijo, S. (2025): «Impacto de los bots en el discurso de los medios públicos». En Fieiras-Ceide, C.; Túñez-López, M.; Maroto-González, I. (eds.), Bots, Trols y PSM. Cómo la IA va a cambiar los medios públicos. Salamanca: Comunicación Social Ediciones y Publicaciones.
ISBN: 978-84-10176-14-0

d.o.i.: https://doi.org/10.52495/c5.emcs.40.p116

 

 

Capítulo 5. Impacto de los bots en el discurso de los medios públicos

 

Martín Vaz-Álvarez

Universidade de Santiago de Compostela

 

Sara Pérez-Seijo

Universidade de Santiago de Compostela

1. Introducción: hacia una tipología de bots más astutos y más invisibles

 

Los primeros intentos de clasificar los bots sociales (Lokot; Diakopoulos, 2016) diferenciaban entre bots de noticias (que distribuyen automáticamente contenido informativo), chatbots de servicio al cliente, bots de spam comercial, y bots humorísticos o de entretenimiento. Estas categorías iniciales reflejaban la situación de mediados de la década de 2010, cuando la mayoría de los bots funcionaban con reglas bastante simples. Sin embargo, con los últimos avances en inteligencia artificial generativa, han surgido nuevas tipologías más complejas. Aparecen bots híbridos que integran módulos automáticos con supervisión humana (human-in-the-loop), capaces de imitar el lenguaje natural de manera convincente y de eludir detectores basados en metadatos (Grimme et al., 2017). Los bots actuales pueden camuflarse más efectivamente entre usuarios legítimos, haciendo muy difícil su identificación.

Un aspecto muy relevante (e inquietante) de esta evolución es la capacidad de los bots modernos para coordinarse y aprender. Según Chang et al. (2021), grupos de bots híbridos pueden trabajar en conjunto en enjambres para amplificar narrativas polarizantes, llenando las redes con mensajes alineados que distorsionan el diálogo. Algunos modelos de simulación indican que, con solo un 5-10% de perfiles automatizados infiltrados en una red social, estos pueden llegar a dominar la percepción mayoritaria en ciertos debates (Cheng et al., 2020). Dicho de otra forma, una minoría artificial puede hacerse pasar por mayoría a través de la velocidad y el volumen de sus publicaciones. Para los medios de servicio público, esto significa que detectar la interferencia de bots no es una tarea sencilla: requiere análisis semánticos avanzados y un estudio más profundo de las redes sociales, más allá de simplemente medir la frecuencia de publicaciones o el número de seguidores. La incorporación de modelos de lenguaje de última generación en las tácticas de los bots (Askari et al., 2024) sugiere que estos mejorarán su capacidad para imitar el comportamiento humano, planteando así desafíos técnicos más complejos para distinguir entre lo orgánico y lo automatizado.

 

2. Robo-mecanismos de manipulación del discurso público

 

Los bots maliciosos emplean diversos mecanismos para distorsionar el discurso en las plataformas digitales. De entre ellos, algunos de los más habituales son los siguientes:

Astroturfing : creación de mayorías ficticias mediante el uso coordinado de múltiples cuentas automatizadas que simulan un apoyo ciudadano amplio a una causa o tema determinado (Lokot; Diakopoulos, 2016). Este mecanismo hace pasar por clamor popular lo que en realidad es una campaña artificiosa orquestada por bots, dando la impresión de consenso social donde no lo hay.

Amplificación selectiva: difusión intensiva de desinformación o contenido sesgado mediante retuits y compartidos coordinados (Chang et al., 2021). Un mismo mensaje o enlace puede ser promovido simultáneamente por decenas o cientos de bots, logrando alta visibilidad en poco tiempo y engañando a los algoritmos de las plataformas que tienden a realzar lo más compartido.

Polarización acelerada: propagación rapidísima de rumores y contenido incendiario que exacerba divisiones, incluso cuando interviene un número reducido de bots (Cheng et al., 2020). Debido a la naturaleza altamente emocional de ciertas informaciones falsas, unos pocos agentes automatizados pueden sembrar discordia y hacer que las discusiones se tornen sectarias en horas.

Mimetismo humano: imitación avanzada del comportamiento humano para evadir filtros y moderadores automáticos (Grimme et al., 2017). Incluye desde el uso de lenguaje natural —indistinguible del de un usuario genuino— hasta pautas de actividad (horarios de publicación, número de interacciones, mezcla de contenidos personales) calibradas para no despertar sospechas.

Todas estas son tácticas que buscan distorsionar la agenda mediática y contaminar el debate público, obligando a las redacciones a extremar la precaución. Los medios de servicio público, en particular, se han visto forzados a verificar cuidadosamente las tendencias y temas virales antes de otorgarles cobertura, conscientes de que podrían estar inflados artificialmente por actividad no humana. En la práctica, esta manipulación automatizada significa que ya no puede asumirse la espontaneidad de «lo que es tendencia»: detrás de un tema viral puede haber un ejército de bots orquestando su difusión. Para no caer inadvertidamente en la trampa de amplificar narrativas engañosas, los periodistas deben indagar en el origen y la autenticidad de ciertos contenidos populares en redes, aplicando nuevas rutinas de comprobación antes de incorporar esas supuestas preocupaciones ciudadanas a la agenda informativa.

 

3. Efectos de los bots en los medios de servicio público

 

Pese a que la integración directa de bots dentro de las redacciones de los medios públicos sigue siendo marginal —apenas se han ensayado proyectos piloto muy acotados, como un chatbot informativo experimental de la BBC en 2019 que evidenció la necesidad de protocolos editoriales claros y moderación rigurosa (Jones; Jones, 2019)—, el impacto indirecto de los bots externos sobre la labor de los PSM es sustancial. La omnipresencia de actores automatizados en el entorno informativo ha forzado a estos medios a replantear sus prácticas profesionales en varios frentes, desde la producción y difusión de noticias hasta la moderación de sus espacios digitales y la definición misma de sus prioridades editoriales.

 

3.1. Cambios en la producción y difusión de noticias

 

Los bots sociales pueden amplificar artificialmente ciertos contenidos y conversaciones, lo que ha obligado a los medios públicos a replantear sus procesos de producción informativa. Por ejemplo, al inundar las plataformas con publicaciones sobre un tema específico, ejércitos de bots pueden crear la falsa impresión de relevancia o consenso en torno a ese asunto (McKenzie, 2024). Esta práctica —análoga al astroturfing descrito— distorsiona la agenda mediática al hacer pasar por voluntad popular lo que en realidad es una campaña automatizada. En consecuencia, las redacciones de medios públicos han tenido que extremar la verificación de las tendencias virales antes de otorgarles cobertura. De hecho, estudios sobre «propaganda computacional» muestran que prácticamente en todos los debates políticos recientes analizados en redes sociales ha habido algún grado de manipulación mediante bots (BBC News, 2017). Estos programas son capaces de inflar artificialmente la popularidad de ciertas noticias o incluso de generar conversaciones ficticias, con el riesgo de que medios legítimos difundan inadvertidamente información engañosa creada por cuentas automatizadas (BBC News, 2017). Por ello, los periodistas de los servicios públicos han incorporado nuevas rutinas de comprobación: ahora monitorean la actividad en línea con herramientas especializadas, colaboran con expertos en datos y evitan basarse únicamente en métricas de trending topics que podrían estar sesgadas por actividad no humana.

La realidad es que la producción periodística en los medios públicos ha sumado etapas adicionales de verificación antes de difundir contenidos de origen digital. Muchas noticias que surgen de las redes pasan por filtros extra donde se comprueba la autenticidad de imágenes, vídeos y fuentes, en un esfuerzo por contrarrestar la avalancha de desinformación automatizada que circula en internet. Un ejemplo representativo es la creación de equipos especializados de verificación dentro de las propias radiotelevisiones públicas, encargados de revisar en tiempo real la veracidad de información procedente de las redes antes de incorporarla al flujo noticioso general. En la BBC británica, por ejemplo, se ha consolidado la práctica de verificar cuidadosamente el material de redes sociales a través de unidades dedicadas, como BBC Reality Check, o el nuevo equipo BBC Verify, antes de incluir esos datos en sus informativos habituales (BBC Media Centre, 2023). La Yle anunció que «aumentará la capacidad de sus periodistas para verificar información e identificar la desinformación en todas sus formas», reconociendo que existe una necesidad de corroborar datos de forma clínica en la era de los deepfakes y los bulos virales (Yle News, 2024). Estas transformaciones en la producción noticiosa reflejan una adaptación necesaria: los medios públicos han asumido que no basta con producir contenidos veraces, sino que también deben filtrar proactivamente el caudal informativo digital para desactivar las narrativas falsas antes de que contaminen el discurso público.

 

3.2. Alteraciones en la narrativa pública y moderación del discurso

 

La influencia de los bots abarca la narrativa pública que crean los PSM y su papel en moderar debates en sus plataformas. Teniendo en cuenta que muchas conversaciones en redes pueden ser manipuladas por cuentas automatizadas, las televisiones y radios públicas se han visto obligados a repensar su forma de comunicar resultados sociales y manejar la interacción con la audiencia. Un efecto de esto es la mayor prudencia al representar la opinión pública: los equipos editoriales son conscientes de que los trending topics o controversias virales no siempre reflejan preocupaciones genuinas de los ciudadanos, sino que a ocasiones son el resultado de campañas coordinadas (McKenzie, 2024). Aquí la clave está en gestionar cómo refuerzas tus criterios informativos para evitar amplificar afirmaciones infundadas o dar visibilidad a tendencias artificialmente promovidas por bots, y al mismo tiempo mantienes la agilidad que necesitas para mantenerte relevante. En la práctica, esto implica que temas que podrían haber sido noticia por su viralidad hace una década, hoy se busca abordarlos con mayor contexto o incluso se ignoran deliberadamente si se detecta que su viralidad se origina en actividad inauténtica. Se prefiere «dejar pasar» una potencial primicia de redes a que se valide involuntariamente un engaño masivo manufacturado.

Los PSM también han intensificado la moderación en sus espacios participativos (secciones de comentarios en sitios web, foros, cuentas institucionales en redes sociales) debido a la proliferación de bots y trols que afectan la calidad del debate. Muchas estaciones de radio y televisión han implementado sistemas de registro y verificación de identidad para que los usuarios puedan comentar, con el objetivo de disuadir la automatización maliciosa. La emisora Yle, por ejemplo, requiere que los usuarios inicien sesión con una cuenta verificada (Yle ID) antes de comentar en sus plataformas, y aplica estrictas normas de moderación para mantener las discusiones en un tono respetuoso (Yle, 2025). Medidas semejantes se han adoptado en varios servicios públicos europeos, buscando detener el spam automatizado y fomentar un diálogo más auténtico con la audiencia. En España, RTVE ha centrado parte de su estrategia en responder públicamente a la desinformación: durante la pandemia de covid-19, lanzó el sello VerificaRTVE para desmentir bulos virales en sus propias plataformas y redes sociales (Corporación RTVE, 2020). Iniciativas de este tipo no solo corrigen informaciones falsas puntuales, sino que también moldean la narrativa general al evidenciar los intentos de manipulación. Al exponer y desmentir activamente los engaños propagados por bots, los medios públicos reafirman su compromiso con un discurso veraz y contrastado, a la vez que envían al público un mensaje educativo sobre cómo operan estas campañas de desinformación.

Otra adaptación discursiva ha sido la comunicación transparente sobre los procesos informativos. Bajo la presión de ataques automatizados que buscan minar la credibilidad de la prensa, medios como la BBC han optado por «mostrar sus procesos» abiertamente. Esta tendencia a la metacomunicación (explicar cómo se investiga y verifica una noticia) responde a la erosión de confianza causada en parte por la difusión de noticias falsas en redes. Por ejemplo, la BBC lanzó en 2023 la iniciativa BBC Verify, en la cual un equipo de 60 periodistas especializados aparece regularmente en pantalla explicando cómo han comprobado datos, analizado vídeos o desmentido rumores (BBC Media Centre, 2023). Según Deborah Turness, directora ejecutiva de BBC News, el objetivo de esta iniciativa es lograr una «transparencia en acción» que muestre al público el trabajo detrás de cada noticia y así «ganarse su confianza día a día» (BBC Media Centre, 2023). Esta estrategia discursiva de radical transparencia ha sido adoptada también por otros medios públicos para contrarrestar la narrativa de que «no se puede confiar en la prensa»: al hacer visibles sus métodos y reconocer los errores cuando ocurren, pretenden inmunizar a la audiencia contra la desinformación externa y reforzar la legitimidad de la información veraz.

 

3.3. Adaptaciones en la estrategia editorial

 

Frente a la amenaza persistente de los bots en el ecosistema informativo, los medios de servicio público han reorientado sus estrategias editoriales en varios frentes. Uno de los cambios centrales ha sido priorizar la lucha contra la desinformación como parte de la misión fundamental del medio. En la práctica, esto se traduce en la creación de unidades dedicadas a la verificación de datos, la colaboración con expertos en tecnología y el establecimiento de nuevas políticas editoriales que enfatizan la precisión y la responsabilidad. Por ejemplo, la estrategia corporativa reciente de Yle establece explícitamente como objetivo clave «reforzar nuestros esfuerzos para contrarrestar la desinformación», reconociendo que ser la fuente informativa más confiable requiere combatir activamente las falsedades que circulan en el entorno digital (Yle, 2025). De forma similar, la BBC y RTVE han incorporado la lucha contra bulos y la promoción de la alfabetización mediática dentro de sus planes estratégicos y líneas editoriales de los últimos años, entendiendo que mantener la confianza del público pasa por abordar el problema de la desinformación de manera directa.

En términos organizativos, muchas radiotelevisiones públicas han creado equipos multidisciplinarios dedicados a monitorear y contrarrestar la influencia de actores automatizados en el debate público. La formación de estos grupos representa un giro editorial importante: se pasa de una postura principalmente reactiva (desmentir falsedades tras su difusión) a una postura más preventiva y proactiva. La BBC, por ejemplo, inició en 2018 la iniciativa global «Beyond Fake News», invirtiendo en investigaciones sobre cómo se comparte la desinformación y desplegando talleres de alfabetización mediática en distintos países (BBC Media Centre, 2018). Esta campaña incluyó espacios de debate y programación especial para analizar el fenómeno de las fake news, marcando un cambio en la agenda editorial hacia una cobertura más frecuente del propio problema de la desinformación. En 2020, RTVE estableció oficialmente su unidad VerificaRTVE, inicialmente concebida para verificar rumores relacionados con la pandemia de covid-19 (Corporación RTVE, 2020), pero que posteriormente amplió su alcance a otros temas virales. La existencia de este equipo dentro del organigrama editorial significa que la verificación pasó a ser una parte estructural del proceso noticioso diario, y no solo una tarea ocasional. Del mismo modo, la creación en 2023 de BBC Verify consolidó un enfoque editorial en el que la comprobación de hechos y la explicación de los procesos informativos son tan importantes como la noticia misma (BBC Media Centre, 2023).

Otra pieza clave de la estrategia editorial adaptativa es la colaboración y la innovación tecnológica. Los medios públicos han reconocido que, para enfrentarse a redes de bots sofisticadas, deben apoyarse en herramientas avanzadas y en alianzas estratégicas. RTVE, por ejemplo, participa junto con universidades españolas en el proyecto IVERES, orientado a desarrollar sistemas automatizados de verificación y monitorización de flujos informativos dañinos (Proyecto IVERES, 2024). Este proyecto explora técnicas de detección de cuentas falsas, análisis de imágenes manipuladas y vigilancia de tendencias virales, reflejando la apuesta de RTVE por una respuesta tecnológicamente informada al problema de los bots. En la misma línea, la BBC, Yle y otras cadenas públicas europeas han invertido en laboratorios de periodismo e iniciativas conjuntas para intercambiar metodologías de detección de bots y desmontaje de bulos. Incluso se han creado herramientas pedagógicas innovadoras: Yle desarrolló la aplicación interactiva Troll Factory (2019), que gamifica la experiencia de dirigir una campaña de desinformación —el usuario asume el rol de un propagador de fake news— para educar al público sobre cómo operan los bots y los trols en la manipulación de la opinión (Lakshmanan, 2019). Esta conjunción de tecnología y educación ilustra cómo la estrategia editorial de los medios públicos ahora trasciende la mera emisión de contenidos, abarcando también la capacitación de la audiencia para reconocer intentos de manipulación automatizada. Cabe destacar que incluso las últimas iniciativas digitales integran este enfoque: en 2025, RTVE presentó una nueva aplicación móvil de noticias en la que se destacó expresamente el uso de inteligencia artificial para reforzar la lucha contra la desinformación (RTVE Noticia–VerificaRTVE, 2025).

 

4. Desafíos editoriales (e infraestructurales)

 

A medida que los medios públicos incorporan estas adaptaciones, también enfrentan desafíos importantes en el plano editorial e infraestructural producto de la amenaza de los bots:

Detección de bots híbridos: Los métodos tradicionales de detección basados solo en metadatos (frecuencia de publicación, patrones horarios, etc.) han perdido eficacia frente a bots más sofisticados. Identificar bots con comportamientos human-like exige algoritmos que analicen contenido semántico y redes de relaciones; la simple huella digital ya no basta (Grimme et al., 2017).

Transparencia algorítmica: Para distinguir los usos benignos de la automatización de aquellos maliciosos, los propios medios deben dar ejemplo etiquetando claramente cualquier bot que utilicen con fines editoriales legítimos (Lokot; Diakopoulos, 2016). Surge la necesidad de políticas de transparencia: si una cuenta o chatbot pertenece al medio, debe indicarlo explícitamente para no confundir a la audiencia ni erosionar la confianza.

Flujos de trabajo redaccionales: Integrar herramientas automáticas (por ejemplo, chatbots de noticia o sistemas de alerta de tendencias) obliga a reconfigurar rutinas en la sala de redacción. Hace falta capacitar al personal en la supervisión técnica de esas herramientas, establecer protocolos de validación humana de lo que producen los algoritmos y asegurarse de que no se sacrifica la ética ni la calidad informativa en pos de la velocidad (Jones; Jones, 2019).

Velocidad de propagación vs. capacidad de reacción: La rapidez con que los bots difunden bulos desborda a menudo la respuesta tradicional de los medios. Esto demanda monitorización en tiempo real de lo que ocurre en las redes y, muchas veces, colaboración interinstitucional para dar respuesta coordinada (Chang et al., 2021). Los PSM enfrentan el reto de acelerar sus ciclos de verificación y reacción sin caer en la imprudencia, apoyándose en redes de verificadores, agencias de noticia y plataformas tecnológicas para frenar a tiempo las campañas dañinas.

Es importante destacar en este contexto que la lucha contra la manipulación automatizada no es solo periodística, sino también técnica, ética y organizativa. Abordarlos requiere inversión en sistemas de detección más robustos, claridad normativa sobre el uso de bots, reingeniería de procesos editoriales y una mentalidad de vigilancia permanente; y aun así, en poco tiempo, estos mismos criterios muy probablemente tendrán que ser reformulados y actualizados.

 

5. Estrategias sociocomunicativas y tecnológicas de respuesta

 

Teniendo en cuenta lo expuesto hasta ahora, se pueden identificar varias estrategias integrales que los medios de servicio público están empleando para contrarrestar la influencia negativa de los bots en el discurso público. Estas estrategias combinan medidas sociocomunicativas —orientadas a la interacción con la audiencia y la construcción de narrativas de confianza— con herramientas tecnológicas y prácticas operativas innovadoras:

Verificación intensiva de contenidos: La creación de unidades especializadas de fact-checking (BBC Verify, VerificaRTVE, equipos dedicados en Yle, etc.) demuestra la apuesta decidida por verificar datos, imágenes y fuentes antes de difundirlos. La verificación ha dejado de ser periférica para volverse central en la labor periodística diaria de los medios públicos, funcionando como primer filtro contra bulos y campañas de bots. Cada vez más, ninguna información tomada de redes sociales se incorpora a un noticiario sin pasar por este tamiz de comprobación previa.

Transparencia y metacomunicación de procesos: Para reconstruir la confianza erosionada por la desinformación, los medios públicos ahora explicitan sus métodos y criterios editoriales al público. Mostrar cómo se investigó una noticia o cómo se detectó un engaño —por ejemplo, mediante reportajes «detrás de cámaras» que revelan el proceso de verificación— se ha convertido en una táctica popular para diferenciar la información veraz del contenido manipulado. Esta metacomunicación incluye también etiquetar claramente cualquier contenido automatizado o bot editorial empleado por el medio (siguiendo lineamientos como los de Lokot y Diakopoulos, 2016), de modo que la audiencia pueda distinguir entre interacciones humanas y publicaciones generadas por software. La transparencia activa, ejemplificada por iniciativas como BBC Verify mostrando su trabajo en vivo, busca blindar la credibilidad de la información legítima al hacer visible el rigor detrás de cada noticia.

Moderación activa y comunidades seguras: Conscientes de la infiltración de cuentas automatizadas y trols, las radiotelevisiones públicas han reforzado la moderación de sus espacios digitales. Esto incluye exigir registro e identificación de usuarios para comentar, desplegar moderadores entrenados y emplear filtros automatizados para detectar comportamiento no humano o discurso de odio, creando entornos de conversación más auténticos y constructivos (Yle, 2025). El objetivo es minimizar la interferencia maligna en foros y redes sociales del medio, de modo que la voz de la ciudadanía real no quede ahogada por el ruido de bots y perfiles falsos.

Alfabetización mediática y participación ciudadana: Muchos medios públicos lideran campañas educativas para enseñar al público a identificar noticias falsas y entender el papel de los bots en la difusión de información errónea (RTVE Noticias–VerificaRTVE, 2025). A través de programas escolares, recursos divulgativos y juegos interactivos (como la mencionada Troll Factory de Yle), involucran a la audiencia como aliada en la lucha contra la desinformación. Se busca fomentar una ciudadanía digital más crítica y resiliente, que cuestione las fuentes online, reconozca patrones de manipulación y apoye activamente la circulación de contenido verificado. De este modo, la audiencia se convierte también en parte de la solución, al no ser un receptor pasivo sino un agente capaz de filtrar y exigir calidad informativa.

Colaboración interinstitucional e innovación tecnológica: Ningún actor enfrenta en solitario un problema tan complejo; por eso, los medios públicos colaboran con universidades, empresas tecnológicas y consorcios internacionales para desarrollar herramientas avanzadas de detección de bots y análisis de tendencias (Proyecto IVERES, 2024). Se emplean técnicas de inteligencia artificial para identificar patrones de actividad inusual, rastrear el origen de campañas coordinadas y detectar deepfakes, integrando estos sistemas en las rutinas de las salas de redacción. Herramientas abiertas como BotSlayer o plataformas propias como IVERES permiten monitorear la coordinación artificial en tiempo real, proporcionando alertas tempranas sobre focos de desinformación. Aunque los detalles técnicos suelen quedar tras bambalinas, sus resultados orientan decisiones editoriales (por ejemplo, alertando de intentos de influir en la agenda noticiosa mediante cuentas falsas). Esta línea de acción también abarca la creación de espacios de experimentación —laboratorios de innovación y proyectos piloto— donde periodistas y tecnólogos prueban el uso de bots con fines informativos legítimos en entornos controlados antes de incorporarlos plenamente, asegurando que cualquier automatización propia sea ética y no socave la confianza del público.

Enfoque editorial adaptativo: Estratégicamente, los medios públicos han adoptado un enfoque flexible para reaccionar con rapidez a las nuevas tácticas de automatización maliciosa. Esto implica actualizar constantemente las políticas internas sobre el uso de contenido de redes sociales como fuente, entrenar a sus periodistas en OSINT (búsqueda y verificación en fuentes abiertas) y permanecer alerta a las evoluciones de la tecnología. Un ejemplo reciente es la proliferación de bots potenciados con IA generativa capaces de producir textos e imágenes altamente creíbles: ante ello, los medios han debido ajustar sus protocolos de verificación para incluir análisis forense digital (búsqueda de indicios de sinteticidad en fotos, rastreo de redacción inusual en textos) y, a su vez, educar a sus plantillas sobre estas nuevas herramientas de manipulación.

Cada una de estas estrategias refuerza a las demás en un esfuerzo integral por proteger el discurso público. Al combinar la dimensión social (educación, transparencia, participación) con la dimensión técnica (verificación, monitoreo, desarrollo de software), los medios de servicio público están intentando comunicar, a pesar de lo adverso del entorno, un modelo de resiliencia informativa. Un modelo que aspira a que los bots, por sofisticados que sean, puedan ser contrarrestados mediante la triple alianza de un periodismo de calidad, una audiencia informada y herramientas tecnológicas éticas.

 

6. Casos de estudio: BBC, RTVE y Yle

6.1. BBC: transparencia y verificación como escudo informativo

 

La BBC ha respondido a la amenaza de la desinformación automatizada colocando la transparencia y la verificación en el centro de su estrategia comunicativa. En 2018 la BBC lanzó el proyecto internacional «Beyond Fake News», consciente de los estragos causados por bulos propagados en redes sociales (BBC Media Centre, 2018). Esta iniciativa implicó investigar por qué la gente comparte noticias falsas y promover la alfabetización mediática mediante talleres alrededor del mundo, así como intensificar la verificación de hechos en períodos electorales clave (BBC Media Centre, 2018). El enfoque proactivo de la BBC continuó evolucionando y, para 2023, la corporación creó la marca editorial BBC Verify. Este equipo —compuesto por unos 60 periodistas de investigación— se dedica exclusivamente a verificar contenidos, desmontar falsedades y aportar contexto dentro de la programación diaria de BBC News (BBC Media Centre, 2023). Lo innovador es que BBC Verify no opera tras bambalinas únicamente, sino que sus expertos aparecen en pantalla y en la web explicando cómo comprobaron una información o expusieron una campaña de bots. Al «correr el telón» y mostrar su trabajo investigativo al público, la BBC apuesta por contrarrestar la influencia de rumores virales utilizando el empirismo (¿digital?), con pruebas visibles y mucha pedagogía sobre sus propios procesos (BBC Media Centre, 2023).

Otra respuesta de la BBC ha sido reforzar su cobertura sobre la propia temática de los bots y la desinformación. La cadena cuenta con corresponsales especializados —como la figura de un «Disinformation and Social Media Correspondent»— encargados de investigar y reportar casos de manipulación en redes. Informes periodísticos de la BBC han revelado, por ejemplo, cómo redes de cuentas falsas intentan sesgar conversaciones políticas en línea (BBC News, 2017) o cómo bots vinculados a gobiernos extranjeros difunden narrativas engañosas en momentos de crisis internacionales. Al publicar estas investigaciones, la BBC no solo informa sobre los hechos sino que también inmuniza a la audiencia al exponer las tácticas de la propaganda digital. Cabe mencionar que la BBC incluso ha explorado el uso de la automatización con fines informativos: en 2019 experimentó con chatbots de noticias para distribuir contenidos de complejidad limitada, lo que le permitió identificar la importancia de establecer controles editoriales estrictos y moderación humana al implementar estas herramientas (Jones; Jones, 2019).

 

6.2. RTVE: verificación colaborativa y respuesta pública a los bulos

 

La Radiotelevisión Española (RTVE) ha experimentado en los últimos años una transición hacia una comunicación más combativa frente a la desinformación, impulsada en gran medida por la experiencia de enfrentar oleadas de bulos virales dirigidos al público español. Un hito importante fue la creación de VerificaRTVE en 2020, inicialmente concebida para refutar rumores relacionados con la pandemia de covid-19 (Corporación RTVE, 2020). Bajo esta etiqueta, RTVE integró en sus canales oficiales de redes sociales (especialmente Twitter) contenidos en los que sus periodistas desmontaban informaciones falsas circulantes: desde supuestos remedios milagrosos para el virus hasta engaños sobre las medidas de confinamiento (Corporación RTVE, 2020). Este esfuerzo marcó un cambio en la conducta comunicativa de RTVE: la entidad pasó de una actitud relativamente pasiva ante la desinformación a otra en la que responde públicamente a los engaños en tiempo real. La iniciativa VerificaRTVE no se limitó al ámbito online, sino que también nutrió programas informativos en televisión y radio con segmentos dedicados a aclarar mentiras virales, señalando explícitamente su origen y por qué eran falsas. RTVE no solo pretendía proteger a su audiencia de caer en el engaño, sino que buscaba fortalecer su posición discursiva como fuente de verificación confiable en el contexto nacional.

En paralelo, RTVE ha apostado por la colaboración con instituciones académicas y tecnológicas para fortalecer su capacidad de detección de bots y análisis de la desinformación. Participa activamente en proyectos de I+D como el mencionado IVERES, cuya meta es desarrollar herramientas automatizadas de verificación y monitorización de flujos informativos nocivos (Proyecto IVERES, 2024). Gracias a estas colaboraciones, RTVE está incorporando a su estrategia comunicativa recursos de Big Data, inteligencia artificial y análisis de redes sociales para identificar patrones anómalos que delaten campañas coordinadas de desinformación. Por ejemplo, a través de IVERES se han explorado sistemas de detección de cuentas automatizadas en Twitter y algoritmos para rastrear la propagación de contenidos virales engañosos (Proyecto IVERES, 2024). El conocimiento generado repercute en la manera en que RTVE modera sus comunidades digitales y selecciona los temas a cubrir: si se detecta que cierto trending topic proviene mayoritariamente de bots o perfiles sospechosos, es mucho menos probable que sea amplificado en sus noticiarios sin un escrutinio previo.

El Instituto RTVE y otras áreas formativas de la corporación han organizado jornadas y creado materiales para enseñar tanto a comunicadores como al público a reconocer noticias falsas y evitar caer en engaños en línea (RTVE Noticias – VerificaRTVE, 2025). Este énfasis educativo se refleja en la programación reciente: se han emitido especiales informativos sobre cómo identificar deepfakes, reportajes explicando el funcionamiento de los bots en campañas electorales, y se ha participado en iniciativas globales como el International Fact-Checking Day.

 

6.3. Yle: innovación, alfabetización mediática y vigilancia digital

 

La Yle, compañía pública de radiodifusión de Finlandia, ha sido pionera en varias iniciativas que reflejan cambios profundos en su estrategia comunicativa ante la presión de los bots. Finlandia encabeza regularmente índices internacionales de resiliencia frente a la desinformación, e Yle ha contribuido a ello mediante políticas editoriales y proyectos innovadores centrados en la educación mediática y la adopción temprana de herramientas de verificación digital. Un ejemplo emblemático —como ya hemos apuntado— es Troll Factory, una aplicación interactiva lanzada por Yle en 2019 que simula la experiencia de dirigir una campaña de desinformación: el usuario asume el rol de un propagador de fake news y comprueba cómo bots y trols pueden manipular la opinión pública (Lakshmanan, 2019). Esta iniciativa lúdico-educativa evidencia un cambio en la comunicación de Yle, que va más allá de informar pasivamente y busca involucrar al público —especialmente al más joven— en la comprensión de los métodos de manipulación digital. Al desenmascarar de forma didáctica cómo «los bots, el contenido emocional y los ejércitos de trols se utilizan para afectar los estados de ánimo, las opiniones y la toma de decisiones» (Lakshmanan, 2019), Yle busca no solamente proponerse como verificador de confianza, sino también ser la principal referencia en alfabetización mediática en su entorno.

En cuanto a la producción informativa, en 2024 anunció la creación de un equipo especializado en detectar deepfakes y desinformación, reconociendo que «la necesidad de verificar información crece constantemente» en la era de la inteligencia artificial generativa (Yle News, 2024). Este equipo de verificación trabaja de manera bilingüe (finés y sueco) para atender a toda la población, y utiliza tanto herramientas de código abierto como software comercial para analizar imágenes, vídeos y publicaciones de redes sociales en busca de señales de falsedad (Yle News, 2024). Yle se inspiró en experiencias de otros medios públicos: mencionó explícitamente que cadenas como la BBC (Reino Unido) y SVT (Suecia) ya habían creado unidades similares de verificación en años recientes (Yle News, 2024), lo que refuerza la idea de una tendencia sectorial de cooperación. La adopción de estas prácticas parece indicar un giro editorial colaborativo, en el que los medios públicos a nivel internacional comparten aprendizajes y buscan alinearse en la protección mutua del espacio informativo.

Otro aspecto a destacar de la respuesta de Yle es su compromiso institucional con el fortalecimiento de la confianza y la pluralidad informativa en tiempos de automatización. Los valores y lineamientos estratégicos de Yle subrayan la defensa de la democracia y la independencia editorial, enfatizando la necesidad de contrarrestar la desinformación para cumplir con su propósito de servicio público (Yle, 2025). En la práctica, la realidad es que Yle ha sido muy activa en iniciativas de fact-checking colaborativo a nivel europeo y en la promoción de la alfabetización digital desde la escuela: ha producido contenidos educativos sobre cómo operan los bots en la conversación pública y cómo distinguir fuentes confiables en línea, y también participa en investigaciones académicas nacionales que evalúan la influencia de los bots en el debate público finlandés, proporcionando datos y acceso a sus plataformas para dichos estudios.

 

7. Conclusiones

 

Es una realidad patente que los bots han transformado el ecosistema del discurso donde los medios de servicio público realizan su misión esencial. Y aunque el empleo de bots por parte de estos medios es limitado y generalmente de bajo riesgo (como es el caso de los chatbots de servicio o la difusión automatizada de contenidos verificados), la presión externa resultante de campañas automatizadas maliciosas es innegable y ha llevado a las radiotelevisiones públicas a desarrollar capacidades avanzadas para resguardar la integridad del debate democrático. Como respuesta, los PSM han puesto en marcha un conjunto de medidas, que en gran parte significan doblar el esfuerzo y la atención sobre actividades que ya venían realizando con anterioridad (quizás ahora con más urgencia): desde la verificación exhaustiva y la transparencia radical en sus procesos de información, hasta la búsqueda de la alfabetización de la audiencia y la colaboración tecnológica entre instituciones. Fundamentalmente los ha obligado a ser más vigilantes, a mirar a su audiencia con unos ojos diferentes (los que no solo buscan informar, sino enseñar a informarse) y apoyándose en tecnologías éticas (que son éticas por su uso y no por su condición de tecnologías) para afrontar los desafíos. La experiencia de la BBC, RTVE, Yle y otros medios nos dice que ninguna estrategia aislada es suficiente para contrarrestar un fenómeno con tantas derivadas como la manipulación a través de bots. Aun así, la combinación de un periodismo de calidad, una ciudadanía bien informada y herramientas tecnológicas responsables se presenta como la mejor defensa contra la desinformación automatizada. En última instancia, los medios de servicio público están estableciendo un modelo de resiliencia informativa donde las fortalezas tradicionales (credibilidad, rigor, alfabetización) se complementan con innovaciones contemporáneas (análisis de datos, inteligencia artificial, redes colaborativas). En el fondo la fórmula es la misma de siempre, que la triple alianza de valores: verdad, conocimiento y democracia, pueda ser suficiente para combatir a los malintencionados —bots o humanos.

 

8. Financiación

 

Este capítulo de libro forma parte del proyecto titulado «Creación de una plataforma generadora de chatbots mediante IA para la comunicación del valor público del PSM» VALUEBOT (Ref. PDC2023-145885-I00), financiado por MCIN/AEI/10.13039/501100011033 y por la Unión Europea «Next Generation EU»/PRTR. Además también se integra dentro de las actividades de la ‘Cátedra RTVE-USC sobre Medios de Servicio Público en Europa’.

 

9. Referencias bibliográficas

 

Askari, H.; Chhabra, A.; Clemm von Hohenberg, B.; Heseltine, M.; Wojcieszak, M. (2024). Incentivizing news consumption on social media platforms using large language models and realistic bot accounts. PNAS Nexus, 3(4), e368.

BBC Media Centre. (2018, 9 de noviembre). BBC launches huge new international anti-disinformation initiative. BBC Media Centre.

BBC Media Centre. (2023, 17 de mayo). BBC News puts transparency at its heart with BBC Verify. BBC Media Centre.

BBC News. (2017, 21 de junio). Bots used to bias online political chats. BBC News (Tecnología).

Chang, H.C.; Chen, E.; Zhang, M;, Murić, G.; Ferrara, E. (2021). Social bots and social media manipulation in 2020: The year in review. En Handbook of Computational Social Science (Vol. 1).

Cheng, C.; Luo, Y.; Yu, C. (2020). Dynamic mechanism of social bots interfering with public opinion in network. Physica A, 545, 124163.
Corporación RTVE. (2020). Respuesta escrita a pregunta parlamentaria sobre herramienta contra la desinformación. Madrid: Congreso de los Diputados.

Grimme, C.; Preuss, M.; Adam, L.; Trautmann, H. (2017). Social bots: Humanlike by means of human control? Big Data, 5(4), 279-293.

Jones, B.; Jones, R. (2019). Public service chatbots: Automating conversation with BBC News. En Algorithms, Automation, and News. Lakshmanan, R. (2019, 27 de septiembre). «This game shows you how bots and trolls spread fake news on social media». The Next Web. Disponible en: thenextweb.com.

Lokot, T.; Diakopoulos, N. (2016). News bots: Automating news and information dissemination on Twitter. Digital Journalism, 4(6), 682-699. McKenzie, B. (2024, 30 de octubre). «Q&A: Is that real? Bots make it hard to recognize truth». UVA Today. Disponible en: news.virginia.edu.
Proyecto IVERES. (2024). Objetivo del proyecto IVERES. Recuperado de https://iveres.es
RTVE Noticias–VerificaRTVE. (2025, 13 de mayo). La IA y la lucha contra la desinformación, en la presentación de la nueva app de RTVE Noticias. RTVE.es.

Yle. (2025, 14 de mayo). Yle (2025, 14 de mayo). «Yle’s strategy–An important and the most trusted news media in Finland». Yle (sección «About Yle»). Disponible en: yle.fi.

Yle News. (2024, 8 de noviembre). «Yle launches team to combat deepfakes». Yle.fi (Noticias).

5.