Bots, Trols y PSM. Cómo la IA va a cambiar los medios públicos (2025)

 

 

Título del Capítulo: «Repensando el periodismo desde la IA: impactos y dilemas»

Autoría: Patrícia Weber; Tadiane Regina-Popp; Ana Santos

Cómo citar este Capítulo: Weber, P.; Regina-Popp, T.; Santos, A. (2025): «Repensando el periodismo desde la IA: impactos y dilemas». En Fieiras-Ceide, C.; Túñez-López, M.; Maroto-González, I. (eds.), Bots, Trols y PSM. Cómo la IA va a cambiar los medios públicos. Salamanca: Comunicación Social Ediciones y Publicaciones.
ISBN: 978-84-10176-14-0

d.o.i.: https://doi.org/10.52495/c10.emcs.40.p116

 

 

 

Capítulo 10. Repensando el periodismo desde la IA: impactos y dilemas

 

Patrícia Weber

Universidade Fernando Pessoa1

 

Tadiane Regina-Popp

Universidade Fernando Pessoa2

 

Ana Santos

Universidade do Minho3

 

1. PSM, IA y Retos Reguladores

 

Desde las contribuciones pioneras de Alan Turing (1936/1950) hasta el reciente reconocimiento de Hopfield y Hinton con el Premio Nobel de Física (2024) por sus avances en redes neuronales artificiales, la Inteligencia Artificial (IA) ha evolucionado notablemente.

Pero, ¿qué es esta inteligencia? Santaella (2023) profundiza en este debate en su obra, cuyo título plantea la pregunta recurrente en la actualidad: A inteligência artificial é inteligente? En este debate, el autor concluye: «De hecho, la IA es inteligente porque el ordenador ha adquirido el potencial de aprender y tomar decisiones basadas en la información que recibe» (Santaella, 2023: 186). Cremer y Kasparov (2021) aclaran que, en su forma más simple, la IA es un ordenador que actúa y decide de formas que parecen inteligentes.

Frente a la IA, su evolución y desafíos, el objetivo es comprender los movimientos hacia la regulación, en línea con los valores de los Medios de Servicio Público (PSM), basados en los pilares del periodismo.

En este contexto, se presentan las normativas adoptadas en la Unión Europea y cómo las han adoptado los medios de comunicación. Se destaca el escenario del caso portugués y de otros once países pertenecientes a la organización Public Media Alliance, donde se ha debatido «cómo (la IA) puede impactar en el periodismo y en la confianza del público en el periodismo, así como en la esfera de la información en general» (Public Media Alliance, s.f.a). También se destaca el papel del Observatório de Comunicação (OberCom) que, a través de sus investigadores y la producción de un informe anual, busca entender y analizar las tendencias en el campo de la comunicación en el país (Cardoso; Paisana; Pinto-Martinho, 2024), incluyendo el papel de la IA en el periodismo, y la sensibilidad de las audiencias a esta presencia.

Así pues, el estudio informativo propuesto pretende ayudar a comprender el impacto actual de la IA en los PSM y los dilemas que se plantean en la gestión del tratamiento de datos para la producción de contenidos.

 

 

2. Inteligencia Artificial: de Turing a la IA generativa

Los avances en inteligencia artificial permiten comprender su magnitud. La publicación de 1950 Computing Machinery and Intelligence de Alan Turing, con su test que trataba de evaluar la capacidad de un ordenador para mostrar un comportamiento inteligente, la inteligencia que se buscaba estaba relacionada con la rapidez para encontrar un dato y su capacidad para conectarlo con otro, dando lugar a información. Para entender la inteligencia artificial hoy en día, es necesario darse cuenta de que se ha producido un cambio significativo en la forma en que las máquinas procesan la información, pasando de la inferencia mecánica lineal al funcionamiento digital recursivo. A diferencia de los primeros ordenadores programados con funciones predeterminadas, la IA opera sobre la base de sistemas probabilísticos, aprendiendo de grandes conjuntos de datos conocidos como big data (Hessel; Lemes, 2023).

El reconocimiento de patrones, el procesamiento del lenguaje natural y la visión por computador desarrollados por las técnicas de aprendizaje automático han permitido que los algoritmos aprendan representaciones complejas de datos capaces de ser utilizadas frente a los avances en el manejo de big data y las capacidades de procesamiento que han permitido el desarrollo de redes neuronales artificiales, que simulan el funcionamiento del cerebro humano para procesar grandes cantidades de datos. Bengio et al. (2016) señalan que las redes neuronales profundas han revolucionado la capacidad computacional para procesar y extraer patrones significativos de datos no estructurados, permitiendo avances significativos en el reconocimiento de imágenes, el procesamiento del lenguaje natural y el análisis predictivo a una escala sin precedentes.

Los años 2022 y 2023 estuvieron marcados por el crecimiento explosivo de la IA generativa. A diferencia de la IA predictiva tradicional, que analiza datos pasados, la IA generativa produce contenido, incluyendo texto, imágenes, audio y datos concisos. Esto es posible gracias al aprendizaje automático, que utiliza redes neuronales que interpretan los datos y generan respuestas, creando soluciones basadas en su programación y en la información disponible. La clave está en la capacidad de las máquinas para aprender y ser entrenadas como valiosos asistentes para diversas tareas cotidianas (Félix; Fonseca, 2023).

Los modelos generativos de IA se entrenan con grandes cantidades de datos disponibles en Internet y reproducen el conocimiento existente sin ninguna creatividad real. Además, es fundamental darse cuenta de que se trata de máquinas de correlación estadística que no «razonan» como los humanos y cuyo funcionamiento interno puede resultar misterioso incluso para sus creadores (Sampaio et al., 2024).

El desarrollo de interfaces conversacionales generativas, como ChatGPT, Copilot, Gemini y Claude, marcan un avance significativo en el procesamiento del lenguaje natural, permitiendo que la IA se acerque mucho a la vida profesional y cotidiana, impactando directamente en el trabajo que se realiza en las redacciones de los PSM.

La IA, que puede aumentar considerablemente la productividad en las redacciones, sitúa al periodismo en un dilema fundamental, explorando la dicotomía entre lo positivo y lo negativo; mientras por un lado se teme que la IA amenace los pilares éticos y deontológicos de la profesión, por otro se presenta como una herramienta revolucionaria, capaz de optimizar procesos, ayudar en el análisis de datos, verificar hechos y automatizar tareas. El impacto de la IA en el periodismo contemporáneo ha generado un intenso debate, al fin y al cabo, cada vez más, la dosificación en el uso de la IA se presenta como medicina o veneno.

Los mismos bots, trols y perfiles de PSM que amplían el alcance de los mensajes, movilizando eficazmente causas importantes para la sociedad en formatos de comunicación innovadores, también son responsables de manipular la opinión pública amplificando artificialmente los contenidos, difundiendo noticias falsas y desinformación. Además, recopilan y manipulan datos personales y estadísticas, logrando polarizar y radicalizar discusiones en grupos, causando daño a individuos y a la comunidad, influyendo en decisiones políticas e impactando en la revisión de instituciones y medios de comunicación tradicionales.

En este contexto, es necesario reflexionar sobre el periodismo desde un nuevo paradigma tecnológico, analizar y prepararse para los impactos y dilemas que, en el caso de los PSM, se vuelven aún más relevantes dados los valores de estas organizaciones.

 

3. Análisis de la regulación y del escenario actual en Portugal

 

Como ya se ha explicado, la problematización de la inteligencia de las máquinas no es un ejercicio reciente. Desde la informatización de las redacciones, pasando por las potencialidades aportadas por Internet y culminando ahora con la explosión de las herramientas de IA generativa, son múltiples y diversas las intervenciones de las máquinas en la producción y creación de contenidos informativos. Sin embargo, este «deslumbramiento», como señala Pereira (2023: 116), trae consigo el miedo y la necesidad de regulación como forma de garantizar las libertades, la democracia, los derechos de autor y los valores éticos y deontológicos asociados al ejercicio periodístico.

Cruz y Santaella (2024: 39) consideran que la IA está reconfigurando el periodismo y que su uso responsable mejora la «eficiencia del trabajo periodístico». Sin embargo, estas transformaciones plantean dudas fundamentales sobre la responsabilidad de su uso y las implicaciones económicas, jurídicas y éticas que conlleva.

En un informe de febrero de 2025, el OberCom (Couraceiro et al., 2025: 5) también ve la IA no como «una tendencia futura», sino como «una realidad presente» capaz de condicionar la producción, distribución y consumo de noticias. El documento también señala que la integración de esta tecnología «no está exenta de desafíos» y «riesgos potenciales», como difundir información «inexacta» que podría poner en peligro la calidad y fiabilidad de las noticias. Así, en todo el mundo surgen posturas que subrayan la importancia de un escrutinio riguroso y la necesidad de establecer normas y legislar el uso de esta herramienta disruptiva.

En forma de reglamentos, normas, manuales o cartas de principios, profesionales del sector, sindicatos, reguladores y legisladores tratan de elaborar directrices para incorporar la IA a los medios de comunicación y al periodismo. En Portugal, un reciente estudio del Observatório Social para a Inteligência Artificial & Dados Digitais realizado para sondear el uso de la IA en los diferentes medios de comunicación nacionales, advierte de la ausencia de «estrategias editoriales y directrices específicas» (Vicente; Sotero; Flores, 2025: 4), a pesar de que casi todos los participantes en el estudio (98,6%) señalan que es imprescindible crearlas. Sin embargo, existe un camino que ya se ha iniciado en Europa. En agosto de 2024, el Parlamento Europeu y el Conselho Europeu (2024) aprobaron el Regulamento sobre Inteligencia Artificial, en el que, a lo largo de 144 páginas, surgen las primeras reglas del mundo. Un documento precursor, cuyo objetivo era armonizar las normas y definir un estándar global de regulación en el ámbito de la IA y la defensa de los derechos fundamentales de los ciudadanos de la UE, como deja claro el artículo 1:

El objetivo del presente Reglamento es mejorar el funcionamiento del mercado interior estableciendo un régimen jurídico uniforme (...) para promover la adopción de la inteligencia artificial (IA) centrada en el ser humano y digna de confianza, garantizando al mismo tiempo un elevado nivel de protección de la salud, la seguridad, los derechos fundamentales consagrados en la Carta de los Derechos Fundamentales de la Unión Europea (Carta), en particular la democracia, el Estado de Derecho y la protección del medio ambiente, la protección contra los efectos nocivos de los sistemas de IA en la Unión, y apoyar la innovación (Parlamento Europeo; Conselho Europeu, 2024).

Al regular el uso de la IA en la UE, los eurodiputados pretenden fomentar la innovación, garantizar la seguridad y proyectar los derechos humanos, temas que habían inspirado la elaboración de un Livro Branco (Comissão Europeia, 2020: 1), donde ya se ponía de manifiesto el objetivo de «promover la adopción de la IA y abordar los riesgos asociados a determinados usos de esta nueva tecnología».

En Portugal, las primeras preocupaciones relativas al marco jurídico y reglamentario de la IA surgieron en mayo de 2021, a través de la Carta Portuguesa de Direitos Humanos na Era Digital (Assembleia da República, 2021: 7). El artículo 9, sobre el «Uso de la inteligencia artificial y de los robots», pretende garantizar que el uso de la Inteligencia Artificial esté «guiado por el respeto a los derechos fundamentales, garantizando un justo equilibrio entre los principios de explicabilidad, seguridad, transparencia y responsabilidad».

A pesar de que se trata de documentos extensos, lo que da fe de la complejidad del tema, los medios de comunicación y el periodismo han quedado al margen de las preocupaciones de los legisladores europeos y nacionales. Ninguno de estos documentos hace referencia a la elaboración de directrices o recomendaciones para regular el uso de la IA en las redacciones. Así, en un contexto de vacío legal y falta de normas o reglamentos específicos, comenzaron a elaborarse y divulgarse documentos como manuales y cartas de principios. En 2023, fue publicada una serie de principios en la Carta de París sobre IA e Jornalismo, que enumera normas de uso y principios éticos esenciales capaces de garantizar la integridad de la información y preservar la función social del periodismo. Los expertos en IA y periodismo reconocen que la Inteligencia Artificial «introduce una nueva categoría de tecnologías, con una capacidad sin precedentes para interferir en el pensamiento, el conocimiento y la creatividad humanos» capaz de reconfigurar la industria de los medios de comunicación, en particular desde el punto de vista de la «recopilación de información», la «búsqueda de la verdad» y la «narración y difusión de ideas» (RSF, 2023).

Los sindicatos europeos de periodistas también están alineados con esta preocupación reguladora. En una reunión del Grupo de Expertos de la Federação Europeia de Jornalismo (FEJ), que reunió periodistas en 2023, quedó claro que las redacciones de toda Europa ya utilizan la IA para realizar tareas muy diversas, como transcribir entrevistas, resumir y recopilar información, mejorar textos, pero que también es necesario establecer normas para el uso de la IA y que esta solo puede ser una herramienta y en ningún caso sustituir a los seres humanos.

En abril de 2024, la Entidade Reguladora para a Comunicação Social (ERC) también se pronunció a favor de respetar los principios generales establecidos en la Carta de París. Por primera vez, el Conselho Regulador se pronunció sobre los contenidos informativos generados por IA por CNN Portugal, reiterando que el uso de estas herramientas debe ser explícito y transparente para el público y deben seguirse siempre los códigos de buenas prácticas. El ERC (2024) también pidió la creación de normas de uso, solicitando al servicio de programación de CNN Portugal que elaborase y publicase una carta de principios sobre el uso de la IA en su redacción, dado que la emisora había utilizado la tecnología en una sección sobre los debates electorales, si pretendía seguir produciendo contenidos informativos utilizando este recurso.

SIC y Expresso, medios de comunicación pertenecientes al grupo privado Impresa, fueron los primeros medios portugueses en publicar una carta de principios. En 2024, los Conselhos de Redação aprobaron un documento que enumera un conjunto de reglas y prácticas que guían a los periodistas del Grupo en el ejercicio de su profesión. Sin entrar en el detalle de la Carta de París, y a lo largo de apenas dos páginas, se reconoce el potencial emergente de las herramientas de Inteligencia Artificial y se admite la necesidad de afirmar un conjunto de principios complementarios a los Estatutos Editoriais y al Código de Conduta dos Jornalistas del grupo ante un escenario aún desconocido. Esta Carta de Princípios también reflexiona sobre la convicción de que «aún no es posible conocer el verdadero alcance de estas tecnologías», pero que sin duda atravesamos un «periodo decisivo para el periodismo, con la confluencia de fuerzas con gran potencial para mejorar la profesión y también altos peligros para su integridad y sostenibilidad» (SIC, 2024: 3).

A SIC y a Expresso les siguió RTP. En noviembre de 2024, Gonçalo Madail, director del Centro de Inovação da RTP, participó en las Jornadas sobre Inteligência Artificial, PSM e Valor Público (UFP-Porto), donde reconoció y expresó la intención y necesidad de que la televisión pública avance en la regulación del uso de IA. Esta intención se plasmaría en un documento hecho público en abril de 2025. En un texto breve pero exhaustivo, RTP reconoce «el periodismo como piedra angular de la democracia» y atribuye a la IA la utilidad de «realizar la función de informar de forma transparente y rigurosa» (RTP, 2025: 1), sin olvidar la posibilidad de que estas herramientas puedan «constituir una fuente de desinformación». En la Carta de Principios, el medio público establece directrices para el uso integral, transparente y responsable de esta tecnología en la producción de noticias con base en las mejores prácticas y sus valores editoriales, pero sin referenciar sus obligaciones como PSM.

El documento abarca nueve temas, de los cuales nos referiremos brevemente sólo a los tres que encabezan la lista por parecernos esenciales. La primera preocupación expresada se centra en la «garantía de la autonomía y responsabilidad humana» (RTP, 2025: 1), reafirmando que las decisiones editoriales deben ser tomadas exclusivamente por seres humanos, quienes son responsables de asegurar el cumplimiento legal y ético y la calidad de los contenidos periodísticos producidos a través de un monitoreo continuo y crítico. En segundo lugar, se advierte a los periodistas que no utilicen IA para crear contenido noticioso factual, a menos que el tema de la pieza en sí sea el uso de IA y tenga sentido demostrar cómo funciona, o si la herramienta es útil para ayudar a desarrollar contenido ilustrativo como gráficos o animaciones explicativas, «siempre que no distorsione los hechos ni engañe al público» (RTP, 2025: 2). El peligro de «manipulación de imágenes, vídeos, textos y sonidos» también es muy claro en el tercer principio, donde se considera fundamental la transparencia de uso y donde se exige que el público sea «informado sobre el uso de la IA cuando se emiten contenidos visuales o sonoros producidos por ella» (RTP, 2025: 2).

Reflejando el análisis realizado de los dos documentos existentes respecto a la realidad portuguesa, tanto los medios privados como los públicos reconocen la rápida evolución tecnológica en este campo y la importancia que estas herramientas pueden tener para ayudar a las prácticas periodísticas. Sin embargo, aún no existe una práctica totalmente regulada en la mayoría de las redacciones. Dada la cobertura mediática prestada al tema e incluso los esfuerzos realizados por diferentes actores, el uso de IA para ayudar en la producción de noticias es ahora innegable. Sin embargo, todos ellos refuerzan la necesidad de una regulación y un uso responsable basado en valores fundamentales alineados con la ética periodística y el marco legal y deontológico vigente.

 

4. Directrices destacadas por el PSM

 

El proyecto de Public Service Media and Generative AI de la Public Media Alliance ayuda a comprender el estado actual del uso de los medios en otros once países, para difundir recomendaciones sobre estas herramientas de medios de servicio público. De las más de 50 afiliadas a la asociación, en abril de 2025, solo 13 tenían directrices publicadas en su sitio web, como se muestra en la tabla (Public Media Alliance, s.f.a.).

Tabla 1. Lista PSM

País

Organización

Alemania

Bavarian broadcaster (BR)

Alemania

Südwestrundfuk (SWR)

Alemania

Zweites DeutschesFernsehen (ZDF)

Bélgica

VRT

Canadá

CBC/Radio-Canada

España

Radio Televisión Española (RTVE)

Francia

France Télévisions

Lituania

Lietuvos Nacionalinis Radijas (LRT)

Nueva Zelanda

Radio New Zealand (RNZ)

Reino Unido

British Broadcasting Corporation (BBC)

Suecia

Sveriges Radio

Suiza

Schweizerischa Rdio und Fernsehanstalt (SRG SSR)

Taiwán

Taiwan Public Television Service Foundation (PTS)

Fuente: Autor.

 

Los principios PSM son la preocupación central de la asociación, que entiende estos medios de comunicación de manera amplia y los define como «emisores públicos en la era contemporánea de los medios digitales, donde proporcionan servicios en múltiples plataformas además de televisión y radio» (Public Media Alliance, s.f.b.).

En este punto, las empresas que publican sus cartas de uso de IA Generativa destacan que se deben mantener los valores previstos para PSM, entre ellos: ser accesible al mayor número posible de personas; ser gobernado por un consejo que permita la independencia editorial y el pluralismo; fomentar la participación ciudadana; ser creíble, confiable y compartido; abordar y buscar soluciones a los desafíos que enfrenta la sociedad; y combatir la desinformación.

Partiendo de estos principios, los documentos de las distintas emisoras buscan asegurar el mantenimiento de sus valores, proponiendo, como en la CBC (CBC Radio-Canada, s.f.), el uso de IA Generativa para enriquecer la experiencia pública, o RTVE (Corral, s.f.) que busca informar y educar sobre el uso de interfaces, valorando la diversidad y los derechos sociales.

France Télévision (s.f.) se distingue en este punto por su preocupación específica, respecto a las demás, de corregir rápidamente los errores que se produzcan en sus emisiones. Las indicaciones son pautas para la aplicación de contenidos generados por IA que, como afirman Hessel y Lemes (2023), opera con sistemas probabilísticos y, como inteligencia no humana, no reconoce la diferencia entre informaciones, deepfakes o trols.

De estos documentos también es posible destacar los principios generales comunes a las directrices del PSM en cuanto al uso de IA Generativa: Ética, Transparencia, Uso Responsable, Integración en la Producción de Contenidos, Innovación y Experimentación.

 

4.1. Ética, Transparencia y Uso Responsable

 

La ética es uno de los puntos que recibe mayor atención en los principios del PSM, con énfasis en la protección de datos, la lucha contra la desinformación y el compromiso con la imparcialidad y la integridad periodística. La LRT (2025) destaca la necesidad de garantizar la libertad de expresión y brindar información que «ayude al público a comprender los procesos políticos, sociales y culturales». Además, incluye a expertos en tecnologías de la información en el circuito para evitar posibles riesgos del uso de IA y comprender las «decisiones que toman los algoritmos y sus actividades». Sverige Radio (2023) enfatiza la necesidad de ser conscientes de que pueden estar presentes prejuicios/sesgos en los contenidos puestos a disposición por la IA, ya que, como afirma Sampaio (2024), estas herramientas reproducen principalmente el conocimiento puesto a disposición por los humanos, sin diferenciar doctrinas u opiniones en Internet.

Respecto a la transparencia en el uso de la IA, los medios destacan la necesidad de informar a los superiores de las redacciones y al público sobre qué tecnologías se utilizan y cómo se utilizan. Como lo señala explícitamente SWR (2023), es necesario asegurar que el público comprenda el trabajo periodístico y que éste sea responsable y esté comprometido con una cultura integral, donde el manejo de datos, incluso en el caso del uso de IA, sea adecuado.

En este mismo contexto, el PTS (s.f.) define un conjunto de procedimientos que deben llevarse a cabo cuando se utiliza un tratamiento de datos, para que sus decisiones y el contenido producido sean interpretables.

Félix y Fonseca (2025) entienden que la interpretación de datos a través de las máquinas es el resultado de su capacidad de aprendizaje y entrenamiento como asistentes en las tareas cotidianas. Por tanto, su uso responsable se basa en el trabajo que realizan los propios periodistas en las redacciones. Como explica la Bavarian Broadcaster (BR, 2024), la IA es una herramienta para mejorar el periodismo, pero es responsabilidad de los profesionales controlar la información y verificarla. La LRT (2025) refuerza que los riesgos asociados al uso de IA deben evaluarse continuamente para poder analizar las decisiones tomadas por los algoritmos.

 

4.2. Integración en la producción de contenidos

 

RNZ (2024) destaca que la IA «puede ser una herramienta poderosa, pero no es una solución. (...) también conlleva riesgos en torno a la ley, los derechos de autor». En consecuencia, RNZ (2024) determina que, en este momento, «no publicará, transmitirá ni difundirá a sabiendas obras creadas por IA generativa». Sin embargo, creó un grupo de trabajo para evaluar su uso.

En el caso de la BBC (2023), la guía dice que «la generación de IA puede brindar una oportunidad significativa para que la BBC profundice y amplíe su misión, permitiéndonos ofrecer un mayor valor a nuestras audiencias y a la sociedad». Pero también considera que «introducirá riesgos nuevos y significativos si no se aprovecha adecuadamente». La organización anunció medidas para protegerse contra la extracción de sus datos sin su permiso al anunciar sus directrices. De esta forma, se impidió que «rastreadores web como los de Open AI y Common Crawl» accedieran a sus sitios web (BBC, 2023).

Si bien aún existen reservas sobre el uso de la IA generativa, el procesamiento que realizan los sistemas permite, más allá de las limitaciones físicas de los humanos (Santaella, 2023), extraer datos y realizar análisis, lo que hace que estas herramientas sean de gran valor en el apoyo a la creación de contenidos. Desde esta perspectiva, a la hora de abordar la integración de estos sistemas, las televisiones apuntan a su uso como herramienta para optimizar el trabajo de los periodistas y establecer un control editorial realizado por humanos, con la comprobación de posibles deepfakes. También mencionan la necesidad de verificar la plausibilidad de los sistemas automatizados manteniendo el circuito human-in-the-loop.

 

4.3. Innovación y Experimentación

 

En términos de innovación y experimentación, RTVE es hoy una de las emisoras que destaca en este grupo por contar con bots, avatares sintéticos para la producción de contenidos, como en el caso del Proyecto Hiperia (RTVE, 2023), y por la verificación de información dentro del Proyecto IVERES (2023), en colaboración con universidades y el Gobierno español. Así, establece que el uso de la IA generativa debe tener como objetivo enriquecer la experiencia pública, o RTVE (Corral, s.f.), que busca informar y educar sobre el uso de las interfaces, valorando la diversidad y los derechos sociales, manteniendo la transparencia en sus procesos de captura de información y la calidad de los servicios informativos.

ZDF (2023) presenta un proyecto para integrar la IA en los procesos de producción. Los equipos editoriales están abriendo nuevos caminos en la comunicación con nuevos formatos, el uso de gráficos modernos, IA y enfoques de periodismo de datos y, al hacerlo, sirven a todos los canales de difusión relevantes para el grupo objetivo de este contenido (ZDF, 2024: 13). La oferta se está ampliando, a través de subtítulos y audiodescripciones con soporte de IA del contenido del portal de streaming en menos tiempo, con mayor producción y en más idiomas (ZDF, 2024: 24).

En el caso de la BBC (2023), se crearon grupos para ayudar a los equipos a trabajar de manera efectiva en diferentes áreas, en lo que respecta a los flujos de producción de contenidos y back-office. La organización también busca discutir el tema con la «industria tecnológica, los socios de los medios y los reguladores para defender la seguridad y la transparencia en el desarrollo de la IA general y la protección contra los daños sociales» (BBC, 2023). A través de proyectos, comenzó a explorar herramientas de procesamiento para mejorar la investigación, producción, almacenamiento y publicación de datos, además de combatir la desinformación.

Entre los afiliados de Public Media Alliance que tienen pautas publicadas en su sitio web, muchos trabajan con investigadores en el campo de la tecnología de la información y las comunicaciones. En los casos de RNZ, RTVE y France Télévision, también llevan a cabo proyectos encaminados a modernizar sus potencialidades, como el desarrollo del storytelling y la personalización de contenidos.

Como explican Túñez-López et al. (2021), la IA generativa requiere un cambio en el perfil del periodista que tendrá que ser menos operativo. De esta forma, se evidencia la importancia del debate con la comunidad académica, profesionales y empresas enfocadas en las tecnologías de la información, pues éstas juegan un papel fundamental en la optimización, el respeto a los valores corporativos y fomentan la participación pública en la PSM.

 

5. Conclusión

 

Las investigaciones han demostrado que la IA generativa sigue siendo un desafío para los PSM. A pesar de ser una herramienta que puede ayudar en la producción de contenidos y garantizar nuevas experiencias para periodistas y público, aún existe el desafío de utilizar sus posibilidades de manera inteligente por parte de los humanos. Primero que todo, es necesario entender cómo funciona. La supervisión humana es esencial para mantener la calidad de la información, la ética, la transparencia y el uso responsable de las herramientas. El periodista sigue siendo irremplazable. Pero en el caso de su uso por parte de los PSM, todavía queda mucho por discutir. Garantizar sus principios rectores, la capacidad de innovación y exploración del potencial de la IA y mantener el interés público son desafíos para estos medios. Los dilemas e impactos de la IA en la producción periodística son muchos, pero aún queda mucho por debatir para desmitificar estas herramientas.

 

6. Referencias bibliográficas

 

Assembleia da República. (2021). Lei n.º 27/2021. Diário da República 1ª série, 95 (maio): 5-10. https://files.diariodarepublica.pt/1s/2021/05/09500/0000500010.pdf

BBC. (2023). Generative AI at the BBC. https://www.bbc.co.uk/mediacentre/articles/2023/generative-ai-at-the-bbc
BR. (2024). AI Guidelines at Bavarian Broadcasting. https://www.br.de/extra/ai-automation-lab-english/ai-ethics100.html

Bengio, Y.; Goodfellow, I.; Courville, A. (2016). Deep learning. MIT Press. Cardoso, G.; Paisana, M.; Pinto-Martinho, A. (2024). Digital News Report Portugal 2024. Publicações OberCom. OberCom - Observatório da Comunicação. CBC Radio-Canada. (s.d). Our approach to Artificial Intelligence. https://cbc.radio-canada.ca/en/vision/governance/approach-to-artificial-intelligence
Comissão Europeia (2020). Livro Branco. https://eur-lex.europa.eu/PT/legal-content/glossary/white-paper.html
, D. (s.f). RTVE: IA en un gran medio público, avanzando con certeza y garantías entre la incertidumbre. https://www.rtveia.es/publicaciones/

Couraceiro, P.; Paisana, M.; Vasconcelos, A.; Cardosos, G.; Baldi, V. (2025). A Generativa: Riscos e oportunidades para o jornalismo. OberCom–Observatório da Comunicação.https://doi.org/10.5281/zenodo.14800937

Cremer, D.; Kasparov, G. (2021). The future of AI must be human-centered. Harvard Business Review, 99(2), 64-71.
Cruz, K.; Santaella, L. (2024). Jornalismo e Inteligência Artificial podem caminhar juntos? 1st. ed. Edição das Letras e Cores.
ERC. (2024). Deliberação ERC/2024/
178 (OUT-TV). https://www.erc.pt/document.php?id=YzAxODVlNjgtY2Y1NS00NWEzLThiOTktOWQ2YWQ3MjU5MmJk
Félix Mateus, A.; Brito Fonseca, R. (2025). Inteligência artificial e educomunicação. European Public & Social Innovation Review, 10, 01-20. https://doi.org/10.31637/epsir-2025-1840

France Télévision. (s.f). Bonnes pratiques déontologiques. https://www.francetvinfo.fr/docs/chartes/charte_deontologique_francetv.pdf

Hessel, A.M.D.G.; Lemes, D.O. (2023). Criatividade da Inteligência Artificial Generativa. TECCOGS – Revista Digital de Tecnologias Cognitivas, (28), 119-130. https://revistas.pucsp.br/index.php/teccogs/article/view/67075
LRT. (2025). LRT parengti dirbtinio intelekto panaudojimo pricipai. https://apie.lrt.lt/naudinga-informacija/pranesimai-ziniasklaidai/lrt-parengti-dirbtinio-intelekto-panaudojimo-pricipai
Madail, G. (2024, Nov.10). Inteligência Artificial, PSM e Valor Público: onde estarão os medias públicos em 2034? [Palestra]. Jornadas sobre Inteligência Artificial, PSM e Valor Público, UFP, Porto.

Pereira, J.P. (2023). José Pacheco Pereira. In C. Fiolhais (Org.), Inteligência Artificial e Cultura. (pp.113-129). Gradiva. Proyecto Iveres. (2023). Proyecto Iveres - Identificación, Verificación y Respuesta. https://iveres.es/
PTS (s.f.). Taiwan Public Television Service Foundation AI Usage Guidelines. https://www.publicmediaalliance.org/wp-content/uploads/2023/11/Taiwan-Public-Television-Service-Foundation-AI-Usage-Guidelines42.pdf
Public Media Alliance. (s.f.). About Us. https://www.publicmediaalliance.org/about-us/
Public Media Alliance. (s.f.a). Home. https://www.publicmediaalliance.org
Public Media Alliance. (s.f.b). Public Service Media and Generative AI. https://www.publicmediaalliance.org
Europeu; Conselho da União Europeia. (2024). Regulamento do Parlamento Europeu e do Conselho. Jornal Oficial da Comissão Europeia: Regulamento (EU) 2024/1689. https://eur-lex.europa.eu/legal-content/PT/TXT/HTML/?uri=OJ:L_202401689

RNZ (2024). RNZ Artificial Intelligence Principles. https://www.rnz.co.nz/assets/cms_uploads/000/000/490/AI_Principles.pdf
RSF. (2023). Carta de Paris sobre IA e Jornalismo. https://rsf.org/sites/default/files/medias/file/2023/11/Carte%20de%20Paris%20sobre%20IA%20e%20jornalismo_0.pdf

RTP (2025). Carta de Princípios para o uso da Inteligência Artificial (IA) na Produção de Notícias em Televisão e Rádio. https://media.rtp.pt/empresa/wp-content/uploads/sites/31/2025/04/Carta-de-Principios-para-o-uso-da-Inteligencia-Artificial.pdf 

RTVE (2023). Novedades en Radio 3 Extra - Hiperia, Inteligencia Artificial y música. https://www.rtve.es/radio/20230227/nace-hiperia-primer-contenido-audiovisual-inteligencia-artificial-radio-3-extra/2427987.shtml
Sampaio, R.C.; Sabbatini, M.; Limongi, R. (2024). Diretrizes para o uso ético e responsável da inteligência artificial generativa: um guia prático para pesquisadores. Sociedade Brasileira de Estudos Interdisciplinares da Comunicação - Intercom.

Santaella, L. (2023). A inteligência artificial é inteligente? Edições 70. SIC (2024). Estatuto Editorial SIC Notícias. https://sdistribution.impresa.pt/data/content/binaries/f7e/927/c87f334d-8dc8-4526-8004-5d2a36f7b2bb/Estatuto-Editorial-SIC-Noticias-e-Carta-de-Principios_12.06.2024.pdf
 
Sverige Radio (2023). Policy för användning av generativ AI på Sveriges Radio. https://www.sverigesradio.se/Diverse/AppData/Isidor/Files/5135/0a61187b-bc15-421e-99b9-e246549db5bf.pdf
SWR (2023). Publizistische Richtlinien zum Umgang mit «Künstlicher Intelligenz».https://www.publicmediaalliance.org/wp-content/uploads/2023/12/KI-Richtlinien-im-SWR.pdf
Túñez-López, J.M.;Fieiras-Ceide, C.;Vaz-Álvarez, M. (2021). Impact of Artificial Intelligence on Journalism: transformations in the company, products, contents and professional profile. Communication & Society, 34(1), 177-193. https://www.doi.org/10.15581/003.34.1.177-193
Vicente, P.N.; Sotero, J.M.; Flores, A.M.M. (2025). Jornalistas e Inteligência Artificial: Perceções, práticas, desafios e oportunidades. Observatório Social para a Inteligência Artificial & Dados Digitais. DOI: 10.5281/zenodo.14609011

ZDF. (2023). Guiding principles for the use of Generative AI. https://www.zdf.de/assets/ki-grundsaetze-102~original?cb=1745252750126
ZDF. (2024). Mitten in der Gesellschaft – Die Zukunft Im Blick: Zdf - Selbstverpflichtungserklärung 2025/2026. https://www.zdf.de/assets/gremien-fernsehrat-selbstverpflichtungserklaerung-106~original?cb=1745425518702

 

1 Profesora en la Universidade Fernando Pessoa (PT).

2 Doctoranda en la Universidade Fernando Pessoa (PT) y en la Universidade Federal do Paraná (BR).

3 Doctoranda en la Universidade do Minho (PT).

10.