Inteligencia Artificial: retos y oportunidades para la formación y el empleo en el ámbito
de la comunicación. Observatorio ATIC, nº 7
(2025)

 

 

Título del Capítulo: «Impacto de la IA en la profesión periodística: retos y oportunidades formativas para las Universidades»

Autoría: Silvia Martínez-Martinez

Cómo citar este Capítulo: Martínez-Martinez, S. (2025): «Impacto de la IA en la profesión periodística: retos y oportunidades formativas para las Universidades». En Sánchez-Navarro, J.; Hellín, P. (eds.), Inteligencia artificial: retos y oportunidades para la formación y el empleo en el ámbito de la comunicación. Observatorio ATIC, nº 7. Salamanca: Comunicación Social Ediciones y Publicaciones.
ISBN: 978-84-10176-09-6

d.o.i.: https://doi.org/10.52495/c10.emcs.36.p114

 

 

 

Capítulo 10. Impacto de la IA en la profesión periodística: retos y oportunidades formativas para las Universidades

 

 

 

Silvia Martínez-Martinez

Universitat Oberta de Catalunya

 

1. Introducción

 

La revolución tecnológica que ha marcado la evolución de la inteligencia artificial generativa ha abierto el debate sobre sus efectos en el sector y la profesión periodística. Si la publicación del working paper «GPTs are GPTs: An early look at the labor market impact» (Eloundou et al., 2023) apuntaba que la labor desarrollada por los reporteros se situaba entre las más altamente impactadas, la práctica también demuestra que la experimentación con la inteligencia artificial y los automatismos en la información de actualidad se remonta a años atrás y nos ha ido dando muestras de las posibilidades y los riesgos en su empleo (Martínez-Martínez, 2019). Un contexto en el que nuestra dieta informativa y nuestros hábitos de consumo, tal y como se muestra en el 2023 Digital News Report (Newman, 2023), se han ido viendo cada vez más condicionados por criterios algorítmicos y en el que, por tanto, se refuerza la necesidad de reivindicar la función del periodismo para fortalecer la democracia.

Las grandes empresas tecnológicas, por su parte, aumentan sus inversiones en el desarrollo y avance de la inteligencia artificial y se acercan a los medios informativos para ofrecer sus servicios o llegar a acuerdos. Un ejemplo lo encontramos en la solución Signals que Microsoft presenta con Semafor (Gillespie, 2024), en un momento en el que todavía los marcos legislativos y deontológicos están intentando dar respuesta a la nueva situación que plantea un entorno tan cambiante como el que se describe.

El objetivo de este capítulo es profundizar en los retos y oportunidades que se plantean las Universidades a la hora de formar a periodistas en la era de la IA. Concretamente nos interesamos por los conocimientos, habilidades y competencias que se hacen esenciales en este contexto. Para ello procederemos a ofrecer una aproximación a los avances de la tecnología para ver cómo ésta impacta en la teoría de la comunicación, con especial atención a la cibernética. Exploraremos el contexto para reconocer los principales actores en el desarrollo de la IA y sus acercamientos a empresas mediáticas. También se procederá a una revisión de prácticas periodísticas en las que esta tecnología se emplee. Por último, se revisarán los avances en cuestiones relativas al régimen jurídico relacionadas con la IA y el ámbito de la comunicación y la información, así como las alusiones que desde los códigos deontológicos y la ética periodística se hagan con referencia al empleo de la IA.

Con todo ello se brindará un mapa general que permita establecer una hoja de ruta para incorporar el empleo responsable y útil de la IA en el periodismo en los planes docentes.

 

2. IA, teoría de la comunicación y periodismo

 

Tanto la reflexión teórica como la agenda de investigación se han visto impactadas por el avance experimentado por la inteligencia artificial. Entre los ámbitos científicos, la comunicación no se ha mantenido al margen de esta revolución marcando nuevos hitos en su desarrollo. Guzman y Lewis (2020) nos recuerdan que, en este campo, la teoría se había ido centrando en la comunicación entre humanos que, en todo caso, podía estar mediada por la tecnología, incluyendo así alguna referencia a autores clásicos como Schramm (1972). Además destacan un nuevo elemento de cambio que diferencia a dispositivos interactivos previos del actual uso de la IA —y es que se las asimila a «communicative subjects»—, de manera que afirman: «It is this AI difference of a machine as communicative subject that makes the study of these AI technologies so intriguing for communication scholars but, at the same time, poses a theoretical hurdle». De esta forma consideran que la base teórica en la que se enmarca es la conocida como comunicación humano-máquina (HMC, según las siglas inglesas). En este campo, Simone Natale (2021: 905), recuerda cómo en la cibernética y de la mano de Wiener (1948) se puede encontrar la base teórica que ya se «organized around the concept of communication». En este artículo, y partiendo de la revisión de la obra de Guzman (2018) y Gunkel (2020), señala:

 

First, the «human» component still plays a key role in HMC, since what we call «AI» derives from the technical and material functioning of computing technologies as much as from the contribution of the humans who enter in communication with AI technologies. Second, HMC challenges the very concept of medium, because the machine is at the same time the channel as well as the producer of communication messages (Natale, 2021: 905).

 

En 2022 podemos encontrar un número especial de la revista Human Computer Research que, con el título «Rethinking Communication in the Era of Artificial Intelligence», nos vuelve a situar en esta necesidad de abordar la IA desde el campo de la comunicación pero también en el impacto que esto supone. Así, Sundar y Lee (2022), en el artículo de presentación del número, avanzan cómo en los trabajos que componen el ejemplar se aborda la IA como medio pero también como comunicador y desde perspectivas que van desde la interacción de la persona con el ordenador hasta la comunicación mediada por el ordenador.

En un intento por reflejar las tendencias en la investigación realizada sobre inteligencia artificial en el ámbito de la comunicación, Tosyali (2021) publica una revisión bibliométrica de los trabajos que vieron la luz entre 1982 y 2021 incorporados en la base de datos Web of Science Core Collection y que se localizaron a través de la búsqueda de «artificial intelligence» y en la categoría de comunicación. Los resultados permiten observar no sólo que en ese periodo se registra un interés creciente por el ámbito sino también detectar los temas y las palabras clave empleadas. Ello le facilita apuntar que las expresiones más empleadas fueron artificial intelligence, media, journalism, communication, data, news, digital, y information (2021: 691). Además señala:

 

It could be seen that the studies focused on journalism, natural language processing, human-robot interaction and public relations. «Automated journalism,» «computational journalism,» «robot journalism,» «public relations,» «human-machine communication,» «chatbots,» «social media,» «ethics,» «fake news,» «deepfake,» «posthumanism,» «natural language processing» and «new media» were the main concepts in the studies (Tosyali, 2021: 692).

 

Estos resultados evidencian la relación y la importancia de la IA en el campo del periodismo. Ello justifica el reciente estudio desarrollado por Páez et al. (2024) en el que también realizan una revisión biométrica pero en esta ocasión más focalizada en este ámbito. De esta manera su trabajo se centra en la base de datos que ofrece Scopus y el periodo de análisis queda acotado entre 1989 y 2022. Entre los resultados que obtienen destacan la diversidad de campos a los que se circunscriben los artículos localizados sobre inteligencia artificial y periodismo. Entre las conclusiones señalan que, si bien, los usos de la IA en la profesión todavía «siguen siendo incipientes, se apunta a la importancia de combatir las noticias falsas, incluidos los elementos éticos por tomar en cuenta y los desafíos de enseñanza que deben enfrentarse en la carrera periodística» (Páez et al., 2024: 16), cuestiones estas que abordaremos en las próximas páginas. En su estudio también destacan la relación con otras palabras o temas entre los que incluyen expresiones relacionadas con la datificación, y es que esta conexión de datos e inteligencia artificial viene a impactar tanto al periodismo como a la investigación científica en el desarrollo de ciertas competencias o hasta en la propia interpretación, por ejemplo, de los medios sociales (Martínez-Martínez; Lara, 2014). Específicamente esta relación entre datos e inteligencia artificial puede conllevar «una oportunidad histórica para la necesaria innovación teórica y metodológica en Ciencias Sociales y en Humanidades» (Lope Salvador; Mamaqi; Vidal Bordes, 2020: 59).

 

3. IA, periodismo y medios de comunicación

 

Tal y como se ha señalado previamente, los casos conocidos de uso de la IA en las redacciones de los medios no son ampliamente conocidos si bien su empleo va en aumento y está presente en diferentes fases y tareas desarrolladas por los profesionales de la información. Así, los ejemplos incorporan desde actividades muy básicas y rutinarias hasta grandes proyectos de innovación. Aquí se incluyen desde herramientas para el seguimiento de temas, la traducción o transcripción, la verificación, la elaboración de resúmenes, la redacción de textos o la creación de imágenes, entre otras.

Se suele apuntar el año 2014 como un hito en el desarrollo de robots en el periodismo pues, aunque ya se había experimentado antes con el uso de ciertos automatismos, es entonces cuando se «empieza a conocer de la existencia de noticias escritas por éstos» (Martínez-Martínez, 2019). Se suele señalar en esta cronología la publicación de un breve creado por un algoritmo sobre un seísmo por Los Angeles Times (Bernat Sánchez, 2024: 78). A este le sucedieron otros ejemplos marcados por temáticas bastante concretas como resultados financieros o la evolución de los negocios (AP, Wall Street Journal, The Washington Post), resultados deportivos (AP, The Washington Post), alertas o notificaciones informativas (El País), meteorología, el estado de playas o estaciones de esquí (Vocento), o incluso resultados de coberturas electorales, por ejemplo en medios como Le Monde o el chatbot Politibot para Telegram, hasta que se van produciendo otros proyectos especializados para la cobertura de noticias locales (BBC ) y la verificación de contenidos como Verifica RTVE (Martínez-Martínez, 2019; Tejedor, 2023: 77-83). Esta evolución llega hasta el empleo de voces o presentadores sintéticos e incluso a la posibilidad de automatizar todo el proceso, donde encontramos como muestra la solución ofrecida por «Radio AI de Futuri, en la que buscar información, generar contenido o locutarlo son tareas que quedan resueltas por la tecnología» (Martínez-Martínez, 2024).

Frente a estos ejemplos puntuales es posible conocer el grado de implementación de la IA en los medios de comunicación a partir de diferentes estudios que nos acercan a las prácticas y rutinas desarrolladas. De este modo, un informe reciente sobre el uso que están dando los medios a la IA (Beckett; Yassen, 2023: 6) que recoge los resultados de JournalismAI en 46 países, destaca la presencia de esta tecnología en «al menos una de las áreas de la cadena de valor del periodismo» y «alrededor de un tercio de los participantes declararon tener una política institucional del uso de IA o que están desarrollando una». En el caso de España una investigación de Mayoral, Mera y Morata (2024: 194-196) basado en encuestas y entrevistas a profesionales de medios de comunicación determina que más de la mitad de los medios participantes utilizan en sus redacciones la IA, siendo su presencia más extendida en los digitales. Entre los usos se citan la creación de textos, la distribución de contenidos y el seguimiento o localización de información. Interesante resulta el dato que apunta que cerca del 68% de los redactores preguntados señala que este empleo de la IA «no ha supuesto un cambio decisivo en las rutinas profesionales. A gran distancia, el 11,7% de los periodistas percibe algún tipo de transformación en sus quehaceres» (Mayoral et al., 2024: 196-197) aunque la valoración que tienen de ella es entre negativa y neutra.

Esta percepción sobre el impacto de la IA varía si se piensa en el corto plazo, de manera que un estudio centrado en la visión de expertos de España y Portugal para abordar las tendencias en el entorno mediático entre 2025-2030 señala que (García-Avilés et al., 2023: 5) se incluye entre ellas «la integración omnipresente de la Inteligencia Artificial (IA), con aplicaciones extensas en la recopilación, producción y distribución de contenido». A esta se añade: «En términos de organización laboral y sostenibilidad, la adopción de la IA impulsará un cambio radical en la producción mediática, aunque con nuevos desafíos y de sostenibilidad, como la atracción y gestión de talento». Ello ofrece claves sobre las necesidades formativas actuales para el alumnado que se incorpore al mercado laboral en los próximos años.

Por lo que respecta a la percepción, no se puede dejar de lado la valoración de la audiencia con respecto al empleo de la IA en el periodismo. Su aceptación puede condicionar también el desarrollo y empleo de la tecnología en un futuro inmediato. El Digital News Report 2024 a partir de encuestas en 28 países, muestra que los usuarios se sienten más «cómodos» cuando la tecnología es supervisada y asiste a los profesionales. Específicamente se señala:

Según nuestros datos, actualmente sólo una minoría se siente cómoda consumiendo noticias creadas por humanos con la ayuda de IA (36%), y una proporción aún menor se siente cómoda consumiendo noticias creadas principalmente por IA con supervisión humana (19%).

Del mismo modo, siguiendo este estudio, los usuarios muestran una mayor preferencia por su empleo ante temáticas más ligeras y que no impliquen valorar o interpretar cuestiones importantes. Otros factores como el conocimiento con respecto a la IA, el tipo de contenido, el origen o la situación sociodemográfica condicionan la percepción. En cuanto a la transparencia, valoran necesario que se indique su empleo cuando el contenido se ha creado con IA. En este punto es necesario apuntar estudios previos que analizan la confianza de la audiencia cuando conocen que la información es desarrollada con inteligencia artificial. Así, a partir de una encuesta en EEUU, Toof y Simon (2023: 1) indican:

 

We find on average that audiences perceive news labeled as AI-generated as less trustworthy, not more, even when articles themselves are not evaluated as any less accurate or unfair. Furthermore, we find that these effects are largely concentrated among those whose pre-existing levels of trust in news are higher to begin with and among those who exhibit higher levels of knowledge about journalism. We also find that negative effects associated with perceived trustworthiness are largely counteracted when articles disclose the list of sources used to generate the content.

 

4. IA, medios de comunicación y empresas tecnológicas

 

Desde los inicios de la irrupción de la IA en los medios de comunicación, la relación con empresas tecnológicas o de plataformas se observa como una constante. Ya en 2016, cuando Facebook anunciaba el lanzamiento de sus bots para Messenger indicaba que entre sus colaboradores contaba con medios de comunicación como la CNN (Meta, 2016). Entre las herramientas o soluciones de IA que emplean los medios de comunicación encontramos laboratorios o startups que cuentan entre sus socios o inversores con grandes empresas tecnológicas como Microsoft, IBM, Amazon, Google,... por mencionar algunas. Mientras que como usuarios empezamos a estar más familiarizados con soluciones como ChatGPT, Copilot o Gemini, conocer el entramado de intereses y alianzas que las sostienen puede ser más complejo, en especial por movimientos continuos que se producen en esa financiación.

Pero al asistir a relaciones entre este tipo de empresas y medios de comunicación se debe tener en cuenta que en este desarrollo de la IA las empresas implicadas pueden seguir sus propias lógicas o dinámicas. Dada su extensión a otras áreas, la obra Artificial Intelligence in the News nos aproxima a algunos riesgos que puede comportar en el ámbito informativo:

 

It shifts newswork even further toward the technical and the logics of platform companies: prioritizing greater rationalization and calculability (on the audience side in particular), and efficiencies and productivity (where journalistic work is concerned). But the prevailing logic may not necessarily prioritize the welfare of journalism or the needs of audiences (Simo, 2024: 33).

 

Una de estas alianzas es la ya mencionada solución Signals de Microsoft con Semafor (Gillespie, 2024) que consiste en que «con ayuda de la inteligencia artificial hacen seguimiento de varias fuentes informativas, analizan contenido y generan un resumen donde citan lo que se ha consultado» (Martínez-Martínez, 2024). Junto a estas, otros acuerdos han sido anunciados o se han hecho públicos, y entre ellos podemos mencionar el establecido entre OpenAI y Prisa Media para permitir a ChatGPT «interactuar en torno a la actualidad con los contenidos de alta calidad» de medios del grupo (Prisa, 2024). Pero en esta aproximación entre empresas tecnológicas y medios de comunicación por el uso de la IA también surgen desacuerdos y puntos en conflicto, en especial en cuestiones relacionadas con derechos de autor y el empleo de contenidos para entrenar a la tecnología (Autorité de la Concurrence, 2024; Jiménez, 2024). A ello se suman otras fricciones por el impacto al tráfico web o a las inversiones publicitarias que podrá tener el mayor protagonismo del uso de la IA en acciones de consulta de contenidos de actualidad.

 

5. Marco normativo y ético en el uso de la IA

 

Junto a problemáticas como las apuntadas, la IA ha dado muestras de no ser infalible o incluso incorporar algunos sesgos cuyas consecuencias o efectos pueden ser difíciles de cuantificar. Desde los inicios ya podemos encontrar ejemplos de algunos de estos errores. Así se puede recordar lo ocurrido con el experimento que lanzó Microsoft en Twitter a través de su chatbot Tay para conversar con jóvenes y que tuvo que retirar a las horas de su lanzamiento por difundir contenido inapropiado. La empresa explicaba así este suceso: «As many of you know by now, on Wednesday we launched a chatbot called Tay. We are deeply sorry for the unintended offensive and hurtful tweets from Tay, which do not represent who we are or what we stand for, nor how we designed Tay» (Lee, 2016).

En el ámbito informativo, también desde fases iniciales de experimentación se detectaron algunos errores que tuvieron que dar paso a desmentidos y explicaciones por parte del medio. Así sucedió con el conocido Quakebot de LA Times que erróneamente informaba en 2017 de un terremoto como si fuera un suceso reciente cuando que realmente se había producido años antes. El medio tuvo que informar en su perfil del error que el automatismo había cometido: «We have an algorithm (Quakebot) that automatically writes stories about earthquakes based on USGS alerts. The USGS alert was incorrect» (@LANow, 2017).

Dado el avance de la IA y su incorporación creciente a cada vez más ámbitos y tareas, resulta esencial contar con principios éticos que puedan servir de guía para garantizar un uso responsable, más cuando el desarrollo de una normativa legal suele necesitar más tiempo para su formulación y aprobación. Las propias compañías tecnológicas comparten algunos de estos principios que rigen en el uso de la IA. Así, Google AI (s.f.) apunta hasta siete objetivos entre los que incluye evitar los prejuicios así como cuestiones relacionadas con la seguridad y la privacidad. Microsoft (2022) para su IA responsable incorpora, entre otros, la rendición de cuentas. Por su parte desde Meta (s.f.) se apunta a «cinco pilares» con elementos coincidentes con los anteriores: «privacy and security», «fairness and inclusion», «Robustness and safety», «transparency and control» y «accountability and governance».

La propia Comisión Europea planteó una Guía ética para una IA fiable en 2019 para posteriormente seguir ahondando en el establecimiento de un marco normativo que regule el empleo de la inteligencia artificial y que llegó con la aprobación por parte del Parlamento Europeo y el Consejo del Reglamento de Inteligencia Artificial en 2024. Una norma que se ha convertido en pionera y que establece una serie de prácticas prohibidas y que clasifica a los sistemas de IA en función de su riesgo. Este Reglamento tiene como objetivo, entre otros, el uso de la inteligencia artificial que garantice, tal y como se indica en el considerando uno, «un elevado nivel de protección de la salud, la seguridad y los derechos fundamentales».

Desde la profesión también se han ido implementando pautas éticas para aplicar en el uso de la inteligencia artificial en la labor informativa. Un ejemplo claro de ello proviene del Consell de la Informació de Catalunya que en 2021 (Ventura, 2021: 34-37) publicaba una serie de recomendaciones, ocho en total, que apuntan hacia las siguientes cuestiones: «calidad de los datos y gestión responsable», «supervisión de los procesos», «transparencia y rendición de cuentas», «gestión responsable de los datos y privacidad», «personalizaciones y recomendaciones», «poner en valor el factor humano», «I+D y proactividad» y «formación y promoción de la interdisciplinariedad en los equipos».

Reporteros sin Fronteras en 2023 daba a conocer la Carta de París sobre la IA y el Periodismo en el que recoge 10 principios que empiezan por recordar la necesidad de que la deontología profesional continúe marcando las directrices que ayuden a emplear la tecnología. Además, en esta Carta se incluye una mención a la relación con empresas tecnológicas que anteriormente se explicaba. En este punto recogen:

 

El acceso a contenidos periodísticos por sistemas de IA debe enmarcarse en acuerdos formales que garanticen el futuro del periodismo y preserven los intereses comunes a largo plazo de medios y periodistas. Los propietarios de sistemas de IA deben acreditar sus fuentes, respetar los derechos de propiedad intelectual y satisfacer una compensación justa a los propietarios de los derechos. (...) Los propietarios de sistemas de IA deben, además, tener un registro transparente y detallado del contenido periodístico utilizado para entrenar y alimentar sus sistemas.»

 

Medios y agencias también han ido compartiendo algunas indicaciones éticas que marcan el uso de la IA por parte de los periodistas que trabajan para ellos. Así, en el libro de estilo de la Agencia EFE (Lascuráin, 2024: 40) podemos leer que la IA será empleada como una herramienta de apoyo siempre bajo revisión de un reportero. Además, incluye una mención expresa al uso de imágenes y apuntan que «no empleará este tipo de sistemas de creación de imágenes para ilustrar noticias de actualidad». Incluso la propia defensora de El País (Alcaide, 2013) compartía con los lectores en 2023 que el medio había iniciado «una reflexión interna para delimitar los usos de herramientas como el ChatGPT en la redacción» y daba algunas pistas de las indicaciones que estaban aplicando ya y que son coincidentes con algunos parámetros ya apuntados. De hecho Ventura (2023), tras dar repaso a diferentes guías éticas distingue algunas pautas o principios coincidentes en la mayor parte de los casos. Entre estos señala: «transparencia y supervisión humana», «responsabilidad y verificación», «limitaciones en el uso de IA generativa», «derechos de autor y otros asuntos legales», y «compromiso con la diversidad y la inclusión».

 

6. Retos y oportunidades de la formación de periodistas en al era de la IA

 

La revisión realizada nos da muestras de cómo la IA se está abriendo paso en las redacciones en un entorno en el que todavía existen muchos interrogantes. La profesión intenta dotarse de directrices para guiar su empleo al tiempo que experimenta con la tecnología en un entorno cambiante que requiere de nuevas competencias y habilidades por parte de los periodistas (López-García, 2021). Reporteros y responsables de innovación coinciden en apuntar hacia la necesidad de una formación especializada en estas tecnologías (De Lara; García-Avilés; Arias-Robles, 2022: 10; Ufarte-Ruiz; Fieriras-Ceide;Túñez-López, 2020).Mientras que la actualización de los profesionales en activo se está llevando a cabo a través de diferentes iniciativas y modalidades (Shoai, 2024; Ufarte-Ruiz; Calvo-Rubio; Murcia-Verdú, 2020), por su parte, desde la Universidad se observa un cierto consenso sobre la necesidad de incorporar las cuestiones relacionadas con el uso de la IA en el periodismo en los planes de estudio, si bien con mayor discrepancia en la manera de hacerlo (Lopezosa et al., 2023). Estas diferencias pueden venir justificadas por la propia singularidad que supone la incorporación de la IA al proceso formativo. Por un lado, coincidiendo con Gómez-Diago (2022: 40) se apuntan los retos que plantea en el ámbito universitario centrado en la formación en periodismo: «En primer lugar, hay un reto epistemológico (...). En segundo lugar, hay un reto teórico y deontológico (...), y en tercer lugar, hay un reto pragmático». En las páginas precedentes nos hemos ido aproximando a estas cuestiones al hablar del cambio de paradigma que supone entender la tecnología no solo como medio sino también como comunicador; de la necesidad de avanzar desde una perspectiva ética en un sector cambiante; y, por último, de las exigencias de dar respuesta a lo que el sector demanda y de generar prácticas diferenciales que aporten valor.

Junto a estos retos, Viñas et al. (2024) recuerdan otras de las particularidades que también inciden en la incorporación de la IA en la formación que nos ocupa:

 

En el contexto educativo actual (...) es importante reflexionar sobre los desafíos que se presentan al momento de incorporar la tecnología del IA en el aula y analizar qué potencialidades específicas se observan y/o qué limitaciones se encuentran. Esto se acrecienta, fundamentalmente, si se piensa desde las coordenadas de una carrera en la que la palabra es la herramienta central del campo profesional del comunicador. Evaluar beneficios y posibilidades resulta elemental, dado que la convergencia de la tecnología y la comunicación invita a una reflexión constante para profundizar la enseñanza, efectuar una lectura de la coyuntura y promover un entorno de lecto-escritura que precisa convivir con novedades y demandas digitales.

 

Esta es una cuestión sustancial que nos lleva a esa necesidad de replanteamiento y actualización permanente en un entorno tan vinculado a la evolución tecnológica, tanto más cuando su irrupción y desarrollo impacta de tantas maneras y en tantos niveles como los que se han ido planteando en este capítulo.

La realidad nos demuestra que todavía queda mucho por hacer desde la formación. En este sentido, un estudio publicado en 2020 revelaba, a partir del análisis de las asignaturas impartidas por los 38 Grados de periodismo o comunicación ofrecidos por Universidades españolas, que sólo en tres de ellas se incorporaba como tecnología emergente la IA (Sierra Sánchez; Liberal Ormaeceha; Mañas-Viniegra, 2020: 197). El estudio de Ufarte, Fieiras-Ceide y Túñez-López (2020) centrado en universidades públicas pero ampliado a programas de Máster, coincide con estos resultados al no detectar materias que se centren en el uso de la IA. En este caso sí que hay que apuntar que sí se detectan algunas propuestas en las titulaciones de Máster, demostrando así el mayor nivel de especialización en estos programas. De este modo el estudio concluye que «la universidad no está adaptada a los cambios que está sufriendo la industria periodística» (2020: 142).

Pero esta situación no es exclusiva del caso español. Otros trabajos, observan una situación similar en la formación universitaria en este ámbito. Así, por ejemplo, en Ecuador, un estudio realizado por Mullo, Balseca y Caicedo (2024) sobre 33 universidades que ofrecen titulaciones de comunicación, concluye que no se están impartiendo materias sobre IA y apunta:

 

Existen pocas universidades que implementan áreas temáticas relacionadas con la aplicación de la IA como el periodismo de datos, la aplicación de programas informáticos de IA, y las técnicas de procesamiento de lenguaje natural, en cuanto al Aprendizaje Automático y Minería de Datos, los fundamentos de la IA son inexistentes en las mallas curriculares.

 

Ante esta situación, la otra parte de la reflexión lleva a descubrir oportunidades de desarrollo e incorporación de nuevos conocimientos, competencias y habilidades en los planes formativos. En este punto conviene repasar la obra dirigida por Santiago Tejedor (2023: 141-148) en la que presenta una serie de entrevistas realizadas a expertos y periodistas a los que se pregunta precisamente por las competencias y habilidades necesarias en este entorno de desarrollo de la IA en el periodismo. Así, en esta relación se dan cita, entre otras, aquellas vinculadas con destrezas lingüísticas y técnicas además del desarrollo del pensamiento crítico, la capacidad para la toma de decisiones junto a otras destrezas relacionadas con la iniciativa y la flexibilidad o la puesta en valor de la parte más humana o emocional del periodista, sin perder de vista los atributos clásicos del ejercicio de la profesión. Estas aportaciones coinciden con la propuesta que planteaban Lopezosa et al. (2023), que hablan de un «esquema formativo nuclear sobre IA y Periodismo centrado en su fundamentación, competencias técnicas y competencias éticas». En definitiva, se trata de avanzar en la formación sobre el funcionamiento de la propia IA (que incluye tanto la parte técnica como la contextual y conceptual) que permita no sólo un uso óptimo de sus posibilidades (formulando prompts e instrucciones oportunas que propicien obtener mejores resultados así como ser capaces de desarrollar soluciones adaptadas y experimentar con nuevas aplicaciones) sino también su empleo estratégico para alcanzar nuestros objetivos. Esto incluye saber poner la tecnología al servicio, entre otras finalidades, de la verificación o ser capaces de desarrollar perfiles novedosos como aquellos relacionados con la minería y el análisis de datos. Este mayor conocimiento permitirá además un uso crítico en el que seamos capaces de revisar los resultados que nos ofrece y poder tomar nuestras propias decisiones para conseguir mejorar la información que ofrecemos al público, todo ello respetando las directrices éticas y legales.

 

7. Bibliografía

 

@LANow (2017, 22 de junio). «We have an algorithm (Quakebot) that automatically writes stories about earthquakes based on USGS alerts. The USGS alert was incorrect». X.com https://x.com/LANow/status/877678715945144320

Alcaide, S. (2023, 11 de junio). «Aprovechemos la inteligencia artificial para el periodismo». El País [en línea] Disponible en https://elpais.com/defensor-a-del-lector/2023-06-11/aprovechemos-la-inteligencia-artificial-para-el-periodismo.html

Autorité de la Concurrence (2024, 20 de marzo). «Droits voisins: l’Auutorité prononce une sanction de 250 millions d’euros à l’enconcre de Google». Autoritedelaconcurrence.fr [en línea] Disponible en https://www.autoritedelaconcurrence.fr/fr/article/droits-voisins-lautorite-prononce-une-sanction-de-250-millions-deuros-lencontre-de-google

Beckett, C., Yaseen, M. (2023). Generando el cambio. Un informe global sobre qué están haciendo los medios con IA. London: JournalismAI.

Bernat Sánchez, P. (2024): «Revolución en la redacción: herramientas de inteligencia artificial para un periodismo de vanguardia». En Parrat Fernández, S.; Mayoral Sánchez, J.; Chaparro Domínguez, M.Á. (eds.), Periodismo e inteligencia artificial. Aplicaciones y desafíos profesionales.Salamanca: Comunicación Social Ediciones y Publicaciones. https://doi.org/10.52495/c3.emcs.25.p108

De Lara, A.; García-Avilés, J.A.; Arias-Robles, F. (2022). «Implantación de la Inteligencia Artificial en los medios españoles: análisis de las percepciones de los profesionales.» Textual & Visual Media, 1(15), 1-16. DOI: https://doi.org/10.56418/txt.15.2022.001

Eloundou, Tyna; Manning, Sam; Mishkin, Pamela; Rock, Daniel (2023, marzo). «GPTs are GPTs: An Early Look at the Labor Market Impact Potential of Large Language Models». arXiv. DOI: https://doi.org/10.48550/arXiv.2303.1013

European Commission (2019). Ethics guidelines for trustworthy AI. [en línea] Disponible en https://digital-strategy.ec.europa.eu/en/library/ethics-guidelines-trustworthy-ai

García-Avilés, J.A.; Arias, F.; De Lara, A.; Paisana, M.; Carvajal, M.; Foá, C.; García-Ortega, A.; Margato, D.; Crespo, M.; Quiles, B.; Valero, J.M. (2023). Análisis de las tendencias e innovaciones en el ecosistema mediático de España y Portugal (2025-2030). Pamplona: IBERIFIER. https://doi.org/10.15581/026.00

Gillespie, Noreen (2024). «Here’s how we’re working with journalists to create the newsrooms of the future with AI». Microsoft [en línea]. Disponible en: https://blogs.microsoft.com/on-the-issues/2024/02/05/journalism-news-generative-ai-democracy-forward/

Gómez-Diago, G. (2022). «Perspectivas para abordar la inteligencia artificial en la enseñanza de periodismo. Una revisión de experiencias investigadoras y docentes». Revista Latina de Comunicación Social, (80), 29-46. https://doi.org/10.4185/RLCS-2022-1542
Google AI (s.f.). «Responsability: Our principles». Google AI [en línea] Disponible en https://ai.google/responsibility/principles/

Gunkel, D. J. (2020). An introduction to communication and artificial intelligence. Cambridge: Polity Press.

Guzman, A.L. (2018). Human-Machine Communication: Rethinking Communication, Technology, and Ourselves. New York: Peter Lang

Guzman, A. L.; Lewis, S. C. (2020). «Artificial intelligence and communication: A Human-Machine Communication research agenda». New Media & Society, 22(1), 70-86. DOI: https://doi.org/10.1177/1461444819858691

Jiménez, M. (2024, 1 de mayo). «Ocho periódicos de Estados Unidos demandan a OpenAI y Microsoft por usar sus contenidos». El País [en línea] https://elpais.com/internacional/2024-05-01/ocho-periodicos-de-estados-unidos-demandan-a-openai-y-microsoft-por-usar-sus-contenidos.html

Lascuráin, J. (2024). Nuevo libro del estilo urgente. Agencia EFE. Madrid: Agencia EFE

Lee. P. (2016, 25 març). «Learning from Tay’s introduction». Official Microsoft Blog. [en línea]. Disponible en https://blogs.microsoft.com/blog/2016/03/25/learning-tays-introduction/

Lope Salvador, V.; Mamaqi, X.; Vidal Bordes, J. (2020). «Inteligencia artificial: desafíos teóricos, formativos y comunicativos de la dataficación». Icono 14, 18(1), Ejemplar dedicado a : Métodos computacionales en Comunicación, 58-88
.
López-García, X.(2021). «Redefinición de metacompetencias, competencias y habilidades de los periodistas digitales». Anuario ThinkEPI, v. 16, DOI: https://doi.org/10.3145/thinkepi.2022.e16a03

Lopezosa, Carlos; Codina, Lluís; Pont-Sorribes, Carles; Vállez, Mari (2023). «Use of generative artificial intelligence in the training of journalists: challenges, uses and training proposal». Profesional de la información, 32(4) DOI: https://doi.org/10.3145/epi.2023.jul.08

Martínez-Martínez, S. (2019, marzo) «¡Hola! Soy un bot y puedo ofrecerte información de actualidad». COMeIN, número 86. DOI: https://doi.org/10.7238/c.n86.1924

Martínez-Martínez, S. (2024, febrero) «Plataformas y servicios informativos generados por inteligencia artificial». COMeIN, número 140. DOI: https://doi.org/10.7238/c.n140.2411

Martí­nez-Martí­nez, S.; Lara-Navarra, P. (2014). El big data transforma la interpretación de los medios sociales. Profesional De La información, 23(6), 575-581. DOI: https://doi.org/10.3145/epi.2014.nov.03

Mayoral Sánchez, J.; Mera Fernández, M.; Morata Santos, M. (2024): «Integración de la inteligencia artificial en las redacciones: la experiencia de los medios de comunicación en España». En Parrat Fernández, S.; Mayoral Sánchez, J.; Chaparro Domínguez, M.Á. (eds.), Periodismo e inteligencia artificial. Aplicaciones y desafíos profesionales.Salamanca: Comunicación Social Ediciones y Publicaciones. DOI: https://doi.org/10.52495/c8.emcs.25.p108
Meta (2016, 12 de abril). «Introducing bots on messeguer». Meta [en líne] Disponible en https://developers.facebook.com/videos/f8-2016/introducing-bots-on-messenger/

Meta (s.f.). «Meta’s five pillars of responsible AI that inform our work». ai.meta.com [en línea] Disponible en https://ai.meta.com/responsible-ai/

Microsoft (2022). Microsoft Responsible AI Standard, v2 [en línea] Disponible en https://www.microsoft.com/en-us/ai/principles-and-approach/

Mullo López, A.H.; Balseca Mera, J.M.; Caicedo Reinoso, N. E. (2024). «Retos y oportunidades de la IA en la formación de profesionales en Comunicación» Razón y Palabra, 28(119), 28-43.DOI: https://doi.org/10.26807/rp.v28i119.2107

Natale, S. (2021). «Communicating Through or Communicating with: Approaching Artificial Intelligence from a Communication and Media Studies Perspective». Communication Theory, 31(4), November 2021, 905-910. DOI: https://doi.org/10.1093/ct/qtaa022

Newman, N.(2023). «Overview and key findings of the 2023 Digital News Report». Reuters Institute [en línea]. Disponible en: https://reutersinstitute.politics.ox.ac.uk/digital-news-report/2023/dnr-executive-summary

Newman, N. (2024). «Resumen ejecutivo y hallazgos clave del informe de 2024» 2024 Digital News Report. Reuters Institute [en línea] Disponible en https://reutersinstitute.politics.ox.ac.uk/es/digital-news-report/2024/dnr-resumen-ejecutivo

Páez, Á.; Saldaña Manche, W.V.; Artigas, W.; Rios Incio, F. (2024). «La inteligencia artificial en el periodismo. Revisión bibliométrica en Scopus (1989-2022)». Anuario Electrónico De Estudios En Comunicación Social «Disertaciones», 17(2). https://doi.org/10.12804/revistas.urosario.edu.co/disertaciones/a.13322

Prisa (2024, 14 de marzo). «OpenAI anuncia un acuerdo con PRISA Media y ‘Le Monde’». Noticias. PRISA [en línea] Disponible en https://www.prisa.com/es/noticias/noticias-1/openai-anuncia-un-acuerdo-con-prisa-media-y-le-monde

Reglamento (UE) 2024/1689 del Parlamento Europeo y del Consejo, de 13 de junio de 2024 por el que se establecen normas armonizadas en materia de inteligencia artificial y por el que se modifican los Reglamentos (CE) n.o 300/2008, (UE) n.o 167/2013, (UE) n.o 168/2013, (UE) 2018/858, (UE) 2018/1139 y (UE) 2019/2144 y las Directivas 2014/90/UE, (UE) 2016/797 y (UE) 2020/1828 (Reglamento de Inteligencia Artificial) Reporteros Sin Fronteras (2023, 10 de noviembre). Carta de París sobre la IA y el periodismo. [en línea] Disponible en https://rsf.org/sites/default/files/medias/file/2023/11/Carta%20de%20Pari%CC%81s%20sobre%20la%20IA%20y%20el%20periodismo_0.pdf

Ross, A. (2024). «Actitudes del público sobre el uso de la IA en el periodismo». 2024 Digital News Report. Reuters Institute [en línea] Disponible en https://reutersinstitute.politics.ox.ac.uk/es/digital-news-report/2024/actitudes-publico-sobre-uso-de-la-IA-en-el-periodismo

Schramm, W (1972) «Nature of communication between humans». In: Schramm W (ed.) The Process and Effects of Mass Communication. Urbana, IL: University of Illinois Press, 3-53.

Shoai, A. (2024). «La formación periodística sobre inteligencia artificial en América Latina: Desafíos desde la perspectiva de un programa colaborativo.» Más Poder Local, (56), 46-63. DOI: https://doi.org/10.56151/maspoderlocal.217

Sierra Sánchez, J., Liberal Ormaechea, S. y Mañas-Viniegra, L. (2020). «La formación en materias de tecnología del futuro periodista en España.» Revista Latina de Comunicación Social, 75, 189- 206 DOI: https://doi.org/10.4185/RLCS-2020-1422

Simo, F.M. (2024). Artificial Intelligence in the News: How AI Retools, Rationalizes, and Reshapes Journalism and the Public Arena. Tow Center for Digital Journalism, Oxford Internet Institute [en linea] Disponible en https://towcenter.columbia.edu/sites/default/files/content/Tow%20Report_Felix-Simon-AI-in-the-News.pdf

Sundar, S.S.; Lee, E.J. (2022). Rethinking Communication in the Era of Artificial Intelligence», Human Communication Research, 48(3), July 2022, 379-385, DOI: https://doi.org/10.1093/hcr/hqac014

Tejedor, S. (Dir.) (2023). La inteligencia artificial en el periodismo, Mapping de conceptos, casos y recomendaciones. Barcelona: FUOC.

Toff, B.; Simon, F.M. (2023). «Or they could just not use it?»: the paradox of AI disclosure for audience trust in news. SocArXiv, 1-38 .

Tosyali, H. (2021). «Artificial Intelligence in Communication Studies: An Investigation on Studies Between 1982-2021». TRT Akademi, 6(13), 680-699. https://doi.org/10.37679/trta.965966

Ufarte Ruiz, M.J.; Calvo Rubio, L.M.; Murcia Verdú, F.J. (2020). Las tecnologías hi-tech en los grados en Periodismo. Planes de estudios, formación de los periodistas y propuestas de inserción curricular. AdComunica, 43-66

Ufarte Ruiz, M.J.; Fieiras-Ceide, C.; Túñez-López, M. (2020). «La enseñanza-aprendizaje del periodismo automatizado en instituciones públicas: estudios, propuestas de viabilidad y perspectivas de impacto de la IA». Anàlisi: Quaderns de Comunicació i Cultura, 62, 131-146. DOI: https://doi.org/10.5565/rev/analisi.3289

Ventura, P. (2021). Algoritmos en las redacciones: Retos y recomendaciones para dotar a la inteligencia artificial de los valores éticos del periodismo. Consell de la Informació de Catalunya. [en línea] Disponible en https://cic.periodistes.cat/wp-content/uploads/2022/03/algorismes_a_les_redaccions_ESP_.pdff

Ventura, P. (2023, 13 de abril). «Guías éticas para el uso de la inteligencia artificial en el periodismo». Inteligencia artificial y Comunicación, [en línea] Disponible en https://www.patriciaventura.me/single-post/gu%C3%ADas-%C3%A9ticas-para-el-uso-de-la-inteligencia-artificial-en-el-periodismo

Viñas, R.; Secul, C.; Stranges, A.; Ullman, A.L. (2024). «El ChatGPT: desafíos y retos en la formación en comunicación», XXVI Jornadas Nacionales de Investigadoras e Investigadores en Comunicación: «Investigar en Comunicación: un desafío necesario para el fortalecimiento de los procesos democráticos». [en línea] Disponible en https://redinvcom.com/memorias-2023/el-chat-gpt-desafios-y-retos-en-la-formacion-en-comunicacion/

Wiener, N. (1948). Cybernetics, or control and communication in the animal and the machine. New York: Wiley.

10.