Título del Capítulo: «Nuevas tendencias en el periodismo digital»
Autoría: Dafne Calvo; Guillermo López García; Joaquín Aguar Torres
Cómo citar este Capítulo: Calvo, D.; López García, G.; Aguar Torres, J. (2024): «Nuevas tendencias en el periodismo digital». En Calvo, D.; López García, G.; Aguar Torres, J. (eds.), Periodismo digital: ecosistemas, plataformas y contenidos. Salamanca: Comunicación Social Ediciones y Publicaciones.
ISBN:978-84-10176-03-4
d.o.i.: https://doi.org/10.52495/c6.emcs.27.p110
6.1. Inteligencia artificial y automatización
6.1.1. Desarrollo de la inteligencia artificial
La inteligencia artificial se ha convertido, en los últimos años, en un término clave para comprender el avance tecnológico y sus implicaciones en el ámbito informativo, especialmente en el caso de la producción de contenido. En una definición general, la inteligencia artificial se refiere al conjunto de tecnologías digitales cuyo objetivo consiste en generar procedimientos computacionales que imiten el comportamiento humano, lo que implica la capacidad de resolver problemas complejos, de adquirir conocimiento y de mejorar a partir de la experiencia.
Dichas aptitudes están relacionadas con otros términos cercanos al de inteligencia artificial y que sirven para completar su significado (Guo et al., 2019). Los algoritmos constituyen un término central, que designa al flujo de procesos que sirven para resolver problemas o llevar a cabo tareas específicas. Están definidos en un nivel mayor de abstracción que los scripts —códigos ejecutables en un lenguaje de programación específico— y se aplican a problemas concretos de la inteligencia artificial; por ejemplo, los árboles de decisiones permiten aprender patrones y realizar predicciones.
En este sentido, el aprendizaje automático (machine learning) designa, precisamente, los sistemas aptos para analizar y aprender patrones a partir de una serie de datos y ofrecer predicciones sin instrucciones explícitas previas. El aprendizaje profundo (deep learning) es una rama de este primero que funciona a partir de algoritmos inspirados en el cerebro humano. La diferencia entre ambos reside en que, en el primer caso, los datos que el algoritmo procesa se establecen mediante mediación humana y a priori. En el aprendizaje profundo, sin embargo, el algoritmo es capaz de extraer por sí mismo aquellos datos que resultan relevantes para la tarea asignada.
El aprendizaje profundo se ha aplicado a funcionalidades como las del procesamiento del lenguaje natural (natural language processing), que trata de realizar traducciones entre el lenguaje humano y el computacional, lo que incluye el reconocimiento de voz o la recuperación de información basada en el vocabulario, gramática e intenciones de la comunicación humana.
Las redes neuronales (neural networks) han servido al aprendizaje profundo, al constituirse como sistemas computacionales inspirados en el cerebro. El fin de estas interconexiones es la recepción de una consulta que viaja por diferentes capas hasta ofrecer una respuesta. Dichas capas se definen como niveles de procesamiento que manipulan la información y ofrecen sus resultados al siguiente conjunto de nodos, que continúa con el tratamiento de los datos. Aun con variaciones dependiendo de su aplicación, entre estas fases se podrían encontrar la entrada de la información, su procesamiento, la reducción de la información a la más relevante, la selección de una solución según el conocimiento previamente adquirido y la propuesta de una respuesta al usuario.
Como vemos, hasta el momento, estos conceptos se relacionan más con las capacidades de las máquinas para el aprendizaje y razonamiento que con procesos mecánicos que asistan la labor creativa. Para esta segunda definición resulta clave la robotización, la cual puede definirse como la automatización de tareas previstas —especialmente tareas físicas— mediante un software para su control. Aunque dicha robotización se ha aplicado especialmente al campo industrial, los bots sociales, por ejemplo, han llevado a cabo tareas repetitivas en redes sociales que imitan el comportamiento humano, como el reposteo de información o el seguimiento a usuarios concretos.
Si bien robotización e inteligencia artificial no constituyen términos intercambiables, la inteligencia artificial ha permitido la sofisticación de la robótica, pues ha favorecido la comunicación efectiva con humanos (computer speech) o el reconocimiento de objetos (computer vision). Así, la inteligencia artificial puede facilitar que los robots presten mayor atención a su entorno, recojan y procesen datos sobre este, y mejoren su habilidad para tomar decisiones y realizar determinadas tareas.
A pesar de que en los últimos años el término de inteligencia artificial ha adquirido mayor popularidad y, con ello, un nuevo sentido, el recorrido hasta el tiempo presente resulta más largo. De hecho, fue la matemática británica Ada Lovelace quien, a mediados del siglo XIX, vislumbró las posibilidades de la computación en tiempos presentes. Ella escribió el que es considerado el primer algoritmo informático para una calculadora mecánica, conocida como máquina diferencial. Ada Lovelace reconocía el potencial de la computación y ya entonces se imaginó artefactos no solo aptos para realizar operaciones matemáticas, sino también para crear obras artísticas e, incluso, para pensar por sí mismas.
Han sido los últimos años los que han supuesto la implantación y democratización de diversos servicios relacionados con la inteligencia artificial. Es el caso del robot Roomba para las tareas domésticas o los asistentes virtuales con interfaz de voz Alexa y Siri. A este desarrollo han contribuido las bases de datos publicadas en Internet que las compañías de inteligencia artificial han empleado para el entrenamiento de sus máquinas —entre las que destacan ImageNet—, así como la existencia de códigos específicos para el desarrollo de este tipo de proyectos.
Precisamente, a partir de Wikipedia y el Corpus Brown se entrenó BERT (Bidirectional Encoder Representations from Transformers). El objetivo de Google, empresa que desarrolló este modelo de inteligencia artificial, consistía en mejorar los resultados de búsqueda en su motor mediante la comprensión del contexto de los términos clave. Es decir, trata de aplicar el procesamiento del lenguaje natural para que el buscador de Google no encuentre simplemente aquellos contenidos que coinciden con unas palabras clave determinadas, sino que interprete el fin real de esa búsqueda para ofrecer una respuesta más adecuada, con independencia de las palabras que empleó el usuario. Nacido en el año 2018, este modelo ha influido en la eclosión de tecnologías como ChatGPT. Su expansión en los últimos años ha generado un amplio impacto en el oficio creativo y, más en concreto, en el del periodismo, cuyas tareas empiezan, si no a redefinirse, a pensarse desde las ventajas y los riesgos de dichos avances.
6.1.2. Periodismo computacional y automatización
La integración de la automatización, los algoritmos y los macrodatos en las redacciones ha implicado una profunda reevaluación del ámbito periodístico, que ha dado lugar a diversas visiones sobre el papel de la tecnología en la producción y difusión informativa. El concepto de periodismo computacional (Anderson, 2013) ha servido para visibilizar esta progresiva digitalización de las redacciones, que ha implicado el uso de herramientas que han ido cambiando progresivamente las rutinas periodísticas, mediante la transformación de sus funciones y el complemento de otras.
La automatización del periodismo cuenta con ejemplos significativos a partir de la segunda década del siglo XXI. Es entonces cuando las primeras agencias de noticias y medios de comunicación —Associated Press, The Washington Post, Le Monde— comienzan a redactar de forma automática informaciones sobre deporte, mercados bursátiles y resultados electorales (Gutiérrez-Caneda et al., 2023).
Sin embargo, la centralidad de la inteligencia artificial en el debate público y en el seno del periodismo se ha relacionado con la democratización y popularización de aplicaciones del tipo conversacional. Los conocidos como chatbots constituyen sistemas de inteligencia artificial que emplean el procesamiento del lenguaje natural para el establecimiento de conversaciones con humanos, ya sea mediante texto o audio. Este tipo de aplicaciones se remontan al siglo pasado, como Eliza, el primer chat capaz de conversar con una persona, y Parry, que simulaba ser un paciente con esquizofrenia paranoide. Sin embargo, estos se han popularizado en los últimos tiempos como asistentes virtuales y aplicaciones de servicio al cliente.
Si bien al inicio se programaban a partir de reglas predefinidas para interactuar con los usuarios, su posterior desarrollo se ha basado en el procesamiento del lenguaje natural y el aprendizaje profundo basado en redes neuronales. Ello ha sofisticado las tareas que pueden realizar estas aplicaciones, a la vez que ha expandido sus diversas funcionalidades, que varían desde el comercio electrónico hasta la asistencia médica. Sus habilidades han implicado también cambios en el ámbito del periodismo que, en cualquier caso, no se limitan a la aplicación concreta de los chatbots, como veremos en los siguientes epígrafes.
ChatGPT constituye, en la actualidad, la aplicación de chatbot más popular, si bien existen herramientas alternativas, muchas de ellas desarrolladas por las grandes empresas tecnológicas, como Bard (Google) o Copilot (Microsoft). La empresa OpenAI lanzó su modelo GPT-3 en 2020 para su testeo por parte de desarrolladores que contaban con el permiso de la empresa. Dos años después, abriría su herramienta a todo usuario de Internet, que puede emplearla de forma gratuita.
ChatGPT y los servicios análogos han sido englobados dentro del concepto de inteligencia artificial generativa. Esta puede definirse como el modelo diseñado para producir nuevas creaciones que van más allá del texto e incluyen otras como imágenes y música. Estos sistemas se han basado en la extracción de contenido en Internet a partir del cual crear otro nuevo. GPT, precisamente, significa Generative Pre-trained Transformer, y viene a denominar aquellos modelos de lenguaje generativos que aprenden patrones, estructuras y estilos a partir de datos previos para ofrecer un contenido coherente y relevante según la petición recibida.
La fluidez, naturalidad y aparente neutralidad de los textos generados por estas herramientas ha supuesto la experimentación con estas tecnologías por parte de medios de comunicación que ya han probado a emplear estas herramientas. No obstante, las aplicaciones de la inteligencia artificial en periodismo son varias y no pasan necesariamente por el uso de chatbots. Dichas utilidades afectan a: (1) cuestiones editoriales y de producto, y (2) de distribución y redacción (Caswell, 2023).
Desde el punto de vista de las estrategias editoriales y de producto, la inteligencia artificial facilita la generación de aplicaciones que permiten una lectura más personalizada de los contenidos mediáticos. Asisten al usuario, por ejemplo, en el resumen de los contenidos informativos o en un cambio de tono en el lenguaje de la redacción. También pueden servir para la creación de estrategias de diferenciación mediante la recopilación sistemática y personalizable de las piezas periodísticas. En este sentido, el desarrollo de chatbots del medio de comunicación puede generar nuevos modos de acceso a sus publicaciones, que desarrollen a su vez formas creativas de interacción con la audiencia. Aun desaparecida al año de su nacimiento, la aplicación de noticias Artifact funcionó con inteligencia artificial para la curación de contenidos que ofrecía al usuario. Además, contaba con opciones para resumir los textos o cambiarlos de tono —a emojis, poemas o vocabulario de la Generación Z, por ejemplo—.
En cuanto a las estrategias de redacción, las aplicaciones desarrolladas con inteligencia artificial ofrecen amplias posibilidades relativas a la eficiencia de la redacción, al asistir en labores como el etiquetado, la categorización o el posicionamiento en buscadores. También pueden integrarse en los flujos de trabajo para agilizar acometidos como las traducciones, las reescrituras estilísticas, el resumen de información o la transcripción de audios y vídeos.
Sirven, además, para tareas avanzadas de apoyo a contenidos de largo formato, como los propios del periodismo de investigación, al mejorar la monitorización de temas, la extracción de datos en Internet, la generación de infografías, el reconocimiento de imágenes, y el filtrado y procesamiento de información y documentos. Algunos de los gestores de contenido más conocidos, como WordPress, han comenzado a probar herramientas de inteligencia artificial en sus editores, con opciones varias como la traducción, corrección de la gramática o simplificación de un texto.
La implementación de esta tecnología acarrea la existencia de nuevos perfiles profesionales que innoven en las formas tradicionales de operar para que sean más adaptables y atomizadas. Es decir, la inteligencia artificial ofrece la facultad de plantear entornos más multidisciplinarios y autodirigidos. Además, implica cambios estructurales en la manera en la que se generan y almacenan las bases de datos a las que se aplican los programas de inteligencia artificial, así como en el modo en el que se monitorizan y filtran las informaciones de interés.
Estas transformaciones también dependen de los cambios en las infraestructuras, pues la interfaz de trabajo ha de cambiar para admitir la gestión de los procesos mediante estas nuevas herramientas. Por ello, el periodista ya ha de desarrollar habilidades que le permitan reconocer los mejores comandos para recibir una respuesta lo más ajustada posible a sus objetivos. Y, al mismo tiempo, ello implica nuevos retos éticos que han de ahondar sobre los valores del periodismo que sobreviven a la existencia de máquinas capaces de generar productos periodísticos.
6.1.3. Buenas prácticas para el acercamiento a los chatbots
Como adelantamos en el párrafo anterior, la democratización de los chatbots ha implicado el surgimiento de un debate sobre los nuevos modos de generar contenido. No es que cualquier usuario con acceso a Internet pueda ser ya, gracias a los sistemas de gestión de contenido, un productor informativo dentro del ecosistema en red, sino que existen máquinas que pueden ejercer funciones similares, aun con mediación humana.
Los chatbots utilizan una interfaz conversacional que permite a los usuarios hacer preguntas y recibir respuestas. Estos modelos están basados en redes neuronales diseñadas para procesar contenido escrito y se entrenan con textos previos y diálogos para ajustar las conexiones neuronales. Al recibir una pregunta, el modelo utiliza dos estrategias: prestar atención a partes relevantes del texto y dividirlo en unidades más pequeñas llamadas tokens —palabras o partes de palabras— para favorecer su comprensión.
La generación de respuestas se basa en probabilidades. Es decir, al escribir una contestación, el modelo ha de decidir cuál es la palabra siguiente más probable para articular una conversación coherente y ajustada al interés del usuario. A medida que interactúa, el modelo aprende y retiene información, de modo que se adapta a nuevos patrones a lo largo del tiempo.
Este funcionamiento explica la relevancia de la instrucción (prompt) enviada al chatbot para recibir una respuesta. De la claridad y concisión de esta frase o enunciado depende la obtención de resultados precisos y útiles. En el caso de las rutinas periodísticas, las peticiones al chatbot pueden simplificar el trabajo con contenidos previos —resúmenes de documentos, traducción de textos, análisis de datos— o la búsqueda de enfoques e ideas —propuesta de temas para reportajes, sugerencia de preguntas para una entrevista, esquematización de ideas relevantes sobre una cuestión—.
Para allanar estos procesos, las instrucciones realizadas han de tener en cuenta varios factores:
Estas fases se sintetizan en dos acciones concretas: la verificación y la revisión crítica del texto. La primera de ellas requiere un manejo adecuado de fuentes a partir de las cuales realizar las tareas de contraste de la información. La segunda implica el análisis reflexivo y sistemático de los productos informativos a fin de conocer sus carencias y posibles sesgos, de tal modo que estas puedan corregirse antes de la publicación del texto. En el caso de la inteligencia artificial, dicho análisis crítico pasa por una conciencia sobre los mecanismos de desarrollo de estos modelos y las limitaciones que suponen en el oficio periodístico. Sobre ello trata el próximo apartado.
6.1.4. Implicaciones de la automatización en periodismo
A medida que los medios de comunicación han ido implantando soluciones basadas en la inteligencia artificial, algunos de los procesos periodísticos habituales se han ido automatizando. Ello plantea desafíos éticos que ahondan en la centralidad de estos procesos en la vida social y en el valor de su impacto. Hasta el momento, los experimentos con inteligencia artificial han mostrado resultados irregulares. La web CNET, dedicada al ámbito de la tecnología y la electrónica, publicó artículos financieros generados por inteligencia artificial durante el año 2022.
Las críticas por parte de otros medios de comunicación fueron varias. Por un lado, los textos copiaban frases de modo literal de otros contenidos, de manera que incurrían en actos de plagio. También existían inexactitudes no corregidas en ellos, desde fallos conceptuales sobre finanzas hasta datos incorrectos. Además, el medio no anunció el uso de esta tecnología. Solo era posible conocer su utilización al visitar el perfil del autor en la web del medio, que firmaba como CNET Money Staff. Este ejemplo explicita las múltiples limitaciones de la inteligencia artificial, que resulta necesario reconocer para comprender su alcance real en periodismo.
Primeramente, como hemos visto en el ejemplo anterior, estos sistemas pueden copiar la información de la que obtienen la respuesta de modo literal, lo que puede acarrear casos de plagio. El debate sobre los derechos de autor resulta, en todo caso, más profundo. Por un lado, la inteligencia artificial ha empleado grandes cantidades de contenido disponibles en Internet sin el consentimiento de sus autores y sin recompensarlos económicamente. Contra ello se han posicionado diversos colectivos y entidades afectadas. Por ejemplo, Reddit anunció el pago por el acceso a su API —Application Programming Interface o interfaz de programación de aplicación, código que permite el intercambio de datos entre programas informáticos— a fin de monetizar el contenido que empresas como OpenAI obtienen de sus foros.
En 2023, The New York Times demandó a Microsoft y OpenAI por infracción de derechos de autor. En España, los medios se han agrupado en la Asociación de Medios de Información (AMI), que hasta ahora ha planteado un posicionamiento similar al del diario estadounidense: aplicaciones como ChatGPT compiten con los medios de comunicación tras haber empleado sus artículos como entrenamiento sin ninguna retribución económica ni permiso previo. En el caso del periodismo, además, los modelos de inteligencia artificial cuestionan el propio concepto de autoría. Si bien anteriormente las tecnologías empleadas eran únicamente un apoyo al proceso de elaboración de una obra creativa, los modelos toman decisiones por el autor sin su intervención (Guadamuz, 2017). Ello complica el debate sobre la originalidad, la creatividad y la agencia humana en los nuevos modos de generar conocimiento.
Por otro lado, cabe recordar que este tipo de tecnologías dependen de la disponibilidad de datos públicos y, por tanto, los resultados de sus procesos se basarán en aquellas informaciones que hayan podido procesar y analizar. Esto tiene dos consecuencias. Por lo que respecta a las prácticas periodísticas, las rutinas de los profesionales de la comunicación en buena medida tienen relación con la búsqueda de fuentes variadas y relevantes, así como de informaciones que, en muchos casos, tratan de ocultarse a la opinión pública. En este caso, parece que disciplinas como el periodismo de investigación aún precisan de un trabajo humano que supera las posibilidades de las herramientas digitales.
Por otro lado, cabe examinar los posibles sesgos de los datos con los que la inteligencia artificial trabaja, cuestión que viene siendo compleja por la opacidad de las corporaciones que desarrollan estos servicios. Sin embargo, los estudios ya realizados han demostrado que estas herramientas cuentan con sesgos ideológicos que los hacen virar hacia posiciones más autoritarias, libertarias, conservadoras o progresistas (Feng et al., 2023).
Además, la misma opacidad de los resultados ofrecidos por las herramientas de inteligencia generativa plantea debates éticos en el seno del periodismo. Los procedimientos de este oficio han mantenido siempre la necesidad de transparencia sobre la metodología llevada a cabo. Esta ha sido esencial en el desarrollo de prácticas periodísticas como la verificación de contenidos, como hemos explicado en capítulos previos. Del mismo modo, el anonimato de las fuentes ha sido una cuestión de debate que, en casos como el periodismo de filtraciones, solo se mantiene ante información de máxima relevancia, cuando revelar este dato pone en peligro la integridad de la persona que informó. Así, de nuevo, el uso tecnológico implica ciertas reflexiones críticas que revalorizan el significado y sentido tradicional de la actividad periodística.
El problema de esta cuestión sobre la transparencia y sesgos de los contenidos generados por inteligencia artificial se acrecienta ante la neutralidad de los chatbots. Es decir, su naturalidad y fluidez ofrece una aparente sensación de seguridad sobre la veracidad de sus respuestas. Sin embargo, los datos con los que trabajan estos sistemas son limitados —lo que incluye también su desactualización— y, en muchos casos, se presentan como ambiguos. Por ello, el riesgo de emplear este tipo de servicios va más allá de la publicación de información sesgada y tiene relación con la escritura de contenido erróneo. Ello implica la evaluación de la calidad y credibilidad del texto generado; esto es, el mantenimiento de las tareas de contraste propias del periodismo tradicional.
Las limitaciones de la inteligencia artificial no se relacionan únicamente con los resultados de los textos que genera, sino que también atienden a las tareas automatizadas de revisión de documentos o datos. Las investigaciones realizadas hasta el momento plantean que el análisis minucioso de documentos aún no cuenta con un potencial que permita sustituir el trabajo humano ejercido desde el periodismo (Stray, 2021).
La cuestión económica resulta central en este debate por dos razones. Primeramente, porque el desarrollo de estas funcionalidades dependerá de su rentabilidad comercial, así como de la disponibilidad de recursos. Y, además, cabe preguntarse si resulta más asequible implementar herramientas de inteligencia artificial en tareas donde la supervisión humana sigue siendo una condición sine qua non para un periodismo de calidad.
Cabe recordar, además, que las vías para la generación de historias originales no se prestan tanto a procesos fijos e inmutables. En otras palabras, la estandarización de funciones y procesos puede resultar válida ante flujos de información estables. Sin embargo, en el caso del periodismo, los contenidos varían tanto en su tema como en su perspectiva y, con ello, las fuentes y documentos empleados —así como los procedimientos para obtenerlos y analizarlos— también lo hacen. Por ello, cada pieza periodística de largo formato requiere de procesos particulares que resultan más complejos de sistematizar mediante la inteligencia artificial. El valor de este trabajo periodístico recae, precisamente, en la interpretación y narrativa que el autor implicado en esta historia concreta le conceda.
En resumen, la implementación de la inteligencia artificial en periodismo requiere que el medio de comunicación explique con cautela cómo se está aplicando, a fin de convertir estos procesos en auditables. Las buenas prácticas en periodismo computacional envuelven el mantenimiento de unos valores que a lo largo de los años han orientado el trabajo de producción y distribución de informaciones, que tienen que ver no solamente con la transparencia, sino también con el contraste, la neutralidad y la diversidad de fuentes.
Hasta el momento, parece que las máquinas inteligentes aún precisan del contexto y la experiencia del periodista para reconocer la información relevante y relacionarla con otra hasta generar un producto de interés social. La progresiva automatización de procesos editoriales y de redacción, por tanto, no constituye en sí misma una solución definitiva ni tampoco un sustituto fiel al trabajo periodístico imaginativo, honesto y riguroso, sino más bien un complemento que facilite el proceso periodístico cuando se emplea del modo adecuado.
6.2. Algoritmos y macrodatos en el Internet de las cosas
6.2.1. Grandes datos y periodismo
La revolución digital, de la que ya hemos hablado en el primer capítulo, implica la existencia de grandes masas de datos disponibles. La adopción generalizada de tecnologías digitales y la traslación de la experiencia humana a plataformas en línea ha contribuido a la generación exponencial de datos, dada la habilidad de estas tecnologías para transformar las relaciones sociales en códigos cuantificables. De otro modo, la digitalización de las operaciones de empresas, organizaciones, gobiernos y, en resumen, de la sociedad en su conjunto, implica la existencia de información de amplio interés económico y social. Así, la llamada era de la información (Castells, 2004), que sucede a la sociedad industrial, se caracteriza por la penetración de las tecnologías y la acumulación del conocimiento.
En este contexto, los nuevos sistemas de poder se basan en el control de la información, que permite conocer en profundidad a la sociedad y transformar dicho conocimiento en bienes y servicios con beneficios económicos y políticos para los sujetos concretos. Los macrodatos o datos masivos (big data) constituyen amplias masas de datos, de muy diverso tipo y que se generan a gran velocidad, lo que impide que estos puedan almacenarse y analizarse mediante los métodos tradicionales. Si bien no todo uso de la información en línea implica necesariamente las técnicas de inteligencia de datos, estas ponen de manifiesto su centralidad social para el análisis de patrones, la identificación de tendencias, la toma de decisiones y los procesos de conocimiento contemporáneos.
Así, aunque su modo de recopilación es a menor escala y el sistema de análisis más convencional que el del big data, las métricas de comportamiento en las páginas web, que vimos previamente, han implicado consecuencias en los modos de comprender la audiencia en Internet y de pensar en estrategias para la rentabilidad de los medios digitales. También la mayor disposición de fuentes en línea y de bases de datos transforman las oportunidades comunicativas del periodismo, que puede emplear estos recursos para localizar temas de investigación y analizarlos en profundidad mediante técnicas innovadoras.
Pero la disposición de datos en sí misma no resulta suficiente para la creación de nuevas disciplinas dentro del ámbito de la producción informativa. El periodismo de datos hunde sus raíces precisamente en el de precisión, término acuñado por Philip Meyer, un periodista que en 1967 demostró la falsedad de las acusaciones raciales sobre los disturbios provocados en Detroit. Para ello, él y sus compañeros de Detroit Free Press realizaron una encuesta por muestreo casa por casa en diversos distritos, cuyos datos analizaron con la asistencia de una computadora. El trabajo, que les valió un Premio Pulitzer, demostró la distorsión de la prensa de entonces en la cobertura de estos sucesos.
El periodismo de precisión nace como una reacción a la dependencia de documentos autorizados y fuentes institucionales, si bien presta también atención al método empleado para el análisis de las informaciones. El propio Philip Meyer señalaba que, para que los datos fueran útiles, debían ser procesados y presentados de forma comprensible para la audiencia. De hecho, el periodista analizó para el Philadelphia Inquirer los patrones de sentencias del sistema judicial con el fin de indagar si las personas racializadas sufrían más detenciones. Su hipótesis se confirmó al comprobar que estas recibían más absoluciones que las personas blancas por delitos menores —lo que evidenciaba un mayor número de detenciones injustas—. Por tanto, el periodismo de precisión plantea la aplicación de métodos de investigación científica para el análisis de asuntos de trascendencia social (Dader, 1997).
Asimismo, en el análisis de bases de datos tuvo una importancia central el concepto de periodismo asistido por computadora (Computer Assisted Reporting, CAR). Los primeros periodistas que emplearon estos métodos hicieron uso de formas primitivas para el almacenamiento de información, como tarjetas perforadas y cintas magnéticas, así como de lenguajes de programación y software estadístico para sus investigaciones sobre cuestiones de relevancia social. Como ejemplo, en la década de los ochenta, Elliot Jaspin destapó un caso de corrupción que favorecía los préstamos hipotecarios de altos funcionarios de Estados Unidos para Providence Journal Bulletin y Bill Dedman demostró disparidades raciales en la concesión de préstamos de los bancos y las cajas de ahorro en The Atlanta Journal-Constitution.
El periodismo de datos puede considerarse un sucesor de estas prácticas anteriores, que se beneficia de la proliferación de documentos públicos y grandes bases de datos en Internet. Como en los casos anteriores, esta forma de periodismo se apoya en disciplinas como la estadística para el análisis detallado de informaciones que luego se plantean a la sociedad de modo comprensible. Para facilitar esta tarea divulgativa, los infográficos y visualizaciones específicas constituyen herramientas relevantes a partir de las cuales se presentan informaciones susceptibles de ser consultadas por la audiencia.
En ocasiones menos frecuentes, el volumen de datos resulta tan amplio que es necesaria la creación de aplicaciones para agrupar variables concretas y sintetizar una información que de otro modo no tendría lugar en una sola pieza periodística. Estas innovaciones implican la inclusión de perfiles con conocimiento de programación en las redacciones capaces de integrar los datos en herramientas interactivas, sistemas de información geográfica y diversos tipos de visualizaciones. El periodista de datos, además, ha de familiarizarse con la búsqueda avanzada de documentos en Internet, así como con el tratamiento de bases de datos para su preparación y su posterior análisis matemático.
El periodismo de datos ha sido especialmente útil en la cobertura de elecciones —para conocer el comportamiento electoral por barrios, por ejemplo—, de crisis humanitarias y sociales —como en el caso de la propagación de una enfermedad—, de temas medioambientales y sociales —a partir de datos sobre discriminación por nivel económico, por ejemplo—, de informaciones deportivas —para conocer el rendimiento de equipos o profesionales concretos— y de casos de rendición de cuentas por parte de instituciones públicas —como puede ser el gasto gubernamental en un ámbito específico—. Como vemos, estos temas se nutren, especialmente, de documentos de tipo institucional.
Por ello, estas prácticas periodísticas han sido paralelas a la defensa de una mayor transparencia por parte de las instituciones públicas. Las iniciativas de datos abiertos (open data) han reivindicado una mayor transparencia, fomento de la participación ciudadana y rendición de cuentas mediante el acceso a la información. No supone únicamente que los datos se encuentren disponibles, sino que también se dispongan de modo que puedan ser fácilmente abiertos, comprendidos y tratados.
Ello implica que han de publicarse con una licencia que permita su reutilización e indique alguna restricción de su uso, si la hubiera. Los datos abiertos y el periodismo de datos, por tanto, coinciden en plantear una mayor transparencia de las instituciones mediante la accesibilidad de datos que permiten la creación de historias de valor social, así como el uso por parte de cualquier ciudadano de estas informaciones.
En cualquier caso, como vemos, el uso de datos por parte del ámbito periodístico ha sido muy limitado en comparación con el alcance de las prácticas del big data. Sin embargo, existen propuestas de estrategias, tanto en el ámbito de la producción como en el de la difusión informativa, que presentan visiones más integradas de estos grandes datos en los medios de comunicación. El planteamiento de conceptos como el Internet de las cosas impulsa nuevos modos de comprender el periodismo que han de tenerse en cuenta al revisar las innovaciones de los próximos tiempos en este ámbito.
6.2.2. Internet de las cosas y sus aplicaciones
En general, el desarrollo y expansión de los ordenadores y de otros dispositivos de acceso a Internet ha tenido un profundo calado en los procesos comunicativos contemporáneos, también los relacionados con el periodismo. Por ello, comprender sus nuevas tendencias supone un reconocimiento de las implicaciones de la interconexión de los dispositivos físicos a través de la red.
El llamado Internet de las cosas (Internet of Things, IoT) hace referencia a la red de objetos físicos que cuentan con el software necesario para conectarse a la red con el fin de intercambiar datos con otros sistemas y dispositivos. Bajo este paraguas, existen multitud de aparatos electrónicos capaces de recopilar información en tiempo real sobre el entorno: desde sensores que registran las condiciones climáticas de un lugar hasta electrodomésticos inteligentes que ofrecen información contextualizada de sitios concretos.
A estos desarrollos de captación de información han de incluirse cámaras y drones, que facilitan la recopilación visual desde diversas perspectivas. Estos vehículos aéreos no tripulados (Unmanned Aerial Vehicle, UAV), equipados con sensores y cámaras, funcionan mediante control remoto o GPS (Global Positioning System) y su uso inicial fue militar. Su popularización ha permitido su extensión a otros campos, como el mapeo aéreo, la inspección de minas o el control de tráfico. Su aplicación al ámbito de la comunicación data de la segunda década del siglo XX y aunque han servido para fines cuestionables en donde entra en juego la privacidad personal —uno de sus primeros usos fue la captura de imágenes de las vacaciones de la aristócrata Paris Hilton—, su utilización ha permitido cubrir guerras, accidentes o desastres naturales de manera más segura, rápida y económica.
El potencial comunicativo de esta tecnología queda reflejado en la selección realizada anualmente por los Drone Photo Award. Un ejemplo de periodismo drone notable lo constituye openAFRICA, impulsada por el laboratorio ciudadano Code for Africa (CfA). Esta se dedica a ofrecer apoyo económico y técnico a proyectos periodísticos relacionados con este continente. De sus colaboraciones han surgido piezas periodísticas para medios del lugar —Nation Media Group, News24, Punch—, así como para otros internacionales —BBC, Newsweek, Die Welt—.
Dentro de estas tecnologías conectadas a Internet, existen accesorios portátiles que no solo recopilan información, sino que favorecen su consumo. La tecnología vestible (wearable) integra dispositivos con conexión a Internet en los accesorios habituales del usuario. Estos interactúan de manera constante con este sin impedir su movilidad y cuentan con modos de control para la mejora de la experiencia de uso.
Entre los wearables más destacados se encuentran los relojes inteligentes, a los que los medios se han ido adaptando especialmente a través de sistemas de alertas con titulares e información fragmentada que aparece en sus pantallas —una tipología de difusión conocida como periodismo de un vistazo o glance journalism—. El agregador de noticias Flipboard, por ejemplo, se encuentra disponible para relojes inteligentes de diferentes marcas y ofrece titulares, resúmenes e imágenes de la actualidad acorde a los intereses del usuario. También los asistentes virtuales con sistema de voz han abierto la puerta a la innovación sobre la difusión de informaciones.
Las gafas inteligentes operan habitualmente con una pantalla de visualización y sensores que reciben información contextual, además de conexión a Internet. Dichas gafas funcionan con realidad aumentada, permiten la transmisión de contenidos audiovisuales y pueden capturar información, lo que abre nuevos campos productivos por parte de la ciudadanía. Las grandes compañías han realizado inversiones en estas innovaciones, desde los pioneros desarrollos de las Google Glass hasta el lanzamiento de las Ray-Ban Meta, en asociación con la conocida marca de este producto.
La realidad aumentada facilita que un conjunto de tecnologías —un teléfono inteligente o una tableta— superpongan elementos virtuales a los reales. En periodismo, este tipo de innovaciones se comenzó a aplicar especialmente a finales de los 2000 y a inicios de la década siguiente. La primera aproximación a la realidad aumentada en el ámbito mediático es una portada de 2009 de la revista Esquire’s, que mostraba un vídeo de Robert Downey Jr. al emplear un software especializado en un ordenador.
La realidad aumentada se ha beneficiado especialmente de la expansión de los dispositivos móviles y la cada vez más barata producción de aplicaciones de software para la reproducción de este tipo de contenido. La interacción a través de tecnologías conectadas a Internet impulsa a los usuarios a mantener un rol más activo en la consulta de información, al facilitar la obtención de contenido multimedia y complementario sobre un contenido específico.
La tecnología vestible se ha aplicado también a la realidad aumentada. Esta describe al conjunto de tecnologías —gafas, micrófonos, altavoces o controladores, incluso guantes y mandos para interactuar con el entorno digital— que permiten al usuario sumergirse en un mundo generado digitalmente. En realidad virtual, destacan los trabajos de Nonny de la Peña. En 2007, publicó Gone Gitmo, donde recrea la vida de los presos de Guantánamo mediante Second Life. Cinco años después produjo Hunger in Los Angeles, un trabajo en el que explora la pobreza en la ciudad estadounidense.
La realidad virtual propone la creación de entornos digitales en 360 grados que recrean el contexto en el que se dan los asuntos noticiosos para generar una sensación de presencialidad en la audiencia (De la Peña et al., 2010). Los diversos estímulos visuales y auditivos tratan de lograr que los usuarios conozcan los acontecimientos como si los hubieran vivido en primera persona, bien sea como protagonistas o como espectadores. Estos pueden haber sido generados por ordenador, si bien cabe considerar también aquellos que emplean vídeos y grabaciones realizadas sobre el terreno.
El número de dispositivos conectados a Internet resulta susceptible de aumentar en el futuro, lo que necesariamente seguirá modificando los modos de comunicación y, con ello, las estrategias de los medios digitales en las diferentes fases informativas que los implican, en lo relativo a: (1) la recopilación de información y (2) la distribución del contenido generado. Por un lado, los sensores de los dispositivos conectados a Internet pueden capturar datos de manera continua y sistemática. Esta información será útil para recopilar otra complementaria con la que verificar y enriquecer sus piezas informativas.
Además, dichos datos permiten perfeccionar los análisis sobre el comportamiento del usuario, lo que favorece la articulación de estrategias para una difusión más ajustada al perfil de usuario y, por tanto, información más personalizada y fragmentada. Esta distribución, además, supera el ámbito de los ordenadores y móviles, de manera que los medios se enfrentan a otros modos de disposición del contenido adaptados a los nuevos dispositivos y contextos de consumo. Por ejemplo, el periodismo geolocalizado (locative journalism) emplea los avances en tecnologías como el GPS o el RTLS (Real-time locating systems) para organizar el contenido de los medios según la ubicación del usuario.
Este tipo de estrategias de difusión se benefician del Internet de las cosas, que ofrece la infraestructura necesaria para su desarrollo. Los medios locativos han experimentado diversos usos a lo largo del tiempo, que no muestran necesariamente correspondencia con el periodismo: han allanado las aplicaciones centradas en el turismo o en juegos de realidad aumentada. Con fines sociales nació el proyecto Transborder Immigrant Tool, una aplicación del grupo hacker Electronic Disturbance Theater que guía en el paso de la frontera entre México y Estados Unidos a los migrantes que atraviesan los desiertos de estos países. Landscale, por su parte, utiliza la tecnología GPS para evaluar la sostenibilidad de los ecosistemas.
Otro ejemplo de esta unión entre las diferentes innovaciones tecnológicas lo constituyen los asistentes de voz. Estos dispositivos conectados a Internet funcionan según modelos de procesamiento de lenguaje natural para comprender las peticiones del usuario. Esta interacción puede tener una función informativa, como la provisión de datos concretos sobre algún hecho de relevancia, la distribución de boletines de noticias, la difusión de informaciones de última hora, etc.
Estas tecnologías, además, tienen que considerarse a la luz de los avances en inteligencia artificial producidos en los últimos tiempos y que han cambiado los modos de procesamiento de los datos, pero también las formas de producción de nuevos contenidos. Este nuevo rol que adquieren las tecnologías prefigura el fortalecimiento de un periodismo ubicuo (Salaverría; De-Lima-Santos, 2020) caracterizado por: (1) una producción ampliada de noticias, (2) el acceso a la información a través de múltiples dispositivos, (3) el flujo constante de información, (4) la distribución personalizada y (5) el uso de técnicas inmersivas para la producción noticiosa. Lo que este concepto de periodismo ubicuo viene a anunciar es la combinación de diferentes avances que, con el grado de madurez suficiente, pueden ahora combinarse para explorar nuevos modos de producción y difusión informativa cuyas consecuencias e impacto real aún están por conocerse.
6.2.3. Sesgos algorítmicos y macrodatos
Junto con las múltiples posibilidades de las tecnologías, dichos avances han planteado también limitaciones que cabe considerar para evitar caer en un determinismo que asimile innovación con calidad periodística. Algunas de estas cuestiones, como las relativas a la responsabilidad, los sesgos y las manipulaciones, tienen relación con las limitaciones propias de la inteligencia artificial y las explicamos en el epígrafe anterior. Sin embargo, el uso de grandes cantidades de datos, útil para el entrenamiento de sistemas como los chatbots, supone necesariamente que el comportamiento humano se vuelva detectable, rastreable y registrable. Ello implica necesariamente una preocupación por la vigilancia en red y los sesgos algorítmicos (Pérez-Seijo; Vicente, 2022).
Los dispositivos englobados dentro del Internet de las cosas se encuentran diseñados para una obtención continua de información que cuestiona los límites tradicionales de la privacidad. Estos son capaces de registrar, sin un consentimiento explícito, actos de la vida social no relacionados con las funciones para los que fueron diseñados. Conversaciones privadas, espacios íntimos, así como estados físicos y emocionales pueden ser captados por este tipo de dispositivos para diferentes fines, tanto económicos como políticos. Las prácticas de modificación y robo de datos se dan en circunstancias en las que no existe una regulación adecuada y el hackeo de los dispositivos se ve impulsado por los beneficios que comportan estos datos.
Estas amenazas afectan directamente al trabajo periodístico de diversas formas (Shere, 2022). Primeramente, el perfilado y rastreo de los periodistas puede allanar la identificación de prácticas que se sitúe en contra de instituciones o empresas concretas, como la investigación sobre casos de corrupción. Ello puede acarrear represalias contra dichos periodistas, que incluyen la publicación de datos de su vida personal obtenidos mediante la actividad registrada en los dispositivos electrónicos. En suma, las amenazas de dicha vigilancia resultan en este caso dobles y tienen que ver con la identificación de prácticas subversivas y con el chantaje para su anulación.
En segundo lugar, este hackeo puede implicar la modificación de dispositivos e información, lo que amenaza la credibilidad de periodistas y medios de comunicación si sus perfiles sociales o correos electrónicos se emplean para la distribución de información falsa o para la suplantación de la identidad con otros objetivos. Este riesgo se multiplica en un escenario en el que hasta los electrodomésticos —frigoríficos, por ejemplo— pueden conectarse a plataformas digitales como redes sociales.
Por último, las empresas mediáticas también pueden sufrir ataques cibernéticos que paralicen sus ciclos de producción en el caso, por ejemplo, de que alguien desee boicotear algún trabajo periodístico concreto o extorsionar a los periodistas o medios que lo cubren. La magnitud de este tipo de ataques aumenta en el momento en el que los dispositivos de las redacciones se encuentran conectados entre ellos.
Los casos de espionaje masivo que salen a la luz pública reavivan el debate sobre el problema de la vigilancia como una forma de atentado contra los derechos humanos y, más en concreto, contra la libertad de expresión. En 2022, Citizen Lab desveló la existencia del software Pegasus, desarrollado por la empresa israelí NSO Group. Este spyware se infiltró en los móviles de 50.000 números de teléfono para realizar un monitoreo completo de la actividad de sus usuarios. Estudios posteriores revelaron que al menos 180 periodistas de 20 países diferentes, que trabajaban en medios críticos con los gobiernos de lugares como El Salvador, Hungría o Marruecos, habían sido espiados.
Junto con ellos, también activistas por los derechos humanos fueron víctimas de este caso de espionaje, lo que abrió el debate sobre las amenazas a la libertad de expresión y los riesgos de censura para quienes viven bajo la amenaza del escrutinio de sus gobiernos. Este tipo de acciones no suponen únicamente una reivindicación política de la no injerencia gubernamental en cuestiones relativas al periodismo o a la participación ciudadana. Para los profesionales de los medios de comunicación, este tipo de sucesos suponen una actitud proactiva en la salvaguarda de su integridad, lo que implica proteger su información personal y habituarse al empleo de prácticas como la encriptación de datos.
Tampoco el Internet de las cosas resulta ajeno a la cuestión de los sesgos algorítmicos, que en el apartado anterior relacionábamos con la aparente neutralidad de la inteligencia artificial generativa en los contenidos textuales que esta devuelve ante determinadas peticiones. Como mencionábamos entonces, la programación de estos modelos se encuentra oculta, de manera que resulta complejo comprender su funcionamiento y posibles limitaciones. Además, el aprendizaje de la inteligencia artificial depende de contenidos previamente generados, lo que implica necesariamente riesgos relacionados con la réplica de prejuicios.
Un ejemplo reconocido sobre esta cuestión lo constituye Amazon. Su software de reclutamiento mediante inteligencia artificial evaluaba de peor manera los perfiles de mujeres en áreas técnicas como el desarrollo informático. Otras investigaciones han demostrado la menor precisión de los sistemas de reconocimiento facial en mujeres y personas racializadas (Buolamwini, 2017). En estos casos, los comportamientos tendenciosos previos y la falta de contenido para el entrenamiento se convierten en sesgos que afectan a diferentes procesos de la vida social.
En el contexto del Internet de las cosas, el sesgo algorítmico conecta directamente con los procesos de recopilación y procesamiento de datos. La ubicuidad y complejidad de su compilación mediante esta multitud de dispositivos conectados implica una revisión cuidadosa del contexto de dicha recolección, con la intención de reconocer sus inexactitudes y, así, evitar representaciones sesgadas. El análisis crítico resulta una demanda especialmente apremiante en el caso de la información susceptible de perjudicar a comunidades vulnerables. Por tanto, los datos no constituyen, en sí mismos, representaciones creíbles y precisas de la realidad, de modo que el periodismo que trabaje con datos y macrodatos ha de ser consciente de estas limitaciones para evitar piezas que reproduzcan estereotipos previos.
Los problemas de muestreo derivados del Internet de las cosas se relacionan con una cuestión que conviene no olvidar cuando se trata de comunicación e innovación tecnológica: la brecha digital. El acceso limitado a la conectividad y el coste de los dispositivos implica la exclusión de parte de la población cuya visibilidad queda cuestionada por dicha desconexión. Estos dos factores, unidos a la falta de capacitación mediática para emplearlos, implica cuestiones de profundo calado en el periodismo y que tienen relación con las dificultades de acceder a determinados segmentos de la población.
Ello supone preguntarse por las voces que aparecen representadas en los contextos informativos, especialmente en el caso de grupos que, con desigual acceso a las tecnologías, pueden ser protagonistas de las informaciones sin participar activamente de ellas ni tampoco tener acceso posterior a dichas representaciones. Esta cuestión deriva ulteriormente en una pregunta que indaga en el uso integral de las innovaciones tecnológicas y su habilidad para facilitar el trabajo periodístico en su función democrática de informar o si, al contrario, incide en desigualdades previas de acceso a la información y participación en la esfera pública.
6.3. Blockchain en el periodismo
6.3.1. Funcionamiento de la cadena de bloques
Blockchain, traducido como cadena de bloques, es un libro de cuentas distribuido (Tecnología de Contabilidad Distribuida o Distributed Ledger Technology, DLT) que permite la transferencia de datos o propiedades digitales sin intervención de un intermediario. La tecnología blockchain crea un registro descentralizado formado por una secuencia de transacciones agrupadas en bloques, con la garantía de que el almacenamiento de dichas transacciones resulta íntegro e inmutable. Para ello, cada uno de los bloques de información en la secuencia (cadena) está respaldado por los ordenadores de una red, denominados nodos, que gestionan la base de datos pública distribuida que conforma la blockchain, pues todos ellos cuentan con información sobre su estado, es decir, el momento y la secuencia en la que dicha transacción se ha realizado.
El funcionamiento de la cadena de bloques sirve para comprender su definición. El proceso comienza en el momento en el que alguien inicia una transacción, que puede implicar un intercambio monetario, pero también el registro de cualquier otro tipo de activo, como pueden ser, por ejemplo, los tokens no fungibles (Non-fungible Tokens, NFT). Una vez se comprueba que la transacción cumple con los protocolos de blockchain —que es válida y legítima—, esta se agrega a un bloque. Un bloque puede definirse como un paquete de información, es decir, como una unidad de datos que contiene transacciones confirmadas.
Cada bloque cuenta con una firma criptográfica inmutable denominada hash. Un hash es una secuencia de caracteres alfanuméricos que identifica los datos de cada bloque, a modo de huella digital protegiéndolos de posibles alteraciones o modificaciones. Cada bloque incluye el hash del bloque anterior, lo que les enlaza formando una cadena y permite a los nodos que forman parte de la blockchain realizar su validación a través de la ejecución de algoritmos predefinidos.
Los nodos pueden almacenar una parte de una cadena o la totalidad de esta, y toman las decisiones a través de algoritmos de consenso —sin una entidad que tenga que validar la transacción—. Cada uno de ellos cuenta con una copia del historial completo de la cadena de bloques que se emplea para validar la transacción mediante la comprobación de la coherencia entre esta y la copia almacenada. Una vez el bloque es validado, se agrega a la cadena de bloques. Para reforzar la seguridad del proceso, también se utilizan las marcas temporales (timestamp), ya que registran el momento exacto en el que se realizó una transacción. De este modo, se puede conocer el orden de los eventos que sucedieron en la cadena de bloques.
Blockchain constituye una tecnología relativamente nueva. La consolidación de esta solución tecnológica se sitúa en 2008, con el nacimiento de Bitcoin, un sistema electrónico descentralizado cuya aplicación práctica data de un año más tarde, con el minado del primer bloque por Satoshi Nakamoto —este nombre corresponde a un pseudónimo tras el cual se encuentra una persona o un grupo de personas—. En el artículo en el que describen el proyecto, titulado Bitcoin: A peer-to-peer electronic cash system, explican las posibilidades de generar pagos sin la necesidad de una autoridad central que los verifique. Más adelante se desarrollaría Ethereum que, además de contar con su propia divisa, planteó los contratos inteligentes y las DApp (decentralised application), aplicaciones descentralizadas. Ambos avances fueron esenciales para el empleo de blockchain fuera del ámbito de las criptomonedas.
La cadena de bloques, en cualquier caso, no partió de cero, sino que ha sido el resultado de la evolución de la tecnología distribuida o P2P (peer-to-peer) y que trajo como resultado la primera moneda digital descentralizada, Bitcoin. La criptografía, por su parte, se desarrolló a partir de los años setenta para codificar datos y crear firmas digitales que aseguraran la autenticidad del emisor de las comunicaciones en Internet.
También fueron relevantes los hallazgos sobre el sello de tiempo (timestamp) durante los años noventa, cuando esta solución sirvió para que los objetos digitales no pudieran ser manipulados y, posteriormente, fueran capaces de agruparse en bloques. Estos antecedentes sirvieron para fortalecer la seguridad, la transparencia y la eficiencia de la cadena de bloques, cuyas aplicaciones han sido parte de algunos experimentos relacionados directamente con los medios de comunicación, como veremos en el siguiente epígrafe.
6.3.2. Aplicaciones de blockchain al periodismo
El uso de la cadena de bloques se ha extendido a una amplia gama de sectores. Como adelantamos, la aplicación más popular de esta tecnología ha sido la de las criptomonedas, con Bitcoin (BTC) como uno de sus máximos exponentes, pero no el único de ellos —Ether (ETH) o Binance Coin (BNB) constituyen otras divisas—. El uso de este sistema tiene como fin la descentralización de los intercambios financieros, de modo que sea posible llevar a cabo transacciones de manera directa, segura y sin necesidad de intermediarios bancarios. También los tokens no fungibles, activos que representan la autenticidad de un elemento digital —como ilustraciones, ítems en videojuegos o entradas—, se registran a través de la cadena de bloques. Si bien en este caso y a diferencia de las monedas, no constituyen un recurso intercambiable.
Este tipo de aplicaciones ha implicado cambios en campos como el financiero o el del mercado del arte. Las facultades de transparencia, control ciudadano, descentralización y eficiencia de este tipo de aplicaciones han generado posibilidades para el periodismo contemporáneo, que ya hemos adelantado anteriormente. Su aplicación ha comenzado a ser explorada recientemente, sobre todo por las potencialidades de esta tecnología en la invariabilidad de los datos y la creación de nuevos entornos digitales (Marqués-Pascual; Sintes-Olivella, 2020).
En el primer caso, los procesos de producción y difusión informativa podrían beneficiarse de la trazabilidad de la información, de modo que resulte más compleja su modificación y el autor de esta sea más fácilmente identificable. Así, blockchain es susceptible de emplearse para la autenticidad de las noticias. Su tecnología permite rastrear el origen de una información y las posibles manipulaciones de esta, lo que, en última instancia, posibilita un fortalecimiento de la confianza en los contenidos que la audiencia consume en los medios.
También establece un registro transparente y auditable de las fuentes utilizadas en las piezas periodísticas lo que, a su vez, favorece la transparencia y la auditoría descentralizada de los contenidos. Ello tiene relevancia en cuestiones relacionadas con la propiedad intelectual y los derechos de autor, dado que facilita los procesos de licenciamiento de las informaciones, así como la comprobación de la originalidad de los contenidos y los posibles usos indebidos.
Desde el punto de vista de la redacción, la cadena de bloques asegura una mayor protección del anonimato y de los datos proporcionados por estas fuentes. De este modo, se posibilita un almacenamiento en nube que resiste los ataques a servidores, su permanencia en el tiempo y su autenticidad. Que los datos se guarden de manera distribuida tiene como consecuencia una resistencia a las acciones de censura, pues resulta más compleja la eliminación de las informaciones que se distribuyen de modo descentralizado.
En lo relativo a la creación de nuevos entornos digitales, las características de la cadena de bloques favorecen la fidelización de una audiencia que puede encontrar nuevos modos de apoyo económico a los proyectos periodísticos en los que confía. Esto resulta especialmente útil en un momento en el que, como hemos visto ya, la publicidad no parece la solución definitiva para los medios de comunicación en Internet. La cadena de bloques puede ayudar a la financiación de contenidos concretos mediante micropagos y criptomonedas. Los contratos inteligentes agilizan las formas de contribución sin intermediarios y pueden resultar especialmente beneficiosos para medios pequeños y periodistas freelance.
En resumen, el periodismo en la actualidad enfrenta multitud de desafíos de amplia variedad, que transitan desde la proliferación de noticias falsas hasta las presiones en la búsqueda de beneficios. Los mecanismos para el almacenamiento inmutable de datos, la publicación descentralizada y la verificación transparente van más allá de los ámbitos bancarios y de las finanzas, de modo que abren posibilidades nuevas para el ámbito periodístico, tanto en lo que concierne a las prácticas de redacción como a las estrategias económicas de los medios. En este ecosistema incierto, la tecnología de cadena de bloques emerge como una solución para abordar algunos de estos problemas centrada, en todo caso, en lo tecnológico.
6.3.3. Cadena de bloques y medios de comunicación
Las múltiples aplicaciones de blockchain han supuesto también un número amplio e irregular de desarrollos. Estas innovaciones han dependido en buena medida del panorama mediático en cada región del mundo. En lugares como España, concretamente, la exploración de este tipo de tecnologías ha sido más limitada. La mayor parte de los proyectos de este tipo han proliferado en Estados Unidos. El caso más paradigmático entre los existentes lo constituye Civil (Sintes-Olivella et al., 2020), una iniciativa de 2017 financiada por ConsenSys, empresa perteneciente al cofundador de Ethereum, Joseph Lubin.
El proyecto de Civil, desaparecido en 2020, consistía en una plataforma descentralizada que anunciaba dedicarse a un periodismo independiente, ético y de calidad según los principios de transparencia, participación de la comunidad y garantía de la veracidad de la información. Civil ofrecía una plataforma descentralizada para medios de comunicación que cumplían ciertos estándares de calidad y éticos dictados por la plataforma a través de la Constitución Civil. La mayoría de las cabeceras eran estadounidenses —Block Club Chicago y The Colorado Sun, entre otros—, si bien la plataforma se encontraba abierta a la participación de periodistas independientes y nuevas empresas informativas. Todos ellos contaban con un registro para indexar sus contenidos mediante cadena de bloques.
La comunidad de usuarios tenía la posibilidad de financiar aquellas piezas que publicaran en ella. Además, adquiría un rol editorial al poder solicitar la cobertura sobre determinados temas y revisar los contenidos no veraces. La actividad se llevaba a cabo mediante CVL, un token (no una criptomoneda) que servía tanto para financiar proyectos periodísticos como para realizar votaciones o denunciar los contenidos que incumplían la Constitución Civil.
Los tokens, en suma, implicaban cierto grado de control sobre la plataforma, pues permitían al público conformarse como una comunidad que tomaba decisiones sobre el contenido publicado. Este órgano de decisión era complementario a un consejo conformado por periodistas reconocidos de diversos medios —Atlantic Magazine, El País—, iniciativas civiles en Internet —Fundación Wikimedia— y universidades —Columbia University—. Era el encargado, entre otras cuestiones, de escribir las normas éticas de la plataforma y velar por su cumplimiento.
Civil se enfrentó a dos problemas que finalmente supusieron su desaparición. Por un lado, la complejidad tecnológica disminuyó el interés de la ciudadanía en el proyecto. La dificultad generalizada para comprender el funcionamiento de la cadena de bloques desalentó la participación de una masa crítica suficiente para sostenerlo, tanto en lo relativo a la publicación de piezas por parte de sujetos mediáticos como en lo que concierne a una ciudadanía dispuesta a consumirlos y ejercer decisiones editoriales sobre ellos. Ello repercutió también en su financiación, que no alcanzó el mínimo de ingresos esperables para garantizar su sostenibilidad. La mayor parte de los tokens tuvieron que ser adquiridos por ConsenSys, la empresa que les había respaldado económicamente.
Junto con Civil, existen otros proyectos que también han empleado la tecnología blockchain en el ámbito del periodismo, aunque con diferentes resultados (Shilina, 2019). Po.et, por ejemplo, constituyó una plataforma descentralizada que utilizó la cadena de bloques para registrar y proteger la propiedad del contenido digital. AdChain, por su parte, se definió como un conjunto de protocolos en Ethereum centrados en crear una lista blanca descentralizada de editores no fraudulentos y mejorar así la calidad de la publicidad digital. Narrative se constituía como una red que recompensaba a los usuarios por contribuir con contenido de calidad, mediante un sistema de reputación y calificación para destacar las mejores contribuciones.
Uno de los proyectos que sigue en activo es Popula. Esta revista experimental sobre noticias, arte y cultura fue impulsada precisamente por Civil. Ha experimentado con cadena de bloques mediante el archivado de sus contenidos en Ethereum, a fin de protegerlos de la manipulación y censura. Además, cuenta con un sistema de micropago mediante criptomonedas, para apoyar la labor de los periodistas y artistas independientes que colaboran con la revista. De hecho, el medio forma parte de Brick House, una cooperativa que promueve la existencia de un periodismo independiente de las decisiones de la propiedad del medio o de las compañías publicitarias.
Más allá de este último ejemplo, los casos anteriores demuestran que la aplicación de la cadena de bloques en periodismo aún precisa de una mayor madurez para que las propuestas teóricas consigan materializarse en proyectos solventes a medio y largo plazo. Su viabilidad implica retos relacionados con la creación de estándares sobre los procesos de verificación o atribución de los contenidos, la accesibilidad y facilidad de uso de estas tecnologías, y la existencia de perfiles profesionales con competencias específicas en este campo.
Del mismo modo, aún resulta preciso resolver la cuestión de la sostenibilidad, en la que las criptomonedas han de comprenderse dentro de un proceso más amplio de regulación y establecimiento de modelos de negocio no basados en la publicidad. Estos retos demuestran que las soluciones tecnológicas no pueden, por sí mismas, impulsar cambios, sino que sus virtudes han de comprenderse dentro de contextos políticos, culturales y económicos más amplios.
6.4. Periodismo digital ante el futuro tecnológico constante
Como hemos visto a lo largo de este capítulo —y de todo el libro—, Internet ha venido a redefinir el periodismo desde todos sus ámbitos: desde el organizativo y empresarial hasta el relacionado con las prácticas periodísticas y los desafíos actuales en la producción noticiosa. No se trata, empero, de una cuestión nueva. Es decir, las tecnologías previas también fueron un factor esencial en los cambios históricos que ha ido viviendo la comunicación, mientras que, al mismo tiempo, las nuevas formas de producir y difundir información han constituido un elemento esencial para entender la política y la cultura de un momento determinado.
Lo que distingue a Internet de otras innovaciones previas es el grado de conciencia que genera sobre la centralidad de las tecnologías en la vida social (Sádaba; Gordo, 2011). En todas las cuestiones relativas al periodismo digital, el factor tecnológico constituye una cuestión clave, no solo porque resulta un elemento útil para comprender sus formas de funcionar, sino porque el curso de los avances demanda una atención especial a fin de poder integrarlos de manera eficiente y crítica en las redacciones de los medios. Que el periodismo digital sea una disciplina relativamente nueva convierte a sus actores principales en partícipes de los cambios acelerados que esta vive, mientras que obliga a quienes la estudian a tratar con cautela cualquier transformación cuyo alcance en el tiempo no está definido.
De modo general, las innovaciones comienzan con un desarrollo inicial para posteriormente aplicarse a diversos ámbitos hasta que, más adelante, alcanzan al del periodismo. Solo cuando la relación con la producción mediática alcanza determinada madurez, se integran en los medios de comunicación convencionales (Pavlik; Bridges, 2013).
El interés por la innovación en comunicación, unido a las mejoras de las tecnologías para el desarrollo de este tipo de contenidos, ha supuesto la creación de laboratorios de innovación en distintos medios de comunicación. Estos los ocupan periodistas, desarrolladores, diseñadores e investigadores que trabajan colaborativamente con la intención de crear nuevas herramientas y productos mediante la aplicación al contenido periodístico de diversos avances tecnológicos, algunos de ellos mencionados anteriormente, como la realidad virtual, pero también otros como la inteligencia artificial o los macrodatos.
Los principales medios de comunicación internacionales cuentan con estos espacios: Arc XP (The Washington Post), Guardian Labs (The Guardian), The New York Times R&D (The New York Times). En el ámbito iberoamericano destacan el Laboratorio de Innovación Audiovisual de RTVE (España), RTP LAB (Portugal) y OjoLab (Perú), entre otros. También algunas universidades han desarrollado espacios para la innovación periodística, como es el caso del Laboratório de Convergência de Mídias (Universidade Federal do Maranhão, Brasil) o el MIT Media Lab (Massachusetts Institute of Technology, Estados Unidos). Existen otros proyectos independientes de instituciones universitarias y mediáticas, como Fabrica (Italia), Media City Bergen (Noruega) o The Lab Insight & Strategy (Australia).
Existen, además, espacios que tratan de reconocer las tendencias del periodismo contemporáneo a fin de trazar posibles caminos sobre los que predecir su futuro. Es el caso de los informes anuales Digital News Report del Instituto Reuters y la Universidad de Oxford (Newman, 2020; Newman, 2021; Newman, 2022; Newman, 2023; Newman, 2024), que han venido a señalar una continuidad en los avances tecnológicos de los últimos años. Según estos estudios, el periodismo trata no solamente de encontrar nuevas innovaciones, sino de consolidar las ya establecidas, a fin de adaptarse a un ecosistema cambiante donde los hábitos de consumo y las demandas se transforman a gran velocidad.
Como ejemplo, la inteligencia artificial, previamente tratada en este capítulo, no ha de considerarse ya una tecnología futura, sino una parte integrada en las prácticas periodísticas del momento, ya sea para la recopilación de información como para su redacción y posterior difusión. Por ello, no es de extrañar que en el futuro se experimente con ella para la traducción de textos o la creación de contenidos visuales. Al mismo tiempo, las corporaciones tecnológicas han comenzado a aplicar a sus servicios este tipo de modelos, que también implicarán cambios en el periodismo. La implantación de avances como la Search Generative Experiences (SGE) de Google, por ejemplo, transformará las técnicas del posicionamiento en buscadores y, por extensión, la redacción periodística. De modo más general, el papel cada vez menos relevante del texto supondrá cambios en el modo de indexación de los contenidos en Internet.
Las transformaciones hacia formatos menos textuales son una consecuencia natural de un sistema de consumo cada vez más centrado en el audio y en el vídeo. La eclosión de los pódcast en los últimos tiempos, beneficiada por las inversiones en Spotify y la existencia de nuevas plataformas como Podimo, constituye únicamente una de las consecuencias del aumento del audio digital. Los medios —News24 o The New York Times, por ejemplo— también han empleado los mensajes y artículos en este formato, que se han monetizado mediante la publicidad dentro de estos productos. Muchos se asocian con las plataformas más populares, las cuales, al mismo tiempo, tratan de mantener los contenidos y locutores más populares en sus espacios.
En cuanto al vídeo, la creciente influencia de redes sociales como TikTok ha implicado la producción de nuevos contenidos cortos y en vivo. De modo general, los creadores en Internet han obtenido relevancia e influencia, en muchos casos de mayor envergadura que la de los medios de comunicación convencionales. La participación en estas plataformas sociales trata de generar nuevos modos de compromiso con la audiencia, si bien esta estrategia plantea en el aspecto económico dudas no resueltas, concretamente si esa contribución en redes sociales puede traducirse en un mayor número de visitas o, cuanto menos, en nuevas formas de ingresos. Un ejemplo de estos nuevos formatos lo constituyen los vídeos de la cuenta de NBC News titulada Stay Tune, que se distribuyen por Instagram, Snapchat, Tik Tok y YouTube.
En cualquier caso, parece que el tráfico de los medios de comunicación continuará diversificándose a través de los chats de mensajería instantánea, las aplicaciones y los pódcast. También los boletines de correo electrónico han visto aumentar su popularidad en los últimos tiempos, como elemento destinado a las audiencias más comprometidas con determinados productos mediáticos. Las redes sociales, por su parte, han comprobado un descenso del interés en las noticias, lo que pone en cuestión plataformas como Apple News, Facebook News o Google News.
En general, la relación entre las redes sociales y los medios de comunicación en los últimos tiempos ha sido ambivalente. Por un lado, los periodistas siguen dependiendo de estas para conocer informaciones a tiempo real y contactar con las fuentes de la actualidad noticiosa, aun siendo conscientes de que estas prácticas se llevan a cabo en un contexto de desinformación y polarización.
Por otro lado, si bien las plataformas han servido para la difusión de sus informaciones, la recompensa económica por publicar ese contenido que alimenta la red social resulta aún muy restringida, al igual que sucede en el caso de los vídeos. Estas dos limitaciones de las redes sociales han sido abordadas en los últimos años desde el entorno periodístico, que ha solicitado una mejor protección de los derechos de autor, a la vez que ha colaborado con estas empresas para combatir problemas propios del ámbito comunicativo, como el de la difusión de noticias falsas.
La existencia de bulos, así como el rol de las redes sociales en momentos específicos de la política de los estados —como las elecciones generales— ha acarreado también consecuencias en la regulación de las plataformas en cuestiones relativas a la competencia, la privacidad y la seguridad en línea, especialmente en el ámbito de la Unión Europea. Esta realidad, junto con la tendencia a contar con más contenidos de pago dentro de sus espacios, cambiará la relación entre usuarios, información y redes sociales en los próximos años.
Otra de las innovaciones cuyo alcance real está por descubrirse es el del Metaverso. Este concepto ha ganado relevancia durante la última década, especialmente por los esfuerzos de Facebook por desarrollarlo: la propia compañía cambió su nombre a Meta y visibilizó así su empeño en tratar esta cuestión. Este puede definirse como un mundo virtual generado digitalmente con el que es posible interactuar mediante los avances en realidad virtual y aumentada. Han sido estas innovaciones las que han permitido que se llevara a la práctica un concepto enunciado en los años noventa por Neal Stephenson en su novela de ciencia ficción Snow Crash.
Posteriormente, plataformas como Second Life indagaron en el concepto de experiencia social compartida en línea. Diversas redacciones, como las de Reuters y CNN, generaron avatares y espacios de producción en este entorno. Este sirvió, además, para el impulso de proyectos como Alphaville Herald o Second Life Enquirer, dedicados a cubrir los eventos acaecidos en este mundo virtual. El desarrollo del metaverso tendrá implicaciones en el sector del entretenimiento y el de los videojuegos, pero cabe esperar que también exista una aplicación periodística, del mismo modo que la realidad aumentada y mixta han servido para el tratamiento de temas sociales o eventos deportivos. Por ello, cuestiones como la seguridad o la moderación de los contenidos resultarán clave en lo relativo al ámbito mediático.
El pleno desarrollo del metaverso va unido al lanzamiento de dispositivos e interfaces para el consumo de contenidos. Hemos mencionado algunos de estos dispositivos con anterioridad, como el caso de las gafas inteligentes, las aplicadas a la realidad virtual o los smartwatches. A ellos se han de sumar los auriculares, pines y colgantes inteligentes que pueden procesar voz y, con ello, comprenden y ejecutan comandos de este tipo. Ello supone recurrir menos al teléfono para el consumo de noticias y la interacción con ciertos dispositivos, lo que se traduce en una menor dependencia de este, que hasta el momento ha sido un instrumento central tanto para el consumo noticioso como para cualquier otro proceso social.
Este Internet de las cosas aplicado al periodismo se beneficia también de la expansión de las redes 5G. El establecimiento de esta mejora en la conectividad inalámbrica facilita la conexión simultánea de un número amplio de dispositivos, lo que supone un avance para el desarrollo de casas y ciudades inteligentes, así como de vehículos autónomos. En el campo cultural, este permite una navegación más rápida, lo que puede traducirse en más fluidez en la transmisión de vídeo, mayores posibilidades para la multimedialidad y el dinamismo de los proyectos mediáticos y mejor carga de entornos creados digitalmente, como los de la realidad virtual.
El desarrollo del metaverso también ha de comprenderse relacionado con los avances en las tecnologías de cadena de bloques. Concretamente, los NFT no fungibles se aplican a este de diversos modos. Pueden servir para generar un mercado digital dentro de él, identificar la identidad de cada usuario, vender servicios y acceder a eventos exclusivos. Estas potencialidades abren la puerta a nuevas vías para la recepción de ingresos por parte de los medios de comunicación, que podrían vender contenidos noticiosos u ofrecer servicios exclusivos a sus suscriptores en este ecosistema.
La tecnología blockchain también constituye un elemento central en el impulso de la conocida como Web 3.0. Esta evolución de la Web 2.0. aún se encuentra en proceso de desarrollo y evolución e implica nuevos modos de comprender Internet y su uso. Plantea la descentralización de los servicios en línea, independientes de corporaciones y gobiernos. Implica también una mayor interoperabilidad entre aplicaciones y redes, de manera que los usuarios pueden acceder y utilizar servicios en Internet con mayor fluidez.
Dicha descentralización también facilitará el control sobre los datos personales y, por tanto, reforzará la privacidad de los usuarios en la red. Adicionalmente, la Web 3.0 se apoyaría también en otras tecnologías ya mencionadas, como la inteligencia artificial —para comprender mejor las necesidades del usuario—; la realidad virtual y aumentada —para generar interfaces más inmersivos e intuitivos— y el Internet de las cosas —para integrarse en entornos cotidianos—. La posible expansión de esta Web 3.0 implicará cambios profundos en el periodismo digital del momento.
En cualquier caso, los medios de comunicación digitales aún han de enfrentar los retos que dispone el Internet actual y que hemos ido revisando a lo largo de este libro. La polarización, la desinformación y la desconfianza han sido objeto de debate en los últimos años. Esto ha supuesto una revalorización de los ideales del periodismo como práctica basada en una metodología rigurosa para un abordaje adecuado de la realidad social. Al mismo tiempo, ante la emergencia de figuras políticas de diverso tipo que han alentado el escepticismo en las instituciones democráticas, se ha planteado un debate no resuelto sobre la necesidad de que el periodismo mantenga una postura neutral o, al contrario, tome una posición clara ante temas como la legitimidad de los sistemas democráticos o la justicia social.
La cobertura sobre movimientos populistas ha sido una cuestión central en el debate sobre la libertad de expresión. Por un lado, el periodismo ha sido un actor clave en la discusión sobre la regulación de la desinformación y las posibilidades de legitimar la censura según estas normas. Por otro, los periodistas han recibido la hostilidad de los líderes y seguidores de este tipo de movimientos, tanto en línea como en espacios públicos. Estos hechos empujan a los medios de comunicación a proteger la integridad de sus trabajadores, mientras que realizan una labor divulgativa para implicar al público en la defensa de estos como garantes de su derecho a la información.
La cobertura del populismo, que en buena medida se ha visto beneficiado por la estructura de Internet para organizarse y cohesionarse ideológicamente, ha resultado especialmente relevante en los últimos años, debido a los devenires de la política institucional en las campañas electorales alrededor del mundo, la intensificación de los conflictos armados entre estados con una respuesta internacional irregular y la necesidad de hacer frente a la crisis sanitaria global de la covid-19.
El cambio climático ha constituido otro de los temas de relevancia primordial en tiempos presentes. Ante la situación de emergencia climática que vive el planeta, es un desafío de primer orden realizar una cobertura que logre abordar la complejidad del tema mediante un contenido especializado, constructivo y accesible. Si el periodismo se considera un actor central en las transformaciones sociales, entonces el reto del cambio climático se convierte en un compromiso esencial en la actualidad.
La cobertura de esta y otras cuestiones de profundo calado social llegan en un momento, sin embargo, de evitación del contenido informativo. Las razones por las que los usuarios de Internet pueden decidir evadirse de la actualidad noticiosa son múltiples y ya las hemos explorado previamente: la sobresaturación informativa y la aceleración de los flujos comunicativos. Además, la polarización y el debate emocional constituyen causa y consecuencia de una traslación de la conversación sobre política a la mensajería instantánea, lo que complica el papel de mediador del periodismo para identificar la desinformación y marcar la agenda informativa.
Ante estos problemas, el periodismo ha respondido con su implicación en informaciones de mayor calidad e interés humano. El periodismo ciudadano, que da relevancia a la voz de la ciudadanía local, o el periodismo lento, interesado en apostar por el largo formato, constituyen dos ejemplos de esta respuesta al desinterés creciente por la información periodística. A estas soluciones se unen otras de calado tecnológico, como el uso de la inteligencia artificial para mejorar la personalización del consumo informativo, y aquellas que dependen del ámbito editorial, como la publicación de informaciones positivas, más constructivas y orientadas a las soluciones sobre los problemas sociales. Ejemplos de estas manifestaciones aparecen en apartados previos.
En los últimos años, la composición de las redacciones también ha sido comprendida como parte de los criterios editoriales. La representación de diferentes géneros, identidades y posiciones políticas ha sido una preocupación creciente. También ha resultado relevante la convivencia intergeneracional, en tanto los periodistas más jóvenes se han mostrado más capacitados para transitar los cambios culturales y tecnológicos, mientras que los más experimentados se han mostrado más reticentes. En todo caso, la composición de las redacciones sigue cambiando. Y si la flexibilidad temporal y espacial ha sido un fenómeno constante desde los inicios del desarrollo de Internet, la pandemia ha ahondado en las formas de trabajo actuales. Estas rutinas híbridas implicarán nuevas normas, formas de gestión y formación para los trabajadores de los medios.
La misma pandemia promovió una mayor conciencia sobre las consecuencias de la dependencia de la publicidad. Como vimos en el epígrafe dedicado a los modelos de negocio, la volatilidad en el mercado publicitario, así como los cambios en una audiencia que bloquea los anuncios y rechaza las cookies —una preocupación por la privacidad reforzada por el Reglamento General de Protección de Dato (GDPR, General Data Protection Regulation)—, convierte en imperativo la exploración de otros modelos de negocio.
Los medios se han centrado en las suscripciones digitales, las membresías, las donaciones y los eventos, a fin de diversificar sus formas de ingresos y desarrollar estrategias que generen fidelidad con el lector. Por ello, no es de extrañar que en los próximos años los modelos de retribución se centren en el usuario mediante estrategias que tengan en cuenta tecnologías como las ya enunciadas en varias ocasiones a lo largo de este capítulo —la inteligencia artificial o la cadena de bloques, por ejemplo—.
Estas innovaciones, en cualquier caso, estarán condicionadas por los beneficios de los medios de comunicación, pues de estos dependen la contratación de personal especializado y la implantación técnica de las herramientas necesarias. Por ello, este esfuerzo por el aprovechamiento de las innovaciones tecnológicas tendrá que acompañarse de una tarea de comunicación del proyecto periodístico, su historia, valores y objetivos.
La reconstrucción de la confianza de la audiencia se convierte así en una condición necesaria para la supervivencia de los medios en un ecosistema donde los muros de pago impiden generar métricas relevantes para los ingresos publicitarios. Al mismo tiempo, conviene preguntarse si las barreras económicas a la información de calidad no ahondarán en las desigualdades en la alfabetización mediática de la población, de modo que solo quienes cuentan con mejores condiciones materiales tengan acceso a contenidos de relevancia para la comprensión del mundo social. Por ello, no es de extrañar que en los próximos años los medios experimenten con precios especiales para sectores concretos, como jóvenes sin poder adquisitivo, o modelos de suscripción personalizados por tipo de consumidor.
Esta imposibilidad de encontrar soluciones totales explicita las encrucijadas actuales del periodismo digital. Si bien avances tecnológicos como la inteligencia artificial ofrecen promesas de servicios informativos más personalizados y eficientes, ninguna de estas tecnologías puede considerarse de manera acrítica y sin tener en cuenta el contexto que las crea y el ecosistema en el que se utilizan. Al mismo tiempo, la integración de las innovaciones en las redacciones depende de modelos económicos estables y, con ello, de una audiencia que ha dado signos de fatiga informativa y desconfianza en las instituciones.
Así, aunque el periodismo digital ha ido renovando sus valores y estrategias para enfrentar estos desafíos, resulta preciso abordar cualquier cambio con cautela. Solo de este modo será posible comprender su rol como objeto y sujeto de las consecuencias del ecosistema comunicativo en Internet y, con ello, buscar el modo de lograr que este ocupe la centralidad democrática que merece. Ante escenarios complejos, la información se convierte en un bien único de cuyo tratamiento dependerá el mundo que sepamos construir.
Imagen 1. Interfaz del chatbot ChatGPT.
Imagen 2. Fotograma de Hunger in Los Angeles, el trabajo de realidad virtual de Nonny de la Peña.
Imagen 3. Portada de la revista Popula.
Imagen 4. Avatar de Mark Zuckerberg en una imagen promocional del metaverso. Fuente: Meta.
Bibliografía
Bibliografía
Anderson, C.W. (2013). Towards a sociology of computational and algorithmic journalism. New Media and Society, 15(7), 1005-1021. https://doi.org/10.1177/1461444812465137
Atton, C. (2009). Alternative and citizen journalism. En K. Wahl-Jogersen; T. Hanitzsch (Eds.). The handbook of journalism studies (pp. 285-298).Routledge
Barassi, V. (2015). Activism on the Web. Everyday Struggles against Digital Capitalism. Routledge.
Berners-Lee, T. (2000). Tejiendo la red. El inventor del World Wide Web nos descubre su origen. Madrid: Siglo XXI
.
Bruns, A. (2018). Gatewatching and news curation: Journalism, social media, and the public sphere. Peter Lang.
Carlson, M. (2018). Confronting measurable journalism. Digital Journalism, 6(4), 406-417. https://doi.org/10.1080/21670811.2018.1445003
Carpentier, N. (2011). New configurations of the audience? The challenges of user‐generated content for audience theory and media participation. En V. Nightingale (Ed.), The handbook of media audiences (pp. 190-212)
. Wiley.
Caswell, D. (2023). AI and journalism: What’s next? Reuters Institute for the Study of Journalism. Reuters Institute. Disponible en: https://reutersinstitute.politics.ox.ac.uk/news/ai-and-journalism-whats-next
Codina, L. (2018). Curación de contenidos para periodistas: definición, esquema básico y recursos. Universitat Pompeu Fabra.
Cohen, B. (1963). The Press and Foreign Policy. Princeton: Princeton University Press.
Cornella, A. (2000). Cómo sobrevivir a la infoxicación. Infonomia. com, 8. Disponible en: https://www.infonomia.com/img/pdf/sobrevivir_infoxicacion.pdf
Dale, S. (2014). Content curation: The future of relevance. Business Information Review, 31(4), 199-205. https://doi.org/10.1177/026638211456
Feng, S.; Park, C.Y.; Liu, Y.; Tsvetkov, Y. (2023). From Pretraining Data to Language Models to Downstream Tasks: Tracking the Trails of Political Biases Leading to Unfair NLP Models. arXiv preprint arXiv:2305.08283. https://doi.org/10.48550/arXiv.2305.08283
Giomelakis, D.; Karypidou, C.; Veglis, A. (2019). SEO inside Newsrooms: Reports from the Field. Future internet, 11(12), 261. https://doi.org/10.3390/fi11120261
Greenberg, S. (2012). Slow journalism in the digital fast lane. En R. Lance Keeble; J. Tulloch (Eds.). Global literary journalism: Exploring the journalistic imagination (pp. 381-393). Peter Lang.
Guallar, J.; Pedraza-Jiménez, R.; Pérez-Montoro, M.; Anton, L. (2021). Curación de contenidos en periodismo. Indicadores y buenas prácticas. Revista española de documentación científica, 44(2). https://doi.org/10.3989/redc.2021.2.1742
Gutiérrez-Caneda, B.; Vázquez-Herrero, J.; López-García, X. (2023). AI application in journalism: ChatGPT and the uses and risks of an emergent technology. Profesional de la información/Information Professional, 32(5). https://doi.org/10.3145/epi.2023.sep.14
Le Masurier, M. (2015). What is slow journalism? Journalism practice, 9(2), 138-152. https://doi.org/10.1080/17512786.2014.916471
Lewis, S.C.; Holton, A.E.; Coddington, M. (2014). Reciprocal journalism: A concept of mutual exchange between journalists and audiences. Journalism Practice, 8(2), 229-241. https://doi.org/10.1080/17512786.2013.859840
López García, G. (2015). Periodismo digital. Redes, audiencias y modelos de negocio. Salamanca: Comunicación Socia Ediciones y Publicacionesl.
McGregor, S.; Brennan, A. (2019). Privacy and data leaks. How to decide what to report. Data Journalism. Disponible en: https://datajournalism.com/read/longreads/privacy-and-data-leaks
Molina, M.D.; Sundar, S.S.; Le, T.; Lee, D. (2021). «Fake news» is not simply false information: A concept explication and taxonomy of online content. American behavioral scientist, 65(2), 180-212. https://doi.org/10.1177/0002764219878224
Newman, N. (2022). Journalism, Media, and Technology Trends and Predictions 2022 (Digital News Project 2022). Reuters Institute. https://doi.org/10.60625/risj-ahx9-vm24
Newman, N. (2024). Journalism, Media, and Technology Trends and Predictions 2024 (Digital News Project 2024). Reuters Institute. https://doi.org/10.60625/risj-0s9w-z770
Palau-Sampio, Dolors; López-García, Guillermo (2022). «Communication and crisis in the public space: Dissolution and uncertainty». Profesional de la Información, vol. 31 (3). pp. 1-9.
Pérez, F.; Broseta, B.; Escribá, A.; López, G.; Maudos, J.; Pascual, F. (2023). Los medios de comunicación en la era digital. Bilbao: Fundación BBVA.
Salaverría, R.; De-Lima-Santos, M.F. (2020). Towards ubiquitous journalism: impacts of IoT on news. En: J. Vázquez-Herrero; S. Direito-Rebollal; A. Silva-Rodríguez; X. López-García (Eds.). Journalistic metamorphosis: Media transformation in the digital age (pp. 1-15). Springer.
Shilina, S. (2019). Journalism + blockchain: Possible solution for an industry crisis? Medium. Disponible en: https://medium.com/paradigm-research/journalism-blockchain-possible-solution-for-an-industry-crisis-becd6da3714f
Sintes-Olivella, M.; Xicoy Comas, E.; Yeste Piquer, E. (2020). Blockchain al servicio del periodismo de calidad. El caso Civil. El Profesional de la información, 29(5), 1-10. https://doi.org/10.3145/epi.2020.sep.22
Steensen, S.; Ferrer-Conill, R.; Peters, C. (2020). (Against a) theory of audience engagement with news. Journalism Studies, 21(12), 1662-1680. https://doi.org/10.1080/1461670X.2020.1788414
Zallo, R. (2016). Tendencias en comunicación. Cultura digital y poder. Barcelona: Gedisa.
Zhang, S.; Cabage, N. (2017). Search engine optimization: Comparison of link building and social sharing. Journal of Computer Information Systems, 57(2), 148-159. https://doi.org/10.1080/08874417.2016.1183447