Periodismo e inteligencia artificial. Aplicaciones y desafíos profesionales (2024)

 

 

Título del Capítulo: «Aplicación de la inteligencia artificial en las plataformas de fact-checking españolas»

Autoría: Victoria Moreno Gil

Cómo citar este Capítulo: Moreno Gil, V. (2024): «Aplicación de la inteligencia artificial en las plataformas de fact-checking españolas». En Parrat Fernández, S.; Mayoral Sánchez, J.; Chaparro Domínguez, M.Á. (eds.), Periodismo e inteligencia artificial. Aplicaciones y desafíos profesionales. Salamanca: Comunicación Social Ediciones y Publicaciones.
ISBN: 978-84-10176-02-7

d.o.i.: https://doi.org/10.52495/c2.emcs.25.p108

 

 

 

Capítulo 2. Aplicación de la inteligencia artificial en las plataformas de fact-checking españolas

 

 

Victoria Moreno Gil

Universidad Carlos III de Madrid

1. Introducción

La motivación intrínseca del periodismo de proveer información verdadera, correcta y completa al ciudadano para que éste pueda comprender lo que ocurre en la sociedad en la que vive y, por extensión, pueda participar de forma consciente y activa dentro de su comunidad (Christians et al., 2009) ha adquirido una nueva dimensión en el contexto actual. El problema de la desinformación se ha convertido en un fenómeno global de consecuencias aún impredecibles (Wardle; Derakhshan, 2017) para la política, la sociedad y la economía; y está obligando a redefinir el mundo en el que vivimos. A las reiteradas llamadas de Donald Trump y Jair Bolsonaro (Hartley; Vu, 2020; Viscardi, 2020) —antes, durante y después de sus respectivos mandatos— a combatir las supuestas fake news publicadas por medios de comunicación reputados, le siguió una pandemia mundial que desencadenó una «explosión de bulos» sin precedentes y una «infodemia superpuesta a la pandemia del coronavirus» (Salaverría et al., 2020: 2) de carácter global (García-Marín, 2020).

Dentro del ecosistema mediático actual, marcado por el llamado «ASAP journalism» (Usher, 2018), la fragmentación del ecosistema mediático (Vizoso; Vázquez-Herrero, 2019), la infoxicación (Aguaded-Gómez; Pérez-Rodríguez, 2012) y sobreabundancia informativa derivada de la democratización y el amplio acceso a internet (Amazeen, 2020; Vizoso; López-García; Pereira-Fariña, 2018), los medios tradicionales han perdido el monopolio como gatekeepers (Allcott; Gentzkow, 2017). Paralelamente, han entrado en escena nuevos actores dispuestos a combatir y contrarrestar los efectos de la información falsa, que circula a una velocidad incontrolable en internet, redes sociales y aplicaciones de mensajería privada como WhatsApp o Telegram. Se trata de las llamadas plataformas de fact-checking, cuyo germen se sitúa en las primeras organizaciones de verificación estadounidenses que surgen en la década de los 2000 con el objetivo de comprobar la veracidad de las declaraciones de los actores políticos. En una segunda etapa, estas plataformas amplían su radio de actuación y empiezan a verificar contenidos y narrativas de desinformación que circulan en redes sociales de manera recurrente como parte de su misión de revitalizar la búsqueda de la verdad (Graves, 2016).

Las organizaciones de fact-checking nacen ligadas a la aparición de nuevos perfiles profesionales multidisciplinares y especializados, entre otros, en el análisis y visualización de datos (Ufarte-Ruiz; Calvo-Rubio; Murcia-Verdú, 2022), y, prácticamente desde sus inicios, se vuelcan en el desarrollo e implementación de herramientas de inteligencia artificial (en adelante, IA). De este modo, el fact-checking está encontrando en la IA al aliado que necesita para combatir bulos y noticias falsas (Brandtzaeg et al., 2018), incluyendo la detección de textos, imágenes, audios y vídeos manipulados y las llamadas deepfakes (Maslej et al., 2023), creadas mediante la tecnología de aprendizaje profundo.

Este hecho no deja de ser hasta cierto punto paradójico, puesto que precisamente la IA está contribuyendo en mayor medida a la creación y propagación de desinformación. Estas tecnologías incluyen algoritmos capaces de redactar noticias falsas (Flores-Vivar, 2020), ofrecen nuevas oportunidades para la manipulación de contenido y, además, en su aplicación para aumentar la participación de los usuarios, alimentan la rápida difusión de bulos y desinformación (Bontridder; Poullet, 2021). Un ejemplo claro es la proliferación incontrolada de bots en redes sociales como X —antes Twitter— (Varol et al., 2017).

2. La IA como aliada en la lucha contra la desinformación

La aplicabilidad de la IA en el periodismo es una de las líneas de investigación más destacadas en el campo en los últimos años (Calvo-Rubio; Ufarte-Ruiz, 2021) y de mayor proyección en el nuevo contexto del big data (Sandoval; La-Rosa, 2021). Además, se extiende a un número amplio de soluciones, desde la selección de noticias y la creación de contenido personalizado hasta la inclusión de nuevos enfoques periodísticos en los que los datos se convierten en noticia, o la verificación de la información (Parratt-Fernández; Mayoral-Sánchez; Mera-Fernández, 2021).

Aunque los estudios sobre la percepción que tienen los usuarios de estos temas aún son escasos, de acuerdo con el Reuters Digital News Report 2023, las audiencias muestran un «escepticismo generalizado» (Newman et al., 2023: 35) en lo que se refiere a la aplicación de algoritmos en la selección de las noticias, de manera similar a como lo hacen ante la selección de contenido llevada a cabo por los periodistas y medios de comunicación. En lo que se refiere a la personalización de contenidos, el informe demuestra que casi la mitad de las personas encuestadas la considera preocupante, ya que puede llevarlas a perderse información esencial. A su vez, la confianza en la selección automatizada de noticias crece conforme la persona está más interesada en la información y proporcionalmente también a su confianza en las noticias.

Otras aplicaciones de la IA, sin embargo, tienen más posibilidades de ser consideradas útiles y positivas en un mundo en el que la desinformación se ha convertido en la gran amenaza global. En el ámbito del fact-checking, numerosas organizaciones han empezado a aplicar el uso de algoritmos entrenados con machine learning y deep learning para agilizar los procesos de selección de los contenidos a verificar —ya sean afirmaciones, fotografías o vídeos—, además de los llamados chatbots —generalmente a través de Whatsapp, Messenger, etc.— (Arias-Jiménez et al., 2023), con los que se ofrece a los ciudadanos un canal abierto de verificación, un servicio público que les permite chequear al momento aquellos contenidos que les suscitan dudas. Esta aplicación ya se ha demostrado de gran utilidad para evitar la propagación de desinformación al favorecer que los usuarios compartan los chequeos que desmienten los contenidos falsos (Pasquetto et al., 2022).

La reciente irrupción de ChatGPT plantea nuevas implicaciones y usos de la IA en el trabajo diario de los fact-checkers, que ven en su aplicación el peligro de una «sofisticación de falsedades en todas sus vertientes», además de «la difusión de contenidos manipulados y de propaganda» (Cuartielles; Ramon-Vegas; Pont-Sorribes, 2023: 11). No obstante, este chatbot puede convertirse en una potencial herramienta que contribuya a localizar afirmaciones falsas y a proveer información de contexto de manera rápida, si bien su aplicación debe estar, en todo caso, sujeta a la supervisión de los verificadores debido a que la herramienta adolece de falta de transparencia en el uso de las fuentes y de rigor (Cuartielles; Ramon-Vegas; Pont-Sorribes, 2023). En definitiva, la aplicación de la IA está cada vez más extendida entre las organizaciones de fact-checking, que encuentran en ella una enorme oportunidad de agilizar los procesos en su quehacer diario.

3. Aplicación de herramientas IA en el trabajo diario de los fact-checkers españoles

En los siguientes apartados se analiza la aplicación de la IA en las verificadoras españolas Newtral, Maldita.es y EFE Verifica a partir de un cuestionario enviado a cada una de las plataformas y que respondieron Irene Larraz, coordinadora de fact-checking político en Newtral; Pablo Hernández, coordinador de investigación académica en Maldita.es, y Sergio Hernández, responsable de EFE Verifica, respectivamente, entre los meses de julio y septiembre de 2023. 

Gracias a las respuestas obtenidas es posible describir las herramientas específicas que utilizan los verificadores de cada uno de sus respectivos equipos en su trabajo diario (véase infra la tabla 1), además de determinar con qué objetivos y qué resultados obtienen. Al mismo tiempo, los responsables entrevistados aportan información de primera mano acerca de la acogida de la IA por parte de los profesionales y, finalmente, sobre la percepción que estos últimos tienen sobre dichas herramientas en lo relativo a la lucha contra la desinformación.

La aplicación de la IA no resta importancia al papel del fact-checker, ya que éste será el encargado de supervisar cada una de las acciones en las sucesivas etapas que comprenden la verificación. En definitiva, las herramientas de IA aplicadas al fact-checking se emplean para facilitar el trabajo y aliviar al verificador de una carga de trabajo importante, pero en ningún caso lo sustituyen: sólo él puede aplicar el criterio humano y revisar que el algoritmo haya hecho bien los deberes. 

3.1. Newtral

La plataforma Newtral emplea varias herramientas de IA a nivel interno para llevar a cabo fact-checking político, además de distintos bots que ofrecen al público un servicio de verificación (véase infra la tabla 1).

En el año 2019, Newtral implementó el uso de ClaimHunter en la primera fase del proceso de verificación, en concreto para la selección de afirmaciones por parte de actores políticos.1 Esta herramienta, basada en el procesamiento del lenguaje natural, rastrea las frases que contienen algún elemento factual tomando como referencia los mensajes publicados en la red social X por parte de un grupo preestablecido de políticos. La herramienta envía las afirmaciones detectadas a través de la aplicación de mensajería Slack y los verificadores las analizan. Irene Larraz asegura que la utilidad de esta herramienta «es poder ahorrar tiempo y esfuerzos», ya que funciona como filtro previo. Al mismo tiempo, permite al equipo de fact-checkers ampliar su rango de acción y ser capaz de monitorear, en menor tiempo, los discursos de más políticos. El uso de ClaimHunter se produce a nivel interno dentro de la redacción, si bien Newtral ha dado acceso a otras cinco organizaciones de fact-checking para que puedan utilizarla.

También en 2019, Newtral empieza a trabajar con el llamado Editor de vídeo, un algoritmo que, al igual que ClaimHunter, se emplea de manera interna y facilita el trabajo de los fact-checkers en la primera etapa del proceso de verificación del discurso político.2 Esta herramienta de IA propia transcribe el contenido de las entrevistas u otras intervenciones de políticos que Newtral graba en vídeo y detecta y subraya en color azul aquellas frases que contienen un dato o un elemento factual que las convierte en verificables. Posteriormente, el periodista, que recibe a través de Slack una notificación de que los vídeos están disponibles, será el responsable de revisar que aquellas frases detectadas por la IA son efectivamente verificables y de escucharlas en el contexto en el que el político en cuestión las ha pronunciado. Del mismo modo, el verificador comprobará que el sistema no se haya dejado ninguna afirmación potencialmente chequeable sin seleccionar. Según el sitio web de Newtral, «automatizando una parte del proceso de fact-checking, reducimos en torno a un 72% del tiempo empleado en la detección de afirmaciones factuales».

Una tercera aplicación de la IA empleada por el equipo de verificación de Newtral es ClaimCheck, desarrollada conjuntamente por la startup española y ABC Australia dentro del programa JournalismAI, coordinado por la London School of Economics.3 El objetivo de esta aplicación, que todavía está en fase de desarrollo, pero con la que ya se han hecho una serie de pruebas en la redacción, es identificar y combatir los bulos y desinformaciones repetidas por parte de los políticos, permitiendo atajar los efectos perniciosos de la amplificación de mensajes falsos. La herramienta se basa en un modelo de similitud semántica entrenado con machine learning y lleva a cabo un proceso de claim matching —o emparejamiento de afirmaciones—. Para ello, conecta el sistema a los mensajes que publican los políticos en X y detecta cuándo una frase se repite porque aparece en otro tuit o porque ya se ha verificado anteriormente. Cuando esto ocurre, envía una alerta al fact-checker para avisarle.

ClaimCheck trata de identificar frases en las que se repite la misma idea con palabras o expresiones diferentes, es decir, no solo detecta palabras clave que se repiten, sino estructuras semánticas, la sintaxis de las oraciones y otros elementos que componen las afirmaciones. Se trata, además, de una herramienta multilingüe, lo que la dota de un valor añadido en la lucha contra la desinformación a nivel global.

El sistema se basa en un algoritmo entrenado a partir de una base de datos inicial elaborada por Newtral con 200.000 afirmaciones factuales (hemeroteca de fact-checks) que dieron lugar a un segundo conjunto, de 10.000 pares de afirmaciones con anotaciones manuales y/o etiquetas de similitud, que sirvió para entrenar al algoritmo. Larraz explica que «el sistema está diseñado de tal manera que permite seguir entrenándose con las nuevas afirmaciones del día a día, conforme se va utilizando por el resto del equipo en la redacción». Y añade: «A través del programa Prodigy, un verificador indicaba al robot cuándo se repetía la idea y cuándo no, anotando coincidencias o diferencias en los significados de las frases».

Con esta aplicación se busca «la reutilización de verificaciones previas y la mejora de los sistemas de similitud semántica para realizar búsquedas de las repeticiones lingüísticas en el discurso político» (Larraz; Míguez; Sallicati, 2023: 2).

Además de las herramientas de IA en la verificación del discurso político, en los últimos años Newtral ha implementado sistemas que les ayudan a medir la viralidad de contenido potencialmente falso que circula en internet o que facilitan que el público se informe sobre temas que suelen ser diana fácil para los desinformadores. Para las elecciones celebradas en junio de 2023 creó ProgramIA, un chatbot conversacional que ayuda a los lectores a comparar fácilmente los programas electorales de los distintos partidos políticos.4 El asistente ofrece respuestas precisas en tiempo real a los usuarios acerca del tema específico sobre el que pregunten. Este sistema emplea el modelo de lenguaje que hay detrás de ChatGPT.

Por otro lado, el servicio de verificación a través de WhatsApp permite a los usuarios enviar cualquier texto, vídeo o imagen de cuya veracidad duden.5 A partir de aquí, según el sitio web de Newtral, «nuestro equipo de verificación lo investigará» y «contestará a través del mismo chat en WhatsApp». La startup lo califica como «el primer servicio de verificación bajo demanda vía WhatsApp de España».

 

Tabla 1. Herramientas de IA empleadas por Newtral para la verificación de contenidos según su tipología, función, uso y fecha de creación.

Herramientas IA operativas

Tipología

Función

Uso interno/ servicio a los usuarios

Fecha de creación

ClaimHunter

Bot

Modelo de procesamiento de lenguaje natural que monitoriza afirmaciones en tuits publicados por políticos y las envía a los verificadores para que estos las analicen.

Uso interno

2019

Editor de vídeo con IA

Bot

Algoritmo que revisa las transcripciones de entrevistas e intervenciones políticas y selecciona las frases que contengan un dato o afirmación susceptible de ser verificada.

Uso interno

2019

ClaimCheck

Bot

Identifica mentiras repetidas mediante un modelo de similitud semántica. El algoritmo identifica aquellas que ya están verificadas (hemeroteca) y lanza una alerta ante posibles repeticiones.

Uso interno

En

desarrollo

ProgramIA

Bot

Chatbot conversacional que permite a los usuarios comparar los programas electorales de distintos partidos en función del tema. Emplea el modelo de lenguaje de ChatGPT.

Servicio

2023 (elecciones 23J)

Servicio de verificación a través de WhatsApp

Bot

Permite al usuario enviar contenido que le suscite dudas (texto, imagen o vídeo). El equipo de verificación lo investiga y le contesta.

Servicio

2020

Fuente: elaboración propia.

 

En una escala más amplia, Newtral forma parte de varios proyectos sobre IA y fact-checking. Uno de ellos es DISINFTRUST, en el que investigan «cómo el clickbait, la toxicidad o la objetividad afectan a la percepción de fiabilidad de un artículo» (Irene Larraz).6 Asimismo, desde la plataforma se trabaja en otros aspectos, por ejemplo, cómo generar titulares alternativos a los llamados clickbait. Newtral también participa en la iniciativa europea HYBRIDS para frenar la desinformación a través del procesamiento del lenguaje natural y de la IA.7

3.2. Maldita.es

Maldita.es ha incorporado la IA a su rutina diaria mediante distintas herramientas. Entre ellas destaca su servicio de verificación a través de WhatsApp, el llamado detector de narrativas y una caja de herramientas de verificación con distintas aplicaciones que facilitan a los lectores comprobar por sí mismos la veracidad de los contenidos que deseen (véase infra la tabla 2).

Para esta plataforma, el chatbot de WhatsApp desempeña un papel muy destacado al funcionar como nexo con su audiencia.8 La herramienta se lanzó en 2020 y el equipo trabaja constantemente para mejorar y ampliar sus funcionalidades. En palabras de Pablo Hernández, «es una herramienta que automatiza nuestra relación con las personas». El bot reconoce los contenidos sobre los cuales los usuarios consultan, actuando de forma distinta según el formato que tenga dicho contenido (imagen, vídeo, texto o audio).

Si se trata de una imagen, el sistema analizará píxel por píxel y, gracias a un software de Reconocimiento Óptico de Caracteres (OCR), el formato imagen se transformará en un formato texto que puede ser leído por la máquina. En el caso de que lo que envíe el usuario sea un vídeo, el sistema separa los fotogramas de los primeros 15 segundos. Por el contrario, si lo que entra en el sistema es un texto, la máquina puede comportarse de dos maneras diferentes. Si se trata de palabras o frases cortas, lleva a cabo una búsqueda por palabras clave. Si lo que el sistema recibe es una cadena de texto, ejecutará una búsqueda para encontrar coincidencias exactas de ese bloque de texto. Con respecto a los audios, la máquina hace una transcripción automática a texto de los primeros 15 segundos para poder buscar coincidencias con otros registros.

En el momento en que la herramienta detecta que el usuario está preguntando por una desinformación que ya ha sido verificada previamente en la plataforma, contesta de forma inmediata enviando el artículo que desmiente ese contenido. Según explica Pablo Hernández, esa velocidad de respuesta es clave:

Muchas veces nos preguntan por contenidos que los usuarios del chatbot acaban de ver en uno de sus chats de WhatsApp. Si reciben una respuesta justo entonces pueden llevar nuestro artículo a ese chat muy poco después de que se haya publicado el bulo y así desactivar de manera más eficaz los efectos perniciosos de la desinformación.

Para automatizar el proceso de verificación de los contenidos que envían los lectores, Maldita.es también cuenta con el llamado detector de narrativas. Se trata de una herramienta de IA que la plataforma ha incorporado a su base de datos en 2023 con el objetivo de detectar las «narrativas de desinformación» que están detrás de los bulos por los que los usuarios preguntan.

Un bulo concreto, en el fondo, está pensado para sostener una narrativa. Las narrativas son lo que los desinformadores quieren que crea el público. Por ejemplo, una imagen manipulada o fuera de contexto de un inmigrante golpeando a alguien: la idea que trata de difundir es que los inmigrantes son violentos, peligrosos (Pablo Hernández).

El detector de narrativas va agrupando las narrativas por las que los usuarios preguntan, lo que permite al equipo de fact-checkers saber cuáles de ellas «están en alza» y, de esta manera, buscar el mejor modo de combatirlas.

Tanto el chatbot de Maldita.es como el detector de narrativas funcionan únicamente a nivel interno, es decir, los usuarios no tienen acceso al manejo de la herramienta, aunque se beneficien de su aplicación. Para que los lectores puedan contrastar ellos mismos la veracidad de los contenidos que les llegan, Maldita.es pone a su disposición la Caja de herramientas de verificación, que ofrece páginas web, aplicaciones y extensiones de navegador que facilitan la comprobación de bulos de todo tipo.9

Otro de los servicios que ofrece Maldita.es a los usuarios es poder leer los artículos y fact-checks en la aplicación de noticias SquidApp, un servicio personalizado que permite al lector organizar su propio «menú» informativo diario basado en sus intereses.10

Tabla 2. Herramientas de IA empleadas por Maldita.es para la verificación de contenidos según su tipología, función, uso y fecha de creación.

Herramientas IA operativas

Tipología

Función

Uso interno/ servicio a los usuarios

Fecha de creación

Chatbot de WhatsApp

Bot

Reconocimiento de los contenidos sobre los que los usuarios consultan (imágenes, vídeo, audio o texto). Cuando detecta que el bulo ya ha sido chequeado, contesta con el artículo que lo desmiente.

Servicio

2020

Detector de narrativas

Bot

Herramienta de IA que se incorpora a la base de datos de Maldita.es y que detecta narrativas recurrentes que sostienen los bulos por los que los usuarios preguntan y las va agrupando.

Esto permite detectar cuáles están en alza y buscar la mejor manera de actuar contra ellas.

Uso interno

2023

Caja de

herramientas de verificación

Extensión de navegador

Conjunto de páginas web, aplicaciones y extensiones de navegador que permite a los usuarios verificar contenido.

Servicio

2018

SquidApp

Aplicación

Permite al usuario leer artículos y fact-checks publicados por Maldita.es y personalizar su «menú» informativo.

Servicio

2022

Fuente: elaboración propia.

 

3.3. EFE Verifica

EFE Verifica ha incorporado en los últimos años varias herramientas que emplean la IA para facilitar su trabajo diario (véase infra la tabla 3). Una de ellas es Remini.ai, una aplicación en línea que cuenta con versión web y móvil creada en 2022.11 Se trata de un sistema de mejora fotográfica que elimina imperfecciones y permite convertir imágenes y vídeos a calidad HD. El equipo de fact-checkers la utiliza para aclarar textos que aparecen en las imágenes, además de otros objetos que son importantes para la verificación del contenido.

Desde 2016, EFE Verifica emplea la plataforma InVID, que surgió de un proyecto de transformación digital dentro del programa Stars4Media, financiado por la Unión Europea.12 La plataforma funciona como extensión de navegador y agrupa diferentes herramientas para la verificación de imágenes y vídeos. «Fue creada con el propósito de ayudar a los periodistas a detectar información falsa», explica Sergio Hernández, responsable de EFE Verifica. El equipo de verificadores emplea diariamente estas herramientas, que incluyen la búsqueda inversa de imágenes, la lectura de metadatos o la búsqueda avanzada. Los periodistas pueden acceder a la versión premium, mientras que el público solo tiene acceso a las herramientas básicas.

EFE Verifica colabora actualmente con el proyecto Iveres (Identificación, Verificación y Respuesta), financiado con fondos estatales y europeos, perteneciente a la Cátedra RTVE-UAB, en el que también participan la Universitat Politècnica de Catalunya, la Universidad Carlos III de Madrid y la Universidad de Granada.13 El proyecto consiste en la utilización de la IA para detectar y analizar contenidos audiovisuales mediante un sistema automático de verificación que facilite a los periodistas el chequeo de la información.

Según Sergio Hernández, la plataforma también colabora actualmente con investigadores internacionales en otros dos proyectos, de los que todavía no pueden informar «por estar en fase de desarrollo».

Por su parte, la redacción de EFE Verifica en Latinoamérica ha implementado el uso de MeltWater, una herramienta de monitorización de datos en internet que permite analizar contenido de distintos medios de comunicación —además de redes sociales y páginas web— utilizando asistentes de IA, entre ellos ChatGPT.14

 

Tabla 3. Herramientas de IA empleadas por EFE Verifica para la verificación de contenidos según su tipología, función, uso y fecha de creación.

Herramientas IA operativas

Tipología

Función

Uso interno/ servicio a los usuarios

Fecha de creación

Remini.ai

Aplicación

Elimina imperfecciones y convierte imágenes y vídeos a calidad HD.

Uso interno

2022

InVid

Extensión de navegador

Agrupa distintas herramientas para verificar imagen y vídeo.

Uso interno (versión premium)

2022

MeltWater

Bot

Análisis de datos en internet (medios de comunicación, redes sociales y páginas web).

Uso interno

2008*

Fuente: elaboración propia. *Fecha extraída del sitio web de la compañía.

4. Acogida de la IA y percepción sobre su utilidad y proyección futura

Las respuestas ofrecidas por las plataformas de fact-checking analizadas reflejan que el uso de las herramientas de IA se realiza principalmente de forma interna dentro de la redacción y que los verificadores las utilizan a diario. 

El equipo de fact-checkers de Newtral está conformado por periodistas y verificadores, mientras que el equipo de ingeniería es el encargado de desarrollar los sistemas de IA. En el caso de Maldita.es, estas herramientas están incorporadas en la base de datos de la organización, lo que permite que todos los departamentos, y no solo el equipo de fact-checkers, acaben usándolas y beneficiándose de ellas. Según Sergio Hernández, en EFE Verifica «la redacción es consciente de que debe emplear estas herramientas como parte del trabajo de investigación y han asimilado su uso con naturalidad».

La acogida de los sistemas de IA ha sido positiva en los tres casos. Newtral considera que ha sido muy buena, «ya que son de gran ayuda para las tareas diarias en la redacción», e indica que todo el equipo se ha involucrado activamente en su desarrollo, testeo y retroalimentación.

Cada vez que las utilizamos, contribuimos a mejorar su precisión, aportando nuevos datos sobre el desempeño del algoritmo. Cada cierto tiempo, mantenemos reuniones entre el equipo de ingenieros y el de periodistas para revisar los criterios de anotación y el funcionamiento de las herramientas (Irene Larraz).

Pablo Hernández asegura que el equipo ha recibido muy bien la aplicación de estos sistemas porque «agiliza su trabajo y permite procesar de una manera más cómoda y eficaz todas las consultas que recibimos en la base de datos».

La automatización de los procesos de fact-checking es una de las grandes apuestas de Newtral desde su lanzamiento en 2018. A través del desarrollo de proyectos de I+D+i, la startup persigue «facilitar el trabajo de los periodistas con soluciones tecnológicas y presentar visualizaciones de datos de forma clara y sencilla». En palabras de Larraz, estos desarrollos «son imprescindibles para ayudarnos a aumentar nuestro alcance y a mejorar nuestras capacidades para combatir la desinformación».

Para Sergio Hernández, el uso de la IA en el fact-checking es «imprescindible» por varios motivos. «Ahorran tiempo con la automatización de tareas laboriosas, aportan nuevas formas de investigación y análisis de texto, fotografía y vídeo. También contribuyen a mitigar el uso de la inteligencia artificial para desinformar», asegura.

Pablo Hernández, por su parte, pone el foco en dos aspectos que considera relevantes:

Por un lado, si la inteligencia genera contenidos falsos muy difíciles de diferenciar de los reales para los seres humanos, seguramente será otra inteligencia artificial la más adecuada para detectarlos. Por otro lado, la inteligencia artificial puede ser muy eficaz para monitorizar las redes sociales e inferir qué narrativas desinformadoras tienen más alcance y difusión en cada momento. Tener datos de qué ideas están tratando de propagar los desinformadores y cuáles están consiguiendo eco entre el público será muy importante para diseñar respuestas adecuadas a esas campañas de desinformación.

Según Pablo Hernández, si la IA empieza a usarse de manera masiva para crear desinformación, esto puede provocar que «se dispare el escepticismo», pues los usuarios no se fiarán de nada si no son capaces de reconocer cuándo un contenido es verdadero o falso. Por este motivo, opina, es importante que los medios de comunicación refuercen su credibilidad, para ser percibidos por el público como una fuente fiable y como la referencia informativa en la que pueden confiar.

5. Discusión

El desarrollo e implementación de herramientas de IA en los procesos de verificación es un fenómeno que discurre de forma paralela a la consolidación de las organizaciones de fact-checking. Al mismo tiempo, constituye una de las apuestas y rasgos definitorios más destacados de estas plataformas, que nacen con el objetivo de atajar la desinformación en cualesquiera de sus formas en un contexto marcado precisamente por el uso creciente de los sistemas de IA. En este sentido, la IA se convierte en la mejor aliada para detectar y contrarrestar el efecto de las noticias falsas (Brandtzaeg et al., 2018) que además en muchos casos, paradójicamente, están generadas mediante el uso de estas tecnologías.

Las plataformas de fact-checking españolas aquí analizadas (Newtral, Maldita.es y EFE Verifica) han implantado sistemas de IA que ayudan a los verificadores a optimizar el tiempo y simplificar distintas acciones que forman parte de su trabajo diario, ya sea a la hora de chequear declaraciones de actores políticos o contrastar la veracidad de bulos y desinformación en cualquier formato (imagen, vídeo, texto y audio). Sin embargo, la aplicación de la IA no se reduce al ámbito interno dentro de las organizaciones de verificación. También se extiende a una serie de herramientas puestas a disposición del público, que adquiere más que nunca un papel protagonista en la lucha contra el contenido falso. Servicios como el chatbot de WhatsApp de Maldita.es y Newtral o la Caja de herramientas de verificación de Maldita.es son claros ejemplos de contenidos de servicio público que implican de forma activa al lector y que, en último término, buscan recuperar su credibilidad y confianza en la información de calidad (Nicey, 2020).

Todo lo anterior indica que la aplicación de la IA en el ámbito del fact-checking español presenta un futuro prometedor. Como señalan las organizaciones estudiadas, su acogida y puesta en práctica entre los equipos de verificación ha sido muy positiva, al mejorar sus capacidades para combatir la desinformación, facilitando las tareas, reduciendo el tiempo empleado, y ampliando su alcance y radio de actuación. A pesar de sus limitaciones actuales (Maslej et al., 2023), la verificación automatizada supone un salto cualitativo en la gestión y depurado de datos y en la generación automática de contenidos, ofrece nuevas formas de investigación y análisis y, finalmente, presenta otras posibilidades aún por explotar (Sánchez-González; Sánchez-Gonzales; Martínez-Gonzalo, 2022).

Por otro lado, la IA aplicada a la lucha contra la desinformación contribuye a mitigar el uso malicioso de estas tecnologías para desinformar. Esta cuestión debe ser abordada en profundidad en su conexión con la necesidad de dotar de recursos al público para que éste pueda distinguir la información fiable de aquella falsa y, en último término, contribuya a frenar la propagación de desinformación. Solo de esta manera podrá evitarse que los ciudadanos lleguen a dudar de todo y se vean abocados a un escepticismo generalizado que pondría en peligro no solo la salud, sino la pervivencia misma de las sociedades democráticas.

6. Referencias

Aguaded-Gómez, Ignacio; Pérez-Rodríguez, María Amor (2012): «Strategies for media literacy: Audiovisual skills and the citizenship in Andalusia», Journal of New Approaches in Educational Research, vol. 1, núm. 1, pp. 22-26. https://doi.org/10.7821/naer.1.1.22-26
Allcott, Hunt; Gentzkow, Matthew (2017): «Social media and fake news in the 2016 election», Journal of economic perspectives, vol. 31, núm. 2, pp. 211-236. https://doi.org/10.1257/jep.31.2.211

Amazeen, Michelle A. (2020): «Journalistic interventions: The structural factors affecting the global emergence of fact-checking»,
Journalism, vol. 21, núm. 1, pp. 95-111. https://doi.org/10.1177/1464884917730217

Arias-Jiménez, Bryan; Rodríguez-Hidalgo, Claudia; Mier-Sanmartín, Cati; Coronel-Salas, Gabriela (2023): «Use of chatbots for news verification». En: López-López, Paulo-Carlos; Barredo, Daniel; Torres-Toukoumidis, Ángel; De-Santis, Andrea; Avilés, Óscar (eds.). Communication and applied technologies. Smart innovation, systems and technologies, Singapur: Springer Nature, vol. 318, pp. 133-143. https://doi.org/10.1007/978-981-19-6347-6_12

Brandtzaeg, Petter Bae; Følstad, Asbjørn; Chaparro-Domínguez, María-Ángeles (2018): «How journalists and social media users perceive online fact-checking and verification services», Journalism practice, vol. 12, núm. 9, pp. 1109-1129. https://doi.org/10.1080/17512786.2017.1363657

Bontridder, Noemi; Poullet Yves (2021): «The role of artificial intelligence in disinformation». Data & Policy, vol. 3, núm 3, pp.1-21. https://doi.org/10.1017/dap.2021.20
Calvo Rubio, Luis Mauricio; Ufarte Ruiz, María José (2021): «Inteligencia artificial y periodismo: Revisión sistemática de la producción científica en Web of Science y Scopus (2008-2019)», Communication & Society, vol. 34, núm. 2, pp.159-176. https://doi.org/10.15581/003.34.2.159-176

Christians, Clifford G.; Glasser, Theodore L.; McQuail, Denis; Nordenstreng, Kaarle; White, Robert A. (2009): Normative theories of the media: Journalism in democratic societies, Urbana, IL: University of Illinois Press.

Cuartielles, Roger; Ramon-Vegas, Xavier; Pont-Sorribes, Carles (2023): «Retraining fact-checkers: The emergence of ChatGPT in information verification», Profesional de la información, vol. 32, núm. 5, e320515. https://doi.org/10.3145/epi.2023.sep.15

Flores-Vivar, Jesús-Miguel (2020): «Datos masivos, algoritmización y nuevos medios frente a desinformación y fake news. Bots para minimizar el impacto en las organizaciones», Comunicación y hombre, n. 16, pp. 101-114. https://doi.org/10.32466/eufv-cyh.2020.16.601.101-114

García-Marín, David (2020): «Infodemia global: Desórdenes informativos, narrativas fake y fact-checking en la crisis de la Covid-19», Profesional de la Información, vol. 29, núm. 4, e290411. https://doi.org/10.3145/epi.2020.jul.11

Graves, Lucas (2016): Deciding what’s true: The rise of political fact-checking in American journalism, New York, NY: Columbia University Press. Hartley, Kris; Vu, Minh Khuong (2020): «Fighting fake news in the Covid-19 era: policy insights from an equilibrium model», Policy sciences, núm. 53, pp. 735-758. https://doi.org/10.1007/s11077-020-09405-z
Larraz, Irene; Miguez, Rubén; Sallicati, Francesca (2023): «Semantic similarity models for automated fact-checking: ClaimCheck as a claim matching tool»,
Profesional de la información, vol. 32, núm. 3, e320321. https://doi.org/10.3145/epi.2023.may.21

Maslej, Nestor; Fattorini, Loredana; Brynjolfsson, Erik; Etchemendy, John; Ligett, Katrina; Lyons, Terah; Manyika, James; Ngo, Helen; Niebles, Juan Carlos; Parli, Vanessa; Shoham, Yoav; Wald, Russell; Clark, Jack; Perrault, Raymond (2023): The AI Index 2023 Annual Report, AI Index Steering Committee, Institute for Human-Centered AI, Stanford University, CA. https://aiindex.stanford.edu/report

Newman, Nic; Fletcher, Richard; Eddy, Kirsten; Robertson, Craig T.; Nielsen, Rasmus Kleis (2023): Reuters Institute Digital News Report 2023, RISJ: Reuters Institute for the Study of Journalism, Oxford, UK, 2023. https://reutersinstitute.politics.ox.ac.uk/digital-news-report/2023
Nicey, Jérémie (2020): «Les pratiques de fact-checking journalistique participatif, entre contraintes et intérêts»,
Interfaces numériques, vol. 9, núm. 2, e4283. https://doi.org/10.25965/interfaces-numeriques.4283

Parratt-Fernández, Sonia; Mayoral-Sánchez, Javier; Mera-Fernández, Montse (2021): «The application of artificial intelligence to journalism: an analysis of academic production», Profesional de la información, vol. 30, núm 3, e300317. https://doi.org/10.3145/epi.2021.may.17

Pasquetto, Irene V.; Jahani, Eaman; Atreja, Shubham; Baum, Matthew (2022): «Social debunking of misinformation on WhatsApp: the case for strong and in-group ties», Proceedings of the ACM on human-computer interaction, vol. 6, núm. CSCW 1, pp. 1-35. https://doi.org/10.1145/3512964
Salaverría, Ramón; Buslón, Nataly; López-Pan, Fernando; León, Bienvenido; López-Goñi, Ignacio; Erviti, María-Carmen (2020): «Desinformación en tiempos de pandemia: tipología de los bulos sobre la Covid-19», Profesional de la información, vol. 29, núm. 3, e290315. https://doi.org/10.3145/epi.2020.may.15

Sánchez-González, María; Sánchez-Gonzales, Hada M.; Martínez-Gonzalo, Sergio (2022): «Inteligencia artificial en verificadores hispanos de la red IFCN: proyectos innovadores y percepción de expertos y profesionales», Estudios sobre el mensaje periodístico, vol. 28, núm. 4, pp. 867-879. https://dx.doi.org/10.5209/esmp.82735
Sandoval-Martín Teresa; La Rosa-Barrolleta, Leonardo (2021): «Tendencias en investigación en inteligencia artificial aplicada al Periodismo». En: Mancinas-Chávez, Rosalba (coord.). Universidad, innovación e investigación ante el horizonte 2030, Sevilla: Egregius. p. 671. https://hdl.handle.net/11441/127022

Ufarte Ruiz, María José; Calvo Rubio, Luis Mauricio; Murcia Verdú, Francisco José (2022): «Combatir las noticias falsas. El perfil profesional del verificador de la información en España», Vivat Academia. Revista de Comunicación, núm. 155, pp. 265-295. http://doi.org/10.15178/va.2022.155.e1365
Usher, Nikki (2018): «Breaking news production processes in US metropolitan newspapers: Immediacy and journalistic authority»,
Journalism, vol. 19, núm. 1, pp. 21-36. https://doi.org/10.1177/1464884916689151

Varol, Onur; Ferrara, Emilio; Davis, Clayton A.; Menczer, Filippo; Flammini, Alessandro (2017): «Online Human-Bot Interactions: Detection, Estimation, and Characterization». En:
Proc. Intl. AAAI Conf. on Web and Social Media (ICWSM), pp. 280-289. https://arxiv.org/abs/1703.03107

Viscardi, Janaisa M. (2020): «True and lie according to Jair Bolsonaro’s Twitter account», Trabalhos em linguística aplicada, vol. 59, núm. 2, pp. 1134-1157. https://doi.org/10.1590/01031813715891620200520

Vizoso, Ángel; López-García, Xosé; Pereira-Fariña, Xosé (2018): «Technological skills as a key factor in the profile of the fact checker for the verification of information in the network society», Estudos em Comunicacao, vol. 1, núm. 27, pp. 105-126. https://doi.org/10.20287/ec.n27.v1.a07
Vizoso, Ángel; Vázquez-Herrero, Jorge (2019). «Plataformas de factchecking en español. Características, organización y método», Communication & Society, vol. 32, núm. 1, pp. 127-144. https://doi.org/10.15581/003.32.1.127-144

Wardle, Claire; Derakhshan, Hossein (2017): Information disorder. Toward an interdisciplinary framework for research and policy making, Council of Europe report DGI (2017) 09. https://rm.coe.int/information-disorder-toward-an-interdisciplinary-framework-for-researc/168076277c

 

Notas