Redes en campaña. Liderazgos y mensajes en las elecciones de 2019 (2021)

 

 

Título del Capítulo: «Estrategias periodísticas para la lucha contra la desinformación en campaña electoral»

Autoría: Eva Campos Domínguez; María Díez Garrido; Cristina Renedo Farpón; Dafne Calvo; Estrella Alonso del Barrio

Cómo citar este Capítulo: Campos Domínguez, E.; Díez Garrido, M.; Renedo Farpón, C.; Calvo, D.; Alonso del Barrio, E. (2021): «Estrategias periodísticas para la lucha contra la desinformación en campaña electoral». En López García, G.; Campos Domínguez, E. (eds.), Redes en campaña. Liderazgos y mensajes en las elecciones de 2019. Salamanca: Comunicación Social Ediciones y Publicaciones.
ISBN: 978-84-17600-61-7

d.o.i.: https://doi.org/10.52495/c8.emcs.24.p93

 

 

Capítulo 8. Estrategias periodísticas para la lucha contra la desinformación en campaña electoral

 

 

 

 

Eva Campos Domínguez

Universidad de Valladolid

 

Cristina Renedo Farpón

Universidad de Valladolid

 

María Díez Garrido

Universidad de Valladolid

 

Dafne Calvo

Universidad de Valladolid Universidad

 

Estrella Alonso del Barrio

Universidad de Valladolid

 

 

 

8.1. Introducción

 

La combinación de desinformación, propaganda computacional, manipulación de medios y polarización caracterizan, entre otros aspectos, la comunicación política de nuestros tiempos (Freelon y Wells, 2020). El auge de la desinformación encuentra su punto de inflexión en la campaña electoral presidencial de Estados Unidos de 2016, y su desarrollo está intrínsecamente relacionado con la evolución de la comunicación política computacional, que emerge en las «sociedades dataficadas» (van Dijk, 2014) y en un contexto de crisis de los mecanismos tradicionales de intermediación y de enorme polarización.

La transformación que ha sufrido la esfera pública digital desde las elecciones estadounidenses de 2016 es crucial para interpretar su análisis. Desde entonces, la literatura internacional ha cuestionado el papel de las plataformas de medios sociales y el riesgo potencialmente perjudicial para las democracias (Chadwick, 2019). Todo ello se produjo después de que se hiciera pública la actividad automatizada a gran escala en las redes sociales diseñada para manipular la atención del público durante las elecciones presidenciales estadounidenses de 2016 (Kollanyi; Howard; Wolley, 2016), continuado en las elecciones brasileñas de 2018 (Nascimento; Alves, 2018), en el referéndum del Brexit (Bastos; Mercea, 2019), entre otras.

La comunicación política ha puesto de manifiesto cómo la desinformación se despliega mediante el uso de métodos computacionales. El capitalismo de vigilancia (Couldry; Mejías, 2019) extiende una profunda incertidumbre sobre el impacto que pueden tener las formas de comunicación digital. Afloran estudios que muestran que las redes sociales venían acompañadas de bulos, programadas generalmente por bots, para generar confusión, desconfianza, intolerancia e incluso odio, en temas de gran envergadura social, como la migración (Quandt, 2018; Arcila Calderón; Blanco-Herrero; Valdez, 2020), y crear estados de confusión ciudadana ante procesos de relevancia política, con motivaciones cívicamente ambivalentes que llevan a compartir información falsa y engañosa (Chadwick; Vaccari; O’Loughlin, 2018; Chadwick; Vaccari, 2019). Los estudios sobre las «burbujas de filtro» y «cámaras de eco» (Bakshy et al., 2015; Barberá et al., 2015; Bruns, 2019; Sunstein, 2017; Wojcieszak; Mutz, 2009) —que años antes había formulado Pariser (2011)—, se rescatan para interpretar la lógica de los algoritmos y las percepciones sobre la desinformación que fractura la base sobre la cual las personas entienden y acuerdan hechos y verdades políticas (O’Neil, 2016; Kreiss, 2017; Waisbord, 2018).

Aunque el interés por el estudio de la desinformación aumentó después de las elecciones presidenciales de 2016, ninguno de estos contenidos es originario del contexto digital (Gray; Bounegru; Venturini, 2020). Si bien, en la nueva era ha cambiado la forma en la que se crean, difunden, circulan e interpretan tales mensajes, así como también sus posibles efectos. Por esta razón, parte de la literatura científica de los últimos años se ha dedicado a tratar de definir y caracterizar la desinformación y las noticias falsas. El fenómeno en el contexto digital cuenta ya, así, con una importante, aunque reciente, investigación académica en su estudio y aproximación (Parra Valero; Oliveira, 2018).

Dentro de estas aproximaciones académicas se refiere el temor a que los mensajes de dudosa procedencia y veracidad puedan condicionar el funcionamiento de la democracia; y esta circunstancia ha motivado que diferentes agentes sociales, entre los que figuran los medios, hayan impulsado acciones para tratar de combatir este fenómeno mediante estrategias de acción comunicativa y verificación de hechos.

Amazeen (2020) sugiere que la verificación de hechos puede entenderse como una herramienta de construcción de democracia y una respuesta a las percepciones de que las instituciones democráticas son débiles o están amenazadas. Singer (2021) señala que, aunque tanto los verificadores de hechos como los periodistas valoran la veracidad, los periodistas tienden a concentrarse en informar con precisión lo que se dijo, mientras que los verificadores de hechos están más interesados en juzgar la veracidad de la declaración. Al asumir un papel de adjudicación, van más allá de la objetividad como se entendía tradicionalmente para sopesar de manera explícita y abierta las pruebas, las afirmaciones y las contrademandas (Coddington; Lawrence, 2014).

En este texto, nos aproximamos a esta realidad con una mirada global y entendemos que la desinformación incluye todas las formas de información falsa, inexacta o engañosa diseñadas, presentadas y promovidas para causar daño público intencionalmente o con fines de lucro (Tandoc et al., 2018).

 

8.2. De la crisis de los medios al auge de las organizaciones de verificación de hechos

 

Esta situación se mezcla con una desconfianza generalizada y creciente, en los países occidentales, de la ciudadanía en los medios de comunicación; esta realidad es pareja a la disminución de la confianza pública en otras instituciones de gobierno democrático y un fenómeno en sí mismo, también presente en el contexto español que ocupa a este capítulo (López-García, 2020).

Debe reconocerse también la polarización discursiva (Valera, 2019) y la influencia que en ello puede tener la circulación de los contenidos digitales. Sin duda, las redes sociales juegan un papel esencial aquí, ya que los usuarios que encuentran noticias a través de ellas parecen tener tanto peso en la identidad social del participante como la reputación del creador para determinar la credibilidad informativa, socavando aún más el papel potencialmente moderador de los medios periodísticos tradicionales. De la misma manera, influyen las estructuras de los medios de comunicación y sus estrategias comerciales, que en muchos aspectos agravan estas dinámicas, destinadas a atraer audiencias más que a fomentar un discurso informado (Kreiss, 2019). A ello se suma la competencia feroz de los medios en busca de audiencia, inundada de noticias digitales de contenido y origen dudoso y manipulado, que los ciudadanos reciben por diferentes canales y plataformas digitales.

En periodo electoral, cabe tener presente la compleja relación que periodistas y partidos (a través fundamentalmente de los asesores de comunicación) establecen sobre los hechos políticos. En ello, es preciso considerar también la cercanía y similitud de los periodistas políticos con la élite política y su lejanía del ciudadano medio (Van Dalen, 2016), así como también la interrelación con otros periodistas (Kuhn; Neveu, 2002), de tal forma que los periodistas políticos terminan condicionándose entre sí. Ello tiene como resultado un consenso en la cobertura de noticias, donde los periodistas que trabajan para diferentes medios usan las mismas fuentes para cubrir las mismas historias desde el mismo ángulo. Es decir: los periodistas de diferentes organizaciones de noticias siguen rutinas organizacionales similares y reglas no escritas (Ryfe, 2006).

La desinformación está profundamente arraigada en estos desarrollos, que condicionan la verificación de los hechos como un pilar informativo contra la desinformación (Pickard, 2019). Las organizaciones de verificación de los hechos han tratado de combatirla evaluando la validez y precisión de estos mensajes. Esta práctica también ha sido adoptada por reputados medios de comunicación (Graves, 2018), hasta convertirla en un elemento necesario de una cobertura política de alta calidad.

Asumimos las organizaciones de verificación de hechos como defensoras del consumidor, no partidistas y sin fines de lucro, para los votantes que apuntan a reducir el nivel de engaño y confusión en la política (Walter; Cohen; Holbert; Morag, 2019).

Tal y como señala Singer (2021), las organizaciones de verificación de hechos, aunque son de naturaleza periodística, se centran en investigar las declaraciones de las élites, y así ponen en primer plano el valor de la verificación y buscan involucrar e informar a los ciudadanos: muchos ven su trabajo como un antídoto contra el daño que creen que las ofertas de los medios más tradicionales pueden hacer a la confianza pública y al discurso cívico (Graves, 2018).

8.3. Metodología

 

 

Este capítulo explora las estrategias de comunicación de las dos organizaciones de verificación de hechos más importantes en España (Maldita y Newtral) para conocer cuáles son sus rutinas profesionales para combatir la desinformación en campaña electoral. Mediante entrevistas en profundidad, se pretende conocer cómo trabajar para cubrir la información que despliegan los partidos políticos en este periodo. Para ello, se realizaron encuentros con responsables de ambas organizaciones para explorar en qué medida los partidos marcaban la agenda de campaña y cuáles son las herramientas que utilizaron para luchar contar la desinformación.

Todos los participantes fueron contactados por correo electrónico y teléfono. Las entrevistas fueron grabadas digitalmente con fines de transcripción, previamente fueron planificadas mediante cuestionario estructurado de respuestas abiertas obtenidas en interacción virtual y conforme a los criterios de organización. El método de entrevista se ha considerado efectivo para obtener información de expertos y protagonistas sobre un fenómeno nuevo o emergente (Marshall; Rossman, 1989).

 

8.4. Resultados

 

Agenda de partidos y envío de información a medios

 

Los partidos políticos españoles envían las hojas de ruta a las organizaciones de verificación por defecto y supone, para ellas, «una de las principales herramientas» para su trabajo habitual. Casi todos los partidos actualizan a diario las agendas, envían las previsiones y sus correspondientes actualizaciones, y eso les permite «monitorizar lo que va a decir, quién y dónde lo va a decir» (Entrevistado A).

En las entrevistas, se apreciaron divergencias en la organización de la cobertura de informaciones y verificación, según la organización: «La más habitual en un medio grande, que no es nuestro caso, es que haya un periodista o un reactor encargado de cubrir a un partido político» (Entrevistado B). En esos casos, la especialización se concreta ya no solo en partidos, sino en líderes políticos, de tal forma que el periodista «se especializa en las áreas que más suele repetir cada político» (Entrevistado A). Aunque, en el otro caso, la estrategia difiere: «Nosotros tenemos sobre todo una línea principal de contenidos que es la verificación de contenidos y del discurso público, en la que la dinámica de las agendas previas no nos afecta tanto. No estamos pendientes del titular de la última hora, sino que nuestro trabajo es más bien reposado, a posteriori y de análisis. Lo que hacemos es revisar las agendas diariamente sin discriminar por partidos, sino básicamente por contenido, revisando uno por uno lo que dicen y aplicando nuestros criterios y metodología de verificación sobre eso. No estamos en la rutina del periodismo de declaraciones. Nosotros no nos organizamos por partidos, sino que el equipo de verificación que verifica un discurso político y produce artículos de fact-checking un día puede oír a Albert Rivera y otro a Pablo Iglesias. No hay distinción» (Entrevistado B).

En este sentido, los canales de comunicación que utilizan los partidos en campaña electoral para comunicarse con estas organizaciones suele canalizarse por varias vías, desde el correo electrónico para el envío de comunicados o informaciones generales hasta grupos de WhatsApp o Telegram: «Es algo que se utiliza mucho los últimos años, grupos de WhatsApp en el que están todos los periodistas que cubren un determinado partido, y eso permite agilizar muchísimo a la hora de comunicar ‘dentro de tanto vamos a dar un canutazo para hablar de tal cosa’» (Entrevistado B). En el caso de los medios y grupos con periodistas destinados a la cobertura de partidos o de políticos la relación con el responsable de comunicación del partido es más cercana, el intercambio puede ser todavía más cercano y a demanda. Las webs también siguen siendo un canal de información importante porque «suelen actualizarse de manera razonable» y «al margen de esas improvisaciones, los partidos suelen publicar en sus webs los mítines, entrevistas o ruedas de prensa que están organizadas» (Entrevistado A).

Productos informativos y de lucha contra la desinformación para la campaña

Las organizaciones de verificación de hechos entrevistadas refirieron la creación de productos informativos propios para las campañas electorales, con un funcionamiento específico en cada caso. Así, mientras en uno se distingue énfasis por los resultados electorales, en otro caso se priorizan los programas electorales.

En ambos casos, la estrategia comenzó antes de las elecciones: «Previo a la campaña nos preparamos temas que vamos a necesitar durante la campaña. Por ejemplo, nos centramos mucho en preparar a priori cuánto nos va a costar o cosas así que nuestra audiencia puede necesitar, que serían las explicaciones más de fondo. Y luego nos centramos mucho en el número de actos que hace cada líder para intentar compensar, cuánto tiempo se expone, el número de actos que hace… La parte más preparatoria, en cuanto a producto informativo, es la de los resultados electorales. Nos preparamos durante la campaña para luego afrontar qué resultados electorales puede haber en una zona y cómo podemos dar productos informativos diferentes al resto. Lo que preparamos a priori casi siempre es un número de actos, recopilación de actos para luego decir cuántos han hecho, el día de la jornada de reflexión, y esa jornada prepararnos para ver qué datos vamos a poder dar la noche electoral para diferenciarnos» (Entrevistado A).

 

Uso de bots partidarios para la desinformación

 

No obstante, el uso de bots para la detección de desinformación en campaña no está confirmado por parte de ambas organizaciones. Así, mientras en un caso se niega rotundamente su uso: «Tenemos un servicio de WhatsApp que por la propia idiosincrasia de la plataforma no permite, salvo que te dejen ellos, introducir ningún tipo de automatización fuera de la plataforma de WhatsApp o Facebook. Tenemos un servicio manual. Recibimos un mensaje y respondemos de manera manual, no hay ningún robot detrás» (Entrevistado B); en el otro se manifiesta su uso: «Utilizamos para difusión en redes sociales. Tenemos un bot en Twitter y otro en Telegram y nos permite no tener que responder muchas veces a la audiencia. Lo utilizamos en dos sentidos. Intentamos contestar a preguntas que ya tenemos estandarizadas sobre los líderes políticos a los que ya hemos hecho verificación del discurso político, pero sobre todo para luchar contra la desinformación. Bulos que ya hemos desmentido. En las campañas electorales algo que funciona muy bien, y que es la parte que podemos aportar muy diferenciadora, es la verificación del discurso político, pero también los bulos electorales, la desinformación que se mueve durante la campaña electoral. Y eso nos facilita mucho la vida para poder responder y sobre todo en esos días en los que estamos muy cargados de trabajo» (Entrevistado A).

En el primer caso, se manifiestan sus pros y sus contras: «Los pros son que siempre hay un humano detrás. Los contras, que no nos permite manejar grandes cantidades de mensajes con la rapidez que nos gustaría, porque es muy artesanal.» Aunque sí se aplica, mediante un equipo de desarrolladores y de ingenieros, el Machine Learning e Inteligencia Artificial, para buscar que una máquina pueda ayudar a desmentir bulos, fakes y frases verificables con información falsa e incorrecta» (Entrevistado B).

El uso de bots, generados mediante estrategias de campaña computacional por partidos políticos, ha pasado desapercibida en la mayoría de los casos para estas organizaciones: «En esta campaña, que preveíamos que podíamos tener que enfrentarnos a esta tecnología, no hemos percibido que hayan utilizado esta tecnología de una manera que haya sido intuitiva, que la hayamos visto. Sabemos que sí la han utilizado para segmentar campaña, aunque a nosotros no nos ha influido, en principio. Pero ahora mismo no estamos preparados para saber cómo afrontar… Por un lado, tenemos que ver cómo lo hacen. Existe el miedo, o ellos deben tenerlo, porque un bot es un intermediario entre el ciudadano, que es el elector, y un partido. Si el ciudadano percibe que le está contestando de forma automática, quizá no sea tan eficaz para ellos. Para nosotros hay cosas que serían muy útiles. Por ejemplo, dónde se encuentra el líder político, de dónde sacan la información. Porque muchas cosas que echamos en cara a los partidos es que no nos contestan a la verificación del discurso y cuando tú construyes un discurso político debes sacar la información de algún sitio. Si eso estuviera automatizado, facilitaría mucho la vida a los verificadores. Ahora mismo no es una herramienta que estén explotando todo lo que la podrían explotar, pero el día de mañana creo que deberemos intentar enfrentarnos a esa respuesta automatizada y a esa segmentación del discurso, y a cómo intentar dialogar con esas herramientas, porque nos va a permitir crear nuestra propia respuesta a esa automatización de su trabajo» (Entrevistado A). Aunque también implican a las plataformas de redes sociales: «El uso de bots y de ese tipo de estrategias no es una pregunta tanto dirigida a los periodistas como a las propias plataformas. Porque es una manera de desvirtuar» y así «son ellas las que deben responder a las propias comunidades de usuarios si eso es algo grave o no y si deben evitarlo, qué estrategias van a poner en marcha para reducir ese uso» (Entrevistado B).

Existe unanimidad a la hora de señalar el uso de bots por parte de los partidos políticos en materia de desinformación: «Algunos lo hacen más que otros» aunque «los partidos tradicionales son menos dados a propagar un bulo o una mentira, otra cosa son los mensajes retorcidos, o manipulados, o no del todo ciertos. Pero mentiras como tal, los partidos tradicionales, no sé si porque consideran que no lo necesitan tanto porque copan más los medios más clásicos, no son tan dados a hacerlo como los partidos nuevos. Sí se podría colegir que iniciativas políticas que dependen muchísimo de las redes sociales, porque nos permiten llegar a sitios donde antes no llegaban, genera que la dependencia de ese tipo de contenidos sea mayor» (Entrevistado B).

Y todo ello se trasluce en los bulos: «Uno de los principales escollos que tenemos es que nos encontramos que hay un cierto tipo de audiencia que cuando hacemos verificación del discurso político no quiere escucharla, la omite. Y cuando sacamos algo que refrenda sus opiniones o creencias, la difunde. Se ha visto muy bien en esta campaña electoral, porque ha sido la primera vez que hemos podido observarlo con partidos como Vox». Además, se detecta que «no se trata de vender datos objetivos porque han visto que intentar llegar a la audiencia con el mensaje que la audiencia quiere escuchar, funciona. Y en la próxima campaña electoral vamos a tener que estar muy atentos a esos discursos, porque es lo más verificable, cuando no buscas si es cierto o verdadero sino solo refrendar la opinión de una serie de ciudadanos que sabes que te van a votar. Es un arma de doble filo. Te va a permitir un rédito electoral, pero si mientes igual tienes un castigo. Pero es cierto que hoy por hoy no estamos viendo que exista ese castigo cuando refrenda tu opinión. Hay que jugar en ese margen en el que está ese electorado indeciso que todavía escucha o quiere saber si lo que le cuentan es cierto o no. Pero cuando tiene el voto muy decidido es casi imposible» (Entrevistado A).

Avanzando hacia las posibilidades y tendencias de la propaganda computacional en el futuro y los retos para las organizaciones de verificación de hechos, ambos responsables consideran que «las plataformas de grandes redes sociales han roto el monopolio que tenía el periodismo» (Entrevistado B) y ha generado que otros agentes compitan en el ecosistema informativo digital: «Los políticos se han dado cuenta hace tiempo de que esa intermediación ya no existe, y que pueden comunicarse con sus potenciales votantes sin que haya nadie entre medias. Y si se puede llegar con un equipo de cinco personas en un gabinete de comunicación a manejar diez o veinte cuentas, y una empresa que crea bots me permite multiplicarlo por cien a cambio de un dinero, dentro de su lógica de intentar expandir el mensaje lo más lejos posible, es lógico que lo contraten (…) Desde un punto de vista teórico tiene sentido que un partido político busque la mayor difusión posible en esa presa que ya se ha roto, en la que no tengo ninguna intermediación periodística» (Entrevistado B).

Y eso lo harán intentando minimizar riegos, donde «para los medios va a ser muy difícil de gestionar porque nos va a obligar a aprender mucho más de los bots o de cómo funciona lo que está pasando. Nosotros nos estamos fijando mucho en la publicidad, en cómo hacen propaganda electoral, que ya no tiene nada que ver con lo de antes, si te fijas en los anuncios que meten en Facebook o que insertan en redes, o cómo te aparecen en Instagram. Cada vez saben más. ¿Es igual Facebook, que Twitter, que Instagram? Sabemos que no. Los medios no hemos dado cuenta de que hay que segmentar audiencias. Los partidos cuando segmenten y adapten su discurso a cada uno de los medios nos van a obligar a analizar el discurso adaptado a cada medio» (Entrevistado A).

 

Proactividad para la desinformación de los partidos políticos

 

Los responsables entrevistados convienen en señalar que los medios siguen funcionando con esquemas de medios masivos: «Cada vez se dan más cuenta de que cuanto más mascado y preparado para el consumo, mejor» (Entrevistado B), pero de ello no puede deducirse una mayor proactividad para las actividades de desinformación y que cuando se le solicita aclaraciones a un partido «nos decían ‘de acuerdo, pero aquí, aquí y aquí han mentido y no lo habéis verificado’» (Entrevistado A). En todo caso, la desinformación que generan los políticos «está llena de matices, manipulaciones, de formas de ver un determinado dato que, aunque a ellos les parezca que hay que verlo así, no es así» (Entrevistado B).

 

 

Temas de campaña en desinformación y características

 

En relación con las últimas campañas electorales, principalmente en la del 28A, los responsables de las organizaciones entrevistadas indican, en relación con los temas que han marcado la agenda mediática y política en términos de desinformación: «En la última campaña electoral hubo un tema que por novedad irrumpió con fuerza, no diría que monopolizara el debate, pero sí que por su novedad llamó mucho la atención, que fue el condicionamiento de las políticas de género y la política migratoria» (Entrevistado B). Todo ello se ha materializado en «un discurso del odio» que «ha movido mucha desinformación en un lado más conservador, contra las migraciones, contra modificaciones en la sexualidad aprobando el matrimonio igualitario, derechos LGBT, feminismo, movimientos autonomistas o independentistas. Son los temas que más se han movido en campaña» (Entrevistado A).

A eso, se añade la personalización de la campaña: «Cada líder ha intentado hacer su discurso (…) Eso ha sido la tónica dominante de casi todos los partidos, el ataque personal» (Entrevistado A).

 

8.5. Conclusiones

 

Este capítulo ha intentado aproximarse a las estrategias de comunicación de las dos organizaciones de verificación de hechos más importantes en España (Maldita y Newtral) para combatir la desinformación en campaña electoral. De esta forma, se ha detectado que los partidos políticos continúan enviando hojas de ruta (es decir: agendas, previsiones, declaraciones, etc.) a los medios de comunicación durante el periodo electoral, y por ende también a las organizaciones de verificación de hechos. Con ello, estas entidades pueden monitorizar lo que va a decir cada partido o candidato y dónde. A partir de ahí, los canales de comunicación que utilizan los partidos en campaña electoral para comunicarse con estas organizaciones suelen darse por varias vías, desde el correo electrónico para el envío de comunicados o informaciones generales hasta grupos de WhatsApp o Telegram.

Para el inicio de la campaña electoral, las organizaciones entrevistadas ya habían creado productos informativos propios, bien para poner énfasis en los resultados electorales, bien en los programas. Al margen, de estos productos informativos, las organizaciones analizadas señalaron monitorizar declaraciones de los candidatos durante los quince días de campañas electorales. No existe unanimidad, por su parte, a la hora de emplear bots para elaborar o difundir esta información, así mientras una de las organizaciones de fact-checker entrevistada declaró abiertamente el uso de estas herramientas para responder con mayor eficacia a la audiencia a través de Twitter y de Telegram, la otra organización negó utilizarlo, aunque sí señaló utilizar Inteligencia Artificial para buscar y desmentir bulos.

Además de conocer el uso por parte de estas organizaciones de bots y otras herramientas computacionales para la lucha contra la desinformación, interesaba en esta investigación conocer hasta qué punto tenían detectadas prácticas que los partidos políticos empleaban, con estas mismas herramientas para crear y difundir información. Ambas organizaciones señalaron que el uso de bots generados por partidos políticos había pasado desapercibida para las dos. Aunque señalaron conocer que los partidos habían utilizado herramientas computacionales para segmentar mensajes, no les había afectado su uso para su labor informativa y de verificación. Si bien, llama la atención que también declararon no sentirse preparados para saber cómo afrontar el uso de la comunicación computacional por parte de los políticos.

En relación con el volumen de desinformación generada por los partidos políticos en campaña electoral, ambas organizaciones indicaron que los tradicionales habían sido menos propensos a propagar bulos, aunque sí habían detectado mensajes engañosos o manipulados. No obstante, las organizaciones informaron de que, más que publicar mensajes falsos, los partidos políticos han aplicado la estrategia de publicar mensajes activadores, mediante emociones, que provocaba en la audiencia refrendar sus opiniones y compartir esos mensajes. Es decir: los partidos y candidatos políticos que publicaban mensajes que permitían refrendar la opinión de una serie de ciudadanos han comprobado que esos mensajes eran más difundidos por la audiencia que los falsos. Los bulos manipulados que provocan emoción en los usuarios de redes sociales fueron más compartidos que aquellos que eran falsos en su totalidad.

En este sentido, en esta investigación se ha podido ahondar en la idea de que tanto los medios como las organizaciones de verificación se mueven en ese espacio de la esfera pública digital, en la que se han roto los consensos comunicativos y el espacio de intermediación periodística. Los partidos han visto que ya no dependen exclusivamente de los medios de comunicación, y los medios deberán aprender cómo gestionan la comunicación los equipos de campaña de los partidos porque, en sus palabras, resultará muy difícil gestionar la comunicación computacional de las organizaciones partidarias.

 

8.6. Referencias

 

Amazeen, M.A. (2020). «Journalistic interventions: The structural factors affecting the global emer-gence of fact-checking», Journalism, vol. 21, núm. 1, pp. 95-111. https://doi.org/10.1177%2F1464884917730217

Arcila Calderón, C.; Blanco-Herrero, D.; Valdez Apolo, M.B. (2020). «Rejection and Hate Speech in Twitter: Content Analysis of Tweets about Migrants and Refugees in Spanish», Revista Española de Investigaciones Sociológicas, núm. 172, pp. 21-40. https://doi.org/10.5477/cis/reis.172.21

Bakshy, E.; Messing, S.; Adamic, L. A. (2015). «Exposure to Ideologically Diverse News and Opinion on Facebook», Science, vol. 348, núm. 6239, pp. 1130-1132. https://doi.org/10.1126/science.aaa1160.

Bastos, M.; Mercea, D. (2019). «The Brexit Botnet and User-generated Hyperpartisan News», Social Science Computer Review, vol. 37, núm. 1, pp. 38-54. https://doi.

org/10.1177%2F0894439317734157. Barberá, P.; Jost, J.T.; Nagler, J.; Tucker, J.A.; Bonneau, R. (2015). «Tweeting from Left to Right: Is Online Political Communication More Than an Echo Chamber?», Psychological Science, vol. 26, núm., 10, pp. 1531-1542. https://doi.org/10.1177%2F0956797615594 620

Bruns, A. (2019). Are Filter Bubbles Real? Cambridge: Polity

Chadwick, A.; Vaccari, C.; O’Loughlin, B. (2018). «Do Tabloids Poison the Well of Social Media? Explaining Democratically Dysfunctional News Sharing», New Media and Society, vol. 20, núm., 11, pp. 4255-4274. https://doi.org/10.1177%2F14614448187696 89

Chadwick, A.; Vaccari, C. (2019). News Sharing on UK social media: Misinformation, Disinformation & Correction, Online Civic Culture Centre, Loughborough University: https://www.lboro.ac.uk/research/online-civic-culture-centre/news-events/articles/o3c-1-survey —report-news-sharing-misinformation/.

 

Chadwick, A. (2019). The new crisis of public communication. Challenges and Opportunities for Future Research on Digital Media and Politics. Loughborough (Reino Unido): Online Civil Culture Center / Loughtborough University.

Coddington, M.; Molyneux, L.; Lawrence, R.G. «Fact Checking the Campaign (2014). How political reporters use twitter to set the record straight (or not)». The International Journal of Press/Politics 19(4):391-409.

Couldry, N.; Mejias, U. A. (2019). The Costs of Connection: How Data Is Colonizing Human Life and Appropriating It for Capitalism. Stanford, CA: Stanford University Press.

Freelon, Deen; Wells, Chris (2020). «Disinformation as Political Communication», Political Communication, vol., 37, núm. 2, pp. 145-156, https://doi.org/10.1080/10584609.2020.1723755

Graves, L. (2018) «Boundaries Not Drawn», Journalism Studies, vol. 19, núm. 5, pp. 613-631, https://doi.org/10.1080/1461670X.2016.1196602

Gray, J.; Bounegru, L.; Venturini, T. (2020). «‘Fake news’ as infrastructural uncanny», New Media & Society, vol. 22, núm. 2, pp. 317-341. https://doi.org/10.1177/1461444819856912

Kollanyi, B.; Howard, P.N.; Woolley, S.C. (2016). Bots and Automation over Twitter During the First U.S. Presidential Debate (Comprop Data Memo 2016.1). Computational Propaganda Project, Oxford Internet Institute: http://politicalbots.org/wp-content/uploads/2016/10/Data-Memo-Second-Presidential-Debate.pdf

Kreiss, D. (2017). «The Fragmenting of the Civil Sphere: How Partisan Identity Shapes the Moral Evaluation of Candidates and Epistemology», American Journal of Cultural Sociology, vol. 5, núm. 3, pp.443-459. https://doi.org/10.1057/s41290-017-0039-5.

Kreiss, D. (2019). « Digital Opportunity Structures: Explaining Variation in Digital Mobilization During the 2016 Democratic Primaries» Digital Media and Democratic Futures, 42.
Kuhn, R.; Neveu, E. (2002). Political Journalism. New Challenges, New Practices. London: Routledge. López-García, Guillermo (2020). «Vigilar y castigar: el papel de militares, policías y guardias civiles en la comunicación de la crisis del Covid-19 en España», Profesional de la información, vol. 29, núm. 3. https://doi.org/10.3145/epi.2020.may.11

Marshall, C.; Rossman, G.B. (1989). Designing Qualitative Research. Newbury Park, CA: Sage.
Nascimento S.V.; Alves, R.H. (2018). «Are algorithms affecting the Democracy in Brazil?» International Simposium on ethical Algorithms. Chicago: Center for Digital Ethics and Policy. Disponible en: https://www.researchgate.net/profile/Regina_Alves_Da_Silva/publication/332798661_Are_Algorithms_Affecting_the_Democracy_in_Brazil/links/5cca355d4585156cd7c1ac22/Are-Algorithms-Affecting-the-Democracy-in-Brazil.pdf.

O’Neil, C. (2016). Weapons of Math Destruction: How Big Data Increases Inequality and Threatens Democracy. Nueva York: Crown. Pariser, E. (2011). The Filter Bubble. What the Internet Is Hiding from You. Londres: Penguin.

 

Parra Valero, P.; Oliveira, L. (2018). «Fake news: una revisión sistemática de la literatura», Observatorio (OBS*), vol. 12, núm. 5. https://doi.org/10.15847/obsOBS12520181374.

Pickard, V. (2019). Democracy without Journalism? Confronting the Misinformation Society, Oxford University Press. https://doi.org/10.1093/oso/9780190946753.001.0001

Quandt, T. (2018). «Dark Participation», Media and Communication, vol. 6, núm. 4, pp. 36–48. http://dx.doi.org/10.17645/mac.v6i4.1519.

Ryfe, D.M. (2006). The nature of news rules. Political Communication, 23(2), 203-214. DOI: 10.1080/10584600600629810

 

Singer, J. (2021). «Border patrol: The rise and role of fact-checkers and their challenge to journalists’ normative boundaries», Journalism, vol. 22, núm. 8, pp. 1929-1946. https://doi.org/10.1177/1464884920933137

Sunstein, C.R. (2017). #Republic: Divided Democracy in the Age of social media. Princeton: Princeton University Press.

Tandoc Jr., Edson C.; Lim, Zheng Wei; Ling, Richard (2018). Defining «FakeNews», Digital Journalism, 6:2, 137-153, DOI: 10.1080/21670811.2017.1360143

 

Tracy, S. (2013). Qualitative Research Methods: Collecting Evidence, Crafting Analysis, Communicating Impact. Malden, MA: Wiley-Blackwell.

Valera-Ordaz, L. (2019). «Analyzing political discussion on Facebook based on three notions of democracy», International journal of communication, vol.13, núm. 21., pp.1056-1076
Van Dijk, T.A. (2014). Discourse and knowledge: A sociocognitive approach. Cambridge University Press.

Van Dalen, A. (2016). «Journalism, Political», The International Encyclopedia of Political Communication, vol.1, núm. 10.

Waisbord, S. (2018). «Truth is What Happens to News: On Journalism, Fake News, and Post-Truth», Journalism Studies, vol. 19, núm. 13, pp. 1866-1878. https://doi.org/10.1080/1461670X.2018.1492881.

Walter, N.; Cohen, J.; Holbert, R.L.; Morag, Y. (2019). «Fact-Checking: A Meta-Analysis of What Works and for Whom», Political Communication, vol. 1, núm. 26. https://doi.org/10.1080/10584609.2019.1668894

Wojcieszak, M.E.; Mutz, D.C. (2009). «Online Groups and Political Discourse: Do Online Discussion Spaces Facilitate Exposure to Political Disagreement?», Journal of Communication, vol.59, núm. 1, pp. 40–56. https://doi.org/10.1111/j.1460-2466.2008.01403.x.

8.