Perturbaciones informativas. Desinformación y mediatización digital (2025)

 

 Título del Capítulo: «Desinformación y conflicto intergrupal en las sociedades digitales: un análisis del lenguaje empleado en redes sociales y medios de comunicación»

Autoría: Berta Chulvi; Mariángeles Molpeceres; Sara Degli-Esposti

Cómo citar este Capítulo: Chulvi, B.; Molpeceres, M.; Degli-Esposti, S. (2025): «Desinformación y conflicto intergrupal en las sociedades digitales: un análisis del lenguaje empleado en redes sociales y medios de comunicación». En Cabrera-Altieri, D.H.; López-García, G.; Campos-Domínguez, E. (coords.), Perturbaciones informativas. Desinformación y mediatización digital. Salamanca: Comunicación Social Ediciones y Publicaciones.
ISBN: 978-84-10176-13-3

d.o.i.: https://doi.org/10.52495/c3.emcs.41.p117

 

 

 

Capítulo 3. Desinformación y conflicto intergrupal en las sociedades digitales: un análisis del lenguaje empleado en redes sociales y medios de comunicación

 

Berta Chulvi

Departamento de Psicología Social y de las Organizaciones de la Universitat de València y Research Department en Symanto AI

 

Mariángeles Molpeceres

Departamento de Psicología Social y de las Organizaciones de la Universitat de València

 

Sara Degli-Esposti

 

Instituto de Filosofía del Centro Superior de Investigaciones Científicas

 

1. Introducción

 

Para comprender la dinámica de la desinformación en las sociedades actuales es importante entender que la (des)información no es algo que circula en el vacío social, sino que su difusión está enmarcada en las fronteras existentes entre los grupos sociales y contribuye a trazarlas. En su trabajo clásico sobre los medios de comunicación de masas en la Francia de los 1950, Serge Moscovici (1976) describió tres modalidades de comunicación fundamentales que difieren en la relación que guardan con las fronteras grupales y, por tanto, dan lugar a tipos muy diferentes de conocimiento y representaciones sociales.

La primera modalidad, que Moscovici denominó «difusión», se refiere a la información cuya pretensión es alcanzar la mayor audiencia posible. Cuando la información ha de circular a través y por encima de las fronteras grupales, necesita evitar el marcaje social: es decir, tiene que ser lo más neutra posible para ser aceptable para la mayoría. La difusión, pues, trata de eliminar o esquivar las barreras que podrían segmentar o reducir su público.

La segunda modalidad, la «propagación», se refiere a la información destinada a un grupo determinado, con el fin de reforzar su cohesión interna. No busca la objetividad en la representación de nuevos fenómenos, sino más bien un tipo de información que pueda ser asimilable por el grupo. Podría decirse que es una forma de actualizar las creencias del grupo con un doble objetivo: (i) implicar a los miembros en el sistema de creencias grupal, logrando que éstos lo consideren válido como sistema de interpretación de la realidad; y (ii) mediar entre los eventos externos y la doctrina consensual del grupo.

Finalmente, la tercera modalidad, que Moscovici denominó «propaganda», se refiere a la información cuya pretensión es circular entre los ya convencidos y promover el conflicto con los que no lo están, que son vistos como adversarios. La propaganda intenta agudizar y profundizar las diferencias entre grupos. Por eso transmite muy poca información, y la que transmite es redundante, extrema, maniquea y estereotipada. El objetivo y el efecto de la propaganda es alentar al grupo a la acción.

La principal ventaja del esquema teórico propuesto por Serge Moscovici es que traslada el foco de atención desde el plano de los contenidos del mensaje al plano de las relaciones sociales que ese mensaje posibilita y promueve. Moscovici plantea que toda narrativa sobre los hechos se inscribe en un esquema de comprensión del mundo en términos de pertenencias grupales. Esta propuesta teórica es especialmente relevante en el nuevo ecosistema comunicacional que podemos denominar «sociedades digitales» (Castell, 2001; Mossberger et al., 2008; Rivera-Vargas, 2018).

Este nuevo sistema socio-tecno-cultural que denominamos sociedades digitales se caracteriza por la digitalización de las relaciones sociales. Internet, desde la aparición y generalización de las redes sociales, ya no es sólo un lugar en el que se transmite información: es un lugar en el que se vive. Como señala Kaufman (2015: 17), las personas definen parte de su existencia en esa caja negra que cada vez se parece más a un espacio físico de carácter público, un espacio de despliegue vital de los individuos en el que las personas socializan, trabajan, se relacionan, articulan proyectos, despliegan emociones, se comunican, construyen lazos afectivos y sexuales y se agregan para formar tendencias y procesos sociales.

En esa vida digital, las audiencias, tal y como se venían concibiendo en la sociedad de la comunicación de masas, han desaparecido y el esquema emisor-receptor ha perdido mucho de su sentido. En las sociedades digitales cualquiera —aun sin capital económico y sin capital cultural (Bordieu, 1997)— tiene posibilidad de crear un mensaje de recepción masiva: grabar un vídeo con su móvil, subirlo a una red social y que se haga viral. A los antiguos receptores de la comunicación de masas hoy se les requiere que actúen: que den un like, comenten, posteen, retuiteen, etc. Podríamos decir que el receptor ha muerto como arquetipo en las sociedades digitales. Hay autores que hablan de webactores (Pisani; Piotet, 2009) para describir este fenómeno y otros de Revolución Amateur (Keen, 2011).

Observando esta nueva realidad desde la perspectiva propuesta por Moscovici, podemos afirmar que, en este nuevo sistema socio-tecno-cultural, cada mensaje que se comparte en redes significa un posicionamiento social para el emisor que la mayoría de las veces se produce en el marco de relaciones intergrupales. Un posicionamiento cuyos efectos para la identidad de los sujetos y para la convivencia en las sociedades democráticas superan, con mucho, el fenómeno de la mera transmisión de información.

El posicionamiento social siempre ha tenido un elevado costo para los individuos, pero las sociedades digitales han venido a reducirlo sustancialmente con la generalización de la praxis del anonimato. El espacio físico en el que vivíamos con anterioridad al establecimiento de las sociedades digitales no permitía el anonimato tal y como es posible hoy en día. El mundo virtual lo permite y hasta lo fomenta bajo el paraguas de la protección de datos. El anonimato que permiten las redes sociales posibilita la puesta en circulación de discursos más extremos que se retroalimentan sin costes identitarios para los usuarios.

Otra manera de reducir el coste identitario que supone un posicionamiento extremo es dirigirse a un público afín, un grupo de referencia en el que se sabe que el mensaje será aceptado. En las nuevas sociedades digitales, las redes sociales han provocado la generación de comunidades integradas por sujetos que pueden vivir en los puntos más extremos del planeta; en consecuencia, siempre hay un público afín a disposición de cualquier mensaje. Una vez desaparecidos los límites geográficos como condicionantes de la interacción humana también han desaparecido los controles que evitaban la circulación de ciertos discursos minoritarios que en otro tiempo hubieran permanecido soterrados, tal y como describió Noelle Neuman en su conocida teoría de la espiral del silencio (Noelle-Neumann, 1995).

La propuesta teórica de este capítulo es que, en las sociedades digitales, la extensión de la desinformación como fenómeno viene ligada a la extensión del conflicto intergrupal a través del manejo de las identidades grupales en torno a un esquema sencillo pero potente: nosotros vs. ellos. Como primer intento de verificar empíricamente esta conexión entre el fenómeno de la desinformación y el conflicto intergrupal se presentan una serie de investigaciones realizadas en el campo de la lingüística computacional cuyo objetivo es mostrar cómo las marcas de las identidades grupales en el lenguaje caracterizan la desinformación frente a otros contenidos. Para ello se realiza un análisis del lenguaje utilizado en tres bases de datos: la primera contiene todos los posts publicados por determinados usuarios de Twitter1 que fueron identificados como difusores de desinformación y discurso de odio; la segunda contiene tuits sobre la covid-19 de diversos usuarios cuyo contenido es etiquetado como conspiratorio, y la tercera contiene noticias publicadas por medios digitales que son conocidos como fuentes alternativas por su tendencia a distribuir desinformación.

Las consecuencias prácticas de nuestra propuesta teórica suponen repensar de qué manera se trata de contrarrestar el fenómeno de la desinformación y plantearse si las estrategias de fact-checking, centradas principalmente en la verificación de los contenidos, resultan suficientes cuando el motor de la desinformación es el conflicto intergrupal.

 

2. Indicadores lingüísticos del conflicto intergrupal

 

En el análisis de la desinformación como discurso generalmente se ha prestado atención al tipo de actores que difunden la desinformación (Hameleers, 2023), a la rapidez con la que ésta se difunde (Zannettou et al. 2019) y al contenido o los marcos utilizados en dicho discurso (Shen et al., 2022). La mayor parte de la literatura sobre desinformación ha relacionado su creación y difusión con programas políticos concretos, como la desestabilización de Estados extranjeros —a veces asociada con desinformación que se genera por razones ideológicas, proveniente de marcos ideológicos radicales de derechas o de izquierdas— y con la salvaguarda de intereses económicos. En el área de confluencia entre la lingüística computacional y la psicología social se ha desarrollado también una línea de investigación que muestra cómo pequeñas diferencias en el uso del lenguaje pueden afectar a la percepción de las personas y los grupos, centrando (o desviando) la atención, y orientando de este modo las inferencias de los participantes en el acto comunicativo en determinadas direcciones (Karasawa; Maass, 2008). Más allá del análisis semántico, los distintos niveles de abstracción lingüística o las sutiles elecciones gramaticales pueden influir en las inferencias que realizamos sobre los rasgos de los endogrupos o de los exogrupos y, por tanto, en los niveles de polarización o conflicto intergrupal (Anolli et al. 2006; Graf et al., 2012; Formanowicz, 2020; Rubini et al., 2014).

Uno de los instrumentos más comúnmente utilizados para capturar esta capa más sutil del lenguaje ha sido el «Linguistic Inquiry and Word Count» (LIWC) (Pennebaker et al., 2007), un diccionario que clasifica palabras en categorías psicolingüísticas. Muchos investigadores lo han utilizado para examinar el efecto de la ideología política en las elecciones semánticas (e.g., Jost; Sterling, 2020; Körner et al., 2022) o las diferencias en el uso de palabras funcionales asociadas con estilos de razonamiento (e.g., Cichocka et al., 2016).

Particularmente interesante para examinar los marcadores del conflicto intergrupal es el trabajo de James Pennebaker (2011) sobre el uso de los pronombres personales. Estas palabras, funcionales en cualquier idioma, son tan comunes que resultan casi invisibles en nuestras conversaciones y textos, y sin embargo tienen el poder de reflejar cómo nos relacionamos con los demás. Son la vía más directa para expresar cómo nos ubicamos en el entramado de relaciones intergrupales. En particular, el pronombre «tú» ha sido asociado en la investigación aplicada en comunicación con la culpa, el ataque, la aversión y el antagonismo (Van Swol; Carlson, 2015), así como con la hostilidad y la disposición a confrontar en el contexto de relaciones personales (Tausczik; Pennebaker, 2010). De hecho, se ha descubierto que los pronombres en segunda persona se utilizan con tanta frecuencia para acusar que se puede decir que «se puede pensar en el uso de palabras como ‘tú’ como el equivalente a señalar con el dedo a la otra persona mientras se habla» (Pennebaker, 2011: 175).

Otras investigaciones se han centrado en la relación entre el uso del lenguaje, capturado por el LIWC, y la estigmatización de los exogrupos, encontrando una relación consistente entre el uso de pronombres de la tercera persona del plural y la negatividad hacia dichos grupos. Se ha observado una mayor frecuencia de pronombres en tercera persona plural en el lenguaje utilizado por una variedad de grupos extremistas de diferentes tipos, como delincuentes solitarios violentos (Kaati et al., 2016), terroristas (Pennebaker; Chung, 2008), o sus simpatizantes (Torregrosa et al., 2020). Cohen y colaboradores han encontrado repetidamente que el uso de pronombres en tercera persona plural es indicativo de una preocupación por un grupo opositor (Kaati et al., 2016; Shrestha et al., 2020).

Las investigaciones empíricas que se exponen a continuación han tratado de analizar la presencia de algunos marcadores del conflicto intergrupal en el lenguaje de la desinformación. Para ello se han utilizado una combinación de metodologías que contemplan tanto el acuerdo entre jueces en la codificación de un discurso como el uso de herramientas de procesamiento automático del lenguaje propias de la lingüística computacional. El objetivo común de estas investigaciones empíricas es investigar si una mirada que pone en el centro del análisis las dinámicas intergrupales es capaz de alumbrar características diferenciales del lenguaje de la desinformación.

 

3. El lenguaje de la desinformación y el discurso del odio

 

El discurso del odio es una manifestación extrema del conflicto intergrupal en el que un grupo de la población es homogeneizado y asociado a una etiqueta lingüística que se presenta no sólo como portadora de un estigma sino como un enemigo a batir.

Como ya se ha mencionado, distintas investigaciones han mostrado que el uso frecuente de pronombres en tercera persona plural (ellos, ellas, etc.) en el lenguaje de un grupo sugiere que dicho grupo se está definiendo a sí mismo por la existencia de otro grupo opositor (Pennebaker, 2011; Pennebaker; Chung, 2012; Shrestha et al., 2020). Sin embargo, lo habitual en estas investigaciones es calcular la frecuencia de palabras en tercera persona del plural de forma independiente. Muy pocos trabajos (Chulvi et al., 2024) utilizan un índice relacional para medir el énfasis relativo puesto en el grupo interno y el grupo externo. Construir un índice relacional y explorar cómo este se comportaba en una muestra de cuentas de Twitter identificadas como difusoras de noticias falsas (Rangel et al., 2020) o de mensajes de odio (Rangel et al., 2021) fue objetivo de un trabajo exploratorio realizado por Chulvi et al. (2022) cuyos resultados presentamos a continuación.

Para esta investigación se utilizaron dos corpus de datos. El primero formaba parte de una tarea de aprendizaje automático en el área de la lingüística computacional que consistía en la detección automática de desinformación (Rangel et al., 2020). Este corpus está compuesto por todos los tuits publicados por un total de 1.000 usuarios de Twitter, 500 en español y 500 en inglés. La estrategia de confección de este corpus pretendía disponer de dos subconjuntos equilibrados de cuentas que difundían desinformación y cuentas que no lo hacían. Para ello, en la confección del corpus, se recogieron datos hasta disponer de un número suficiente de cuentas que habían difundido desinformación. La revisión manual de los tuits por tres jueces permitió etiquetar qué cuentas habían difundido al menos una noticia falsa y cuáles no habían difundido ninguna noticia falsa. En esta investigación se utilizaron sólo las 300 cuentas del subconjunto de entrenamiento de este corpus en español, y de ellas se descartaron los usuarios que habían publicado menos de 90 o más de 150 tuits. El resultado fue un conjunto de datos que contiene un total de 31.652 tuits de 284 usuarios. De esos usuarios, 146 cuentas habían sido identificadas por los jueces como difusores de desinformación porque entre sus tuits habían compartido, al menos una vez, una noticia falsa. Las 138 cuentas restantes se codificaron como grupo control porque no habían compartido ninguna noticia falsa.

El segundo corpus de datos formaba parte de una tarea similar (Rangel et al., 2021) pero esta vez dirigida a la identificación automática de discurso del odio. Los organizadores trataron igualmente de construir dos conjuntos de datos equilibrados: cuentas que difundían discurso de odio contra mujeres e inmigrantes y cuentas que no. De cada usuario se seleccionaban los 200 últimos tuits, que eran anotados por tres jueces. Los usuarios con más de diez tuits que incitaban al odio fueron calificados como «proclives a difundir discursos de odio», y los usuarios con menos de diez tuits con incitación al odio fueron calificados como grupo control. De este corpus, se utilizaron los tuits de 200 cuentas en español, de las que 100 habían sido calificadas como difusores de odio y 100 no. Este segundo corpus quedó compuesto por 40.000 tuits.

A partir de la información morfológica proporcionada por el etiquetador spaCy2 v3.0 se identificó, en los dos conjuntos de datos, cuántos verbos y pronombres en primera, segunda y tercera persona contenía cada tuit y se calculó el porcentaje de cada categoría con respecto al total de marcadores de persona presentes en cada tuit. Para cada usuario, se sumaron las puntuaciones de todos los tuits en cada una de las categorías (primera, segunda y tercera persona) y se dividieron por el número de tuits del usuario. Una vez realizada esta operación se calculó lo que denominamos ingroup vs. outgroup índex como una resta entre el uso de la primera persona y el uso de la tercera persona en los textos. Si la puntuación de este índice es positiva, significa que el usuario habla más de su grupo o de su propia posición (ingroup). En caso contrario, si es negativa, significa que el usuario centra más su atención en los demás (outgroup). Las puntuaciones del índice ingroup vs. outgroup no se distribuyen normalmente según la prueba de Kolmogorov-Smirnov (p<.001 en los dos conjuntos de datos), por lo que aplicamos una prueba no paramétrica, el test de Mann-Whitney, para evaluar si el índice capturaba diferencias estadísticamente significativas en el lenguaje utilizado por las cuentas que difundían desinformación y discurso de odio y los dos grupos control. Los resultados mostraron que en ambos corpus las diferencias eran estadísticamente significativas e iban en la misma dirección: las cuentas que difundían desinformación presentaban un índice ingroup vs. outgroup (M= -0,63) significativamente menor (U=7,648; p<.001) que las cuentas que no difundían desinformación (M= -.053). Lo mismo ocurría con las cuentas que difundían discurso de odio: las que sí difundían odio presentaban un índice ingroup vs. outgroup (M= -0,24) significativamente menor (U=2,133; p<.001) que las cuentas que no difundían odio (M= -.011).

Estos resultados permiten considerar que el lenguaje empleado por los difusores de desinformación y los difusores de discurso de odio comparte una característica que lo diferencia de los respectivos grupos control: en la utilización de los pronombres personales de primera y tercera persona se identifica un patrón con mayor presencia de los marcadores vinculados al exogrupo.

4. El lenguaje de las teorías de la conspiración sobre el covid

Tras observar que el índice ingroup vs. outgroup permitía diferenciar el estilo de comunicación de los usuarios que difundían desinformación y discurso de odio, nos preguntamos si sería igualmente pertinente para detectar diferencias, no ya en un conjunto de tuits del mismo usuario, sino en los textos que difundían desinformación. Uno de los fenómenos de desinformación más destacados durante la pandemia de covid-19 fue la difusión de teorías conspirativas (Pertwee et al., 2022; Moffitt et al., 2021), así que decidimos aplicar la misma metodología utilizada en la investigación de Chulvi et al. (2022) para analizar un corpus de tuits sobre la pandemia del coronavirus (Langguth et al., 2023) en el que se había identificado manualmente, por un procedimiento de acuerdo entre jueces, la existencia o no de teorías de la conspiración sobre la covid-19 en los tuits.

En la primera versión de ese corpus, que es la que nosotras hemos analizado para este capítulo, se ofrece un conjunto de 1.913 tuits en inglés que comentan aspectos relacionados con la pandemia del coronavirus. De ellos, un total de 685 fueron identificados por los creadores del corpus como difusores de alguna teoría de la conspiración con relación a la covid: por ejemplo, la consideración del virus como un arma química dirigida al control de la población. Cada etiqueta de conspiración asignada a un tuit fue el resultado de una votación mayoritaria entre tres jueces. Los 1.228 tuits restantes no daban soporte a ninguna teoría de la conspiración.

Para replicar la metodología utilizada en el análisis de las cuentas de usuarios de Twitter se calculó en cada tuit el ingroup vs. outgroup index. Pero en esta ocasión, dado que los tuits estaban escritos en inglés —una lengua en la que muy pocas formas verbales tienen flexión—, se contabilizaron únicamente los pronombres de primera y tercera persona —tanto en singular como en plural— utilizando el software «Linguistic Inquiry and Word Count» (LIWC) (Pennebaker et al., 2007). Las puntuaciones se normalizaron en función del número de palabras de cada tuit. Al igual que en el estudio anterior, se calculó la diferencia entre la frecuencia de uso de la primera persona y de la tercera persona en los textos. Si la puntuación de este índice es positiva, significa que el texto habla más en términos de ingroup (yo o nosotros). En caso contrario, si es negativa, significa que el usuario centra más su atención en el outgroup (él o ellos).

Las puntuaciones del índice ingroup vs. outgroup no se distribuyen normalmente según la prueba de Kolmogorov-Smirnov (p<.001), por lo que aplicamos una prueba no paramétrica, el test de Mann-Whitney, para evaluar si el índice capturaba diferencias estadísticamente significativas en el lenguaje utilizado en los tuits que difundían teorías de la conspiración sobre la covid-19 y los que no lo hacían. El resultado indicó que se replicaba el patrón obtenido en el análisis de las cuentas de Twitter, pero esta vez a nivel de textos concretos: los tuits que sí difunden teorías de la conspiración presentan un índice ingroup vs. outgroup (M= -55,25) significativamente menor (U=3,482; p<.001) que los tuits que, abordando el problema de la covid-19, no difundían teorías de la conspiración (M= -39,50). Es decir, en su utilización de los pronombres personales, los tuits que difunden teorías de la conspiración reproducen el mismo patrón nosotros vs. ellos centrándose en los marcadores vinculados al exogrupo.

 

5. El lenguaje de las fuentes conspiratorias

 

Una vez comprobado que el índice ingroup vs outgroup permitía diferenciar los textos que difundían teorías de la conspiración sobre la covid-19, nos preguntamos si sería igualmente pertinente para detectar diferencias entre fuentes de información: esto es, entre cabeceras que habían sido clasificadas como fuentes mainstream o fuentes alternativas con tendencia a difundir teorías de la conspiración. Para ello recurrimos a un corpus creado por Miani, Hills y Bangerter (2022) conocido como LOCO. Dicho corpus contiene 88 millones de tokens de documentos procedentes de 150 cabeceras digitales. Imitando el comportamiento de los usuarios de Internet, los documentos se identificaron mediante la búsqueda en Google de un conjunto de frases semilla. LOCO abarca muchos temas distintos: covid, cambio climático, inmigración, etc. Cada noticia está asociada a una fuente y las cabeceras están clasificadas en «conspiracionistas» (911thrue, Infowars, etc.) o «mainstream» (BBC, Times, etc.) basándose en los datos proporcionados por un conocido observatorio estadounidense de la desinformación en los medios: «Media Bias/Fact Check». Para nuestra investigación seleccionamos sólo las instancias que contenían el dato de la fecha y que habían sido publicadas en el periodo entre 2000 y 2020. Tras aplicar este filtro, resultó un corpus de 62.778 textos (13.559 textos pertenecientes a una fuente calificada como conspiratoria y 49.222 pertenecientes a una fuente calificada como mainstream.

Esta investigación presentaba una particularidad frente a las anteriores. Tanto en las cuentas de usuarios de Twitter como en los tuits sobre la covid-19 nos encontramos ante producciones lingüísticas de sujetos concretos que no se enmarcan en ningún género periodístico. Sin embargo, en esta ocasión, dado que los textos que analizamos son noticias publicadas por un medio de comunicación, cabe esperar que el lenguaje utilizado se ajuste más a los estándares de la redacción periodística, en la que no es habitual el uso de la primera persona del plural «nosotros».

La hipótesis, en este caso, es que el índice ingroup vs. outgroup capturaría las diferencias entre los medios de comunicación conspiratorios y los mainstream porque los primeros harían un mayor uso de la primera persona que los segundos. Esta hipótesis viene inspirada por el esquema de las modalidades de comunicación planteado por Moscovici, considerando que el rol que cabría asignar a las cabeceras digitales que difunden desinformación estaría ligado a la «propagación»: es decir, tendría como principal objetivo la cohesión del grupo interno, generando así sentido de pertenencia a una comunidad.

Para replicar la metodología utilizada en las anteriores investigaciones se calculó en cada texto el ingroup vs. outgroup index. Como los textos estaban escritos en inglés, se contabilizaron únicamente los pronombres de primera y tercera persona tanto del singular como del plural utilizando el software «Linguistic Inquiry and Word Count» (LIWC) (Pennebaker et al., 2007). Las puntuaciones se normalizaron en función del número de palabras de cada noticia. Como en anteriores ocasiones, el índice ingroup vs. outgroup no se distribuye normalmente según la prueba de Kolmogorov-Smirnov (p<.001), por lo que aplicamos una prueba no paramétrica, el test de Mann-Whitney, para evaluar si el índice capturaba diferencias estadísticamente significativas en el lenguaje utilizado por cabeceras calificadas como mainstream o como conspiracionistas. El resultado es que las cabeceras conspiratorias presentan un índice ingroup vs. outgroup (M= -4,30) significativamente mayor (U=-5,214; p<.001) que las cabeceras mainstream (M= -10,54). Estos datos apuntan que, siguiendo la lógica de este indicador, las fuentes que difunden desinformación anclan significativamente más su discurso en marcadores endogrupales de lo que lo hacen los medios de comunicación calificados como mainstream.

Para tratar de caracterizar un poco más el lenguaje utilizado en los dos tipos de fuentes, generamos un índice endo-emo compuesto por el uso de los pronombres personales de primera persona y las emociones negativas expresadas en los textos. Estas últimas también fueron detectadas con el software «Linguistic Inquiry and Word Count» (LIWC) (Pennebaker et al., 2007). Además, clasificamos los textos en tres periodos históricos diferentes para explorar la evolución histórica: 2000-2005, 2006-2015 y 2016-2020. La aparición de las redes sociales en 2006 marca el inicio del segundo periodo de nuestro análisis. La campaña electoral de 2016 en EEUU, que culminó con la elección de Donald Trump y estuvo marcada por una masiva circulación de noticias falsas y desinformación en redes sociales, marca el inicio del tercer periodo. Los resultados muestran que este índice endo-emo, que computa el uso de los marcadores endogrupales y las emociones negativas, presenta diferencias estadísticamente significativas (U=39,904, p<.001) entre los dos tipos de fuentes y que estas diferencias mantienen su significación estadística a lo largo de los tres periodos (véase el gráfico 1).

Desde una perspectiva temporal, aunque las diferencias entre los dos tipos de fuentes son significativas en los tres periodos, se puede apreciar que las fuentes calificadas como conspiratorias habrían iniciado un proceso de aproximación a las características de las fuentes mainstream (Gráfico 1). Un análisis cualitativo de alguna de estas fuentes (ver un ejemplo en las Figuras 1 y 2) muestra que este fenómeno de aproximación observado en las características del lenguaje empleado por las cabeceras es todavía mucho más evidente cuando se compara la estética y los elementos de diseño gráfico que se utilizan antes y después de 2006: cada vez la apariencia visual de las fuentes conspiratorias es más similar a la de las cabeceras mainstream.

 

6. A modo de conclusión

 

En este capítulo hemos mostrado cómo el uso de los marcadores lingüísticos de las pertenencias grupales caracteriza el lenguaje de la desinformación. Con ello queremos plantear la necesidad de un abordaje del problema de la desinformación que ponga en el centro del análisis las manifestaciones del conflicto intergrupal (Korenčić et al., 2024) y las estrategias de creación y mantenimiento de las identidades que lo alimentan (Chen et al., 2023). Estos resultados apuntan que para luchar contra la epidemia de la desinformación son necesarias intervenciones que enfoquen el problema no sólo considerando la verificación de los contenidos, sino también la instrumentalización de estos contenidos en el marco del conflicto intergrupal.

Que el fenómeno de la desinformación corre paralelo al de la polarización política es evidente para cualquier analista del problema. Sin embargo, lo que no está tan estudiado es cómo esa polarización impregna el lenguaje cotidiano en las redes sociales y convierte una visión conflictual de la realidad en una retícula de lectura que se utiliza, especialmente, en los contextos de desinformación. Los resultados del índice ingroup vs. outgroup en las cuentas de Twitter que difundían desinformación y discurso del odio avalan esa hipótesis e ilustran la idea de que esa visión del enfrentamiento entre un nosotros y «los otros» atraviesa todos los posts que realiza un sujeto sin tener en cuenta el contenido de los mismos.

Nuestra sospecha de que el conflicto intergrupal está impregnando la cosmovisión que una parte importante de la población tiene sobre su realidad inmediata ha sido recientemente corroborada por el estudio sobre Desigualdades y Tendencias Sociales realizado por el CIS en junio de 2024. En dicho estudio se incluía una pregunta en la que una muestra representativa de la población española (N=4.006) indicó en qué grado consideraba muy fuertes, fuertes, no muy fuertes o inexistentes, los siguientes conflictos: pobres vs. ricos, clase obrera vs. clase media, parados vs. los que tienen empleo, directivos y empresarios vs. trabajadores, agricultores vs. gente de la ciudad, jóvenes vs. adultos, hombres vs. mujeres, inmigrantes vs. nacidos en España. Un análisis de estos datos del CIS guiado por el interés de saber en qué grado la población española comparte una visión de su entorno en términos de conflicto intergrupal indica que el 62,8% de la población percibe como muy fuertes o fuertes cuatro o más de esos ocho escenarios de conflicto intergrupal, lo que no deja de ser un indicador preocupante.

Ese enfrentamiento entre identidades sociales opuestas es un mecanismo al que recurren las narrativas de la desinformación, como muestra el resultado del índice ingroup vs. outgroup en el análisis de los tuits que difunden teorías de la conspiración sobre la covid-19. Esa estrategia que apela a las identidades grupales en las narrativas desinformadoras no es sorprendente: el estudio de los heurísticos en el procesamiento de la información ha evidenciado en repetidas ocasiones que ese juego con las identidades grupales es tremendamente eficaz en el procesamiento de la información cuando no tenemos tiempo o motivación suficiente para procesar el contenido al que nos exponemos. Cuando ése es el caso, que es la situación más común en las sociedades hipercomplejas en las que habitamos, los sujetos utilizan en el procesamiento de la información lo que Petty y Cacioppo denominaron la ruta periférica en lugar de la ruta central (Petty; Cacciopo, 1986; Petty et al., 2005): en otras palabras, basan su juicio en una serie de heurísticos que nos ayudan a tomar partido rápidamente, en lugar de basarlo en el análisis en profundidad de los contenidos del mensaje. La identificación de la fuente como parte del endogrupo o del exogrupo —como parte ‘de los míos’ o ‘de los otros’— es un heurístico potentísimo en el juicio sobre la credibilidad de una información (Chung; Waheed, 2016; Mondak, 1993). Si la fuente es de nuestro grupo y el conflicto intergrupal se hace saliente, las estrategias orientadas a la verificación del contenido se encontrarán con verdaderas dificultades para ser eficaces.

Nuestros resultados al analizar los contenidos publicados por las cabeceras mainstream o conspiratorias señalan que esa dialéctica de nosotros vs. ellos está organizando también las diferencias entre unas y otras fuentes, no sólo entre textos concretos. El análisis del lenguaje empleado por las cabeceras conspiratorias indica que estarían dedicando su esfuerzo a la construcción de un nosotros, una modalidad de comunicación directamente conectada con lo que Moscovici (1976) denominó propagación: es decir, una modalidad que tiene como principal objetivo enmarcar los acontecimientos de forma que creen cohesión intragrupal. La propagación serviría para preparar los ejércitos de acólitos que puedan ser lanzados en una dirección u otra cuando sean requeridos a través de las redes sociales que promueven episodios de violencia política. Episodios que se han producido en distintas latitudes y con diferentes grados de intensidad (Fokou et al., 2024; Piazza, 2022) y cuyo ejemplo paradigmático es el asalto al Capitolio en la sesión de investidura de Joe Biden como presidente de los EEUU. La tendencia observada entre las cabeceras alternativas a mimetizarse con las cabeceras mainstream cuando el análisis adopta una perspectiva temporal, puede estar facilitando la eficacia de las mismas y el desborde de sus públicos tradicionales: al emular las claves estéticas de los medios mainstream tratarían de traspasar las fronteras grupales y llegar a un público masivo.

Como consideración final, cabe señalar que el papel central del conflicto intergrupal en la extensión de la desinformación debe ser analizado en el marco de un acelerado proceso de mediatización (Strömbäck, 2008) que cada vez se hace más evidente en la interdependencia entre los medios de comunicación existentes, los modos en los que las sociedades se entienden a sí mismas y los procesos de reproducción de las dinámicas sociales. Cuando Moscovici describió las tres modalidades de comunicación a las que nos referíamos al inicio de este capítulo, corrían los años setenta, no existían las redes sociales ni hablábamos de mediatización. Sin embargo, las fronteras grupales y las dinámicas de conflicto intergrupal que su trabajo puso en el centro del análisis tienen hoy un papel más relevante que nunca en ese sistema socio-técnico-cultural que hemos denominado sociedades digitales donde la mediatización tiene lugar.

La participación activa de los sujetos que habitan las sociedades digitales en la distribución de contenidos resignifica el conflicto intergrupal al introducirlo en toda una serie de prácticas de autopresentación y establecimiento de vínculos sociales que se desarrollan en la vida cotidiana en ese entorno mediatizado por la comunicación digital. La propuesta teórica que desde este capítulo realizamos es la necesidad de comprender la desinformación como instrumento privilegiado de esa resignificación del conflicto intergrupal. Una resignificación del conflicto intergrupal que ha desbordado las fronteras de los mensajes en manos de agentes sociales bien identificados, hasta llegar a caracterizar una buena parte de las comunicaciones cotidianas con las que los sujetos individuales del siglo XXI se presentan y se manifiestan en las redes sociales.

 

Agradecimientos

Parte de las investigaciones presentadas fueron realizadas por Berta Chulvi como investigadora postdoc en la Universitat Politècnica de Valencia en el marco del proyecto IBERIFIER (European Commission CEF-TC-2020-2, European Digital Media Observatory 2020-EU-IA-0252) y del proyecto XAI-disinfodemic (Grant PLEC2021-007681 funded by MCIN/AEI/ 10.13039/501100011033 and by European Union NextGenerationEU/PRTR).

 

Referencias bibliográficas

 

Anolli, L.; Zurloni, V.; Riva, G. (2006): «Linguistic intergroup bias in political communication», The Journal of General Psychology, vol.133, núm. 3, pp. 237-255.
Bordieu, P. (1997): Razones prácticas sobre la teoría de la acción. Anagrama Castells, M. (2001): La galaxia internet. Reflexiones sobre internet, empresa y sociedad. Barcelona: Ed. Plaza & Janés.

Chen, A.; Chen, K.; Zhang, J.; Meng, J.; Shen, C. (2023): «When national identity meets conspiracies: the contagion of national identity language in public engagement and discourse about COVID-19 conspiracy theories», Journal of Computer-Mediated Communication, vol. 28, núm. 1, pp. 1-12.

Chulvi, B.; Toselli, A.; Rosso, P. (2022): «Fake News and Hate Speech: Language in Common». In: arXiv:2212.02352 https://arxiv.org/abs/2212.02352

Chulvi, B.; Molpeceres, M.; Rodrigo, M.; Toselli, A.; Rosso, P. (2024): «The politicization of Immigration and Language Use in Political Elites: A Study of Spanish Parliamentary Speeches», Journal of Language and Social Psychology. vol. 43, núm. 2, pp.164-194

Chung, S.; Waheed, M. (2016): ««Biased» Systematic and Heuristic Processing of Politicians’ Messages: Effects of Source Favorability and Political Interest on Attitude Judgment», International Journal of Communication, vol. 10, pp. 2556-2575
Cichocka, A.; Bilewicz, M.; Jost, J.T.; Marrouch, N.; Witkowska, M. (2016): «On the grammar of politics-or why conservatives prefer nouns»,
Political Psychology, vol. 37, núm.6, pp. 799-815.

Fokou, G.; Yamo, A.; Kone, S.; Koffi, A.J.; Davids, Y. (2024): «Xenophobic violence in South Africa, online disinformation and offline consequences», African Identities, vol. 22, núm. 4, pp. 943-962.

Formanowicz, M. (2020): «Verb intergroup bias: Verbs are used more often in reference to in-groups than out-groups», Social Psychological and Personality Science, vol. 11, núm. 6, pp. 854-864.
Graf, S.; Bilewicz, M.; Finell, E.; Geschke, D. (2012): «Nouns cut slices: Effects of linguistic forms on intergroup bias», Journal of Language and Social Psychology, vol. 32, núm. 1, pp. 62-83.
Hameleers, M. (2023): «Disinformation as a context-bound phenomenon: toward a conceptual clarification integrating actors, intentions and techniques of creation and dissemination» Communication Theory, vol. 33, núm.1, pp.1-10.

Jost, J.T.; Sterling, J. (2020): «The language of politics: Ideological differences in congressional communication on social media and the floor of Congress», Social Influence, vol. 15, núm. 2, pp. 80-103.
Karasawa, M.; Maass, A. (2008): «The role of language in the perception of persons and groups», en R. Sorrentino & S. Yamaguchi (Eds.), Handbook of motivation and cognition across cultures (pp. 315-341).
Elsevier.
Kaati, L.; Shrestha, A.; Cohen, K. (2016): «Linguistic analysis of lone offender manifestos», en IEEE International Conference on Cybercrime and Computer Forensic (ICCCF), Vancouver, BC, Canada. https://doi.org/10.1109/ICCCF.2016.7740427.

Kaufman, G.A. (2015): Odium Dicta. Libertad de expresión y protección de grupos discriminados en internet. CONAPRED. México, Disponible en SSRN: https://ssrn.com/abstract=2686171

Keen, A. (2011): The Cult of the Amateur: How Blogs, MySpace, YouTube and the Rest of Today’s User Generated Media are Killing Our Culture. New York: Nicholas Brealey Publishing.

Körner, R.; Overbeck, J.R.; Körner, E.; Schütz, A. (2022): «How the linguistic styles of Donald Trump and Joe Biden reflect different forms of power», Journal of Language and Social Psychology, vol. 41, núm. 6, pp. 631-658.
Korenčić, D.; Chulvi, B.; Bonet, X.; Toselli, A.; Taulé, M.; Rosso, P. (2024): «What distinguishes conspiracy from critical narratives? A computational analysis of oppositional discourse», Expert Systems, 41(11), pp. 1-20.

Langguth, J.; Schroeder, D.T.; Filkuková, P. et al. (2023): «COCO: an annotated Twitter dataset of COVID-19 conspiracy theories », Journal of Computational Social Science. Vol. 6, pp. 443-484.
Miani, A.; Hills, T.; Bangerter, A. (2022): «LOCO: The 88-million-word language of conspiracy corpus», Behavior Research Methods, vol. 54, pp. 1794-1817.

Moffitt, J.D.; King, Catherine; Carley, Katheleen M. (2021): «Hunting conspiracy theories during the COVID-19 pandemic», Social Media Society, vol. 7, núm. 3, pp. 1-17.

Mondak, J.J. (1993): «Public opinion and heuristic processing of source cues», Political Behavior, vol.15, núm. 2, pp. 167-192.
Moscovici, S. (1976).
La psychanalyse: Son image et son public. Presses Universitaires de France.
Mossberger, K.; Tolbert, C.J.; McNeal, R.S. (2008): Digital citizenship: the internet, society, and participation. Cambridge, Mass: MIT Press.

Noelle-Neumann, E. (1995): La espiral del silencio. Opinión pública: nuestra piel social. Barcelona: Paidós. Pennebaker, J.W (2011): The Secret Life of Pronouns. What our words say about us. Bloomsbury Press
.
Pennebaker, J.W.; Chung, C.K. (2008): «Computerized text analysis of Al-Qaeda transcripts», En K. Krippendorff; M. Bock (Eds.) A content analysis reader (pp. 453-465).
Sage.
Pennebaker, J.W.; Chung, C.K. (2012): Language and social dynamics. University of Texas Press
Pennebaker, J.W.; Chung, C.K.; Ireland, M.; Gonzales, A.; Booth, R. (2007):
The development and psychometric properties of LIWC2007. University of Texas

Pertwee, E.; Simas, C.; Larson, H. J. (2022): «An epidemic of uncertainty: rumors, conspiracy theories and vaccine hesitancy», Nature Medicine, vol. 28, núm. 3, pp. 456-459.
ulvi, B.; Fersini, E.; Rosso, P. (2021): «Profiling Hate Speech Spreaders on Twitter Task at PAN 2021» En Faggioli, G.; Ferro, N.; Joly, A.; Maistro, M.; Piroi, F. (eds.) CLEF 2021 Labs and Workshops, Notebook Papers, CEUR-WS.org, vol. 2936, pp. 1772-1789. 
Rivera-Vargas, P. (2018): «Sociedad digital y ciudadanía: un nuevo marco de análisis» en Pablo Ribera-Vargas; Carles Lindín Soriano (ed.) Tecnologías digitales para transformar la sociedad, (pp. 145-154),
Liberlibro.
Rubini, M.; Menegatti, M.; Moscatelli, S. (2014): «The strategic role of language abstraction in achieving symbolic and practical goals», European Review of Social Psychology, vol. 25, núm. 1, pp. 263-313.
Shen, P.; Chen, Y.J.; Tseng, P. (2022): «Relating Credibility to Writing Style, Emotion, and Scope of Spread of Disinformation»,
Journal of Information Warfare, vol. 21, núm. 3, pp.13-25.

Shrestha, A.,; Kaati, L.; Cohen, K. (2020): «Extreme adopters in digital communities»
Journal of Threat Assessment and Management, vol.7, núm.12, pp. 72-84.
Strömbäck, J. (2008): «Four phases of mediatization: An analysis of the mediatization of politics», The international journal of press/politics, vol. 13, núm. 3, pp. 228-246.

Tausczik, Y.R.; Pennebaker, J.W. (2010): «The psychological meaning of words: LIWC and computerized text analysis methods» Journal of Language and Social Psychology, vol. 29, núm. 1, pp. 24-54.
Torregrosa, J.; Thorburn, J.; Lara-Cabrera, R.; Camacho, D.; Trujillo, H.M. (2020). «Linguistic analysis of pro-ISIS users on Twitter»,
Behavioral Sciences of Terrorism and Political Aggression, vol. 12, núm. 3, pp. 171-185.

 

 

Gráfico 1. Evolución del índice endo-emo.

 

Figura 1. Cabecera promovida por Alex Jones (2001-2007).

 

Figura 2. Cabecera promovida por Alex Jones (2023).