Título del Capítulo: «Desinformación e inteligencia artificial en las redes sociales en la Argentina»
Autoría: Ana Slimovich
Cómo citar este Capítulo: Slimovich, A. (2025): «Desinformación e inteligencia artificial en las redes sociales en la Argentina». En Cabrera-Altieri, D.H.; López-García, G.; Campos-Domínguez, E. (coords.), Perturbaciones informativas. Desinformación y mediatización digital. Salamanca: Comunicación Social Ediciones y Publicaciones.
ISBN: 978-84-10176-13-3
d.o.i.: https://doi.org/10.52495/c6.emcs.41.p117
Capítulo 6. Desinformación e inteligencia artificial en las redes sociales en la Argentina
Ana Slimovich
CONICET-Instituto de Investigaciones Gino Germani-UBA
1. Introducción
Con la digitalización el espacio público contemporáneo se ensanchó, dado que se incorporaron a la conversación política actores que no son los históricos militantes; así como se sumaron los fakes, trolls y bots. Además, en los últimos años las investigaciones sobre procesos de desinformación en las redes sociales se han complejizado con la incorporación de la inteligencia artificial.
Los procesos de desinformación política impactan en la democracia porque se manipulan temas en la agenda mediática, se desvían sentidos de las conversaciones políticas digitales y se afecta la credibilidad de líderes políticos y ciudadanía. En los períodos de campaña, los modos de utilización de la inteligencia artificial se profundizan, y al mismo tiempo, las maneras de producir desinformación se han sofisticado con el uso de inteligencia artificial generativa, que es hoy posible de ser utilizada por cualquier usuario. De esta manera, los internautas políticos tienen que sofisticar los modos de revisión sobre lo que circula en el ecosistema mediático.
En este artículo se realizará una indagación de las piezas audiovisuales que utilizan inteligencia artificial y circulan por las redes sociales. Se utilizará, a modo de ilustración de los distintos modos de representación del material audiovisual alterado un análisis del período de campaña electoral 2023 en Argentina. El objetivo es indagar en los modos de mediatización y desinformación de las publicaciones realizadas con inteligencia artificial. La estructura del capítulo es la siguiente: en la sección que se encuentra a continuación se desarrolla el marco teórico de la investigación. Luego, la metodología. Finalmente, se exponen los resultados y las observaciones finales.
La mediatización de la política supone un proceso histórico con diferentes fases. Uno de los referentes de la teoría de la mediatización de la política con base europea, Strömbäck (2008), enumera cuatro etapas del proceso. La primera dimensión hace referencia a cómo los medios se vuelven fuente de información política, al mismo tiempo que se transforman en lazo de relación entre la ciudadanía y las instituciones políticas. En resumen, se focaliza en el rol de intermediarios de los medios tradicionales: los medios median «entre la ciudadanía, por un lado, y las instituciones involucradas en el gobierno, las elecciones y la formación de opinión, por otro» [traducción propia] (Esser, 2013: 157). La segunda fase está vinculada a la independencia que obtienen los medios de las instituciones políticas. Se genera, a la vez, la profesionalización del periodismo.
La tercera fase está relacionada con el grado en que el contenido de los medios es gobernado por la lógica mediática o por la política. Se enfatiza en que la independencia de los medios aumentó con respecto a la segunda fase. Los medios son de una importancia tal que «ningún actor social que requiera la interacción con el público o ejercer influencia en la opinión pública puede ignorar a los medios o asumir el costo de no adaptarse a la lógica mediática» [traducción propia] (Strömbäck, 2008: 238). En resumen, los líderes políticos, sus discursos y sus actos se adaptan a la lógica mediática: a los criterios de noticiabilidad y a los géneros del discurso periodístico.
La cuarta fase se focaliza en el grado en que los actores políticos son gobernados por la lógica mediática o por la política. «Los políticos y otros actores sociales no sólo se adaptan a la lógica mediática… sino que la internalizaron» [traducción propia] (Hjarvard, ٢٠١٤: 239, cursivas añadidas). Esto supone que las reglas y convenciones mediáticas pasan a formar parte de los acontecimientos políticos, incluso del desarrollo de las ideas. Ese proceso de absorción de los hábitos y convenciones mediáticos lleva a la acción: por ejemplo, la organización de eventos mediáticos para conseguir repercusión. Estas cuatro dimensiones no constituyen un proceso lineal, sino que se dan en diferentes velocidades y grados en los diferentes países y también con divergencias según los tipos de actores/fuerzas políticas y mediáticas/instituciones.
En la actualidad estamos atravesando un momento en la era de la mediatización de lo político que supone una digitalización de la política e implica una conjunción de lógicas mediáticas, lúdicas, ficcionales, políticas y de redes sociales (Slimovich, 2022). Dado que como se ha mencionado, cada sociedad, momento y cada evento genera efectos mediáticos particulares, se vuelve necesario reflexionar sobre los efectos de la mediatización en el proceso actual de desinformación política con la circulación de las operaciones que utilizan inteligencia artificial.
Con la digitalización de la política en las redes sociales, los medios y actores políticos han dejado de tener la capacidad de incidir en la agenda mediática como lo hacían antes, y han perdido parte de la capacidad de imponer sentidos en la conversación pública. Asimismo, con la crisis sanitaria generada por el brote de coronavirus y las múltiples restricciones a la circulación, se redefinieron los modos de los usuarios de vincularse con la información y de procesar la desinformación. De este modo, se ha generado en los últimos años una desconexión informativa que implica el surgimiento de dos grupos de usuarios, uno indiferente y crítico y otro especialmente preocupado (Magallón Rosa, 2022). Este proceso se ha profundizado con la inteligencia artificial generativa.
En definitiva, el proceso de mediatización de la política se ha profundizado en las últimas décadas (Verón, 2013; Hepp, 2020), se ha redimensionado con la pandemia por covid-19 y ha tenido un nuevo vuelco con la utilización de los usuarios comunes de la inteligencia artificial. La difusión de informaciones falsas se ha transformado en un problema importante de la contemporaneidad mediática, que pone en duda la legitimidad de la comunicación política audiovisual y de operaciones históricas de mediatización de la política (Slimovich, 2024).
Asimismo, se detecta que la mayoría de los usuarios de las redes sociales no posee ni capacidades ni voluntad para identificar videos políticos falsos (Shahid et al., 2022). Por esta razón, el uso de la inteligencia artificial generativa implica un desafío para los usuarios en relación con la distinción entre lo real y lo ficticio (Ballesteros Aguayo; Ruiz del Olmo, 2024).
La desinformación política circula rápidamente por las redes sociales, donde puede impactar a millones de usuarios (Figueira; Oliveira, 2017; Calvo; Aruguete, 2020). No es solamente «información falsa» sino también supone «la elaboración de información manipulada que se combina con hechos o prácticas que van mucho más allá de cualquier cosa que se parezca a noticias, como cuentas automáticas (bots), videos modificados o publicidad en-cubierta y dirigida» (Levi, 2019: 24).
Con un afán clasificatorio, Wardle (2017) y Levy (2019) distinguen distintos tipos de «fallos informativos»:
En 2020, la proliferación de noticias falsas, de operaciones de manipulación en las redes sociales, la sobreabundancia de mensajes informativos, la mixtura entre fuentes oficiales y no oficiales, generó el alerta de la Organización Mundial de la Salud sobre una «infodemia» superpuesta al brote de coronavirus: «una sobreabundancia de información —alguna exacta y otra no— que hace difícil que la gente encuentre fuentes dignas de crédito y fiables» (Organización Mundial de la Salud, 23 de septiembre de 2020). En efecto, el proceso de desinformación política implica distintos tipos de operaciones, como «la broma, la exageración, la descontextualización y el engaño» (Salaverría et al., 2020).
El uso de la inteligencia artificial a través de las redes sociales ha producido un impacto mediático y social. En efecto, la inteligencia artificial tiene cuatro áreas de impacto: la individual, las condiciones de autogobierno; a nivel grupal, la igualdad de derechos entre diferentes segmentos; a nivel institucional, impacta en la percepción de las elecciones como un mecanismo justo para canalizar los conflictos políticos; y a nivel de sistemas, influye en la competencia entre sistemas de gobierno democráticos y autocráticos (Brkan, 2019). Asimismo, la inteligencia artificial puede corromper la confianza en lo institucional «si no se garantiza la transparencia y la rendición de cuentas en su desarrollo y aplicación» (Lau Noriega, 2024: 129).
Al mismo tiempo, desde hace 10 años hay un aumento en la utilización de videos en las redes sociales y que, además, los más jóvenes priorizan el consumo de noticias bajo esta modalidad por sobre el texto (Ballesteros Aguayo; Ruiz del Olmo, 2024). A esto se suma que, el uso de deepfakes, aunque apareció en 2017 (García Ull, 2021), ha experimentado un notable crecimiento gracias al avance de la inteligencia artificial generativa. Se trata de un «video hiperrealista manipulado digitalmente para representar a personas que dicen o hacen cosas que en realidad nunca sucedieron» (García-Ull, 2021: 103). De esta manera, los discursos audiovisuales que circulan en las redes sociales cobran relevancia. En efecto, la dificultad de la ciudadanía para detectar estas falsificaciones realistas de acciones y discursos políticos vuelve relevante indagar en estos modos de producir desinformación política en formato audiovisual.
La metodología de la investigación es a partir de un análisis sociosemiótico, y desde las teorías de la mediatización de la política, de las piezas publicadas en las redes sociales que implican utilización de la inteligencia artificial y que contienen como motivos temáticos (Segre, 1985) la política. La indagación se centra en el período de la campaña electoral de 2023 —julio a noviembre— en Argentina, puesto que los períodos electorales son especialmente propicios para el desarrollo de la comunicación política digital.
El análisis se enfoca en los modos de mediatización, los fallos informativos involucrados, los tipos de desórdenes informativos, y los tipos de operaciones de desinformación política que suponen.
Para el análisis, se entiende las publicaciones en las redes sociales como discursos: «configuraciones espaciotemporales de sentido» (Verón, 1987: 127), los cuales tienen un anclaje social y están sujetos a limitaciones tanto en su producción como en su interpretación. Se eligieron casos de utilización de inteligencia artificial vinculados al discurso político con el fin de reconstruir la trama de sentido de la campaña política, ya que, desde el enfoque sociosemiótico, «el sistema productivo deja huellas en los productos y que el primero puede ser (fragmentariamente) reconstruido a partir de la manipulación de los segundos» (Verón, 1987: 124).
El corpus está compuesto por discursos audiovisuales que involucran el uso de inteligencia artificial y que fueron difundidas en las redes sociales, entre julio y noviembre de 2023. En particular, se investigaron casos de publicaciones manipuladas que tenían como objetivo un candidato/a presidencial y que fueron compartidas y viralizadas en estas redes sociales. Para el análisis, se seleccionaron piezas que estaban asociadas temáticamente (Segre, 1985) a la campaña presidencial.
Se hallaron diferencias al interior de los discursos audiovisuales que utilizan inteligencia artificial y generan operaciones de mediatización de la política. Se identificaron dos grupos. Por un lado, los que generan procesos de desinformación política porque se proponen como verosímiles. Son deepfakes. Por otro lado, hay videos que renuncian a la verosimilitud y, por lo tanto, no suponen operaciones de desinformación política. A continuación, se desarrollarán los dos grupos y las diferencias al interior de cada uno. Para poder visualizar cómo operan estos videos con inteligencia artificial se brindará en cada caso un ejemplo de la campaña electoral argentina de 2023.
En primer lugar, al interior del primer grupo, hay operaciones de desinformación, disinformation, que implican contenido político fabricado que genera efectos de sentido por el momento de su difusión y viralización, así como por los actores que son protagonistas. Estas operaciones se caracterizan por anclarse en un video-fuente. Son «operaciones de desinformación imitadoras de la política». Se materializan a través de dos formas. En primer lugar, generan una operación de mediatización, de emulación del discurso político (Slimovich, 2022). Es decir, imitan los géneros históricos de mediatización de la política en redes sociales, y así adquieren verosimilitud. En segundo lugar, utilizan operaciones que implican la manipulación de una sola materia significante: audio, imagen, trazado gráfico, texto lingüístico, etiqueta, etc. De este modo, una materia significante es manipulada y la otra se mantiene idéntica al video-fuente.
Es el caso de la difusión de un material audiovisual falso en TikTok de la precandidata presidencial argentina, Patricia Bullrich, en julio de 2023, en el marco del período previo a las elecciones primarias de 2023 en Argentina. Este video poseía el audio modificado; no obstante, las imágenes formaban parte de un material reproducido por un líder del partido días atrás. Es decir, las imágenes utilizadas en el fallo informativo audiovisual eran las originales. En efecto, Ivo Foguet Passer, secretario de la organización política Juventud PRO, publicó en varias redes sociales un video en el que ella aparecía con el mismo grupo de personas en una actividad, pero cantando otra canción. El material audiovisual falso sugería erróneamente que Bullrich había insultado a los habitantes de la provincia de Buenos Aires, y le adjudicaba dichos que no eran los que se habían expresado en esa actividad político-mediática.
Es importante señalar que tanto la propagación del material original como la de su versión modificada por las redes sociales generaron controversia. Por un lado, el video-fuente, parte de una campaña negativa, mostraba a la exministra de Seguridad de Mauricio Macri, Patricia Bullrich, cantando «una Argentina en la que estemos todos menos Cristina», en referencia a la expresidenta y vicepresidenta, Cristina Fernández de Kirchner, quien había sufrido el año anterior un intento de magnicidio en la calle. En este sentido, uno de los enfoques predominantes entre los internautas políticos que reaccionaban al video fue cuestionar este tipo de cántico, por considerar que fomentaba la violencia política. Se sumaron a la crítica los internautas seguidores kirchneristas e influencers políticos adherentes a la vicepresidenta.
Por otro lado, el video modificado mediante inteligencia artificial mostraba a las mismas personas haciendo comentarios despectivos hacia un sector de los argentinos —los bonaerenses— con frases como: «somos los pituquitos de Recoleta, somos los de Patricia y de Larreta, somos muy diferentes las provincias, somos de clase alta y de gente linda» (ver figura 1). Este contenido fue compartido como si fuera auténtico por muchos internautas, dada la similitud con el original. Dos elementos hicieron que el video pareciera real: en primer lugar, la letra hacía referencia a una frase pronunciada por Martín Llaryora, el gobernador electo de Córdoba, quien había denunciado la influencia de «los pituquitos de Recoleta» en su región. Es decir, el hecho de que la frase había sido pronunciada por un actor político le dio verosimilitud al video manipulado y creado para desinformar. Además, otro factor que influyó fue que el video original ya poseía una frase que corría los límites de lo decible en la política, puesto que apostaba por «eliminar» simbólicamente a una figura política.
En segundo lugar, hay operaciones de desinformación, disinformation, con inteligencia artificial que simulan ser contenidos de la vida privada del político y apelan a afectar su legitimidad. Son «operaciones de desinformación imitadoras del rumor», y alteran múltiples materias significantes. Se montan en memes, parodias y deepfakes anteriores. En este sentido, no adoptan la forma del discurso político digital —ni tampoco del informativo —puesto que se anclan en la prueba extratécnica (Barthes, 1985) del rumor.
Por ejemplo, la difusión de un video falso sobre el candidato presidencial Sergio Massa en noviembre de 2023, antes del ballotage que lo enfrentó con Javier Milei. Se trató de un deepfake que muestra al líder peronista en una posición en la que parecía estar consumiendo cocaína. En este caso se reemplazó con inteligencia artificial generativa a una persona desconocida que se encontraba en esa situación con la figura de Massa. El video muestra a quien en ese momento era ministro de economía consumiendo una sustancia blanca, que pareciera ser cocaína (figura 2).
El video se vuelve verosímil para los «internautas opositores» (Slimovich, 2022) porque se apoya en el rumor de que el líder peronista estaba afectado por el consumo de cocaína. Desde el comienzo de la campaña electoral habían circulado videos alterados que mostraban a Massa en posiciones y actitudes raras; y así lo asociaban a alguien afectado por el consumo. En otras palabras, el material falseado difundido se basó en montajes e interpretaciones del pasado —estos le dieron verosimilitud— que habían generado que los «internautas militantes» intentaran ya desmentir ese decir sobre Massa, sin éxito, y así se amplificó la versión.
Se modificaron múltiples materias significantes puesto que, además de la alteración en la imagen, se le hacía pronunciar al candidato una frase en relación con el consumo, que en realidad nunca fue dicha por él en ningún video. En este sentido, se trató de un discurso político digital basado en un «fallo informativo» que mezcla «contenido fabricado» y «contenido manipulado» (Levi, 2019).
En un segundo nivel, se observan publicaciones realizadas con inteligencia artificial que, si bien contienen motivos temáticos vinculados a la política, y generan procesos de descontextualización —porque son mediatizaciones—; no obstante, renuncian a parecer verosímiles y, por consiguiente, no constituyen operaciones de desinformación política (ni tampoco información errónea ni mala información). En este caso también distinguimos dos tipos.
En primer lugar, hay videos que apelan a producir emociones negativas en los internautas políticos, como la tristeza, el miedo, la angustia hacia el presente o hacia el futuro en relación con un líder. Aparecen actores políticos en situaciones que no son creíbles por el tipo de contexto de la representación o por el momento de su difusión. Hay operaciones figurales de sentido marcadas, como la exageración y la metonimia. Por esta razón, a diferencia de los deepfakes, no son hiperrealistas. Son discursos que contienen un fuerte carácter «meta». Es decir, que se vuelven sobre sí mismos y la orientación del mensaje se encuentra en ese propio centramiento.
Es el caso del video generado por inteligencia artificial y publicado por @iaporlapatria, una cuenta de Instagram armada, durante la campaña electoral argentina, por seguidores de Massa y realizada íntegramente con inteligencia artificial. El video muestra al candidato presidencial Javier Milei, a su aliada política frente al ballotage, Patricia Bullrich, y al expresidente Mauricio Macri, vestidos como si fueran pacientes en un centro de salud mental y se encontrarán con sus facultades alteradas. En efecto, se encuentra recreando la escena de la película La Naranja Mecánica (véase la figura 3). Se reponen motivos temáticos que vinculan la presidencia de Milei con un futuro distópico atravesado por la locura. No obstante, hay varios factores que distancian a este tipo de videos de los deepfakes y de la desinformación. En primer lugar, la imagen posee una edición visible, es decir, la manipulación y el reemplazo de rostros y partes del cuerpo es visible para los internautas visualizadores del video. En segundo lugar, hay un texto lingüístico sobreimpreso al material audiovisual que afirma: «la locura de Milei no es graciosa». De esta manera, de modo indirecto se afirma que no se trata de un video verídico sino de una apuesta a la toma de conciencia por parte de los votantes del líder libertario. En tercer lugar, los actores políticos se encuentran insertos en un contexto ficcional (el de una película). En definitiva, este tipo de videos contiene operaciones de mediatización con inteligencia artificial que apuntan a producir micro-argumentaciones emocionales, y con ello convencer a los internautas políticos.
En segundo lugar, hay publicaciones que apelan a generar micro-argumentaciones racionales. Es decir, hay operaciones de sentido figurales que funcionan como micro-prueba del razonamiento. Se visualizan actores políticos y motivos temáticos vinculados al mundo de la política; no obstante, no son creíbles porque están en un marco lúdico y/o de ficcionalización.
Es el caso del video, realizado con inteligencia artificial, también publicado por la cuenta @iaporlapatria, en el cual se visualiza a Massa avanzando en el medio de una batalla, a contramano de los soldados, inmerso entre el humo, las explosiones y los enfrentamientos, sin detener la marcha. El material audiovisual es la representación de un fragmento de la película «Soldados en una guerra», en la cual se reemplazó una figura por otra. De esta manera, a través de una operación de sentido figural de comparación, se apela a identificar al candidato y ministro de economía de ese momento como una persona capaz de seguir adelante por el país ante las adversidades. A pesar de que se trata de un escenario ficcional, las micro-argumentaciones son pruebas de las capacidades de gestión del candidato, puesto que se figuran en el fragmento representado características como la perseverancia, la determinación y el ingenio en el líder político. De esta manera, la metáfora brinda una ilustración del futuro del país con él como presidente, y el video constituye una micro-argumentación racional. Se evidencia que se trata de un video alterado, puesto que el escenario en el que aparece el candidato es ficcional; y asimismo se hace visible que se trata de un reemplazo del cuerpo del protagonista por el del candidato, incluso para los internautas políticos que no conocen la película a la que hace referencia el video (véase la figura 4).
El análisis de las piezas audiovisuales digitales alteradas con inteligencia artificial en períodos de campaña evidencia la complejidad de los tipos de operaciones de mediatización política involucradas y los diferentes modos de la desinformación política digital. Por un lado, dentro de los deepfakes, se ha detectado el uso de la inteligencia artificial para generar videos que emulan a los géneros históricos de la mediatización de la política, como los actos de campaña, y así parecen verdaderos. Estos videos toman la forma del discurso político digital. Asimismo, la sofisticación de los materiales audiovisuales operados con inteligencia artificial, y la inserción en momentos político-electorales, los vuelve grandes constructores de relatos falsos pero verosímiles, en coincidencia con lo detectado por Ballesteros Aguayo y Ruiz del Olmo (2024).
Por otro lado, otros deepfakes adquieren su carácter realista porque se montan sobre pruebas extratécnicas (Barthes, 1985), como los rumores. Por consiguiente, desinforman puesto que se aprovecha de verosímiles que ya están instalados en ese momento político y los amplifican. Es decir, este tipo de operaciones rellenan de sentidos falsos las brechas informativas ya existentes (Gómez-de-Ágreda; Feijóo; Salazar-García, 2021).
En el segundo nivel, se registraron discursos audiovisuales que utilizaron inteligencia artificial pero que no supusieron operaciones ni de desinformación, ni de malinformación, ni de información errónea (Wardle; Derakhshan, 2017). Son vídeos alterados y falsos, pero su inserción en contextos ficcionales o inverosímiles facilita la distinción de lo verdadero y lo falso. Son utilizados para convencer a los internautas políticos y pueden apelar a micro-argumentaciones racionales o emocionales (Slimovich, 2024).
Con relación a las lógicas de la mediatización de la política puestas en juego, se evidenció que las publicaciones que implican operaciones de desinformación política —operaciones de imitación del discurso político y las de imitación del rumor, se centraron en lógicas de lo mediático, de lo político y de lo digital que apoyan la verosimilitud del video. Es decir, el material audiovisual combina reglas y convenciones del mundo de lo mediático, del mundo de la política (como los géneros) y de las redes sociales (como los formatos breves), y así se vuelve difícil diferenciar lo verdadero de lo falso, en línea con los estudios de Shahid et al. (2022). Por el contrario, los videos que no fueron fuentes de desinformación se centraron principalmente en lógicas ficcionales y lúdicas; y en un segundo nivel aparecieron las políticas, mediáticas y digitales, facilitando la distinción entre lo real y lo inventado.
En relación con las fases de la mediatización de la política, los deepfakes se insertan en la cuarta fase de la mediatización de la política (Strömbäck, 2008), que implica la interiorización de las convenciones de lo mediático y su aplicación en lo político a tal punto que el armado del propio discurso audiovisual es elaborado bajo esa estructura. A la inversa, en el caso de los videos elaborados con inteligencia artificial que no desinforman, se adaptan a la lógica mediática (por ejemplo, utilizando contextos de una película), pero no hay fusión completa de esas lógicas con la política, y por esta razón se puede distinguir que es falso.
Por último, en cuanto a los fallos informativos (Wardle, 2017; Levy, 2019) los deepfakes implican contenido manipulado y contenido inventado. No obstante, las publicaciones con inteligencia artificial que no implican operaciones de desinformación política también tenían contenido inventado y manipulado, mostrando la complejidad de las clasificaciones en el ecosistema contemporáneo.
Ballesteros Aguayo, Lucia; Ruiz del Olmo, Francisco Javier (2024): «Vídeos falsos y desinformación ante la IA: el deepfakecomo vehículo de la posverdad», Revista de Ciencias de la Comunicación e Información, 29, 1-14. https://doi.org/10.35742/rcci.2024.29.e294
Salaverría, Ramón; Buslón, Nataly; López-Pan, Fernando; León, Bienvenido; López-Goñi, Ignacio; Erviti, María del Carmen (٢٠٢٠): «Desinformación en tiempos de pandemia: tipología de los bulos sobre la Covid-١٩», Profesional de la información, 29(3). https://doi.org/10.3145/epi.2020.may.15
Strömbäck, Jesper (2008): «Four Phases of mediatization: An Analysis of the Mediatization of Politics», International Journal of Press/Politics, 13 (3), pp. 228-246.
Wardle, Claire; Derakhshan, Hossein (2017): Information disorder: Toward an interdisciplinary framework for research and policy making.Council of Europe Report 1-108
6.
Figura 1. Deepfake con «operación de desinformación imitadora de la política».
Fuente: cuenta de X de @diegowainstein publicado el 27 de julio de 2023.
Figura 2. Deepfake con «operación de desinformación imitadora del rumor».
Fuente: cuenta de X de @00Cprogresismo el 8 de noviembre de 2023.
Figura 3. Publicación con inteligencia artificial con micro-argumentaciones emocionales.
Fuente: 1 de noviembre de 2023. https://www.instagram.com/reel/CzHFDv9Oy10/?utm_source=ig_web_copy_link
Figura 4. Publicación con inteligencia artificial con micro-argumentaciones racionales.
Fuente: 28 de octubre de 2023. https://www.instagram.com/reel/Cy9m_-fuXPv/?utm_source=ig_web_copy_link