.

Periodismo e inteligencia artificial. Aplicaciones y desafíos profesionales (2024)

 

 

Título del Capítulo: «Aplicación y principios éticos de la inteligencia artificial en medios audiovisuales: el caso de Sky News»

Autoría: Marcos Mayo Cubero

Cómo citar este Capítulo: Mayo Cubero, M. (2024): «Aplicación y principios éticos de la inteligencia artificial en medios audiovisuales: el caso de Sky News». En Parrat Fernández, S.; Mayoral Sánchez, J.; Chaparro Domínguez, M.Á. (eds.), Periodismo e inteligencia artificial. Aplicaciones y desafíos profesionales. Salamanca: Comunicación Social Ediciones y Publicaciones.
ISBN: 978-84-10176-02-7

d.o.i.: https://doi.org/10.52495/c6.emcs.25.p108

 

 

Capítulo 6. Aplicación y principios éticos de la inteligencia artificial en medios audiovisuales: el caso de Sky News

 

 

Marcos Mayo Cubero

Universidad Complutense de Madrid

1. Introducción

Este capítulo pretende ayudar a entender cómo se está aplicando la inteligencia artificial (IA) en las redacciones de las cadenas de televisión. Para ello, explora las oportunidades y los riesgos en la convergencia entre la IA y el periodismo audiovisual. La primera parte del capítulo aborda un estudio de caso que analiza la integración de la IA en Sky News. La cadena británica, una de las marcas informativas con mejor reputación global, ha desarrollado un experimento con la creación de una reportera basada en IA generativa utilizando ChatGPT. El objetivo es explorar hasta qué punto puede elaborar contenido periodístico con estándares profesionales. Dotada con la apariencia y voz de una productora real, la reportera de IA es capaz de generar contenido informativo escrito y visual con razonable precisión, aunque también se han identificado desafíos éticos importantes como la presencia de «alucinaciones» en algunas de sus piezas informativas. La segunda parte del capítulo explora precisamente los desafíos éticos a los que se enfrenta la aplicación de la IA en las redacciones informativas. Mediante el análisis de códigos éticos, se examinan los principios adoptados por diferentes organizaciones de noticias en tres dimensiones: supervisión humana, transparencia y responsabilidad. Los códigos coinciden en resaltar la importancia de volver a los fundamentos periodísticos en la utilización de las herramientas de IA. Asimismo, se recomienda entender el funcionamiento, la regulación y las potenciales consecuencias negativas como la amplificación de sesgos. El capítulo finaliza con una discusión y una conclusión para periodistas y medios que buscan navegar éticamente en la era de la IA.

2. Estudio de caso: IA en Sky News

Este estudio de caso pretende explorar algunas de las preguntas fundacionales que el matemático británico Alan Turing (1950) planteó a mediados del siglo XX: ¿pueden pensar las máquinas?, ¿puede una máquina ser lingüísticamente indistinguible de un humano? La aproximación a esas respuestas se realiza desde el periodismo audiovisual. Por eso, se ha seleccionado como estudio de caso el experimento desarrollado por Sky News, una de las marcas informativas con mejor reputación y reconocida globalmente por su apuesta en la vanguardia de la innovación tecnológica (Adami, 2023). El encargado de liderar el proyecto fue Tom Clarke, periodista especializado en ciencia y tecnología de la cadena británica. Como se observa en el tuit que posteó la cadena, Clarke y su equipo buscaban responder a la pregunta adaptada de Turing: ¿puede la IA reemplazar a los periodistas? (Figura 1).

El primer paso para crear a la reportera de IA era generar su cara y su voz. El equipo decidió entonces sumar al proyecto a la productora de Sky News, Hanna Schnitzer, cuyo trabajo habitual suele estar detrás de las cámaras (Figura 2). Después de recibir algunos consejos de presentación, Schnitzer se puso frente a la cámara delante de un croma (una pantalla verde habitualmente usada en la industria para añadir fondos virtuales). La productora real presentó algunas piezas informativas del archivo de la cadena simulando hacer conexiones en directo. Cuatro minutos de grabación fueron suficientes para tener el material necesario para clonar su cara y su voz y generar con ellas a la nueva reportera de IA. Aquí surgió un primer desafío técnico, ya que en la cadena de televisión carecían del conocimiento experto para llevar a cabo esta sofisticada tarea. En este punto, el equipo liderado por Clarke decidió seguir una estrategia habitual en los proyectos de IA y buscar la cooperación de un experto en el campo. Para ello contactaron con una empresa de reciente creación llamada HeyGen (2023). La compañía tecnológica está especializada en la creación de clones virtuales. Tras unos días de trabajo con los cuatro minutos de grabación, HeyGen proporcionó a Sky News una herramienta de edición que permitía a la nueva reportera de IA locutar cualquier material con tan sólo teclear el texto.

El segundo gran desafío fue crear un «cerebro» para la nueva reportera de IA. Clarke decidió trabajar con el líder entre los modelos de lenguaje, ChatGPT. Desarrollado por la compañía OpenAI, es un modelo con más de 175 millones de parámetros que realiza múltiples tareas relacionadas con el lenguaje. Su ventaja competitiva respecto a otros modelos es que posee una API pública y disponible para que los programadores puedan usarla en sus proyectos personales. Para programar el chatbot cooperaron con otro experto programador, el ingeniero noruego Kristian Fagerlie. Además de poseer una sólida trayectoria trabajando específicamente con ChatGPT, Fagerlie es un popular youtuber que difunde contenido didáctico sobre IA generativa (Fagerlie, 2023). La idea era aprovechar el adiestramiento en procesamiento del lenguaje de ChatGPT para generar la ilusión de que la reportera podía pensar. Esto no deja de ser una simulación porque lo que realmente hace el modelo es localizar la mejor respuesta posible a cualquier pregunta basándose en su entrenamiento (Clarke, 2023).

2.1. Reportera y editor de IA

El experimento se preguntaba si la reportera de IA podía pensar temas y enfoques, documentarse, redactar y elaborar piezas para Sky News igual que los periodistas de carne y hueso. Como ChatGPT sólo responde a preguntas planteadas en formato texto, la primera recomendación del ingeniero noruego fue crear dos agentes para que se relacionaran mutuamente. Un agente sería la reportera de IA y el segundo sería su editor. De esta manera se replica la rutina de trabajo real en una redacción televisiva en la que el reportero/a piensa un tema y un enfoque, lo «vende» a su editor/a; después, se documenta y finalmente elabora su pieza periodística. Fagerlie también creó un programa que solicitaba las últimas noticias a Google, YouTube y Sky News para que la reportera de IA tuviera conocimiento de la actualidad informativa (2023).

En el experimento, la reportera de IA debía presentar a su editor de IA ocho titulares basados en temas y enfoques de noticias reales de actualidad. Tras un debate, similar al que se produce en una reunión real de escaleta en una cadena de TV, el editor de IA debía escoger uno de los temas por sus valores noticiosos. Finalmente, le encargaría a la reportera de IA la elaboración de dos contenidos informativos: un artículo de 300 palabras y una pieza audiovisual locutada de 90 segundos.

Tras aproximadamente 20 minutos de trabajo de software, la reportera de IA generó ocho temas y enfoques que resultaron bastante razonables (Sky News, 2023b). Inventó enfoques, eligió datos rigurosos y seleccionó expertos para entrevistar. Los temas elegidos fueron desde política y economía hasta el descubrimiento de un juguete sexual romano en Northumberland. Un ejemplo de las ocho propuestas fue el siguiente titular: «Soluciones de vivienda asequibles en medio del aumento de las tasas hipotecarias: navegando por el mercado de la vivienda». Una cosa que inmediatamente llamó la atención del equipo fue que ambos agentes eran tremendamente educados. Esta fue una de las conversaciones en ChatGPT entre la reportera y el editor de IA: «Todas tus ideas son convincentes, reportera de IA». «Tienes razón, editor de IA. Hacer que la historia sea más oportuna sin duda agregará más relevancia e interés para nuestros espectadores», respondió con extrema educación la reportera virtual (Sky News, 2023b).

2.1.1. Información falsa y alucinaciones

El problema grave emergió con uno de los ocho temas de la reportera de IA ya que contenía información falsa y resultaba francamente extraño. Este era el titular: «De la risa a la solución ecológica: ¿derramar leche podría ser la clave para carreteras más seguras?» El equipo se preguntó de dónde habría sacado la reportera de IA esta peculiar propuesta. Clarke se puso a investigar y encontró cierta lógica. El día anterior un accidente en una autopista británica había provocado que un camión cisterna derramara toda su carga de 20.000 litros de leche. Esa era la noticia real que la reportera de IA había utilizado para diseñar su extraña propuesta.

Clarke concluyó que había cuestiones éticas relacionadas muy graves. La reportera de IA había cometido varios errores con información falsa y evidencia fabricada. Este fenómeno es conocido en el campo de la IA generativa como alucinación. Se produce cuando la IA genera información falsa, sin rigor y sin sentido. Ocurre porque la máquina no tiene una verdadera comprensión de los datos de los que se ha alimentado (Journalism AI, 2023). En su texto, la reportera de IA afirmaba que los científicos habían descubierto que la leche derramada hacía que las carreteras fueran más seguras para los conductores y más sostenibles para el medio ambiente: «Los investigadores notaron que las proteínas de la leche reaccionaron con la grava y la suciedad creando un residuo pegajoso que mejoró la tracción de la carretera», escribió (Clarke, 2023). En su debate con el editor de IA en ChatGPT, la reportera de IA defendió su postura con confianza y convicción aportando explicaciones verosímiles, pero radicalmente falsas (Sky News, 2023). Asimismo, inventó una cita ficticia de una inexistente científica ambiental, la Dra. Emma Thompson: «La leche es biodegradable y cuando se descompone nutre los ecosistemas locales ya que proporciona nutrientes esenciales» (Clarke, 2023).

En cuanto al estilo, estimamos que ni las dos personas que fueron llevadas al hospital a causa del accidente ni sus familias encontrarían adecuado un titular que incluía la expresión «de la risa». La supervisión humana del contenido generado por IA evitó que esta noticia con información falsa y evidencia fabricada siguiera adelante en el proceso editorial. Rechazada la propuesta, el editor de IA decidió que la reportera trabajara en una noticia sobre un tema de actualidad: el impacto de las olas de calor en la salud pública. Después de un debate para mejorar la narrativa audiovisual, la reportera de IA identificó expertos y redactó algunos correos electrónicos con peticiones de entrevistas. Los cuestionarios fueron enviados por un miembro real de Sky News.

La reportera de IA elaboró el artículo de 300 palabras y la pieza audiovisual de 90 segundos con una redacción clara, ágil y concisa. El enfoque se centraba en la presión que esas condiciones climáticas extremas ejercen sobre los servicios públicos sanitarios. También incluyó citas coherentes de los entrevistados e hizo sugerencias sobre la edición técnica de las imágenes (Sky News, 2023b). En cuanto a la cara y la voz clonadas, los resultados fueron razonablemente buenos. En ocasiones, hubo que rehacer los clips, ya que el acento de la reportera de IA sonaba a veces demasiado irlandés y otras, demasiado americano (Clarke, 2023).

Clarke y su equipo concluyeron que los datos fundamentales de los dos contenidos informativos eran veraces y rigurosos (Sky News, 2023b). Con excepción de las alucinaciones, la mayoría de sus propuestas eran razonables y no había apariencia de sesgos (Clarke, 2023). La habilidad en la que más destacó fue la elaboración de la pieza audiovisual, donde demostró una notable capacidad para escribir frases cortas, concisas y con ritmo (Sky News, 2023).

2.1.2. Rigor y ética periodística

La pregunta fundamental con la que arrancábamos el capítulo era si la IA podría reemplazar a los periodistas en un futuro cercano. A pesar de los avances en la IA generativa, se concluye que la creatividad y la rigurosidad de los periodistas humanos siguen siendo insustituibles (Clarke, 2023). Aunque las noticias de la reportera de IA no eran erróneas, estaban lejos de la creatividad y originalidad que se les exige a los periodistas de un medio de comunicación. Los temas y enfoques propuestos eran tópicos y poco novedosos. Sin embargo, sí se demostró el potencial de la IA para mejorar la práctica periodística añadiendo eficiencia a tareas repetitivas y no especializadas (Sky News, 2023).

En esta línea se ha expresado también uno de los expertos globales más reputados. El profesor Charlie Beckett dirige el proyecto de investigación JournalismAI en la London School of Economics (LSE). Según Beckett (2023), la tecnología tiene el potencial de hacer que los periodistas sean más eficientes y puedan dedicar más tiempo a la investigación y a la elaboración. Asimismo, considera que la curiosidad más que la creatividad es algo con lo que las máquinas tienen problemas. Clarke (2023) opina que con más tiempo y un equipo especializado sería posible perfeccionar aún más las habilidades de la reportera de IA.

2.2. IA generativa en medios audiovisuales

Aunque el caso de Sky News puede parecer uno de los más llamativos, no es ni mucho menos el único. La IA es ya una parte importante del periodismo, pero su distribución es desigual. Una de las principales ideas erróneas en los medios es que la inversión necesaria es excesiva, que requiere demasiados conocimientos especializados o es demasiado arriesgada para que la utilicen las redacciones pequeñas o los reporteros freelance (Journalism AI, 2023). LSE ha recogido experiencias interesantes con IA en una base de datos global. Resulta muy difícil seguir el ritmo imparable de las nuevas tecnologías que están surgiendo, por lo que un contenedor de excelentes herramientas de IA específico de periodistas audiovisuales se encuentra en Journalists Toolbox AI (2023).

Sin ánimo de ser exhaustivos, algunos ejemplos de este uso de herramientas serían Otter.ai y Colibri.ai para la transcripción de vídeo/audio a texto. Hace cinco años, Associated Press (AP) comenzó también a utilizar el servicio de transcripción de audio y vídeo impulsado por Trint para acelerar sus flujos de trabajo. El objetivo de la agencia de prensa internacional era identificar un proveedor de confianza para automatizar este tipo de tediosas tareas para que sus periodistas tuvieran más tiempo de crear contenidos informativos de calidad.

Otra herramienta de uso masivo es TinEye, orientada a la búsqueda inversa de imágenes y especialmente útil para contrarrestar campañas de desinformación como las relacionadas con las guerras en Gaza y en Ucrania (AFP, 2023; Reuters, 2023). Existen cadenas de televisión que han ido un paso más allá con la creación de un departamento específico para la investigación y el desarrollo de la IA. El BBC News Lab (2023) es un magnífico ejemplo de desarrollo de experimentos sobre el uso de nuevas tecnologías con fines periodísticos. Las categorías incluyen «mejorar los flujos de trabajo», «periodismo conversacional» o «de voz a texto». Una de las aplicaciones más sencillas pero que aportan gran valor a los usuarios son los «destacados en directo». Consiste en marcar momentos clave en las transmisiones en vivo dentro del reproductor multimedia. Esto permite a los periodistas destacar el contenido particularmente interesante, facilitando además el intercambio en redes sociales y plataformas de mensajería. Así se consigue un doble objetivo: mejorar la experiencia del usuario y visibilizar el contenido (BBC News Lab, 2023).

Aunque pueda parecer un fenómeno reciente, la exploración de las posibilidades de la IA lleva algunos años desarrollándose. El documental bélico dirigido por el director de cine Peter Jackson sobre la Primera Guerra Mundial They Shall Not Grow Old (2018) ha recibido varios galardones y ha sido reconocido por la crítica. En la pieza se utilizaron técnicas de restauración por IA en los archivos de la BBC y del Museo Imperial de la Guerra. Por medio de técnicas de machine learning se añadió color y audio a las imágenes de archivo. El resultado para el espectador fue un documental mucho más fiel al horror de la contienda por medio de una percepción ampliada de la realidad (Górriz; Mrak, 2020).

Los estudios del campo sobre la IA en España han sido mucho más limitados que en el ámbito anglosajón (Parratt-Fernández; Mayoral-Sánchez; Mera-Fernández, 2021). Recientemente, Mondría (2023) ha estudiado los casos de RTVE, El País y Newtral. Se concluye que la evolución tecnológica del sector y la introducción de la IA requieren de un cambio de mentalidad en las redacciones, superar el miedo a la sustitución, poner en valor la capacidad creativa y las decisiones editoriales humanas. También se identifica la emergencia de perfiles mixtos —periodismo e informática— para poder comprender en profundidad los proyectos e introducirlos en la rutina periodística.

3. Análisis de códigos éticos en medios audiovisuales

Los códigos éticos y deontológicos son una herramienta común en los medios para comunicar los principios sobre los que sustentan su actividad informativa, guiar a sus periodistas y tomar decisiones en los procedimientos de denuncia (Ethical Code Databases, 2023). Una investigación recientemente financiada por la Unión Europea ha permitido disponer de una extensa base de datos que pretende hacer accesibles y comparables 55 códigos (Ethical Code Databases, 2023). Con una perspectiva más global, la investigación de Cools y Diakopoulos (2023) también analiza en profundidad 21 códigos éticos de todo el mundo.

Profundizando en el aspecto de la cobertura ética de la IA, la responsable del libro de estilo de Associated Press, Garance Burke, da algunos consejos (Kahn, 2023). La experta recomienda aparcar el «debate esotérico sobre si los modelos de IA son positivos o negativos y regresar a los valores fundacionales del oficio periodístico». Esto incluye pensar en: ¿cómo funcionan estos sistemas?, ¿dónde se utilizan?, ¿cuál es su rendimiento?, ¿están regulados?, ¿quién gana dinero con ello?, ¿quién se beneficia? Y también: ¿qué grupos sociales pueden verse afectados negativamente por estas herramientas? Burke recomienda que «hay que centrarse en los periodistas, no en los robots» (Kahn, 2023).

Sabemos que la IA conlleva peligros específicos y generales. La buena noticia es que cada vez más medios de comunicación son conscientes de las oportunidades y riesgos del empleo de estas tecnologías y han comenzado a abordarlos. Las organizaciones más en la vanguardia de la IA han desarrollado procesos para involucrar a todo el equipo en su adopción, han redactado nuevas pautas y han comenzado a experimentar con precaución. Una encuesta global de la LSE ha observado que más del 75% de los medios usan la IA en al menos una de las áreas de la cadena de valor del periodismo que incluye la recopilación, la producción y la distribución de contenido (Beckett; Yaseen, 2023). Asimismo, más de la mitad de los medios indicaron que su principal motivación para incorporar IA fue la posibilidad de aumentar la eficiencia y la productividad para liberar tiempo de los periodistas, y que puedan realizar trabajos más creativos. De entre todos los riesgos asociados al uso de la IA en las redacciones destaca la preocupación por el aspecto ético. Más del 60% de los encuestados está preocupado por las implicaciones éticas en la calidad editorial. En este sentido, los periodistas intentan descifrar cómo integrar la IA en su trabajo manteniendo los valores periodísticos esenciales: el rigor, la imparcialidad y la transparencia (Beckett; Yaseen, 2023).

3.1. Supervisión humana

En su código, la posición de la BBC es taxativa: «Siempre daremos prioridad al talento y la creatividad. Ninguna tecnología puede replicar o sustituir la creatividad humana. Siempre daremos prioridad y premiaremos la narración auténtica y humana por parte de los mejores periodistas en su campo» (Davies, 2023). Además, el código desarrollado por la CBC, la corporación de radiotelevisión pública de Canadá señala que «ninguna información periodística será publicada o transmitida sin la intervención directa y supervisión humana» (Cools; Diakopoulos, 2023). En esta línea, Reuters describe la supervisión humana como «una participación humana significativa en el desarrollo de contenidos de IA y utilizando los datos de manera justa con las personas» (Ethical Code Databases, 2023). Del mismo modo, la DPA, la mayor agencia de noticias alemana, expone que la decisión final sobre el uso de la IA debe ser siempre tomada por un ser humano y subraya: «respetamos la autonomía y la primacía de las decisiones humanas». AftonBladet y VG, dos de los periódicos digitales con mayor circulación en los países nórdicos, establecen que «todo el contenido publicado ha sido revisado por un ser humano y está bajo nuestra autoridad de publicación» (Cools; Diakopoulos, 2023).

3.2. Transparencia

La CBC establece que siempre se etiquetarán claramente los contenidos generados por IA para que su audiencia no se lleve ninguna sorpresa. Y señalan expresamente que «no utilizaremos ni presentaremos contenido generado por IA a las audiencias sin una divulgación completa» (Cools; Diakopoulos, 2023). AftonBladet y VG afirman que en los casos «extraordinarios» en que publiquen material generado por IA, tanto texto como imágenes, «se etiquetará expresamente que el contenido fue generado por IA» (Cools; Diakopoulos, 2023). En la misma línea, Reuters sostiene que implementará prácticas «para hacer comprensible el uso de la IA en todos nuestros productos y servicios» (Ethical Code Databases, 2023). Por su parte, la BBC expresa que «seremos abiertos y transparentes ya que la confianza es la base de nuestra relación con el público. Seremos responsables ante la audiencia de todos los contenidos producidos y publicados. Y seremos transparentes y claros con el público cuando la IA generativa aparezca en nuestros contenidos y servicios» (Davies, 2023).

Un punto esencial en la transparencia es el establecimiento expreso de los usos prohibidos y los usos permitidos (SPJ, 2023). La CBC garantiza que no utilizará la IA para recrear la voz o la apariencia de ningún periodista de la cadena de televisión «excepto para ilustrar cómo funciona la tecnología». Esta excepción es interesante y relevante. Se vincula a dos condiciones: primero, a una aprobación previa de la Comisión Ética, y, segundo, a la aprobación de la persona que está siendo recreada. Específicamente, en casos de periodismo de investigación, en los que la IA generativa podría tener múltiples aplicaciones, la radiotelevisión pública canadiense concluye que no será empleada en forma de reconocimiento facial o de voces ni utilizada para generar voces de fuentes confidenciales. Asimismo, precisa que continuará con prácticas extendidas y comprendidas por la audiencia como la modulación de voz y el difuminado de imágenes y la silueta (SPJ, 2023). Otros ejemplos de usos permitidos de la IA para los periodistas de AftonBladet y VG son «la producción de ilustraciones, gráficos e infografías». Aunque las pautas de VG añaden una prohibición: «la de generar imágenes fotorrealistas porque el contenido generado por IA nunca debe socavar la credibilidad de la fotografía periodística» (Cools; Diakopoulos, 2023).

3.3. Responsabilidad

Reuters afirma que «implementaremos medidas de responsabilidad adecuadas para nuestro uso de productos y servicios de IA» (Ethical Code Databases, 2023). En la misma línea, la BBC declara que «actuaremos siempre en el mejor interés del público. Exploraremos cómo podemos aprovechar la IA generativa para reforzar nuestra misión pública y ofrecer un mayor valor a las audiencias» (Davies, 2023). La DPA subraya que sólo utilizarán IA «que sea técnicamente sólida y segura para minimizar los riesgos de error y mal uso» (Ethical Code Databases, 2023). Estas consideraciones deberían enmarcarse en la acepción más amplia del concepto de responsabilidad social de medios y periodistas (Mayo-Cubero; Lavín; Gallardo-Camacho, 2017). Reuters añade además que «priorizará la seguridad y la privacidad del uso de datos a lo largo del diseño, desarrollo y despliegue de productos y servicios de IA» (Ethical Code Databases, 2023). La norma principal de VG que rige a sus periodistas es que deben tratar «el uso de texto, vídeo, imágenes, sonido y otro contenido creado con la ayuda de IA generativa de la misma manera que otras fuentes de información: con curiosidad abierta y con precaución». En la misma línea, la CBC afirma que nunca se basará únicamente en investigaciones periodísticas generadas por IA y que siempre utilizará múltiples fuentes de información para confirmar los hechos. Las prácticas periodísticas tradicionales enfatizan la importancia de basarse en fuentes creíbles y garantizar la precisión de la información. Sin embargo, la IA generativa introduce un nivel de incertidumbre sobre el origen y la fiabilidad del contenido en toda cobertura informativa (Cools; Diakopoulos, 2023).

4. Discusión y conclusiones

El estudio de caso proporciona observaciones relevantes sobre las posibilidades y límites de la IA generativa en el periodismo audiovisual. Los proyectos de IA son complejos y a menudo requieren habilidades especializadas que no todas las redacciones audiovisuales poseen. El experimento de Sky News es un brillante ejemplo de cómo una alianza colaborativa entre expertos en programación e IA generativa con medios de comunicación puede generar prometedores resultados. Las habilidades periodísticas básicas de la reportera de IA fueron razonablemente positivas al ser capaz de elaborar dos piezas informativas rigurosas y con estilo periodístico en un plazo de 20 minutos de ejecución de software (Clarke, 2023). Sin embargo, el experimento también destacó desafíos éticos muy importantes por la presencia de alucinaciones. La reportera de IA inventó hechos falsos y fabricó datos en el tema del derrame de leche y su impacto en la seguridad vial.

En este punto conviene reflexionar sobre por qué surgen las alucinaciones. Tal vez la respuesta esté en que los modelos de lenguaje como ChatGPT no han sido diseñados para responder con un simple «no lo sé». Esto obliga a la máquina a generar correlaciones espurias y fabricar evidencia falsa para buscar respuestas verosímiles, según los expertos (Journalism AI, 2023). La honestidad y la ética no representan una preocupación esencial para la IA generativa. El experimento de Sky News nos demuestra que los modelos de lenguaje no tienen imaginación y se limitan a ofrecer respuestas basadas en datos previamente conocidos y con los que la máquina ha sido adiestrada. Por tanto, no podemos esperar que la reportera de IA haga inferencias basadas en una comprensión holística y profunda de la realidad ya que su inteligencia es limitada. Sin embargo, sí podemos reconocer el potencial de la IA para transformar y mejorar la práctica periodística al automatizar eficientemente tareas repetitivas (Sky News, 2023). El experimento de Sky News confirma lo que Beckett ya apuntaba (2023). La IA es más eficaz intentando replicar la creatividad que generando una curiosidad genuina. Es decir, sólo la mente humana puede conectar racionalmente puntos que aparentemente no tienen conexión.

Al relacionar el estudio de caso con el análisis de los códigos éticos en medios audiovisuales, observamos una conexión directa entre los desafíos observados y los principios delineados. En primer lugar, se destaca la importancia capital de la supervisión humana en los procesos de IA generativa en el periodismo. A pesar de la capacidad de la reportera de IA para proponer temas y enfoques razonables, las alucinaciones exigieron la intervención humana para garantizar la ética y el rigor en los procesos editoriales. Este principio se alinea con los códigos éticos de la BBC, Reuters, DPA y la CBC, que enfatizan la supervisión humana en la toma de decisiones editoriales (Ethical Code Database, 2023). Es decir, aunque la IA demostró ser capaz de realizar algunas tareas periodísticas básicas, también mostró que necesita la supervisión humana para garantizar unos estándares periodísticos profesionales.

En segundo lugar, la transparencia es otro elemento crítico. Es imprescindible etiquetar claramente el contenido generado por IA y divulgar de manera clara su origen como recogen los códigos de Reuters, la BBC y la CBC. Si estas cuestiones no se abordan seriamente, la IA puede amplificar los sesgos presentes en la sociedad. Para realizar una cobertura ética de la IA los periodistas deberían cuestionarse siempre: ¿cómo funcionan estas herramientas?, ¿están reguladas?, ¿quién gana dinero con ello?, ¿quién se beneficia?, y ¿qué grupos sociales pueden verse afectados negativamente por estas herramientas? (Kahn, 2023). La ausencia de transparencia provoca que muchos modelos de IA generativa funcionen como cajas negras. Esto dificulta enormemente poder comprender cómo toman sus decisiones o por qué recomiendan un contenido y no otro. Una mayor transparencia de las compañías que desarrollan IA generativa ayuda a una mejor comprensión de las herramientas y genera contenidos informativos de mayor calidad y socialmente más responsables. El estudio de caso de Sky News es un magnífico ejemplo de transparencia y marca el camino a seguir.

En tercer lugar, la responsabilidad social emerge como principio fundacional del análisis ético. El compromiso de actuar en el mejor interés público debería enmarcarse en la acepción más amplia del concepto de responsabilidad social de medios y periodistas (Mayo-Cubero; Lavín; Gallardo-Camacho, 2017). Ambos son actores clave para abordar los riesgos éticos asociados al uso de IA. El experimento de Sky News demuestra que hay que medir siempre dos veces las potenciales consecuencias negativas. Un error en la recomendación de un artículo por IA no tendrá consecuencias graves, pero publicar la información falsa fabricada por la reportera de IA sí habría tenido consecuencias devastadoras para la reputación de la marca de Sky News.

Finalmente, concluimos la necesidad de continuar mejorando la tecnología y los procesos para que la IA no sea sólo impecablemente rigurosa, sino también ética y socialmente responsable. Como observamos en el experimento, la cooperación entre periodistas y expertos debería ser clave para garantizar el equilibrio entre el uso eficiente de la IA y la integridad ética del periodismo.

5. Referencias

Adami, Marina (2023). «How ChatGPT’s responses change as top news sites from five countries block it». Reuters Institute. University of Oxford. https://reutersinstitute.politics.ox.ac.uk/news/how-chatgpts-responses-change-top-news-sites-five-countries-block-it

AFP (2023). «La imagen de un hombre rescatando a niños de los escombros en Gaza es un montaje». Agence France-Presse. https://factual.afp.com/doc.afp.com.33ZQ7ZL

BBC News Lab (2023). https://bbcnewslabs.co.uk/projects/live-highlights/ Beckett, Charlie (2023, 18 de septiembre). «Preparing for the coming wave of generative AI in journalism». LSE. https://blogs.lse.ac.uk/impactofsocialsciences/2023/09/18/preparing-for-the-coming-wave-of-generative-ai-in-journalism/

Beckett, Charlie; Yaseen, Mira. (2023). «Generando el cambio: Un informe global sobre qué están haciendo los medios con IA». LSE. https://www.journalismai.info/research/2023-generating-change

Clarke, Tom (2023). «Battle for the news. Could AI take my job?». Sky News. https://news.sky.com/story/can-ai-do-my-job-we-made-our-own-reporter-to-find-out-12915336

Cools, Hannes; Diakopoulos, Nicholas (2023, 11 de julio). «Writing guidelines for the role of AI in your newsroom? Here are some, er, guidelines for that». NiemanLab. Harvard University. https://www.niemanlab.org/2023/07/writing-guidelines-for-the-role-of-ai-in-your-newsroom-here-are-some-er-guidelines-for-that/

Davies, Rhodri (2023, 5 de octubre). «Generative AI at the BBC». BBC. https://www.bbc.co.uk/mediacentre/articles/2023/generative-ai-at-the-bbc Ethical Code Databases (2023). «Press Councils EU». https://www.presscouncils.eu/ethical-codes-database/

Fagerlie, Nick (2023). «All about AI». YouTube. https://www.youtube.com/c/AllAboutAI

Górriz, Mark; Mrak, Marta (2020, 28 de abril). «AI & Auto Colourisation - Black & White to Colour with Machine Learning». BBC. https://www.bbc.co.uk/rd/blog/2019-09-artificial-intelligence-colourisation-video

HeyGen (2023). https://www.heygen.com/news

Journalism AI (2023). LSE. https://www.lse.ac.uk/media-and-communications/polis/JournalismAI

Journalistic Standards and Practice CBC (2023). https://cbc.radio-canada.ca/en/vision/governance/journalistic-standards-and-practices?group=0

Journalists Toolbox (2023). https://journaliststoolbox.ai/video-creation/ Kahn, Gretel (2023). «Focus on the humans, not the robots: tips from the author of AP guidelines on how to cover AI». Reuters Institute. University of Oxford. https://reutersinstitute.politics.ox.ac.uk/news/focus-humans-not-robots-tips-author-ap-guidelines-how-cover-ai

Mayo-Cubero, Marcos; Lavín, Eva; Gallardo-Camacho, Jorge (2017). «La cobertura informativa del terremoto de Lorca en España: la responsabilidad social del periodista». Ámbitos: Revista Internacional de Comunicación, vol. 35, pp. 1-17. http://hdl.handle.net/11441/66415

Mondría Terol, Teresa (2023). «Innovación Mediática: aplicaciones de la inteligencia artificial en el periodismo en España». Textual & Visual Media, vol. 17, núm. 1. https://doi.org/10.56418/txt.17.1.2023.3

Newman, Nick; Fletcher, Richard; Eddy, Kirsten; Robertson, Craig; Nielsen, Rasmus Klein (2023). «Digital News Report 2023». Reuters Institute. University of Oxford. https://www.digitalnewsreport.org

Parratt-Fernández, Sonia; Mayoral-Sánchez, Javier; Mera-Fernández, Montse (2021). «The application of artificial intelligence to journalism: an analysis of academic production». Profesional de la información, vol. 30. https://doi.org/10.3145/epi.2021.may.17

Reuters (9, noviembre 2023). «False claims of staged injuries surface amid Israel-Hamas war». Reuters. https://www.reuters.com/video/watch/idRCV00CHJ6

Sky News (2023, 6 de julio). «Sky News puts AI journalism to the test with the creation of ChatGPT-powered news reporter». Sky News. https://www.skygroup.sky/article/sky-news-puts-ai-journalism-to-the-test-with-the-creation-of-chatgpt-powered-news-reporter-

Sky News (2023b, 6 de julio). «Could AI do the job of a news organisation?». Sky News. https://www.youtube.com/watch?v=O5mzgFClfUs

SPJ (2014, 6 de septiembre). «Code of Ethics». Society of Professional Journalists. https://www.spj.org/ethicscode.asp

Turing, Alan (1950). «Computing Machinery and Intelligence». Mind, vol. 49, pp. 433-460.

 

Figura 1. Tuit sobre el experimento de Sky News.

Fuente: Sky News, 2023.

Figura 2. Grabación de las imágenes de la productora real con el croma.

Fuente: Sky News, 2023b.

Figura 3. Tom Clarke y Kristian Fagerlie analizando la pieza elegida por el editor IA.

Fuente: Sky News, 2023b.