Lo que la IA hace al periodismo, lo que el periodismo hace a la IA: el caso de la prensa francesa *
What AI Does to Journalism, what Journalism Does to AI: The Case of the French Press
O que a IA faz com o jornalismo, o que o jornalismo faz com a IA: o caso da imprensa francesa
Lo que la IA hace al periodismo, lo que el periodismo hace a la IA: el caso de la prensa francesa *
Signo y Pensamiento, vol. 44, 2025
Pontificia Universidad Javeriana
Yeny Serrano a yeny.serrano@unistra.fr
Universidad de Estrasburgo, Francia
Muriel Béasse
Universidad de Alta Alsacia, Francia
Recibido: 09 mayo 2025
Aceptado: 17 junio 2025
Publicado: 14 octubre 2025
Resumen: Este artículo examina los fundamentos de la (des)legitimación de la inteligencia artificial (IA) en el periodismo, en un contexto marcado por la fatiga informativa y el fenómeno de news avoidance, que agravan la crisis económica de las empresas mediáticas. El estudio analiza tanto los discursos mediáticos de la prensa nacional francesa sobre la integración de la IA como los códigos deontológicos adoptados por algunos grandes medios para regular su uso en las salas de redacción. Los resultados revelan percepciones contradictorias sobre las ventajas y las amenazas de la IA para el periodismo. Aunque estas tecnologías están diseñadas para mejorar la producción de contenido informativo, las prácticas observadas tienden a priorizar la rentabilidad de las empresas mediáticas y los intereses comerciales de las corporaciones tecnológicas. Como respuesta, los códigos deontológicos establecen líneas rojas para limitar estas posibles desviaciones y preservar los principios éticos del periodismo.
Palabras clave:inteligencia artificial, periodismo, discursos, prensa francesa.
Abstract: This proposal uncovers the foundations of (de)legitimization of artificial intelligence in the mission to inform, in a context where informational fatigue and news avoidance further accentuate the economic crisis of media companies. The study is based on two research fields: the media discourses of the French National Press dealing with the integration of AI in journalism and the ethics codes set up by some major French media to frame the uses of AI in their newsrooms. The analysis reveals conflicting perceptions about what constitutes AI’s benefits and threats to news journalism. While AI is supposed to help news outlets produce quality journalism, the reported practices are dependent on the profitability of the media business and the appetites of US AI development companies. The charters issued by the professional milieu of journalism then set the main red lines not to be crossed in order to counter these drifts.
Keywords: Artificial Intelligence, Journalism, Discourses, French Press.
Resumo: Este artigo examina os fundamentos da (des)legitimação da inteligência artificial (IA) no jornalismo, em um contexto marcado pela fadiga de notícias e pelo fenômeno de evitar notícias, que agravam a crise econômica das empresas de mídia. O estudo analisa tanto o discurso da mídia na imprensa nacional francesa sobre a integração da IA quanto os códigos de ética adotados por alguns dos principais meios de comunicação para regular seu uso nas redações. Os resultados revelam percepções contraditórias sobre os benefícios e as ameaças da IA para o jornalismo. Embora essas tecnologias sejam projetadas para melhorar a produção de conteúdo de notícias, as práticas observadas tendem a priorizar a lucratividade das empresas de mídia e os interesses comerciais das corporações de tecnologia. Em resposta, os códigos de ética estabelecem linhas vermelhas para limitar esses possíveis desvios e preservar os princípios éticos do jornalismo.
Palavras-chave: inteligência artificial, jornalismo, discursos, imprensa francesa.
Introducción
Si bien la historia del conjunto de tecnologías agrupadas bajo la etiqueta de inteligencia artificial (IA) no es reciente (la Conferencia de Dartmouth en 1956 marca el nacimiento de la IA, como lo aclaran Bellon y Velkovska [2023, p. 33]), es el lanzamiento del robot conversacional ChatGPT en noviembre de 2022 lo que genera una amplia cobertura mediática sobre el impacto de la IA en la actividad periodística y en las empresas mediáticas. Rápidamente, la cuestión de si la IA representa una amenaza o una ventaja para el periodismo adquiere relevancia en el debate público, en paralelo con el desarrollo de las inteligencias artificiales generativas (IAG) y la puesta a disposición de estas nuevas herramientas para el gran público, como ChatGPT o Midjourney. Entre los argumentos más frecuentemente esgrimidos, la IA se presenta en términos generales como una oportunidad, especialmente para tareas de síntesis y de procesamiento rápido de grandes volúmenes de datos. En términos prácticos, los medios de comunicación y las agencias de prensa han identificado, desde hace varios años, un interés considerable en utilizar la capacidad computacional y lógica de la IA como un elemento central en la organización de sus redacciones. La IA se utiliza en diversas categorías de tareas periodísticas, que incluyen la redacción de artículos, la verificación de hechos, la comunicación con el público, así como el reconocimiento de imágenes y la producción de contenido audiovisual (Ronderos, 2019). No obstante, la IA también se emplea como una tecnología que posibilita la producción masiva de contenidos informativos de baja calidad, en función de una lógica de flujo constante y con el propósito de servir a intereses privados o de respaldar estrategias de desinformación a gran escala. En un contexto en el que el periodismo ya se encuentra sometido a fuertes presiones económicas, sociales y políticas, el desarrollo de las IAG deja entrever transformaciones radicales en el mundo de la información, en particular en lo que respecta al empleo de los periodistas, así como a la independencia editorial de las redacciones frente a “modelos de lenguaje opacos regidos por intereses privados” (Ressa y Russel, 2024).
Es en este contexto que, pocos meses después del lanzamiento de ChatGPT en Francia, a partir de mayo de 2023, empresas mediáticas privadas (Les Échos, Le Monde, Le Figaro) y públicas (Radio France y France Télévisions), así como instancias profesionales (Reporters Sans Frontières y el Conseil de Déontologie Journalistique et de Médiation [CDJM] o Consejo de Deontología Periodística y de Mediación), deciden posicionarse en este debate mediante la publicación de códigos deontológicos. En Francia, la deontología del periodismo se basa generalmente en la Carta de Múnich (1971) como texto de referencia. Numerosas empresas mediáticas elaboran también sus propios códigos deontológicos. Estos conjuntos de normas constituyen un “dispositivo profesional no vinculante al que cualquiera puede referirse libremente, y que no tiene efectos legales obligatorios” (Rodhe, 2012, p. 246).
Estos códigos dan cuenta de las preocupaciones específicas de cada medio en relación con la regulación y el desarrollo de la IA. Conviene recordar, como se ha demostrado en otros contextos, que los códigos de ética periodística corresponden más bien a actos de comunicación política, en respuesta a un contexto particular (Wilkins y Brennen, 2004). Más que simplemente establecer principios y normas para guiar la labor de producción informativa, estos códigos y declaraciones buscan dotar a los periodistas de garantías en contextos que pueden amenazar su ejercicio profesional (Sanders, 2010; Ward, 2009), como es el caso de la introducción de la IA en las salas de redacción. Los códigos de ética periodística están condicionados por influencias ideológicas, políticas y sociales específicas (Wilkins y Brennen, 2004, p. 308). El análisis de estos códigos mostrará que no solo expresan la reivindicación de una profesión con una función social, que es a la vez una actividad comercial (venta de información), sino también la defensa de una labor que podría desaparecer, al reafirmar los valores democráticos que la sustentan, como el derecho a la información.
En el caso del periodismo francés, entre promesas y amenazas, la polarización del debate público sobre el impacto de la IA en la información, así como la respuesta dada por empresas mediáticas y organismos profesionales reflejan el conjunto de discursos que configuran el desarrollo de esta tecnología en el mundo laboral y en nuestras sociedades en general (Bellon y Velkovska, 2023; Crépel y Cardon, 2022). Las representaciones e imaginarios que subyacen en estos discursos —sean negativos o positivos con respecto a la información— contribuyen a forjar una forma de determinismo tecnológico, al tiempo que mantienen una ambigüedad sobre la verdadera naturaleza de los desafíos que plantean las transformaciones mencionadas.
Así, es pertinente prestar atención no solo a los discursos que circulan en la prensa en torno a la IA, sino también a los discursos éticos que cristalizan las tensiones presentes en el espacio público con respecto a esta tecnología y que buscan establecer nuevos marcos de gobernanza para su integración en las prácticas y misiones del periodismo (Bellon y Velkovska, 2023, p. 57). Para esto, es necesario considerar, por un lado, las representaciones construidas en torno a las herramientas utilizadas en contextos profesionales (Agossah et al., 2022) y, por otro lado, las distintas dimensiones y especificidades de la actividad de informar. El periodismo se concibe comúnmente como una actividad discursiva basada en la verificación, la selección y la jerarquización de los acontecimientos del mundo. Sin embargo, esta actividad no puede reducirse únicamente a la práctica de redacción y estructuración de la información, sin tener en cuenta el proceso social y los desafíos colectivos en los que se inscribe (Esquenazi, 2014).
Las representaciones de la IA asociadas al periodismo se entienden como “discursos de acompañamiento” o “discursos de escolta” (Babou, 1998), que requieren ser analizados más allá de los objetos a los que se refieren, con el fin de identificar mejor las ideologías que subyacen a los mismos (Jeanneret, 2001). En efecto, estos discursos se organizan en torno a un conjunto de argumentos tipo ya identificados, que acompañan con frecuencia la aparición de nuevas tecnologías. El argumento del empoderamiento, de una IA que otorgaría nuevos poderes a los periodistas, es, por ejemplo, una de las temáticas privilegiadas dentro de esta categoría discursiva, al igual que el desarrollo de nuevas dinámicas colectivas (Souchier et al., 2019).
En línea con esta definición del periodismo, este estudio busca comprender cómo el discurso de la prensa diaria nacional francesa confronta la actividad periodística con los usos de la inteligencia artificial y qué medidas se contemplan para responder a los desafíos planteados. Esto permite plantear los siguientes interrogantes: ¿cómo se representa la práctica periodística ante los lectores cuando se exponen las oportunidades y riesgos que la IA plantea para los profesionales de la información? ¿No están, acaso, los discursos en circulación a menudo condicionados por la forma en la que se concibe el ejercicio periodístico? ¿Cuáles son los intereses subyacentes en los compromisos reflejados en los códigos deontológicos —calidad de la información— frente a la rentabilidad de la actividad periodística?
Nuestra hipótesis de investigación sostiene que el discurso mediático que enfrenta a la IA con el periodismo se fundamenta en una percepción parcial e incompleta de lo que constituye el trabajo informativo de los periodistas, un discurso fragmentado que los códigos deontológicos de las redacciones intentan corregir. En un sentido más amplio, estos discursos reflejan la defensa de una profesión que tiene una crisis de legitimidad y que atraviesa dificultades económicas.
Metodología
La investigación se basa en el método de análisis de la teorización arraigada, lo que nos permite proponer marcos conceptuales a partir de datos empíricos que abordan fenómenos complejos (Glaser y Strauss, 2022; Glaser y Strauss, 1995). Con el fin de comprender cómo el discurso de los profesionales de la información en Francia confronta la actividad periodística con los usos de la IA, se procedió en dos etapas. En primer lugar, se llevó a cabo un análisis de un corpus de 74 artículos (59 informativos y 15 de opinión) publicados en diarios franceses de difusión nacional, incluyendo Le Monde 1 , Libération 2 , L’Humanité 3 , Le Figaro 4 , La Croix 5 y Aujourd’hui en France 6 , entre el 1 de enero de 2022 (año del lanzamiento de ChatGPT) y el 15 de agosto de 2024. Los artículos fueron recuperados a través de la biblioteca de medios en línea Europresse, utilizando la expresión “intelligence artificielle” y “journalism*”, y fueron codificados mediante el software de análisis cualitativo de contenido ATLAS.ti (v.24.1.1). Esta primera fase permitió constatar que varios medios tradicionales franceses reaccionaron al entusiasmo generado por la IA tras el lanzamiento de ChatGPT, mediante la publicación de códigos deontológicos y de “buenas prácticas” para regular el uso de estas tecnologías en sus salas de redacción.
En una segunda etapa, se procedió a la recopilación y al examen de los siete códigos deontológicos publicados por tres diarios nacionales privados (Groupe Le Monde, Le Figaro, Groupe Les Échos / Le Parisien), por la radio y la televisión públicas (Radio France y France Télévisions) y dos organismos profesionales (Reporters Sans Frontières y el CDJM). Estos documentos fueron analizados mediante el software ATLAS.ti, en función de las prácticas periodísticas que buscan regular, y de la misión del periodismo subyacente en dichas iniciativas.
ChatGPT reactiva el debate en torno a las IA
En primer lugar, es importante señalar que el lanzamiento, a finales de noviembre de 2022, del agente conversacional basado en inteligencia artificial generativa ChatGPT por parte de la empresa estadounidense OpenAI, reavivó el debate en torno a las IA. Rápidamente, surgieron múltiples interrogantes sobre la posible sustitución de periodistas por robots conversacionales. Estas cuestiones alcanzaron su pico de cobertura mediática en los artículos publicados por la prensa generalista francesa en marzo de 2023 (Figura 1), coincidiendo con el lanzamiento de la versión 4 de ChatGPT y con el anuncio, por parte del grupo de medios alemán Axel Springer, de “la supresión de puestos como consecuencia de la transformación digital” 7 (Cohen, 2023b, p. 28).
Como se mencionó anteriormente, el lanzamiento de ChatGPT se produce en un contexto de crisis de los medios y del periodismo, que impulsa a los profesionales de la información a integrar cada vez más herramientas digitales (Alexis et al., 2022; Mercier, 2018). En efecto, el público parece alejarse progresivamente de los medios tradicionales en sus prácticas informativas; se habla de fatiga informativa y del fenómeno de news avoidance (Gault y Medioni, 2022; Skovsgaard y Andersen, 2020). En ese contexto, ¿se corre el riesgo de que la IA acentúe estos fenómenos o, por el contrario, que pueda aportar soluciones? Este es, precisamente, el eje del debate en los artículos de la prensa nacional francesa examinados en el marco de este estudio.
IA: entre la amenaza de desaparición del periodismo y la promesa de soluciones a las crisis de los medios
Aunque los artículos de la prensa nacional francesa apenas mencionan los diferentes usos de las IAG en las salas de redacción, y lo hacen sin demasiados detalles, los códigos deontológicos son más precisos en este sentido, especialmente las recomendaciones del CDJM y de Reporters Sans Frontières (“RSF et 16 organisations partenaires présentent la Charte de Paris sur l’IA et le journalisme | RSF”, 2023), así como, en menor medida, los códigos de Le Monde y Le Figaro. Lo que resulta particularmente interesante en el documento del CDJM es la distinción que establece entre los usos de la IA que presentan riesgos bajos (corrector ortográfico, verificación de hechos, exploración de documentos, traducción con fines documentales, transcripción de entrevistas), riesgos moderados (traducción automatizada, síntesis vocal, actualización automática de contenidos publicados, categorización por palabras clave, generación de resúmenes) y riesgos altos para el periodismo y para el público (producción de contenidos sin supervisión humana y creación de imágenes, sonidos o vídeos cuyo realismo puede inducir al público a error). Según los distintos niveles de riesgo, el CDJM recomienda un nivel de transparencia ante el público proporcional al riesgo asociado al uso de la IA: los usos de riesgo bajo no requieren ser notificados, mientras que los de riesgo moderado deben señalarse explícitamente. Por su parte, se recomienda prohibir los usos de alto riesgo (en particular la creación de imágenes, sonidos o vídeos falsos), ya que se consideran incompatibles con el respeto a la deontología periodística.
De manera general, el análisis de ambos corpus pone de manifiesto que, para los profesionales de la información en Francia, las IAG pueden utilizarse en todas las etapas del proceso de producción de contenidos informativos: recopilación, procesamiento, realización, publicación y difusión. En las etapas iniciales, la IA facilita la búsqueda documental y de archivos, así como el análisis de expedientes complejos, la recolección de datos, la redacción de resúmenes o el tratamiento sistemático de resultados deportivos o electorales (CDJM, 2023; France Télévisions, 2023; “Mettre l’intelligence artificielle au service des missions de Radio France”, 2024). Durante la producción propiamente dicha, las IAG pueden generar textos, imágenes y sonidos realistas; pueden utilizarse para retoques gráficos, transcripción de entrevistas, edición asistida de contenidos provenientes de agencias de prensa, corrección ortográfica y gramatical, traducción automática, o como ayuda para la maquetación y la elaboración de titulares. Finalmente, en la etapa de difusión, las IAG permiten segmentar audiencias y realizar recomendaciones personalizadas basadas en estadísticas de consumo, automatizar la publicación de contenidos en plataformas o mejorar la accesibilidad de los mismos (subtitulación, lectura en voz alta, audiodescripción, traducción y lectura automatizada). La cuestión del direccionamiento y la personalización de los contenidos ocupa un lugar central en el código ético de Reporters Sans Frontières, ya que entra en conflicto con la pluralidad informativa, el respeto de la línea editorial y, a largo plazo, con los principios democráticos del respeto a la diversidad ( “La Charte d’éthique et de déontologie du groupe Le Monde”, 2010; “RSF et 16 organisations partenaires présentent la Charte de Paris sur l’IA et le journalisme | RSF”, 2023). El riesgo que se corre es el de priorizar la producción rápida de la información a menor costo, sin que eso sea reconocido explícitamente por los medios de comunicación. Para los medios, se trata de saber cómo justificar ante el público el cobro por el acceso a la información (mediante la venta de ejemplares, suscripciones o publicidad).
En la primera fase de este estudio, el análisis del corpus de artículos de prensa pone en evidencia tres universos léxicos en torno a los cuales la prensa generalista francesa se refiere al tratar la IA y su impacto en el periodismo. La noción de universo o campo léxico remite al conjunto de palabras y expresiones, dentro de un corpus, que giran en torno a un mismo tema o dominio semántico. En el corpus analizado, un primer campo léxico alude a la noción de progreso para la calidad del periodismo, a una mayor libertad de acción y a la optimización del tiempo de los periodistas. En esos casos, la IA es percibida por los profesionales de la información como una revolución, como una transformación profunda o incluso como un momento histórico. Un segundo campo léxico hace referencia a la amenaza: con el uso de la IA en el periodismo, la información estaría “en peligro de muerte”, lo que alimentaría una “guerra (fría) de la información”. La IA volvería obsoleta la profesión, al implicar la posible sustitución de los periodistas. En este universo léxico, la IA se asocia incluso con el canibalismo, con el saqueo o con una “moda robótica”. Por último, un tercer universo léxico identificado en el corpus se aplica particularmente a las empresas mediáticas y refleja una visión mercantil de la información, a través de las promesas de rentabilidad y de productividad asociadas a la IA.
Estos tres universos léxicos, que detallaremos más adelante, revelan las percepciones contradictorias sobre lo que se considera ventaja o amenaza de la IA para la actividad periodística, y también se reflejan en los códigos deontológicos que grandes medios tradicionales franceses han publicado como respuesta a los desafíos que plantea la IA. Por ejemplo, periódicos como Le Monde y Le Figaro justifican su iniciativa de redactar un código reconociendo la asistencia que la IA puede brindar a sus redacciones, a través de un universo léxico asociado al progreso y a la facilitación del trabajo (CDJM, 2023; “Charte IA”, 2023; “De quelles façons « Le Monde » se sert-il de l’IA ?”, 2024). Al mismo tiempo, todos los códigos analizados se sustentan en la necesidad de protegerse frente a los riesgos que puede implicar el uso de la IA, en particular la producción de información de baja calidad, falsa o que no respete los estándares del periodismo profesional. Estos riesgos minarían la confianza del público y lo alejarían aún más de los medios tradicionales (campo léxico de la amenaza). Esta cuestión de la audiencia está directamente relacionada con la rentabilidad de las empresas mediáticas, que dependen de ella para sostener su actividad comercial, al tiempo que reivindican una misión democrática. El Groupe Les Échos / Le Parisien comienza su código deontológico reconociendo tanto las oportunidades como las “numerosas cuestiones éticas” asociadas al uso de las IAG (“IA : Les engagements du groupe Les Echos-Le Parisien”, 2023). El tercer universo léxico (visión mercantil de la información) no se menciona de forma explícita, en la medida en que ningún código plantea abiertamente la cuestión de la rentabilidad del medio de comunicación. Sin embargo, al reconocer los riesgos de producir información de mala calidad y la necesidad de reafirmar los valores democráticos y la misión social del periodismo ante el público, los medios evidencian la necesidad de mantener una audiencia que garantice, al mismo tiempo, la sostenibilidad económica de la empresa mediática.
Dicho de otro modo, los tres universos léxicos ponen de manifiesto un conjunto de tensiones en relación con las múltiples dimensiones propias de la actividad periodística. En los discursos de temor o entusiasmo expresados por los diarios franceses sobre la IA y el periodismo se entrelazan, en efecto, preocupaciones éticas, sociales, económicas y políticas. Estos desafíos tienden a generar posturas particularmente extremas respecto a la IA, como lo ilustra esta cita de una columna publicada por Le Figaro:
La inteligencia artificial abre la perspectiva de avances económicos y sociales decisivos, a través del aumento de la productividad generada en los servicios, así como del acceso al conocimiento para el mayor número posible de personas, lo que constituye una palanca muy eficaz para reducir las desigualdades. También puede contribuir a una transición hacia un crecimiento cualitativo, compatible con la transición ecológica. (Baverez, 2023, p. 21; la cursiva es nuestra)
La expectativa de un trabajo facilitado
La gran promesa que la IA hace a los periodistas, y particularmente una IA generativa como ChatGPT, es la de facilitar su trabajo gracias a la automatización de tareas y a la posibilidad de tratar, analizar y sintetizar enormes volúmenes de datos. Como ya se ha señalado, esta promesa es también lo que destacan, en su introducción, los códigos deontológicos analizados. Los artículos incluidos en este estudio recogen experiencias con la IA en varios medios de comunicación de Estados Unidos y Europa, especialmente en lo que respecta a la redacción de contenidos, la traducción de textos, la presentación de secciones fácticas vinculadas a lo que se denomina soft news (como el clima, los deportes o la bolsa) o también en el tratamiento de archivos, como en el caso de Radio France.
Este trabajo facilitado se presenta como una oportunidad que permite a los profesionales de la información dedicarse plenamente a la labor investigativa. El periodismo de escritorio estaría así destinado a desaparecer. Los periodistas, asistidos por la IA, contarían con tiempo para realizar entrevistas exclusivas y ejercer un periodismo de investigación. A este respecto, las opiniones coinciden en afirmar que la labor investigativa no podrá ser delegada a la IA (lo cual también es un compromiso asumido por las redacciones de los principales medios franceses a través de sus códigos deontológicos), aunque no tienen en cuenta las posibles evoluciones y mejoras de la IA que podrían superar sus limitaciones actuales y prevenir problemas ya observados. Al anticipar que los medios generalistas serán los más afectados, en algunos artículos y columnas de opinión se recomienda desarrollar un discurso periodístico personalizado, con marca autoral, así como la creación de nuevas secciones de opinión que garanticen la diversidad de puntos de vista. En los códigos analizados, este aspecto no aparece expresado como tal; más bien, el control editorial humano, la verificación y el respeto por las líneas editoriales se plantean como las principales garantías distintivas.
Sin embargo, si bien la prensa generalista francesa presenta algunas experiencias como exitosas (por ejemplo, la traducción de artículos por parte del diario Le Monde para su sitio web en inglés), otras ilustran fracasos. A menudo se trata de artículos generados con información falsa o mal redactados, que exigen a las redacciones un trabajo de corrección prolongado y costoso en términos de tiempo. El caso de un diario deportivo es un buen ejemplo:
En las oficinas neoyorquinas de Sports Illustrated, […] se desató una polémica encendida en torno a la inteligencia artificial (IA) generativa […]. Pocos días antes, la prensa estadounidense revelaba la existencia, dentro del medio, de falsos periodistas, creados por completo (con fotos y biografías falsas) mediante IA, con el fin de redactar artículos y promocionar productos. Aunque Ross Levinsohn insistió en su desconocimiento de la situación y en su inocencia, atribuyendo la responsabilidad a la empresa externa AdVon Commerce, a la que había encargado la redacción de dichos contenidos, el daño reputacional ya estaba hecho. […] Incómodo con la situación, el grupo propietario de Sports Illustrated, The Arena Group, optó por poner fin a la colaboración. (Cohen, 2023b, p. 28)
Es precisamente este tipo de desviaciones lo que las redacciones de los principales medios franceses se comprometen a prevenir, mediante la definición de líneas rojas que sus periodistas no deben transgredir. Sin embargo, ninguno de los códigos especifica de manera explícita si las empresas subcontratadas están igualmente obligadas a respetar estos mismos límites.
En particular, las redacciones se comprometen a llevar a cabo un control editorial sistemático y a mantener la transparencia con sus lectores (retomaremos este punto más adelante). Pero ¿cómo garantizar dicho control editorial y esa transparencia si parte de la producción de contenidos se subcontrata en un sistema mediático regido principalmente por imperativos de rentabilidad económica? Por otro lado, ¿qué pasa con la diversidad de opiniones y el interés colectivo que el periodismo afirma defender? Como ya se había señalado, es el código de Reporters Sans Frontières el que subraya con mayor claridad esta incompatibilidad entre la personalización de los contenidos (potencialmente orientada a maximizar la audiencia) y los valores democráticos que defiende el periodismo. La cuestión resulta aún más pertinente si se considera que las empresas mediáticas esperan que “gracias a los algoritmos, cada televidente tendrá la posibilidad de fabricar su propio informativo, en función de sus intereses, su lugar de residencia, su idioma, etc. También podrá elegir la apariencia de su presentador” (Sallé, 2023, p. 28). Pero ¿los televidentes, y en general los individuos, se preocuparán realmente por exponerse a una diversidad de puntos de vista o solo buscarán reforzar sus propias opiniones? ¿Se trata de una responsabilidad individual o de los medios de comunicación?
Según el discurso de los diarios franceses, ¿estaríamos ante el fin de un periodismo desde la sala de redacción y sin trabajo de campo en favor de una labor investigativa que aún merecería ser desarrollada? ¿O más bien los medios estarían considerando producir un mayor volumen de contenidos fácticos generados por IA, en función de las expectativas de públicos segmentados, con el objetivo de aumentar la audiencia y los beneficios? Los discursos periodísticos analizados en este estudio plantean la cuestión del interés real de automatizar el trabajo dentro del proceso de producción de contenidos informativos.
Amenazas para los periodistas y para la información
En contraposición a los discursos que exaltan los beneficios esperados de la IA en las salas de redacción, algunos artículos de prensa recogen expresiones de desconfianza, a través de discursos que subrayan los riesgos a los que se enfrentan los periodistas con el uso de estas tecnologías. La pérdida de empleos y el futuro de la profesión constituyen los principales temores mencionados en la prensa nacional francesa, como lo ilustra el siguiente fragmento:
Los empleados temen, a largo plazo, la destrucción de puestos de trabajo. En febrero, el editor alemán Springer invocó la IA como una de las razones que justificaban los despidos. Y en el ámbito del monitoreo de medios, el grupo Onclusive eliminaría, según sus sindicatos citados por Libération, 217 puestos de los 383 existentes, con el objetivo de delegar el trabajo de los empleados a programas informáticos”. (Laemle y Piquard, 2023, p. 18)
En los códigos deontológicos de los medios franceses no se establece ningún compromiso en relación con el empleo de los periodistas, aunque la defensa del oficio —dada su función social— sí se reivindica explícitamente.
Como se mencionó anteriormente, algunas experiencias llevadas a cabo por empresas mediáticas muestran que el uso de la IA puede deteriorar la calidad de los contenidos. El problema, recuerdan los periodistas, radica en que una herramienta como ChatGPT no distingue entre una información verificada y un contenido falso o engañoso. Este tipo de IA puede generar respuestas erróneas y reproducir los sesgos existentes en nuestras sociedades. En este sentido, algunos consideran que la IA representa “un verdadero riesgo para la democracia” (Sallé y Cohen, 2023, p. 29).
Frente a estos riesgos, se han previsto algunas medidas de protección, y precisamente esta es la función principal de los códigos analizados: especificar cómo prevenirlos (este punto será desarrollado más adelante). Sin embargo, la elaboración y publicación de estos documentos se enmarca en un contexto económico que tiende a imponerse sobre la calidad de la información y, en términos más amplios, sobre el mandato ciudadano del periodismo. De hecho, una de las principales preocupaciones de las empresas mediáticas durante el período considerado (2022-2024) ha sido la negociación, las acciones legales y las iniciativas destinadas a obligar a las empresas desarrolladoras de IA (incluida OpenAI) a remunerar a los medios tradicionales por el uso de sus contenidos —una cuestión que solo se menciona en el código de Reporters Sans Frontières—. En efecto, muchas IA se entrenan con contenidos procedentes de la prensa, que luego se utilizan para generar respuestas a los prompts de los usuarios, sin que se cite la fuente (el medio). Para las empresas mediáticas, resulta inaceptable que las empresas de IA obtengan beneficios económicos a partir de contenidos que tienen un costo de producción y por los cuales los medios cobran a sus audiencias. La prensa generalista francesa informa al respecto sobre los acuerdos alcanzados por varios medios o grupos mediáticos a nivel internacional: AFP, Prisa, Springer y Le Monde, entre otros. Estos contratos se presentan como una solución de beneficio mutuo: ingresos para los medios en crisis financiera y una garantía de calidad de los contenidos utilizados por las IA para generar respuestas, dado que —según recuerdan los propios medios— los contenidos periodísticos se verifican antes de ser publicados.
Amenaza para los empleados, promesa de rentabilidad para los empleadores… ¿y qué pasa con el público?
En el corpus de prensa predominan las referencias a los usos de la IA (ya observados o proyectados) por parte de las empresas mediáticas y de los periodistas (100 menciones en los 74 artículos analizados), con dos objetivos principales: responder a la crisis de confianza que enfrenta el periodismo ante su público y, en particular, a los problemas financieros de los medios, dado que, mediante el uso de estas herramientas, podrían ofrecer contenidos ajustados a los intereses de los usuarios (una oferta alineada con la demanda) y, al mismo tiempo, reducir los costos de producción informativa, con el objetivo de lograr una mayor rentabilidad. Ahora bien, los códigos analizados —en tanto actos de comunicación elaborados en respuesta a un contexto de crisis— no explicitan los riesgos financieros asociados a la IA. La estrategia de las empresas mediáticas, a través de estos documentos, es reivindicar un compromiso con la calidad informativa, con la esperanza de que sus audiencias se mantengan fieles y acepten pagar por contenidos que la IA pueden ofrecer de forma “gratuita”. La automatización de tareas, habilitada por la IA, no se presenta como un mecanismo para reducir los costos de producción, sino como una manera de ganar tiempo para garantizar la calidad de los contenidos. En otras palabras, detrás de este “solucionismo” tecnológico (Morozov, 2014), que se supone debe dar respuesta a las múltiples crisis que atraviesa el ecosistema informativo, lo cierto es que el interés colectivo y democrático ligado a la misión tradicional del periodismo parece relegado. Se observa que las referencias a los ciudadanos y a la misión social del periodismo son limitadas en los artículos de prensa analizados. Estos temas se mencionan únicamente en 11 artículos (en relación con la cuestión de los públicos) y en 14 artículos (que aluden a la misión social del periodismo) de los 74 textos que conforman el corpus de este estudio. Esto es particularmente significativo, dado que, como se indicó previamente, estos aspectos son fundamentales en los preámbulos de los códigos deontológicos analizados.
Cuando se menciona en los artículos de prensa, la misión del periodismo se asocia, ante todo, con la ética y la deontología. Conscientes de las posibles reservas que podría suscitar entre los lectores la integración de la IA en las salas de redacción, las empresas mediáticas —como el diario Le Monde— aseguran que dicha integración se llevará a cabo siempre bajo un control editorial humano. Este compromiso con los lectores también se manifiesta en todos los códigos deontológicos analizados, como lo demuestra la siguiente declaración del director general del grupo Figaro: “La transparencia está en el corazón de este código. No debemos sembrar la duda, se trata de un contrato moral con nuestros lectores” (“Charte IA”, 2023).
En el conjunto de los artículos de prensa analizado, el público se evoca más como consumidor que como ciudadano, mientras que en los códigos deontológicos ocurre lo contrario. Como se señaló anteriormente, la IA es percibida como una herramienta eficaz para adaptar la oferta a la demanda: “Vemos en la IA generativa un gran potencial para ofrecer a nuestros lectores y usuarios productos aún más atractivos y ajustados a sus necesidades” (declaraciones atribuidas a Samir Fadlallah, responsable del desarrollo de inteligencia artificial en Axel Springer) (Boutelet, 2023, p. 13). Pero si los medios solo entregan contenidos dirigidos a los lectores en función exclusiva de sus intereses, ¿cómo garantizar la pluralidad y diversidad de puntos de vista sobre la realidad del mundo? Ya se había mencionado que esta preocupación solo aparece claramente en el código de Reporters Sans Frontières. Los discursos mediáticos que componen el corpus de este estudio dejan, además, entrever una incertidumbre respecto del futuro de la información generalista: ¿qué sucederá con el periodismo “si, mañana, una parte de los ciudadanos considera que ya no necesita seguir a ningún medio, porque ChatGPT puede proporcionar directamente las respuestas a sus preguntas”? (declaración de un directivo de un diario nacional no identificado) (Cohen, 2023a, p. 24). De acuerdo con este estudio, los códigos elaborados por los grandes medios tradicionales franceses pueden interpretarse como una respuesta a este temor particular, aunque no lo mencionen de forma explícita.
Defender una actividad comercial apelando a compromisos democráticos
Los principios enunciados en los códigos deontológicos se sitúan, en cierto modo, en la intersección de los tres campos léxicos identificados en los artículos de la prensa nacional francesa que se estudiaron. En efecto, dichos principios y reglamentaciones permiten a los profesionales de la información legitimar el uso de las IAG en la investigación, la producción (a menor costo) y la difusión de contenidos informativos, al tiempo que buscan evitar los riesgos asociados a la generación y circulación de contenidos de baja calidad o que vulneren la misión social del periodismo. Se trata, así, de garantizar la sostenibilidad de la actividad de las empresas mediáticas y de defender la profesión volviendo a sus fundamentos. Es lo que sostiene, por ejemplo, Radio France con su Carta de compromisos y usos, que establece que la inteligencia artificial debe estar “al servicio de las misiones de servicio público” (“Mettre l’intelligence artificielle au service des missions de Radio France”, 2024), así como la Carta de París sobre la IA y el periodismo de Reporters Sans Frontières (“RSF et 16 organisations partenaires présentent la Charte de Paris sur l’IA et le journalisme | RSF”, 2023), cuyo preámbulo destaca la necesidad de una “cooperación mundial para que la IA respete los derechos humanos, la paz y la democracia, y sirva a nuestras aspiraciones y valores comunes”.
¿Cómo lograrlo? ¿Cuáles son las buenas prácticas recomendadas y cuáles están prohibidas? Se observa que los medios y las instancias profesionales difieren tanto en el número como en el nivel de detalle de los compromisos asumidos y de las prácticas sugeridas. Por ejemplo, el código sobre la IA del diario Le Figaro recomienda alrededor de diez prácticas para los periodistas que trabajan en esa redacción; el grupo Les Échos / Le Parisien formula cinco compromisos y el periódico Le Monde especifica cuatro. Es el CDJM el que ofrece las recomendaciones más detalladas, como se mencionó anteriormente. Estas directrices se inspiran en las disposiciones de la nueva Ley de Inteligencia Artificial de la Unión Europea (EU Artificial Intelligence Act, 2024), al distinguir entre riesgos bajos, moderados y altos asociados al uso de IA. El código del CDJM es, por cierto, el único —entre todos los documentos analizados— que alienta a “los periodistas y las redacciones a capacitarse en herramientas de IA, para comprender mejor lo que estas producen o para identificar sus riesgos, sesgos y limitaciones”. Finalmente, es el código de un medio público, Radio France, el que defiende un uso moderado de la IA como una forma de facilitar el trabajo de los periodistas. El texto subraya la misión de servicio público del medio y recomienda un uso de la IA que garantice la plena transparencia hacia los oyentes, el atractivo de los contenidos para un público amplio, el acceso más universal a la información y una mayor diversidad. Radio France es también el único medio que propone en su código una colaboración con actores europeos con el “objetivo de alcanzar soberanía y reducir la dependencia frente a los gigantes digitales”.
Las prácticas permitidas o prohibidas se fundamentan, en general, en dos principios esenciales: el control editorial y la transparencia hacia el público. En definitiva, los códigos analizados prohíben toda publicación de contenidos generados por IAG sin supervisión humana, especialmente cuando estos contenidos resultan realistas y podrían inducir a error, respecto de su naturaleza artificial. Los códigos permiten el uso de IA para automatizar ciertas tareas, siempre que se informe sistemáticamente a la audiencia que se ha utilizado inteligencia artificial (compromiso con la transparencia). Las IAG son presentadas únicamente como herramientas de asistencia; no están destinadas a reemplazar a los equipos editoriales. En otras palabras, a través de los códigos deontológicos, los medios buscan conciliar las promesas de facilitación del trabajo con los riesgos para la calidad informativa, las amenazas para la profesión periodística a mediano y largo plazo, y la rentabilidad y sostenibilidad de la actividad comercial que implica vender información.
Conclusión
El presente estudio se planteó como objetivo comprender cómo la prensa nacional francesa aborda los usos de la inteligencia artificial en el periodismo. Si al inicio la pregunta central era qué hacen o harán concretamente los periodistas con la IA, el análisis del corpus nos condujo a invertir ese interrogante: ¿qué terminarán haciendo al periodismo los distintos usos de la IA? Las expresiones de entusiasmo, así como las preocupaciones sobre el futuro de la profesión periodística, revelan un ecosistema informativo frágil y aún profundamente incierto frente a esta tecnología.
Si bien existe una promesa de facilitar el trabajo periodístico, ¿a quién beneficiará esto realmente? Los datos recogidos a partir de nuestro corpus sugieren que los propietarios de los medios probablemente priorizarán sus propios intereses de rentabilidad, mientras que los periodistas en las redacciones se verán limitados a acatar decisiones que los afectan directamente. Los desafíos asociados a la producción de una información “de interés público”, que permita a cada persona ejercer su papel como ciudadano en una sociedad democrática, suelen quedar relegados a un segundo plano. Las experiencias ya llevadas a cabo por distintas redacciones en Estados Unidos y Europa se inscriben, en efecto, principalmente en una lógica de reducción de los costos de producción de la información.
Los discursos emitidos por la prensa generalista en Francia reflejan tanto prácticas constatadas como usos proyectados de la inteligencia artificial en el periodismo, aunque generalmente en un horizonte de muy corto plazo. La actividad periodística mediada por IA se presenta a los lectores como un conjunto de tareas que pueden realizarse a bajo costo y que están diseñadas para satisfacer las necesidades de información segmentada de cada lector-consumidor. Aunque estos discursos periodísticos aluden a la necesidad de producir información de calidad, las exigencias de rentabilidad tienden a imponerse, reforzando así una visión parcial e incompleta de lo que realmente implica el trabajo informativo de los periodistas. Si bien las IA están supuestamente destinadas a asistir a las redacciones en la producción de un periodismo de calidad, las prácticas documentadas dependen en gran medida de la rentabilidad de las empresas mediáticas y de los intereses económicos de las compañías estadounidenses dedicadas al desarrollo de inteligencia artificial, como OpenAI.
Es bien sabido que las preguntas relacionadas con el tiempo que permite ahorrar la tecnología o con la automatización del trabajo no son nuevas. Estas se desarrollaron ampliamente con la revolución industrial y se reactivan con cada nueva invención tecnológica. Cabe señalar que estos avances no dejan de ir acompañados de una precarización de las condiciones laborales en numerosos ámbitos, incluido el del periodismo (Alexis et al., 2022; Staii, 2017).
En esta perspectiva, algunos medios proponen estrategias que podríamos calificar de más elaboradas, ya que buscan promover usos de la inteligencia artificial que valoren el periodismo, preservando al mismo tiempo una relación de confianza con el público. Por ejemplo, al identificar e informar a las audiencias sobre los distintos niveles de riesgo que puede implicar el uso de IA con respecto al cumplimiento de la deontología periodística (CDJM, 2023). En este sentido, la elaboración de códigos específicos para regular y precisar los usos de la IA también da cuenta de una voluntad de contrarrestar la pérdida del magisterio periodístico, ya fuertemente socavado por las tecnologías digitales (Demers, 2007). La actualización de los principios y normas deontológicas del periodismo a la luz de la inteligencia artificial generativa refuerza la distinción que la profesión y el público desean mantener entre una información periodística y los contenidos de carácter “artificial”.
La difusión, a través de los discursos mediáticos, de lo que constituye el trabajo efectivo del periodismo —en su diversidad de prácticas, sus responsabilidades y sus múltiples componentes— contribuye a una dinámica más sólida en los usos del binomio Periodismo-IA y en el poder que la profesión puede ganar o perder en este nuevo pulso frente a las tecnologías.
Referencias
Agossah, A, Krupa, F, Perreira da Silva, M, Deconde, G y Le Callet, P. (2022). Déploiement de l’IA en situation de travail : une trop faible considération de l’expérience des employé·es ? Sciences du Design, 2(16), 68-85. https://doi.org/10.3917/sdd.016.0068.
Alexis, L., Devillard, V., Granchet, A. y Le Saulnier, G. (dirs). (2022). Le Manuel de journalisme. Éd. Ellipses.
Babou, I. (1998). Des discours d’accompagnement aux langages : les nouveaux médias. Études de Linguistique Appliquée, 114, 407-420.
Baverez, N. (2023, abril 17). Chronique. La révolution ChatGPT. Le Figaro, 21.
Bellon, A. y Velkovska, J. (2023). L’intelligence artificielle dans l’espace public : du domaine scientifique au problème public. Enquête sur un processus de publicisation controversé. Réseaux, 4(240),31-70. https://doi.org/10.3917/res.240.0031.
Boutelet, C. (2023, junio 29). En Allemagne, le quotidien “Blind” réduit ses coûts et mise sur l’IA. Le Monde, 13.
Charte IA. (2023, diciembre). Le Figaro. https://mentions-legales.lefigaro.fr/le-figaro/charte-ia
Cohen, C. (2023a, mayo 30). L’intelligence artificielle, un défi pour la profession de journaliste. Le Figaro, 24.
Cohen, C. (2023b, diciembre 12). Comment certains médias jouent les apprentis sorciers. Le Figaro, 28.
Conseil de déontologie journalistique et de médiation (CDJM). (2023). Journalisme et intelligence artificielle : les bonnes pratiques. Autor. https://cdjm.org/journalisme-et-intelligence-artificielle-les-bonnes-pratiques/
Crépel, M. y Cardon, D. (2022). Robots vs algorithmes. Prophétie et critique dans la représentation médiatique des controverses de l’IA. Réseaux, 2(232-233), 129-167. https://doi.org/10.3917/res.232.0129
De quelles façons « Le Monde » se sert-il de l’IA ?. (2024, diciembre 5). Le Monde. https://www.lemonde.fr/le-monde-et-vous/article/2024/12/05/de-quelles-facons-le-monde-se-sert-il-de-l-ia_6431288_6065879.html
Demers, F. (2007). Déstructuration et restructuration du journalisme. Tic&société, 1(1), 29-55. https://journals.openedition.org/ticetsociete/298
Esquenazi, J. P. (2014). L’écriture de l’actualité. Presses Universitaires de Grenoble.
EU Artificial Intelligence Act. (2024). The Act Text. Autor. https://artificialintelligenceact.eu/
France Télévisions. (2023). France Télévisions : L’information en toute transparence. Autor. https://www.francetelevisions.fr/et-vous/notre-tele/on-sengage/franceinfo-linformation-en-toute-transparence-26940
Gault, G. y Medioni, D. (2022). Les Français et la fatigue informationnelle. Mutations et tensions dans notre rapport à l’information. Fondation Jean Jaurès. https://www.jean-jaures.org/publication/les-francais-et-la-fatigue-informationnelle-mutations-et-tensions-dans-notre-rapport-a-linformation/
Glaser, B. G. y Strauss, A. L. (2022). La découverte de la théorie ancrée : stratégies pour la recherche qualitative (2.. ed.). Armand Colin.
Glaser, B. G. y Strauss, A. L. (1995). La production de la théorie à partir des données. Enquête, (.), 183-195.
IA : Les engagements du groupe Les Echos-Le Parisien. (2023, mayo 23). Groupe Les Echos / Le Parisien. Autores. https://pressroom-lesechos-leparisien.com/ia-les-engagements-du-groupe-les-echos-le-parisien/
Jeanneret, Y. (2001). Autre chose qu’un discours, davantage qu’un accompagnement, mieux qu’une résistance, Terminal, 85, https://www.revue-terminal.org/no_speciaux/85/Jeanneret.html
La Charte d’éthique et de déontologie du groupe Le Monde. (2010, noviembre 3). Le Monde. https://www.lemonde.fr/actualite-medias/article/2010/11/03/la-charte-d-ethique-et-de-deontologie-du-groupe-le-monde_1434737_3236.html
Laemle, B. y Piquard, A. (2023, septiembre 22). Les médias s’essaient prudemment à l’IA. Le Monde, 18.
Mercier, A. (2018). Fake news : Tous une part de responsabilité ! The Conversation. http://theconversation.com/fake-news-tous-une-part-de-responsabilite-95774.
Mettre l’intelligence artificielle au service des missions de Radio France. (2024, octubre). Radio France. https://www.radiofrance.com/mettre-lintelligence-artificielle-au-service-des-missions-de-radio-france
Morozov, E. (2014). Pour tout résoudre, cliquez ici. FYP Éditions.
Ressa, M. y Russell, S. (2024, marzo 16). Intelligence artificielle : « Nous aspirons à un journalisme augmenté, pas à un jugement humain diminué ». Tribune, Le Monde.fr. https://www.lemonde.fr/idees/article/2024/03/16/intelligence-artificielle-nous-aspirons-a-un-journalisme-augmente-pas-a-un-jugement-humain-diminue_6222377_3232.html
Rodhe, E. (2012). Chartes et codes de déontologie : une synthèse est possible et nécessaire. Les Cahiers du journalisme, (24), 234–261.
Ronderos, M. T. (2019). L’intelligence artificielle exige un journalisme authentique. Global Investigative Journalism Network (GIJN). https://gijn.org/2019/01/17/lintelligence-artificielle-exige-un-journalisme-authentique
RSF et 16 organisations partenaires présentent la Charte de Paris sur l’IA et le journalisme | RSF. (2023, noviembre 10). Reporters Sans Frontières. https://rsf.org/fr/rsf-et-16-organisations-partenaires-pr%C3%A9sentent-la-charte-de-paris-sur-l-ia-et-le-journalisme
Sallé, C. (2023, diciembre 16). Comment une start-up américaine veut créer le nouveau CNN entièrement généré par l’IA. Le Figaro, 28.
Sallé, C. y Cohen, C. (2023, noviembre 20). Désinformation : les alarmants progrès de l’IA menacent les médias traditionnels. Le Figaro, 29.
Sanders, W. (2010). Documentary Filmmaking and Ethics: Concepts, Responsibilities, and the Need for Empirical Research. Mass Communication and Society, 13(5), 528‑553. https://doi.org/10.1080/15205431003703319
Skovsgaard, M., y Andersen, K. (2020). Conceptualizing News Avoidance: Towards a Shared Understanding of Different Causes and Potential Solutions. Journalism Studies, 21(4), 459-476. https://doi.org/10.1080/1461670X.2019.1686410
Souchier, E., Candel, E., Gomez-Mejia, G. y Jeanne-Perrier, V. (2019). Le numérique comme écriture. Théories et méthodes d’analyse. Armand Colin.
Staii, A. (2017). L’automatisation au cœur de l’industrialisation des médias numériques. Les Enjeuxde l’Information et de la Communication, 18(3A), 65-75.
Ward, S. J. A. (2009). Journalism Ethics. En K. Wahl-Jorgensen y T. Hanitzsch (eds.), The Handbook of Journalism Studies (pp. 295‑308). Taylor & Francis.
Wilkins, L. y Brennen, B. (2004). Conflicted interests, Contested Terrain : Journalism Ethics Codes Then and Now. Journalism Studies, 5(3), 297‑309. https://doi.org/10.1080/1461670042000246061
Notas
*
Artículo de investigación
1
Le Monde, diario generalista y de
referencia en Francia, fundado en 1944, es reconocido por mantener una línea
editorial de centro-izquierda y una orientación internacional.
2
Fundado en 1973, Libération presenta
una línea editorial de izquierda y progresista.
3
L’Humanité es un diario fundado en 1904,
vinculado históricamente a la izquierda, inicialmente socialista y
posteriormente comunista.
4
El diario más antiguo aún en circulación, Le
Figaro, fundado en 1826, es considerado como un periódico de derecha o
centro-derecha.
5
Fundado en 1883, La Croix se presenta
como un diario de información general y política que afirma su identidad
católica.
6
Aujourd’hui en France corresponde a la
edición nacional del diario regional Le Parisien.
Fundado en 1944, el periódico reivindica una línea editorial de cercanía con su
lectorado.
7
Todas
las traducciones de los extractos de prensa francesa y de los códigos
deontológicos citados en este artículo han sido realizadas por las autoras.
Notas de autor
a Autora de correspondencia. Correo electrónico: yeny.serrano@unistra.fr
Información adicional
Cómo citar: Serrano, Y. y Béasse,
M. (2025). Lo que la IA hace al
periodismo, lo que el periodismo hace a la IA: el caso de la prensa francesa. Signo y
Pensamiento, 44. https://doi.org//10.11144/Javeriana.syp44.ihpp