Contextos poco informativos y contextos epistémicamente redundantes. Una revisión desde Claude Shannon y Luciano Floridi al problema de la personalización algorítmica*

Uninformative contexts and epistemically redundant contexts. A review from Claude Shannon and Luciano Floridi to the problem of algorithmic personalization

Contextos não informativos e contextos epistemicamente redundantes. Uma análise de Claude Shannon e Luciano Floridi sobre o problema da personalização algorítmica

Tamara Jesús Chibey Rivas , Jorge Francisco Silva

Contextos poco informativos y contextos epistémicamente redundantes. Una revisión desde Claude Shannon y Luciano Floridi al problema de la personalización algorítmica*

Signo y Pensamiento, vol. 42, 2023

Pontificia Universidad Javeriana

Tamara Jesús Chibey Rivas

Universidad Nacional de Córdoba, Argentina


Jorge Francisco Silva a

Universidad Alberto Hurtado, Chile


Recibido: 22 marzo 2022

Aceptado: 12 julio 2022

Resumen: A partir de la teoría matemática de la información (TMI) de Shannon y algunas sugerencias de Luciano Floridi en torno a los desafíos de la revolución tecnológica, este artículo indaga los efectos epistémicos de entornos redundantes. Para lograr aquel propósito, se revisan los conceptos de información y redundancia de la TMI que luego se relaciona con la figura literaria del cuervo de Poe. En primera instancia, se expone la TMI y se analiza la información en tanto su transmisibilidad. A continuación, se reconfigura el problema de la información en el contexto de algoritmos de plataformas digitales y se vincula la personalización del contenido con la redundancia. Después, se proponen los conceptos de espacios poco informativos y de espacios epistémicamente redundantes para dar cuenta de las condiciones de homogeneidad generadas por entornos hiperpersonalizados. Finalmente, se realiza una pequeña propuesta en torno a la medición de la redundancia.

Palabras clave:información, algoritmo, contextos poco informativos, contextos epistémicamente redundantes, plataformas digitales.

Abstract: Based on Shannon's mathematical information theory (MIT) and some suggestions by Luciano Floridi regarding the challenges of the technological revolution, this article investigates the epistemic effects of redundant environments. To achieve that purpose, the concepts of information and redundancy of MIT are reviewed and then related to the literary figure of Poe’s raven. In the first instance, MIT is exposed and information is analyzed in terms of its transmissibility. Next, the information problem is reconfigured in the context of digital platform algorithms and the personalization of content is linked to redundancy. Then, the concepts of uninformative spaces and epistemically redundant spaces are proposed to account for the conditions of homogeneity generated by hyper-personalized environments. Finally, a small proposal on the measurement of redundancy is made.

Keywords: Information, Algorithm, Uninformative Contexts, Epistemically Redundant Contexts, Digital Platforms.

Resumo: Com base na teoria da informação matemática de Shannon (MIT) e em algumas sugestões de Luciano Floridi sobre os desafios da revolução tecnológica, este artigo investiga os efeitos epistêmicos de ambientes redundantes. Para atingir esse objetivo, os conceitos de informação e redundância da TMI são revisados e, em seguida, relacionados à figura literária do corvo de Poe. Em um primeiro momento, a TMI é apresentada e as informações são analisadas em termos de sua transmissibilidade. Em seguida, o problema da informação é reconfigurado no contexto dos algoritmos da plataforma digital e a personalização do conteúdo é vinculada à redundância. Em seguida, são propostos os conceitos de espaços não informativos e espaços epistemicamente redundantes para explicar as condições de homogeneidade geradas por ambientes hiperpersonalizados. Por fim, é feita uma pequena proposta com relação à medição da redundância.

Palavras-chave: informação, algoritmo, contextos não informativos, contextos epistemicamente redundantes, plataformas digitais.

Introducción

El explosivo desarrollo de las tecnologías de la información y comunicación (TIC) a partir del siglo XXI ha demostrado cada vez más un carácter ubicuo. La presencia de aparatos inteligentes como los smartwatch, que permiten monitorear varios signos vitales de las personas, los smartphones, acaso el aparato inteligente más difundido actualmente en el mundo, vehículos que se pueden conducir solos o prevenir accidentes, recetas de cocina que puedes escuchar desde la voz de Siri, entre una larga serie de innovaciones, dan la sensación cada vez más general de estar siempre “conectado”. Algunos autores ya se han dado cuenta de esta condición. Tonya Rooney (2015) propone que la diferencia entre un mundo online y uno offline es cada vez más difícil de sostener. En cambio, se trataría de una especie de continuum que difumina las fronteras y las vuelve poco claras. Por su parte, Luciano Floridi ha conseguido instalar con éxito el concepto onlife precisamente para dar cuenta “de la nueva experiencia de una realidad hiperconectada en la que ya no hace sentido preguntarse si uno se encuentra más bien online u offline” (2015, p. 1). En gran parte para dar cuenta de los desafíos que supone esta nueva condición humana, es que el mismo Floridi (2011) ha apostado por la fundación de una filosofía de la información que dé cuenta de distintos problemas generados por esta irrupción tecnológica y en distintos niveles.

Este artículo aborda particularmente el papel epistémico de la redundancia en plataformas digitales, sobre todo redes sociales (social media) como Facebook o YouTube, en tanto espacios de fabricación y difusión de información. En un sentido más específico indaga sobre la distribución de la responsabilidad en estos casos. En virtud de lo anterior, la pregunta que guía la investigación es ¿qué efectos produce la hiperpersonalización de la información y los algoritmos en contextos digitales? Así, se propone como hipótesis que espacios altamente redundantes en la producción y selección de la información producen ambientes adversos para procesos deseables de formación de creencias. Aquí se le llama a estos escenarios ambientes poco informativos y afectan al usuario creando una carencia en los recursos disponibles para las personas en la formación de su imagen del mundo y al subsumir las heterogeneidades bajo la complacencia del usuario, por lo que también se les considera epistémicamente redundantes. Este tipo de entornos se podría configurar con más probabilidad en entornos digitales operados por algoritmos enfocados en un alto nivel de personalización del contenido, tales como PageRank de Facebook o YouTube. Ahora bien, aunque lo que Luciano Floridi ha llamado “la cuarta revolución” (2014) o, en otras palabras, la explosiva evolución de las TIC, ha puesto en el centro de distintas investigaciones tanto filosóficas como científicas el concepto de información, este no ha conseguido ser definido de forma unánime. Un “escándalo” para la filosofía actual, llama Floridi (2011, p. 30) a esta situación, en especial por hacer tan posible generar ambigüedades en torno a su utilización e investigación. Por ello, al elegir abordar un asunto sobre la información es necesario explicitar el trasfondo teórico que supone dicha aproximación como un primer punto de partida.

El artículo prosigue de la siguiente manera. En primer lugar, se realiza una aproximación matemática de la comunicación (TMI) al concepto de información, principalmente a partir de Claude Shannon para profundizar en el concepto de redundancia, la necesidad de esta y sobre un particular agente, este es el agente unario de información. Aquel es un concepto de información que hace énfasis en el hecho de la comunicación de la información. En segundo lugar, para vincular este escenario con problemas surgidos en entornos digitales se recurre al análisis del problema de ciertas configuraciones algorítmicas que pueden resultar en contextos poco informativos, como el anteriormente expuesto. Se trata de una aproximación más vinculada con las dinámicas de la información (Floridi, 2011). Las consecuencias de este escenario se analizan ponderando su impacto epistémico, inspirado en parte por el mismo Luciano Floridi y por sugerencias desarrolladas en el campo de la epistemología social. Asimismo, se presentan condiciones de determinadas configuraciones algorítmicas que pueden producir contextos redundantes como producto de una hiperpersonalización, tales como la cámara de eco y el filtro de burbuja y algunas consecuencias de estos escenarios epistémicamente redundantes. Finalmente, se presenta una reflexión sobre la cuestionada neutralidad de los algoritmos, el rol de los programadores en la labor por evitar contextos poco informativos y redundantes y algunos elementos a tener en cuenta para abordar el problema.

Claude Shannon: información y redundancia

La segunda mitad del siglo XX estuvo marcada por la Segunda Guerra Mundial, contexto histórico que impactó en el desarrollo de diversos campos de investigación, entre los cuales se cuenta un gran avance en las tecnologías de telecomunicaciones. Uno de los pioneros en esa área fue Claude Shannon, matemático e ingeniero estadounidense de los Laboratorios Bell, quien trabajó en la compañía telefónica AT&T junto con su colega Warren Weaver, biólogo e informatólogo estadounidense. Ambos publicaron La teoría matemática de la comunicación (1940), libro que establece importantes bases para el desarrollo contemporáneo en torno al concepto de información y sus diversas aplicaciones. Shannon, según Rodríguez (2019),

Había trabajado en el desencriptamiento de mensajes antes de retomar las investigaciones de Nyquist y Hartley sobre los códigos y las señales de transmisión. Shannon estableció un primer corte importante con esos estudios, que analizaban los códigos y las señales a partir de la selección de símbolos con la misma probabilidad de aparición. Para descifrar un mensaje cuyo código no se conoce, es necesario ser muy preciso en la identificación de ciertos patrones de aparición de los símbolos. Así, Shannon llegó a la conclusión de que debía aplicarse el cálculo de probabilidades a la medición de la información que habían concebido Nyquist y Hartley. En definitiva, los símbolos a descifrar eran como las moléculas de gas de la termodinámica: no se puede saber la posición de cada uno, sino inferirla a través de la posición de algunos otros. (p. 74)

Lo que se transmite en lo que denominamos información son señales que indican un código determinado que, en algunos casos, se intenta descifrar (como lo fue para Alan Turing con la máquina Enigma). Entonces, lo que se mide es la probabilidad de aparición de aquella señal. El aporte de Shannon fue incorporar el cálculo de probabilidades para medir la información, cuestión que en efecto ni Nyquist ni Hartley habían hecho; a este enfoque se le ha llamado teoría matemática de la información (TMI).

Para estos dos ingenieros (Shannon y Weaver) concebir la información como una probabilidad estadística, es decir, como una fórmula que expresara una cantidad medible, fue fundamental. En este sentido, la cantidad de información depende de la sorpresa de aparición de la señal. Mientras más sorpresa o incertidumbre hay, mayor es el valor informativo y mayor la cantidad de información a descifrar. Si se quiere, a mayor sorpresa o incertidumbre mayor es la información. O como lo expresa Rodríguez (2012): “Medir matemáticamente la información es medir la incertidumbre asociada al productor de una fuente de mensajes” (p. 33). Esto quiere decir que la información se mide a partir de “todas las señales emitidas por una fuente” (Rodríguez, 2012, p. 33) y no a las señales individuales, entonces. “son las propiedades estadísticas de la Fuente las que marcan cuánta información hay en un conjunto de mensajes” (Rodríguez, 2012, p. 33). Como la información es medible, debe tener una unidad de medición, que en este caso es la medida logarítmica, que corresponde al logaritmo en base 2, cuyas unidades resultantes son los dígitos binarios o bits.

Aun comprendiendo básicamente qué entienden Shannon y Weaver por información, hay una cuestión estructural de la comunicación que no puede faltar. Para Shannon, el problema —propio de su época— de la comunicación es “reproducir de un punto, ya sea exactamente o bien aproximadamente un mensaje seleccionado en otro punto” (Shannon y Weaver, 1949, p. 31). Es decir, la comunicación, la información, en efecto, tiene un carácter lineal: de una fuente emisora a una fuente receptora, tal y como aparece en la figura 1.

Adaptación de The Mathematical Theory of Communication de Shannon y Weaver, 1949
Figura 1.
Adaptación de The Mathematical Theory of Communication de Shannon y Weaver, 1949


Fuente: elaboración propia.

Un primer ejemplo actual de este esquema podría ser una conversación por WhatsApp o por cualquier servicio de mensajería instantánea. Por un lado, hay una persona que envía un mensaje a otra persona que lo recibe. Sea la fuente de información, el emisor, Juan, hay también un transmisor que adapta la señal para su transmisión por el canal, el smartphone; el canal que es el material que soporta la transmisión, el aire o infraestructura de la red; finalmente, del otro lado, el receptor, quien o que reconstruye el mensaje y el destino, Sofía y su smartphone (Chibey y Silva, 2021). Rodríguez tiene un buen ejemplo para aplicar esta teoría mediante una conversación por WhatsApp o mensaje de texto:

Cuando se escribe “q” para significar “que”, se está asumiendo que la letra “q” es información, ya que no se puede predecir su aparición antes de ser escrita […]. Ahora bien, luego de la letra “q”, la letra “u” no tiene ningún valor informacional porque en castellano la “u” siempre acompaña a la “q”. Y la letra “e” solo es una de dos opciones posibles después de la “u”, siendo la otra la “i”. (2019, p. 75)

De esta manera, la palabra “que” se puede abreviar de manera que aparezca solo una “q” seguida de un espacio y luego de otras palabras y equivaldría a la palabra “que”. Por lo tanto, “q” tendría un valor informacional, en cambio “u” y “e” no, por lo menos en castellano.

Un segundo ejemplo de este esquema, pero con un peculiar emisor, lo ofrece Luciano Floridi en Information: A very short introduction (2010) al utilizar el cuervo de Poe como emisor de información. En el poema The raven de Edgar Allan Poe (1884), se le aparece al protagonista un cuervo que irrumpe en su pieza. El protagonista que intenta interrogar al cuervo encuentra una y la misma respuesta en cada uno de sus intentos: “Nunca más” (p . 20). A esta clase de agente que emite uno y el mismo mensaje, se le denomina agente unario (Floridi, 2010). Los mensajes de cualquier agente unario resultan poco informativos, dado que su incertidumbre es cero, toda vez que la probabilidad de que cambie la respuesta es cero, si por definición el cuervo no puede entregar otra respuesta. Ahora bien, aunque un agente unario resulta poco informativo no es del todo imprescindible. Puesto que la TMI de Shannon está centrada en la eficacia con la que un mensaje se transmite, cierto nivel de redundancia es deseable, en especial para combatir la adversidad del ruido. A diferencia del ejemplo anteriormente entregado de una comunicación por un servicio de mensajería instantánea, más bien figúrese un escenario de guerra en el que se debe informar a la población que deben evacuar y las zonas en las que deben evacuar y en el cual el medio para hacerlo es la radio o el teléfono. Para conseguir una mejor probabilidad de que el mensaje sea recibido con éxito por la población, es deseable que el mensaje sea repetido más de una vez para contrarrestar cualquier evento que dificulte la comunicación: tanto el ruido,1 tan real y característico de las antiguas transmisiones radiofónicas y telefónicas, como la simple posibilidad de que no todos los ciudadanos estén escuchando la señal la primera vez que se emite la alerta. Así, repetir un mismo mensaje o repetirlo de formas ligeramente diferentes aumenta las probabilidades de éxito con las que un mensaje se ha transmitido y puede llegar a resultar vital en la comunicación de ciertos eventos. Sin embargo, este artículo sostiene la existencia de otros escenarios en los cuales la redundancia puede ser innecesaria, no deseable y posiblemente nociva si el énfasis no es puesto en la eficacia con la que el mensaje es entregado, sino en su rol en la formación de creencias y adquisición de conocimiento por parte de las personas. A aquellos casos se les denomina contextos poco informativos, toda vez que ofrecen pocas o bajas chances de entregar una información novedosa o sorpresiva para quienes habitan estos ambientes.

Entornos hiperpersonalizados: el problema de los algoritmos

Los problemas de la información en el contexto de la revolución de la computación se expandieron de forma tal que no bastó tratar a la información en tanto que el problema de transmitir un mensaje, como lo fue para Shannon. Los problemas de las dinámicas de la información, como argumenta Floridi (2011), se multiplicaron en distintos niveles. El almacenamiento, la organización y el rol epistémico de la información son solo algunas de las dimensiones que han sido necesarias para el estudio de las dinámicas de la información, aunque, como sostiene Floridi, el problema más relevante de las dinámicas de la información consiste más bien en “los procesos mismos de la información, lo que sea que ocurra entre la fase de input y la fase de output” (2011, p. 32). Un problema actual relacionado con las dinámicas de la información a partir del surgimiento de redes sociales (social media) como Facebook o YouTube y motores de búsqueda como Google o Bing! ha sido el de poder hacer accesible y manejable para los usuarios grandes cantidades de información. Con base en la abundancia de información y de respuestas posibles a alguna búsqueda en estas plataformas, se configuran problemas como el siguiente. Imagínese que quiere contactar con Esteban, su excompañero de universidad, más no recuerda sus apellidos, de forma tal que en el buscador de Facebook ingresa la búsqueda solo por “Esteban”. El problema con el que debe lidiar Facebook es el de poseer en su base de datos un incalculable número de perfiles con el nombre “Esteban”. Su éxito consiste en sugerir acertadamente como primer resultado o entre los primeros resultados al Esteban, su excompañero de universidad, y no, sin más, una lista de todos los perfiles bajo ese nombre. De la misma forma, para una persona que ingresa en Google una búsqueda por un centro de vacunación, el éxito consiste en entregar respuestas acertadas, por ejemplo, la ubicación de centros de vacunación cercanos y no una lista de los centros de vacunación de otra ciudad. Esa capacidad de entregar acertadamente los resultados, pero más aún, de incluso sugerir información sin la necesidad de ingresar activamente una búsqueda, ha sido conseguida en gran parte gracias a la utilización de algoritmos de personalización y, aunque existen antecedentes de personalización que se remontan al DailyMe de Negroponte (Sunstein, 2017), han sido estas plataformas las que han llevado la personalización al actual nivel de desarrollo. Como se puede ver, los problemas en torno a la información aquí no son los mismos que para Shannon. No se trata tanto de un problema de comunicación como de, en un primer instante, de almacenamiento, organización y categorización de la información y de, en un segundo instante, de curaduría y gestión de la información, como se verá a continuación.

Aunque existe polémica en torno a una definición rigurosa sobre el concepto de algoritmo (Gurevich, 2011), basta entender algoritmo como un conjunto de operaciones finitas que permiten resolver un problema (Morales, 2018) y, para este caso, como un procedimiento computacional (Dourish, 2016). Por definición, estos suponen una entrada (input), un proceso, y una salida (output) o resultado. La revolución de la personalización consiste en que el diseño de algoritmos como PageRank (el algoritmo de Facebook que ordena la página de noticias) tiene también en cuenta grandes cantidades de información individuales sobre el usuario (Bozdag, 2013; Habegger et al., 2014; Pariser, 2011). Dicho de otra forma, cada usuario que ingresa una búsqueda por “Esteban” encuentra una respuesta que ha sido compuesta no solo por la búsqueda en particular, sino que también por una serie de otros datos del usuario que han sido recolectados con anterioridad y que aquí son aprovechados. Datos tales como la universidad o el colegio en el que ha estudiado el usuario o su lugar de trabajo. Ahora bien, aunque la personalización en este caso ha significado un gran paso para hacer al usuario más accesible su navegación, también ha sido foco de críticas y polémicas tanto por la capacidad de explotar estos diseños para operar algoritmos sin el consentimiento de los usuarios (Habegger et al., 2014) como por la posible capacidad de generar ambientes herméticos. Esto, porque los algoritmos personalizados no solo operan como respuesta a búsquedas activas, por el contrario, operan constantemente en plataformas como Facebook, Instagram o YouTube, seleccionando y ordenando el contenido que cada usuario ve en la plataforma solo con el hecho de ingresar a ella (Pariser, 2011; Powers, 2017), es decir, contenido sugerido. Por ello, es posible considerar que estas plataformas realizan auténticas curadurías (Pariser, 2011) de la información, pues su rol excede por mucho el de procurar la comunicación de la información entre las partes, para ocuparse también de qué información debe ser vista y atendida, siguiendo criterios propios y dejando por fuera aquella información que no satisface este criterio construido con base en el usuario, pero sin su participación.

El papel de curadores que adquieren los algoritmos en la presentación de información a los usuarios ha provocado otro tipo de problemas, esta vez no relacionados con la comunicación ni con formas de establecer orden entre grandes cantidades de información, sino con problemas de índole epistémica relacionados con los efectos de la curaduría de la información. Esto es, un impacto en la adquisición de conocimiento, en la formación de creencias y opiniones de las personas, pero, más importante aún, en la imagen del mundo que cada cual se forma. Uno de estos problemas consiste en que este proceso de curación y categorización de la información, por ejemplo, respecto a su relevancia, ocurre en gran parte a espaldas de los usuarios en dos sentidos. Primero, porque el usuario no percibe directamente la ejecución del algoritmo en la selección de la información. Dicho de otra forma, el proceso no ocurre explícitamente frente a sus ojos, ocultándose en segundo plano tras la misma información que presenta. Segundo, porque existe un alto nivel de opacidad en la ejecución de esta selección (Floridi, 2011), lo que se evidencia en dos aspectos: de una parte, ni los usuarios ni la comunidad científica tienen acceso a los códigos de los algoritmos que corren la mayoría de los sitios de redes sociales o de los motores de búsqueda (Floridi, 2011), lo cual se justifica por el riesgo que supondría para la seguridad de los mismos usuarios un uso malicioso de esta información; de otra parte, en el hecho que una gran parte de los usuarios de redes sociales no estén al tanto de que el contenido que ven ha sido personalizado (Powers, 2017). La baja alfabetización de importantes segmentos poblacionales con respecto al funcionamiento de este tipo de plataformas digitales, sumada a la real imposibilidad de percibir la selección de contenido que ocurre en tiempo real, pueden constituir un problema al producir una injustificada sensación de neutralidad y objetividad en las fuentes mismas de la información, sin considerar que las piezas de información que llegan a su alcance lo hacen siguiendo determinadas directrices. En otras palabras, los usuarios pueden pensar que la forma en la que llegan a enterarse de información a través de espacios digitales resulta más neutral y objetiva que otras instancias, por ejemplo, noticieros o periódicos. Más aún, pueden llegar a pensar que la información que ven en estos espacios digitales no es muy distante de la que encontrarían en otro tipo de interacciones fuera de entornos digitales.

Otro problema relacionado a los efectos de la curaduría de la información consiste en su proclividad a generar fenómenos epistémicos indeseables. Uno de ellos es el de la cámara de eco (Chibey y Silva, 2021; Hendricks y Hansen, 2016; Sunstein, 2017). Una de las características más notables y que permite explicar gran parte del éxito de plataformas de RRSS consiste en la posibilidad de formar grandes comunidades unidas en torno a intereses comunes. Así, es posible encontrar grupos reunidos en torno a asuntos triviales y benignos, como bandas musicales, estilos de arquitectura, etc. Sin embargo, también es posible encontrar grupos reunidos con base en creencias u opiniones no tan benignas ni triviales en distintas escalas, desde grupos y espacios en los que se alojan posiciones supremacistas raciales (Makombe et al., 2020; Nouri et al., 2021) hasta grupos en los que se refuerzan conductas homofóbicas o sexistas (Kian et al., 2011). El problema con la existencia de estos entornos de creencias compartidas consiste en que pueden configurar cámaras de eco “en la cuales una y otra vez se presta atención a la repetición de la propia convicción por parte de los compañeros de partido” (Hendricks y Hansen, 2016, p. 151).

Así, la cámara de eco consiste en un entorno que bien puede ocurrir en el mundo offline,2 pero que en entornos digitales parece potenciarse, toda vez que consiste en parte funcional de estos entornos el dar encuentro entre personas con intereses similares. En este tipo de espacios una creencia o un grupo de creencias es repetida constantemente sin dejar espacio a la manifestación de otras creencias o puntos de vista que puedan resultar contradictorios. Un efecto epistémico claro al estar sometido a estos contextos consiste en que los miembros del grupo pueden volverse menos críticos y reflexivos respecto a la creencia personal que es compartida y, en casos extremos, radicalizar sus creencias. En ese sentido, Hendricks y Hansen afirman que “la falta de expresiones de opinión nuevas, ajenas y competitivas puede motivar la fragmentación de la sociedad, lo que no es inocente y mucho menos beneficioso desde el punto de vista social, político o religioso” (2016, p. 152). Ahora bien, aun cuando para ingresar a estos grupos es necesaria la agencia del usuario, no es menor el papel que cumplen estos sitios a la hora de sugerir páginas y grupos que coincidan con el interés del usuario. Por ello, los mismos algoritmos que tienen por propósito presentar información que resulte relevante para el usuario, dados sus gustos particulares, pueden resultar irreflexivos o no distinguir los conflictos éticos detrás del contenido que sugiere. Aún más, la cámara de eco no solo debe concebirse al interior de grupos o páginas específicas alojadas en estas plataformas, ya que toda vez que el contenido es personalizado de forma general, es decir, desde la página de noticias o página de inicio de cualquier plataforma, la cámara de eco se puede encontrar ampliada hasta ocupar una porción relevante del contenido que el usuario ve: no ve solo un grupo, sino varios grupos, varias publicaciones, videos, imágenes, etc., que coinciden también con los intereses del usuario.

Otro fenómeno causado por el empleo de la personalización del contenido es conocido como el de filtro de burbuja (Pariser, 2011; Chibey y Silva, 2021). El filtro de burbuja se produce por el mismo hecho que los algoritmos seleccionen la información y que la información vista por cada usuario como resultado de su búsqueda sea ajustada al perfil que los algoritmos han hecho del mismo, o, incluso, por el solo hecho de acceder a una red social que es personalizada, única y que ha filtrado el contenido no deseado previamente. De esta forma, la información que es vista por cada usuario lo es una vez que consigue superar el filtro que los algoritmos imponen a toda la información disponible. Distintos autores (Hendricks y Hansen, 2016; Powers, 2017) han identificado problemas relacionados a esta tendencia. La más clara consiste en la posibilidad de encerrar al usuario en un grupo reducido de información disponible, alejándole o escondiéndole otro grupo de información, sin que el usuario esté alerta de este hecho. Otros identifican, al igual que en la cámara de eco, efectos negativos concernientes a la democracia, por ejemplo, dado el posible efecto polarizador que ambos fenómenos parecen intensificar (Du y Gregory, 2016). De esta forma, los problemas de la información relacionados con la curaduría de la información abren también una serie de problemas en torno a la información, pero relacionados con sus efectos epistémicos, éticos y políticos.

Tanto la presencia ubicua de entornos digitales, como argumenta Floridi (2011), como la presencia persistente de las personas en estos entornos los ha transformado en espacios de especial relevancia para la adquisición de conocimiento, para la formación de creencias y, en último caso, como lugares relevantes para los recursos con los cuales las personas interpretan el sentido del mundo. Esto, tanto por haberse convertido en importante intermediario entre las personas y el acceso a noticias como por su carácter de espacio público, como argumentan Hendricks y Hansen (2016) al definir un espacio público como una estructura de intercambio de información. Para estas consideraciones, la información ya no es abordada en cuanto a su transmisibilidad, incertidumbre o en cuanto a la eficacia de su orden, sino más bien en cuanto a su papel de suplemento en la adquisición de conocimiento y en la formación de creencias y opiniones, es decir, consideraciones fundamentalmente epistémicas y, por su puesto, éticas. Al producir entornos que alientan interacciones poco críticas en las que las diferencias son reducidas a un mínimo y la complacencia a un máximo, la información no parece conseguir ser utilizada para un proceso crítico y reflexivo de evaluación y contrapeso de la misma, sino más bien como insumo para reforzar las creencias o los gustos originales del usuario. A continuación, se desarrolla la idea de la configuración de un entorno hiperpersonalizado, redundante, y que por ello aquí se les ha denominado como contextos poco informativos, y sus efectos epistémicos son revisados en la siguiente sección.

Consecuencias epistémicas de la hiperpersonalización en contextos poco informativos: la redundancia epistémica

Ciertamente, no todos los usuarios de redes sociales se enfrentan a estos fenómenos de la misma forma o con la misma intensidad. No todos están sometidos a los mismos entornos poco informativos puesto que la efectividad y la intensidad con la que los algoritmos consiguen crear un perfil del usuario depende, como se ha dicho anteriormente, de la cantidad de datos que se posee sobre el usuario en cuestión. Por ello, es evidente que, mientras más intensamente se utilicen estas plataformas, es decir, mientras se utilicen por más tiempo, con mayor profundidad —por ejemplo, manteniendo una cuenta de usuario activa en YouTube a la hora de realizar búsquedas—, se genera más información en comparación a un uso moderado o con excesivo cuidado del anonimato, por ejemplo, navegando en modo incógnito, bloqueando las cookies o utilizando servicios VPN. Por ello, el nivel de personalización no es igual para todas las personas. La diferencia fundamental consiste en el impacto de la huella digital (digital footprint) (Micheli et al., 2018) de cada usuario.

Hay que comprender la hiperpersonalización como fenómeno que afecta individualmente al usuario, posicionándolo en un contexto grupal poco informativo o redundante que resulta a partir del modelaje de su contenido en torno a sí mismo. Como a partir de la personalización e individualización de los gustos y las creencias del usuario, el algoritmo termina por posicionarle en grupos o por construir entornos a su alrededor que consienten en gran parte las creencias y gustos del usuario, resulta bastante claro que los recursos epistémicos con los que cuentan los mismos son limitados en la redundancia. Lo poco informativo también se traduce en una redundancia epistémica de las creencias y de sus justificaciones. Pareciera ser que los algoritmos y las diversas plataformas no son un lugar “neutro”, al contrario, aunque no sea de una manera intencional, como lo podría hacer un presidente de la república, los algoritmos direccionan al usuario hacia una ideología del mundo en particular que resulta particularmente compatible con el usuario. Dicho de otra forma, los algoritmos participan en las creencias que los usuarios forman al recortar el mundo en segmentos compatibles con un criterio opaco. La acción de estar “conectado” implica experimentar distintos escenarios a partir desde un punto de vista en particular. Figúrese una noticia falsa que aparece en el contexto de una guerra como se comentaba anteriormente. El impacto con que esa noticia afecta al usuario es tremendamente profundo, independiente de la veracidad de la noticia: permea el sistema de creencias del usuario y lo direcciona hacia un comportamiento determinado que antes de ver la noticia este no tenía, ni sentía, al haber alterado su visión del mundo y de los eventos del mismo. Es más, si la única fuente de este usuario es el medio por el cual se difundió esta noticia, verá que el contenido podría ser reformulado de diversas maneras para acentuar el carácter polémico de la noticia; así se dará apertura a un contexto poco informativo, en primer lugar, por repetir constantemente las mismas premisas o similares y, en segundo lugar, epistémicamente redundante en torno al contenido, al solo ofrecer información que sirva de prueba para el enunciado original.

Ahora bien, aunque la teoría de Shannon con respecto a la información es una que se centra en la transmisión de la misma y no en los efectos epistémicos de esta o en su contenido semántico (Floridi, 2011), en esta investigación se sostiene que la figura de la redundancia y el cuervo de Poe utilizado por Floridi para describir un agente unario de información sirve para hacer evidente cómo es que estos escenarios resultan poco informativos y cómo el costo de que un mensaje sea bien aprehendido por un escucha puede resultar en el establecimiento de bajos estándares epistémicos de rigurosidad. Ciertamente, las cámaras de resonancia o los filtros de burbuja no pueden ser considerados como agentes unarios, pues en efecto entregan más información que un solo enunciado y, además, si se considera que existen más usuarios, entonces habría que considerar que existe más de un agente. Sin embargo, como se ha señalado anteriormente, la redundancia no solo se expresa en el hecho de repetir el mismo mensaje, sino que el mismo mensaje levemente alterado también resulta de alguna forma redundante. Nótese que la redundancia, siguiendo la matematización de Shannon, podría ser medida. De la misma forma, en contextos de RRSS tampoco es posible considerar que exista un solo agente, como en el caso del poema de Poe. Sin embargo, el escenario sigue siendo sugerente con respecto a los recursos con los que un usuario, digamos el protagonista de The raven, cuenta a la hora de ampliar su conocimiento: ¿qué pasaría si no es un cuervo sino muchos cuervos que en lugar de repetir “nunca más” enuncian frases distintas, pero similares como “jamás” o “no se volverá a repetir”? Claramente, el agente unario desaparece al multiplicarse los cuervos, sin embargo, la redundancia persiste si ninguno de ellos consigue añadir niveles suficientes de novedad. Sería el caso del medio que difunde una cantidad de noticias falsas sobre el mismo contenido, pero reformulándolo de diversas e insólitas formas. Aquí se sostiene que estos casos resultan también redundantes, por cuanto persiste la baja probabilidad de que aparezca algo nuevo o radicalmente nuevo. De forma que, mientras que tal escenario puede resultar beneficioso en términos de la emisión de un mensaje, puede resultar epistémicamente desafiante y pobre si lo que se busca es que las personas formen sus creencias de una forma crítica y reflexiva.

Si se considera la información no solo como un mensaje que debe ser emitido y recibido con éxito, sino también en sus impactos epistémicos, esto es, en su papel en la formación de creencias y de la percepción del mundo, entonces, altos niveles de redundancia no resultan deseables, por lo que es necesario investigar y desarrollar formas de hacer de los entornos digitales ambientes menos redundantes y más heterogéneos. Por estas razones, aquí se sostiene que la redundancia es un elemento común generado tanto en las cámaras de eco como en los filtros de burbuja y permite comprender en gran medida cómo es que al interior de estos entornos las creencias y los puntos de vista son rara vez desafiados. Al mismo tiempo, permite cuestionar el funcionamiento de los algoritmos que operan las plataformas digitales: ¿consideran la redundancia como un elemento en la programación de su código? ¿Esta es aceptada y potenciada o de alguna forma controlada? Al poner atención en los niveles de redundancia es posible establecer un criterio para evaluar no solo qué tan informativo es un espacio, sino también qué tan hermético se ha vuelto.

Los costos epistémicos de ambientes redundantes y herméticos pueden ser mejor comprendidos aún si se considera, por contraparte, los beneficios epistémicos de la heterogeneidad y la pluralidad. Desde que la epistemología se ha interesado también en su carácter social y grupal y no como un proceso eminentemente privado y solipsista (Goldman, 2020; De Brasi, 2017), se han dispensado distintos beneficios epistémicos a propósito de la heterogeneidad. Desde un punto de vista científico, Kristina Rolin (2020) ha argumentado junto con Kitcher que la distribución de los esfuerzos epistémicos resulta crucial para la comunidad científica: que no todos los expertos de un campo investiguen las mismas hipótesis y que, por el contrario, algunos se dediquen a la investigación incluso de aquellas que parecen más improbables resulta crucial para confiar en que la comunidad científica es capaz de poner a prueba sus propias teorías. En el mismo sentido, la pluralidad no solo de experticia, sino también social resulta un elemento relevante. Rolin (2020) ve en el hecho de la ya refutada teoría del hombre cazador y la mujer recolectora un efecto de que la antropología haya sido realizada en su mayoría por hombres durante su nacimiento. Por ello, incluso la pluralidad en un sentido amplio de la vida también puede impactar en los recursos que se tienen a disposición a la hora de formar conocimiento. Desde un punto de vista tanto ético como epistémico el rol de la heterogeneidad y de las interacciones pluralistas, resulta crucial en el proceso de cancelación de sesgos. Smith y Setälä (2018) afirman, en el mismo sentido, que es una propiedad de la diversidad grupal el entregar oportunidades para la cancelación de sesgos, mientras que Bächtiger et al. (2018) han encontrado efectos similares al desprender de los actos deliberativos la posibilidad de generar mayores niveles de empatía con las vivencias ajenas. Un último beneficio asociado a la pluralidad y a la diversidad lo ofrecen Estlund y Landemore (2018), al ver en el acto de la deliberación una mejor herramienta para la toma de decisiones, en especial si al interior del grupo se encuentra una diversidad considerable que ofrezca distintos puntos de vista, experticias y experiencias. El problema con la redundancia epistémica producida por los algoritmos, tal como se ha propuesto, es que se corre el riesgo de anular varios de estos valores epistémicos, los mismos que, precisamente, se invocan para combatir la existencia de sesgos y prejuicios.

Consideraciones finales

Es posible apreciar que las plataformas y medios digitales que surgieron a partir de la creación del internet se han ido complejizando con el paso del tiempo y con ello han complejizado las relaciones entre la tecnología y los usuarios. Al tomar parte importante en la forma en que las personas le dan sentido al mundo es necesario evaluar sus impactos rigurosa y constantemente. Un intento actual consiste en las ideas de legislar en torno a la responsabilidad de quienes publican información por medios digitales y los medios de difusión que estos ofrecen, aunque tal idea usualmente enfrenta la oposición de aquellos que ven en la libertad de expresión el más grande bien entregado por este tipo de plataformas. Otra opción ha sido la de endosar cierto nivel de responsabilidad a los usuarios, pues como afirma Paglen (2019) refiriendo a los entornos digitales: “[Los usuarios están] alimentando un poderoso sistema de inteligencia artificial con información sobre cómo identificar gente y cómo reconocer lugares y objetos, hábitos y preferencias, aspectos de raza, clase y género, estatus económico, y mucho más” (Paglen, 2019, p. 3). Y, aunque, la distribución de las responsabilidades no puede ser igualada ni equitativa entre usuarios y desarrolladores, puesto que en último caso los primeros son capaces de muy poca agencia sobre el real funcionamiento de los algoritmos en comparación de los últimos; aun así, es preocupante el bajo nivel de alfabetización entre los usuarios con respecto al funcionamiento de algoritmos. Particularmente, parece existir un segmento importante de usuarios que derechamente desconocen que el contenido que ven en sus plataformas ha sido personalizado o seleccionado (Powers, 2017), por lo que un trabajo en la alfabetización digital de los usuarios también parece una tarea urgente.

En definitiva, los escenarios que crean estos algoritmos, en ocasiones, son poco informativos y redundantes, lo cual se hace patente en los fenómenos del filtro de burbuja y de la cámara de eco, aun cuando pareciera ser una condición base del funcionamiento de estos entornos. Como se vio, en algunos casos los contextos poco informativos y epistémicamente redundantes pueden ser útiles, como es el caso de una advertencia de guerra o de cualquier mensaje que deba ser entregado con cierta urgencia; sin embargo, en otros casos, quizás los más frecuentes, se privilegia la información nueva por sobre lo reiterativo, es decir, que informe y comunique, a diferencia de una información que sea redundante y repetitiva, por su capacidad de ampliar la visión del mundo, de contrastar las creencias y de cancelar sesgos.

Con base en lo anterior, una alternativa que se propone brevemente en este artículo deviene del hecho de que la TMI ha hecho posible no solo medir cantidades de información, sino también niveles de redundancia. Sería deseable que los algoritmos de personalización incluyesen una restricción a ciertos niveles de redundancia que garantizara que el contenido sugerido no exceda ciertos niveles de redundancia, cuantificando y midiendo la información y privilegiando la construcción de ambientes que reflejen de forma más fiel la heterogeneidad del mundo, el cual no es construido a partir de los gustos particulares de cada cual. Esta sería labor de los programadores, que sin duda tendría implicancias directas en los usuarios y en la comunidad digital. De la misma forma, la posibilidad para el propio usuario de medir los niveles de redundancia en las plataformas que frecuenta podría considerarse una herramienta en extremo valiosa si se espera entregar al usuario un nivel más importante de responsabilidad con respecto a la forma en la que se constituye el contenido al que accede.

Agradecimientos

Este artículo contó con la financiación del Fondo Nacional de Desarrollo Científico y Tecnológico (Fondecyt) regular número 1210724, “Epistemic pathologies of the public sphere: The remedial role of intellectual other-regarding virtues”, que fue otorgada al investigador Jorge Francisco Silva.

Referencias

Bächtiger, A., Dryzek, J. y Mansbridge, J. (2018). Deliberative Democracy: An Introduction. En A. Bächtiger (ed.), The Oxford Handbook of Deliberative Democracy (pp. 1-32). Oxford Academics. https://doi.org/10.1093/oxfordhb/9780198747369.013.50

Bozdag, E. (2013). Bias in algorithmic filtering and personalization. Ethics and Information Technology, 15, 209-227. https://doi.org/10.1007/s10676-013-9321-6

Chibey, T. y Silva, J. (2021). Virtudes y vicios epistémicos: una mirada desde la epistemología social a la información y la participación ciudadana en los medios digitales. THÉMATA. Revista De Filosofía, (64), 79-101. https://doi.org/10.12795/themata.2021.i64.04

De Brasi, L. (2017). Knowledge as a social kind. Unisinos Journal of Philosophy, 18(3), 130-139.

Dourish, P. (2016). Algorithms and their others: Algorithmic culture in context. Big Data & Society, 3(2), 1-11. https://doi.org/10.1177/2053951716665128

Du, S. y Gregory, S. (2016). The Echo Chamber Effect in Twitter: does community polarization increase? En H. Cherifi, S. Gaito, W. Quattrociocchi y A. Sala (eds.), Complex Networks and their Applications V, Complex Networks (pp 373-378). Springer. https://doi.org/10.1007/978-3-319-50901-3_30

Estlund, D. y Landemore, H. (2018). The Epistemic Value of Democratic Deliberation. En A. Bächtiger (ed.), The Oxford Handbook of Deliberative Democracy (pp. 113-131). Oxford Academics.

Floridi, L. (2010). Information: a very short introduction. Oxford University Press.

Floridi, L. (2011). The philosophy of information. Oxford University Press.

Floridi, L. (2014). The fourth revolution. Oxford University Press.

Floridi, L. (2015). The Onlife Manifesto. En L. Floridi (ed.), The Onlife Manifesto Being Human in a Hyperconnected Era (pp. 7-16). Springer.

Goldman, I. A. (2020). The what, why, and how of social epistemology. En M. Fricker, P. J. Graham, D. Henderson y J. N. Pedersen (eds.), The Routledge Handbook of Social Epistemology (pp. 10-20). Routledge .

Gurevich, Y. (2011). What is an algorithm? Microsoft Research.

Habegger, B., Hasan, O., Brunie, L., Bennani, N., Kosh, H. y Damiani, E. (2014). Personalization vs. Privacy in Big Data Analysis. International Journal of Big Data, 25-35.

Hendricks, V. y Hansen, P. (2016). Infostorm. Copernicus Books.

Kian, E. M., Clavio, G., Vicent, J. y Shaw, S. D. (2011). Homophobic and Sexist yet Uncontested: Examining Football Fan Postings on Internet Message Boards. Journal of Homosexuality, 58(5), 680-699. https://doi.org/10.1080/00918369.2011.563672

Makombe, R., Sinyode, B., Tladi, M. y Thambo, S. (2020). Affective economies of racism on social media: a critical analysis of selected South African white supremacist Facebook pages. Communicare. Journal for Communication Sciences in Southern Africa, 39(2), 75-92. https://journals.co.za/doi/epdf/10.10520/ejc-comcare-v39-n2-a4

Micheli, M., Lutz, C. y Büchi, M. (2018). Digital footprints: an emerging dimension of digital inequality. Journal of Information, Communication and Ethics in Society, 16(3), 242-251. https://doi.org/10.1108/JICES-02-2018-0014

Morales, U. R. (2018). El ciudadano digital. Fake news y posverdad en la era de Internet. Océano.

Nouri, L., Lorenzo-Dus, N. y Watkin, A.-L. (2021). Impacts of Radical Right Groups’ Movements across Social Media Platforms - A Case Study of Changes to Britain First’s Visual Strategy in Its Removal from Facebook to Gab. Studies in Conflict & Terrorism, 1-27. https://doi.org/10.1080/1057610X.2020.1866737

Paglen, T. (2019). Imágenes invisibles. laFuga. https://lafuga.cl/imagenes-invisibles/944

Pariser, E. (2011). The Filter Bubble. The Penguin Press.

Poe, E. A. (1884). The Raven. Harper & Brothers.

Powers, E. (2017). My News Feed is Filtered? Awareness of news personalization among college students. Digital Journalism, 5(10), 1315-1335.

Rodríguez, P. (2012). Historia de la información. Capital Intelectual.

Rodríguez, P. (2019). Las palabras en las cosas. Saber, poder y subjetivación entre algoritmos y biomoléculas. Cactus.

Rolin, K. (2020). The Epistemic Significance of Diversity. En M. Fricker, P. J. Graham, D. Henderson y J. N. Pedersen, The Routledge Handbook of Social Epistemology (pp. 158-166). Routledge.

Rooney, T. (2015). Shame and the virtual gaze: Supporting children’s encounters in online worlds. Emotion, Space and Society, 16, 21-27. https://doi.org/10.1016/j.emospa.2015.06.003

Shannon, C. E. y Weaver, W. (1949). The Mathematical theory of communication. The University of Illinois Press.

Smith, G. y Setälä, M. (2019). Mini-Publics an Deliberative Democracy. En A. Bachtiger, J. Dryzek, J. Mansbridge y M. Warren (eds.), The Oxford Handbook of Deliberative Democracy (pp. 1-8). Oxford University Press.

Sunstein, C. R. (2017). #Republic. Divided Democracy in the Age of Social Media. Princeton University Press.

Notas

* Artículo de investigación.

1 De todas formas, el concepto de ruido ha quedado designado para referir a cualquier interferencia en el canal de comunicación. Una serie de ventanas emergentes que impida leer la página que se intenta leer puede ser considerada como ruido.

2 Este tipo de comportamiento grupal puede ocurrir en instancias fuera de entornos digitales en la forma de cultos o en las tradicionales agrupaciones políticas de pensamientos extremos.

Notas de autor

a Autor de correspondencia. Correo electrónico: josilvas@alumnos.uahurtado.cl

Información adicional

Cómo citar: Chibey Rivas, T. y Silva, J. F. (2023). Contextos poco informativos y contextos epistémicamente redundantes. Una revisión desde Claude Shannon y Luciano Floridi al problema de la personalización algorítmica. Signo y Pensamiento, 42.

Contexto
Descargar
Todas