Desinformación en redes y corrupción de la información: el problema de las “cámaras de eco” para el derecho penal

Share on facebook
Share on google
Share on twitter
Share on linkedin
Descargar PDF

La personalización del internet acorde a los gustos, preferencias y tendencias de cada usuario distorsiona la forma en que se le presenta la información y contribuye a la creciente polarización de la sociedad. ¿Tiene algún remedio esta realidad?

Andrés Felipe Díaz Arana[1]

En lo que va del siglo, los avances en inteligencia artificial, aprendizaje automatizado y diseño de redes sociales han posibilitado que la interacción en línea de cada usuario se confeccione al detalle para acomodarse a sus preferencias particulares, incluso, de las que no es consciente. En esta realidad personal, cada quien ─a sabiendas o no─ es llevado a contenido que, por ser de su preferencia, maximiza el tiempo de su permanencia en la plataforma. Esto contribuye a que las personas reafirmen sus propias ideas sin confrontar información en contrario, lo que fomenta la radicalización y amenaza las condiciones de estabilidad social. Este contexto obliga a repensar las tradicionales categorías del ius puniendi y a formular novedosas alternativas en la atención de este fenómeno.

Sumario:

I.Introducción II. Contexto: personalización del internet y cámaras de eco. III. Desafío estructural IV. Toma de postura y reflexión final

I. Introducción

Al momento de escribir estas líneas, importantes multinacionales ─como Unilever, Coca-Cola, Starbucks y Microsoft, entre otros─ han declarado públicamente que retirarán su inversión comercial en la plataforma Facebook, en lo que la prensa mundial llama un “sabotaje a la propaganda de Facebook” (“Facebook Ad Boycott”). Ello, según explican, se debe a un esfuerzo colectivo por “promover un ecosistema digital responsable en estos tiempos de polarización”[2]. Esto ocurre en el contexto del crecimiento de una tendencia marcada con el #StopHateforProfit (acabar con el lucro del odio) que, durante algún tiempo ya, sistemáticamente ha venido denunciando la inactividad de la plataforma social por contener mensajes de odio y discriminación, presuntamente, debido al lucro de la red social con ellos[3]. Hoy en día, la lista sigue creciendo y no parece que vaya a retroceder pronto; al menos, no sin que Facebook adopte medidas sobre el particular[4].

 

Este es, apenas, el eslabón más reciente de la larga cadena de manifestaciones, movimientos, denuncias, protestas, etc., de iniciativa ciudadana en contra del abuso de las redes sociales para promover desinformación, caos, violencia y/o polarización entre la sociedad. Y, aunque no pueda decirse que el fenómeno de valerse del megáfono de los medios de comunicación masiva para incentivar la segregación popular sea reciente, algo sí parece estar ocurriendo en estos tiempos de forma nunca antes vista en la historia de la humanidad. Tradicionalmente, la “neutralidad de la red” ha sido asociada a la lucha contra la censura y, más recientemente, contra la discriminación en la capacidad telemática[5]; pero, ahora, parece que la atención se centra en otra amenaza que no emana de la regulación sino, paradójicamente, de la ausencia de ésta: la inactividad de los administradores de las plataformas digitales frente al contenido altamente lesivo para la estabilidad social.

 

El asunto se torna especialmente complejo cuando se le agrega el elemento de la contribución que la propia configuración de la plataforma hace a la propagación del contenido y su implantación en los usuarios. En efecto, las principales redes de comunicación de la actualidad han sido configuradas, deliberadamente, para presentarle al usuario publicaciones que le resulten atractivas y, durante años, esto se hizo sin consideración de su contenido. De hecho, hoy importantes plataformas siguen sin “intervenir” en este aspecto que, probadamente, contribuye a la formación de sesgos cognitivos que radicalizan el pensamiento del usuario, segregan a la población en grupos de interés afines y, en muchos casos, sirven de catalizadores para el incendio social.

 

En lo que sigue, se explica en qué consiste la personalización del internet, qué son las llamadas “cámaras de eco”, cómo impactan los procesos cognitivos y volitivos de los usuarios y qué relevancia tiene ello para el ejercicio del ius puniendi en el futuro próximo. Al final, se adopta postura y se evalúan los retos y perspectivas que esta realidad nos deja de cara a los próximos años

 

II. Contexto: personalización del internet y “cámaras de eco”

Considérese el siguiente caso hipotético:

Por todas las noticias que ve y por lo que le cuentan sus familiares de allá, Juan ha llegado a convencerse de que el gobierno venezolano ha llevado a la miseria a su pueblo. Por eso, al enterarse por Facebook de que el “Acuerdo de Paz” implantará en Colombia el “castrochavismo”, ha entrado en angustia. Al indagar más sobre el asunto en sus redes sociales y en búsquedas en motores como Google o YouTube empleando los términos “acuerdo de paz castrochavismo” encuentra contenido cada vez más alarmante. Al cabo de unas semanas, empieza a notar el aumento exponencial de noticias, opiniones y, en general, información que advierte sobre la terrible catástrofe que se avecina. Y todos opinan como él: en Twitter, los principales líderes de opinión reclaman acción popular y en WhatsApp permanentemente le llegan cadenas de otros “ciudadanos preocupados” con este asunto. A sus 65 años, ha resuelto hacer algo que nunca había hecho: rebelarse violentamente en contra de una autoridad sorda y desconectada del pueblo.

 

Para nadie es un secreto que los últimos certámenes en las principales democracias del mundo han estado manchados por el tinte de la utilización fraudulenta de las redes sociales para desinformar masivamente e implantar deliberadamente en la opinión pública ideas que, aunque infundadas, sirven a los intereses particulares de una persona o un grupo de personas. Así lo han registrado los principales medios de países como Brasil[6], Inglaterra[7], Estados Unidos[8], España[9] o Colombia[10], entre muchos otros.

 

Este fenómeno tiene tanto una dimensión colectiva-comunicativa, como una individual-psicológica, y es necesario comprender ambas para identificar adecuadamente sus dinámicas y medir acertadamente su impacto. En lo que respecta a la primera, estas realidades han sido siquiera posibles, solamente gracias a las características actuales de comunicación virtual de la información -inmediatez (o instantaneidad), inmediación (comunicación directa entre emisor y receptor, sin intervención de un actor central, como el Gobierno, o difuso, como los medios tradicionales) y masividad (algo que era mucho más difícil de conseguir antes que ahora)-[11]. En lo que atañe a la segunda, su éxito no solo se debe a la forma de difusión sino, principalmente, a las características que favorecen la implantación de la información en los individuos. Sobre esto, es mucho menos lo que se ha explorado y es, precisamente, el objeto de esta columna.

 

La personalización del internet hace referencia a la confección de la experiencia del usuario basada en sus preferencias, frecuentemente, con el fin de maximizar su permanencia en la plataforma respectiva[12]. En términos simples, significa que el internet se acomoda a las características de cada uno, para atraerlo durante el mayor tiempo posible. El auge de este fenómeno se relaciona de manera directa con que, actualmente, el valor de las plataformas sociales en línea no se calcula sólo a partir del número de usuarios inscritos, sino ─principalmente─ por el tiempo promedio en que estos las usan[13]. Por eso, casi todas suelen considerar este factor en el diseño de sus algoritmos de recomendación de contenido, con el fin de maximizar el tiempo de permanencia de cada usuario.

 

Sin embargo, esta forma de diseñar y erigir las estructuras lógicas que gobiernan la interacción de los usuarios en las aplicaciones y páginas web respectivas, esconde un peligroso secreto: la promoción de las publicaciones sin consideración de su contenido, basada únicamente en el atractivo para cada usuario, está, en buena medida, asociada al estado actual de polarización, segregación y radicalización reportado por los medios referidos. Este asunto es un terreno inexplorado para el derecho penal, pero otras disciplinas sí han empezado a entregar interesantes aportes.

 

En una publicación del 2016, investigadores de Italia y Estados Unidos aunaron esfuerzos para analizar, desde una perspectiva empírica, los efectos de la personalización del internet en la “polarización de usuarios en Facebook y YouTube”[14]. Esta aproximación corresponde al fenómeno referido como “cámara de eco”, esto es, la tendencia natural de los usuarios de internet a seleccionar la información que sustenta y reafirma sus creencias y de formar grupos polarizados con gente que comparte su misma perspectiva.[15] Los investigadores concluyeron que los algoritmos analizados promovían la generación de “sesgos de autoconfirmación” lo que “lleva al surgimiento de comunidades polarizadas en las cuales los usuarios adquieren información confirmatoria e ignoran contenido en contrario”[16]. Tras procesar la información de más de 12 millones de usuarios evaluados, pudieron apreciar cómo la propia estructura de dichas plataformas inducía a la segregación de usuarios según sus preferencias políticas, credos religiosos, ideologías filosóficas, etc., y a la conformación de “comunidades homogéneas y polarizadas” en las cuales la información está sesgada hacia la reafirmación de las propias creencias[17].

 

Otra notable contribución, más reciente (2018), a la específica cuestión que ahora nos ocupa viene de la mano de una alianza entre el equipo de informática y el de comunicaciones de la Universidad de California (EEUU)[18]. Según reportaron, hallaron evidencia que permite concluir que el algoritmo de selección de videos de YouTube está conectado a las emociones del usuario de forma que se nutre de ellas y, correlativamente, incide en ellas. En concreto, encontraron que la plataforma es capaz de identificar emociones asociadas a los términos de búsqueda y presentar videos con una específica carga que corresponde e, incluso, incide en el estado emocional del usuario[19]. Así, el algoritmo se nutre de la información del usuario y le sugiere contenido que, a su vez, impacta su estado emocional, en una especie de simbiosis entre máquina y humano (que los investigadores llaman “entropía emocional”).

 

Todavía más reciente (diciembre, 2019) es la publicación en Nature de un estudio de 1.2 millones de usuarios de Facebook que se ocupa, expresamente, de analizar el impacto de los sesgos de confirmación y de conformidad atribuibles a las cámaras de eco en los procesos de formación (y abandono) de opiniones en usuarios con narrativas conflictivas[20]. En su conclusión, fueron más allá que los anteriores estudios ─en el sentido de identificar subgrupos dentro de cámaras de eco─ y se reportó que “la fuerza del sesgo de confirmación es más fuerte de lo que uno podría pensar”[21]. Según los hallazgos de este estudio, los algoritmos de esta plataforma fomentan “la formación de subgrupos altamente polarizados dentro de la misma cámara de eco” en una “tendencia [que] crece con la participación del usuario”, lo que, en últimas, induce al refuerzo de las propias ideas y entorpece la confrontación con información discordante.

 

Como se puede ver, la “homofilia” (esto es, “la tendencia de usuarios de agregarse en torno a intereses comunes”[22]) es un fenómeno que ha sido ampliamente discutido en el contexto de la personalización del internet[23] durante ya varios años[24], desde distintas dimensiones[25], en el marco de un debate plenamente vigente[26]. Inevitablemente, los recientes avances interdisciplinarios en relación con la medición de los concretos efectos de la personalización del internet en los procesos de formación y abandono de opiniones de los individuos llevan a la pregunta: ¿qué impacto tiene esta (creciente) realidad en el derecho penal?

 

 IIIDesafío estructural

Bien es sabido que, ordinariamente, para atribuir responsabilidad jurídico penal por un delito se requiere acreditar que la persona obró con pleno conocimiento y voluntad. En un sentido más técnico, de no poderse acreditar que la persona tenía, siquiera, la posibilidad de acceder al conocimiento y formarse una voluntad concordante en condiciones normales, mal podría imputársele subjetivamente la conducta respectiva. Esto quiere decir que, en derecho penal, al menos, el desconocimiento de la norma sí puede ser excusa para su incumplimiento (cuando dicho desconocimiento no es imputable a la persona respectiva).

 

Con esto en mente, es fácil entender las profundas implicaciones que tiene el caso de quien, sin saberlo, ha sido inducido a una cámara de eco desde la cual le es significativamente más difícil acceder a la información que al resto de la población. Si es cierto lo que han registrado las investigaciones citadas -y otras más que apuntan a la incidencia determinante de la personalización del internet en la implantación de sesgos cognitivos en las personas que interactúan en línea- no puede esperarse de una persona en tales circunstancias el mismo grado de comprensión de la realidad o de la norma que el que se exigiría para cualquier otra persona en condiciones normales. El problema va más allá de la creación de nuevos tipos penales: apunta a la ─aparente─ incapacidad del Estado para motivar normalmente a las personas y dirigir su comportamiento en las condiciones tradicionales del ejercicio del ius puniendi.

 

En el mundo “físico”, un individuo interactúa con personas que piensan distinto a él, accede ─incluso sin quererlo─ a información que contradice lo que piensa, ve la misma edición del noticiero del medio día que muchos otros y escucha en radio los comentarios que se difunden al público en general. En la interacción virtual, tal no es siempre el caso. De hecho, las investigaciones parecen mostrar que, con mayor frecuencia de lo que se creería, las personas terminan reconducidas a cámaras de eco en las que la única información a la que acceden es aquella que ─deliberadamente─ ha sido presentada para acomodarse a sus propias tendencias. Aunque es claro que, en ambos mundos, la personalización de la realidad es una posibilidad, el grado en el que puede realizarse de manera virtual desborda, con creces, aquel imaginable en el otro[27].

 

Lo más preocupante es que, según los resultados de las investigaciones ya referidas, al parecer, no se trata de una distorsión leve y esporádica en la información que se le presenta al usuario, sino de una estructura diseñada para, literalmente, acomodar la realidad (virtual) a cada persona. Aunque, en este momento, parece ser muy temprano para descartar cualquier esperanza de neutralidad en el acceso a la información en línea, las investigaciones interdisciplinarias sí advierten que, más ordinaria que ocasionalmente, el individuo confunde ─genuinamente─ la opinión de un reducido grupo con una voluntad (abrumadoramente) mayoritaria sobre cualquier asunto dado.

 

En tales condiciones, cualquier persona puede llegar a errar ─quizás, insuperablemente─ sobre el fundamento último de la legitimación de cualquier norma en un Estado democrático: la soberanía popular. Y, así, impulsado por su limitado acceso a la información, puede llegar a cometer un delito. Pero, quien delinque en estas condiciones ─bajo error por desconocer que su interpretación de la voluntad soberana no es más que el eco de su propio pensamiento─, no accede en condiciones normales a la prohibición ni, por lo tanto, puede ser motivado normalmente por el derecho. Dicho simplemente: el mensaje no le llega en las mismas condiciones que al resto.

 

Actualmente, el derecho penal se enfrenta a dinámicas que comprometen la estabilidad social y la preservación de las garantías individuales en formas nunca antes vistas[28]. El problema está en que no es tan fácil como criminalizar especialmente la conducta de difusión de fake news[29] ni prohibir, eo ipso, la personalización del internet. De un lado, son vanos los esfuerzos tendientes a promover la tipificación de un nuevo delito de desinformación, porque las mayores dificultades de la historia reciente sobre este particular han girado, justamente, en torno a la imposibilidad de demostrar, a ciencia cierta, si la información transmitida es falsa o no[30]. Más que fake news, lo peligroso son las opiniones maliciosas ─aquellas que se escudan en el “criterio personal” del autor y, lejos de afirmar un hecho en concreto, siembran duda en los lectores sobre la apreciación de un asunto o alguna persona en particular─. Frente a esas, de poco o nada serviría un delito como el que se discute. Pero, de otro lado, en relación con los peligros de la personalización del internet, resulta evidente que la solución no proviene de prohibir algo que ─como regla general─ comporta importantes beneficios tecnológicos y económicos.

 

IV. Toma de postura y reflexión final

Cierro como inicié: al momento de escribir estas líneas, la principal ─si no la única─ forma de combatir el abuso sistemático de las redes sociales es con campañas, igualmente sistemáticas, de iniciativa privada, como el boycott a Facebook. En el estado actual de las cosas, si alguien arma una tendencia en tu contra, respondes con la tuya propia (si tienes la fuerza para ello). El fuego se combate con fuego y, en las redes, al final, gana el más fuerte. Pero, eso no es derecho; eso es el lejano oeste… virtual.

 

Cada tanto, el mundo se enfrenta a un nuevo reto que amenaza con acabarlo. Literalmente, desde que empezó la historia así la estamos contando[31]. Y, siempre, la necesidad arroja un nivel de desarrollo que nos impulsa como sociedad y nos deja un mejor estado de cosas.

 

Lo que hoy ocurre no es, de fondo, demasiado distinto a lo que ocurrió hace apenas pocas décadas con el lavado de activos fruto del narcotráfico y la responsabilidad de los principales actores del sector financiero en la lucha contra la prevención, detección y neutralización de actividades sospechosas. En el estado actual de las cosas, nadie atribuye responsabilidad a la banca por el narcotráfico, pero sí tienen un deber (en estos momentos, jurídico-penal, incluso[32]), de adoptar las medidas pertinentes para evitar su facilitación. Algo similar habrá de ocurrir con las plataformas de comunicación social: más temprano que tarde el Estado deberá demandar que se configuren de forma tal que, en vez de contribuir a la propagación del problema, contribuyan activamente a su contención.

 

Esto no quiere decir que haya que expandirse descontroladamente el alcance del Derecho penal[33]. Pero, sí debe arrojarse luz sobre lo que es un asunto jurídico-penalmente relevante que, todavía, permanece en buena medida en la oscuridad: la salvaje personalización de la interacción en línea en pro de la permanencia del usuario, a costas de sus posibilidades de acceder a la información en condiciones de libertad y transparencia. Esto facilita la proliferación de la desinformación, el arraigo de mensajes de odio e implanta en los individuos sesgos cognitivos que interfieren en los procesos de motivación normal. Sin duda, los riesgos del Estado actual son enormes, al igual que los retos que deben superarse para su correcta administración[34].

Sin perjuicio de que algún ajuste normativo venga a lugar[35], siglos de pensamiento dogmático han concedido importantes herramientas que, siendo reinterpretadas en la forma pertinente, pueden ayudar. El principio de prohibición de regreso, en relación con el grado de la responsabilidad de los creadores de una red social que luego es utilizada por un tercero para la comisión de un delito; principio de confianza, a la hora de analizar el caso de un administrador de una plataforma digital que confía en que los usuarios se comportarán conforme las normas jurídicas que rigen la interacción social; el principio de autoprotección de los bienes jurídicos (correlativamente, autopuesta en peligro), en la discusión sobre cómo tratar a quien publica una foto íntima en una red social, y el resto de los que integran nuestra teoría material del delito, pueden servir para orientar hacia la superación de los desafíos que la actual coyuntura nos presenta.

Como suele ocurrir, habrá que repensar algunas estructuras e instituciones tradicionales para adaptarlas a las nuevas necesidades. La autoría mediata, por ejemplo, fue empleada hace medio siglo para abordar el problema de la distribución de responsabilidades en el marco de aparatos organizados de poder. ¿Podría ser que una construcción similar venga ahora al caso en relación con la responsabilidad de quien dirige un ataque sistemático por conducto de las redes sociales? Es emocionante pensar en las posibilidades que se abren en el panorama actual para impulsar el avance de nuestra ciencia penal.

 

En cualquier caso, lo cierto es que las dinámicas de inmediatez, inmediación, masificación, anonimato y personalización que constituyen la regla general de la comunicación social en el siglo XXI, posiblemente, sean el reto más grande al que deberá enfrentarse el Leviatán en el futuro inmediato. En el transcurso de la historia del derecho penal, el péndulo parece haber recorrido ya un trayecto completo: desde la época de la ilustración, inspirada en que la verdad no podía ser de pocos, hasta nuestro estado actual, en el cual la verdad parece ya no ser de nadie. ¿Cuál será su siguiente posición? Todavía tenemos cuestiones por resolver e importantes problemas que solucionar, pero, para ello, debe partirse por comprender el fenómeno en todas sus dimensiones. Y, en esto, apenas estamos empezando.

 

Bibliografía

 

AIELLO, L. et al. Friendship prediction and homophily in social media. En: ACM Transactions on the Web (TWEB), 6, 2 (June, 2012); pp. 5-39.

 

ANAGNOSTOPOULUS, Aris et al. Viral Misinformation: The Role of Homophily and Polarization. En: WWW 2015 Companion, (mayo, 2015); pp. 355-356.

 

ARRIETA ZINGUER, Miguel. Libertad de expresión y derecho a la información en las redes sociales en internet. En: Revista de Derecho, Comunicaciones y Nuevas Tecnologías. No. 12 (jul-dic 2014); pp. 5 y ss.

 

ATTNEAVE, Fred. Applications of information theory to psychology: a summary of basic concepts, methods and results. Oxford: Holt, 1959.

 

BALDWIN-PHILIPPI, Jessica. The technological performance of populism. En: New Media & Society, Nº21 (2019); pp. 376-397.

 

BECK, Ulrich. La sociedad del riesgo: hacia una nueva modernidad. Primera edición de 1998, traducida al castellano. Barcelona: Paidós, 1998.

 

BESSI Alessandro, et al. Science vs Conspiracy: Collective Narratives in the Age of Misinformation. En: PLoS ONE. Vol 10 (2015); pp. 1-17.

 

BESSI, Alessandro, et al. Social Determinants of Content Selection in the Age of (Mis)Information. En: Social Informatics SocInfo. Vol. 8851 (2014); pp. 259-268.

 

BROWN, Jo; BRODERICK, Amanda, y LEE, Nick. Word of mouth communication within online communities: Conceptualizing the online social network. En: Journal of interactive marketing. Vol. 21. Issue 3, 2007; pp. 2-20.

 

BRUGNOLI, Emanuele. Recursive patterns in online echo chambers. En: Sci Rep Vol. 9 (2019); pp. 1-18.

 

CHOI, Daejin et al. Rumor Propagation is Amplified by Echo Chambers in Social Media. En: Sci Rep. Vol. 10, (2020).

 

COLOMBIA. CONGRESO DE LA REPÚBLICA. Ley 599. (24, julio, 2000). Por la cual se expide el Código Penal. Diario oficial. Julio, 2000. No. 44097

 

COTA, Wesley, et al. Quantifying echo chamber effects in information spreading over political communication networks. En: EPJ Data Science Vol. 8, (2019); pp. 1-13.

 

DÁVILA RESTREPO, Nicolás. La neutralidad en la red. Asuntos Legales. 26 de octubre de 2018. [Consultado el 21 de junio de 2020]. Disponible en: https://www.asuntoslegales.com.co/consultorio/la-neutralidad-de-red-2786456

 

DEL ROSAL BLASCO, Bernardo. La estrategia actuarial del control del riesgo en la política criminal y en el Derecho. En: CARBONELL MATEU, T. (Coord.). Constitución, Derechos Fundamentales y Sistema Penal: semblanzas y estudios con motivo del setenta aniversario del profesor Tomás Salvador Vives Antón. Vol. 1, 2009; pp. 473.

 

ELLIS- PETERSEN, Hannah. Malaysia scraps ‘fake news’ law used to stifle free speech. The Guardian. 17 de Agosto de 2018. [Consultado el 21 de julio de 2020]. Disponible en: https://www.theguardian.com/world/2018/aug/17/malaysia-scraps-fake-news-law-used-to-stifle-free-speech

 

GARAVITO, César. La paz y las cámaras de eco. Dejusticia. 29 de septiembre 2016. [Consultado el 19 de mayo de 2020]. Disponible en: https://www.dejusticia.org/column/la-paz-y-las-camaras-de-eco/

 

GARRET, R Kelly, et al. The promise and peril of real-time corrections to political misperceptions. En: Proceedings of the 2013 conference on Computer supported cooperative work. Nº13 (2013); pp. 1047-1058.

 

HASSEMER, Winfried. Rasgos y crisis del Derecho Penal moderno. En: Anuario de Derecho Penal y Ciencias Penales. T. 45, Fasc. 1, 1992; pp. 235 y ss.

 

HILBERT, Martin et al. Communicating with algorithms: A Transfer Entropy Analysis of Emotions-Based Escapes from Online Echo Chambers. En: Communication Methods and Measures (June 2018); pp. 260-275.

 

JORDAN, Gemma y SHORLAND, Alyse. Episode 9: ‘The Rabbit Hole’. What is Youtube Pushing You to Watch Next? The weekly. NY Times. 9 de agosto de 2019. [Consultado el 21 de junio de 2020]. Disponible en: https://www.nytimes.com/2019/08/09/the-weekly/youtube-brazil-far-right.html

 

KOULOPOULOS, Thomas. Revealing the invisible: How our hidden behaviors are becoming the most valuable commodity of the 21st century. Nueva York: Post Hill, 2018, p. 111.

 

LERMAN, Rachel. Facebook faces a growing advertising boycott after consumer goods giant Unilever joins. The Washington Post. 26 de junio de 2020. [Consultado el 21 de junio de 2020]. Disponible en: https://www.washingtonpost.com/technology/2020/06/26/facebook-advertising-boycott-unilever/

 

MOCANU, et al. Collective attention in the age of (mis)information. En: Computers in Human Behaviour. Vol 51, (October 2015); pp. 1198-1204.

 

MOORE, Suzanne. How social media echo chambers fuelled the rise of Boris Johnson. The Guardian. 23 de julio de 2019. [Consultado el 19 de marzo de 2020]. Disponible en: https://www.theguardian.com/commentisfree/2019/jul/23/how-social-media-echo-chambers-fuelled-the-rise-of-boris-johnson

 

ORTIZ, Rebecca et al. A systematic literature review to examine the potential for social media to impact HPV vaccine uptake and awareness, knowledge, and attitudes about HPV and HPV vaccination. En: Human Vaccines & Immunotherapeutics. Nº 43 (2019); pp. 1465–1475.

 

PATRICK, G.T.W. The New Optimism. En: The Popular Science Monthly, Vol. 82 (mayo, 1913); p. 493.

 

SILVA SÁNCHEZ, Jesús María. Fundamentos del Derecho penal de la Empresa. 2ª ed. Madrid: Edisofer, 2016.

 

______________. La expansión del Derecho Penal. Madrid: Civitas, 2001.

STELTER, Brian. How the pro-Trump echo chamber has changed impeachment. CNN. 16 de enero de 2020. [Consultado el 19 de mayo de 2020]. Disponible en: https://edition.cnn.com/2020/01/16/media/donald-trump-feedback-loop-reliable-sources/index.html

 

UNILEVER. Driving a Responsible Digital Ecosystem in These Polarized Times. 26 de junio de 2020. [Consultado el 21 de junio de 2020]. Disponible en: https://www.unileverusa.com/news/news-and-features/2020/driving-a-responsible-digital-ecosystem-during-these-polarized-times.html

 

WILKINSON, David y THELWALL, Mike. Social Network Site Changes Over Time: The Case of MySpace. En: Journal of the American Society for Information Science and Tecnology. 61 (noviembre, 2020); pp. 2311-2323.

 

ZOLLO, Fabiana et al. Emotional dynamics in the age of misinformation. En: PLoS ONE. Vol. 10 (2015), pp. 1-22.

 

 

[1] Abogado y Filósofo de la Universidad de los Andes. Profesor de Derecho Penal de la Universidad de los Andes y de la Universidad de la Sabana. Doctorando en Derecho de la Universidad Pompeu Fabra bajo la dirección del Prof. Jesús-María Silva Sánchez. Magíster en Derecho Penal y Ciencias Penales de la Universidad de Barcelona y la Universidad Pompeu Fabra. Magíster en Estudios Jurídicos Avanzados de la Universidad de Barcelona. Especialista en Derecho Médico-Sanitario de la Universidad del Rosario. Miembro del Consejo Editorial de Primera Línea.

[2] UNILEVER. Driving a Responsible Digital Ecosystem in These Polarized Times. 26 de junio de 2020. [Consultado el 21 de julio de 2020]. Disponible en: https://www.unileverusa.com/news/news-and-features/2020/driving-a-responsible-digital-ecosystem-during-these-polarized-times.html

[3] LERMAN, Rachel. Facebook faces a growing advertising boycott after consumer goods giant Unilever joins. En: The Washington Post. 26 de junio de 2020. [Consultado el 21 de julio de 2020]. Disponible en: https://www.washingtonpost.com/technology/2020/06/26/facebook-advertising-boycott-unilever/. LERMAN explica que «Stop Hate for Profit points out that Facebook made nearly $70 billion in advertising revenue last year and still allowed “incitement to violence against protesters fighting for racial justice” and “turned a blind eye to blatant voter suppression».

[4] Para el listado completo y actualizaciones sobre el desarrollo de este movimiento, revisar https://www.stophateforprofit.org/

[5] DÁVILA RESTREPO, Nicolás. La neutralidad en la red. Asuntos Legales. 26 de octubre de 2018. [Consultado el 21 de julio de 2020]. Disponible en: https://www.asuntoslegales.com.co/consultorio/la-neutralidad-de-red-2786456. El autor menciona que el «(…) internet es regido por la “neutralidad de red” en donde los proveedores de servicio deben permitir el acceso a cualquier contenido sin importar de donde provenga y sin favorecer o bloquear productos o servicios particulares (…) Quiere decir esto que sin la neutralidad de red los proveedores podrían por ejemplo escoger a qué velocidad se accede a determinado sitio web o simplemente bloquearlo».

[6] JORDAN, Gemma y SHORLAND, Alyse. Episode 9: ‘The Rabbit Hole’. What is YouTube Pushing You to Watch Next? The weekly. NY Times. 9 de agosto de 2019. [Consultado el 21 de julio de 2020]. Disponible en: https://www.nytimes.com/2019/08/09/the-weekly/youtube-brazil-far-right.html

[7] MOORE, Suzanne. How social media echo chambers fuelled the rise of Boris Johnson. En: The Guardian. 23 de julio de 2019. [Consultado el 19 de marzo de 2020]. Disponible en: https://www.theguardian.com/commentisfree/2019/jul/23/how-social-media-echo-chambers-fuelled-the-rise-of-boris-johnson

[8] Recientemente, a propósito del “impeachment”: STELTER, Brian. How the pro-Trump echo chamber has changed impeachment. CNN. 16 de enero de 2020. [Consultado el 19 de mayo de 2020]. Disponible en: https://edition.cnn.com/2020/01/16/media/donald-trump-feedback-loop-reliable-sources/index.html

[9] BORREGUERO, Eva. Frente a la desinformación. En: El País. 24 de diciembre de 2018. [Consultado el 19 de mayo de 2020]. Disponible en: https://elpais.com/elpais/2018/12/24/opinion/1545645156_031421.html

[10] GARAVITO, César. La paz y las cámaras de eco. En: Dejusticia. 29 de septiembre 2016. [Consultado el 19 de mayo de 2020]. Disponible en: https://www.dejusticia.org/column/la-paz-y-las-camaras-de-eco/

[11] ARRIETA ZINGUER, Miguel. Libertad de expresión y derecho a la información en las redes sociales en internet. En: Revista de Derecho, Comunicaciones y Nuevas Tecnologías. No. 12 (jul-dic 2014); p. 5 y ss.

[12] Es muy famosa la (temprana) definición de la personalización del internet atribuida a David Weinberger, según la cual “la personalización es la confección automatica de sitios y mensajes a los individuos viéndolos, para que podamos sentir que en algún lugar hay una pieza de software que nos ama por lo que somos”. WEINBERGER, David. Citado por: KOULOPOULOS, Thomas. Revealing the invisible: How our hidden behaviors are becoming the most valuable commodity of the 21st century. Nueva York: Post Hill, 2018, p. 111.

[13] Es interesante el caso de MySpace, una compañía que pasó de dominar el mercado a, paulatinamente, perder todo tráfico significativo, aunque manteniendo una enorme base de datos de usuarios antiguamente activos. Al respecto: WILKINSON, David y THELWALL, Mike. Social Network Site Changes Over Time: The Case of MySpace. En: Journal of the American Society for Information Science and Tecnology. 61 (noviembre, 2020); p. 2311-2323.

[14] BESSI, Alessandro, et al. Social Determinants of Content Selection in the Age of (Mis)Information. En: Social Informatics SocInfo. Vol. 8851 (2014); pp. 259-268.

[15] BROWN, Jo; BRODERICK, Amanda, y LEE, Nick. Word of mouth communication within online communities: Conceptualizing the online social network. En: Journal of interactive marketing. Vol. 21. Issue 3 (2007); p. 2-20. Citado por BESSI, A., Óp. Cit.

[16] Ibíd., p. 3.

[17] Ibíd., p. 4, 11. Los investigadores reportaron que “(…) la agregación de usuarios en torno a narrativas opuestas lleva al surgimiento de cámaras de eco. Una vez dentro de tales comunidades homogéneas y polarizadas, los usuarios que apoyan las narrativas se comportan de la misma manera”, lo que “(…) permite derivar un modelo de aprendizaje estadístico para predecir con una buena precisión si un usuario se polarizará hacia cierta narrativa o si variará entre contenidos apoyando diferentes narrativas”.

[18] HILBERT, Martin et al. Communicating with algorithms: A Transfer Entropy Analysis of Emotions-Based Escapes from Online Echo Chambers. En: Communication Methods and Measures (June 2018); p. 260-275.

[19] HILBERT, M., Op. Cit., p. 11. De hecho, al aplicarlo a la campaña Trump-Clinton en EEUU 2016-, encontraro que, dependiendo del estado emocional del usuario, Youtube le presentaría contenido de uno u otro candidato (algunas emociones estaban asociadas a uno y otras, al otro). Todo ello, con el evidente fin de mantener al usuario conectado con la plataforma.

[20] BRUGNOLI, Emanuele. Recursive patterns in online echo chambers. En: Sci Rep Vol. 9 (2019); p. 1-18.

[21] El sesgo de autoconfirmación es aquél por el que el agente muestra una marcada tendencia a preferir sus propias ideas sobre las de los demás, sin que ello corresponda a la realidad de la información disponible. Con detalle: SILVA SÁNCHEZ, Jesús María. Fundamentos del Derecho penal de la Empresa. 2ª ed. Madrid: Edisofer, 2016, p. 250 y ss.

[22] ANAGNOSTOPOULUS, Aris et al. Viral Misinformation: The Role of Homophily and Polarization. En: WWW 2015 Companion, (mayo, 2015); p. 355-356.

[23] BESSI Alessandro, et al. Science vs Conspiracy: Collective Narratives in the Age of Misinformation. En: PLoS ONE. Vol 10 (2015); p. 1-17; QUATTROCIOCCHI, Walter. How does misinformation spread online? World Economic Forum. 14 de enero de 2016. [Consultado 19 mayo 2020]. Disponible en < https://www.weforum.org/agenda/2016/01/q-a-walter-quattrociocchi-digital-wildfires/ >; ZOLLO, F. et al. Emotional dynamics in the age of misinformation. En: PLoS ONE, 10, 9 (2015). Citados por BESSI, A., Op Cit., 2016, p. 12-17.

[24] Hace casi una década, AIELLO y otros ya mostraban que, a través de un análisis puramente basado en el agrupamiento (“clustering”) de intereses comunes como tecnología de aprendizaje automatizado, se podría “predecir” con alto grado de fiabilidad las amistades en redes sociales. AIELLO, L. et al. Friendship prediction and homophily in social media. En: ACM Transactions on the Web (TWEB), 6, 2 (June, 2012); pp. 5-39. Ahora bien, ya en lo que se refiere a las bases teóricas de lo que hoy inspira el debate, debe reconocerse que ─casi coincidente con el nacimiento del término “inteligencia artificial” en la famosa conferencia de Darthmouth en 1956─ se pueden trazar antecedentes que remontan hasta mediados del siglo pasado. ATTNEAVE, Fred. Applications of information theory to psychology: a summary of basic concepts, methods and results. Oxford: Holt, 1959.

[25] Desde sus dimensiones coelctivas en política, en donde mayor producción específica ha habido, destaca GARRET, R Kelly. et al. The promise and peril of real-time corrections to political misperceptions. En: Proceedings of the 2013 conference on Computer supported cooperative work. Nº 13 (2013); pp. 1047-1058 o, en general, en la sociedad BESSI, Alessandro, et al. Óp. Cit, p, 259-268., hasta su dimensión individual, ZOLLO, Fabiana et al. Emotional dynamics in the age of misinformation. En: PLoS ONE. Vol. 10 (2015), p.1-22 y MOCANU, et al. Collective attention in the age of (mis)information. En: Computers in Human Behaviour. Vol. 51, (Octubre 2015); pp. 1198-1204.

[26] Algunas de las principales contribuciones tienen escasos meses, como es el caso de CHOI, Daejin et al. Rumor Propagation is Amplified by Echo Chambers in Social Media. En: Sci Rep. Vol. 10, (2020); BALDWIN-PHILIPPI, Jessica. The technological performance of populism. En: New Media & Society, Nº21 (2019); p. 376-397.; COTA, Wesley, et al. Quantifying echo chamber effects in information spreading over political communication networks. En: EPJ Data Science Vol. 8, (2019); pp. 1-13.; ORTIZ, Rebecca et al. A systematic literature review to examine the potential for social media to impact HPV vaccine uptake and awareness, knowledge, and attitudes about HPV and HPV vaccination. En: Human Vaccines & Immunotherapeutics. Nº 43 (2019); pp. 1465–1475.

[27] Es cierto que, en televisión (por poner un ejemplo), cualquier persona puede acceder a su noticiero de preferencia y decidir, conscientemente, no ver otro. Pero, el problema del nivel actualmente posible de personalización del internet es que, al cabo de un tiempo, el usuario termine por olvidar que existe “otro”.

[28] Siendo un tema tan importante, recientemente, la Corte Constitucional unificó su jurisprudencia en torno al particular y destacó la relevancia del asunto desde la perspectiva constitucional, por las serias afectaciones a derechos fundamentales que podrían desprenderse del uso malicioso de las redes sociales (Corte Constitucional, SU-420 de 2019). En breve, esta autoridad concluyó que, aunque los administradores no son responsables del contenido que los usuarios suban a sus plataformas, sí pueden verse obligados por la autoridad pública a retirarlo en procura de los derechos fundamentales de terceros: “a pesar de que estas plataformas no son las llamadas a responder por el contenido que publican sus usuarios, en caso de que una autoridad judicial encuentre que un contenido atenta contra los derechos fundamentales de una persona, puede ordenar su remoción directamente a los intermediaros de Internet, en orden a generar una garantía efectiva de las prerrogativas de la persona afectada, porque el infractor no quiere o no puede cumplir con lo ordenado por un juez”.

[29] Algunos países, como Malasia, por ejemplo, han intentado reprimir con prisión esta sola conducta, aunque de manera infructuosa con la frustrada “Ley de Falsas Noticias” que, tras generar polémica en todo el mundo, finalmente, nunca vio la luz del ordenamiento vigente. ELLIS- PETERSEN, Hannah. Malaysia scraps ‘fake news’ law used to stifle free speech. En: The Guardian. 17 de agosto de 2018. [Consultado el 21 de julio de 2020]. Disponible en: https://www.theguardian.com/world/2018/aug/17/malaysia-scraps-fake-news-law-used-to-stifle-free-speech

[30] Si eso aplica al movimiento de #flatearth, ¿qué decir de la opinión acerca de que el Acuerdo de Paz con las FARC llevaría a Colombia al castrochavismo, que el Brexit era la única forma de salvar la economía británica o que el Júnior de Barranquilla es el mejor equipo de fútbol del mundo? El lector se sorprendería de los argumentos que pueden encontrarse en relación con cada uno de estos temas.

[31] Es conocido el pasaje de hace casi 5.000 años en el que un preocupado acadio se lamentaba: “Hemos caído en tiempos perversos / El mundo se ha vuelto viejo y despiadado / La política es corrupta / Y los hijos ya no respetan a los padres” Tablilla cuneiforme 456 del imperio acadio, 2800 a. C., atribuida frecuentemente al Rey Naram-Sim de Caldea. Traducción libre de la cita original de PATRICK, G.T.W. The New Optimism. En: The Popular Science Monthly, Vol. 82 (mayo, 1913); p. 493: “We have fallen upon evil times, and the world has waxed very old and wicked, polities are very corrupt, children are no longer respectful of their parents” (traducción del autor).

[32] COLOMBIA. CONGRESO DE LA REPÚBLICA. Ley 599. (24, julio, 2000). Por la cual se expide el Código Penal. Diario oficial. Julio, 2000. No. 44097. Artículo 325. Omisión de control. “El miembro de junta directiva, representante legal, administrador o empleado de una institución financiera o de cooperativas que ejerzan actividades de ahorro y crédito que, con el fin de ocultar o encubrir el origen ilícito del dinero, omita el cumplimiento de alguno o todos los mecanismos de control establecidos por el ordenamiento jurídico para las transacciones en efectivo incurrirá, por esa sola conducta, en prisión de treinta y ocho (38) a ciento veintiocho (128) meses y multa de ciento treinta y tres punto treinta y tres (133.33) a quince mil (15.000) salarios mínimos legales mensuales vigentes”.

[33] Claro está: no toda expansión del Derecho penal es desdeñable. Que el Derecho penal se expanda para brindar protección efectiva a una nueva realidad que así lo amerita no necesariamente va en contra de su carácter fragmentario ni su papel de ultima ratio. El problema es cuando se “desplaza al plano simbólico (esto es, al de la declaración de principios, que tranquiliza a la opinión pública) lo que debería resolverse en el nivel de lo instrumental (de la protección efectiva)”, SILVA SÁNCHEZ, Jesús María. La expansión del Derecho Penal. Madrid: Civitas, 2001, p. 21.

[34] Hago referencia, por supuesto, al papel del derecho penal en las llamadas “sociedades del riesgo”, como administrador en vez de opositor a éste. Entre otros: BECK, Ulrich. La sociedad del riesgo: hacia una nueva modernidad. Primera edición de 1998, traducida al castellano. Barcelona: Paidós, 1998; HASSEMER, Winfried. Rasgos y crisis del Derecho Penal moderno. En: Anuario de Derecho Penal y Ciencias Penales. T. 45, Fasc. 1, 1992; p. 235 y ss. y DEL ROSAL BLASCO, Bernardo. La estrategia actuarial del control del riesgo en la política criminal y en el Derecho. En: CARBONELL MATEU, T. (Coord.). Constitución, Derechos Fundamentales y Sistema Penal: semblanzas y estudios con motivo del setenta aniversario del profesor Tomás Salvador Vives Antón. Vol. 1, 2009; p. 473 y ss.

[35] En derecho penal, por ejemplo, es posible que algún ajuste haga falta a la Parte Especial para valorar íntegramente los injustos de las campañas de propaganda negra, de porno-venganza o de las fake news, en concordancia con lo ya referido.