Ilumina la oscuridad
Edición del 23 / 11 / 2024
                   
23/01/2020 20:38 hs

Por qué la gente consume desinformación y toxicidad en la red

Argentina - 23/01/2020 20:38 hs
COMPARTIR EN:                                

No sólo la polarización antecede largamente a las plataformas sociales: la imitación y la envidia como motores de la conducta humana podrían explicar la violencia en línea más allá de los instrumentos tecnológicos de las empresas.

En un discurso en la cumbre “Nunca es ahora”, de la Liga Antidifamación (ADL), Sacha Baron-Cohen sintetizó las críticas principales a las redes sociales: “En todo el mundo los demagogos apelan a nuestros peores instintos. Las teorías conspirativas que alguna vez se limitaron a los márgenes hoy son comunes. Es como si la era de la razón estuviera terminando, y el conocimiento perdiera cada vez más legitimidad y el consenso científico se desestimara. La democracia, que depende de las verdades compartidas, está en retirada; la autocracia, que depende de las mentiras compartidas, está avanzando. Todo este odio y esta violencia están siendo facilitados por un puñado de compañías de internet que constituyen la mayor máquina de propaganda de la historia”.

Las empresas detrás de las plataformas sociales y sus algoritmos de recomendación, que alimentan la profusión viral de contenidos como las noticias falsas, serían los villanos en esta historia. Y no ayuda que en su defensa, mientras ganan dinero por avisos que alientan el genocidio de los Rohynga o comercializando los datos de los usuarios sin su autorización, sus directivos se justifiquen con el derecho a la libre expresión. No obstante, polemizó la revista Wired, el argumento al que muchos adhieren, como Baron-Cohen, es más tranquilizador que verdadero.

“En los últimos años, la idea de que Facebook, YouTube y Twitter crearon de alguna manera las condiciones de nuestro fanatismo —y, por extensión, la propuesta de que nuevas regulaciones o reformas de los algoritmos podrían restaurar alguna era arcadiana de argumento probatorio— no ha soportado bien el escrutinio”, escribió el editor Gideon Lewis-Kraus en un texto que analiza las ideas sobre las burbujas de filtros como una burbuja de filtro en sí mismas.

Citó, por ejemplo, un estudio del Centro Berkman Klein de la Universidad de Harvard según el cual la circulación de noticias falsas “parece haber jugado un papel relativamente pequeño en el esquema general” de lo sucedido en las elecciones estadounidenses de 2016; también mencionó un análisis de 330.000 videos de YouTube, muchos de ellos asociados a la extrema derecha, “que halló escasa evidencia de la teoría sobre la radicalización algorítmica, que responsabiliza al motor de búsqueda de YouTube por mostrar contenidos cada vez más extremos”.

La polarización política, recordó Lewis-Kraus, "antecede largamente el ascenso de las redes sociales”. Los dueños de Silicon Valley lo saben: “La razón por la que estas empresas —en particular Facebook— hablan de la libertad de expresión no es simplemente para ocultar su interés económico en la reproducción de desinformación: también es una manera educada de sugerir que la verdadera culpa de lo que se pulula en sus plataformas recae en sus usuarios”.

Lejos de ser la causa de la era de las burbujas de filtros, citó a Ezra Klein en su libro Why We’re Polarized (Por qué estamos polarizados), las redes sociales son “un acelerador”, en tanto “alientan a los individuos a ver sus creencias y preferencias, aunque sea en momentos breves pero potentes que se perciben amenazadores, como expresiones potenciales de una única identidad política subyacente”.

Más aún —siguió Wired—: el papel de las plataformas no fue deliberado ni inevitable. Citó a Klein: “Al comienzo pocos comprendieron que la manera de ganar la guerra de la atención era aprovechar el poder de la comunidad para crear identidad. Pero los ganadores surgieron rápidamente, con frecuencia empleando técnicas cuyos mecanismos no comprendían del todo".

Dos años antes de que Facebook se abriera al mundo en 2006, uno de sus inversores, el cofundador de PayPal Peter Thiel organizó una conferencia en la Universidad de Stanford con su mentor académico, el antropólogo francés René Girard. “Hoy la mera auto preservación nos fuerza a que todos miremos el mundo con nuevos ojos", escribió, en alusión al modo en que la política cambiaba tras el atentado contra las Torres Gemelas, “y despertemos de de ese largo y provechoso período de letargo y amnesia intelectual tan engañosamente llamado Ilustración”. El 11 de septiembre de 2001 había probado, desde su punto de vista, que “todo el tema de la violencia humana" había "quedado encubierto” por una ficción política construida sobre el concepto del contrato social.

Y al mismo tiempo que le pedía a Girard que contara la historia de la irracionalidad y la venganza humanas, invertía USD 500.000 en el emprendimiento del jovencísimo Mark Zuckerberg.

Girard explicó que como especie los humanos se caracterizan por la imitación. Eso no se debe solamente a la capacidad de aprender: “El ser humano es la criatura que no sabe qué desear, y mira a los demás para decidirlo”, escribió. “Deseamos lo que otros desean porque imitamos sus deseos”. Se mira, así, a los modelos sociales, la gente más fuerte.

La rúbrica emocional de la imitación no es tanto la admiración de aquellos capaces de influir sobre otros sino la envidia devoradora. “La mímesis empuja a las personas a una rivalidad creciente”, sostuvo Thiel, en la misma línea de su mentor.

El algoritmo de Facebook parecería trabajar en concordancia: a medida que la gente sigue algunos perfiles y da “me gusta” a algunas publicaciones, el algoritmo “reconoce la clase de gente que aspiramos a ser y nos complace con la sugerencia de refinamientos”, comparó Wired. Las plataformas no crean sino que refractan. “Se nos divide en conjuntos discretos de deseos, y luego se nos agrupa según líneas de importancia estadística. Las clases de comunidades que estas plataformas permiten han sido halladas, más que forjadas”. En el origen, el problema es qué desean los usuarios.

Girard pasó sus últimos años analizando el modo en que las sociedades humanas desplazaban la violencia de la rivalidad imitativa hacia un símbolo, un chivo expiatorio: desde los antiguos hasta el cristianismo, el inocente sacrificado salvaba a los demás. “Pero los rituales arcaicos ya no funcionan en el mundo moderno”, observó Thiel. E hizo un aporte de capital que, hasta el día de hoy, lo tiene en la junta de una de las redes sociales más importantes.

“La inversión clarividente de Thiel en Facebook podría ser interpretada como un gesto de fe en el poder de las plataformas para intervenir y reemplazar la violencia real con un nuevo sustituto simbólico”, según la revista de cultura digital. “La oportunidad de descargarnos en las redes sociales, y cada tanto unirnos a una turba indignada online, podría aliviar nuestro deseo latente de herir a la gente en la vida real”. Como un avance evolutivo: antes los humanos no tenían estas estructuras simbólicas, ahora las aprovechan.

"Al final, a medida que se vuelve más y más insostenible echar al poder de unos pocos proveedores la culpa de las malhadadas demandas de sus usuarios, corresponde a los críticos de la tecnología aceptar que los deseos de las personas son reales, y hacerlo incluso más seriamente que las propias compañías. Esos deseos necesitarán una forma de compensación que va mucho más allá del ‘algoritmo’”, concluyó el texto: si el deseo humano está en la raíz del problema, no es el algoritmo responsable de la crisis de la democracia, ni un mejor algoritmo podría salvarla.

Fuente: Infobae

ÚLTIMAS NOTICIAS


NOMBRE
EMAIL
Random Number
PÁGINA   1   DE   0  -   TOTAL : 0

MÁS VISTAS


WhatsApp 358 481 54 54
Tel: +54 358 4638255 (Rotativo)
Constitución 399, CP5800 - Río Cuarto, Córdoba, Argentina
PROGRAMACIÓN AM
CONTRATAR PUBLICIDAD AM
WhatsApp 358 482 80 13
Tel: +54 358 4638255 (Rotativo)
Constitución 399, CP5800 - Río Cuarto, Córdoba, Argentina
PROGRAMACIÓN FM
CONTRATAR PUBLICIDAD FM
Copyright 2024 - LV16 Multimedios - Aviso Legal