La empresa de Mark Zuckerberg no se decide a cambiarlo porque el mecanismo genera interacciones, aunque ataque a grupos vulnerables y contradiga las normas de Facebook.

El algoritmo que facilita la circulación de discursos de odio se está convirtiendo en un boomerang para Facebook e Instagram, pero algunas denuncias indican que la empresa de Mark Zuckerberg no se decide a modificarlo porque el mecanismo genera interacciones.

Ezequiel Ipar, director del Laboratorio de Estudios sobre Democracia y Autoritarismo (LEDA), explicó que esta “inacción” por parte de la red social contradice el objetivo de crear una plataforma “significativa y saludable”.

De esta manera, los textos que promueven discursos de odio al parecer se profundizaron con la modificación del algoritmo de Facebook, el verdadero gestor de la interacción entre sus usuarios.

El tema tomó más fuerza cuando la exempleada de esa compañía Frances Haugen pidió regular al gigante de las redes sociales al que acusó, ante legisladores de los Estados Unidos de “financiar sus ganancias” con la seguridad de los usuarios.

Haugen reveló que Facebook sabe que sus sitios son potencialmente dañinos para la salud mental de los jóvenes. “Casi nadie sabe lo que sucede dentro de Facebook. Ocultan información al público, a sus accionistas y a los gobiernos”, agregó.

Facebook Querdenken 02.jpeg
Denuncian que Facebook no modificó algoritmo que promueve discursos de odio

Denuncian que Facebook no modificó algoritmo que promueve discursos de odio

Desde la Argentina, en el LEDA, de la Universidad Nacional de San Martín (Unsam) con investigadores del Conicet, Ipar y su equipo investigan estas redes y las consecuencias de la aplicación del algoritmo diseñado por la gente de Zuckerberg.

Haugen dijo que Facebook “puede dar cuenta y reconocer entre el 3 y el 5 por ciento de los discursos de odio de los mensajes de los 3.000 millones de usuarios. Pero parece que los controles funcionan en 50 lenguas, y Facebook tiene usuarios en 5.500. Es decir, que 5.450 viven en un far west digital”, sentenció Ipar.

Como ejemplo del discurso de odio y la falta de controles de la red, en octubre de 2018, The New York Times (NYT) denunció que militares birmanos usaron Facebook para justificar una limpieza étnica contra los rohinyas, una minoría musulmana, y argumentaron que el islam representa una amenaza para el budismo.

Ipar recordó también “casos de incitación a la violencia interétnica en Etiopía”.

En noviembre de 2019, la BBC reprodujo el testimonio del atleta etíope Haile Gebrselassie, quien denunció a Facebook como responsable de la matanza de 78 personas debido a la distribución de noticias falsas, explicó.

"Comenzaron a buscar por dónde se había generado el discurso de odio, y descubrieron que fue a través de posteos en Facebook”, explicó el investigador.

"No fue la radio ni la televisión, ni un dictador hablando desde un medio oficial; fue desde la capilaridad de Facebook donde se generó la sensación de temor”, agregó.

Pero la forma en la que Facebook trató “de resolver estos problemas, los terminó agudizando”, dijo sobre la reformulación que hicieron del algoritmo.

Aparecen en esta nota:

Contacto

Registro ISSN - Propiedad Intelectual: RL-2021-110619619 - Domicilio Legal: Intendente Beguiristain 146 - Sarandí (1872) - Buenos Aires - Argentina Teléfono/Fax: (+5411) 4204-3161/9513 - internet@dpopular.com.ar

Edición Nro. 15739

 

Dirección

Propietario: Man Press S.A. - Director: Francisco Nicolás Fascetto © 2017 Copyright Diario Popular - Todos los derechos reservados