Redes Sociales

Hola, ¿qué deseas buscar?

Ciencia y Tecnología

Exempleada de Facebook revela cómo la compañía promueve el odio, la violencia y la desinformación —y lo oculta por conflictos de interés

[Nota del editor: La denunciante Frances Haugen afirma haber visto “una y otra vez que había conflictos de intereses entre lo que era bueno para el público y lo que era bueno para Facebook”. Ella dice que Facebook repetidamente actuaba de acuerdo a sus propios intereses, como el de “ganar más dinero”. Frances Haugen tiene previsto declarar ante el Congreso esta semana. Ella cree que el gobierno federal debe imponer regulaciones. Pero Facebook no sólo se trata de intereses económicos si uno toma en cuenta que su vicepresidente, Sir Nicholas Clegg —el responsable de sabotear los intentos de regulación a la red social— fue nombrado caballero del imperio británico por el Príncipe Carlos de Gales. Después de todo, el odio, la violencia y la desinformación de las que habla Frances Haugen, son elementos fundamentales en la estrategia del orden a través del caos, lo que confirma que la red social es una herramienta de guerra híbrida controlada por las élites anglo-estadounidenses que promueven el culto a la mentira y las guerras sin fin.]

 

 

Por 60 Minutos

Su nombre es Frances Haugen. Desde el mes pasado, Facebook ha estado ansioso por saber cuándo un ex empleado anónimo presentó denuncias ante las autoridades federales. La denuncia dice que las propias investigaciones emprendidas por Facebook indican que amplifica el odio, la desinformación y el malestar político, pero la empresa oculta lo que sabe. Una de las quejas alega que el Instagram de Facebook perjudica a las adolescentes. Lo que hace que las quejas de Haugen no tengan precedentes es el trozo de investigación privada de Facebook que se llevó cuando renunció en mayo. Los documentos aparecieron primero, el mes pasado, en el Wall Street Journal. Pero esta noche, Frances Haugen revela su identidad para explicar por qué se convirtió en denunciante de Facebook.

Frances Haugen: Lo que vi en Facebook una y otra vez fue que había conflictos de intereses entre lo que era bueno para el público y lo que era bueno para Facebook. Y Facebook, una y otra vez, optó por optimizar sus propios intereses, como ganar más dinero.

Frances Haugen tiene 37 años, es una científica de datos de Iowa con una licenciatura en ingeniería informática y un máster en negocios de Harvard. Durante 15 años ha trabajado para empresas como Google y Pinterest.

Frances Haugen: He visto un montón de redes sociales, y en Facebook era sustancialmente peor que todo lo que había visto antes. […]

Scott Pelley: ¿Cuándo y cómo se le ocurrió sacar todos estos documentos de la empresa?

Frances Haugen: En algún momento en 2021, me di cuenta, Bueno, voy a tener que hacer esto de una manera sistemática, y tengo que salir lo suficiente para que nadie pueda cuestionar que esto es real.

Haugen ha copiado en secreto decenas de miles de páginas de investigaciones internas de Facebook. Afirma que las pruebas demuestran que la empresa está mintiendo al público acerca de los avances significativos en la lucha contra el odio, la violencia y la desinformación. Un estudio que encontró, de este año, dice: “estimamos que podemos actuar tan sólo en un 3-5% de odio y alrededor de 6 décimas del 1% de V & I [violencia e incitación] en Facebook a pesar de ser los mejores del mundo en ello”.

Scott Pelley: Citando otro de los documentos que has filtrado, “Tenemos pruebas de una variedad de fuentes de que el discurso de odio, el discurso político divisivo y la desinformación en Facebook y la familia de aplicaciones están afectando a las sociedades de todo el mundo.”

Frances Haugen: Cuando vivimos en un entorno de información que está lleno de contenido odioso y polarizante, eso erosiona nuestra confianza cívica, erosiona nuestra fe en los demás, erosiona nuestra capacidad de querer cuidar de los demás. Lo que es Facebook hoy en día, desgarra nuestras sociedades y causa violencia étnica en todo el mundo.

‘Violencia étnica’ incluyendo a Myanmar en 2018 cuando los militares usaron Facebook para lanzar un genocidio.

Frances Haugen nos dijo que fue reclutada por Facebook en 2019. Dice que aceptó el trabajo solo si podía trabajar contra la desinformación porque había perdido a un amigo por las teorías conspirativas en línea.

Frances Haugen: Nunca quise que nadie sintiera el dolor que yo había sentido. Y había visto lo mucho que estaba en juego en términos de asegurar que hubiera información de alta calidad en Facebook.

En la sede, estaba asignada a Integridad Cívica, que trabajaba en los riesgos de las elecciones, incluida la desinformación. Pero después de las últimas elecciones, hubo un punto de inflexión.

Frances Haugen: Nos dijeron: “Estamos disolviendo la Integridad Cívica”. Básicamente dijeron: “Qué bien, hemos superado las elecciones. No hubo disturbios. Ahora podemos deshacernos de la Integridad Cívica”. Avanza un par de meses, tenemos la insurrección. Y cuando se deshicieron de Integridad Cívica, fue el momento en el que me dije: “No confío en que estén dispuestos a invertir realmente lo que hay que invertir para evitar que Facebook sea peligroso”.

Facebook dice que el trabajo de Integridad Cívica se distribuyó a otras unidades. Haugen nos dijo que la raíz del problema de Facebook está en un cambio que hizo en 2018 a sus algoritmos: la programación que decide lo que ves en tu feed de noticias de Facebook.

Frances Haugen: Así que, ya sabes, tienes tu teléfono. Podrías ver solo 100 piezas de contenido si te sientas y arrastras durante cinco minutos. Pero Facebook tiene miles de opciones que podría mostrarte.

El algoritmo elige entre esas opciones basándose en el tipo de contenido con el que más has interactuado en el pasado.

Frances Haugen: Y una de las consecuencias de cómo Facebook está eligiendo ese contenido hoy es que está optimizando para el contenido que obtiene compromiso, o reacción. Pero su propia investigación está mostrando que el contenido que es odioso, que es divisivo, que es polarizante, es más fácil de inspirar a la gente a la ira que a otras emociones.

Scott Pelley: La desinformación, el contenido de enojo… es atractivo para la gente y les engancha…

Frances Haugen: Muy tentador.

Scott Pelley: Los engancha a la plataforma.

Frances Haugen: Sí. Facebook se ha dado cuenta de que si cambia el algoritmo para que sea más seguro, la gente pasará menos tiempo en el sitio, hará clic en menos anuncios, y ganará menos dinero.

Haugen dice que Facebook entendió el peligro para las elecciones de 2020. Así que activó sistemas de seguridad para reducir la desinformación, pero muchos de esos cambios, dice, fueron temporales.

Frances Haugen: Y tan pronto como las elecciones terminaron, los volvieron a apagar o cambiaron los ajustes a lo que eran antes, para priorizar el crecimiento sobre la seguridad.

Y eso me parece realmente una traición a la democracia.

Facebook dice que algunos de los sistemas de seguridad se mantuvieron. Pero, tras las elecciones, algunos utilizaron Facebook para organizar la insurrección del 6 de enero. Los fiscales citan como prueba las publicaciones en Facebook: fotos de partisanos armados y textos que incluyen: “¡Por la bala o la papeleta, la restauración de la república está llegando!”. Los extremistas utilizaron muchas plataformas, pero Facebook es un tema recurrente.

Tras el atentado, los empleados de Facebook despotricaron en un tablón de mensajes interno copiado por Haugen. “…¿No hemos tenido tiempo suficiente para averiguar cómo gestionar el discurso sin permitir la violencia?” Buscamos comentarios positivos y encontramos esto: “No creo que nuestro equipo de liderazgo ignore los datos, ignore la disidencia, ignore la verdad…”, pero eso atrajo esta respuesta: “¡Bienvenido a Facebook! Veo que te acabas de unir en noviembre de 2020… hemos estado observando… las acciones de la dirección de la empresa desde hace años”. “…Colegas… no pueden tener conciencia de trabajar para una empresa que no hace más para mitigar los efectos negativos de su plataforma”.

Scott Pelley: Facebook esencialmente amplifica lo peor de la naturaleza humana.

Frances Haugen: Es una de estas desafortunadas consecuencias, ¿verdad? Nadie en Facebook es malévolo, pero los incentivos están mal alineados, ¿verdad? Por ejemplo, Facebook gana más dinero cuando se consume más contenido. La gente disfruta involucrándose con cosas que provocan una reacción emocional. Y cuanta más rabia se les expone, más interactúan y más consumen.

Esa dinámica llevó a una queja a Facebook por parte de los principales partidos políticos de toda Europa. Este informe interno de 2019 obtenido por Haugen dice que los partidos, “…sienten fuertemente que el cambio del algoritmo les ha obligado a sesgar negativamente sus comunicaciones en Facebook… llevándolos a posiciones políticas más extremas”.

Scott Pelley: Los partidos políticos europeos estaban esencialmente diciendo a Facebook que la forma en que has escrito tu algoritmo está cambiando la forma en que dirigimos nuestros países.

Frances Haugen: Sí. Nos estáis obligando a tomar posiciones que no nos gustan, que sabemos que son malas para la sociedad. Sabemos que si no adoptamos esas posiciones, no ganaremos en el mercado de los medios sociales.

La evidencia del daño, dice, se extiende a la aplicación Instagram de Facebook.

Scott Pelley: Uno de los estudios internos de Facebook que encontraste habla de cómo Instagram perjudica a las adolescentes. Un estudio dice que el 13,5% de las adolescentes dicen que Instagram empeora los pensamientos de suicidio; el 17% de las adolescentes dicen que Instagram empeora los trastornos alimenticios.

Frances Haugen: Y lo que es súper trágico es que la propia investigación de Facebook dice, que a medida que estas jóvenes comienzan a consumir este contenido de desorden alimenticio, se deprimen más y más. Y eso hace que usen más la aplicación. Y así, terminan en este ciclo de retroalimentación donde odian sus cuerpos más y más. La propia investigación de Facebook dice que no es sólo que Instagram es peligroso para los adolescentes, que daña a los adolescentes, es que es claramente peor que otras formas de medios sociales.

Facebook dijo, la semana pasada, que pospondría sus planes de crear un Instagram para niños más pequeños.

El mes pasado, los abogados de Haugen presentaron al menos 8 denuncias ante la Comisión de Valores y Bolsa, que vela por el cumplimiento de la ley en los mercados financieros. Las quejas comparan la investigación interna con la cara pública de la empresa —la del consejero delegado, Mark Zuckerberg—, que testificó a distancia ante el Congreso el pasado mes de marzo.

Testimonio de Mark Zuckerberg el 25 de marzo:

“Hemos eliminado el contenido que podría provocar un daño inminente en el mundo real. Hemos creado un programa de comprobación de hechos de terceros sin precedentes. El sistema no es perfecto. Pero es el mejor enfoque que hemos encontrado para abordar la desinformación en línea con los valores de nuestro país.”

Uno de los abogados de Frances Haugen, es John Tye. Es el fundador de un grupo legal de Washington, llamado “Whistleblower Aid”.

Scott Pelley: ¿Cuál es la teoría legal detrás de ir a la SEC? ¿Qué leyes alegan que se han infringido?

John Tye: Como empresa que cotiza en bolsa, Facebook está obligado a no mentir a sus inversores o incluso a ocultar información material. Por lo tanto, la SEC emprende regularmente acciones de aplicación, alegando que empresas como Facebook y otras están haciendo declaraciones erróneas y omisiones materiales que afectan negativamente a los inversores.

Scott Pelley: Una de las cosas que Facebook podría alegar es que ella robó documentos de la empresa.

John Tye: La Ley Dodd-Frank, aprobada hace más de diez años en este punto, creó una Oficina del Denunciante dentro de la SEC. Y una de las disposiciones de esa ley dice que ninguna empresa puede prohibir a sus empleados que se comuniquen con la SEC y que compartan documentos corporativos internos con la SEC.

Frances Haugen: Tengo mucha empatía por Mark. y Mark nunca se ha propuesto hacer una plataforma de odio. Pero ha permitido que se tomen decisiones en las que los efectos secundarios de esas decisiones son que el contenido odioso y polarizante tiene más distribución y más alcance.

Facebook declinó una entrevista. Pero en una declaración escrita a 60 Minutos dijo que “cada día nuestros equipos tienen que equilibrar la protección del derecho de miles de millones de personas a expresarse abiertamente con la necesidad de mantener nuestra plataforma como un lugar seguro y positivo. Seguimos introduciendo mejoras significativas para hacer frente a la difusión de información errónea y contenidos perjudiciales. Sugerir que fomentamos el mal contenido y no hacemos nada no es cierto”.

“Si alguna investigación hubiera identificado una solución exacta para estos complejos desafíos, la industria tecnológica, los gobiernos y la sociedad los habrían resuelto hace mucho tiempo”.

Facebook es una empresa de un billón de dólares. Con sólo 17 años de vida, cuenta con 2.800 millones de usuarios, lo que supone el 60% de todas las personas conectadas a Internet en la Tierra. Frances Haugen tiene previsto declarar ante el Congreso esta semana. Ella cree que el gobierno federal debe imponer regulaciones.

Frances Haugen: Facebook ha demostrado que no puede actuar de forma independiente Facebook, una y otra vez, ha demostrado que elige el beneficio sobre la seguridad. Está subvencionando, está pagando sus beneficios con nuestra seguridad. Espero que esto haya tenido un impacto lo suficientemente grande en el mundo como para que tengan la fortaleza y la motivación para poner en práctica esas regulaciones. Esa es mi esperanza.

 

Sir Nicholas Clegg, el cortesano responsable de censurar a Trump y sabotear los intentos de regulación a la red social Facebook

 

Fuente:

60 Minutes: Whistleblower: Facebook is misleading the public on progress against hate speech, violence, misinformation.

Ciencia y Tecnología

Por Mente Alternativa Documentos judiciales de la demanda colectiva antimonopolio Klein contra Meta, presentada en 2020, revelan la existencia de un programa supuestamente puesto...

Ciencia y Tecnología

DensePose, una tecnología desarrollada por Meta/Facebook, puede detectar la pose de seres humanos en una habitación basándose únicamente en las señales WiFi que pasan...

Ciencia y Tecnología

El el 27 de julio, el congresista Jim Jordan publicó una serie de mensajes de correo electrónico no redactados y entregados por Facebook a...

Ciencia y Tecnología

Por Mente Alternativa Thierry Breton, comisario europeo de Mercado Interior y Servicios, respondió a la sugerencia del presidente francés, Emmanuel Macron, de cerrar las...

Archivos

Publicidad siguenos en telegram