facebook

Las crisis de Facebook

Compartí esta noticia !


Por Ryan Mac y Sheera Frenkel
. Facebook está en problemas. La plataforma que en los últimos 15 años se convirtió en el sustituto digital de nuestro calendario de cumpleaños, agenda de contactos y álbum de fotos ahora enfrenta una montaña de papeles incriminatorios.

Dieciséis meses antes de las elecciones presidenciales celebradas en noviembre del año pasado, una investigadora de Facebook describió un acontecimiento alarmante. Una semana después de abrir una cuenta experimental, ya estaba recibiendo contenido sobre la teoría conspirativa de QAnon, según escribió en un informe interno.

El 5 de noviembre, dos días después de las elecciones, otro empleado de Facebook escribió un mensaje para alertar a sus colegas sobre los comentarios con “desinformación electoral polémica” que se podían ver debajo de muchas publicaciones.

Cuatro días después de eso, un científico de datos de la empresa escribió una nota para sus compañeros de trabajo en la que decía que el diez por ciento de todas las vistas de material político en Estados Unidos —una cifra sorprendentemente alta— eran publicaciones que alegaban un fraude electoral.

En cada caso, los empleados de Facebook sonaron una alarma sobre desinformación y contenido inflamatorio en la plataforma e instaron a tomar medidas, pero la empresa no atendió los problemas o tuvo dificultades para hacerlo. La comunicación interna fue parte de un conjunto de documentos de Facebook que obtuvo The New York Times, que brindan nueva información sobre lo ocurrido dentro de la red social antes y después de las elecciones de noviembre, cuando a la empresa la tomaron desprevenida los usuarios que convirtieron la plataforma en un arma para difundir mentiras sobre la votación.

Del documento: Política de contenidos

¿QUÉ PASÓ?

1. Desde el miércoles hasta el sábado circularon muchos contenidos que insinuaban fraude en las elecciones, en torno al 10 por ciento de todos los contenidos cívicos y el 1-2 por ciento de todos los VPV de EE. UU. También hubo un margen de incitación a la violencia.

2. Había docenas de empleados vigilando esto, y FB lanzó ~15 medidas antes de las elecciones, y otras ~15 en los días posteriores. La mayoría de las medidas hicieron más agresivos los procesos existentes: por ejemplo, bajando los umbrales, haciendo más severas las sanciones o ampliando la elegibilidad de las medidas existentes. Algunas medidas fueron cualitativas: reclasificando como infractores ciertos tipos de contenidos que antes no lo eran.

3. Supongo que estas medidas redujeron la prevalencia de los contenidos infractores en al menos dos veces. Sin embargo, tuvieron daños colaterales (eliminación y degradación de contenidos no infractores), y el episodio provocó un notable resentimiento por parte de los usuarios republicanos de Facebook, que se sienten injustamente atacados.

Facebook ha culpado en público al expresidente Donald Trump y a otras plataformas sociales de la proliferación de falsedades sobre las elecciones. A mediados de enero, Sheryl Sandberg, la directora de operaciones de Facebook, dijo que los disturbios del 6 de enero en el Capitolio fueron “organizados principalmente en plataformas que no tienen nuestra capacidad para detener el odio”. En marzo, Mark Zuckerberg, el director ejecutivo de la empresa, les dijo a los legisladores que la empresa hizo su parte “para garantizar la seguridad de nuestras elecciones”.

Sin embargo, los documentos de la empresa muestran cuánto sabía Facebook sobre los movimientos y agrupaciones extremistas dentro de su sitio que querían polarizar a los votantes estadounidenses antes de las elecciones. Los documentos también ofrecen nuevos detalles sobre cuán conscientes estaban los investigadores de la empresa, después de las elecciones, del flujo de desinformación que sugería que los votos habían sido manipulados en contra de Trump.

Los documentos no ofrecen un panorama completo de la toma de decisiones al interior de Facebook. Algunos estudios internos sugirieron que la empresa tuvo dificultades para ejercer control sobre la escala de su red y la velocidad con la que se propagó la información, mientras que otros informes insinuaron que a Facebook le preocupaba perder interacción con sus usuarios o dañar su reputación.

Sin embargo, es evidente que los propios empleados de Facebook creían que la red social pudo haber hecho más, según los documentos.

“El cumplimiento fue gradual”, decía una revisión interna de marzo sobre la respuesta de Facebook frente a los grupos de Stop the Steal [Detener el robo], los cuales sostenían que la elección estadounidense fue amañada en contra de Trump. Los autores del informe señalaron que esperaban que el análisis posterior fuera una guía para que Facebook pudiera “hacerlo mejor la próxima vez”.

Muchas de las decenas de documentos de Facebook que revisó el Times no se habían divulgado antes. Frances Haugen, exgerente de producto convertida en denunciante, fue la primera en obtener algunos de los informes internos.

Los documentos de Haugen, algunos de los cuales han sido publicados por The Wall Street Journal, han creado indignación entre los legisladores y los reguladores, sumiendo a Facebook en una de sus peores crisis de relaciones públicas en años. Las revelaciones de Haugen, quien compareció en una audiencia en el Parlamento británico el lunes, hicieron resurgir las preguntas sobre el papel que desempeñó Facebook en los acontecimientos que condujeron a los disturbios del 6 de enero en el Capitolio.

Yaël Eisenstat, una exempleada de Facebook que supervisó la seguridad en los anuncios de las elecciones en el mundo, dijo que la investigación de la compañía mostró que había intentado analizar sus responsabilidades en torno a las elecciones de 2020. Pero “si nada de estos efectos cambia”, dijo, fue un desperdicio.

“Deberían tratar de entender si la forma en que diseñaron el producto es el problema”, dijo Eisenstat sobre su antiguo empleador.

Andy Stone, un vocero de Facebook, comentó que la empresa estaba “orgullosa” del trabajo que había hecho para proteger las elecciones de 2020. Stone señaló que Facebook colaboró con las fuerzas del orden, introdujo medidas de seguridad y monitoreó de cerca el contenido de su plataforma.

“Las medidas que sí necesitábamos se mantuvieron hasta bien entrado febrero y algunas, como no recomendar nuevos grupos políticos ni cívicos, siguen vigentes hasta la fecha”, comentó. “La responsabilidad de la violencia que ocurrió el 6 de enero es de quienes atacaron nuestro Capitolio y quienes los incitaron”.

Un viaje a QAnon

Durante años, los empleados de Facebook advirtieron sobre el potencial de la red social para radicalizar a los usuarios, según los documentos.

En julio de 2019, una investigadora de la empresa que estudiaba la polarización realizó un descubrimiento impactante: una cuenta de prueba que hizo para una “mamá conservadora” de Carolina del Norte recibió recomendaciones sobre contenido de teorías conspirativas a una semana de haber entrado a la red social.

La investigación interna, titulada “El viaje de Carol a QAnon”, detalló cómo la cuenta de Facebook para una mujer imaginaria llamada Carol Smith había seguido páginas de Fox News y Sinclair Broadcasting. En cuestión de días, Facebook le había recomendado páginas y grupos relacionados con QAnon, la teoría de la conspiración que aseguraba falsamente que Trump se enfrentaba a una camarilla tenebrosa de pedófilos demócratas.

La cuenta ‘Carol’

La cuenta creada para una hipotética mujer de 41 años llamada Carol era escasa, sin foto de perfil y con un puñado de intereses, entre ellos la crianza de los hijos, el cristianismo y el civismo y la comunidad.

En una semana, la cuenta se llenó de contenido extremo, conspiranoico y gráfico. Poco después, empezó a recibir sugerencias para unirse a QAnon y grupos similares.

Al final de las tres semanas, la cuenta de Facebook de Carol Smith había empeorado. “Se volvió un flujo constante de contenido engañoso, polarizador y de baja calidad”, escribió la investigadora.

Stone, de Facebook, dijo sobre el trabajo: “Aunque se trataba de un estudio de un usuario hipotético, es un ejemplo perfecto de la investigación que la empresa realiza para mejorar nuestros sistemas y ayudó a informar nuestra decisión de eliminar QAnon de la plataforma”.

La investigadora realizó posteriormente experimentos de polarización en una cuenta de prueba de tendencia izquierdista y descubrió que los algoritmos de Facebook la alimentaban con memes de “baja calidad” y desinformación política. Dejó la compañía en agosto de 2020, el mismo mes en que Facebook tomó medidas contra las páginas y grupos de QAnon.

En su nota de salida, que fue revisada por el Times y fue reportada previamente por BuzzFeed News, dijo que Facebook estaba “exponiendo a los usuarios conociendo los riesgos de daños a la integridad” y citó la lentitud de la compañía en actuar sobre QAnon como una razón para su salida.

“Durante más de un año hemos sabido que nuestros sistemas de recomendación pueden llevar muy rápido a los usuarios por el camino de las teorías y los grupos conspirativos”, escribió la investigadora. “Mientras tanto, el grupo marginal/conjunto radical de creencias ha crecido hasta tener prominencia nacional, con candidatos de QAnon al Congreso y con etiquetas y grupos de QAnon que son tendencia entre el público en general”.

Para las elecciones de 2020, Facebook intentó dejar poco al azar.

Durante meses, la empresa perfeccionó medidas de emergencia conocidas como planes para “romper el vidrio” —como ralentizar la formación de nuevos grupos de Facebook— en caso de que hubiera un resultado disputado. Facebook también contrató a decenas de miles de empleados para que el sitio fuera seguro durante las elecciones, consultó con expertos en derecho y políticas, y amplió sus asociaciones con organizaciones verificadoras de información.

En un comunicado público de septiembre de 2020, Zuckerberg escribió que su empresa tenía “una responsabilidad de proteger nuestra democracia”. Zuckerberg resaltó una campaña para registro de votantes que Facebook había financiado y expuso las medidas que había tomado la empresa —como eliminar la desinformación sobre los votantes y bloquear anuncios políticos— para “reducir las probabilidades de violencia y agitación”.

Al parecer, muchas medidas sirvieron. El día de las elecciones pasó sin mayores complicaciones en Facebook.

Sin embargo, después de que los conteos de votos mostraron una carrera reñida entre Trump y Joe Biden —en aquel entonces el candidato presidencial demócrata—, en las primeras horas del 4 de noviembre, Trump publicó en Facebook y Twitter: “Están tratando de ROBAR la elección”.

Los documentos internos mostraron que algunos usuarios habían encontrado formas de socavar la confianza en la votación en Facebook.

El 5 de noviembre, un empleado de Facebook publicó un mensaje en un grupo interno en línea llamado “Retroalimentación de Noticias”. En la nota, les comentó a sus colegas que la desinformación sobre la votación era notoria en la sección de comentarios de las publicaciones. Aún peor, se estaban amplificando los comentarios con la desinformación electoral más incendiaria para que aparecieran en lo más alto de las cadenas de comentarios, a fin de difundir información imprecisa, dijo el empleado.

Un manifestante de Stop the Steal protesta frente al Capitolio en enero. Facebook instauró medidas de seguridad y protección antes de las elecciones.
Un manifestante de Stop the Steal protesta frente al Capitolio en enero. Facebook instauró medidas de seguridad y protección antes de las elecciones.Credit…Stefani Reynolds para The New York Times

El 9 de noviembre, un científico de datos de Facebook comunicó a varios colegas en una publicación interna que se había disparado la cantidad de contenido en la red social que ponía en duda los resultados de las elecciones. Una de cada 50 vistas en Facebook en Estados Unidos, o el diez por ciento de todas las vistas de material político, era de contenido que declaraba el voto fraudulento, escribió el investigador.

“También hubo un margen de incitación a la violencia”, escribió en la publicación.

A pesar de todo, en noviembre, Facebook comenzó a relajar sus medidas de emergencia, según señalaron tres exempleados. Parecía que el periodo crítico postelectoral había pasado y a la empresa le preocupaba que algunas medidas tomadas antes de las elecciones, como reducir el alcance de las páginas radicales de derecha, pudieran generar quejas de los usuarios, agregaron.

La mañana del 6 de enero, mientras se reunían manifestantes cerca del edificio del Capitolio de Estados Unidos en Washington, algunos empleados de Facebook recurrieron a una hoja de cálculo. Ahí, comenzaron a catalogar las medidas que la empresa estaba tomando en contra de la desinformación electoral y el contenido incendiario en su plataforma.

Esa mañana, habían aumentado las quejas de los usuarios sobre publicaciones que incitaban a la violencia, según datos de la hoja de cálculo.

A lo largo de ese día, mientras una turba irrumpía en el Capitolio, los empleados actualizaron la hoja de cálculo con las medidas que se estaban tomando, según comentó un trabajador involucrado en el esfuerzo. De las decenas de medidas que recomendaron los empleados de Facebook, se implementaron algunas, como permitir que los ingenieros de la empresa borraran en masa las publicaciones que fueran denunciadas por promover la violencia.

Sin embargo, otras medidas, como evitar que los grupos cambiaran sus nombres a términos como Stop the Steal, no se implementaron por completo debido a fallas tecnológicas de último minuto, según la información de la hoja de cálculo.

Zuckerberg y Mike Schroepfer, director de tecnología de Facebook, publicaron notas internas sobre la tristeza que les provocó el disturbio en el Capitolio. No obstante, algunos empleados de Facebook respondieron con enojo, de acuerdo con las cadenas de mensajes que vio el Times.

Un alborotador frente a la cámara del Senado en el Capitolio el 6 de enero. Los empleados llevaron un recuento de las medidas que Facebook desplegó ese día para evitar las llamadas a la violencia.
Un alborotador frente a la cámara del Senado en el Capitolio el 6 de enero. Los empleados llevaron un recuento de las medidas que Facebook desplegó ese día para evitar las llamadas a la violencia.Credit…Erin Schaff/The New York Times

“Me gustaría sentir otra cosa, pero simplemente no basta con decir que nos estamos adaptando, porque ya nos tendríamos que haber adaptado hace mucho”, escribió un empleado. “Hasta ayer, había decenas de grupos de Stop the Steal y dudo que midieran sus palabras para expresar sus intenciones”.

Otro empleado escribió: “A fin de cuentas, siempre he sentido que mi trabajo ha sido significativo y útil para el mundo en general. Pero, para ser sincero, este es un día muy sombrío para mí aquí”.

En un informe del 7 de enero, el alcance de lo ocurrido en Facebook quedó claro. La cantidad de denuncias de usuarios sobre contenido que posiblemente había violado las políticas de la empresa era siete veces mayor que en semanas anteriores, según el informe. Varias de las publicaciones más denunciadas “sugerían el derrocamiento del gobierno” o “expresaban su apoyo a la violencia”, descubrieron los investigadores.

En marzo, los investigadores de Facebook publicaron dos informes internos en los que evaluaron el papel de la empresa en los movimientos sociales que promovieron las mentiras del fraude electoral.

En uno, un grupo de empleados señaló que Facebook había seguido “el patrón”, es decir que había tomado medidas iniciales “limitadas o nulas” en contra de QAnon y los movimientos de deslegitimación electoral, y solo actuó y eliminó ese contenido una vez que ya había ganado impulso. The Wall Street Journal fue el primer medio en informar sobre el documento.

Los empleados escribieron que parte del problema fue que las reglas de desinformación electoral de Facebook dejaron demasiadas zonas grises. Como resultado, no se eliminaron publicaciones que “podrían interpretarse como dudas razonables sobre los procesos electorales” porque no violaban esas reglas al pie de la letra.

Esas publicaciones luego crearon un ambiente que contribuyó a la inestabilidad social, según el informe.

Del documento: Las ‘narrativas dañinas que no violan los términos’ son un arquetipo de problema que necesita soluciones novedosas

“Retrospectivamente, fuentes externas nos han dicho que las experiencias en la plataforma sobre esta narrativa pueden haber tenido impactos negativos sustanciales, incluyendo la colaboración material a la revuelta de la capital y la reducción potencial del compromiso cívico colectivo y la cohesión social en los años venideros”.

Otro informe, titulado “Stop the Steal and Patriot Party: The Growth and Mitigation of an Adversarial Harmful Movement”, expuso la forma en la que la gente había explotado la función de grupos de Facebook para formar rápidamente comunidades deslegitimadoras de las elecciones en el sitio antes del 6 de enero.

Según el informe, algunos organizadores enviaron cientos de invitaciones para crear los grupos, básicamente enviando correos no deseados a la gente. También pidieron a todos los que se unieron que invitaran a tantas personas como fuera posible, haciendo que los grupos aumentaran de tamaño. (Desde entonces, Facebook ha empezado a controlar más estrechamente la cantidad de invitaciones a los grupos).

Algunos organizadores de grupos de Stop the Steal en Facebook también parecían cooperar entre sí para “hacer crecer el movimiento”, según el informe.

“Una vez que ya pasó todo, es todavía más importante mirar atrás, para aprender qué podemos hacer en torno al crecimiento de los movimientos de deslegitimación electoral que se expandieron, difundieron conspiraciones y ayudaron a incitar la insurrección en el Capitolio”, decía el informe.

Compartí esta noticia !

Facebook se resiste a que lo “apaguen” en una crisis que toca a Instagram y WhatsApp

Compartí esta noticia !

(Por Melisa Avolio) El apagón mundial de Facebook, Instagram y WhatsApp, y una denuncia por privilegiar sus intereses por sobre el bien común sacudieron en menos de una semana al gigante de las redes, pero una vez más posicionada en el ojo público será el tiempo el que dirá si la plataforma atraviesa “horas críticas” o se enfrenta a un daño real en su estructura y ganancias, que hoy son récord, indicaron especialistas.

Los hashtags vinculados con la caída del imperio (#FacebookDown, #InstagramDown, #WhatsappDown) coparon el lunes las tendencias de Twitter y paralizaron al mundo, lo que evidenció la centralidad del asunto: “Hay un problema cuando un servicio que utilizan montones y montones de personas está en únicas manos; en parte por las decisiones que esas plataformas pueden tomar, en términos de monopolio y concentración de poder, y en parte porque una falla termina afectando a la totalidad”, explicó a Télam Fernando Schapachnik, director ejecutivo de la Fundación Sadosky.

Pero en el camino había otro capítulo: un día antes del apagón se hizo pública la identidad de Frances Haugen, exgerenta de Producto de la red social, a partir de la entrevista en el programa “60 minutes” de la cadena CBS News, donde se reveló que fue ella quien filtró a la prensa la información que integró los documentos “The Facebook files”, que publicó el diario The Wall Street Journal en las últimas semanas.

Todo en menos de una semana: Haugen, en la entrevista y luego el martes en una testificación ante el Congreso de Estados Unidos, acusó a Facebook de debilitar a la democracia, de su pasividad al saber el daño que provoca en la salud mental de las adolescentes respecto de la percepción de su cuerpo a partir de su app Instagram, y -en suma- de privilegiar sus ganancias por sobre el bien común.

En medio de un revuelo mediático, Mark Zuckerberg rompió el silencio en una carta pública y respondió a varios asuntos: “La preocupación más profunda con un apagón como éste no es cuántas personas cambian a servicios competitivos o cuánto dinero perdemos”, dijo tras el incidente que le restó 7.000 millones de dólares en la bolsa, y le sumó más de 70 millones de usuarios al servicio de mensajería Telegram.

Para el fundador de Facebook -el gigante que duplicó sus ganancias durante el segundo trimestre de 2021 respecto del 2020- el problema del apagón fue lo que “implicó” para las personas y negocios que dependen de ese servicio, y no tanto cómo golpeó a su compañía; mientras que a la acusación sobre que le “dan prioridad a sus ganancias por encima de la seguridad y el bienestar”, contestó: “eso no es verdad”.

“Puede que lo que pasó con Facebook sea un llamado de atención sobre la precariedad de los servicios, sobre la idea de que ‘La Nube’ (red de servidores interconectados) no es un lugar mágico que siempre va a funcionar, sino la cruda realidad de que la nube no es otra cosa que una computadora ajena sobre la que tenemos nulo control”, indicó a Télam Bea Busaniche, presidenta de la Fundación Vía Libre.

Más allá del problema técnico que dejó a millones de usuarios sin servicio, se abre la pregunta sobre cómo impacta en el mapa tecnológico-corporativo esta nueva crisis de Facebook.

“Por lo pronto, repercute en la reputación de la compañía, que está en horas bajas. Y ello ocurre más allá, incluso, de que algunas de las acusaciones de Haugen me resultan inconsistentes”, dijo a Télam Martín Becerra, profesor e investigador del Conicet.

“Se me dirá que ello no incide en sus negocios, ya que los ingresos de Facebook en los últimos años crecieron a pesar de varios escándalos que dañaron su reputación, pero esto hay que medirlo a mediano plazo, y no en lo inmediato. La prolífica actividad parlamentaria para regular distintos aspectos referidos a las grandes plataformas digitales está en directa relación con este tipo de discusiones públicas y sobre la necesidad de garantizar derechos ciudadanos en el actual ecosistema de comunicaciones”, completó el especialista.

Busaniche consideró que esta crisis “a nivel instrumental” puede que “no cambie nada” en las empresas del grupo.

“La denuncia de Haugen no plantea nada que ya no fuera bastante sabido y el grupo empresarial está muy preparado para lidiar con este tipo de denuncias. Hasta tanto no haya una regulación fuerte, Facebook no va a cambiar radicalmente nada de su modelo de negocios”, agregó.

Pero lo que sí generó esta crisis es el regreso a la conversación pública y mediática de una posible regulación de este tipo de compañías, que a nivel parlamentario ya tiene su recorrido.

Al respecto, “en el Congreso de EEUU y en el Parlamento Europeo hay varios proyectos de ley que apuntan a regular diferentes aspectos del desempeño de Facebook”, expresó Becerra.

“Su excesiva concentración en el mercado de plataformas de redes sociales digitales, su posición dominante en el segmento publicitario, su opacidad en política de contenidos que se traduce en arbitrariedad respecto de cuentas y posteos que son removidos o cancelados sin derecho a apelación por parte de las personas u organizaciones que sufren la censura privada de la compañía, su cuestionada política de extracción, procesamiento y manejo de datos personales sin consentimiento explícito de sus titulares -las y los usuarias/os-, entre otros”, completó el especialista.

Compartí esta noticia !

¿Quién protege tus derechos?

Compartí esta noticia !

CUANDO EL MUNDO LO MANEJA ZUCKERBERG.

No estabamos errados cuando decidimos adentrarnos en el análisis y estudio temas de Derechos Humanos y su incidencia al poder que ejercen las grandes plataformas de internet en los usuarios de redes sociales, particularmente acentuados por la pandemia, no solamente porque es un tema que impacta en el ejercicio de derechos de la ciudadanía en general sino también por el poder de dominación y económico que éstas ejercen

Dicho esto , podemos verificar que las acciones de potencias mundiales como Estados Unidos, la Unión Europea y China. Evidentemente, gran parte del poder político no está centrando su preocupación en el notable incremento de la pobreza que dejó la pandemia del COVID-19, pero sí en el poder y la influencia que pasaron a tener Facebook, WhatsApp, Instagram, Tik Tok, etc. a tal punto que fueron y son las plataformas las destinatarias del llamado “impuesto a las grandes fortunas.”

En este sentido, la citación de Mark Zuckerberg al Congreso de los Estados Unidos no es un dato menor, como no lo es tampoco la manera en que estas grandes plataformas utilizan los datos de sus usuarios, ejerciendo un poder de dominación que puede llegar a frenar el mundo si sus servidores caen.

Lo demostraron el 4 de octubre ,cuando el mundo se paró durante más de seis horas a causa de la caída de Facebook, Whatsapp e Instagram, la cual no sabemos si fue un error humano , o bien una demostración de poder, una amenaza proveniente de un lugar ajeno a estas plataformas , o una señal de que el sistema es falible.

China recientemente aprobó su nueva Ley de Protección de Datos Personales, limitó el uso de las redes en niños menores y sobre las criptomonedas,el Banco Central de China anunció (24.09.2021) que todas las transacciones financieras con criptomonedas son ilegales, una nueva medida regulatoria contra este tipo de comercio.

“Las actividades comerciales vinculadas con monedas virtuales”, explicó la institución, “ponen en grave peligro” la propiedad de los ciudadanos.

La Union Europea además, está trabajando fuertemente en la protección de los derechos de los menores “influencers”, quienes atraviesan su niñez constantemente expuestos en redes sociales a pesar de no tener la edad para consentirlo, y algunos países hasta han establecido que la utilización de filtros de belleza debe notificarse, debido al daño que puede causar la utilización de imágenes alteradas en las psiquis de algunos ciudadanos vulnerables.

América Latina en general y Argentina en particular se encuentran lejos de estas regulaciones. Sin ir más lejos, nuestra Ley de Protección de Datos Personales (Ley 25.326) se encuentra atrasada pues fue sancionada hace 21 años, y sin mencionar que muy pocos conocen su importancia como Derecho Humano Fundamental.

Esta realidad nos lleva a realizarnos ciertas preguntas: ¿Quién responde por los daños causados en lo que refiere a la intromisión de nuestra privacidad? ¿Quién protege estos Derechos? ¿Un algoritmo? ¿La plataforma? ¿El Estado? ¿Zuckerberg?

Compartí esta noticia !

Las acciones de Facebook caen casi un 5% tras su apagón más prolongado desde 2008

Compartí esta noticia !

Las acciones de Facebook, empresa propietaria de la red social homónima y de compañías como Instagram y WhatsApp, entre otras, sufrieron hoy una caída del 4,9% en la Bolsa de Nueva York, luego de que sus servicios sufrieran el apagón más prolongado de la plataforma desde 2008.

La cotización de las acciones abrió a un valor de US$ 334,55 y llegó a un piso de US$ 323,13, más de 10 dólares menos, para estabilizarse en los US$ 326.

En consecuencia, la riqueza personal de Mark Zuckerberg -dueño y fundador de la compañía- se redujo en casi US$ 7.000 millones en pocas horas, lo que se suma a una caída de alrededor del 15% desde mediados de septiembre.

La caída de las acciones del lunes redujo el valor de Zuckerberg a US$ 120.900 millones, cayendo por debajo de Bill Gates al número 5 en la lista “Índice de multimillonarios de Bloomberg”, pérdidas que ascienden a unos US$ 19.000 millones desde el 13 de septiembre, cuando valía casi US$ 140.000 millones, de acuerdo con el índice publicado por Bloomberg.

Según el servicio de seguimiento de interrupciones DownDetector, las interrupciones informadas por usuarios se dispararon para los cuatro servicios principales de la empresa -Facebook, Instagram, WhatsApp y Messenger -alrededor de las 12:30 en Argentina, aunque se trata de interrupciones a nivel internacional.

La de hoy es interrupción más prolongada de Facebook desde 2008, cuando su servicios se cayeron durante casi un día entero por un error que dejó a muchos de los 80 millones de usuarios de la plataforma sin poder cargar sus líneas de tiempo por un error, según CNBC.

Con más de 2.890 millones de usuarios activos mensuales en el último trimestre -según cifras autoinformadas de la compañía- Facebook es la plataforma de redes sociales más popular del mundo.

La caída en el precio de las acciones de hoy se suma a las desencadenadas por una serie de publicaciones que el Wall Street Journal inició el 13 de septiembre, basadas en documentos internos que revelaban que Facebook conocía una amplia gama de problemas con sus productos.

Entre estos se ubican el daño de Instagram a la salud mental de las adolescentes y la desinformación sobre los disturbios del 6 de enero en el Capitolio de los Estados Unidos.

Sin embargo, la empresa minimizó estos hechos en público al enfatizar que los problemas que enfrentan sus productos, incluida la polarización política, son “complejos y no son causados solo por la tecnología”.

Compartí esta noticia !

Documentación interna de Facebook admite que Instagram es tóxico para muchas adolescentes

Compartí esta noticia !

Una investigación de ‘The Wall Street Journal’ con informes inéditos revela que la red social ofrece información en público a sabiendas de que es falsa.

Facebook ha realizado en los últimos tres años estudios internos sobre la toxicidad de Instagram, una red social de la compañía. Los resultados concluyen que es perjudicial para un grupo sustancial de usuarios, sobre todo las adolescentes. “Un 32% de las chicas dicen que cuando se sienten mal con su cuerpo, Instagram les hace sentir peor”, dice uno de los informes, de marzo de 2020. Los documentos contrastan con las declaraciones públicas que han hecho el fundador de la compañía, Mark Zuckerberg, y Adam Mosseri, jefe ejecutivo de Instagram, en las que han tendido a relativizar el peligro de la plataforma para la autoestima de sus usuarios.

Los detalles surgen de una investigación del periódico estadounidense The Wall Street Journal llamada Los archivos de Facebook.La información sobre Instagram es la segunda entrega. La primera salió este lunes y revelaba la existencia de un grupo de cinco millones de usuarios célebres de Facebook que no están sometidos a los mismos criterios de moderación que el resto. Si un usuario normal de Facebook escribe algo explícitamente violento o enseña un desnudo, la red suprime la publicación. Con estos usuarios vips, la moderación toma más tiempo o ni siquiera se aplica, en buena parte para evitar publicidad negativa entre sus seguidores y el eco de la prensa.

El hilo que une las dos entregas del Journal es la distancia entre lo que Facebook dice en público y los complejos debates internos con datos propios. Una de las grandes quejas externas a Facebook y otras redes sociales cuando hay un escándalo es el que solo ellos saben qué ocurre en realidad. Aunque investigadores o periodistas desde fuera intentan averiguar el impacto de unas redes tan grandes, las limitaciones, sobre todo por falta de acceso a datos y de financiación, suelen ser notables. Por si fuera poco, la semana pasada se supo que en una de las grandes colaboraciones de Facebook con investigadores académicos, los datos que la compañía compartía estaban mal.

El caso de Instagram y las adolescentes es especialmente sangrante porque afecta a un grupo más delicado, que en público la compañía insiste en defender. Pero Instagram es la gran puerta de acceso de la empresa a los menores, que apenas usan Facebook: un 40% de usuarios de Instagram en Estados Unidos tiene menos de 22 años, según el Journal.

Zuckerberg dijo hace unos meses: “La investigación que hemos visto es que usar aplicaciones sociales que te conectan con otra gente puede tener beneficios mentales positivos”. La palabra “puede” en la frase del fundador de Facebook oculta una enorme cantidad de espacio: es cierto que hay usuarios que valoran Instagram y otras aplicaciones, pero también que las investigaciones internas reveladas por el WSJ han encontrado que el origen de problemas de salud para muchas adolescentes está en lo que ven en la red de fotos.

En uno de los estudios internos realizados entre adolescentes estadounidenses y británicas, Facebook encontró que más del 40% de las jóvenes que se veían poco atractivas empezaron a sentirse así en Instagram. Los investigadores hacen notar que, a pesar de esos sentimientos, las adolescentes no dejan necesariamente de usar la red. O quieren, pero no se ven con la capacidad de hacerlo.

“Se sienten adictas y saben que lo que ven es malo para su salud mental, pero se sienten incapaces de parar”, explica uno de los investigadores de Instagram en uno de los documentos. La edad legal de acceso a esta red social es 13 años, pero hace unos meses emergió la posibilidad de que Facebook creara un Instagram para niños. De momento no se ha sabido nada más.

Hace unos meses, Mosseri dijo que el efecto de Instagram sobre el bienestar de los menores era “muy pequeño”. Ahora, preguntado por el Journal, ajustaba sus declaraciones: “De ningún modo quiero infravalorar estos asuntos, algunos de los temas mencionados en la información no están necesariamente muy extendidos, aunque el impacto en la gente sea enorme”.

Los investigadores propusieron que Instagram redujera la exposición a fotos de famosas, productos de belleza y moda y ampliara el contenido de amigos cercanos. Un empleado criticó esa idea en un foro interno de Facebook: “¿Pero no es exactamente eso lo que hace Instagram? ¿No es esa la razón por la que las adolescentes están en la plataforma?”

Los chicos adolescentes también se ven afectados, aunque menos: los investigadores encontraron que un 14% de ellos dicen que Instagram les hace sentir peor.

El senador demócrata por Connecticut (EE UU), Richard Blumenthal, asegura que el peligro creciente para Facebook ante estas revelaciones es que el conocimiento de sus perjuicios y la falta de acción conlleve comparaciones con la industria tabacalera. “Facebook parece que ha sacado una página del manual de la industria del tabaco y apunta a adolescentes con productos potencialmente peligrosos, a la vez que oculta al público lo que dicen sus investigaciones”, afirma.

El problema para Facebook es que en las investigaciones, los menores citan específicamente Instagram como un peligro distinto, y lo separan de TikTok o Snapchat, cuyo funcionamiento y uso es distinto.

Trato especial para usuarios vip

La magnitud de estas redes sociales es una de las principales dificultades para medir su impacto. Dentro de Facebook viven ese problema a la hora de moderar el contenido. Es imposible que, a pesar del ejército de miles de revisores que tiene, la compañía llegue a ver y decidir sobre miles de millones de publicaciones potencialmente violentas, peligrosas o con contenido delictivo. La compañía se ayuda de software que automatiza muchas de esas decisiones. La investigación del WSJ ha revelado que un enorme grupo de cinco millones de usuarios viven al margen de esos problemas gracias a un programa interno llamado XCheck o Cross check.

La compañía se defiende diciendo que simplemente aplica una segunda capa de verificación de contenidos, pero la realidad es que eso lleva a dar ventaja real a un grupo de usuarios.

EL PAÍS ha preguntado en Facebook España cuántos usuarios españoles hay en esa lista, pero no lo sabían. El informe del Journal revela también que la empresa ha pedido a verificadores de contenido que trabajan con la red social que fiscalicen de manera distinta cuentas de mucha visibilidad. Maldita.es, uno de los verificadores socio de Facebook en España, ha negado categóricamente que eso haya ocurrido. “Nos hubiéramos negado”, ha respondido Clara Jiménez, cofundadora de Maldita, por mensaje.

En Brasil sí ha habido casos, según la investigación. El futbolista Neymar colgó en Instagram desnudos y mensajes de una chica que lo acusó de violación. A pesar de incumplir claramente las normas de comunidad de Facebook, los mensajes se mantuvieron durante un día y fueron vistos por millones de personas. Si no hubiera sido Neymar, hubieran desaparecido mucho antes. La investigación quedó en nada.

En la enorme lista de usuarios vip de Facebook hay todo tipo de famosos, políticos o periodistas que pueden suponer un problema de publicidad para la compañía si airean un caso de “censura” de la red, ya sea por un asunto razonable o por error. En los documentos consultados por el Journal, este problema tiene un nombre: “Incendios de relaciones públicas”.

Puedes seguir a EL PAÍS TECNOLOGÍA en Facebook y Twitter o apuntarte aquí para recibir nuestra newsletter semanal.

FUENTE: El País

Compartí esta noticia !

Categorías

Solverwp- WordPress Theme and Plugin