El CEO de Facebook, Mark Zuckerberg salió a decir que el nombre de su empresa cambiará por “Meta” y por ello las acciones rebotaron.
El CEO de Facebook, Mark Zuckerberg salió a decir hoy (28/10) que la empresa comenzará llamarse Meta, luego de que la compañía decidiera llevar a cabo en un cambio de marca centrado en sus ambiciones de construir un “metaverso” -entorno virtual compartido que apuesta será la próxima gran plataforma informática-, y las acciones repuntaron.
El cambio de marca se produce cuando la empresa de redes sociales más grande del mundo lucha contra las críticas de legisladores y reguladores sobre su poder de mercado, decisiones algorítmicas y la vigilancia de los abusos en sus plataformas.
El CEO Mark Zuckerberg, hablando en la conferencia de realidad virtual y aumentada transmitida en vivo de la compañía, dijo que el nuevo no mbre reflejaba sus ambiciones de construir el metaverso, en lugar de su servicio de redes sociales homónimo.
El metaverso, un término acuñado por primera vez en una novela distópica hace tres décadas y que ahora atrae rumores en Silicon Valley, se refiere ampliamente a la idea de un entorno virtual compartido al que pueden acceder personas que utilizan diferentes dispositivos.
Zuckerberg dijo
En este momento, nuestra marca está tan estrechamente vinculada a un producto que no es posible que represente todo lo que estamos haciendo hoy, y mucho menos en el futuro
La compañía, que ha invertido mucho en realidad aumentada y virtual, dijo que el cambio uniría sus diferentes aplicaciones y tecnologías bajo una nueva marca. Dijo que no cambiaría su estructura corporativa.
El gigante tecnológico, que informa sobre 2.900 millones de usuarios mensuales, se ha enfrentado a un escrutinio cada vez mayor en los últimos años por parte de legisladores y reguladores globales.
Zuckerberg dijo que el nuevo nombre también refleja que con el tiempo, los usuarios no necesitarán usar Facebook para usar los otros servicios de la compañía.
Este año, la compañía creó un equipo de producto centrado en el metaverso y recientemente anunció planes para contratar a 10.000 empleados en Europa durante los próximos cinco años para trabajar en el esfuerzo.
Las acciones de Facebook subieron un 2,46% a 319,89 dólares este jueves (28/10) por la tarde.
La empresa Facebook se encuentra, al mismo tiempo, en el centro de un debate sobre el uso de su algoritmo como un estimulador de discurso de odio y denuncias de exempleados que reclaman a legisladores de los Estados Unidos que regulen a este gigante de las redes sociales porque sus sitios son potencialmente dañinos para la salud mental de los jóvenes.
“Casi nadie sabe lo que sucede dentro de Facebook. Ocultan información al público, a sus accionistas y a los gobiernos”, aseveró Frances Haugen, una exempleada de la empresa ante los legisladores estadounidenses.
Por Ryan Mac y Sheera Frenkel. Facebook está en problemas. La plataforma que en los últimos 15 años se convirtió en el sustituto digital de nuestro calendario de cumpleaños, agenda de contactos y álbum de fotos ahora enfrenta una montaña de papeles incriminatorios.
El 5 de noviembre, dos días después de las elecciones, otro empleado de Facebook escribió un mensaje para alertar a sus colegas sobre los comentarios con “desinformación electoral polémica” que se podían ver debajo de muchas publicaciones.
Cuatro días después de eso, un científico de datos de la empresa escribió una nota para sus compañeros de trabajo en la que decía que el diez por ciento de todas las vistas de material político en Estados Unidos —una cifra sorprendentemente alta— eran publicaciones que alegaban un fraude electoral.
En cada caso, los empleados de Facebook sonaron una alarma sobre desinformación y contenido inflamatorio en la plataforma e instaron a tomar medidas, pero la empresa no atendió los problemas o tuvo dificultades para hacerlo. La comunicación interna fue parte de un conjunto de documentos de Facebook que obtuvo The New York Times, que brindan nueva información sobre lo ocurrido dentro de la red social antes y después de las elecciones de noviembre, cuando a la empresa la tomaron desprevenida los usuarios que convirtieron la plataforma en un arma para difundir mentiras sobre la votación.
Del documento: Política de contenidos
¿QUÉ PASÓ?
1. Desde el miércoles hasta el sábado circularon muchos contenidos que insinuaban fraude en las elecciones, en torno al 10 por ciento de todos los contenidos cívicos y el 1-2 por ciento de todos los VPV de EE. UU. También hubo un margen de incitación a la violencia.
2. Había docenas de empleados vigilando esto, y FB lanzó ~15 medidas antes de las elecciones, y otras ~15 en los días posteriores. La mayoría de las medidas hicieron más agresivos los procesos existentes: por ejemplo, bajando los umbrales, haciendo más severas las sanciones o ampliando la elegibilidad de las medidas existentes. Algunas medidas fueron cualitativas: reclasificando como infractores ciertos tipos de contenidos que antes no lo eran.
3. Supongo que estas medidas redujeron la prevalencia de los contenidos infractores en al menos dos veces. Sin embargo, tuvieron daños colaterales (eliminación y degradación de contenidos no infractores), y el episodio provocó un notable resentimiento por parte de los usuarios republicanos de Facebook, que se sienten injustamente atacados.
Facebook ha culpado en público al expresidente Donald Trump y a otras plataformas sociales de la proliferación de falsedades sobre las elecciones. A mediados de enero, Sheryl Sandberg, la directora de operaciones de Facebook, dijo que los disturbios del 6 de enero en el Capitolio fueron “organizados principalmente en plataformas que no tienen nuestra capacidad para detener el odio”. En marzo, Mark Zuckerberg, el director ejecutivo de la empresa, les dijo a los legisladores que la empresa hizo su parte “para garantizar la seguridad de nuestras elecciones”.
Sin embargo, los documentos de la empresa muestran cuánto sabía Facebook sobre los movimientos y agrupaciones extremistas dentro de su sitio que querían polarizar a los votantes estadounidenses antes de las elecciones. Los documentos también ofrecen nuevos detalles sobre cuán conscientes estaban los investigadores de la empresa, después de las elecciones, del flujo de desinformación que sugería que los votos habían sido manipulados en contra de Trump.
Los documentos no ofrecen un panorama completo de la toma de decisiones al interior de Facebook. Algunos estudios internos sugirieron que la empresa tuvo dificultades para ejercer control sobre la escala de su red y la velocidad con la que se propagó la información, mientras que otros informes insinuaron que a Facebook le preocupaba perder interacción con sus usuarios o dañar su reputación.
Sin embargo, es evidente que los propios empleados de Facebook creían que la red social pudo haber hecho más, según los documentos.
“El cumplimiento fue gradual”, decía una revisión interna de marzo sobre la respuesta de Facebook frente a los grupos de Stop the Steal [Detener el robo], los cuales sostenían que la elección estadounidense fue amañada en contra de Trump. Los autores del informe señalaron que esperaban que el análisis posterior fuera una guía para que Facebook pudiera “hacerlo mejor la próxima vez”.
Muchas de las decenas de documentos de Facebook que revisó el Times no se habían divulgado antes. Frances Haugen, exgerente de producto convertida en denunciante, fue la primera en obtener algunos de los informes internos.
Los documentos de Haugen, algunos de los cuales han sido publicados por The Wall Street Journal, han creado indignación entre los legisladores y los reguladores, sumiendo a Facebook en una de sus peores crisis de relaciones públicas en años. Las revelaciones de Haugen, quien compareció en una audiencia en el Parlamento británico el lunes, hicieron resurgir las preguntas sobre el papel que desempeñó Facebook en los acontecimientos que condujeron a los disturbios del 6 de enero en el Capitolio.
Yaël Eisenstat, una exempleada de Facebook que supervisó la seguridad en los anuncios de las elecciones en el mundo, dijo que la investigación de la compañía mostró que había intentado analizar sus responsabilidades en torno a las elecciones de 2020. Pero “si nada de estos efectos cambia”, dijo, fue un desperdicio.
“Deberían tratar de entender si la forma en que diseñaron el producto es el problema”, dijo Eisenstat sobre su antiguo empleador.
Andy Stone, un vocero de Facebook, comentó que la empresa estaba “orgullosa” del trabajo que había hecho para proteger las elecciones de 2020. Stone señaló que Facebook colaboró con las fuerzas del orden, introdujo medidas de seguridad y monitoreó de cerca el contenido de su plataforma.
“Las medidas que sí necesitábamos se mantuvieron hasta bien entrado febrero y algunas, como no recomendar nuevos grupos políticos ni cívicos, siguen vigentes hasta la fecha”, comentó. “La responsabilidad de la violencia que ocurrió el 6 de enero es de quienes atacaron nuestro Capitolio y quienes los incitaron”.
Un viaje a QAnon
Durante años, los empleados de Facebook advirtieron sobre el potencial de la red social para radicalizar a los usuarios, según los documentos.
En julio de 2019, una investigadora de la empresa que estudiaba la polarización realizó un descubrimiento impactante: una cuenta de prueba que hizo para una “mamá conservadora” de Carolina del Norte recibió recomendaciones sobre contenido de teorías conspirativas a una semana de haber entrado a la red social.
La investigación interna, titulada “El viaje de Carol a QAnon”, detalló cómo la cuenta de Facebook para una mujer imaginaria llamada Carol Smith había seguido páginas de Fox News y Sinclair Broadcasting. En cuestión de días, Facebook le había recomendado páginas y grupos relacionados con QAnon, la teoría de la conspiración que aseguraba falsamente que Trump se enfrentaba a una camarilla tenebrosa de pedófilos demócratas.
La cuenta ‘Carol’
La cuenta creada para una hipotética mujer de 41 años llamada Carol era escasa, sin foto de perfil y con un puñado de intereses, entre ellos la crianza de los hijos, el cristianismo y el civismo y la comunidad.
En una semana, la cuenta se llenó de contenido extremo, conspiranoico y gráfico. Poco después, empezó a recibir sugerencias para unirse a QAnon y grupos similares.
Al final de las tres semanas, la cuenta de Facebook de Carol Smith había empeorado. “Se volvió un flujo constante de contenido engañoso, polarizador y de baja calidad”, escribió la investigadora.
Stone, de Facebook, dijo sobre el trabajo: “Aunque se trataba de un estudio de un usuario hipotético, es un ejemplo perfecto de la investigación que la empresa realiza para mejorar nuestros sistemas y ayudó a informar nuestra decisión de eliminar QAnon de la plataforma”.
La investigadora realizó posteriormente experimentos de polarización en una cuenta de prueba de tendencia izquierdista y descubrió que los algoritmos de Facebook la alimentaban con memes de “baja calidad” y desinformación política. Dejó la compañía en agosto de 2020, el mismo mes en que Facebook tomó medidas contra las páginas y grupos de QAnon.
En su nota de salida, que fue revisada por el Times y fue reportada previamente por BuzzFeed News, dijo que Facebook estaba “exponiendo a los usuarios conociendo los riesgos de daños a la integridad” y citó la lentitud de la compañía en actuar sobre QAnon como una razón para su salida.
“Durante más de un año hemos sabido que nuestros sistemas de recomendación pueden llevar muy rápido a los usuarios por el camino de las teorías y los grupos conspirativos”, escribió la investigadora. “Mientras tanto, el grupo marginal/conjunto radical de creencias ha crecido hasta tener prominencia nacional, con candidatos de QAnon al Congreso y con etiquetas y grupos de QAnon que son tendencia entre el público en general”.
Hacia el día de las elecciones
Para las elecciones de 2020, Facebook intentó dejar poco al azar.
Durante meses, la empresa perfeccionó medidas de emergencia conocidas como planes para “romper el vidrio” —como ralentizar la formación de nuevos grupos de Facebook— en caso de que hubiera un resultado disputado. Facebook también contrató a decenas de miles de empleados para que el sitio fuera seguro durante las elecciones, consultó con expertos en derecho y políticas, y amplió sus asociaciones con organizaciones verificadoras de información.
En un comunicado público de septiembre de 2020, Zuckerberg escribió que su empresa tenía “una responsabilidad de proteger nuestra democracia”. Zuckerberg resaltó una campaña para registro de votantes que Facebook había financiado y expuso las medidas que había tomado la empresa —como eliminar la desinformación sobre los votantes y bloquear anuncios políticos— para “reducir las probabilidades de violencia y agitación”.
Al parecer, muchas medidas sirvieron. El día de las elecciones pasó sin mayores complicaciones en Facebook.
Sin embargo, después de que los conteos de votos mostraron una carrera reñida entre Trump y Joe Biden —en aquel entonces el candidato presidencial demócrata—, en las primeras horas del 4 de noviembre, Trump publicó en Facebook y Twitter: “Están tratando de ROBAR la elección”.
Los documentos internos mostraron que algunos usuarios habían encontrado formas de socavar la confianza en la votación en Facebook.
El 5 de noviembre, un empleado de Facebook publicó un mensaje en un grupo interno en línea llamado “Retroalimentación de Noticias”. En la nota, les comentó a sus colegas que la desinformación sobre la votación era notoria en la sección de comentarios de las publicaciones. Aún peor, se estaban amplificando los comentarios con la desinformación electoral más incendiaria para que aparecieran en lo más alto de las cadenas de comentarios, a fin de difundir información imprecisa, dijo el empleado.
Un manifestante de Stop the Steal protesta frente al Capitolio en enero. Facebook instauró medidas de seguridad y protección antes de las elecciones.Credit…Stefani Reynolds para The New York Times
El 9 de noviembre, un científico de datos de Facebook comunicó a varios colegas en una publicación interna que se había disparado la cantidad de contenido en la red social que ponía en duda los resultados de las elecciones. Una de cada 50 vistas en Facebook en Estados Unidos, o el diez por ciento de todas las vistas de material político, era de contenido que declaraba el voto fraudulento, escribió el investigador.
“También hubo un margen de incitación a la violencia”, escribió en la publicación.
A pesar de todo, en noviembre, Facebook comenzó a relajar sus medidas de emergencia, según señalaron tres exempleados. Parecía que el periodo crítico postelectoral había pasado y a la empresa le preocupaba que algunas medidas tomadas antes de las elecciones, como reducir el alcance de las páginas radicales de derecha, pudieran generar quejas de los usuarios, agregaron.
El 6 de enero
La mañana del 6 de enero, mientras se reunían manifestantes cerca del edificio del Capitolio de Estados Unidos en Washington, algunos empleados de Facebook recurrieron a una hoja de cálculo. Ahí, comenzaron a catalogar las medidas que la empresa estaba tomando en contra de la desinformación electoral y el contenido incendiario en su plataforma.
Esa mañana, habían aumentado las quejas de los usuarios sobre publicaciones que incitaban a la violencia, según datos de la hoja de cálculo.
A lo largo de ese día, mientras una turba irrumpía en el Capitolio, los empleados actualizaron la hoja de cálculo con las medidas que se estaban tomando, según comentó un trabajador involucrado en el esfuerzo. De las decenas de medidas que recomendaron los empleados de Facebook, se implementaron algunas, como permitir que los ingenieros de la empresa borraran en masa las publicaciones que fueran denunciadas por promover la violencia.
Sin embargo, otras medidas, como evitar que los grupos cambiaran sus nombres a términos como Stop the Steal, no se implementaron por completo debido a fallas tecnológicas de último minuto, según la información de la hoja de cálculo.
Zuckerberg y Mike Schroepfer, director de tecnología de Facebook, publicaron notas internas sobre la tristeza que les provocó el disturbio en el Capitolio. No obstante, algunos empleados de Facebook respondieron con enojo, de acuerdo con las cadenas de mensajes que vio el Times.
Un alborotador frente a la cámara del Senado en el Capitolio el 6 de enero. Los empleados llevaron un recuento de las medidas que Facebook desplegó ese día para evitar las llamadas a la violencia.Credit…Erin Schaff/The New York Times
“Me gustaría sentir otra cosa, pero simplemente no basta con decir que nos estamos adaptando, porque ya nos tendríamos que haber adaptado hace mucho”, escribió un empleado. “Hasta ayer, había decenas de grupos de Stop the Steal y dudo que midieran sus palabras para expresar sus intenciones”.
Otro empleado escribió: “A fin de cuentas, siempre he sentido que mi trabajo ha sido significativo y útil para el mundo en general. Pero, para ser sincero, este es un día muy sombrío para mí aquí”.
En un informe del 7 de enero, el alcance de lo ocurrido en Facebook quedó claro. La cantidad de denuncias de usuarios sobre contenido que posiblemente había violado las políticas de la empresa era siete veces mayor que en semanas anteriores, según el informe. Varias de las publicaciones más denunciadas “sugerían el derrocamiento del gobierno” o “expresaban su apoyo a la violencia”, descubrieron los investigadores.
Análisis posterior
En marzo, los investigadores de Facebook publicaron dos informes internos en los que evaluaron el papel de la empresa en los movimientos sociales que promovieron las mentiras del fraude electoral.
En uno, un grupo de empleados señaló que Facebook había seguido “el patrón”, es decir que había tomado medidas iniciales “limitadas o nulas” en contra de QAnon y los movimientos de deslegitimación electoral, y solo actuó y eliminó ese contenido una vez que ya había ganado impulso. The Wall Street Journal fue el primer medio en informar sobre el documento.
Los empleados escribieron que parte del problema fue que las reglas de desinformación electoral de Facebook dejaron demasiadas zonas grises. Como resultado, no se eliminaron publicaciones que “podrían interpretarse como dudas razonables sobre los procesos electorales” porque no violaban esas reglas al pie de la letra.
Esas publicaciones luego crearon un ambiente que contribuyó a la inestabilidad social, según el informe.
Del documento: Las ‘narrativas dañinas que no violan los términos’ son un arquetipo de problema que necesita soluciones novedosas
“Retrospectivamente, fuentes externas nos han dicho que las experiencias en la plataforma sobre esta narrativa pueden haber tenido impactos negativos sustanciales, incluyendo la colaboración material a la revuelta de la capital y la reducción potencial del compromiso cívico colectivo y la cohesión social en los años venideros”.
Según el informe, algunos organizadores enviaron cientos de invitaciones para crear los grupos, básicamente enviando correos no deseados a la gente. También pidieron a todos los que se unieron que invitaran a tantas personas como fuera posible, haciendo que los grupos aumentaran de tamaño. (Desde entonces, Facebook ha empezado a controlar más estrechamente la cantidad de invitaciones a los grupos).
Algunos organizadores de grupos de Stop the Steal en Facebook también parecían cooperar entre sí para “hacer crecer el movimiento”, según el informe.
“Una vez que ya pasó todo, es todavía más importante mirar atrás, para aprender qué podemos hacer en torno al crecimiento de los movimientos de deslegitimación electoral que se expandieron, difundieron conspiraciones y ayudaron a incitar la insurrección en el Capitolio”, decía el informe.
(Por Melisa Avolio) El apagón mundial de Facebook, Instagram y WhatsApp, y una denuncia por privilegiar sus intereses por sobre el bien común sacudieron en menos de una semana al gigante de las redes, pero una vez más posicionada en el ojo público será el tiempo el que dirá si la plataforma atraviesa “horas críticas” o se enfrenta a un daño real en su estructura y ganancias, que hoy son récord, indicaron especialistas.
Los hashtags vinculados con la caída del imperio (#FacebookDown, #InstagramDown, #WhatsappDown) coparon el lunes las tendencias de Twitter y paralizaron al mundo, lo que evidenció la centralidad del asunto: “Hay un problema cuando un servicio que utilizan montones y montones de personas está en únicas manos; en parte por las decisiones que esas plataformas pueden tomar, en términos de monopolio y concentración de poder, y en parte porque una falla termina afectando a la totalidad”, explicó a Télam Fernando Schapachnik, director ejecutivo de la Fundación Sadosky.
Pero en el camino había otro capítulo: un día antes del apagón se hizo pública la identidad de Frances Haugen, exgerenta de Producto de la red social, a partir de la entrevista en el programa “60 minutes” de la cadena CBS News, donde se reveló que fue ella quien filtró a la prensa la información que integró los documentos “The Facebook files”, que publicó el diario The Wall Street Journal en las últimas semanas.
Todo en menos de una semana: Haugen, en la entrevista y luego el martes en una testificación ante el Congreso de Estados Unidos, acusó a Facebook de debilitar a la democracia, de su pasividad al saber el daño que provoca en la salud mental de las adolescentes respecto de la percepción de su cuerpo a partir de su app Instagram, y -en suma- de privilegiar sus ganancias por sobre el bien común.
En medio de un revuelo mediático, Mark Zuckerberg rompió el silencio en una carta pública y respondió a varios asuntos: “La preocupación más profunda con un apagón como éste no es cuántas personas cambian a servicios competitivos o cuánto dinero perdemos”, dijo tras el incidente que le restó 7.000 millones de dólares en la bolsa, y le sumó más de 70 millones de usuarios al servicio de mensajería Telegram.
Para el fundador de Facebook -el gigante que duplicó sus ganancias durante el segundo trimestre de 2021 respecto del 2020- el problema del apagón fue lo que “implicó” para las personas y negocios que dependen de ese servicio, y no tanto cómo golpeó a su compañía; mientras que a la acusación sobre que le “dan prioridad a sus ganancias por encima de la seguridad y el bienestar”, contestó: “eso no es verdad”.
“Puede que lo que pasó con Facebook sea un llamado de atención sobre la precariedad de los servicios, sobre la idea de que ‘La Nube’ (red de servidores interconectados) no es un lugar mágico que siempre va a funcionar, sino la cruda realidad de que la nube no es otra cosa que una computadora ajena sobre la que tenemos nulo control”, indicó a Télam Bea Busaniche, presidenta de la Fundación Vía Libre.
Más allá del problema técnico que dejó a millones de usuarios sin servicio, se abre la pregunta sobre cómo impacta en el mapa tecnológico-corporativo esta nueva crisis de Facebook.
“Por lo pronto, repercute en la reputación de la compañía, que está en horas bajas. Y ello ocurre más allá, incluso, de que algunas de las acusaciones de Haugen me resultan inconsistentes”, dijo a Télam Martín Becerra, profesor e investigador del Conicet.
“Se me dirá que ello no incide en sus negocios, ya que los ingresos de Facebook en los últimos años crecieron a pesar de varios escándalos que dañaron su reputación, pero esto hay que medirlo a mediano plazo, y no en lo inmediato. La prolífica actividad parlamentaria para regular distintos aspectos referidos a las grandes plataformas digitales está en directa relación con este tipo de discusiones públicas y sobre la necesidad de garantizar derechos ciudadanos en el actual ecosistema de comunicaciones”, completó el especialista.
Busaniche consideró que esta crisis “a nivel instrumental” puede que “no cambie nada” en las empresas del grupo.
“La denuncia de Haugen no plantea nada que ya no fuera bastante sabido y el grupo empresarial está muy preparado para lidiar con este tipo de denuncias. Hasta tanto no haya una regulación fuerte, Facebook no va a cambiar radicalmente nada de su modelo de negocios”, agregó.
Pero lo que sí generó esta crisis es el regreso a la conversación pública y mediática de una posible regulación de este tipo de compañías, que a nivel parlamentario ya tiene su recorrido.
Al respecto, “en el Congreso de EEUU y en el Parlamento Europeo hay varios proyectos de ley que apuntan a regular diferentes aspectos del desempeño de Facebook”, expresó Becerra.
“Su excesiva concentración en el mercado de plataformas de redes sociales digitales, su posición dominante en el segmento publicitario, su opacidad en política de contenidos que se traduce en arbitrariedad respecto de cuentas y posteos que son removidos o cancelados sin derecho a apelación por parte de las personas u organizaciones que sufren la censura privada de la compañía, su cuestionada política de extracción, procesamiento y manejo de datos personales sin consentimiento explícito de sus titulares -las y los usuarias/os-, entre otros”, completó el especialista.
No estabamos errados cuando decidimos adentrarnos en el análisis y estudio temas de Derechos Humanos y su incidencia al poder que ejercen las grandes plataformas de internet en los usuarios de redes sociales, particularmente acentuados por la pandemia, no solamente porque es un tema que impacta en el ejercicio de derechos de la ciudadanía en general sino también por el poder de dominación y económico que éstas ejercen
Dicho esto , podemos verificar que las acciones de potencias mundiales como Estados Unidos, la Unión Europea y China. Evidentemente, gran parte del poder político no está centrando su preocupación en el notable incremento de la pobreza que dejó la pandemia del COVID-19, pero sí en el poder y la influencia que pasaron a tener Facebook, WhatsApp, Instagram, Tik Tok, etc. a tal punto que fueron y son las plataformas las destinatarias del llamado “impuesto a las grandes fortunas.”
En este sentido, la citación de Mark Zuckerberg al Congreso de los Estados Unidos no es un dato menor, como no lo es tampoco la manera en que estas grandes plataformas utilizan los datos de sus usuarios, ejerciendo un poder de dominación que puede llegar a frenar el mundo si sus servidores caen.
Lo demostraron el 4 de octubre ,cuando el mundo se paró durante más de seis horas a causa de la caída de Facebook, Whatsapp e Instagram, la cual no sabemos si fue un error humano , o bien una demostración de poder, una amenaza proveniente de un lugar ajeno a estas plataformas , o una señal de que el sistema es falible.
China recientemente aprobó su nueva Ley de Protección de Datos Personales, limitó el uso de las redes en niños menores y sobre las criptomonedas,el Banco Central de China anunció (24.09.2021) que todas las transacciones financieras con criptomonedas son ilegales, una nueva medida regulatoria contra este tipo de comercio.
“Las actividades comerciales vinculadas con monedas virtuales”, explicó la institución, “ponen en grave peligro” la propiedad de los ciudadanos.
La Union Europea además, está trabajando fuertemente en la protección de los derechos de los menores “influencers”, quienes atraviesan su niñez constantemente expuestos en redes sociales a pesar de no tener la edad para consentirlo, y algunos países hasta han establecido que la utilización de filtros de belleza debe notificarse, debido al daño que puede causar la utilización de imágenes alteradas en las psiquis de algunos ciudadanos vulnerables.
América Latina en general y Argentina en particular se encuentran lejos de estas regulaciones. Sin ir más lejos, nuestra Ley de Protección de Datos Personales (Ley 25.326) se encuentra atrasada pues fue sancionada hace 21 años, y sin mencionar que muy pocos conocen su importancia como Derecho Humano Fundamental.
Esta realidad nos lleva a realizarnos ciertas preguntas: ¿Quién responde por los daños causados en lo que refiere a la intromisión de nuestra privacidad? ¿Quién protege estos Derechos? ¿Un algoritmo? ¿La plataforma? ¿El Estado? ¿Zuckerberg?
Las acciones de Facebook, empresa propietaria de la red social homónima y de compañías como Instagram y WhatsApp, entre otras, sufrieron hoy una caída del 4,9% en la Bolsa de Nueva York, luego de que sus servicios sufrieran el apagón más prolongado de la plataforma desde 2008.
La cotización de las acciones abrió a un valor de US$ 334,55 y llegó a un piso de US$ 323,13, más de 10 dólares menos, para estabilizarse en los US$ 326.
En consecuencia, la riqueza personal de Mark Zuckerberg -dueño y fundador de la compañía- se redujo en casi US$ 7.000 millones en pocas horas, lo que se suma a una caída de alrededor del 15% desde mediados de septiembre.
La caída de las acciones del lunes redujo el valor de Zuckerberg a US$ 120.900 millones, cayendo por debajo de Bill Gates al número 5 en la lista “Índice de multimillonarios de Bloomberg”, pérdidas que ascienden a unos US$ 19.000 millones desde el 13 de septiembre, cuando valía casi US$ 140.000 millones, de acuerdo con el índice publicado por Bloomberg.
Según el servicio de seguimiento de interrupciones DownDetector, las interrupciones informadas por usuarios se dispararon para los cuatro servicios principales de la empresa -Facebook, Instagram, WhatsApp y Messenger -alrededor de las 12:30 en Argentina, aunque se trata de interrupciones a nivel internacional.
La de hoy es interrupción más prolongada de Facebook desde 2008, cuando su servicios se cayeron durante casi un día entero por un error que dejó a muchos de los 80 millones de usuarios de la plataforma sin poder cargar sus líneas de tiempo por un error, según CNBC.
Con más de 2.890 millones de usuarios activos mensuales en el último trimestre -según cifras autoinformadas de la compañía- Facebook es la plataforma de redes sociales más popular del mundo.
La caída en el precio de las acciones de hoy se suma a las desencadenadas por una serie de publicaciones que el Wall Street Journal inició el 13 de septiembre, basadas en documentos internos que revelaban que Facebook conocía una amplia gama de problemas con sus productos.
Entre estos se ubican el daño de Instagram a la salud mental de las adolescentes y la desinformación sobre los disturbios del 6 de enero en el Capitolio de los Estados Unidos.
Sin embargo, la empresa minimizó estos hechos en público al enfatizar que los problemas que enfrentan sus productos, incluida la polarización política, son “complejos y no son causados solo por la tecnología”.