BLACK MIRROR

Vuelve Black Mirror: qué esperar del nuevo universo de un futuro distópico y surrealista

Compartí esta noticia !

La serie británica Black Mirror, creación del productor y guionista Charlie Brooker, regresa luego de dos años, con “nuevas historias, donde nada es lo que parece”, según relata la sinópsis.

El trailer oficial de la serie ya dio la vuelta al mundo y, junto al clip, Netflix lanzó la fecha de estreno. Los seis episodios de la serie ganadora del Emmy verán la luz el próximo 6 de abril y quienes siguen la trama se reencontrarán con el estilo que reabre el debate sobre el abuso de las nuevas tecnologías.

El avance de la séptima temporada retoma la visión oscura sobre la imágen de un futuro envuelto en excesos digitales. La tira que se estrenó en 2011 contará con un cambio significativo al contar con la presencia de antiguos personajes. 

Si bien cada episodio es “un universo diferente”, se retomará la historia de “USS Callister” que narra la historia de una programadora que quedó atrapada en un video juego y había concluído con un final abierto.

Anteriormente se anunció que en la séptima temporada participarán reconocidas figuras como Milanka Brooks, Peter Capaldi, Emma Corrin, Patsy Ferran, Paul Giamatti, Lewis Gribben, Osy Ikhile, Rashida Jones , Siena Kelly, Billy Magnussen, Rosy McEwen, Cristin Milioti , Chris O’Dowd, Issa Rae, Paul G. Raymond, Tracee Ellis Ross, Jimmi Simpson y Harriet Walter.

En esta oportunidad se sumaron algunos nombres: Michele Austin, Ben Bailey Smith, Asim Chaudhry, Josh Finan, James Nelson-Joyce, Will Poulter, Jay Simpson y Michael Workéyè.

Compartí esta noticia !

Black Mirror: un algoritmo le dijo a la policía que ella estaba a salvo, luego su esposo la mató

Compartí esta noticia !

(Por Adam Satariano y Roser Toll Pifarré. Fotografías por Ana María Arévalo Gosen, New York Times. Adam Satariano y Roser Toll Pifarre entrevistaron a más de 50 víctimas, familias, policías, funcionarios gubernamentales y otros expertos sobre el programa de violencia de género de España).

En un pequeño apartamento ubicado en las afueras de Madrid, el 11 de enero de 2022, una discusión sobre las tareas del hogar se tornó violenta cuando el marido de Lobna Hemid rompió una zapatera de madera y se valió de uno de los trozos para golpearla. Los vecinos escucharon los gritos de ella. Sus cuatro hijos, de entre 6 y 12 años, también estaban en casa.

El esposo de Hemid durante 14 años, Bouthaer el Banaisati, la golpeaba y pateaba regularmente, según le contaría ella más tarde a la policía. También la llamaba “hija de puta”, “mierda” y “asquerosa”, de acuerdo con el informe policial.

Antes de que Hemid abandonara la estación esa noche, la policía tenía que determinar si estaba en peligro de volver a ser atacada y necesitaba apoyo. Un oficial de policía contestó 35 preguntas cuyas respuestas eran sí o no, tales como: ¿Se utilizó un arma? ¿Había problemas económicos? ¿El agresor ha mostrado conductas controladoras? Las respuestas alimentaron un algoritmo llamado VioGén que ayudaría a generar una respuesta.

La policía aceptó la recomendación del programa informático y Hemid regresó a casa sin más protección. El Banaisati, que pasó la noche detenido, salió libre al día siguiente. Siete semanas después, la apuñaló mortalmente varias veces en el pecho y el abdomen antes de suicidarse. Ella tenía 32 años.

Two hands hold a cellphone showing a photo of Lobna Hemid holding a cellphone.

España se ha vuelto dependiente de un algoritmo para combatir la violencia de género. El software está tan entrelazado con los cuerpos policiales que es difícil distinguir dónde terminan sus recomendaciones y dónde empieza la toma de decisiones humana. En el mejor de los casos, el sistema ha ayudado a la policía a proteger a mujeres vulnerables y en general, ha reducido la cifra de maltrato repetido en los casos de violencia doméstica. Pero el empleo de VioGén también ha resultado en víctimas que volvieron a ser atacadas al calcularse erróneamente su puntuación de riesgo, en ocasiones con consecuencias mortales.

Actualmente en España hay 92.000 casos de víctimas de violencia de género que han sido evaluados por VioGén, la mayoría de los cuales —el 83 por ciento— se han clasificado como con poco riesgo de volver a ser agredidas. Sin embargo, alrededor del 8 por ciento de las mujeres que el algoritmo determinó que no estaban en riesgo aparente, y el 14 por ciento de las que fueron consideradas como de bajo riesgo han denunciado que volvieron a sufrir maltrato, según el Ministerio del Interior de España, que supervisa el sistema.

Al menos 247 mujeres han sido asesinadas por su pareja o expareja desde 2007 luego de que VioGén las evaluara, según cifras gubernamentales. Si bien es cierto que la cifra es una fracción minúscula de los casos de violencia de género, es indicativa de los fallos del algoritmo. The New York Times averiguó que en una revisión oficial de 98 de esos feminicidios, 55 de las mujeres asesinadas habían recibido de VioGén la clasificación de riesgo de abuso repetido no apreciado o bajo .

Los agentes de policía están facultados para aceptar o aumentar las calificaciones de VioGén en función de las pruebas, pero aceptan las puntuaciones de riesgo alrededor del 95 por ciento de las veces, según las autoridades. Los jueces también pueden valerse de los resultados del algoritmo cuando analizan solicitudes de órdenes de restricción y otras medidas de protección.

“Las mujeres quedan al margen”, dijo Susana Pavlou, directora del Instituto Mediterráneo de Estudios de Género, coautora de un informe de la Unión Europea sobre VioGén y otras iniciativas policiales para combatir la violencia contra las mujeres. El algoritmo “de cierta manera exime a la policía de toda responsabilidad de evaluar la situación y lo que la víctima pueda necesitar”.

España es un ejemplo de cómo los gobiernos están recurriendo a algoritmos para tomar decisiones sociales, una tendencia mundial que se espera que crezca con el auge de la inteligencia artificial. En Estados Unidos, los algoritmos ayudan a determinar las penas de prisión, establecer patrullajes policiales e identificar a los niños en riesgo de sufrir abusos. En Holanda y el Reino Unido, las autoridades han experimentado con algoritmos para predecir quién puede convertirse en delincuente e identificar a las personas que pueden estar cometiendo fraude a la seguridad social.

Pocos programas tienen consecuencias de vida o muerte como sucede con VioGén. Sin embargo, las víctimas entrevistadas por el Times rara vez estaban al tanto del papel que el algoritmo había desempeñado en sus casos. El gobierno tampoco ha publicado datos exhaustivos sobre la eficacia del sistema y se ha negado a poner el algoritmo a disposición de auditorías externas.

VioGén se creó como una herramienta imparcial que ayudara a la policía con recursos limitados a identificar y proteger a las mujeres con mayor riesgo de ser agredidas nuevamente. El objetivo de la tecnología era aumentar la eficacia ayudando a los cuerpos policiales a priorizar los casos más urgentes, centrándose menos en los que el algoritmo considera de menor riesgo. Las víctimas clasificadas como de mayor riesgo reciben más protección, lo que incluye patrullajes periódicos por su domicilio, acceso a un centro de acogida y vigilancia policial de los movimientos de su agresor. Quienes obtienen puntuaciones más bajas reciben menos apoyo.

En un comunicado, el Ministerio del Interior defendió a VioGén y dijo que en el gobierno eran “los primeros en hacer autocrítica” cuando ocurren errores. Indicó que los feminicidios eran tan infrecuentes que eran difíciles de prever con precisión, sin embargo añadió que era un “hecho incontestable” que VioGén ha ayudado a reducir la violencia machista contra las mujeres.

Desde 2007, alrededor del 0,03 por ciento de las 814.000 víctimas que presentaron una denuncia de violencia de género en España han sido asesinadas tras ser evaluadas por VioGén, según las autoridades. Durante ese tiempo, las agresiones repetidas en todos los casos de violencia de género se han reducido a aproximadamente del 40 al 15 por ciento, según cifras gubernamentales.

“Si no fuese por esto, tendríamos más homicidios de violencia de género de los que tenemos”, dijo Juan José López Ossorio, un psicólogo que colaboró con la creación de VioGén y trabaja para el Ministerio del Interior.

A portrait of Juan José López Ossorio, wearing a suit with an open collar, sitting on a desk in an office, looking toward the camera.
Juan José López Ossorio, psicólogo y funcionario que ayudó a crear el sistema VióGen.

Sin embargo, las víctimas y sus familiares están lidiando con las consecuencias de los casos en los que VioGén se equivoca.

“La tecnología está bien, pero hay veces que no, y ahí eso está fatal”, dijo Jesús Melguizo, cuñado de Hemid, que es tutor de dos de sus hijos. “El ordenador no tiene corazón”.

‘Es eficaz pero no perfecto’

VioGén empezó con una pregunta: ¿es posible que la policía pueda anticipar una agresión antes de que se produzca?

Después de que España aprobó en 2004 una ley contra la violencia de género, el gobierno reunió a expertos en estadística, psicología y otros campos para encontrar una respuesta. Su objetivo era crear un modelo estadístico para identificar a las mujeres con mayor riesgo de sufrir abusos y diseñar una solución estandarizada para protegerlas.

A notebook open to a page with handwritten text and drawings.
Algunos bocetos y estrategias iniciales de investigación de lo que se convertiría en VioGén, entre ellos un árbol de decisión y técnicas de calibración para predecir los homicidios cometidos por parejas íntimas.

“Sería una nueva guía para la evaluación del riesgo en la violencia de género”, dijo Antonio Pueyo, profesor de psicología en la Universidad de Barcelona que luego se unió a la iniciativa.

El equipo adoptó un enfoque similar al que utilizan las compañías de seguros y los bancos para predecir la probabilidad de sucesos futuros, como los incendios de viviendas o las fluctuaciones monetarias. Estudiaron las estadísticas nacionales sobre delincuencia, los registros policiales y el trabajo de investigadores británicos y canadienses para encontrar indicadores que parecen estar correlacionados con la violencia de género. El abuso de sustancias, la pérdida de empleo y la incertidumbre económica ocupaban los primeros puestos de la lista.

A continuación idearon un cuestionario para las víctimas, de modo que sus respuestas pudieran compararse con los datos históricos. La policía rellenaba las respuestas después de entrevistar a la víctima, revisar las pruebas documentales, hablar con los testigos y estudiar otra información procedente de organismos gubernamentales. Las respuestas a determinadas preguntas tenían más peso que otras, como si un maltratador mostraba tendencias suicidas o daba muestras de celos.

El sistema le daba una puntuación a cada víctima: riesgo no apreciado, riesgo bajo, riesgo medio, riesgo alto o riesgo extremo. Una puntuación más alta daría pie a patrullajes policiales y el seguimiento de los movimientos del agresor. En casos extremos, la policía asignaría vigilancia las 24 horas del día. Las personas con una puntuación de riesgo baja recibirían menos recursos, sobre todo llamadas de seguimiento.

Los algoritmos predictivos para abordar la violencia doméstica se han utilizado en algunas partes del Reino Unido, Canadá, Alemania y Estados Unidos, pero no a la escala nacional implementada por las autoridades españolas. El Ministerio del Interior introdujo VioGén en todas partes menos en la región de Cataluña y el País Vasco.

Al principio, las fuerzas del orden recibieron el algoritmo con escepticismo, según explicaron al Times funcionarios de la policía y del gobierno, pero pronto se convirtió en parte de la actividad policial cotidiana.

Antes de VioGén, las investigaciones “se basaban en la experiencia del policía”, dijo Pueyo, quien sigue afiliado al programa. “Ahora esto está organizado y guiado por VioGén”.

VioGén es una fuente de información imparcial, afirmó. Si una mujer agredida a altas horas de la noche fue atendida por un joven policía con poca experiencia, VioGén podría ayudar a detectar el riesgo de violencia futura.

“Es más eficiente”, dijo Pueyo.

A lo largo de los años, VioGén se ha ido perfeccionando y actualizando, incluso con métricas que se cree que predicen mejor los homicidios. También se ha exigido a la policía que realice una evaluación de riesgos en los 90 días siguientes a una agresión.

Pero la fe de España en el sistema ha sorprendido a algunos expertos. Juanjo Medina, investigador principal de la Universidad de Sevilla que ha estudiado VioGén, dijo que la eficacia del sistema sigue sin estar clara.

“No somos buenos pronosticando el tiempo, y mucho menos el comportamiento humano”, dijo.

Francisco Javier Curto, suboficial en la comandancia de la Guardia Civil en Sevilla, dijo que VioGén ayuda a sus equipos a priorizar, pero requiere una estrecha supervisión. Cada día llegan unos 20 nuevos casos de violencia de género, cada uno de los cuales requiere una investigación. Ofrecer protección policial a todas las víctimas sería imposible teniendo en cuenta el tamaño del personal y los presupuestos.

“El sistema es eficaz pero no es perfecto”, dijo, y añadió que VioGén es “el mejor sistema que existe en el mundo ahora mismo”.

Francisco Javier Curto, sitting at a desk, looks at a pair of computer monitors.
Francisco Javier Curto, comandante de la Guardia Civil en Sevilla, quien supervisa los incidentes de violencia de género en la provincia. VioGén es “el mejor sistema que existe ahora mismo en el mundo”, dijo.

José Iniesta, guardia civil de Alicante, una ciudad portuaria del sureste del país, afirma que no hay suficientes agentes formados para hacer frente al creciente número de casos. Iniesta, líder en el sindicato Asociación Unificada de Guardias Civiles, que representa a la policía en las zonas rurales, dijo que fuera de las grandes ciudades, la policía a menudo debe elegir entre abordar la violencia contra las mujeres u otros delitos.

El Sindicato Unificado de Policía, que representa a los agentes policiales a nivel nacional, afirmó a través de un comunicado que ni siquiera la tecnología más eficaz puede compensar la falta de expertos formados. En algunos lugares, a un oficial de policía se le asigna trabajar con más de 100 víctimas, dijo.

“En muchas provincias los oficiales están sobrepasados”, decía el sindicato en el comunicado.

Cuando se repiten los ataques

Por toda España pueden encontrarse mujeres que fueron asesinadas luego de ser evaluadas por VioGén.

Una de ellas fue Stefany González Escarraman, una joven de 26 años que vivía cerca de Sevilla. En 2016 acudió a la policía luego de que su esposo la golpeó en la cara y la ahorcó. Le lanzó objetos, entre ellos un cucharón de cocina que impactó contra su hijo de 3 años. Después de que la policía interrogó a González Escarraman durante unas cinco horas, VioGén determinó que no había riesgo percibido de que fuera a sufrir maltrato otra vez.

Al día siguiente, González Escarraman, que tenía un ojo morado e hinchado, acudió al tribunal en busca de una orden de alejamiento en contra de su marido. Los jueces pueden fungir como un contrapeso al sistema VioGén, y tienen la capacidad de intervenir en casos y brindar medidas de protección. En el caso de González Escarraman, la jueza rechazó la orden de restricción, citando la puntuación de riesgo de VioGén y la falta de antecedentes penales de su esposo.

Stephany Escarramán seated on a wooden bench and wearing blue jeans and an orange sweater.
Stefany González Escarraman, quien fue asesinada en 2016 por su marido. VioGén la había calificado como de riesgo no apreciado.

Alrededor de un mes después, a González Escarraman la apuñaló su esposo varias veces en el corazón frente a sus hijos. En 2020, su familia ganó una causa contra el Estado por no haber valorado de forma adecuada el nivel de riesgo y brindarle protección suficiente.

“Si se le hubiese brindado la ayuda —o lo que sea— tal vez ella habría estado viva”, dijo Williams Escarraman, su hermano.

En 2021, Eva Jaular, que vivía en Liaño, en el norte de España, murió a manos de su expareja luego de que VioGén determinara su riesgo como bajo. El hombre también mató a la hija de ambos, de 11 meses. Seis semanas antes había clavado un cuchillo en el cojín de un sillón junto a donde Jaular estaba sentada y dijo “mira qué bien pincha”, según una denuncia policial.

Desde 2007, 247 de las 990 mujeres asesinadas en España por una pareja actual o expareja estaban dentro del sistema VioGén, según el Ministerio del Interior. Las demás víctimas no habían denunciado previamente a la policía, por lo que no estaban en el sistema. El ministerio declinó dar a conocer la calificación de riesgo de las 247 que fueron asesinadas.

The New York Times analizó informes de un observatorio jurídico español, publicados casi cada año desde 2010 hasta 2022, en los que se incluía información de los niveles de riesgo de 98 mujeres que luego serían asesinadas. Cincuenta y cinco de ellas habían sido clasificadas como de riesgo no apreciado o en bajo riesgo.

El Ministerio del Interior dijo a través de un comunicado que analizar los niveles de riesgo de las víctimas de feminicidio no brinda una imagen precisa de la efectividad de VioGén debido a que algunos asesinatos sucedían más de un año después de la primera valoración, mientras que otros fueron cometidos por otra pareja.

No está claro el motivo por el cual el algoritmo no clasifica correctamente a algunas mujeres, pero una posible razón sería la mala calidad de información que se ingresa en el sistema. VioGén resulta ideal para casos en los que una mujer, momentos después de ser atacada, es capaz de brindar información completa a un oficial experimentado de policía que tiene tiempo de investigar a fondo el incidente.

Eso no siempre sucede. El temor, la vergüenza, la dependencia económica, el estatus migratorio y otros factores pueden provocar que una víctima no comparta toda la información. Los policías a menudo están justos de tiempo y puede que no investiguen a conciencia.

Elisabeth stands in a garden, her face obscured by a yellow flower that is out of focus.
Elisabeth es sobreviviente de violencia de género y abogada. A fin de convertir su experiencia en una fuerza de cambio se tituló en derecho para defender a las víctimas de violencia machista que enfrentan maltrato institucional en España.

“Si ya metemos una información errónea al sistema, ¿cómo podemos pretender que el sistema nos dé un resultado bueno”, dijo Elisabeth, una víctima que ahora trabaja como abogada en materia de violencia de género. Habló con el Times con la condición de que no se usara su nombre completo por temor a que su expareja tomase represalias.

Luz, una mujer de un pueblo del sur de España, dijo que en repetidas ocasiones fue calificada como de riesgo bajo tras las agresiones de su pareja porque tenía miedo y vergüenza de proporcionar información completa a los policías, a algunos de los cuales conocía personalmente. Solo consiguió que le aumentaran la puntuación de riesgo a extremo después de trabajar con un abogado especializado en casos de violencia de género, lo que le brindó protección policial las 24 horas del día.

“Las mujeres callamos muchísimas cosas. No porque queramos mentir, sino por miedo”, dijo Luz, quien habló con la condición de que no se usara su nombre completo por temor a su atacante, que fue puesto en prisión. “VioGén estaría bien con personas cualificadas y teniendo las herramientas suficientes para poder llevarlo a cabo”.

Luz and her son hug each other, with a stone wall behind them.
Luz, en la imagen con su hijo, dijo que la habían clasificado con riesgo bajo porque tenía vergüenza y miedo de brindar información completa a la policía sobre el maltrato de su pareja.

Los grupos de defensa de víctimas dijeron que los psicólogos y otros especialistas con formación son los que deberían llevar a cabo los cuestionarios, en lugar de la policía. Algunos han instado al gobierno a que requiera que se permita que las víctimas estén acompañadas por una persona de su confianza a fin de asegurarse de que se brinde información completa a las autoridades, algo que no se permite en todas partes.

“No es fácil denunciar a una persona que has querido”, dijo María, una víctima de Granada, en el sur de España, a quien se etiquetó como de riesgo medio luego de que su pareja la atacó con una mancuerna. Pidió que no se publicara su nombre completo porque tiene miedo de que él tome represalias en su contra.

Ujué Agudo, una investigadora española que estudia la influencia de la inteligencia artificial en las decisiones humanas, dijo que la tecnología tiene un papel en la solución de problemas sociales. Pero podría reducir la responsabilidad humana a simplemente aprobar el trabajo de la máquina, en lugar de motivar a que lleven a cabo las labores necesarias.

“El humano nunca tiene las de ganar. Si el sistema acierta es un éxito del sistema. Si el sistema falla, es un error del humano que no está supervisando adecuadamente”, dijo Agudo, codirectora de Bikolabs, un grupo de la sociedad civil. Dijo que un mejor enfoque sería que el humano “diga cuál es su decisión” antes “de ver lo que opina la inteligencia artificial”.

Las autoridades españolas analizan si incorporan IA a VioGén a fin de que pueda sacar datos de distintas fuentes y aprender más por sí mismo. Ossorio, uno de los creadores de VioGén que trabaja para el Ministerio del Interior, dijo que la herramienta puede tener aplicación en otras áreas, como el acoso laboral y los crímenes de odio.

Los sistemas nunca serán perfectos, dijo, pero tampoco lo es el juicio humano. “Hagamos lo que hagamos, siempre fallamos”, dijo. “Es un problema irresoluble”.

Este mes, el gobierno español convocó a una reunión de emergencia después de que tres mujeres fueron asesinadas por sus exparejas en un lapso de 24 horas. Una de las víctimas, una mujer de 30 años del centro de España, había sido clasificada como de bajo riesgo por VioGén.

En una conferencia de prensa, el ministro del Interior, Fernando Grande-Marlaska, dijo que aún tenía “absoluta confianza” en el sistema.

Hemid, que fue asesinada a las afueras de Madrid en 2022, nació en una zona rural de Marruecos. A los 14 años le presentaron en una boda familiar a El Banaisati, 10 años mayor que ella. Tenía 17 años cuando se casaron. Luego se trasladaron a España para que él pudiera trabajar de manera más estable.

Hemid era extrovertida y sociable, y a menudo se la veía corriendo para llevar a sus hijos al colegio a tiempo, según sus amigos. Aprendió a hablar español y a veces se unía a los niños que jugaban al fútbol en el parque.

“Estaba siempre alegre”, dijo Amelia Franas, cuyos hijos iban a la misma escuela que los de Hemid, y era amiga de ella.

Pocos sabían que el maltrato era una constante en el matrimonio de Hemid. Hablaba poco de su vida familiar, según dijeron sus amigos, y nunca llamó a la policía ni denunció a El Banaisati antes del incidente de enero de 2022.

VioGén está pensado para identificar señales de peligro de los que los humanos podrían no estar al tanto, pero en el caso de Hemid, parece que la policía pasó por alto algunas pistas. Sus vecinos le dijeron al Times que no fueron entrevistados, ni tampoco los administradores de la escuela de sus hijos, que comentaron haber advertido algunas señales problemáticas.

Los familiares dijeron que El Banaisati padecía un tipo de cáncer potencialmente mortal que hacía que se comportara de manera errática. Muchos culparon a la discriminación subyacente en el sistema penal español, que obvia la violencia contra las mujeres inmigrantes, especialmente las musulmanas.

La policía no ha hecho pública una copia de la evaluación que originó la puntuación de bajo riesgo que VioGén hizo sobre el caso de Hemid. Una copia de otro informe policial compartido con el Times señalaba que Hemid estaba cansada durante el interrogatorio y quería terminar la entrevista para irse a casa.

Pocos días después de la agresión de 2022, Hemid obtuvo una orden de alejamiento de su marido. Pero El Banaisati ignoró en gran medida la orden, según dijeron parientes y amigos. Se mudó a un apartamento a menos de 500 metros del lugar donde vivía Hemid y siguió amenazándola.

Melguizo, el cuñado de ella, dijo que pidió ayuda al abogado de oficio asignado a Hemid, pero le dijeron que debido a que su puntuación de riesgo era baja, no podían pedir que se a mande protección “a la puerta de tu cuñada”.

El día después de que fue apuñalada, Hemid tenía programada una cita en el juzgado para presentar oficialmente la demanda de divorcio.

Compartí esta noticia !

“Black Mirror” volverá en junio con su sexta temporada

Compartí esta noticia !

La plataforma de streaming Netflix anunció esta mañana que la sexta temporada de la aclamada y multipremiada serie de antología distópica y de ciencia ficción “Black Mirror” llegará en junio próximo, luego de una pausa de cuatro años motivada por un cambio en su casa productora y por los efectos de la pandemia de Covid-19 en el ánimo social.

“Siempre sentí que ‘Black Mirror’ debía mostrar historias que sean completamente distintas la una de la otra, y seguir sorprendiendo a la gente y a mí mismo, sino, ¿qué sentido tiene? Debería ser una serie que no pueda ser fácilmente definida, y que pueda seguir reinventándose a sí misma”, aseguró al gigante de la N roja el creador de la tira, el inglés Charlie Brooker.

El anuncio fue dado a conocer además a través de las redes sociales, donde se publicó un primer compendio de imágenes de los capítulos que conformarán esta entrega -aunque aún no se sabe cuántos en total-, con la leyenda: “Se lo estuvieron preguntando… Estuvieron esperando… Fueron alertados”.

“Un poco como un desafío, y otro poco para mantener las cosas frescas tanto para mí como para la audiencia, comencé deliberadamente volcando algunas de mis propias suposiciones sobre qué esperar”, agregó Brooker sobre lo que se verá en este nuevo tramo de una producción que en un principio -y tras su estreno en 2011- se convirtió en una serie de culto, gracias a su particular exploración de distintos futuros cercanos marcados por la presencia de la tecnología y con un fuerte mensaje crítico sobre las sociedades contemporáneas.

Al respecto, el guionista agregó que “en consecuencia, junto a los temas más familiares de la serie, también tenemos nuevos elementos, incluyendo algunos que previamente había jurado nunca incluir, incluso para estirar los parámetros de lo que un episodio de esta tira puede llegar a ser”.

“Las historias todavía son totalmente ‘Black Mirror” en su tono de principio a fin, pero con algunos giros locos y más variedad que nunca. Para darle vida a todo eso, tenemos una lista increíble de directores inteligentes y repugnantemente hábiles que trabajan con un elenco tan talentoso que, francamente, no tienen derecho a existir”, concluyó en broma el creador.

En ese sentido, en el adelanto que trascendió hoy puede verse parte de las caras que formarán parte de la temporada, del que participa un abanico de figuras como Aaron Paul, Salma Hayek, Ben Barnes, Kate Mara, Josh Hartnett, Annie Murphy, Michael Cera, John Hannah y Zazie Beetz.

Anjana Vasan, Auden Thornton, Clara Rugaard, Daniel Portman, Danny Ramirez, Himesh Patel, Monica Dolan, Myha’la Herrold, Paapa Essiedu, Rob Delaney, Rory Culkin y Samuel Blenkin completan la nómina de intérpretes para esta sexta entrega.

Si bien aún no trascendió una fecha específica de estreno ni de qué tratarán los nuevos episodios de la popular tira, sí está previsto que la temporada cuente con más capítulos que su antecesora, que estrenó en junio de 2019 y estuvo conformada por tres relatos protagonizados por los reconocidos Anthony Mackie, Andrew Scott, Topher Grace y Miley Cyrus.

A nivel estético, se espera que esta entrega sostenga el estilo cinematográfico que “Black Mirror” viene cultivando desde que en 2016 fue adquirida por Netflix -al comprar los derechos que estaban en manos del Channel 4 británico- y extendió la duración de sus episodios a una hora o más, con destacadas puestas en escena y efectos visuales.

En tanto, esta será la primera vez que Charlie Brooker y su socia Annabel Jones trabajarán en la serie desde que abandonaron House of Tomorrow, la compañía perteneciente al conglomerado Endemol Shine Group, que solía encargarse de su desarrollo, en enero de 2020.

En ese sentido, la dupla formó una nueva productora, Broke & Bones, en la que Netflix rápidamente invirtió para conseguir un contrato de cinco años por la suma de 100 millones de dólares y que llevará su sello en esta próxima entrega de “Black Mirror”, junto a las productoras ejecutivas Jessica Rhoades y Bisha K. Ali.

Además, la llegada de la pandemia de coronavirus sumó otro motivo a la indefinida demora por su continuación, cuando su creador dijo públicamente que, dado el contexto, no sabía “qué estómago hay para ver historias sobre sociedades que se derrumban”.

“No estoy trabajando en nada de eso, tengo ganas de revisitar mis facetas vinculadas a la comedia, así que estuve escribiendo guiones con el objetivo de hacerme reír a mí mismo”, admitió Brooker en esa oportunidad sobre su alejamiento temporal de “Black Mirror”.

En esa línea, el guionista continuó generando contenidos para Netflix, y en febrero pasado la plataforma lanzó “El gato ladrón”, serie animada en la que el público debía contestar trivias para avanzar en la historia protagonizada por Rowdy, un gato que está intentando robar objetos de arte de un museo.

Compartí esta noticia !

Nanotecnología: de Black Mirror a la vida real

Compartí esta noticia !

La nanotecnología es una revolución que está transformando permanentemente industrias enteras como la medicina, la energía y la informática. Actualmente se encuentra en la informática, en los circuitos integrados, las memorias y los procesadores de una computadora o celular, pero es tan grande su potencial para generar soluciones, que se espera que alcance a todas las industrias.

No se trata solamente de hacer lo mismo a una escala infinitamente menor (un nanómetro es la milmillonésima parte de un metro), sino que la manipulación de la materia también permite encontrar nuevas soluciones a los problemas cotidianos de las personas, los gobiernos y las empresas. Su potencial es tal que, según el informe Global Nanotechnology Market (by Component and Applications) de Research & Markets, el mercado de la nanotecnología alcanzará los US$ 126.8 mil millones para 2027.

Pero, ¿por qué es tan importante conocer la nanotecnología? Porque tarde o temprano esta revolución estará presente en todas las industrias, ofreciendo resultados sin precedentes. Actualmente se encuentra en la informática, en una incesante carrera hacia la miniaturización de los productos. Gracias a ella, obtenemos equipos más eficientes, rápidos y pequeños. 

“En Nutanix escribimos y pronosticamos el futuro basándonos en una previsión del impacto de estos nuevos elementos en las organizaciones. Desde retinas informatizadas hasta sistemas de diagnóstico del tamaño de una píldora, veremos literalmente miles de nanoproductos en el Internet de las Cosas, que exigirán una infraestructura ágil e hiperconvergente”, comenta Andrés Hurtado, Vicepresidente de Latinoamérica de Nutanix, compañía líder en software de computación en nube privada, híbrida y múltiple.

La nanotecnología aparece en las películas y series de ciencia ficción como un futuro lejano, como en el episodio de Black Mirror en el que nanobots con forma de abeja se encargan de polinizar el planeta. Sin embargo, en la vida real no estamos tan lejos: investigadores de la Universidad Estatal de Arizona y el Centro Nacional de Nanociencia y Tecnología de China anunciaron en Nature Biotechnology que están trabajando en nano-robots de ADN capaces de detectar y erradicar tumores en tan sólo 48 horas. Además, aunque no impliquen la manipulación de átomos en sentido estricto, ya se venden al público cremas solares con micropartículas protectoras y fundas para asientos de autos que son inmunes a las manchas de café, gracias a la manipulación nanométrica de la materia. 

En el marco de la pandemia de Covid-19, gobiernos, empresas e instituciones científicas de todo el mundo se encuentran invirtiendo decenas de miles de millones de dólares en nanotecnología para enfrentar la pandemia. En la Universidad Bilkent (Turquía), por ejemplo, un equipo de investigadores desarrolló un sistema de diagnóstico de virus “in vitro” que se puede utilizar para detectar el virus SARS-CoV-2, llamado Diagnovir, utilizando nanotecnología. Se trata de un sistema de identificación de base óptica que cambia el color del brillo en presencia del virus. También se están utilizando nanotejidos y nanofibras para fabricar barbijos de forma más eficaz. 

En los próximos años, todas las investigaciones que se están desarrollando producirán una nueva generación de productos y servicios basados en la nanotecnología. Y como siempre, cuando esto ocurra hay que estar preparado para ello”, concluye Hurtado.

Compartí esta noticia !

El siglo XXI: privacidad y avances tecnológicos, dilema o complementación

Compartí esta noticia !

La evolución de la sociedad no siempre conlleva la necesaria obtención de valores positivos, en muchas ocasiones los llamados progresos y/o avances presentan un aspecto a tener presente, al menos, cuando no importan un disvalor que para el análisis debe ser tenido en cuenta, y por sobre todo debe a la hora de poner en el centro a los destinatarios, el hombre o la misma sociedad.
 
En efecto, cómo podríamos entender algún avance tecnológico como positivo cuando su aplicación, al menos en parte, sugiera un retroceso respecto de los derechos más elementales del ser humano por los que por siglos se han defendido o logrado obtener.
 
Para ello es que quienes integramos una sociedad con el sentido del progreso definido como el bienestar, en un marco de libertad y respeto, que presumo aún a riesgo de equivocarme, somos los más, tenemos el deber moral de apuntar a preservar los logros obtenidos y alertar cuando no contribuir a que así sea aún sugiriendo una restricción legislativa que los ponga a salvo de efectos probablemente ni buscados ni queridos, pero sino inaceptables o al menos indeseables.
 
Lo que pretendemos compartir en este breve nota es una preocupación que se viene dando en todo el mundo, en especial por aquellos que están siempre preocupados por velar por la protección de los derechos del hombre, evitando el avasallamiento tanto de parte de estados o de corporaciones que son propensos a franquear la línea de las libertades del sistema democrático.
 
Por ello tal vez no deba extrañar que recientemente en la ciudad de San Francisco se haya desarrollado una ley para limitar o prohibir el reconocimiento facial en determinadas circunstancias. Es que de lo que se trata es de alertar sobre hasta donde los beneficios de la tecnología son superados por amenazas insuperables, esto es hasta donde dicha tecnología puede poner o plantear el dilema de la afectación de nuestras libertades más preciadas. No estamos por cierto hablando de cualquier región del mundo sino allí donde a pocos kilómetros está SILICON VALLEY.
 
En España no existe una legislación específica sobre reconocimiento facial, aunque evidentemente si existe una legislación sobre protección de datos. Sin embargo, en las calles del país ya hay cajeros que utilizan el reconocimiento facial y en algunos hoteles se ha comenzado a experimentar con el pago mediante reconocimiento del rostro.
 
En la Unión Europa se ha aprobado crear una base de datos con huellas dactilares y reconocimiento facial de las personas que entran en determinadas plataformas de registración. Algo que parece muy práctico para evitar amenazas terroristas o de otra clase organizaciones criminales, pero que, como dice la ley aprobada en San Francisco, los riesgos de esta tecnología es posible que superen a los beneficios.
 
La legislación aprobada en San Francisco a través de lo que sería una ordenanza, está destinada a detener la vigilancia secreta, tratando de limitar el uso indiscriminado de datos biométricos en la ciudad, entre ellos los sistemas de reconocimiento facial.
 
Este dilema entre tecnología y privacidad se resuelve prácticamente prohibiendo por completo el uso de la tecnología de reconocimiento facial por parte del gobierno local. En un intento de apostar al bien superior que es la privacidad.
 
“Es que debemos tener bien claro dónde está el límite entre el uso legítimo para la vigilancia con el de tener información para ser usada con otros fines como intimidar y oprimir a ciertas comunidades y grupos más que a otros, incluidos aquellos que están definidos por una raza común, etnia, religión, origen nacional, nivel de ingresos, orientación sexual, o perspectiva política”. Tal la definición de la norma materia de este comentario.
 
Los países democráticos velan y lo deben seguir haciendo, por la precisión de estos límites y resguardos. No debemos olvidar que en China se está usando la tecnología de reconocimiento facial en algunas regiones para vigilar a supuestos disidentes del régimen. O que se está usando en algunas superficies comerciales para analizar el comportamiento de los consumidores, a quién no le aterra haber ingresado por Google a ver un destino turístico y a los segundos y por todos lados surgen y llueven avisos de vuelos, hoteles y cuantas cosas puedan relacionarse con lo que uno miro inocentemente. La realidad es que todo esto es la punta de un iceberg inmenso.
Un estudio realizado de 2016 realizado por la Universidad de Georgetown encontró que la mayoría de los adultos estadounidenses aparecen en las bases de datos de fotos de la policía. ¿Cómo ha podido suceder esto? Pues porque la legislación a nivel mundial sobre privacidad tecnológica tiene enormes lagunas. No debemos olvidar que, a los intereses políticos en el uso de estas tecnologías de vigilancia, se unen los intereses empresariales. Amazon ha vendido su tecnología de reconocimiento facial a un gran número de empresas, pero también a los cuerpos policiales en Estados Unidos.
 
Por ello, hace años se debate si se pueden vulnerar los iphones y la información que cada usuario allí posee, o si las plataformas de Facebook o cualquier otra de iguales dimensiones pueden ser vendidas sin más a aparatos de inteligencia, o policiales, o gubernamentales con escaso o ningún control dejando expuesto la intimidad, la privacidad y la vida toda de millones de personas so pretexto de fines loables, para luego quien sabe en qué terminar.
 
Esto debe alertar a todos los ciudadanos que deben preservar sus derechos, debe alertar a la Alta Política de los Países, para que se trabaje seriamente en legislaciones que armonicen los intereses tendientes a asegurar la paz y la seguridad de los pobladores sin en el intento borrar los más elementales derechos humanos.
 
A la ciudadanía le cabe hacer saber sus inquietudes, reclamos y exigencias, a la dirigencia política, legisladores, gobernantes y jueces estar a la altura de tamaña empresa. El progreso del hombre, sus libertades más preciadas y el destino de los pueblos lo necesitan, para que no sea una involución a oscuros tiempos, por medios más sofisticados.

Compartí esta noticia !

Categorías

Solverwp- WordPress Theme and Plugin