Redes sociales: ¿Los algoritmos nos dominan? Una interesante mirada de un experto

Compartí esta noticia !

A medida que dependemos cada vez más de las redes sociales y los algoritmos para seleccionar nuestras experiencias online, es importante ser conscientes de las posibles consecuencias para nuestra diversidad cultural y nuestra capacidad para participar en formas complejas de arte y expresión.

En la era digital, el exceso de contenido en las redes sociales ha llevado a una filtración agresiva por parte de las plataformas, según lo destacado por varios expertos. Este fenómeno, impulsado por la presión constante de publicar y alcanzar al público, ha dado lugar a un cambio significativo en cómo se presenta y consume el contenido en línea.

Kyle Chayka, autor del libro “La Burbuja de Filtro: Cómo los Algoritmos Están Aplanando la Cultura”, participó recientemente en una entrevista con la Fundación Telefónica como parte de su serie “Imaginando el Futuro” donde expuso sobre cómo las plataformas de redes sociales y las recomendaciones algorítmicas están dando forma a nuestras experiencias culturales y creando un mundo online homogeneizado.

En esta charla, Chayka destacó el concepto de la “burbuja de filtro”, donde los algoritmos seleccionan nuestras experiencias online para mostrarnos solo lo que es probable que nos guste, limitando nuestra exposición a perspectivas diversas y nuevas ideas. Esto, argumenta, está llevando a un aplanamiento de la cultura, donde todo comienza a parecerse y sonar igual.

Utilizando el ejemplo de las cafeterías, que se han vuelto cada vez más similares en decoración y atmósfera debido a la influencia de las tendencias de las redes sociales y las recomendaciones algorítmicas, el autor explica que cada vez es más difícil sostener las diferencias. Esto, argumenta, “nos está privando de las experiencias únicas y auténticas que las cafeterías alguna vez ofrecieron”.

Enfatizando con esto, que surge un preocupante hecho de homogeneización o aplanamiento, que fomenta la pérdida del gusto. “Yo creo que el gusto personal ha desaparecido un poco o es difícil seguir tu propio gusto”. Ya que las modas o las tendencias en redes sociales, son las que establecen desde el diseño, hasta lo que se consume en diferentes ámbitos.

Por otro lado, el autor también discutió sobre el impacto de los algoritmos en nuestros lapsos de atención, argumentando que el flujo constante de notificaciones y distracciones que enfrentamos online está haciendo cada vez más difícil concentrarnos en algo durante un período prolongado. Esto, cree, está teniendo un impacto negativo en nuestra capacidad para apreciar y participar en formas complejas de cultura.

“Los algoritmos tienen esta capacidad de manipularnos a nosotros. (…) Estamos siendo vigilados en cada acción que tomamos en Internet o incluso fuera de Internet cuando nos desplazamos con nuestros teléfonos móviles. Todo esto se recopila y se combina con más datos en la plataforma y eso nos lleva a una recomendación en concreto. También tendemos a olvidarnos de que al final del día los algoritmos son máquinas que han diseñado otros humanos y que gestionan otros humanos. Es decir, no es un Dios increíble, invisible que no podemos controlar que está siempre presente en nuestra sociedad. En realidad, esto no es así, estos productos son la creación de los directivos ingenieros de Silicon Valley, que van decidiendo mes a mes cómo tienen que funcionar. Entonces es importante recordar que el sistema puede ser cambiado y que no es intocable y también podemos apagar estas cosas o hacer que funcionen de otra manera”, sostuvo.

El autor señala que plataformas como TikTok han generado un enfoque más pasivo para la visualización de contenido, fomentando la impaciencia y el cansancio en segundos. “Nuestra capacidad de atención, se está viendo limitada, pero debido al software y debido a que tenemos muchas otras opciones, pues llegamos al aburrimiento muy rápido. Es, como por ejemplo con las citas en Tinder, siempre tienes un millón más de personas para aprobar esa otra opción”.

Además, plantea la preocupación sobre la existencia de un “infierno” (tomando la alegoría de lo que sucedía en la antiguas librerías, el infierno era el sector de lo restringido, lo censurado sin censurar) en el mundo digital, donde se relegan los contenidos menos comerciales o problemáticos. “El algoritmo pone una prohibición blanda sobre muchos contenidos (…) entonces si este tipo de cultura, pues se ignora y se favorece lo que es más comercial”.

Este fenómeno plantea interrogantes sobre la censura y la moderación en las redes sociales, donde ciertos contenidos pueden ser fácilmente excluidos o minimizados, lo que influye en la diversidad y la profundidad de la cultura en línea.

A pesar de estos desafíos, Chayka sigue siendo optimista de que podemos liberarnos de la burbuja de filtro y reclamar nuestras experiencias culturales. Alienta a las personas a buscar activamente perspectivas diversas y nuevas ideas, y a resistir la tentación de simplemente consumir lo que los algoritmos nos recomiendan.

A fin de cuentas podemos seguir su ejemplo y desconectarnos del algoritmo, no es una tarea sencilla, pero como señala Chayka: “Te das cuenta que no son tan importantes para ti, aunque antes pareciera lo contrario”.

Fuente: Telefónica, MundoFiltro

Compartí esta noticia !

¿Qué es la Inteligencia Artificial?

Compartí esta noticia !

La inteligencia artificial (IA) ha sido el foco de especulación y entusiasmo desde su creación hace décadas. La realidad de la IA finalmente está comenzando a ponerse al día con la ciencia ficción. Esta tecnología está comenzando a impregnar toda nuestra vida en formas de las que quizás ni siquiera nos demos cuenta.

“La IA es cualquier sistema o máquina que puede optimizarse a sí misma mediante el uso de la información que recopila sobre cómo funciona la inteligencia humana. En esencia, la IA es la capacidad de un proceso de aprendizaje más avanzado para computadoras y máquinas. Es el proceso de crear máquinas inteligentes capaces de mejorar y aprender a medida que recopilan datos, los analizan y sacan conclusiones lógicas para su propia evolución”, explica Acer, un líder en el segmento de tecnología.

Algunos ejemplos de IA incluyen chatbots de servicio al cliente y algoritmos de redes sociales. El pináculo de la inteligencia humana, cosas como el reconocimiento de voz, la toma de decisiones avanzada y la identificación visual de objetos y rostros, ahora se han convertido en acciones que la IA es capaz de ejecutar.

Si bien las películas y los libros a menudo presentan a la IA como una amenaza para la especie humana, muchos están entusiasmados con la realidad de que la IA hace que nuestras vidas sean más fáciles, mejores y más eficientes. Por ahora, las empresas la están utilizando como una solución principal para muchos problemas.

Para comprender verdaderamente la IA, es importante diseccionar la parte de “inteligencia” de la frase general. La inteligencia, en este contexto, se refiere a las habilidades computacionales para lograr objetivos para un sistema. En esencia, si un sistema es capaz de realizar cálculos rápidos y abundantes para lograr su objetivo preconcebido, podríamos llamarlo “inteligente”.

Por razones obvias, la inteligencia humana siempre ha marcado el punto de referencia de cómo deseamos que funcionen nuestras máquinas. Cuando muchos imaginan en qué podría convertirse la IA, lo que realmente buscan es el estándar de capacidad del cerebro humano. “Históricamente, mediante la inteligencia humana, siempre hemos tenido una mayor capacidad para almacenar recuerdos, realizar múltiples tareas, comunicarnos socialmente, tomar decisiones y ser consciente de nosotros mismos. Todavía hay muchos aspectos de la toma de decisiones y los procesos de pensamiento que la inteligencia artificial no puede lograr. La forma en que funciona el cerebro humano sigue siendo un misterio para nosotros, por lo que es natural que sea difícil programar eso en una máquina”, asegura.

¿Cuándo se convirtió la IA en algo?
Si bien no todos los investigadores o desarrolladores tienen ambiciones que rivalicen con las películas de ciencia ficción, los objetivos de desarrollo de IA de permitir que las computadoras hagan todo lo que la mente humana puede hacer son estándares. Alan Turning, un matemático inglés, es considerado por muchos como el primer defensor del potencial de la IA. Su conferencia en 1947 se centró en la IA y fue el comienzo de un cambio cultural hacia las posibilidades de cómo podrían evolucionar las computadoras. La prueba de Turing era esencialmente un test que proclamaba que si una computadora podía igualar la inteligencia humana y convencer a un observador externo de una inteligencia similar a la humana, entonces debía considerarse “inteligente”.

Aprendizaje automático, aprendizaje profundo e IA
Más de 70 años después, muchos creen que hemos superado el punto de referencia de Turing para la inteligencia informática. El término “inteligencia artificial” se menciona a menudo junto con el aprendizaje automático. La IA y el aprendizaje automático no son cosas separadas, sino que el aprendizaje automático es una herramienta utilizada dentro del desarrollo de la IA. La inteligencia artificial funciona tomando una gran cantidad de datos y ejecutándolos a través de algoritmos y aprendiendo de los patrones en el camino.

El aprendizaje automático, por otro lado, procura conclusiones a partir de los datos mediante el uso de redes neuronales. Este comportamiento de búsqueda de patrones permite que una computadora aprenda. Anteriormente, esto no había sido un sello distintivo de las computadoras, ya que siempre completaban las funciones para las que habían sido programadas y nada más. El concepto de aprendizaje profundo acompaña al aprendizaje automático en las conversaciones sobre IA. El aprendizaje profundo es esencialmente aprendizaje automático dentro de capas y capas de grandes conjuntos de datos.

¿Por qué es importante la IA?
Más allá de una sensación de logro por lo lejos que ha llegado la inteligencia informática, la IA ofrece varios beneficios tangibles. IA ofrece una mayor automatización para ciertas tareas. Debido a que una computadora no puede agotarse o quedarse sin energía mental, puede realizar tareas repetitivas que un humano necesitaría hacer manualmente. IA también puede trabajar un día de 24 horas todos los días de la semana, mientras que un ser humano no puede. Puede proporcionar un análisis de mayor calidad. Con un fuerte enfoque en una sola tarea o función, la IA puede analizar conjuntos de datos o problemas difíciles a velocidades más altas que un cerebro humano. Puede mejorar la eficacia de nuestros procesos y funciones. Puede reducir los errores causados por el juicio humano.

Todo esto se suma a la mejora de los productos y servicios entregados a los usuarios finales. Además, estas capacidades de IA significan un costo general reducido para muchas empresas. Sin la necesidad de miembros del personal o equipos compuestos por varias personas, la IA puede funcionar a plena capacidad haciendo lo que tiene que hacer y, al mismo tiempo, ofrece un ROI más alto para su rendimiento.

Con estos beneficios centrales de la IA, es posible que veamos los trabajos aburridos (o peligrosos) como algo del pasado, al menos para los humanos. Es posible que veamos una producción enormemente mejorada de departamentos y empresas con un crecimiento radical en velocidad y eficiencia.

¿Quién supervisa el desarrollo de la IA?
Muchos nos han advertido sobre los peligros potenciales de la IA. Elon Musk dijo: “Recuerde mis palabras, la IA es mucho más peligrosa que las armas nucleares” y luego preguntó “¿por qué no tenemos supervisión regulatoria?” No faltan referencias a películas que aluden a la posibilidad de que la IA falle, así como personas influyentes que cuestionan hacia dónde nos dirigimos. Entonces, ¿qué hay para asegurarse de que eso no suceda?

Se debe implementar cierta supervisión para garantizar que nuestro futuro con IA sea beneficioso para todos. ¿Cuál será el tipo de supervisión o regulación más eficaz? Para comprender la respuesta a esa pregunta, debemos observar de manera realista las amenazas que plantea la IA. Antes de que nos preocupemos de que la IA se haga cargo, hay algunas formas mucho más apremiantes en las que esta puede alterar nuestra forma de vida.

La automatización del trabajo ya no es un peligro potencial distante de la tecnología de IA. Los trabajos ya se están automatizando y, debido a esto, las personas se están quedando sin trabajo. Lo que es peor es que no hemos planeado esto como sociedad. Millones de personas se desempeñan en trabajos que corren el riesgo de ser reemplazados por la automatización a través de IA en la próxima década. Con esta automatización y los despidos posteriores, podríamos ver un aumento de las tasas de desempleo. El hecho es que ciertas industrias y trabajos se verían afectados mucho más rápidamente por la automatización temprana de la IA que otros.

Otro peligro potencial de la IA en un futuro cercano sería el uso malicioso de esta poderosa tecnología. Un gran poder conlleva una gran responsabilidad y tan pronto como el potencial absoluto de la IA sea accesible para todos, estamos seguros de que llegará a manos de criminales malévolos, piratas informáticos, terroristas y gobiernos. También podemos ver problemas de privacidad y desinformación con las crecientes capacidades de IA. Esta perspectiva ha estimulado una especie de carrera armamentista de IA en la que muchos países y empresas están acelerando la innovación de la IA en formas tanto benévolas como malévolas para adelantarse a enemigos y competidores imprevistos.

Sin embargo, por ahora, muchas organizaciones todavía lo están descubriendo. La verdad es que estamos entrando en un territorio desconocido y nadie lo sabe con certeza. Es probable que siga gran parte de la tecnología anterior en el hecho de que puede usarse tanto para bien como para mal.

¿Quién lidera el desarrollo de la IA?
Gigantes de la tecnología como Google y Facebook han hecho grandes avances para innovar e incorporar la inteligencia artificial en la estructura de la forma en que administran sus empresas y brindan sus servicios. Pero no son solo las grandes corporaciones las que están haciendo uso de la IA. Las empresas emergentes de todo el mundo que se especializan en productos y servicios centrados en la IA están apareciendo rápidamente. Orbital Insight proporciona información y pronósticos a varias industrias utilizando satélites y drones que analizan los datos recopilados por IA. SoundHound lo ayuda a identificar canciones a través de su función de IA y tiene como objetivo proporcionar capacidades más profundas en el campo de inteligencia de voz y conversación. Las organizaciones sin fines de lucro como OpenAI están creando inteligencia artificial general, similar a los seres humanos, con un enfoque en la innovación de IA segura y responsable.

AiForge de Acer es una herramienta de desarrollo que permite a las escuelas y empresas la flexibilidad que tanto necesitan para entrenar soluciones de IA tanto simples como complejas. Permite que las organizaciones simplifiquen y prioricen las tareas como mejor les parezca, al mismo tiempo que reducen la cantidad de tiempo necesario para hacer realidad sus modelos y soluciones. Esto seguramente acelerará la innovación en la industria.

Pero el desarrollo de la IA no se limita a los grandes gigantes tecnológicos. Cualquiera puede involucrarse en el trabajo de IA al igual que la programación se ha convertido en una oportunidad abierta para muchas personas repartidas por todo el mundo. Si bien tendríamos razón al sentir cierta cautela sobre el desarrollo de IA sin restricciones, está claro que es un campo prometedor y probablemente cambiará el futuro de la humanidad de muchas maneras positivas.

Compartí esta noticia !

Enfrentando el sesgo de género en la tecnología de reconocimiento facial

Compartí esta noticia !

Por Trevor Collins, Security Analyst de WatchGuard Technologies – El software de reconocimiento facial ha estado en problemas en los últimos meses. Investigadores, expertos de la industria, empresas y legisladores han planteado preocupaciones que van desde posibles repercusiones en la privacidad hasta su papel en la discriminación y más. De hecho, la Universidad de Michigan publicó recientemente un estudio que relacionó el uso del reconocimiento facial en el campus con estos problemas.

En la década de 1960, Woodrow W. Bledsoe creó un programa secreto que identificaba manualmente puntos en la cara de una persona y comparaba las distancias entre estas coordenadas con otras imágenes.

La tecnología de reconocimiento facial ha avanzado mucho desde entonces. El campo ha evolucionado rápidamente y el software ahora puede procesar automáticamente cantidades asombrosas de datos faciales en tiempo real, mejorando drásticamente los resultados (y la confiabilidad) de la coincidencia en una variedad de casos de uso.

A pesar de todos los avances que hemos visto, muchas organizaciones todavía confían en el mismo algoritmo utilizado por la base de datos de Bledsoe, conocido como “k vecinos más cercanos” o k-NN. Dado que cada rostro tiene múltiples coordenadas, una comparación de estas distancias en millones de imágenes faciales requiere un procesamiento de datos significativo. El algoritmo k-NN simplifica este proceso y facilita la coincidencia de estos puntos al reducir considerablemente el conjunto de datos. Pero eso es solo una parte de la ecuación. El reconocimiento facial también implica encontrar la ubicación de una característica en una cara antes de evaluarla. Esto requiere un algoritmo diferente, como HOG (histogram of oriented gradients). Este tema se tratará más adelante.

El problema

Los algoritmos que se utilizan hoy en día para el reconocimiento facial dependen en gran medida de los modelos de aprendizaje automático (ML), que requieren una formación significativa. Desafortunadamente, el proceso de capacitación puede resultar en sesgos en estas tecnologías. Si la capacitación no contiene una muestra representativa de la población, ML no identificará correctamente la población perdida.

Si bien esto puede no ser un problema significativo al hacer coincidir rostros para plataformas de redes sociales, puede ser mucho más dañino cuando las agencias gubernamentales y las fuerzas del orden utilizan el software de reconocimiento facial de Amazon, Google, Clearview AI y otros.

Estudios anteriores sobre este tema encontraron que el software de reconocimiento facial sufre de prejuicios raciales, pero en general, la investigación sobre el prejuicio ha sido escasa. Las consecuencias de tales sesgos pueden ser nefastas tanto para las personas como para las empresas. Para complicar aún más las cosas, está el hecho de que incluso pequeños cambios en la cara, el cabello o el maquillaje pueden afectar la capacidad de una modelo para hacer coincidir las caras con precisión. Si no se tiene en cuenta, esto puede crear distintos desafíos al intentar aprovechar la tecnología de reconocimiento facial para identificar a las mujeres, que generalmente tienden a usar productos de belleza y cuidado personal más que los hombres.

Comprender el sexismo en el software de reconocimiento facial

¿Qué tan graves son las identificaciones erróneas basadas en el género? El equipo de WatchGuard llevó a cabo una investigación adicional sobre el reconocimiento facial, analizando únicamente los sesgos de género para averiguarlo. Los resultados fueron reveladores. Las soluciones que evaluaron fueron identificar erróneamente a las mujeres un 18% más a menudo que a los hombres.

Pueden imaginar las terribles consecuencias que podría generar este tipo de sesgos. Por ejemplo, un teléfono inteligente que dependa del reconocimiento facial podría bloquear el acceso, un oficial de policía que utilice software de reconocimiento facial podría identificar erróneamente a un transeúnte inocente como un delincuente o una agencia gubernamental podría llamar a la persona equivocada para interrogarla basándose en una coincidencia falsa. La lista continúa. La realidad es que el culpable de estos problemas es el sesgo dentro del entrenamiento del modelo que crea sesgos en los resultados.

Exploremos cómo descubrimos estos resultados.

El equipo realizó dos pruebas independientes: la primera con Amazon Rekognition y la segunda con Dlib. Desafortunadamente, con Amazon Rekognition no lograron analizar cómo funciona su algoritmo y modelado de AA debido a problemas de transparencia (aunque asumieron que es similar a Dlib). Dlib es una historia diferente y utiliza recursos locales para identificar las caras que se le proporcionan. Viene previamente entrenado para identificar la ubicación de una cara y con el buscador de ubicación de caras HOG, un algoritmo más lento basado en CPU, y CNN, un algoritmo más rápido que utiliza procesadores especializados que se encuentran en las tarjetas gráficas.

Ambos servicios proporcionan resultados de partidos con información adicional. Además de la coincidencia encontrada, se otorga una puntuación de similitud que muestra qué tan cerca debe coincidir una cara con la cara conocida. Si la cara en el archivo no existe, una puntuación de similitud establecida en baja puede coincidir incorrectamente con una cara. Sin embargo, una cara puede tener una puntuación de similitud baja y aun así coincidir cuando la imagen no muestra la cara con claridad.

Para el conjunto de datos, se utilizó una base de datos de caras llamada Caras etiquetadas en la naturaleza, y sólo investigamos las caras que coincidían con otra cara en la base de datos. Esto nos permitió probar caras coincidentes y puntuaciones de similitud al mismo tiempo.

Amazon Rekognition identificó correctamente todas las imágenes que proporcionamos. Sin embargo, cuando miramos más de cerca los datos proporcionados, nuestro equipo vio una distribución más amplia de las similitudes en los rostros femeninos que en los masculinos. Vimos más rostros femeninos con más similitudes que los hombres y más rostros femeninos con menos similitudes que los hombres (esto en realidad coincide con un estudio reciente realizado aproximadamente al mismo tiempo).

¿Qué significa esto? Básicamente, significa que una cara femenina que no se encuentra en la base de datos tiene más probabilidades de proporcionar una coincidencia falsa. Además, debido a la menor similitud en los rostros femeninos, nuestro equipo confiaba en que veríamos más errores en la identificación de rostros femeninos sobre los masculinos si se les dieran suficientes imágenes con rostros.

Amazon Rekognition dio resultados precisos pero carecía de consistencia y precisión entre rostros masculinos y femeninos. Los rostros masculinos en promedio fueron 99.06% similares, pero los rostros femeninos en promedio fueron 98.43% similares. Puede que esto no parezca una gran variación, pero la brecha se amplió cuando observamos los valores atípicos: una desviación estándar de 1,64 para los hombres frente a 2,83 para las mujeres. Más rostros femeninos están más lejos del promedio que rostros masculinos, lo que significa que la coincidencia falsa femenina es mucho más probable que la diferencia del 0,6% según nuestros datos.

Dlib no funcionó tan bien. En promedio, Dlib identificó erróneamente los rostros de mujeres más que los de hombres, lo que llevó a una tasa promedio de 5% más de mujeres identificadas erróneamente. Al comparar rostros usando el HOG más lento, las diferencias crecieron al 18%. Es interesante que nuestro equipo descubrió que, en promedio, los rostros femeninos tienen puntajes de similitud más altos que los hombres cuando usan Dlib, pero al igual que Amazon Rekognition, también tienen un espectro más amplio de puntajes de similitud que conducen a resultados bajos en precisión.

Abordar el sesgo de reconocimiento facial

Desafortunadamente, los proveedores de software de reconocimiento facial luchan por ser transparentes cuando se trata de la eficacia de sus soluciones. Por ejemplo, nuestro equipo no encontró ningún lugar en la documentación de Amazon en el que los usuarios pudieran revisar los resultados del procesamiento antes de que el software hiciera una coincidencia positiva o negativa.

Desafortunadamente, esta suposición de precisión (y la falta de contexto por parte de los proveedores) probablemente conducirá a más y más casos de arrestos injustificados, como este. Es muy poco probable que los modelos de reconocimiento facial alcancen el 100% de precisión en el corto plazo, pero los participantes de la industria deben concentrarse en mejorar su efectividad, no obstante. Sabiendo que estos programas contienen prejuicios en la actualidad, las fuerzas del orden y otras organizaciones deberían usarlos como una de las muchas herramientas, no como un recurso definitivo.

Pero hay esperanza. Si la industria puede reconocer y abordar honestamente los sesgos en el software de reconocimiento facial, se puede llegar a trabajar juntos para mejorar el entrenamiento y los resultados del modelo, lo que puede ayudar a reducir las identificaciones erróneas no solo basadas en el género, sino también en la raza y otras variables.

Compartí esta noticia !

Categorías

Solverwp- WordPress Theme and Plugin