La paradoja de la paranoia inducida, Big Data y Manipulación
|
Getting your Trinity Audio player ready...
|
¿Sabías que gran parte de las decisiones que tomas en tu día a día pueden estar condicionadas por lo que una empresa quiere que hagas? Hoy nos adentramos en como funcionan los mecanismos modernos de manipulación y propaganda, conocidos también como “microtargeting”. ¿Has oído hablar alguna vez de las “databrokers”? Si la respuesta es no, significa que hacen muy bien su trabajo…
Las databrokers son empresas que se dedican exclusivamente a comercializar —o a intercambiar por favores— datos personales de millones de usuarios. Esos datos pueden obtenerse de encuestas en línea, cookies, información que brindamos a las redes sociales, chats de aplicaciones o incluso de nuestras preferencias de consumo de contenido en redes sociales. Además, pueden acceder a tu ubicación y rutas habituales, al micrófono, a la cámara, al porcentaje de batería y a muchas otras variables, hasta reunir cientos —quizás miles— de datos sobre una sola persona.
Se ha demostrado que estos datos permiten predecir fenómenos con una precisión preocupante. El principio de funcionamiento de una I.A. puede definirse como la automatización de un cálculo matemático-estadístico para anticipar un resultado a partir de un repositorio de información organizada en una “base de datos”. Es decir, si tengo una lista de personas y accedo a saber su inclinación política, eso es un DATO. Si lo cargo en un Excel, se convierte en una base de datos.
Pero supongamos que ahora también logro acceder a los datos sobre qué auto posee cada una de esas personas; entonces tengo INFORMACIÓN.
La diferencia es clave: el dato aislado dice poco; cuando se relaciona con otros datos se transforma en información, y cuando esa información se analiza y permite comprender o anticipar algo —por ejemplo, cómo actuará alguien—, se convierte en CONOCIMIENTO.
Esta secuencia, conocida como la pirámide Dato → Información → Conocimiento, es la base sobre la que operan las inteligencias artificiales y los sistemas modernos de predicción.
Pero… ¿Y si empiezo a notar que quienes tienen un automóvil Jaguar tienden más a votar a los republicanos en EE. UU. que quienes poseen un BMW? En ese caso, ya no hablo solo de información, sino de conocimiento aplicado: sé qué personas tienen más probabilidades de votar a determinado candidato. Si mi objetivo fuera restarles votos a los demócratas, podría iniciar una campaña publicitaria que vincule, por ejemplo, los altos costos de los repuestos de un BMW con la inflación ocurrida durante el mandato de los demócratas.
Pero eso sigue siendo un dato entre muchos. En promedio, se estima que los databrokers almacenan unos 1500 datos por persona sobre miles de millones de individuos: tu color favorito, tus fobias, alergias, y así hasta 1500…
La sumatoria de los datos es la llave de la manipulación. Según el investigador Yves-Alexandre de Montjoye, en su trabajo “Unique in the Crowd: The Privacy Bounds of Human Mobility” (2013), cuatro puntos espaciotemporales son suficientes para identificar de manera única al 95 % de los individuos, y eso es relativamente fácil de obtener gracias al GPS de tu teléfono celular.
A esto se lo denomina triangular la información: sirve cuando alguien quiere obtener un dato “x” sobre una persona a partir de otros datos previos (algo similar a la regla de tres simple que aprendimos en la escuela). Ahora bien, una inteligencia artificial automatiza estas predicciones y, cuantos más datos tiene sobre alguien, más probabilidades tiene de acertar, ya sea en materia política, de consumo de productos o servicios, o incluso al inferir comportamientos o padecimientos como una depresión.
Es mucho poder… ¿Verdad?
Si hay algo que las databrokers entienden muy bien es que, a la hora de intentar —por ejemplo— sabotear el resultado de unas elecciones democráticas, en términos de eficiencia, antes que convencer a la oposición de votar al partido que te favorece, resulta más eficaz persuadirla de que no vaya a votar, saturando sus redes con mensajes que repiten que la democracia no sirve para nada, que no importa quién gobierne, que siempre será lo mismo, etc. Y, para este punto, es inevitable admitir que no estamos preparados para dimensionar la magnitud de las implicancias de este atentado contra las bases de la ética y la moral modernas, empezando por la democracia.
Y… ¿Cuál es la salida ante una ofensiva tan bien diseñada contra nuestra razón y nuestro pensamiento crítico? ¿Es la solución cerrar la computadora, tapar la cámara con cinta, eliminar las redes sociales y cubrirnos con papel de aluminio?
En primer lugar, hay que saber que la paranoia del aislamiento inconsciente también es un resultado previsto —y buscado— por los algoritmos de manipulación de masas: “Si se aísla, no molesta”. Y, como pocas personas acceden a esta información, sería trágico que la mayoría cayera en la paradoja de la paranoia inducida.
No todo está perdido. Al contrario: hay más esperanza de la que creés. En última instancia, creer que no hay alternativa a este sistema de manipulación masiva es el efecto de una influenciación rentable, inducida por empresas a través de la tecnología moderna.
Hoy tenemos acceso a I.A. que reconoce imágenes y puede decir qué hay en ellas —como Google Lens—, y también hay I.A. de voz a texto que, si les hablás, transcriben lo que decís. Ahora bien, dado que nuestra privacidad está erosionada y las databrokers se amparan en baches legales para explotar los datos de usuario, sabemos que nuestros teléfonos ven y escuchan, interpretando lo que ven y oyen mediante inteligencia artificial.
¿Pero acaso creen que entienden todo lo que decimos? ¿Acaso la comunicación humana puede reducirse a texto e imagen? No, señores: hay cosas que no se pueden predecir, y es extremadamente rentable que no lo sepas.
En términos de termodinámica y de las mecánicas físicas que sustentan la arquitectura eléctrica de la inteligencia artificial, no es posible emular un cerebro humano. Jamás un robot —y mucho menos un chatbot— será capaz de experimentar lo que atraviesa una vida humana, con sus traumas y aprendizajes colectivos.
El test de Turing no es más que una herramienta de marketing excelente para vendernos la idea de que la I.A. es revolucionaria.
Revolucionario sería que cientos de miles de personas se empoderan sobre la noción de que tienen libre albedrío y fueran concientes de que pueden usarlo para defender sus derechos humanos fundamentales y los de los demás.
Revolucionario sería que aprendamos, no a aislarnos de la tecnología y la comunicación, sino a mantenernos despiertos para usarlas como instrumentos que comuniquen humanidad, promuevan fenómenos orgánicos del pensamiento crítico y ayuden a que más personas accedan a este conocimiento.
Solo recordá lo siguiente:
La solución nunca fue, no es y nunca será aislarnos.
Eso es lo que se busca inducir en nosotros por distintos medios, atacando de forma directa nuestra capacidad de empatía y nuestra sociabilidad orgánica humana.
La tecnología no es el enemigo; lo son los de siempre: las élites poderosas que perpetúan su dominio sobre el rebaño. Dominio que ejecutan a través de ideologías individualizantes y antinaturales. ¿Que harás? ¿Fingir demencia y seguir eligiendo creer que esto no nos afecta? ¿Tirar tu teléfono al suelo y pisotearlo? ¿O acaso tomarás la peligrosa decisión de pensar y actuar en consecuencia, trascendiendo lo que se espera de tí?
