
Alexa de Amazon y su función de imitación de voces, causa temor a los usuarios
La asistente digital Alexa de Amazon, se hizo pasar por una abuela fallecida que leía un fragmento del “El maravilloso Mago de Oz”, lo que causó repulsión a sus usuarios.
La asistente digital Alexa de Amazon, se hizo pasar por una abuela fallecida que leía un fragmento del “El maravilloso Mago de Oz”, lo que causó repulsión a sus usuarios.
El científico Rohit Prasad, jefe de Alexa, comenzó esto de manera inocente tratando de proponer un perfil más humano de la asistente digital, durante una presentación de la compañía. Prasad había señalado que le había sorprendido la relación de amistad que los usuarios desarrollan con Alexa y quería explorar eso. Impulsando características humanas como la “empatía” o el “afecto”, elementos claves para generar confianza con las personas, agregó.
“Estos atributos se han vuelto más importantes en estos tiempos de pandemia en curso, cuando muchos de nosotros hemos perdido a alguien que amamos”, manifestó. “Si bien la IA no puede eliminar el dolor de la pérdida, definitivamente puede hacer que sus recuerdos perduren”, agregó.
La presentación dejó una impresión confusa donde Amazon estaba presentando el servicio como una herramienta para resucitar digitalmente a los muertos. Prasad retrocedió un poco en una entrevista posterior al margen de la conferencia de tecnología re:MARS de Amazon en Las Vegas, diciendo que el servicio no estaba diseñado principalmente para simular la voz de personas muertas.
“No se trata de personas que ya no están contigo”, añadió. “Pero se trata de tu abuela, si quieres que tu hijo escuche la voz de la abuela puedes hacerlo, si ella no está disponible. Personalmente me gustaría eso”.
A medida que la presentación hacía escala en la web, el arrastre dominó al discurso. Aunque surgieron preocupaciones más serias, una de ellas era el potencial para implementar tecnología para crear falsificaciones profundas. Como por ejemplo utilizar una grabación legítima para imitar a las personas que dicen algo que en realidad jamás han pronunciado.
Siwei Lyu, profesor de ciencias de la computación e ingeniería de la Universidad de Buffalo, cuya investigación involucra falsificaciones profundas y análisis forense de medios digitales, señaló estar preocupado por este desarrollo.
“Ciertamente hay beneficios de las tecnologías de conversión de voz que desarrollará Amazon, pero debemos ser conscientes de los posibles usos indebidos”, comentó. “Por ejemplo, un depredador puede hacerse pasar por un miembro de la familia, o un amigo en una llamada telefónica para atraer a las víctimas desprevenidas. Y una grabación de audio falsificada de un ejecutivo de alto nivel comentando sobre la situación financiera de su empresa podría alterar el mercado de valores”.
Si bien Amazon no dijo cuándo se implementaría la nueva función de Alexa, una tecnología similar podría hacer que esas estafas sean mucho más fáciles. Prasad dijo que Amazon había aprendido a simular la voz basándose en menos de un minuto del discurso de una persona. lograr eso antes requería horas en un estudio y hoy está prácticamente en la palma de una mano.
What
— Geoffrey A. Fowler (@geoffreyfowler) June 22, 2022
Were
They
Thinking
"Alexa will soon be able to read stories as your dead grandma"https://t.co/oHcNnigPEc