Amazon usa a la abuela muerta de un niño en una morbosa demostración de Alexa Audio deepfake


Agrandar / El altavoz inteligente Amazon Echo Dot de cuarta generación. Amazon Amazon descubre cómo hacer que su asistente de voz Alexa profundice la voz de cualquier persona, viva o muerta, con solo una grabación rápida. La compañía proyectó la función en su conferencia re: Mars en Las Vegas el miércoles, utilizando el trauma emocional de la pandemia en curso y el dolor para despertar el interés. Re:Mars de Amazon se centrará en la inteligencia artificial, el aprendizaje automático, la robótica y otras tecnologías emergentes, con expertos técnicos y líderes de la industria en el escenario. Durante el discurso de apertura del segundo día, Rohit Prasad, vicepresidente sénior y científico jefe de Alexa AI en Amazon, hizo una demostración de una función que se está desarrollando para Alexa. En la demostración, un niño le pregunta a Alexa: «¿Puede la abuela terminar de leerme El mago de Oz?» Alexa responde: «Está bien», con su característica voz robótica femenina. Pero a continuación, la voz de la abuela del niño sale del altavoz para leer el cuento de L. Frank Baum. Puede ver la demostración a continuación: Amazon re: MARS 2022 – Día 2 – Keynote. Prasad solo dijo que Amazon está trabajando en la habilidad de Alexa y no especificó qué trabajo queda y cuándo/si estará disponible. Sin embargo, proporcionó detalles técnicos meticulosos. «Esto requirió un invento en el que tuvimos que aprender a producir una voz de alta calidad en menos de un minuto de tiempo de grabación en lugar de horas de grabación en un estudio», dijo. «Lo solucionamos enmarcando el problema como una tarea de conversión de idioma en lugar de una tarea de generación de idioma».
Ampliar / Prasad abordó muy brevemente cómo funciona la función. Por supuesto, el deepfaking ha adquirido una reputación controvertida. Aún así, se han hecho algunos esfuerzos para utilizar la tecnología como una herramienta en lugar de un medio de escalofríos. En particular, como señaló The Verge, se han empleado deepfakes de audio en los medios para compensar cuando, por ejemplo, un podcaster se equivoca en una línea o cuando la estrella de un proyecto muere repentinamente, como fue el caso del documental Roadrunner de Anthony Bourdain. Incluso hay casos de personas que usan IA para crear chatbots que se comunican como si fueran un ser querido perdido, señaló la publicación. Alexa ni siquiera sería el primer producto de consumo en usar audio falso para representar a un miembro de la familia que no puede estar allí en persona. El altavoz inteligente de Takara Tomy, como lo destaca Gizmodo, utiliza inteligencia artificial para leer cuentos infantiles antes de dormir con la voz de los padres. Según los informes, los padres están cargando sus voces, por así decirlo, leyendo un guión durante unos 15 minutos. Sin embargo, esto difiere significativamente de la demostración de Amazon, ya que el propietario del producto elige proporcionar su voz en lugar de que el producto use la voz de alguien que es poco probable que pueda proporcionar su permiso. Aparte de los temores de que los deepfakes se utilicen para estafas, estafas y otras actividades nefastas, ya hay algunas cosas preocupantes sobre cómo Amazon está diseñando la función, que aún no tiene una fecha de lanzamiento. Antes de mostrar la demostración, Prasad habló sobre Alexa brindando a los usuarios una «relación de compañía». «En este rol de acompañante, los atributos humanos como la empatía y el afecto son clave para generar confianza», dijo el gerente. «Estas cualidades se han vuelto aún más relevantes durante estos tiempos de pandemia en curso, cuando muchos de nosotros hemos perdido a alguien que amamos. Si bien la IA no puede borrar el dolor de la pérdida, definitivamente puede hacer que sus recuerdos perduren». Prasad agregó que la característica «permite relaciones personales duraderas». Es cierto que innumerables personas buscan fervientemente la «empatía y el afecto» humanos para responder a la angustia emocional desatada por la pandemia de COVID-19. Sin embargo, el asistente de voz AI de Amazon no es el lugar para satisfacer estas necesidades humanas. Alexa tampoco puede habilitar «relaciones personales duraderas» con personas que ya no están con nosotros. No es difícil creer que hay buenas intenciones detrás de esta función en evolución, y que escuchar la voz de alguien a quien extrañas puede ser un gran consuelo. En teoría, incluso podríamos imaginarnos divirtiéndonos con una función así. Hacer que Alexa haga que un amigo suene como si dijera algo estúpido es inofensivo. Y como discutimos anteriormente, hay otras compañías que usan tecnología deepfake de manera similar a lo que Amazon ha demostrado. Pero enmarcar una habilidad de Alexa en evolución como una forma de reavivar una conexión con los familiares fallecidos es un salto gigante, poco realista y problemático. Mientras tanto, tirar de los corazones trayendo consigo el dolor y la soledad relacionados con la pandemia se siente innecesario. Hay algunos lugares a los que Amazon no pertenece, y la consejería de duelo es uno de ellos.

Deja una respuesta

Tu dirección de correo electrónico no será publicada.