_
_
_
_
_

Amazon se suma a las tecnológicas que cancelan las escuchas de conversaciones privadas por terceros

Los trabajadores subcontratados por Apple para revisar diálogos afirman que tuvieron acceso a localización, ‘apps’ y agenda de contactos de los usuarios

El Amazon Echo escucha la información que recibe, se conecta a la nube para buscar la respuesta y la transmite verbalmente.
El Amazon Echo escucha la información que recibe, se conecta a la nube para buscar la respuesta y la transmite verbalmente.Amazon España
Hugo Gutiérrez

Todas las principales compañías tecnológicas con asistentes de voz han decidido suspender sus programas de escucha de audios privados de usuarios, entre los que había conversaciones íntimas que en muchos casos se grababan cuando el micrófono se activaba por error. Como adelantó EL PAÍS, Google y Apple realizaban estas escuchas y las han suspendido, así como Amazon, la última en anunciar la cancelación de sus proyectos de audición. Las conversaciones con Alexa se seguirán almacenando, pero ahora la compañía dará la opción al usuario de elegir si permiten que sus audios se incluyan en estos proyectos, según aseguró una portavoz de la firma. Una opción muy parecida a la tomada por Apple el pasado viernes.

Pero, ¿para qué se hacían estas escuchas y qué implicaban? Las tecnológicas aseguran que las audiciones se realizaban para mejorar lo que el asistente virtual era capaz de entender. Lo que ocurre es que esto suponía en la práctica que los transcriptores, subcontratados a través de terceras empresas, tuvieran acceso a conversaciones íntimas e incluso a datos personales sensibles. Por ejemplo, según ha podido saber EL PAÍS, extrabajadores con años de experiencia para la firma de Cupertino tenían acceso en determinados proyectos a datos como la localización del usuario en el momento de la grabación, las aplicaciones que tenía en el dispositivo e incluso podían ver la agenda de contactos (los nombres, no los números), según explican los exempleados.

En los proyectos en los que había que transcribir audios de usuarios, al tener que hacer cientos por hora, era muy difícil que pudieran relacionar las diferentes grabaciones con una misma persona. “Pero había otros proyectos en los que el sistema sí te lo ofrecía todo recopilado. Por ejemplo, te facilitaba un historial de audios y búsquedas escritas con peticiones anteriores del usuario, te dejaba ver su agenda de contactos, la ubicación casi exacta en el momento de la grabación y la lista de apps instaladas”, aseguran los ya exempleados de una de las empresas que trabajaba para Apple. La empresa de la manzana, mientras tanto, anunció la suspensión de las escuchas y anunció que iba a llevar a cabo una “revisión exhaustiva del programa global de calificación de Siri”.

Cientos de trabajadores bajo presión

Solo en España había centenares de trabajadores dedicados a estas tareas en diferentes empresas tecnológicas que trabajaban para Apple y Google. Y desde la Península, gracias a la multitud de personas de diferentes lugares del mundo que viven en sus principales ciudades, había empleados de decenas de lenguas diferentes. Entre ellas, estaban el español, el inglés, el francés y el alemán en casi todas sus variantes, idiomas asiáticos, árabe, etcétera. “Llegaba a haber unos 15 empleados por cada lengua, sobre todo de las más demandadas”, reconocen antiguos transcriptores subcontratados por Apple.

Estos cientos de empleados tenían contratos por obra y servicio y podían estar a tiempo parcial o a tiempo completo. Y el trabajo se realizaba bajo una fuerte presión, según coinciden todos los transcriptores consultados. “Tenías que cumplir un mínimo de audios escuchados por hora que variaba en función del proyecto. Y cada vez exigían más, lo que iba en detrimento de la calidad de nuestro trabajo e incluso de nuestra salud. Hubo muchos compañeros con problemas físicos y psicológicos por las condiciones que nos imponían”, aseguran los exempleados.

Pese a ello, estos proyectos ahora conocidos contradicen la versión oficial que la firma de Cupertino mantenía, en la que aseguraba que los audios no se relacionaban en ningún momento con los usuarios. La compañía explica en su política de privacidad: “Cuando un dispositivo recoge algún dato, Apple es transparente al respecto informando al usuario y los disocia del perfil del usuario”. De esta forma, la empresa intenta mantener el anonimato y la privacidad de sus clientes. Aunque en el caso de estos proyectos en los que se facilitaba al empleado externo toda la información de un mismo cliente demuestra que, pese a la asignación de códigos diferentes por audio, la empresa sí conocía a qué usuario pertenecía cada uno y podía recopilar todas sus grabaciones.

Este acceso a información personal se les daba para que los empleados pudieran mejorar las respuestas de Siri, el asistente virtual de Apple, según reconocen los propios extrabajadores. “Teníamos que comprobar que si pedía hablar con el contacto Mamá, que no llamase a otro con el nombre Maná, por ejemplo. Lo mismo con las apps y direcciones. Y el histórico de audios o las diferentes grabaciones en cadena las teníamos que usar para entender el contexto y comprobar si había peticiones recurrentes”, explican.

En el caso de las peticiones para ir a una localización específica, ya sea de forma oral o escrita, el sistema les señalaba en la parte superior la ciudad desde la que se hacía la búsqueda y la zona. “Por ejemplo: “Madrid, Puerta del Sol”, que es desde donde pedía ir a un sitio para comer, a una tienda o a un lugar en concreto”, relatan. Y en los casos en que había varias respuestas, les aparecían diferentes opciones con la distancia exacta hasta el lugar de destino. De esta forma, se podría triangular el punto casi exacto donde estaba el usuario.

Grabaciones íntimas y casos de violencia

La principal razón del parón en las audiciones de las tecnológicas es la opacidad de las compañías a la hora de informar a sus usuarios. “Parece que existe un problema de transparencia, en el sentido de que el usuario no era consciente de qué se hace con sus interacciones con el asistente virtual”, asegura Moisés Barrio, letrado del Consejo de Estado y abogado experto en derecho digital. De hecho, ni siquiera sabían que sus grabaciones de peticiones al software de cada firma podían ser escuchadas por otras personas y no solo por máquinas.

A esto hay que sumar que los micrófonos, que en principio solo se activan por un comando específico (Hola Siri, Ok Google, Alexa…), funcionaban en multitud de ocasiones de forma errónea, lo que provocaba que se grabasen infinidad de audios con charlas íntimas. “He escuchado decenas de discusiones privadas, conversaciones con el médico o redacción de contratos confidenciales. Incluso personas teniendo sexo sin saber que se les estaba grabando”, repiten diferentes transcriptores de Apple, que añaden: “Cuando se escuchaban casos de violencia de cualquier tipo, abusos y conductas suicidas lo teníamos que indicar en el sistema, aunque no sabíamos si Apple hacía algo con eso ni si llegaba a denunciarlo”.

Microsoft admite que escuchan y transcriben una parte de los comandos de voz a Cortana y algunas llamadas de Skype

Microsoft ha admitido que sus trabajadores escuchan y transcriben una parte de los comandos de voz a su asistente digital Cortana, así como algunas llamadas de Skype, aunque la empresa ha defendido que solo lo hace tras aceptarlo los usuarios.

Como ha revelado Vice, Microsoft utiliza a trabajadores humanos para escuchar y transcribir conversaciones personales a través de Skype, en los casos en que los usuarios del servicio utilizaron la herramienta de traducción que ofrece la aplicación.

Este servicio de traducción de Skype, que la aplicación lanzó en el año 2015, permite que los usuarios obtengan traducciones en forma de texto en tiempo real cuando efectúan una llamada de voz o una videollamada con otra persona. Esta función opera a través de los mecanismos de Inteligencia Artificial de Microsoft.

Aunque la aplicación de Skype informa en sus políticas a los usuarios que las llamadas con la herramienta de traducción pueden ser analizada, no les avisa de que este proceso puede implicar la revisión por parte de empleados humanos.

Asimismo, las labores de revisión y transcripción realizadas por trabajadores de Microsoft incluyen también a los comandos de voz de los usuarios al asistente digital de Microsoft, Cortana, incluido de serie en Windows 10, como ha recogido Vice.

Al igual que sucedía con Amazon y su asistente Alexa, Google y el Asistente y Apple con Siri -estas últimas dos compañías anunciaron la paralización de sus programas de control de calidad recientemente-, las labores de transcripción de Microsoft tienen como objetivo mejorar el reconocimiento de voz y las traducciones de herramientas como Cortana y Skype.

Microsoft ha reconocido en un comunicado enviado a Vice que "recolecta datos de voz para proporcionar o mejorar los servicios de voz como la búsqueda, los comandos de voz, el dictado y la traducción".

La compañía ha defendido que intenta ser "transparente" en el uso de datos e informar a los usuarios, asegurando que "obtiene el permiso de los usuarios antes de recoger y utilizar sus datos de voz" y que se aplican procedimientos de seguridad para respetar la privacidad como el anonimato de los datos y la prohibición de su difusión a terceros.

Regístrate gratis para seguir leyendo

Si tienes cuenta en EL PAÍS, puedes utilizarla para identificarte
_

Sobre la firma

Hugo Gutiérrez
Es periodista de la sección de Economía, especializado en banca. Antes escribió sobre turismo, distribución y gran consumo. Ha desarrollado su carrera en EL PAÍS tras pasar por el diario gaditano Europa Sur. Es licenciado en Periodismo por la Universidad de Sevilla, Máster de periodismo de EL PAÍS y Especialista en información económica de la UIMP.

Más información

Archivado En

Recomendaciones EL PAÍS
Recomendaciones EL PAÍS
Recomendaciones EL PAÍS
_
_