La compañía estadounidense Apple anunció la suspensión del análisis de conversaciones de usuarios grabados por su asistente vocal Siri.
Esta práctica, la de grabar y posteriormente transcribir y analizar conversaciones para mejorar la calidad del servicio, es habitual en numerosas empresas del sector, como Amazon o Google, entre otras.
“Suspendemos a nivel mundial el programa para Siri, es tiempo de reexaminarlo en profundidad”, explicó el grupo en un comunicado.
“Además, en la futura actualización del programa, los usuarios tendrán la oportunidad de participar o no en la mejora del servicio”.
Al igual que sus rivales Amazon, Google o Microsoft, Apple hace analizar por trabajadores subcontratados ciertas grabaciones hechas por su asistente para asegurarse que entiende de forma correcta tanto el tono y acento de la persona que habla y que interpreta el sentido de las búsquedas. Según Apple, escuchan menos de uno por ciento de las peticiones.
La decisión de la compañía de Tim Cook llega después de que varios medios recogieran declaraciones de exempleados que aseguraban haber escuchado conversaciones grabadas por error, en algunos casos, personales o íntimas.
El grupo basado en Cupertino, California, no es el único en el punto de mira: el jueves, una autoridad local alemana logró que Google suspendiera el mismo tipo de práctica en toda la Unión Europea.
La Oficina de Protección de datos de Hamburgo anunció en efecto que Google se había comprometido a que “las transcripciones de grabaciones vocales no sean utilizadas durante un periodo de al menos tres meses a partir del 1 de agosto de 2019″ en todos los países europeos.
Esta autoridad estima que los asistentes en general, ya sean comercializados por Google, Amazon o Apple, presentan un riesgo elevado para la confidencialidad y la protección de la vida privada de las personas.
El medio belga VRT reveló en julio que había podido escuchar más de un millar de grabaciones de aparatos localizados en Bélgica o Países Bajos, de los cuales 153 fueron captados de forma accidental.
Ente ellos, los usuarios discutían sobre temas como su vida amorosa o sus hijos, y daban información privada como sus direcciones personales.
El 12 de julio, Apple suspendió la aplicación de walkie-talkie de su reloj inteligente, al detectar una vulnerabilidad que permitía que se usara para escuchar sin consentimiento conversaciones ajenas.
La firma halló la vulnerabilidad después de que un usuario la denunció que la app permitía escuchar desde el reloj conversaciones que tuviesen lugar en el iPhone de otra persona.
“Nos tomamos la seguridad y la privacidad de nuestros clientes con extrema seriedad. Hemos concluido que desactivar la aplicación era la decisión correcta ya que este error de software podría permitir que alguien escuchase sin permiso el iPhone de otro cliente”, indicó Apple.
La empresa tardó 10 días en arreglar el problema.