Espías de Apple escuchan actos sexuales y tratos de drogas gracias a Siri

Apple contrató espías para hacer escuchas a través de los dispositivos Siri. Identificar a las personas en las grabaciones “no sería difícil”

Si utiliza el asistente de voz de Apple con tecnología de inteligencia artificial Siri, o si posee un dispositivo habilitado para Siri, existe la posibilidad de que un humano del otro lado del mundo esté escuchando cuando tiene relaciones sexuales.

O pueden estar escuchando esa conversación que tuvo con su jefe sobre una nueva estrategia de marketing. O ese incómodo intercambio con su médico sobre un problema privado.

Esa es la conclusión de una nueva e inquietante historia del The Guardian en la que un denunciante de Apple detalla cómo la compañía permite que los contratistas revisen el audio de los comandos Siri de los usuarios.

Sin embargo, para escuchar a Apple decirlo, todo el proceso de revisión parece bastante inocuo.

La compañía le dijo a The Guardian que regularmente envía activaciones de Siri a “instalaciones seguras” donde los revisores humanos escuchan los clips, que generalmente duran solo unos segundos y no tienen la identificación del usuario Apple.

Estos contratistas califican los fragmentos de audio observando si la IA manipuló la solicitud de manera apropiada y si hubo algún error, (como que Siri pensó que había escuchado su “palabra de activación” cuando no lo hizo).

Apple dijo que menos del 1 % de todas las activaciones de Siri están sujetas a este proceso, y el objetivo es mejorar la capacidad de Siri para comprender y ayudar a los usuarios.

Pero como descubrió The Guardian, hay varios problemas clave con el proceso de verificación de activación de Apple, y cómo la compañía lo describe a los usuarios.

Por un lado, Apple no declara explícitamente en la documentación de privacidad que desarrolla para los consumidores, que espías podrían estar escuchando cuando hablas con Siri.

Tampoco indica que Apple contrata espías fiables para asegurarse de que los clips de audio no puedan rastrearse hasta sus fuentes, dijo el denunciante a The Guardian.

“No hay mucha investigación sobre quién trabaja allí, y la cantidad de datos que somos libres de revisar parece bastante amplia”, dijeron.

Además, agregaron que “no es que se aliente a tener en cuenta la privacidad de las personas, o incluso considéralo. Si hubiera alguien con intenciones nefastas, no sería difícil identificar a [las personas en las grabaciones]”.

Sin embargo, quizás la revelación más preocupante en la historia de The Guardian es la regularidad con la que estos críticos humanos escuchan audios que ni siquiera iban dirigidos a Siri.

“Ha habido innumerables casos de grabaciones con debates privados entre médicos y pacientes, negocios, negocios aparentemente criminales, encuentros sexuales, etc.”, dijo el denunciante.

“Estas grabaciones van acompañadas de datos del usuario que muestran la ubicación, los datos de contacto y los datos de la aplicación”.

Las grabaciones también pueden ser mucho más largas que los pocos segundos que Apple describió a The Guardian.

No es del todo sorprendente que Apple permita a espías revisar el audio grabado por sus asistentes de inteligencia artificial, dado que ya sabíamos que Amazon y Google hacen lo mismo.

Parece que los asistentes digitales no sólo están aquí para quedarse, sino que serán aún más omnipresentes en el futuro, lo que significa que estas compañías no dejarán de intentar perfeccionar esta tecnología.

Apple, Google, Amazon y el resto de los gigantes tecnológicos están decididos a permitir que espías revisen el audio grabado por sus asistentes de IA.

Tal vez todos deberían centrarse en capacitar a los asistentes para que escuchen solo cuando detectan voz.

Vía: Futurism

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

once − seis =