Siri est l’assistant vocal star des produits de la marque à la pomme. Mais toute star soit-il, Siri n’a pas droit au même traitement que d’autres fonctionnalités déjà intégrées aux iPhone ou aux Mac. Au contraire : pour améliorer Siri, Apple n’hésite pas à déléguer sa supervision à de nombreux sous-traitants. Le souci, c’est que Siri s’active parfois par erreur et certaines données privées sont entendus par ces mêmes sous-traitants, et ce, à l’insu de l’utilisateur.
C’est The Guardian qui est à l’origine de cette révélation. Un journaliste a pu discuter avec un employé ayant justement accès aux enregistrements audio. L’employé explique alors que Siri peut s’activer tout seul car il croit entendre «Dis Siri». Sauf que ce n’est pas le cas : parfois, les employés entendent alors des gens faire l’amour, dire des identités, voire même dealer de la drogue !
Il est en théorie impossible de retracer un «appel» Siri : les données sont anonymes et personne ne sait de qui vient la requête. Mais parfois, au vu des informations récoltés, il peut être facile de faire un rapprochement, a constaté ce même employé. Apple a répondu à l’article du Guardian : «Une petite partie des requêtes de Siri est analysée pour améliorer Siri et la dictée. Les requêtes ne sont pas associées à l’identifiant Apple de l’utilisateur. Les réponses de Siri sont analysées dans des installations sécurisées et tous les employés sont tenus de respecter les strictes exigences de confidentialité d’Apple». Le groupe ajoute que moins de 1% des requêtes quotidiennes sont analysées et celles-ci durent quelques secondes.