Apple arrête le programme de classement Siri dans le monde, future mise à jour iOS pour fournir des contrôles opt-in / out

En réponse aux problèmes de confidentialité soulevés il y a quelques jours dans un article du journal britannique The Guardian, Apple a temporairement suspendu le programme de classement Siri à l'échelle mondiale, affirmant qu'une prochaine mise à jour du logiciel iOS donnera à ses clients de nouveaux contrôles afin qu'ils puissent choisir s'ils le feraient. souhaitez participer au processus de classement ou non.

Apple a fait cette déclaration à Matthew Panzarino de TechCrunch:

Nous nous engageons à offrir une expérience Siri exceptionnelle tout en protégeant la confidentialité des utilisateurs. Pendant que nous procédons à un examen approfondi, nous suspendons le classement Siri à l'échelle mondiale. De plus, dans le cadre d'une future mise à jour logicielle, les utilisateurs auront la possibilité de choisir de participer à la notation.

Le magasin Guardian a mis en lumière le fait qu'Apple embauche des entrepreneurs pour l'aider avec le processus de contrôle de la qualité de Siri qu'il appelle le classement. Une petite tranche d'enregistrements audio des interactions des personnes avec Siri est conservée sur les serveurs pendant une courte période afin d'aider Apple à améliorer le service.

Panzarino explique:

Le processus consistant à prendre un extrait audio de quelques secondes et à l'envoyer au personnel interne ou à des entrepreneurs pour évaluation est, pour l'essentiel, la norme de l'industrie. Les enregistrements audio des demandes adressées à Amazon et aux assistants Google sont également examinés par les humains.

Apple affirme qu'il peut sélectionner un pour cent des demandes quotidiennes pour le programme de classement.

Ces extraits audio sont dépouillés des noms, des emplacements et des identifiants Apple des individus. Dans son histoire, le Guardian a cité des dénonciateurs qui affirment que certains des extraits audio que les entrepreneurs sont chargés d'examiner pourraient contenir des informations personnelles, l'audio de personnes ayant des rapports sexuels et d'autres détails comme les finances qui pourraient être identifiables.

Cela peut arriver quel que soit le processus qu'Apple utilise pour anonymiser les enregistrements, car il est impossible de contrôler ce que les gens diront lors de leurs interactions avec Siri. Certes, les conditions de service d'Apple mentionnent clairement qu'en utilisant les fonctionnalités Siri ou Dictation, vous consentez à la transmission, la collecte, la maintenance, le traitement et l'utilisation par Apple et ses filiales et agents de ces informations, y compris votre entrée vocale et vos données utilisateur, à fournir et améliorer Siri, la dictée et la fonctionnalité de dictée dans d'autres produits et services Apple. »

Mais les guerriers de la vie privée disent que cela ne suffit pas, non seulement parce que personne ne lit ces textes juridiques, mais aussi parce que les termes d'Apple ne précisent pas clairement et clairement que certains des enregistrements en direct de vos conversations Siri peuvent être transmis et écoutés..

Amazon et Google exécutent des programmes similaires parce que c'est la nature de l'apprentissage automatique - il faut que les humains évaluent et testent les algorithmes d'apprentissage automatique - c'est le seul moyen qu'ils pourraient devenir meilleurs et plus précis au fil du temps. Cela étant dit, Apple supporte peut-être le plus gros fardeau d'être aussi ouvert et transparent sur son programme de classement des assistants que possible, d'autant plus qu'il a transformé la confidentialité en un outil de marketing.

Apple ressent probablement la même chose, sinon ils ne cesseraient pas temporairement le programme de classement Siri par rapport à l'article du Guardian. Peu importe comment vous le regardez, publier une mise à jour logicielle iOS apportant des contrôles opt / in est la première étape dans la bonne direction, ne pensez-vous pas?

Faites-nous savoir votre réaction à la déclaration d'Apple dans les commentaires ci-dessous.