Opinion impopulaire Les sous-traitants Apple écoutent de l'audio Siri pour améliorer le service. Quoi de neuf?

Le rapport du week-end dernier du journal britannique The Guardian a détaillé qu'Apple embauche des sous-traitants chargés d'écouter de l'audio Siri, incitant les critiques à prendre l'histoire comme une preuve que l'engagement d'Apple en matière de confidentialité n'est rien de plus qu'un discours marketing.

Un extrait du rapport du Guardian:

Les sous-traitants d'Apple entendent régulièrement des informations médicales confidentielles, des offres de médicaments et des enregistrements de couples ayant des relations sexuelles, dans le cadre de leur travail de contrôle de la qualité ou de «classement», l'assistant vocal Siri de l'entreprise, a appris le Guardian..

Bien qu'Apple ne le divulgue pas explicitement dans sa documentation de confidentialité destinée aux consommateurs, une petite proportion des enregistrements Siri sont transmis à des entrepreneurs travaillant pour l'entreprise dans le monde entier..

En êtes-vous sûr à cent pour cent? Parce que je viens de passer en revue les écrans de confidentialité d'Apple disséminés dans ses systèmes d'exploitation et, à coup sûr, ils indiquent clairement que certains enregistrements Siri peuvent être utilisés pour améliorer le service Siri. En plus de cela, j'ai pu trouver l'extrait suivant en ratissant rapidement le contrat de licence du logiciel iOS d'Apple:

En utilisant Siri ou Dictation, vous acceptez et consentez à la transmission, la collecte, la maintenance, le traitement et l'utilisation par Apple et ses filiales et agents de ces informations, y compris votre entrée vocale et vos données utilisateur, pour fournir et améliorer les fonctionnalités Siri, Dictée et dictée dans d'autres produits et services Apple.

Tout ce passage est en gras et je pense qu'il est assez clair sur les intentions d'Apple.

La «révélation» selon laquelle la société vend les données vocales collectées par l'assistant personnel de Siri à des tiers-contractants chargés de former l'algorithme Siri - dans le cadre de sa tentative d'améliorer le service Siri n'est pas nouvelle si vous avez suivi La technologie.

Même le Guardian le reconnaît:

Ils notent les réponses sur une variété de facteurs, notamment si l'activation de l'assistant vocal était délibérée ou accidentelle, si la requête était quelque chose que Siri pouvait aider et si la réponse de Siri était appropriée.

Ce n'est pas la première fois que les gens «découvrent» que certains extraits audio Siri sont transmis à un tiers. En 2015, un employé anonyme d'une entreprise appelée Walk N'Talk Technologies a écrit sur Reddit que les données vocales analysées par l'entreprise provenaient d'assistants personnels comme Siri et Cortana..

Apple a publié la déclaration suivante au Guardian et à d'autres:

Une petite partie des demandes Siri est analysée pour améliorer Siri et la dictée. Les demandes des utilisateurs ne sont pas associées à l'identifiant Apple de l'utilisateur. Les réponses de Siri sont analysées dans des installations sécurisées et tous les évaluateurs sont tenus de respecter les strictes exigences de confidentialité d'Apple.

Le nœud de l'histoire du Guardian vient d'un «dénonciateur», essentiellement un employeur Apple qui a déclaré avoir entendu des trucs privés lors d'activations accidentelles.

Voici ce que le dénonciateur a déclaré au journal:

Il y a eu d'innombrables exemples d'enregistrements présentant des discussions privées entre médecins et patients, des accords commerciaux, des relations apparemment criminelles, des rencontres sexuelles, etc. Ces enregistrements sont accompagnés de données utilisateur indiquant l'emplacement, les coordonnées et les données de l'application.

Les enregistrements audio des requêtes des utilisateurs tirent parti des métadonnées comme l'emplacement pour mieux comprendre le contexte. La partie inquiétante est le fait que les entrepreneurs sont capables d'entendre des conversations privées en premier lieu. Comme le reconnaît le rapport lui-même, cela est possible car un utilisateur peut invoquer accidentellement Siri sans le savoir, ce qui incite à son tour l'enregistrement audio de tout ce qui est prononcé après la phrase de réveil "Hey Siri" à télécharger sur le serveur, et certainement pas parce que Siri enregistre secrètement des conversations sans le consentement de l'utilisateur.

Mes sentiments à ce sujet ne sont certainement pas les mêmes que le reste d'Internet.

Aucun assistant numérique ne peut s'améliorer au fil du temps en se basant uniquement sur la puissance de l'intelligence artificielle et de l'apprentissage automatique. C'est parce que le modèle d'apprentissage automatique utilisé par un assistant doit d'abord être formé par des éditeurs humains - il n'y a tout simplement pas deux façons de le faire.

Google Photos n'aurait pas été en mesure de reconnaître les visages avec une précision incroyable si la société n'avait pas formé l'algorithme à l'aide de photos de personnes réelles. Face ID d'Apple n'aurait pas été possible si son apprentissage automatique n'avait pas été formé sur plus d'un million de photographies de visages humains divers. Même quelque chose d'aussi «ordinaire» que la reconnaissance vocale peut être considérablement amélioré en utilisant un algorithme d'apprentissage automatique utilisant des données formées.

La dure vérité est que les machines ne peuvent pas (encore) former les modèles d'apprentissage automatique d'autres machines avec des résultats satisfaisants - c'est le travail que nous, les humains, excellons.

Toute personne de l'industrie qui s'intéresse sérieusement à l'intelligence artificielle emploie des éditeurs humains pour former ses algorithmes d'apprentissage automatique dans le but d'améliorer le service. Ces employés sont exposés à tout contenu qui est au cœur de leurs efforts, qu'il s'agisse de courts extraits audio capturés par des haut-parleurs intelligents lors d'interactions vocales ou de photos téléchargées sur un service de partage de photos ou d'éléments signalés dans le flux d'un réseau social, vous avez l'idée.

Certaines entreprises prennent la vie privée plus au sérieux que d'autres. Certaines entreprises peuvent ne pas être aussi transparentes quant à la façon dont leurs éditeurs humains abordent la tâche à accomplir que d'autres. Et, en fin de compte, certaines entreprises qui n'ont pas une expérience aussi solide en matière de protection de la vie privée des utilisateurs seront probablement examinées plus attentivement par les médias et le grand public que les autres.,.

Mais je ne crois pas une seconde qu'il est dans l'intérêt de toute entreprise d'exiger que leurs employés écoutent réellement nos conversations avec un assistant numérique personnel simplement parce qu'ils le peuvent ou parce qu'ils espèrent en quelque sorte tirer des informations exploitables de ces informations privées. conversations-et échapper à elle pendant de nombreuses années sans que personne ne s'en aperçoive ou ne se plaigne de rien. Ce n'est tout simplement pas possible dans le monde en réseau d'aujourd'hui.

Ne vous méprenez pas, j'apprécie le dur travail d'enquête effectué par une partie des journalistes qui rendent compte de ces choses parce qu'ils donnent aux croisés de la vie privée quelque chose à mâcher. Mais je n'achète pas une seconde leur conclusion à peine voilée ou implicite que Big Tech n'emploie pas seulement des éditeurs humains pour former Siri, Alexa et Google Assistant, mais aussi pour écouter nos conversations pour des choses encore à révéler, mais des fins certainement néfastes.

Oui, certains employés d'Amazon qui écoutent les demandes d'Alexa ont en effet accès aux adresses personnelles des utilisateurs, car certaines demandes vocales incluent l'emplacement. Et oui, certains enregistrements Google Assistant examinés par des humains peuvent potentiellement inclure des conversations privées, car les clients sont libres de dire tout ce qu'ils veulent à leur assistant numérique.

C'est ce que ces employés sont invités à faire avec ces enregistrements qui comptent à la fin de la journée. C'est le fait qu'un éditeur humain voyou peut mal utiliser les informations des clients privés qui devrait nous inquiéter, pas le fait que les êtres humains écoutent des enregistrements audio sélectionnés dans une installation sécurisée éloignée dans le but explicite d'améliorer le service.

Pensées?