Oubliez le rire étrange. Pour une famille de Portland, en Oregon, un appareil Amazon Echo n'est plus un sujet de rire. Non seulement l'un des haut-parleurs intelligents les plus vendus dans leur maison a enregistré leurs conversations, mais il a également envoyé ces enregistrements à quelqu'un sans l'autorisation de la famille. L'épisode présumé vous fait vous demander si des entreprises comme Amazon sont sérieuses en matière de confidentialité en ce qui concerne les appareils domestiques intelligents.
Selon KIRO-TV, la famille Oregon aimait les appareils Amazon et les utilisait pour contrôler la chaleur, les lumières et le système de sécurité de leur maison. Cependant, quelque chose d'étrange s'est produit.
Selon Danielle, qui ne voulait pas que KIRO-TV utilise son nom de famille, quelqu'un l'a appelée chez elle début mai pour lui dire de débrancher ses appareils Alexa parce que «vous êtes piraté». Il a expliqué qu'il avait reçu des fichiers audio d'enregistrements de l'intérieur de la maison de Danielle. La personne à l'autre bout du fil n'était pas un étranger, mais l'un des employés de son mari. Ses informations personnelles figuraient dans la liste de contacts d'Alexa.
Alors, qu'est-ce-qu'il s'est passé?
Dans une déclaration par courrier électronique à The Washington Post, qui a repris l'histoire de KIRO-TV, Amazon a expliqué que l'Echo s'est probablement réveillé quand il a entendu un mot qui ressemblait à "Alexa".
De là:
La conversation qui a suivi a été entendue comme une demande d'envoi de message. À quel moment, Alexa a dit à haute voix 'À qui?' À quel moment, la conversation en arrière-plan a été interprétée comme un nom dans la liste de contacts des clients.
Ils ont conclu: "Aussi improbable que soit cette série d'événements, nous évaluons les options pour rendre ce cas encore moins probable."
Ce n'est pas la première fois que l'assistant vocal d'Amazon est accusé d'écouter des gens sans leur permission. Les appareils intelligents d'Amazon ne sont censés enregistrer de l'audio qu'après qu'un utilisateur a émis une commande vocale, connue sous le nom de «mot de réveil». En avril, cependant, les chercheurs ont découvert une faille dans l'assistant vocal Alexa qui permettait à l'appareil de continuer à écouter et à enregistrer. Après avoir entendu les chercheurs, Amazon a corrigé la vulnérabilité.
La meilleure façon de garantir qu'Alexa, Siri, Google Home ou tout autre assistant vocal n'enregistre pas votre conversation est d'éteindre l'appareil lorsqu'il n'est pas utilisé. Sinon, il y a toujours une chance que vous soyez enregistré.
Néanmoins, l'histoire mentionnée ici semble au mieux étrange. Je ne dis pas que cela ne s'est pas produit, mais il semble qu'Alexa ait dû sauter à travers un nombre menaçant de cerceaux pour faire ce que la famille dit avoir fait. De plus, même l'explication d'Amazon semble au-delà du raisonnable, ne pensez-vous pas?
Croyez-vous cette histoire? Faites-le nous savoir dans les commentaires ci-dessous.