Catégories :

Est-ce qu’Alexa et Google Home nous écoutent ?

N’est-il pas agréable de pouvoir commander vos lumières, jouer votre musique préférée ou même passer un appel téléphonique, le tout avec votre voix? Oui, oui, c’est bel et bien la réalité, grâce aux assistants vocaux comme Alexa et Google Home. Ces appareils intelligents ont révolutionné notre manière d’interagir avec la technologie, nous offrant une expérience sans précédent de commodité et de contrôle.

Les assistants vocaux intelligents font désormais partie intégrante de notre vie quotidienne. Nous les utilisons pour tout, de la lecture de musique à la configuration d’alarmes, en passant par le contrôle de nos appareils intelligents. Mais une question demeure: Ces appareils nous écoutent-ils vraiment ?

La réponse courte est oui.

D’un côté, il est indéniable que les assistants vocaux nous apportent de nombreux avantages. Ils nous permettent de gagner du temps, d’être plus productifs et de profiter d’un environnement domestique plus connecté. De plus, les entreprises qui développent ces technologies affirment qu’elles sont engagées à protéger notre vie privée et que les données collectées ne sont utilisées qu’à des fins d’amélioration des services.

Pour fonctionner, les assistants vocaux utilisent des microphones intégrés pour capturer en permanence le bruit ambiant. Ils sont dotés de la technologie de “wake word detection”, qui leur permet de reconnaître leur mot d’activation (comme “Alexa” ou “Ok Google”) et de ne commencer à enregistrer et à traiter les informations que lorsqu’ils sont activés. Cependant, il est important de noter que les enregistrements ne sont pas stockés en permanence.

Alexa et Google Home

Pour ce qui est d’Alexa, Amazon ne stocke que les enregistrements que vous avez explicitement demandés à enregistrer, comme les interactions avec Alexa Routines. Vous pouvez également consulter et supprimer vos enregistrements vocaux à tout moment.

Tandis que Google Home ne stocke que les enregistrements vocaux après que vous avez dit “Ok Google”. Vous pouvez désactiver l’enregistrement vocal et supprimer vos enregistrements à tout moment.

D’ailleurs, les enregistrements vocaux capturés par les assistants vocaux sont stockés sur les serveurs des entreprises respectives. Ils sont ensuite analysés à l’aide de l’intelligence artificielle (IA) pour comprendre nos requêtes et y répondre. Théoriquement, ces enregistrements ne devraient être utilisés que pour améliorer la performance des assistants vocaux et nous offrir une expérience plus personnalisée.

«Est-ce qu’il y a des risques à utiliser des assistants vocaux?»

Bien que les entreprises affirment que nos données sont traitées en toute sécurité, il y a toujours des risques potentiels liés à l’utilisation d’assistants vocaux. Par exemple, Les pirates informatiques pourraient pirater les serveurs des entreprises et voler nos enregistrements vocaux, ce qui résulterait à des fuites de données. Aussi, par l”utilisation abusive des données, les entreprises pourraient utiliser nos données à des fins publicitaires ciblées ou pour d’autres objectifs sans notre consentement. La surveillance gouvernementale également. Les gouvernements pourraient obliger les entreprises à leur fournir nos données vocales, ce qui pourrait constituer une violation de la vie privée. Si vous prononcez accidentellement des informations sensibles, comme votre adresse ou vos informations bancaires, elles pourraient être enregistrées.

Les faits vécus

Le meutre enregistré

Tout d’abord, en 2019, un meurtre survenu dans l’État du Arkansas aux États-Unis a été résolu grâce à l’aide d’un assistant vocal Alexa. Ce cas, bien que concluant pour l’enquête, a soulevé des questions importantes concernant la vie privée et l’utilisation des données personnelles dans l’ère numérique. Les faits sont que le 22 novembre 2018, James Bates a été retrouvé mort par balle dans son domicile. Son épouse, Alexa Murrah, a rapidement été désignée comme principale suspecte. Au cours de l’enquête, la police a découvert que l’assistant vocal Alexa de Mme. Murrah avait enregistré des conversations survenues dans la maison le soir du meurtre. Ces enregistrements ont révélé des échanges tendus entre les époux, et Alexa Murrah a été entendue dire des phrases telles que “J’en ai assez de lui” et “Je vais le tuer”.

Les faux pirates

Il y a aussi cette recherche, effectuée par des chercheurs en cybersécurité, qui a dévoilé des failles critiques dans Alexa, l’assistant vocal d’Amazon, qui pourraient permettre à des pirates de s’immiscer dans la vie privée des utilisateurs et de dérober leurs données sensibles. En exploitant ces vulnérabilités, les pirates pourraient installer ou supprimer des “skills” Alexa sur les comptes des victimes, leur donnant ainsi le contrôle total des fonctionnalités de l’assistant vocal. Plus inquiétant encore, ces failles pourraient ouvrir la porte à l’accès à des données personnelles confidentielles, telles que les enregistrements vocaux et les informations bancaires. Face à ces risques alarmants, les experts en cybersécurité exhortent les utilisateurs d’Alexa à supprimer régulièrement l’historique vocal enregistré sur l’appareil. Heureusement, Alexa et Google Assistant proposent des options permettant d’effacer automatiquement ces enregistrements après une période définie, à condition de configurer correctement les paramètres.

Le panier d’amazon de mon enfant

On n’y pense pas, mais nos enfants aussi. Ces petits êtres humains qui peuvent mesurer trois pommes de haut, pourraient causés des sérieux imprévus monétaires à votre portefeuille. Votre panier Amazon, vérifier vous toujours ce qu’il contient? Votre enfant y a peut-être ajouté quelque chose… Et oui, c’est un cas qui n’est pas impossible à réaliser. Pensez-ci, un enfant n’aurait qu’à commander une poupée grâce à la commande ”Alexa achète-moi une poupé’!’. Du coup, les parents se retrouveront avec des achats imprévues et factures à rembourser. Cette histoire peut paraître anodine, mais si les enfants peuvent nous imités, il n’est donc pas difficile pour eux de commander un article, ou un jouet, via l’assisstant vocal.

 

Soyez sans crainte!

Il existe des solutions pour paliers à ces risques, afin de protéger votre vie privée lorsque vous utilisez des assistants vocaux.

En voici quelques-uns :

  • Limitez l’utilisation: N’utilisez les assistants vocaux que pour les tâches essentielles et évitez de leur donner des informations personnelles ou sensibles.
  • Désactivez l’historique vocal: Vous pouvez désactiver l’historique vocal dans les paramètres de votre assistant vocal. Cela empêchera l’enregistrement et le stockage de vos enregistrements vocaux.
  • Vérifiez les paramètres de confidentialité: Lisez attentivement les politiques de confidentialité des entreprises avant d’utiliser leurs assistants vocaux.
  • Soyez conscient de ce que vous dites: Évitez de prononcer des informations sensibles à proximité de votre appareil.
  • Utilisez un mot d’activation fort: Choisissez un mot d’activation difficile à prononcer accidentellement.
  • Envisagez des alternatives: Il existe des assistants vocaux open source et respectueux de la vie privée, comme Mycroft.

En conclusion,

Les assistants vocaux comme Alexa et Google Home offrent une grande commodité, mais il est important d’être conscient des risques potentiels pour la vie privée. En prenant quelques précautions simples, vous pouvez minimiser ces risques et utiliser ces appareils en toute confiance.

N’oubliez pas que vous avez le contrôle de vos données. Vous pouvez choisir de limiter l’utilisation des assistants vocaux, de désactiver l’historique vocal et de modifier les paramètres de confidentialité pour protéger votre vie privée. La technologie est un outil, et comme tout outil, elle peut être utilisée à bon ou à mauvais escient. C’est à nous de l’utiliser de manière responsable et de nous assurer qu’elle serve nos intérêts plutôt que de les compromettre.