Cet article date de plus de quatre ans.

Amazon Echo, Google Home, HomePod d'Apple : vous faites quoi de mes données personnelles ?

Article rédigé par
France Télévisions
Publié Mis à jour
Temps de lecture : 10 min.
Une enceinte connectée HomePod présentée dans une boutique Apple de San Francisco (Californie), le 9 février 2018. (JUSTIN SULLIVAN / GETTY IMAGES NORTH AMERICA / AFP)

Alors que la marque à la pomme vient de sortir en France son enceinte HomePod, franceinfo revient sur les enjeux soulevés par les assistants vocaux en matière de confidentialité.

Il espère bien se faire une place dans votre salon. Disponible en France depuis lundi 18 juin, le HomePod d'Apple marque l'entrée de la célèbre marque à la pomme sur le marché des enceintes connectées, jusqu'à présent dominé par le Home de Google et l'Echo d'Amazon.

Ces appareils n'obĂ©issent pas au doigt et Ă  l'Ĺ“il, mais Ă  la voix : vous prononcez une suite de mots prĂ©cise et ils sont censĂ©s rĂ©pondre Ă  vos moindres requĂŞtes. PrĂ©visions mĂ©tĂ©o, questions de culture gĂ©nĂ©rale, recherche de recettes de cuisine… Sur le papier, les possibilitĂ©s sont immenses. Mais est-on sĂ»rs que ces appareils destinĂ©s Ă  envahir les foyers ne nous Ă©coutent pas Ă  votre insu ? Et sait-on vraiment ce qu'ils font des donnĂ©es qui leur sont envoyĂ©es ? Franceinfo rĂ©pond Ă  ces questions. 

1"OK Google" / "Dis, Siri" / "Alexa" : écoutes-tu les conversations que j'ai avec mes proches ?

Normalement, non. Sur le papier, le principe de ces enceintes connectĂ©es est simple. Il faut prononcer une phrase bien prĂ©cise pour les activer : "OK Google" pour Google Home, "Alexa" pour Amazon Echo et "Dis, Siri" pour le HomePod d’Apple. Une fois la formule dĂ©clamĂ©e, un petit voyant s'Ă©claire pour indiquer que l'enceinte est bien Ă  l'Ă©coute de votre requĂŞte. Seul hic : "Pour pouvoir dĂ©tecter les mots-clĂ©s, il faut que les micros soient en veille en permanence", rappelle Geoffrey Delcroix, membre du Laboratoire d'innovation numĂ©rique de la Cnil, Ă  franceinfo. Normalement, quand il n'y a pas de faille, pas de bug, pas d'attaque, il ne transmet rien en dehors de l'appareil." 

Mais des bugs, il y en a dĂ©jĂ  eu. Aux États-Unis, l'assistant vocal Alexa d'Amazon a enregistrĂ© Ă  son insu la conversation d'un couple et l'a envoyĂ©e Ă  l'un de ses contacts… La raison ? Une sĂ©rie improbable de commandes vocales mal comprises par l'enceinte qui aurait abouti Ă  l'envoi par e-mail de la conversation Ă  une tierce personne, selon Amazon. Une autre faille a aussi Ă©tĂ© dĂ©tectĂ©e dans la version "mini" du Google Home, indiquent Les NumĂ©riques. Le micro enregistrait intempestivement l'utilisateur, sans qu'il lui demande. Les leds de l'appareil, indiquant un enregistrement en cours, s'allumaient sans le moindre ordre physique ou oral. Google a reconnu que ce bug affectait certains appareils et a rapidement dĂ©ployĂ© une mise Ă  jour pour Ă©liminer cette faille.

En France, la Cnil a effectuĂ© quelques tests pour vĂ©rifier que les enceintes fonctionnaient bien comme l'annonçaient leurs constructeurs. Verdict : les connexions rĂ©seaux semblent indiquer que les donnĂ©es sont bien transmises uniquement quand les mots-clĂ©s sont dĂ©tectĂ©s. 

2Tu ne te servirais pas de ce que je te dis pour faire de l'argent ?

Soyons clairs : certaines donnĂ©es peuvent ĂŞtre utilisĂ©es pour alimenter le modèle Ă©conomique des gĂ©ants du web. Concrètement, comment ça se passe ? Une fois les mots magiques prononcĂ©s, l'enceinte connectĂ©e enregistre la requĂŞte de l'utilisateur. La phrase est alors transmise aux serveurs de l'entreprise pour analyse. "Le traitement ne se fait pas localement dans la machine", explique Geoffrey Delcroix. Au passage, les informations rĂ©cupĂ©rĂ©es peuvent donc ĂŞtre utilisĂ©es Ă  des fins commerciales.

Chez Google, cela fonctionne comme lorsque vous utilisez le fameux moteur de recherche ou que vous regardez une vidĂ©o sur YouTube. "On ne vend pas de donnĂ©es aux entreprises", rappelle le gĂ©ant du web. Les informations rĂ©coltĂ©es avec Google Home permettent d'alimenter et de prĂ©ciser votre profil avec vos habitudes. Google peut ensuite l'utiliser pour proposer des publicitĂ©s ciblĂ©es aux annonceurs. D'ailleurs, si Google Home ne dĂ©clame pas encore de pub, cette possibilitĂ© n'est pas complètement Ă©cartĂ©e par l'entreprise. Du cĂ´tĂ© d'Amazon, les enceintes permettent aussi d'accroĂ®tre le nombre de ventes sur la plateforme. Un bon moyen de conquĂ©rir de nouveaux marchĂ©s et de fidĂ©liser des clients.

Bref, il ne faut pas se leurrer : "Quand on voit les prix pratiquĂ©s chez Amazon et Google, les promotions agressives, on imagine bien que le modèle Ă©conomique n'est pas seulement de gagner de l'argent en vendant un produit connectĂ©", explique Geoffrey Delcroix. Certains assistants vocaux sont dĂ©sormais vendus autour de 50 euros, quand ils ne sont pas carrĂ©ment offerts pour l'achat d'autres produits. On n'est pas loin du fameux dicton : "Si c'est gratuit (ou pas cher), c'est que vous ĂŞtes le produit".

Pour Apple, le modèle semble un peu diffĂ©rent. Avec son HomePod Ă  350 euros, le constructeur propose un produit supplĂ©mentaire pour complĂ©ter son offre et Ă©viter que ses clients ne sortent de son Ă©cosystème. Ainsi, HomePod est conçu pour ĂŞtre pilotĂ© par un autre produit Apple (et pas un smartphone Android, par exemple).

Les enceintes connectées Google Home (à gauche) et Amazon Echo (au centre), présentées lors d'un salon, le 1er septembre 2017 à Berlin (Allemagne). (MAXPPP)

3Combien de temps conserves-tu mes donnĂ©es personnelles ?

Difficile Ă  savoir : les conditions d'utilisation des diffĂ©rents appareils consultĂ©s par franceinfo sont assez obscures sur cette question. En rĂ©alisant cet article, l'un de nos journalistes a ainsi eu la surprise de dĂ©couvrir que l'ensemble des requĂŞtes effectuĂ©es auprès de l'assistant vocal de Google depuis son tĂ©lĂ©phone avaient Ă©tĂ© mĂ©ticuleusement conservĂ©es depuis fĂ©vrier 2015. "Le Règlement gĂ©nĂ©ral sur la protection des donnĂ©es (RGPD) a accentuĂ© les obligations de transparence dans ce domaine depuis le 25 mai, mais il est vrai que nous constatons que l'information sur la conservation des donnĂ©es personnelles utilisĂ©es par ce type d'appareils n'est pas très facile Ă  trouver", explique Ă  franceinfo Geoffrey Delcroix. L'expert juge que les diffĂ©rents acteurs du marchĂ© ont encore "une marge de progression" dans ce domaine.

"Il est Ă  craindre que rien ne soit jamais supprimĂ©, ajoute Simon Descarpentries, membre de la Quadrature du net. MatĂ©riellement, le stockage des donnĂ©es numĂ©riques ne coĂ»te pas cher et il est possible de conserver des copies exactes des donnĂ©es collectĂ©es pour l'Ă©ternitĂ© numĂ©rique". Les enceintes produites par Google et Amazon disposent toutefois d'un historique des donnĂ©es vocales envoyĂ©es sur leurs serveurs et vous permettent de les supprimer une Ă  une, ou sur une pĂ©riode donnĂ©e.

Pour Amazon Echo (ou tout autre assistant vocal distribuĂ© par Amazon) : direction l'application Alexa, installĂ©e sur votre tĂ©lĂ©phone. Cliquez sur "paramètres", puis "historique". Vous pourrez visualiser l'intĂ©gralitĂ© des requĂŞtes vocales qui ont Ă©tĂ© transmises aux serveurs d'Amazon depuis votre appareil, et les supprimer une Ă  une. Pour un nettoyage plus massif, direction cette page. Cliquez sur "vos appareils", sĂ©lectionnez le nom de votre enceinte connectĂ©e, puis cliquez sur "gĂ©rer les enregistrements vocaux". Une fenĂŞtre vous permettant de supprimer l'intĂ©gralitĂ© de vos requĂŞtes vocales devrait apparaĂ®tre.

Pour Google Home (ou tout autre appareil utilisant l'assistant vocal de Google) : rendez-vous sur la rubrique "mon activitĂ©" de Google, qui permet d'obtenir un aperçu gĂ©nĂ©ral des donnĂ©es confiĂ©es au gĂ©ant de la recherche en ligne, puis cliquez sur l'icĂ´ne reprĂ©sentant trois points alignĂ©s verticalement, puis sur "supprimer des activitĂ©s". Vous pourrez ensuite supprimer Ă  la volĂ©e toutes les donnĂ©es vocales enregistrĂ©es durant une pĂ©riode donnĂ©e (le jour mĂŞme, la veille, les sept derniers jours, depuis le dĂ©but de l'utilisation…). Dans la liste des produits proposĂ©s, sĂ©lectionnez "assistant", validez, et le tour est jouĂ© !

Apple ne propose pas de fonction similaire dans les paramètres de son enceinte connectée. Cela s'explique par la politique choisie par l'entreprise en matière de protection des données, indique le site Cnet (article en anglais). Les requêtes envoyées par HomePod aux serveurs d'Apple seraient ainsi "cryptées et anonymisées" lors de leur traitement. De telle sorte que "même l'entreprise n'est pas en mesure de les consulter" de son côté, précise Cnet.

4Envoies-tu ce que je te dis Ă  des humains pour devenir plus intelligente ?

Toutes les enceintes connectées du marché utilisent des technologies d'apprentissage automatique, pour faire en sorte que les serveurs auxquels elles sont reliées comprennent les instructions communiquées grâce au son de votre voix, et puissent y répondre. Mais ces systèmes d'intelligence artificielle ne sont pas infaillibles et ont besoin que leurs erreurs (déclenchement intempestif du micro, mauvaise compréhension d'un mot...) soient signalées pour qu'elles ne se répètent pas par la suite.

Mi-mai, l'association de défense des droits des citoyens sur internet La Quadrature du net a publié sur son site le témoignage de Julie. Cette jeune femme était chargée de corriger les erreurs de transcription de Cortana, l'assistant vocal de Microsoft, à partir d'enregistrements d'utilisateurs qui n'étaient visiblement pas au courant que leurs conversations pouvaient être écoutées par des tiers.

On écoutait l'enregistrement audio, ensuite un texte s'affichait, nous montrant ce que Cortana avait compris et retranscrit. Notre travail était de vérifier si elle avait bien compris – si ce n'était pas le cas, on devait corriger le texte.

Julie, "transcripteuse" pour l'assistant vocal Cortana

Ă  La Quadrature du net

Julie dit avoir entendu des conversations privĂ©es et des Ă©lĂ©ments sensibles, comme des numĂ©ros de SĂ©curitĂ© sociale. Microsoft ne distribue pas d'enceinte Ă©quipĂ©e du système Cortana. Mais celles d'autres marques disponibles sur le marchĂ© ont-elles recours au mĂŞme type d'intervention humaine sans que l'utilisateur en soit averti ? ContactĂ©, Google assure que non. L'entreprise explique qu'il est possible d'utiliser son Google Home pour faire remonter une erreur Ă  ses Ă©quipes via un message vocal (de type "OK Google : envoyer un commentaire Ă  Google"), et que seuls ces enregistrements envoyĂ©s en toute connaissance de cause peuvent ĂŞtre Ă©coutĂ©s par ses ingĂ©nieurs. De leur cĂ´tĂ©, Amazon et Apple n'ont pas rĂ©pondu aux questions de franceinfo Ă  ce sujet.

Selon Simon Descarpentries, membre de la Quadrature du net, "rien n'empĂŞche" que des humains puissent Ă©couter des requĂŞtes envoyĂ©es innocemment Ă  votre enceinte connectĂ©e de salon. "Dans la mesure oĂą ces appareils fonctionnent avec des logiciels tenus secrets, il est difficile de s'assurer de ce qu'ils font. S'ils Ă©taient couverts par des licences autorisant leur Ă©tude et fournis avec leur code source, alors il serait possible de se faire un avis", ajoute-t-il. De son cĂ´tĂ©, Microsoft a annoncĂ© dĂ©but mai que son assistant vocal Cortana pourrait ĂŞtre intĂ©grĂ© au sein du système Alexa d'Amazon. Pas forcĂ©ment rassurant, lorsqu'on pense Ă  l'expĂ©rience de Julie.

5Est-ce que je peux Ă©teindre ton micro ?

Surprise : il n’existe pas de bouton "marche/arrĂŞt" sur ces enceintes. Une fois branchĂ©es et connectĂ©es, elles fonctionnent. Il est toutefois possible de dĂ©sactiver cette oreille indiscrète qui reste en veille dans votre salon. La Google Home arbore d'ailleurs un seul bouton physique sur sa coque blanche immaculĂ©e : celui pour couper le micro. MĂŞme chose du cĂ´tĂ© d’Amazon Echo : l'un des quatre boutons situĂ©s sur le haut de l'appareil permet d'Ă©teindre le micro. Le cercle lumineux passe alors au rouge. CĂ´tĂ© Apple, le design semble avoir pris le dessus : aucun bouton physique n'est apparent sur le HomePod. Il est pourtant possible de couper les six microphones de l'enceinte en dĂ©sactivant l'option depuis un iPhone ou en lui demandant… Ă  l'oral : "Dis, Siri, arrĂŞte d'Ă©couter"

Sur le papier, donc, l'utilisateur n'est pas obligĂ© de dĂ©brancher son enceinte pour s'acheter de l'intimitĂ©. Mais le risque zĂ©ro n'existe pas. La Cnil prĂ©conise mĂŞme quelques mesures aux utilisateurs : dĂ©brancher les appareils en prĂ©sence d'enfants ou de personnes invitĂ©es, vĂ©rifier les rĂ©glages dans les paramètres de votre compte et ne pas connecter les enceintes Ă  de trop nombreux services en ligne.

Il n'y a aucun moyen d'être complètement sûr que les enceintes n'enregistrent pas, à part en les débranchant

Geoffrey Delcroix, membre du Laboratoire d'innovation numérique de la Cnil

Ă  franceinfo

Quelques règles de bon sens utiles, d'autant que ces enceintes risquent sĂ»rement d'Ă©voluer. Dans un brevet dĂ©posĂ© en 2015, Google dĂ©crivait un système domestique connectĂ© qui pourrait identifier des Ă©motions Ă  travers "des signes audio comme des pleurs, des rires, ou des cris", et qui pourrait par exemple envoyer une notification lorsqu'un enfant seul chez lui se comporterait de manière inhabituelle. Avec un micro installĂ© dans son salon, on n'est jamais trop prudent.

Prolongez votre lecture autour de ce sujet

tout l'univers Sécurité sur internet

Commentaires

Connectez-vous Ă  votre compte franceinfo pour participer Ă  la conversation.