Augmenter la taille du texte
Diminuer la taille du texte
Partager

Assistants vocaux : Le manque de transparence révèle leur potentiel invasif




Assistants vocaux : Le manque de transparence révèle leur potentiel invasif
Alexa, Siri, Google et d'autres assistants vocaux numériques accompagnent un tiers des Américains dans leur vie quotidienne, mais les inquiétudes montent à l'idée que ces robots-secrétaires n'anéantissent les derniers remparts de la vie privée.
Plusieurs enquêtes ont révélé ces derniers mois dans la presse que les échanges avec les assistants vocaux sont parfois écoutés par des humains, à l'insu des utilisateurs, dans le but de perfectionner les machines.
"Les gens s'imaginent que les assistants vocaux numériques vont s'améliorer par magie, en faisant de l'apprentissage automatisé tous seuls", commente Carolina Milanesi, analyste chez Creative Strategies. "Nous n'en sommes qu'au début de l'intelligence artificielle, l'intervention humaine reste très importante".
"Mais il faut une transparence absolue pour les utilisateurs, et ils doivent pouvoir choisir de participer à cet apprentissage de la machine ou pas", ajoute-t-elle.
Très critiqués à la suite de la découverte de ces écoutes, les grands groupes concernés ont dû réagir.
 En mai dernier, Amazon a annoncé l'ajout de fonctionnalités pour demander à Alexa d'effacer ses enregistrements ou aveugler la caméra.
Google a suspendu les écoutes dans toute l'Union européenne pour trois mois, suite à une demande d'une autorité allemande de protection des données.
Cette semaine, Apple a aussi interrompu temporairement l'analyse par des employés ou des sous-traitants de conversations enregistrées par son assistant vocal Siri, le temps de "passer en revue" son dispositif.
"En outre, lors de la prochaine mise à jour du logiciel, les utilisateurs auront la possibilité de choisir de participer (à ce processus)", a indiqué la firme à la pomme.
L'information des consommateurs sur leurs données personnelles constitue le coeur du problème posé par ces écoutes aléatoires, surtout pour un groupe comme Apple, qui a fait du respect de la vie privée son argument de différentiation vis-à-vis des autres "GAFA" (Google, Apple, Facebook, Amazon).
Les utilisateurs doivent savoir qu'ils peuvent être écoutés, dans quelles circonstances, par qui et quelles informations supplémentaires sont transmises (notamment celles de nature à identifier la personne écoutée), liste Carolina Milanesi.
"Si ce sont des employés qui écoutent, la confiance remonte, mais si ce sont des sous-traitants, on veut savoir quels sont leurs standards, et comment les données sont stockées", précise-t-elle.
Près de 112 millions d'Américains, soit un tiers de la population du pays, utiliseront un assistant vocal au moins une fois par mois en 2019, d'après eMarketer. La France comptait 1,7 million d'adeptes fin 2018 (Médiamétrie).
Les utilisateurs s'adressent à ces voix robotiques pour faire des recherches, des courses ou écouter de la musique via des enceintes dites "intelligentes", mais aussi toute une galaxie d'objets connectés, des smartphones aux voitures.
Alexa (Amazon) et Google captent plus de 60% du marché mondial, selon le cabinet d'études Canalys, devant Siri, Bixby (Samsung) ou encore Cortana (Microsoft).
"C'est une technologie fascinante, qui a le pouvoir d'améliorer la vie des gens (...), mais les entreprises ne répondent pas bien aux inquiétudes légitimes que cela suscite aussi", constate Florian Schaub, professeur à l'université du Michigan et spécialiste des interactions hommes-machines.
Plus de 40% des propriétaires d'enceintes connectées s'inquiètent pour le respect de leur vie privée et autant se font du souci pour la sécurité de leurs données, d'après une étude du cabinet Accenture.
 Certains utilisateurs ont même le sentiment d'être écoutés en permanence, alors que les appareils n'enregistrent rien et ne transmettent pas d'informations à moins d'être mis en route par une formule du type "Hey, Siri" ou "Alexa".
 Mais le risque d'activation involontaire existe. Les dérapages potentiels, aussi.
 "Je m'inquiète à l'idée que ces assistants se déclenchent non seulement quand on leur parle, mais aussi quand ils entendent des bruits de verre brisé, un bébé qui pleure ou tout autre signal de détresse... Et comme nous serons peu à peu anesthésiés, nous ne nous rendrons compte de rien", avertit Ryan Calo, co-directeur du laboratoire de recherches en politique et technologie de l'université de Washington.

Jeudi 8 Août 2019

Lu 740 fois

Nouveau commentaire :

Votre avis nous intéresse. Cependant, Libé refusera de diffuser toute forme de message haineux, diffamatoire, calomnieux ou attentatoire à l'honneur et à la vie privée.
Seront immédiatement exclus de notre site, tous propos racistes ou xénophobes, menaces, injures ou autres incitations à la violence.
En toutes circonstances, nous vous recommandons respect et courtoisie. Merci.

Actualité | Monde | Société | Régions | Horizons | Economie | Culture | Sport | Ecume du jour | Entretien | Archives | Vidéo | Expresso | En toute Libé | L'info | People | Editorial | Post Scriptum | Billet | Rebonds | High-tech | Vu d'ici | Scalpel | Chronique littéraire | Billet | Portrait | Au jour le jour | Edito | Sur le vif











Mots Croisés

Maroc Casablanca www.my-meteo.com