Augmenter la taille du texte
Diminuer la taille du texte
Partager

Appel à réguler l'intelligence artificielle


Mercredi 18 Décembre 2019

L'intelligence artificielle "augmente les inégalités" dans le monde, et son déploiement devrait être soumis à une régulation stricte, notamment pour les technologies sensibles comme la reconnaissance faciale, d'après un rapport publié jeudi par des chercheurs.
Le AI Now Institute de l'université de New York (NYU) met en avant les premières conséquences négatives des technologies dites d'intelligence artificielle, de plus en plus présentes dans la vie quotidienne.
Des systèmes d'IA (collectes et analyses de données à grande échelle, automatisation des processus, apprentissage autonome des machines...) sont mis en place dans des secteurs comme la santé, l'éducation, le recrutement ou encore la justice "sans garde-fous ni structures de contrôles appropriés", estiment les chercheurs.
Ils s'inquiètent notamment de l'utilisation de l'IA dans des domaines allant "des ressources humaines aux services sociaux, de la surveillance au suivi des immigrants et des minorités". "Il apparaît de plus en plus clairement que dans divers domaines, l'IA amplifie les inégalités, place les informations et les moyens de contrôle dans les mains de ceux qui ont le pouvoir, démunissant du même coup ceux qui n'en ont déjà pas".
La reconnaissance faciale, déjà très répandue, et la reconnaissance émotionnelle par des machines, plus balbutiante, sont déployées beaucoup trop vite, selon cette étude.
Les gouvernements et entreprises devraient arrêter d'utiliser la reconnaissance faciale "dans des contextes sociaux et politiques sensibles", jusqu'à ce que les risques soient mieux compris, préconisent-ils.
L'identification des émotions par des machines devrait tout simplement être interdite, sachant les incertitudes sur cette technologie. "Elle ne devrait pas jouer un rôle dans les décisions importantes que prennent les humains, lors d'entretiens d'embauche, de consultations médicales, de rendez-vous avec un assureur ou de l'évaluation des élèves à l'école".
Les universitaires plaident en outre pour que les ingénieurs et développeurs soient mieux informés sur les implications et possibles conséquences des appareils et programmes qu'ils conçoivent.
Ils évoquent enfin le problème de la reproduction des préjugés par les technologies d'IA, qui peuvent renforcer le racisme ou le manque de diversité.
Si un algorithme de recrutement se fonde sur les données existantes, il risque de déduire, par exemple, que les infirmiers doivent être des infirmières, et les cadres techniques des hommes blancs de 40-50 ans.
Tout dépend donc de la façon dont ces algorithmes sont conçus, et par qui. "L'industrie de l'IA est terriblement homogène", déplore l'étude.


Lu 739 fois

Nouveau commentaire :

Votre avis nous intéresse. Cependant, Libé refusera de diffuser toute forme de message haineux, diffamatoire, calomnieux ou attentatoire à l'honneur et à la vie privée.
Seront immédiatement exclus de notre site, tous propos racistes ou xénophobes, menaces, injures ou autres incitations à la violence.
En toutes circonstances, nous vous recommandons respect et courtoisie. Merci.

Dossiers du weekend | Actualité | Spécial élections | Les cancres de la campagne | Libé + Eté | Spécial Eté | Rétrospective 2010 | Monde | Société | Régions | Horizons | Economie | Culture | Sport | Ecume du jour | Entretien | Archives | Vidéo | Expresso | En toute Libé | USFP | People | Editorial | Post Scriptum | Billet | Rebonds | Vu d'ici | Scalpel | Chronique littéraire | Billet | Portrait | Au jour le jour | Edito | Sur le vif | RETROSPECTIVE 2020 | RETROSPECTIVE ECO 2020 | RETROSPECTIVE USFP 2020 | RETROSPECTIVE SPORT 2020 | RETROSPECTIVE CULTURE 2020 | RETROSPECTIVE SOCIETE 2020 | RETROSPECTIVE MONDE 2020 | Videos USFP | Economie_Zoom | Economie_Automobile | TVLibe








L M M J V S D
1 2 3 4 5 6 7
8 9 10 11 12 13 14
15 16 17 18 19 20 21
22 23 24 25 26 27 28
29 30          





Flux RSS
p