-
Réouverture de 1239 mosquées sur les 2217 endommagées par le séisme d'Al Haouz
-
France 2 braque les projecteurs sur "ces Français partis vivre leurs rêves" au Maroc
-
Accidents de la circulation : 29 morts et 2.962 blessés en périmètre urbain durant la semaine dernière
-
Restauration scolaire : Entre contraintes du "fait maison" et coût des cantines

Célébrités, personnalités d’Internet, dirigeants politiques, influenceurs... Nul n’est épargné par ces montages sophistiqués qui manipulent les visages, les voix, et parfois même les certitudes, mais derrière cette prouesse technologique se cachent de sérieux risques.
Ces vidéos, conçues via l’intelligence artificielle, peuvent faire dire n’importe quoi à n’importe qui, avec un résultat souvent bluffant: expressions faciales, intonation de la voix et mouvements des lèvres quasi-authentiques.
Phénomène encore récent mais en pleine expansion, les "deepfakes" bousculent le rapport à l’image et à la vérité, suscitant des inquiétudes quant à leur diffusion massive sur les réseaux sociaux.
Les "deepfakes" sont générés par l'IA via le "deep learning" destiné à produire un contenu qui tend à ressembler au réel et à paraître authentique, indique Marouane Harmach, expert dans les domaines de l'IA et des technologies émergentes.
Ces technologies peuvent reproduire les mouvements, les voix et les visages humains inexistants ou tout simplement manipuler des images de personnalités publiques, explique-t-il à la MAP.
Contrairement aux "deepfakes", les vidéos générées "de manière classique" par l'IA à l’aide de techniques de montage traditionnelles (retouches image par image, ajout de filtres, découpages, ou encore synchronisation d’un nouvel audio sur des images existantes) sont facilement détectables à l'œil nu ou avec des logiciels ou des outils de montage classique, fait-il observer.
Si certains arrivent à repérer les signes d’un "deepfake", beaucoup d’internautes, notamment les utilisateurs lambda, peinent encore à distinguer le vrai du faux. A ce titre, les jeunes eux-mêmes, très actifs sur TikTok, Instagram ou X, partagent des avis contrastés sur leur capacité à déceler ces manipulations.
Soufiane, 29 ans, un utilisateur de ces réseaux sociaux approché par la MAP, reste partagé. "Beaucoup de gens utilisent l’IA sur les réseaux sociaux juste pour faire des vidéos absurdes ou pour rigoler, mais ce serait tellement mieux si on s’en servait pour quelque chose d’utile, comme vulgariser l’Histoire ou la science, par exemple", suggère-t-il.
Quant à Amal, 26 ans, enseignante et doctorante, elle se montre particulièrement préoccupée par ces dérives. "Je me méfie de ce que je vois en ligne. Cela m’inquiète, tant qu’il devient ardu de distinguer le vrai du faux. En tant qu’enseignante, je constate que mes élèves croient ce qu’ils voient en ligne et c’est inquiétant !", confie-t-elle à la MAP.
Lorsqu’on évoque l’avenir des "deepfakes", les experts s’accordent à dire que ceux-ci ne feront que gagner en réalisme et complexité. M. Harmach estime que "ces outils vont devenir de plus en plus sophistiqués, donnant naissance à ce qu’on appelle 'les multimodaux' où il y a une réelle synchronisation entre le geste, la voix et les traits de la personne qui parle".
"Cette montée en réalisme de ces vidéos rend la manipulation plus crédible, avec des risques accrus pour la vie privée et l’émergence d’une ère post-vérité où la véracité d’une information importe moins que la manière dont elle touche le public", avertit-il.
Par Salma Belhajali (MAP)