Le « deepfake » selon Samsung

cover

Le « deepfake » selon Samsung

@LesSmartAddicts sont partis enquêter sur le phénomène grossissant du « deepfake » sur internet. Petit point sur la situation et sur la nouvelle IA de Samsung.

Qu’est-ce que le « deepfake » exactement ?

Le terme deepfake n’a pas de définition officielle, tant le phénomène est récent. On peut néanmoins dire que le deepfake est la contraction de « deep-learning » et de « fake », le deep-learning étant la capacité d’éducation d’une intelligence artificielle et fake voulant tout simplement dire faux, truqué.

En bref, le deepfake c’est le trucage par l’intelligence artificielle de synthèse d’images. Les premières utilisations récurrentes du deepfake ont vu le jour sur des sites pornographiques soit pour des canulars (revenge porn), soit pour générer du clic (en accolant des visages de célébrités sur celui des pornstars par exemple). Son utilisation la plus banalisée aujourd’hui sur le web est la création d’infox, généralement par la modification des visages.

Pourquoi parle-t-on de Samsung ?

Parce qu’alors que la création de deepfake nécessite habituellement un nombre important de photos pour pouvoir animer un visage, le géant sud-coréen a développé une IA capable d’animer un portrait à partir d’une seule photo. Et alors ? direz-vous.

Et alors figurez-vous le pire scénario et vous comprendrez la portée d’une telle IA. Un matin, vous êtes arrêté, puis traîné en tribunal pour un crime que vous n’avez pas commis. Problème : une vidéo dans laquelle vous êtes identifiable vous accable et pour peu que vous ne puissiez prouver que ce n’est pas vous sur la vidéo, vous finirez vos jours derrière les barreaux. Tout ça parce qu’un petit malin a trouvé une photo de vous sur Facebook…

Doit-on se méfier du phénomène ?

Alors bien-sûr, l’idée que vous puissiez finir au tribunal est un cas extrême, et pour le moment l’IA développée par Samsung sert surtout à amuser les touristes qui passent devant la Joconde (cf. vidéo ci-dessous). Or, à terme, la maîtrise d’un tel outil par des pirates informatiques ou autres malintentionnés pourrait devenir un vrai imbroglio pour les particuliers ou pour le système judiciaire. Si les professionnels sont conscients du danger d’un tel phénomène lorsqu’il n’est pas vérifié, tout le monde n’a pas l’esprit critique affûté (il suffit de constater les chiffres grandissants qui entourent le complotisme). 

Heureusement, le phénomène n’est pas resté inaperçu et les autorités sont pleinement conscientes qu’une preuve vidéo ne constituera pas un élément à charge tant qu’il n’aura pas été minutieusement authentifié. Mais alors que les techniques de falsification deviennent de plus en plus précise, la question se pose de faire disparaitre la notion de « preuve par l’image »…



Retrouvez nous sur Instagram !

Suivez le mouton.

@LesSmartAddicts vous informent
chaque semaine sur le meilleur de l’actualité mobile.

Vous êtes abonné à la newsletter !