Il est facile de créer des fausses images et vidéos avec l’intelligence artificielle (IA). Ces deepfakes deviennent de plus en plus convaincants et difficiles à différencier de la réalité. Il est de plus en plus fréquent de se demander si on peut en croire nos yeux. Continuez votre lecture pour découvrir comment fonctionnent les deepfakes, à quoi ils sont employés et comment les identifier. Découvrez également comment Avira Free Security renforce votre cybersécurité.
Qu’est-ce qu’un deepfake ?
Deepfake est un mot valise des termes anglais « deep learning » (apprentissage profond) et « fake » (faux). Ce terme désigne des contenus multimédias, comme des photos, des vidéos ou de l’audio, qui sont créés et manipulés à l’aide du Machine Learning, qui est un type d’intelligence artificielle. Cela permet la création de contenus multimédias qui semblent plus vrais que nature et trompent les utilisateurs sur Internet.
Quelle est la différence avec Photoshop ou le face swap ?
Il existe beaucoup d’images fausses et manipulées sur Internet, même si la plupart ne représentent aucun danger. Par exemple, vous pouvez utiliser des programmes comme Photoshop pour changer l’arrière-plan de votre image ou retoucher votre apparence. D’autres applications vous permettent de créer des effets amusants, par exemple en échangeant votre visage avec celui d’une autre personne ou en vous faisant vieillir de quelques années.
Les images et les vidéos sont souvent manipulées pour divertir de manière inoffensive. Il est facile de voir qu’elles sont fausses. Les deepfakes générés par l’IA sont parfois tellement convaincants qu’il est impossible pour la plupart des personnes de dire qu’ils sont faux ou non. Cela peut causer des risques de cybersécurité et impacter la réputation.
Comment les deepfakes fonctionnent-ils ?
Le Machine Learning implique de donner à un algorithme des informations sur une personne comme des images, des expressions faciales ou une voix. À partir de ces informations, l’IA peut apprendre à produire de nouvelles versions qui ressemblent aux exemples d’apprentissage et créer des images ou vidéos qui sont très similaires à une véritable personne.
Vous pourrez trouver entre autres des vidéos qui circulent sur YouTube, Google et d’autres plateformes de figures politiques et autres personnalités célèbres qui peuvent dire des choses qu’ils n’ont en réalité jamais déclarées. Une vidéo de deepfake qui a énormément circulé est celle de Barack Obama qui critique son successeur Donald Trump.
Quelle technologie est nécessaire pour cela ?
La création de deepfakes nécessite un type particulier d’IA qui est connu pour utiliser des couches cachées qui convertissent des signaux entrants en signaux sortants. Plusieurs algorithmes que l’on appelle réseaux neuronaux peuvent effectuer cette tâche. Ils sont conçus pour apprendre et imiter des informations comme le cerveau humain. Cela signifie qu’ils sont capables de transformer des images réelles en fausses images réalistes.
Des deepfakes complexes et à l’apparence réelles comprennent souvent deux algorithmes. Alors que l’un est utilisé pour créer des fausses images qui sont le plus convaincantes possibles, le second détecte les images modifiées. Les deux réutilisent des actions pour apprendre en continu jusqu’à ce qu’un modèle d’IA soit créé pour produire de façon intelligente de fausses images où les visages sont échangés. Souvent, les deepfakes sont si convaincants que les personnes ne peuvent pas du tout savoir qu’ils sont faux.
À quoi servent les deepfakes ?
La plupart des exemples de deepfakes sont de nature pornographique ; les visages de personnes célèbres sont superposés à ceux de stars de la pornographie. Mais même en dehors du monde des célébrités, les femmes sont particulièrement victimes de ces deepfakes pornographiques. Le revenge ou fake porn (pornographie de vengeance ou contrefaite) consiste à publier des images ou vidéos compromettantes et fausses d’une personne pour affecter sa réputation. Il est utilisé pour de la sextortion (qui consiste à faire du chantage à une personne avec du contenu explicite) ou pour harceler quelqu’un en ligne.
En plus du contenu pornographique, les deepfakes sont également utilisés pour diffuser de fausses informations en modifiant les discours de personnalités politiques ou personnes influentes. Cela entraîne le risque que de nombreuses personnes croient ces fausses informations et que leur comportement soit influencé. Les deepfakes peuvent également être utilisés pour le détournement de compte ou l’usurpation d’identité. Cela est dû au fait que les cybercriminels peuvent voler vos données biométriques, comme votre Face ID, et utiliser l’IA pour accéder à vos comptes utilisateur et bancaires.
Conseil : Si vous avez été victime d’une usurpation d’identité, Avira Identity Assistant (actuellement disponible uniquement en Allemagne) peut vous aider à restaurer votre identité.
Les deepfakes sont-ils dangereux ?
En raison de l’évolution rapide de la technologie, les deepfakes deviennent de plus en plus convaincants. En plus du risque de tentative de chantage ou d’usurpation d’identité, les cybercriminels peuvent utiliser de faux médias pour escroquer des personnes. Cela comprend la création de vidéos personnalisées qui montrent un proche de la victime prétendant d’être en danger et ayant besoin d’argent rapidement. Les pirates informatiques exploitent des victimes naïves à l’aide de deepfakes.
Cependant, la cybermenace de faux contenus est importante. Les deepfakes peuvent se répandre rapidement sur Internet et toucher une audience importante. Les fausses vidéos de déclarations de personnages publics ou de politiques peuvent influencer l’opinion publique et même encourager des actes de violence.
Comment savoir si un contenu est faux ?
L’IA est constamment en train d’évoluer, et il est de plus en plus difficile de démêler le vrai du faux. Cela rend la découverte de deepfake difficile. Mais si vous faites attention, vous pouvez repérer des signes courants de manipulation :
- Visage : si le visage et les expressions faciales ne paraissent pas naturels, cela peut indiquer que la vidéo est fausse. Normalement, nous clignons des yeux entre 10 et 15 fois par minute. Si la personne dans la vidéo ne cligne pas des yeux ou de façon étrange, c’est un autre signe de deepfake.
- Cheveux : la zone de transition entre les cheveux et le visage est souvent floue dans les fausses vidéos. Tout comme la zone de transition entre le visage et le cou. Si ces zones sont plus floues que le reste du visage, méfiez-vous. Un autre indice est le changement de la couleur de peau entre différents moments de la vidéo.
- Mains : faites attention aux mains. Les personnes dans les images générées par l’IA ont souvent six ou sept doigts. Cela s’applique aux orteils également. Si la personne n’est pas connue pour présenter cette particularité, il s’agit certainement d’une fausse image ou vidéo.
- Voix : la voix dans la vidéo ou le clip sonne-t-elle très monotone ou non naturelle ? Vous regardez certainement un deepfake. Si vous entendez également des bruits non naturels, il s’agit d’un signe que le contenu a pu être manipulé.
- Qualité de l’image : faites attention à la qualité de l’image. Si la qualité de l’image est différente dans certaines zones de la photo ou de la vidéo, cela indique qu’elle est fausse. Un autre indicateur est également le changement de luminosité d’une image à l’autre. Dans les deux cas, soyez sur vos gardes.
Les deepfakes sont-ils illégaux ?
Il n’est pas illégal de créer des deepfakes, en particulier de vous-même. Mais si vous créez des deepfakes de quelqu’un d’autre, cela peut avoir des conséquences légales. Vous pourriez ne pas respecter le droit à l’image d’une personne, ses droits généraux de la personnalité et ses droits d’auteur. Un deepfake peut constituer une offense ou de la diffamation.
Les images ou vidéos explicites créées à l’aide de l’IA peuvent être interprétées comme des violences sexuelles basées sur l’image si la personne concernée n’a pas consenti à la création des deepfakes. Ceci viole le droit à l’autodétermination sexuelle et les droits de la personnalité. Si les hiérarchies de pouvoir entre hommes et femmes sont représentées, la violence sexuelle basée sur l’image peut également violer le droit à la non-discrimination. Toutes ces infractions peuvent faire l’objet de poursuites pénales.
À ce propos : en Europe, la Commission européenne a proposé un cadre juridique visant à réglementer plus strictement l’utilisation de l’IA. Les contenus médiatiques créés à l’aide de la technologie deepfake seront à l’avenir étiquetés comme tels.
Que peuvent faire les victimes de manipulation de données ?
Si des deepfakes de vous apparaissent, vous devriez les signaler sur les plateformes sur lesquelles ils sont publiés. Les opérateurs de réseaux sociaux sont obligés de vérifier et supprimer le contenu illégal. Si vous connaissez une personne qui publie du contenu manipulé sur votre personne, vous pouvez la poursuivre en justice et demander des dommages. Même si vous ne savez pas qui est l’auteur de la publication, vous devez le signaler à la police.
Comment naviguer de façon plus sécurisée avec notre solution antivirus
Les cybercriminels peuvent utiliser les deepfakes pour obtenir un accès à vos appareils et comptes d’utilisateur, par exemple en reproduisant votre Face ID. Les pirates informatiques utilisent souvent d’autres techniques d’ingénierie sociale, comme le phishing ou le pharming, pour accéder aux comptes de leurs victimes. Avec notre solution antivirus, vous pouvez vous protéger en ligne contre les cybermenaces et mieux sécuriser vos activités.
Avira Free Security comprend une protection contre les virus et autres malwares en temps réel, grâce à une détection basée sur le cloud toujours au fait des dernières menaces. L’outil propose également un gestionnaire de mots de passe pour générer un mot de passe unique pour chacun de vos comptes. Cela signifie que lorsqu’un compte est piraté avec un deepfake, les cybercriminels ne peuvent pas accéder aux autres comptes. De plus, il vous permet de naviguer de manière anonyme grâce à son VPN intégré.