Vietnam.vn - Nền tảng quảng bá Việt Nam

Độc lập - Tự do - Hạnh phúc

Comment identifier et éviter la fraude grâce aux vidéos deepfake

Báo Quốc TếBáo Quốc Tế08/07/2023

Les cas de fraude et d'escroquerie en ligne se faisant passer pour des policiers, des banques, des membres de la famille... en utilisant la technologie Deepfake pour s'approprier des biens se multiplient.

Deepfake est une technologie d'intelligence artificielle permettant de créer de fausses vidéos , images et sons avec un haut degré d'authenticité. Il est donc essentiel de comprendre les informations nécessaires pour reconnaître les vidéos Deepfake afin d'éviter les arnaques et d'identifier les fausses informations.

Vérifiez les mouvements du visage

L'un des signes les plus évidents d'une fausse vidéo est le mouvement anormal des yeux et l'absence de clignement des yeux. Les deepfakes présentent encore de nombreuses limites : la technologie ne peut pas simuler entièrement le clignement des yeux humain ni reproduire fidèlement les mouvements oculaires.

Kiểm tra chuyển động trên khuôn mặt để nhận biết video Deepfake giả mạo.
Vérifiez les mouvements du visage pour détecter les fausses vidéos Deepfake.

De plus, vous pouvez également reconnaître les fausses vidéos Deepfake grâce à des émotions faciales qui ne correspondent pas au contenu, à la couleur de la peau, aux cheveux et aux dents qui ne sont pas les mêmes que dans la réalité, ou à des lumières étranges apparaissant en raison de l'utilisation de l'intelligence artificielle pour recréer.

Qualité sonore

Vous pouvez reconnaître les fausses vidéos créées par Deepfake grâce au son, car cette technologie se concentre davantage sur la reproduction d'images et de vidéos. Soyez attentif aux mouvements de la bouche lorsque la personne parle pour vérifier si le son correspond à l'image.

Kiểm tra chất lượng âm thanh.
Vérifiez la qualité du son.

Posture de l'appelant

Actuellement, la technologie Deepfake ne peut reproduire parfaitement les postures humaines. Il arrive que l'interlocuteur apparaisse dans la vidéo dans des postures « étranges », peu humaines. Par exemple, les postures inconfortables et l'orientation de la tête et du corps dans la vidéo sont incohérentes.

Avec le développement croissant de l'intelligence artificielle, il est facile de créer une vidéo deepfake pour usurper l'identité d'autrui et escroquer, car cette pratique exploite la peur et l'ignorance des utilisateurs. Il est donc essentiel de se doter de connaissances de base pour les éviter et de se méfier des appels, messages et e-mails suspects. Si vous détectez des signes de fraude, contactez directement les autorités pour vérifier les informations et signalez-les au commissariat le plus proche.



Source

Comment (0)

Simple Empty
No data

Même sujet

Même catégorie

Plus de 30 avions militaires se produisent pour la première fois sur la place Ba Dinh
A80 - Raviver une fière tradition
Le secret des trompettes de près de 20 kg de la fanfare militaire féminine
Aperçu rapide de la façon d'accéder à l'exposition du 80e anniversaire du voyage de l'indépendance - Liberté - Bonheur

Même auteur

Patrimoine

Chiffre

Entreprise

No videos available

Nouvelles

Système politique

Locale

Produit