Vietnam.vn - Nền tảng quảng bá Việt Nam

Độc lập - Tự do - Hạnh phúc

ผู้เชี่ยวชาญให้ 'เคล็ดลับ' ในการระบุการโทรปลอมแบบ Deepfake

Báo Đại Đoàn KếtBáo Đại Đoàn Kết04/03/2025


ล่าสุด กรมรักษาความปลอดภัยสารสนเทศ ได้ออกคำเตือนถึงเหตุการณ์ฉ้อโกง ทางวิดีโอ และรูปภาพด้วยเทคโนโลยีขั้นสูงที่เกิดขึ้นอย่างต่อเนื่อง

ด้วยเหตุนี้ สถานการณ์ของผู้ก่ออาชญากรรมทางไซเบอร์ที่ใช้ประโยชน์จากภาพและวิดีโอสาธารณะของบุคคลอื่น เพื่อตัดต่อ ตัดต่อ และข่มขู่แบล็กเมล์ด้วยวิดีโอปลอม จึงได้รับการเตือนจากทางการให้ประชาชนทราบเป็นวงกว้างแล้ว

ดีพเฟค-1-.jpg
ภาพประกอบ : ฮวง เชียน.

โดยใช้เทคโนโลยี Deepfake ที่สามารถจำลองเสียงและภาพของบุคคลได้อย่างแม่นยำ อาชญากรสามารถปลอมตัวเป็นผู้นำในการประชุมออนไลน์ หรือสร้างวิดีโอและการโทรเพื่อกระทำการฉ้อโกงทางการเงินได้

นอกจากนี้ การหลอกลวงเหล่านี้มักจะใช้ประโยชน์จากปัจจัยทางจิตวิทยา เช่น ความเร่งด่วน ความกลัว หรืออำนาจ ทำให้เหยื่อดำเนินการอย่างเร่งรีบโดยไม่ตรวจสอบความถูกต้องอย่างรอบคอบ

Deepfakes ไม่ได้จำกัดอยู่แค่การหลอกลวงทางการเงินและการลงทุนเท่านั้น อีกตัวอย่างหนึ่งคือ Romance Scam ซึ่งใช้ Deepfakes เพื่อสร้างตัวละครสมมติที่โต้ตอบกับเหยื่อผ่านวิดีโอคอล หลังจากได้รับความไว้วางใจจากเหยื่อแล้ว ผู้หลอกลวงจะขอโอนเงินเพื่อแก้ปัญหาฉุกเฉิน ค่าเดินทาง หรือเงินกู้

จากสถานการณ์ดังกล่าว กรมรักษาความปลอดภัยข้อมูลจึงแนะนำให้ประชาชนระวังคำแนะนำการลงทุนจากผู้มีชื่อเสียงบนโซเชียลเน็ตเวิร์ก ระวังข้อความ อีเมล หรือการโทรที่ไม่ระบุตัวตน และสังเกตการแสดงออกทางสีหน้าที่ไม่เป็นธรรมชาติในวิดีโออย่างระมัดระวัง

นอกจากนี้ ผู้คนยังต้องจำกัดการโพสต์เนื้อหาที่เกี่ยวข้องกับข้อมูลส่วนบุคคลบนเครือข่ายโซเชียล เพื่อหลีกเลี่ยงการถูกขโมยข้อมูล เช่น รูปภาพ วิดีโอ หรือเสียงโดยผู้ไม่หวังดี ขณะเดียวกัน ควรตั้งค่าบัญชีเป็นโหมดส่วนตัวเพื่อปกป้องข้อมูลส่วนบุคคล

โง มินห์ เฮียว ผู้เชี่ยวชาญด้านความปลอดภัยไซเบอร์และผู้ร่วมก่อตั้งโครงการป้องกันการฉ้อโกงไซเบอร์เวียดนาม (Chongluadao.vn) ให้สัมภาษณ์กับผู้สื่อข่าวหนังสือพิมพ์ได่ ด๋าน เก็ท ว่า การใช้เทคโนโลยีดีปเฟคใน AI เพื่อปลอมวิดีโอคอลเพื่อวัตถุประสงค์ในการฉ้อโกงยังคงมีความซับซ้อน บุคคลเหล่านี้ใช้ประโยชน์จากเทคโนโลยีนี้เพื่อเพิ่มความน่าเชื่อถือให้กับ "เหยื่อ" ของพวกเขา

โดยเฉพาะอย่างยิ่ง ผู้ถูกโจมตีจะโทรวิดีโอหาเหยื่อจากรูปภาพและวิดีโอที่ "ถูกขโมย" มาก่อน และประมวลผลทางเทคนิค บิดเบือนเสียง หรือสร้างปัญหาภาพปลอมเพื่อให้เหยื่อไว้วางใจ

โดยปกติแล้ว การโทรเหล่านี้มักจะสั้นมาก ใช้เวลาเพียงไม่กี่วินาที จากนั้นผู้หลอกลวงจะใช้ข้ออ้างว่าเครือข่ายไม่เสถียร อยู่บนถนน ฯลฯ เพื่อขอให้เหยื่อทำตามคำขอของผู้หลอกลวง

ผู้เชี่ยวชาญเตือนว่าการใช้ AI เพื่อการฉ้อโกงทางไซเบอร์มีแนวโน้มที่จะเพิ่มขึ้นอย่างมากในอนาคตอันใกล้ ดังนั้น ผู้คนจึงต้องสร้างความตระหนักรู้เชิงรุก โดยเฉพาะอย่างยิ่งเมื่อได้รับข้อความ วิดีโอคอล และลิงก์แปลก ๆ

ตามการวิเคราะห์ของผู้เชี่ยวชาญ อัลกอริทึมปัญญาประดิษฐ์ (AI) ของ Deepfake ในปัจจุบันจะไม่สามารถจัดการได้หากผู้โทรเลี้ยวซ้าย เลี้ยวขวา หรือยืนขึ้นในระหว่างการโทรแบบเรียลไทม์...

จุดอ่อนอย่างหนึ่งที่ผู้คนต้องใส่ใจเมื่อรับสายเหล่านี้คือฟัน ดังนั้น อัลกอริทึม AI ในปัจจุบันจึงไม่สามารถจำลองฟันของบุคคลที่ถูกปลอมแปลงได้

หากใช้ Deepfake ภาพของคนที่อ้าปากอาจไม่มีฟัน บางคนมีขากรรไกร 3 ​​ขากรรไกร หรือแม้กระทั่ง 4 ขากรรไกร ดังนั้น ลักษณะของฟันจึงเป็นองค์ประกอบที่จดจำได้ง่ายที่สุดของการโทรปลอมโดยใช้ Deepfake

การ “ชะลอความเร็ว” และไม่ปฏิบัติตามคำขอทันทีเป็นสิ่งจำเป็นเพื่อหลีกเลี่ยงการตกหลุมพรางของการหลอกลวง เมื่อได้รับข้อความหรือโทรศัพท์ผ่านโซเชียลมีเดีย บุคคลควรโทรหาญาติโดยตรงเพื่อยืนยันตัวตนว่าใครเป็นผู้ติดต่อกับพวกเขา โดยใช้เวลาอย่างน้อย 30 วินาที หรือพบปะกันโดยตรง

ในกรณีที่สงสัยว่ามีการแอบอ้างเป็นญาติในโซเชียลเน็ตเวิร์กเพื่อฉ้อโกงหรือยักยอกทรัพย์สิน จำเป็นต้องรายงานไปยังหน่วยงานตำรวจที่ใกล้ที่สุดทันที เพื่อการสนับสนุนและการจัดการอย่างทันท่วงที



ที่มา: https://daidoanket.vn/chuyen-gia-chi-meo-nhan-biet-cuoc-goi-deepfake-lua-dao-10300910.html

การแสดงความคิดเห็น (0)

Simple Empty
No data
สรุปการอบรม A80 : กองทัพเดินเคียงข้างประชาชน
วิธีแสดงความรักชาติที่สร้างสรรค์และเป็นเอกลักษณ์เฉพาะตัวของคนรุ่น Gen Z
ภายในสถานที่จัดนิทรรศการครบรอบ 80 ปี วันชาติ 2 กันยายน
ภาพรวมการฝึกอบรม A80 ครั้งแรกที่จัตุรัสบาดิญ

มรดก

รูป

ธุรกิจ

No videos available

ข่าว

ระบบการเมือง

ท้องถิ่น

ผลิตภัณฑ์