คุณคิดอย่างไรเกี่ยวกับแนวโน้มของแฮกเกอร์ที่ "ใช้" AI เป็นอาวุธในการโจมตีทางไซเบอร์และฉ้อโกง?
ดร.เหงียน ตวน คัง: ตามดัชนี X-Force Threat Intelligence ประจำปี 2024 ของ IBM ภูมิภาคเอเชีย แปซิฟิก รวมถึงเวียดนาม เป็นภูมิภาคที่ได้รับผลกระทบจากการโจมตีทางไซเบอร์มากที่สุดในโลกในปี 2023 โดยภาคการผลิตเป็นอุตสาหกรรมที่ได้รับผลกระทบจากการโจมตีทางไซเบอร์มากที่สุด
วิธีการหลักของผู้ร้ายยังคงเป็นการโจมตีแบบฟิชชิ่งที่มุ่งเป้าไปที่กลุ่มคนที่มีความเสี่ยงและใช้ประโยชน์จากช่องโหว่เพื่อติดตั้งมัลแวร์ นอกจากนี้ แนวโน้มใหม่ที่เกิดขึ้นในปี 2024 คือการโจมตีทางไซเบอร์ที่เกี่ยวข้องกับปัญญาประดิษฐ์ (AI)
รายงานของ Wired ระบุว่าผู้ร้ายหลายรายกำลังใช้ AI เชิงสร้างสรรค์เพื่อช่วยแนะนำแฮ็กเกอร์ สร้างแชทบอทหลอกลวง หรือสร้างภาพและ วิดีโอ ปลอมที่แสดงใบหน้าและเสียงของผู้อื่นโดยใช้ Deepfake
อย่างไรก็ตาม ควบคู่ไปกับแนวโน้มนี้ ระบบรักษาความปลอดภัยข้อมูลก็เริ่มผสานรวมฟีเจอร์ AI อย่างเช่น watsonx ปัญญาประดิษฐ์สามารถถูกใช้ประโยชน์ได้ แต่ยังสามารถแทนที่มนุษย์ในการวิเคราะห์ ตรวจสอบ ระบุตัวเลข และคาดการณ์สถานการณ์การโจมตี ซึ่งจะช่วยยกระดับขีดความสามารถในการป้องกันและลดความเสี่ยงด้านความปลอดภัยข้อมูลให้เหลือน้อยที่สุด
การหลอกลวงแบบ Deepfake กำลังเกิดขึ้นบ่อยขึ้นเรื่อยๆ ด้วยการพัฒนาอย่างรวดเร็วของ AI การโจมตีเหล่านี้จะอันตรายแค่ไหนในอนาคต?
ดร. เหงียน ตวน คัง: โดยพื้นฐานแล้ว Deepfake เป็นเทคโนโลยีที่ช่วยให้แฮกเกอร์สร้างตัวตนดิจิทัลปลอม เพื่อปลอมตัวเป็นผู้อื่น Deepfake จะกลายเป็นปัญหาที่อันตราย เพราะเทคโนโลยีนี้กำลังพัฒนาและซับซ้อนมากขึ้นเรื่อยๆ
เพื่อต่อสู้กับ Deepfakes สิ่งแรกที่ต้องทำคือการตรวจสอบว่าภาพหรือเสียงของบุคคลนั้นถูกสร้างขึ้นโดย AI หรือไม่ ปัจจุบันยังไม่มีเครื่องมือสากลที่สามารถตรวจจับ Deepfakes ได้ทันที เนื่องจากผู้โจมตีกำลังพัฒนารูปแบบใหม่ๆ อย่างต่อเนื่อง
นอกจากการตรวจจับด้วย Deepfake แล้ว ยังมีอีกเทคนิคหนึ่งในการจัดการกับปัญหานี้ นั่นคือการใช้เทคโนโลยีเพื่อวิเคราะห์พฤติกรรม ในมุมมองขององค์กรและธุรกิจ จำเป็นต้องพัฒนาระบบที่ผสมผสานเทคนิคทั้งสองนี้เข้าด้วยกัน
ในช่วงไม่กี่ปีที่ผ่านมา มีการโจมตีทางไซเบอร์ที่แฮกเกอร์แอบฝังมัลแวร์ไว้ในระบบของบริษัท มัลแวร์จะคอยดักจับและวิเคราะห์กิจกรรมทั้งหมด เพื่อสร้างตัวตนปลอมขึ้นมาเพื่อกระทำการอันมีเจตนาร้าย การพัฒนาเทคโนโลยี Deepfake ร่วมกับความสามารถในการสร้างวิดีโอที่สร้างโดย AI จะทำให้การโจมตีประเภทนี้มีความอันตรายมากยิ่งขึ้นในอนาคต
เมื่อการโจมตีทางไซเบอร์แบบ Deepfake ทวีความรุนแรงมากขึ้น เราจะปกป้องผู้สูงอายุ เด็ก และกลุ่มเปราะบางอื่นๆ จากผู้หลอกลวงได้อย่างไร
ดร. เหงียน ตวน คัง: ผู้สูงอายุและเด็กมักถูกโจมตีโดยมิจฉาชีพโดยใช้เทคนิคที่เรียกว่าวิศวกรรมสังคม ซึ่งเป็นคำที่ใช้อธิบายการโจมตีผ่านการบิดเบือนพฤติกรรมมนุษย์
ปัจจุบันแฮกเกอร์สามารถใช้ AI ร่วมกับการเก็บรวบรวมข้อมูล ขุดข้อมูล และวิเคราะห์ข้อมูล เพื่อระบุตัวบุคคลที่มีแนวโน้มจะถูกหลอกลวง และหาวิธีโจมตี นอกจากการสร้างความตระหนักรู้ในชุมชนแล้ว เรายังต้องยอมรับว่าสถานการณ์ที่ผู้ใช้ถูกหลอกลวงจะเกิดขึ้นได้ และต้องใช้เทคโนโลยีเพื่อตรวจจับและป้องกัน
เมื่อไม่นานมานี้ มีกรณีพนักงานธนาคารคนหนึ่งสงสัยว่าหญิงชราที่เข้ามาโอนเงินมีร่องรอยการถูกหลอกลวง บุคคลดังกล่าวจึงระงับธุรกรรมทันทีและรายงานให้เจ้าหน้าที่ทราบ ปัจจุบันระบบไอทีของธนาคารมีเทคโนโลยีที่เข้ามาแทนที่มนุษย์ในการทำงานดังกล่าว
บทบาทของเทคโนโลยีคือ แม้ว่าผู้ส่งจะทราบตัวตนที่แท้จริง ระบบก็ยังคงป้องกันพฤติกรรมดังกล่าวได้ หากสงสัยว่ามีผู้อื่นกำลังควบคุมอยู่ เครื่องมือเหล่านี้เรียกว่าระบบป้องกันการฉ้อโกงและการปลอมแปลง
ถึงเวลาหรือยังที่เวียดนามจะต้องมีมาตรการคว่ำบาตรเพื่อจัดการกับ AI และนำการวิจัย การพัฒนา และการใช้งาน AI เข้าไปในกรอบการทำงาน?
ดร. เหงียน ตวน คัง: มีการพูดถึงมาตรการลงโทษสำหรับการจัดการ AI มานานแล้ว แต่ก็ยังมีข้อถกเถียงมากมาย ยกตัวอย่างเช่น ที่จอดรถแถวบ้านผมมีระบบ AI ที่สามารถจดจำป้ายทะเบียนรถได้ แต่ก็ยังมีการโจรกรรมเกิดขึ้น ในเวลานั้นเริ่มมีประเด็นถกเถียงกันว่าใครเป็นฝ่ายผิด เจ้าของอพาร์ตเมนต์ เจ้าหน้าที่รักษาความปลอดภัย หรือผู้พัฒนาระบบ AI ควรต้องรับผิดชอบหรือไม่
นับแต่นั้นมา อาคารได้เปลี่ยนแปลงกฎเกณฑ์ โดยระบุว่าผู้อยู่อาศัยสามารถเลือกใช้ AI เพื่อจดจำป้ายทะเบียนรถได้เพื่อความสะดวก แต่ต้องยอมรับความเสี่ยง ผู้ที่เห็นด้วยจะสามารถใช้ประตูอัตโนมัติได้ ส่วนผู้ที่ไม่เห็นด้วยจะต้องจอดรถตามวิธีเดิม เราจำเป็นต้องมีมาตรการลงโทษเช่นนี้
ในทำนองเดียวกัน IBM เคยพัฒนาระบบ AI เพื่อช่วยป้องกันโรคมะเร็ง เมื่อระบบสั่งจ่ายยา แต่ผู้ป่วยยังไม่สามารถช่วยชีวิตได้หลังจากรับประทานยาไปแล้ว ถือเป็นความผิดของแพทย์หรือความผิดของ AI?
ผมคิดว่ากฎระเบียบด้าน AI จำเป็นต้องมีความเฉพาะเจาะจง โดยระบุอย่างชัดเจนว่าอะไรทำได้และทำอะไรไม่ได้เมื่อพัฒนาแอปพลิเคชัน AI เพื่อให้โลกปลอดภัยยิ่งขึ้น กฎระเบียบพื้นฐานที่สุดที่เราสามารถทำได้คือการกำหนดให้การโอนเงินจำนวนมากต้องมีการตรวจสอบความถูกต้องทางชีวภาพ ในสถานการณ์เช่นนี้ ผู้ที่สูญเสียข้อมูลประจำตัวสามารถหลีกเลี่ยงการสูญเสียเงินได้อย่างสิ้นเชิง
ขอบคุณครับท่าน.
แหล่งที่มา
การแสดงความคิดเห็น (0)