การนำปัญญาประดิษฐ์ (AI) มาใช้ในการทำงานได้กลายเป็นแนวโน้มที่หลีกเลี่ยงไม่ได้ ซึ่งช่วยปรับปรุงประสิทธิภาพและประหยัดเวลา
อย่างไรก็ตาม เบื้องหลังความสะดวกสบายดังกล่าวมีความเสี่ยงที่อาจเกิดขึ้นต่อความปลอดภัยของข้อมูล โดยเฉพาะปรากฏการณ์ "AI เงา" ที่พนักงานใช้เครื่องมือ AI อย่างไม่ระมัดระวัง ขาดการควบคุม และเผลอนำข้อมูลลับของบริษัทไปไว้บนแพลตฟอร์มสาธารณะ
การพึ่งพาและความกังวลเบื้องต้น
Thanh Huyen (อายุ 21 ปี) พนักงานฝ่ายการตลาดเนื้อหาในบริษัทเครื่องสำอางและอาหารเพื่อสุขภาพ เปิดเผยว่าเธออาศัย AI 90% ในการทำงานของเธอ ตั้งแต่การวางแผน สร้างเนื้อหา ไปจนถึงการออกแบบรูปภาพและ วิดีโอ
อย่างไรก็ตาม เมื่อเธอบังเอิญเจอบทความที่คล้ายกับแนวคิดที่เธอถาม ChatGPT Huyen ก็เริ่มกังวลเกี่ยวกับความสามารถของ AI ที่จะจดจำและแบ่งปันข้อมูลอินพุต

การนำ AI มาใช้ในการทำงานแทบจะกลายเป็นเรื่องปกติสำหรับหลายอุตสาหกรรมในปัจจุบัน (ภาพ: เป่าหง็อก)
แม้เรื่องราวของ Huyen อาจเป็นเรื่องบังเอิญ แต่ข้อเท็จจริงที่ไม่อาจปฏิเสธได้ก็คือการให้ข้อมูลแก่ AI หมายถึงการอนุญาตให้เครื่องมือเหล่านี้รวบรวมและจัดเก็บข้อมูลเพื่อฝึกโมเดล
ปัญหาจะร้ายแรงมากขึ้นหากแพลตฟอร์ม AI ถูกแฮ็กหรือมีการรักษาความปลอดภัยไม่ดี ส่งผลให้ข้อมูลรั่วไหลและเกิดผลเสียตามมา
"Shadow AI" - อันตรายที่อาจเกิดขึ้น
HM (อายุ 20 ปี) ผู้เชี่ยวชาญด้านการบริการลูกค้า มักจะมอบรายชื่อข้อมูลลูกค้า (ชื่อนามสกุล วันเกิด หมายเลขโทรศัพท์ ประวัติการซื้อ) ให้กับ AI เพื่อวิเคราะห์ ช่วยประหยัดเวลา และปรับปรุงประสิทธิภาพการทำงาน
เอ็ม. เชื่อว่านี่ไม่ใช่ความเสี่ยงที่อาจเกิดขึ้น เนื่องจากบริษัทมีขนาดเล็กและจะไม่มีการเปิดเผยข้อมูล อย่างไรก็ตาม กรณีของเอ็ม. มักเป็นกรณีตัวอย่างของ "Shadow AI" ซึ่งก็คือการนำ AI มาใช้โดยพนักงานโดยไม่ได้รับอนุมัติหรือควบคุมดูแลจากฝ่ายเทคโนโลยีสารสนเทศหรือฝ่ายความปลอดภัยทางไซเบอร์

ปรากฏการณ์ “Shadow AI” หมายถึงการนำ AI มาใช้โดยพนักงานในองค์กรโดยไม่มีการควบคุมหรือการจัดการใดๆ (ภาพประกอบ: CV)
รายงานของ Cisco พบว่า 62% ขององค์กรในเวียดนามขาดความมั่นใจในการตรวจจับการใช้งาน AI ของพนักงานที่ไม่ได้รับการควบคุม ผลสำรวจในสหราชอาณาจักรยังพบว่า 75% ของผู้จัดการฝ่ายความปลอดภัยทางไซเบอร์มีความกังวลเกี่ยวกับภัยคุกคามภายใน เช่น Shadow AI
สิ่งนี้แสดงให้เห็นว่า Shadow AI กำลังกลายเป็นภัยคุกคามทั่วไป โดยเฉพาะอย่างยิ่งเมื่อธุรกิจหลายแห่งไม่มีนโยบายที่ชัดเจนเกี่ยวกับการใช้ AI และพนักงานก็ขาดความตระหนักรู้เกี่ยวกับการรักษาความปลอดภัยของข้อมูล
ยอมรับการแลกเปลี่ยนเพื่อหลีกเลี่ยงการถูกทิ้งไว้ข้างหลัง
แม้จะตระหนักถึงความเสี่ยง แต่ถั่น เฮวียนก็ยังคงยอมรับที่จะ "เดิมพัน" กับ AI เธอเชื่อว่าประโยชน์ที่ได้รับจาก AI นั้นมหาศาลเกินไป จึงช่วยให้เธอผลิตบทความและไอเดียมากมายในแต่ละวัน
ความสะดวก ความเร็ว และความสามารถในการเพิ่มประสิทธิภาพทำให้ Huyen ยินดีที่จะให้ข้อมูลที่ละเอียดอ่อนและเป็นความลับแก่ AI แม้แต่ข้อมูลส่วนบุคคลของผู้บังคับบัญชาของเธอ

แม้ว่าการใช้ AI โดยไม่ได้รับการควบคุมอาจมีความเสี่ยง แต่พนักงานหลายคนยังคงยอมรับการแลกเปลี่ยนเพื่อผลประโยชน์ทันที (ภาพประกอบ: CV)
ในทำนองเดียวกัน Trung Hieu (อายุ 20 ปี) พนักงานฝ่ายการตลาดเนื้อหา ยังมอบเอกสารภายในและข้อมูลทางธุรกิจให้กับแชทบอท AI เป็นประจำ
Hieu สังเกตเห็นการเพิ่มขึ้นอย่างมีนัยสำคัญในด้านผลผลิต ทำให้เกิดข้อได้เปรียบทางการแข่งขัน และเชื่อว่าสิ่งนี้ไม่ส่งผลกระทบต่อการดำเนินงานของบริษัทมากเกินไป
กรณีเหล่านี้แสดงให้เห็นว่า Shadow AI กำลังแพร่กระจายเนื่องจากขาดนโยบายที่ชัดเจนจากบริษัทและพนักงานมีความตระหนักไม่เพียงพอเกี่ยวกับความปลอดภัย คุณภาพ และความเสี่ยงจากการพึ่งพา
ความเสี่ยงมากมายเมื่อไว้วางใจ AI มากเกินไป
คุณเหงียน เวียด หุ่ง ซีอีโอของบริษัทพัฒนาซอฟต์แวร์แอปพลิเคชัน AI อธิบายถึงความนิยมของ Shadow AI เนื่องมาจากปัจจัย 3 ประการ ได้แก่ AI ช่วยให้ทำงานได้เร็วและมีประสิทธิภาพมากขึ้น นิสัยการพึ่งพารูปแบบของ AI อย่างรวดเร็ว และธุรกิจขาดคำเตือนและการฝึกอบรมเกี่ยวกับความเสี่ยง

นายเหงียน เวียด หุ่ง ซีอีโอของบริษัทพัฒนาซอฟต์แวร์แอปพลิเคชัน AI (ภาพ: Cong Khanh)
ผู้เชี่ยวชาญเตือนว่า Shadow AI อาจทำให้เกิดการรั่วไหลของข้อมูล (ของลูกค้า ภายใน) เมื่อนำไปใช้ในเครื่องมือ AI ฟรี
นอกจากนี้ คุณภาพของเนื้อหาที่สร้างโดย AI ไม่ได้รับการตรวจสอบ ซึ่งอาจนำไปสู่อคติและส่งผลต่อการตัดสินใจทางธุรกิจได้
ที่สำคัญกว่านั้น การใช้ AI โดยไม่มีการควบคุมอาจสร้างช่องโหว่ด้านความปลอดภัย ทำให้ระบบไอทีตรวจสอบและตอบสนองได้ยาก และทำให้ยากต่อการตัดสินความรับผิดชอบเมื่อเกิดเหตุการณ์ต่างๆ ขึ้น
พื้นที่มืดเป็นสิ่งที่ควบคุมได้ยาก
การติดตามและจัดการพนักงานโดยใช้ AI เป็นกระบวนการที่ยาวนานและมีการประสานงานกัน ผู้เชี่ยวชาญกล่าวว่าการเข้าถึงข้อมูลภายในของพนักงานเป็นอุปสรรคสำคัญในการป้องกันไม่ให้พวกเขาส่งต่อข้อมูลส่วนบุคคลผ่านเครื่องมือ AI ส่วนบุคคล
นอกจากนี้ เครื่องมือ AI ยังเข้าถึงได้ง่าย ทำให้ฝ่าย IT ตรวจจับหรือจัดการได้ยาก

การเข้าถึงเครื่องมือ AI ได้ง่ายเป็นอุปสรรคประการหนึ่งที่ทำให้การควบคุมข้อมูลที่พนักงานใส่บนแพลตฟอร์ม AI ยากยิ่งขึ้น (ภาพประกอบ: CV)
เพื่อรับมือ ผู้เชี่ยวชาญ Nguyen Viet Hung แนะนำว่าธุรกิจต่างๆ จำเป็นต้องเพิ่มการฝึกอบรมพนักงานเกี่ยวกับความตระหนักรู้เกี่ยวกับความเสี่ยงเมื่อใช้ AI และมีความเข้าใจที่ลึกซึ้งยิ่งขึ้นเกี่ยวกับ "Shadow AI"
พร้อมกันนี้ ควรออกกฎหมายและนโยบายภายในองค์กรโดยเร็ว อีกหนึ่งแนวทางสำคัญคือการเสริมสร้างศักยภาพด้านความปลอดภัยขององค์กร ซึ่งรวมถึงการตรวจสอบพฤติกรรม การควบคุมการเข้าถึงข้อมูล และการอนุญาตสิทธิ์พนักงานแต่ละคนอย่างรอบคอบ
ปัจจุบัน หลายบริษัทยังไม่มีกระบวนการที่ชัดเจนในการใช้ AI โดยมีเพียงการส่งเสริมการใช้งานเพื่อเพิ่มประสิทธิภาพการทำงานเท่านั้น เพื่อรับมือกับ Shadow AI องค์กรขนาดใหญ่หลายแห่งจึงเริ่มปรับใช้แพลตฟอร์ม AI ภายในองค์กร หรือกำหนดให้พนักงานใช้เครื่องมือที่ได้รับการรับรองและมีนโยบายด้านความปลอดภัยของข้อมูลที่ชัดเจน
ที่มา: https://dantri.com.vn/cong-nghe/sep-buong-long-nhan-vien-than-nhien-cap-du-lieu-mat-cho-ai-20250806090132034.htm
การแสดงความคิดเห็น (0)