OpenAI ซึ่งเป็นยักษ์ใหญ่ด้านเทคโนโลยีได้ยกย่องเครื่องมือแปลงคำพูดเป็นข้อความอย่าง Whisper ว่าเป็น AI ที่มี "ความแม่นยำและความทนทานเทียบเท่ามนุษย์" แต่ Whisper มีข้อบกพร่องสำคัญประการหนึ่ง นั่นก็คือ มันสร้างข้อความและประโยคที่เป็นเท็จโดยสิ้นเชิง
ข้อความบางส่วนที่สร้างโดย AI เรียกว่า “ภาพหลอน” ซึ่งอาจรวมถึงความคิดเห็นเกี่ยวกับเชื้อชาติ ภาษาที่รุนแรง และแม้แต่การรักษาทางการแพทย์ในจินตนาการ — ภาพ: AP
จากการสัมภาษณ์วิศวกรซอฟต์แวร์ นักพัฒนา และนักวิจัยในแวดวงวิชาการ ผู้เชี่ยวชาญระบุว่าข้อความที่สร้างโดย AI บางส่วนนั้นไม่ใช่ของจริง เรียกว่า "ภาพหลอน" เนื้อหาที่บอกเล่าเรื่องราวได้ชัดเจน ได้แก่ ความคิดเห็นเกี่ยวกับเชื้อชาติ ภาษาที่รุนแรง และแม้แต่การรักษาทางการแพทย์ในจินตนาการ
อัตราการเกิด “ภาพลวงตา” สูงในข้อความที่สร้างโดย AI
ผู้เชี่ยวชาญมีความกังวลเป็นพิเศษ เนื่องจาก Whisper ถูกใช้กันอย่างแพร่หลายในหลายอุตสาหกรรมทั่วโลกในการแปลและถอดเสียงบทสัมภาษณ์ สร้างข้อความในเทคโนโลยีสำหรับผู้บริโภคยอดนิยม และสร้างคำบรรยายสำหรับวิดีโอ
ที่น่ากังวลกว่านั้นคือศูนย์การแพทย์หลายแห่งกำลังใช้ Whisper ในการถ่ายโอนการปรึกษาหารือระหว่างแพทย์และคนไข้ แม้ว่า OpenAI จะได้เตือนว่าไม่ควรใช้เครื่องมือนี้ในพื้นที่ที่มี "ความเสี่ยงสูง" ก็ตาม
ขอบเขตทั้งหมดของปัญหานี้เป็นเรื่องยากที่จะระบุได้ แต่ผู้วิจัยและวิศวกรกล่าวว่าพวกเขาประสบกับ "ภาพหลอน" ของ Whisper ในการทำงานของตนเป็นประจำ
นักวิจัยมหาวิทยาลัยมิชิแกนกล่าวว่าเขาพบ "ภาพหลอน" ใน 8 ใน 10 การแปลงไฟล์เสียงที่เขาทำการทดสอบ วิศวกรคอมพิวเตอร์พบ "ภาพหลอน" ประมาณครึ่งหนึ่งในไฟล์เสียงความยาวกว่า 100 ชั่วโมงที่เขาวิเคราะห์ นักพัฒนาอีกรายหนึ่งกล่าวว่าเขาตรวจพบ "ภาพหลอน" ในบันทึกเสียงเกือบทั้งหมด 26,000 รายการที่เขาสร้างขึ้นโดยใช้ Whisper
ปัญหายังคงมีอยู่แม้จะบันทึกตัวอย่างเสียงสั้น ๆ และชัดเจนก็ตาม การศึกษาล่าสุดโดยนักวิทยาศาสตร์คอมพิวเตอร์ค้นพบ "ภาพลวงตา" 187 แบบในคลิปเสียงที่ชัดเจนมากกว่า 13,000 คลิปที่พวกเขาตรวจสอบ นักวิจัยกล่าวว่าแนวโน้มดังกล่าวอาจส่งผลให้เกิดการถอดเสียงเท็จนับหมื่นรายการจากการบันทึกหลายล้านรายการ
ข้อผิดพลาดดังกล่าวอาจก่อให้เกิด “ผลกระทบร้ายแรงมาก” โดยเฉพาะอย่างยิ่งในโรงพยาบาล ตามที่ Alondra Nelson หัวหน้าสำนักงานวิทยาศาสตร์และเทคโนโลยีทำเนียบขาวในรัฐบาลของนายไบเดนจนถึงปีที่แล้วกล่าว
“ไม่มีใครอยากได้รับการวินิจฉัยผิดพลาด” เนลสัน ซึ่งปัจจุบันเป็นศาสตราจารย์ที่สถาบันการศึกษาระดับสูงในเมืองพรินซ์ตัน รัฐนิวเจอร์ซี กล่าวเน้นย้ำ “จะต้องมีมาตรฐานที่สูงขึ้น”
Whisper ยังใช้สร้างคำบรรยายสำหรับคนหูหนวกและผู้ที่มีปัญหาทางการได้ยิน ซึ่งเป็นกลุ่มคนที่มีความเสี่ยงต่อการแปลผิดเป็นพิเศษ นั่นเป็นเพราะผู้ที่หูหนวกหรือบกพร่องทางการได้ยินไม่มีทางที่จะระบุข้อความที่ถูกแต่งขึ้น “ซึ่งซ่อนอยู่ในข้อความอื่นๆ ทั้งหมด” คริสเตียน วอกเลอร์ ผู้ที่หูหนวกและผู้อำนวยการโครงการการเข้าถึงเทคโนโลยีที่มหาวิทยาลัย Gallaudet กล่าว
OpenAI ถูกเรียกตัวมาเพื่อแก้ไขปัญหา
การเกิด "ภาพหลอน" ดังกล่าวอย่างแพร่หลายทำให้ผู้เชี่ยวชาญ ผู้สนับสนุน และอดีตพนักงานของ OpenAI เรียกร้องให้รัฐบาลกลางพิจารณากฎระเบียบด้าน AI อย่างน้อยที่สุด OpenAI จะต้องแก้ไขข้อบกพร่องนี้
William Saunders วิศวกรวิจัยในซานฟรานซิสโก ซึ่งลาออกจาก OpenAI เมื่อเดือนกุมภาพันธ์เนื่องจากกังวลเกี่ยวกับทิศทางของบริษัท กล่าวว่า "ปัญหาเหล่านี้สามารถแก้ไขได้ หากบริษัทเต็มใจที่จะให้ความสำคัญเป็นอันดับแรก"
“มันจะกลายเป็นปัญหาหากคุณเผยแพร่ออกไปแล้วผู้คนมั่นใจเกินไปเกี่ยวกับสิ่งที่มันทำได้ จากนั้นก็รวมมันเข้ากับระบบอื่นๆ เหล่านี้” โฆษกของ OpenAI กล่าวว่าบริษัทกำลังค้นคว้าหาวิธีลด "ภาพลวงตา" อย่างต่อเนื่อง และชื่นชมผลการค้นพบของนักวิจัย และยังเสริมว่า OpenAI ได้นำข้อเสนอแนะมาปรับใช้ในการอัปเดตโมเดลด้วย
ในขณะที่นักพัฒนาส่วนใหญ่มักจะคิดว่าเครื่องมือแปลงข้อความเป็นเสียงสามารถพิมพ์ผิดหรือผิดพลาดอื่นๆ ได้ แต่วิศวกรและนักวิจัยกล่าวว่าพวกเขาไม่เคยเห็นเครื่องมือแปลงข้อความเป็นเสียงที่ขับเคลื่อนด้วย AI ที่ "ทำให้เกิดภาพหลอน" ได้มากเท่ากับ Whisper เลย
ที่มา: https://tuoitre.vn/cong-cu-ai-chuyen-loi-noi-thanh-van-ban-cua-openai-bi-phat-hien-bia-chuyen-20241031144507089.htm
การแสดงความคิดเห็น (0)