AI ដំណើរការបានល្អបំផុតនៅពេលផ្តល់បញ្ហាដើម្បីដោះស្រាយដែលមានដំណើរការច្បាស់លាស់ និងរូបមន្តថេរ។ ប៉ុន្តែនៅពេលដោះស្រាយស្ថានការណ៍ដែលទាមទារការវិនិច្ឆ័យជាប្រធានបទ ឬពាក់ព័ន្ធនឹងចំណូលចិត្តផ្ទាល់ខ្លួន AI អាចធ្វើខុសដូចមនុស្ស - រូបថត៖ AI
ការសិក្សាថ្មីមួយដែលត្រូវបានចេញផ្សាយនៅក្នុងទស្សនាវដ្តី Manufacturing & Service Operations Management ដោយអ្នកវិទ្យាសាស្ត្រនៅសាកលវិទ្យាល័យចំនួន 5 នៅប្រទេសកាណាដា និងអូស្ត្រាលីបានវាយតម្លៃអាកប្បកិរិយារបស់ ChatGPT (ជាពិសេសម៉ូដែល OpenAI ទាំងពីរម៉ូដែល GPT-3.5 និង GPT-4) លើភាពលំអៀងនៃការយល់ដឹងចំនួន 18 ដែលត្រូវបានរកឃើញជាទូទៅនៅក្នុងចិត្តវិទ្យារបស់មនុស្សដូចជា៖ ឥទ្ធិពលនៃការបញ្ជាក់ ភាពលំអៀង ការចំណាយលើការចំណាយប្រាក់មួយចំនួន។
លទ្ធផលបានបង្ហាញថានៅក្នុងស្ទើរតែពាក់កណ្តាលនៃស្ថានភាពដែលបានសាកល្បងនោះ ChatGPT មានអាកប្បកិរិយាដូចមនុស្សនៅពេលប្រឈមមុខនឹងជម្រើសដែលមិនសមហេតុផល ឬអារម្មណ៍ ទោះបីជាប្រព័ន្ធនេះមានកេរ្តិ៍ឈ្មោះសម្រាប់ហេតុផលសមហេតុផលក៏ដោយ។
តើ AI ពិតជា "មិនលំអៀង" ដូចការរំពឹងទុកមែនទេ?
លោកបណ្ឌិត Yang Chen សាស្ត្រាចារ្យរងផ្នែកគ្រប់គ្រងប្រតិបត្តិការនៅសាលា Ivey Business School (កាណាដា) និងជាអ្នកដឹកនាំការស្រាវជ្រាវបានអត្ថាធិប្បាយថា "AI ដំណើរការបានល្អបំផុតនៅពេលដែលត្រូវបានចាត់តាំងឱ្យដោះស្រាយបញ្ហាជាមួយនឹងដំណើរការច្បាស់លាស់ និងរូបមន្តថេរ។ ប៉ុន្តែនៅពេលដោះស្រាយស្ថានភាពដែលទាមទារការវិនិច្ឆ័យតាមប្រធានបទ ឬពាក់ព័ន្ធនឹងចំណង់ចំណូលចិត្តផ្ទាល់ខ្លួន AI អាចធ្វើខុសដូចមនុស្សដែរ"។
ក្រុមស្រាវជ្រាវបានបញ្ចូលស្ថានភាពសម្មតិកម្មដែលធ្លាប់ស្គាល់នៅក្នុងចិត្តវិទ្យាទៅក្នុង ChatGPT ដោយបន្ថែមបរិបទជាក់ស្តែងដូចជាការគ្រប់គ្រងសារពើភ័ណ្ឌ ឬការចរចាជាមួយអ្នកផ្គត់ផ្គង់។
គួរកត់សម្គាល់ថាគំរូ AI នៅតែបង្ហាញពីភាពលំអៀងនៃការយល់ដឹង ទោះបីជាបរិបទសំណួរត្រូវបានផ្លាស់ប្តូរពីអរូបីទៅការពិតអាជីវកម្មក៏ដោយ។
GPT-4 គឺឆ្លាតជាង ប៉ុន្តែមិនល្អឥតខ្ចោះទេ។
GPT-4 គឺជាកំណែអាប់ដេតនៃ GPT-3.5 ដែលពូកែដោះស្រាយបញ្ហាតក្កវិជ្ជា ឬប្រូបាប៊ីលីតេ។ ទោះជាយ៉ាងណាក៏ដោយ នៅក្នុងការក្លែងធ្វើប្រធានបទ ដូចជាការជ្រើសរើសជម្រើសប្រថុយប្រថានដើម្បីបង្កើនប្រាក់ចំណេញ GPT-4 បានបង្ហាញពីទំនោរអារម្មណ៍ជាងមនុស្ស។
ជាពិសេស ការសិក្សាបានកត់សម្គាល់ថា GPT-4 តែងតែផ្តល់ការឆ្លើយតបដោយលំអៀងក្នុងស្ថានភាពតេស្តភាពលំអៀងក្នុងការបញ្ជាក់ ហើយងាយនឹងទទួលរងនូវ "ការបោកបញ្ឆោតដ៏ក្តៅគគុក" ដែលជាទំនោរក្នុងការជឿថាព្រឹត្តិការណ៍ចៃដន្យនឹងកើតឡើងម្តងទៀតជាស៊េរី - ជាង GPT-3.5 ។
ផ្ទុយទៅវិញ AI អាចជៀសផុតពីភាពលំអៀងមួយចំនួនដែលមនុស្សតែងតែធ្វើ ដូចជាការធ្វេសប្រហែសលើអត្រាមូលដ្ឋាន ឬភាពខុសឆ្គងតម្លៃលិច។
ហេតុផលដែល ChatGPT បង្ហាញភាពលំអៀងដូចមនុស្សគឺមកពីទិន្នន័យបណ្តុះបណ្តាលខ្លួនឯង ដែលពោរពេញទៅដោយអាកប្បកិរិយា និងការគិតលំអៀងរបស់យើង - រូបថត៖ AI
ប្រភពដើមនៃ AI Bias: ពីទិន្នន័យរបស់មនុស្ស
យោងតាមក្រុមស្រាវជ្រាវ មូលហេតុដែល ChatGPT បង្ហាញភាពលំអៀងដូចមនុស្សគឺមកពីទិន្នន័យបណ្តុះបណ្តាលផ្ទាល់ ដែលពោរពេញទៅដោយអាកប្បកិរិយា និងការគិតលំអៀងរបស់យើង។ ការពិតដែលថា AI ត្រូវបានកែតម្រូវដោយផ្អែកទៅលើមតិកែលម្អរបស់មនុស្សបានពង្រឹងបន្ថែមទៀតនូវទំនោរនេះ ដោយសារតែគំរូនេះត្រូវបាន "ផ្តល់រង្វាន់" សម្រាប់ការឆ្លើយតបដែលហាក់ដូចជាសមហេតុផល ជាជាងភាពត្រឹមត្រូវទាំងស្រុង។
លោកវេជ្ជបណ្ឌិត Chen បានផ្តល់អនុសាសន៍ថា "ដើម្បីទទួលបានលទ្ធផលត្រឹមត្រូវ និងមិនមានលម្អៀង សូមប្រើ AI សម្រាប់កិច្ចការដែលអ្នកទុកចិត្តលើកុំព្យូទ័ររួចហើយថានឹងធ្វើបានល្អ" ។ "ប៉ុន្តែប្រសិនបើអ្នកត្រូវដោះស្រាយជាមួយនឹងបញ្ហាយុទ្ធសាស្ត្រ ឬអារម្មណ៍ មនុស្សនៅតែត្រូវតាមដាន និងធ្វើអន្តរាគមន៍ ទោះបីជាវាគ្រាន់តែជាការបកស្រាយសំណួរឡើងវិញក៏ដោយ។"
សហអ្នកនិពន្ធ Meena Andiappan សាស្ត្រាចារ្យរងផ្នែកធនធានមនុស្ស និងគ្រប់គ្រងនៅសាកលវិទ្យាល័យ McMaster (កាណាដា) បាននិយាយថា "AI គួរតែត្រូវបានចាត់ទុកជាបុគ្គលិកដែលមានអំណាចធ្វើការសម្រេចចិត្តដ៏សំខាន់ ដែលមានន័យថា ចាំបាច់ត្រូវត្រួតពិនិត្យ និងប្រកាន់ខ្ជាប់នូវក្រមសីលធម៌។
ប្រភព៖ https://tuoitre.vn/ai-cung-mac-sai-lam-phi-ly-va-thien-vi-nhu-con-nguoi-20250505103652783.htm
Kommentar (0)