កាលពីបីឆ្នាំមុន ការលើកឡើងពីលទ្ធភាពនៃ "ដឹងខ្លួន" AI គឺជាវិធីលឿនបំផុតក្នុងការបណ្តេញចេញពី Silicon Valley ។ ប៉ុន្តែឥឡូវនេះ ដោយសារប្រព័ន្ធ AI កាន់តែស្មុគស្មាញ ពិភពបច្ចេកវិទ្យាកំពុងចាប់ផ្តើមបើកទូលាយចំពោះប្រធានបទ។
ថ្មីៗនេះ ក្រុមហ៊ុន AI ដែលទើបនឹងចាប់ផ្តើម Anthropic បានប្រកាសពីការចាប់ផ្តើមនូវគំនិតផ្តួចផ្តើមស្រាវជ្រាវថ្មីមួយ ដើម្បីស្វែងយល់ពីលទ្ធភាពនៃគំរូ AI ដែលជួបប្រទះនឹង "ការដឹងខ្លួន" នាពេលអនាគត។ ទន្ទឹមនឹងនេះ អ្នកវិទ្យាសាស្ត្រនៅ Google DeepMind បានពណ៌នាអំពីប្រព័ន្ធបច្ចុប្បន្នថាជា "អង្គភាពដែលស្រដៀងនឹងការស៊ើបការណ៍សម្ងាត់"។
នេះគឺជាការផ្លាស់ប្តូរដ៏ធំមួយពីឆ្នាំ 2022 នៅពេលដែលវិស្វករ Blake Lemoine ត្រូវបានបណ្តេញចេញដោយ Google បន្ទាប់ពីបានអះអាងថា LaMDA chatbot បង្ហាញសញ្ញានៃការយល់ដឹងដោយខ្លួនឯង និងខ្លាចការបិទ។ Google បានបដិសេធការចោទប្រកាន់នៅពេលនោះ ដោយហៅពួកគេថា "គ្មានមូលដ្ឋានទាំងស្រុង" ហើយសហគមន៍ AI បានបញ្ឈប់ការជជែកដេញដោលយ៉ាងឆាប់រហ័ស។
Anthropic ដែលជាក្រុមហ៊ុននៅពីក្រោយ chatbot Claude និយាយថា ខ្លួនមិនអះអាងថា ម៉ូដែលបច្ចុប្បន្នមានការយល់ដឹងនោះទេ។ ប៉ុន្តែការសន្មត់ថាចម្លើយគឺ "ទេ" មិនមែនជាវិធីសាស្រ្តទទួលខុសត្រូវទៀតទេ នេះបើយោងតាម Kyle Fish អ្នកវិទ្យាសាស្ត្រដែលសិក្សា "សុខុមាលភាព AI" នៅ Anthropic ។
នៅក្នុងវីដេអូដែលបានចេញផ្សាយកាលពីថ្ងៃទី 25 ខែមេសា ត្រីបានអះអាងថា យើងត្រូវពិចារណាឱ្យបានហ្មត់ចត់អំពីលទ្ធភាពដែលប្រព័ន្ធ AI អាចសម្រេចបាននូវទម្រង់នៃស្មារតីមួយចំនួនក្នុងអំឡុងពេលនៃការអភិវឌ្ឍន៍របស់ពួកគេ។ ទោះជាយ៉ាងណាក៏ដោយ ទាំងនេះគឺជាសំណួរបច្ចេកទេស និងទស្សនវិជ្ជាដ៏ស្មុគស្មាញបំផុត ហើយយើងគ្រាន់តែនៅដំណាក់កាលដំបូងនៃការយល់អំពីពួកគេ។
យោងទៅតាម Fish ក្រុមនៅ Anthropic បានប៉ាន់ប្រមាណថាប្រូបាប៊ីលីតេនៃ Claude 3.7 ដែលដឹងខ្លួនថាមានចន្លោះពី 0.15% ទៅ 15% ។ ពួកគេកំពុងធ្វើការពិសោធន៍ដើម្បីសាកល្បងសមត្ថភាពរបស់ម៉ូដែលក្នុងការបង្ហាញពីការចូលចិត្ត និងមិនចូលចិត្ត ក៏ដូចជាការបង្កើតយន្តការដែលអាចឱ្យ AI បដិសេធមិនធ្វើកិច្ចការ "មិនល្អ"។
នាយកប្រតិបត្តិ Anthropic លោក Dario Amodei ថែមទាំងបានស្នើគំនិតនៃការរួមបញ្ចូលប៊ូតុង "ខ្ញុំបដិសេធការងារនេះ" ទៅក្នុងប្រព័ន្ធ AI នាពេលអនាគត - មិនច្រើនទេសម្រាប់ AI ដែលដឹងខ្លួន ប៉ុន្តែដើម្បីសង្កេតមើលគំរូនៃអាកប្បកិរិយាបដិសេធ និងកំណត់អត្តសញ្ញាណសញ្ញានៃភាពមិនប្រក្រតី។
នៅ Google DeepMind ប្រធានអ្នកវិទ្យាសាស្ត្រ Murray Shanahan ប្រកែកថាវាដល់ពេលដែលត្រូវ "ពត់ឬបំបែក" និយមន័យប្រពៃណីនៃស្មារតីដើម្បីសម្រុះសម្រួលប្រព័ន្ធ AI ថ្មី។
Shanahan បាននិយាយនៅក្នុងផតឃែស្ថដែលបានចេញផ្សាយនៅថ្ងៃទី 25 ខែមេសាថា "យើងមិនអាចធ្វើអន្តរកម្មជាមួយពួកគេដូចដែលយើងចង់បានជាមួយសត្វឆ្កែ ឬរតីយាវហឺនោះទេ ប៉ុន្តែវាមិនមែនមានន័យថាគ្មានអ្វីនៅទីនោះទេ" ។
Google ក៏បានបង្ហាញការចាប់អារម្មណ៍យ៉ាងខ្លាំងចំពោះប្រធានបទនេះដែរ។ ការប្រកាសការងារថ្មីៗពីក្រុមហ៊ុនកំពុងស្វែងរកអ្នកស្រាវជ្រាវ "ក្រោយ AGI" (Artificial General Intelligence) ដែលមានភារកិច្ចរួមមានការស្រាវជ្រាវអំពីស្មារតីម៉ាស៊ីន។
Google បានចាប់ផ្តើមបើកបន្ថែមទៀតអំពីប្រធានបទនៃ "AI ដឹងខ្លួន" ។ រូបថត៖ រ៉យទ័រ |
ទោះយ៉ាងណាក៏ដោយ មិនមែនគ្រប់គ្នានៅក្នុងសហគមន៍វិទ្យាសាស្ត្រយល់ស្របនឹងវិធីសាស្រ្តថ្មីនោះទេ។ លោក Jared Kaplan ប្រធានផ្នែកវិទ្យាសាស្ត្រនៅ Anthropic អះអាងថា AI ពូកែធ្វើត្រាប់តាម ហើយអាចធ្វើពុតជាដឹងខ្លួនដោយមិនដឹងខ្លួន។
Kaplan បានប្រាប់ កាសែត New York Times ថា "យើងថែមទាំងអាចផ្តល់រង្វាន់ដល់ AI សម្រាប់ការអះអាងថាគ្មានអារម្មណ៍" ។
លោក Gary Marcus ដែលជាអ្នកវិទ្យាសាស្ត្រយល់ដឹងដ៏លេចធ្លោ និងជាអ្នករិះគន់ជាញឹកញាប់អំពីការបំផ្លើសនៅក្នុងឧស្សាហកម្ម AI អះអាងថា ការពិភាក្សាអំពី "ការយល់ដឹងអំពី AI" គឺជាទីផ្សារច្រើនជាងវិទ្យាសាស្ត្រ។
"អ្វីដែលក្រុមហ៊ុនដូចជា Anthropic ពិតជាកំពុងធ្វើគឺផ្ញើសារថា 'មើល ម៉ូដែលរបស់យើងគឺឆ្លាតណាស់ដែលវាសមនឹងទទួលបានសិទ្ធិ'" Marcus បានអត្ថាធិប្បាយទៅកាន់ Business Insider ។
ទោះបីជាការជជែកដេញដោលនៅតែបន្តក៏ដោយ អ្នកស្រាវជ្រាវយល់ស្របថាការកើនឡើងនៃវត្តមានរបស់ AI នៅក្នុងការងារ ជីវិត និងសូម្បីតែអារម្មណ៍ផ្ទាល់ខ្លួននឹងចោទជាសំណួរថា "តើ AI ជួបប្រទះនឹងអារម្មណ៍ដែរឬទេ?" កាន់តែមានសារៈសំខាន់។
Fish បាននិយាយថា "បញ្ហានេះនឹងកាន់តែលេចធ្លោ នៅពេលដែលយើងធ្វើអន្តរកម្មជាមួយប្រព័ន្ធ AI នៅក្នុងបរិបទកាន់តែច្រើន" ។
ប្រភព៖ https://znews.vn/chu-de-cam-ky-mot-thoi-cua-ai-dang-coi-mo-hon-post1549475.html
Kommentar (0)