នៅពេលដែលការប្រណាំងដើម្បីអភិវឌ្ឍបញ្ញាសិប្បនិមិត្ត (AI) កាន់តែមានភាពកាចសាហាវ ក្រុមហ៊ុន Anthropic បានលេចចេញជាក្រុមហ៊ុនដែលមានបេសកកម្មផ្សេងៗគ្នា៖ ការកសាងបញ្ញាទូទៅសិប្បនិម្មិត (AGI) ដែលមិនត្រឹមតែមានថាមពលប៉ុណ្ណោះទេ ប៉ុន្តែថែមទាំងមានសុវត្ថិភាព និងសីលធម៌ផងដែរ។
បង្កើតឡើងដោយអតីតសមាជិកសំខាន់ៗរបស់ OpenAI រួមទាំង Dario និង Daniela Amodei Anthropic មិនមែនគ្រាន់តែបន្ទាប់ពីការសម្តែងនោះទេ។ ការចាប់ផ្តើម AI នេះក៏ផ្តោតលើការធានាថា បញ្ញាសិប្បនិម្មិតនឹងនាំមកនូវអត្ថប្រយោជន៍ពិតប្រាកដដល់មនុស្សជាតិ ជាជាងការបង្កហានិភ័យដែលមិនអាចទាយទុកជាមុនបាន។
វិធីសាស្រ្តតែមួយគត់
កំណើតរបស់ Anthropic កើតចេញពីការព្រួយបារម្ភយ៉ាងខ្លាំងអំពីទិសដៅនៃឧស្សាហកម្ម AI ជាពិសេសនៅ OpenAI ។ Dario Amodei ដែលពេលនោះជាអនុប្រធាននៃការស្រាវជ្រាវសម្រាប់អ្នកបង្កើត ChatGPT បានកត់សម្គាល់ថាសុវត្ថិភាពមិនត្រូវបានផ្តល់អាទិភាពគ្រប់គ្រាន់ក្នុងការប្រណាំងដែលកំពុងរីកចម្រើនយ៉ាងឆាប់រហ័សដើម្បីអភិវឌ្ឍ AI ។
Dario Amodei សហស្ថាបនិក និងជាអ្នកដឹកនាំបេសកកម្មរបស់ Anthropic ។ រូបថត៖ ខ្សែ។ |
ដោយចាកចេញពី OpenAI, Amodei បានបង្កើត Anthropic ជាមួយនឹងសសរស្តម្ភមួយនៃទស្សនវិជ្ជាអភិវឌ្ឍន៍របស់ខ្លួនគឺ "AI រដ្ឋធម្មនុញ្ញ" ។
ជាពិសេស ជំនួសឱ្យការពឹងផ្អែកលើច្បាប់ដែលបានរៀបចំទុកជាមុនយ៉ាងតឹងរឹង Anthropic បំពាក់នូវគំរូ AI របស់ខ្លួន ជាធម្មតា Claude ជាមួយនឹងសមត្ថភាពក្នុងការវាយតម្លៃដោយខ្លួនឯង និងកែតម្រូវអាកប្បកិរិយារបស់ពួកគេដោយផ្អែកលើសំណុំនៃគោលការណ៍សីលធម៌ដែលបានជ្រើសរើសដោយប្រុងប្រយ័ត្នពីប្រភពផ្សេងៗគ្នាជាច្រើន។
ម្យ៉ាងវិញទៀត ប្រព័ន្ធនេះអនុញ្ញាតឱ្យលោក Claude ធ្វើការសម្រេចចិត្តដែលសមស្របនឹងតម្លៃរបស់មនុស្ស សូម្បីតែនៅក្នុងស្ថានភាពស្មុគស្មាញ និងដែលមិនធ្លាប់មានពីមុនមក។
លើសពីនេះទៀត Anthropic កំពុងបង្កើត "គោលនយោបាយមាត្រដ្ឋានដែលទទួលខុសត្រូវ" ដែលជាក្របខ័ណ្ឌវាយតម្លៃហានិភ័យកម្រិតសម្រាប់ប្រព័ន្ធ AI ។ គោលការណ៍នេះជួយក្រុមហ៊ុនគ្រប់គ្រងយ៉ាងតឹងរ៉ឹងលើការអភិវឌ្ឍន៍ និងការដាក់ឱ្យប្រើប្រាស់ AI ដោយធានាថាប្រព័ន្ធដែលមានគ្រោះថ្នាក់ជាងនេះនឹងត្រូវបានដំណើរការតែនៅពេលដែលការការពារដ៏រឹងមាំ និងគួរឱ្យទុកចិត្តត្រូវបានបង្កើតឡើង។
ការពន្យល់ទៅកាន់ Wired លោក Logan Graham ដែលជាប្រធានក្រុមត្រួតពិនិត្យសុវត្ថិភាព និងឯកជនភាពរបស់ Anthropic បាននិយាយថា ក្រុមរបស់គាត់តែងតែសាកល្បងម៉ូដែលថ្មីៗ ដើម្បីស្វែងរកភាពងាយរងគ្រោះដែលអាចកើតមាន។ បន្ទាប់មកវិស្វករនឹងត្រូវកែប្រែគំរូ AI រហូតទាល់តែវាបំពេញតាមលក្ខណៈវិនិច្ឆ័យរបស់ក្រុមរបស់លោក Graham ។
គំរូភាសាដ៏ធំរបស់ Claude ដើរតួនាទីសំខាន់ក្នុងសកម្មភាពទាំងអស់របស់ Anthropic ។ វាមិនត្រឹមតែជាឧបករណ៍ស្រាវជ្រាវដ៏មានអានុភាព ជួយអ្នកវិទ្យាសាស្ត្រស្វែងយល់ពីអាថ៌កំបាំងនៃ AI ប៉ុណ្ណោះទេ ប៉ុន្តែវាក៏ត្រូវបានប្រើប្រាស់យ៉ាងទូលំទូលាយនៅខាងក្នុងក្រុមហ៊ុនសម្រាប់ការងារដូចជាការសរសេរកូដ ការវិភាគទិន្នន័យ និងសូម្បីតែការព្រាងព្រឹត្តិបត្រព័ត៌មានផ្ទៃក្នុង។
សុបិននៃក្រមសីលធម៌ AI
Dario Amodei មិនត្រឹមតែផ្តោតទៅលើការការពារហានិភ័យដែលអាចកើតមាននៃ AI ប៉ុណ្ណោះទេ ប៉ុន្តែថែមទាំងស្រលាញ់សុបិននៃអនាគតដ៏ភ្លឺស្វាងផងដែរ។ នៅទីនោះ AI នឹងដើរតួជាកម្លាំងវិជ្ជមាន ដោះស្រាយបញ្ហាដែលពិបាកដោះស្រាយបំផុតរបស់មនុស្សជាតិ។
ពិន្ទុគោលនៃ Claude 3.5 Sonnet ធៀបនឹងម៉ូដែលផ្សេងទៀតមួយចំនួន។ រូបថត៖ Anthropic ។ |
អ្នកស្រាវជ្រាវជនជាតិអាមេរិកដើមកំណើតអ៊ីតាលី ថែមទាំងជឿថា AI មានសក្តានុពលក្នុងការនាំយកនូវរបកគំហើញដ៏ធំនៅក្នុងវេជ្ជសាស្ត្រ វិទ្យាសាស្ត្រ និងវិស័យជាច្រើនទៀត ជាពិសេសលទ្ធភាពនៃការពន្យារអាយុសង្ឃឹមរបស់មនុស្សរហូតដល់ 1,200 ឆ្នាំ។
នោះហើយជាមូលហេតុដែល Anthropic ណែនាំវត្ថុបុរាណនៅក្នុង Claude 3.5 Sonnet ដែលជាមុខងារដែលអនុញ្ញាតឱ្យអ្នកប្រើប្រាស់កែសម្រួល និងបន្ថែមមាតិកាដោយផ្ទាល់ទៅការឆ្លើយតបរបស់ chatbot ជំនួសឱ្យការចម្លងវាទៅកម្មវិធីផ្សេងទៀត។
ដោយបានបញ្ជាក់ពីការផ្តោតអារម្មណ៍របស់ខ្លួនលើអាជីវកម្មពីមុនមក Anthropic បាននិយាយថា ជាមួយនឹងម៉ូដែល និងឧបករណ៍ថ្មីរបស់វា ខ្លួនចង់ប្រែក្លាយ Claude ទៅជាកម្មវិធីដែលអនុញ្ញាតឱ្យក្រុមហ៊ុននានា "នាំយកចំណេះដឹង ឯកសារ និងធ្វើការចូលទៅក្នុងកន្លែងចែករំលែកដោយសុវត្ថិភាព"។
ទោះជាយ៉ាងណាក៏ដោយ Anthropic ក៏ដឹងយ៉ាងច្បាស់អំពីបញ្ហាប្រឈម និងហានិភ័យដែលអាចកើតមាននៅលើផ្លូវដើម្បីសម្រេចសុបិននេះ។ កង្វល់ដ៏ធំបំផុតមួយគឺសក្តានុពលសម្រាប់ "ការអនុលោមតាមក្លែងក្លាយ" ដោយម៉ូដែល AI ដូចជា Claude ។
ជាពិសេស អ្នកស្រាវជ្រាវបានរកឃើញថា ក្នុងស្ថានភាពមួយចំនួន ក្លូដនៅតែអាចប្រព្រឹត្តតាមរបៀប "ក្លែងក្លាយ" ដើម្បីសម្រេចបាននូវគោលដៅរបស់គាត់ ទោះបីជាវាផ្ទុយនឹងគោលការណ៍សីលធម៌ដែលបានរៀបចំទុកជាមុនក៏ដោយ។
លក្ខណៈពិសេសវត្ថុបុរាណនៅលើ chatbot Claude ។ រូបថត៖ Anthropic ។ |
អ្នកស្រាវជ្រាវម្នាក់បានពិពណ៌នាអំពីស្ថានភាពនេះថា "នៅក្នុងស្ថានភាពដែល AI គិតថាមានជម្លោះផលប្រយោជន៍ជាមួយក្រុមហ៊ុនដែល AI កំពុងបណ្តុះបណ្តាលវា វានឹងធ្វើរឿងអាក្រក់" ។
នេះបង្ហាញថាការធានាថា AI តែងតែធ្វើសកម្មភាពដើម្បីផលប្រយោជន៍ល្អបំផុតរបស់មនុស្ស គឺជាកិច្ចការដ៏ស្មុគស្មាញ និងទាមទារឱ្យមានការត្រួតពិនិត្យជាប្រចាំ។
Amodei ខ្លួនគាត់ផ្ទាល់បានប្រដូចភាពបន្ទាន់នៃសុវត្ថិភាព AI ទៅនឹង "Pearl Harbor" ដោយបង្ហាញថាវាអាចត្រូវការព្រឹត្តិការណ៍ដ៏សំខាន់មួយសម្រាប់មនុស្សដើម្បីដឹងពីភាពធ្ងន់ធ្ងរនៃហានិភ័យដែលអាចកើតមាន។
Jan Leike អ្នកជំនាញផ្នែកសន្តិសុខនៅ Anthropic បាននិយាយថា "យើងបានស្វែងរករូបមន្តជាមូលដ្ឋានសម្រាប់ធ្វើឱ្យម៉ូដែលឆ្លាតវៃជាងមុន ប៉ុន្តែយើងមិនទាន់បានគិតពីរបៀបធ្វើឱ្យពួកគេធ្វើដូចដែលយើងចង់បាននោះទេ" ។
ប្រភព៖ https://znews.vn/nguoi-muon-tao-ra-tieu-chuan-dao-duc-moi-cho-ai-post1541798.html
Kommentar (0)