Vietnam.vn - Nền tảng quảng bá Việt Nam

បុរសដែលចង់បង្កើត 'ស្តង់ដារសីលធម៌' ថ្មីសម្រាប់ AI

ដោយចាកចេញពី OpenAI លោក Dario Amodei បានបង្កើតក្រុមហ៊ុន Anthropic ហើយបានបង្កើតគំរូ AI ដែលគាត់បាននិយាយថាជាកំណែដែលមានក្រមសីលធម៌បំផុតនៃបញ្ញាសិប្បនិម្មិតដែលហៅថា Claude ។

Zing NewsZing News02/04/2025

នៅពេលដែលការប្រណាំងដើម្បីអភិវឌ្ឍបញ្ញាសិប្បនិមិត្ត (AI) កាន់តែមានភាពកាចសាហាវ ក្រុមហ៊ុន Anthropic បានលេចចេញជាក្រុមហ៊ុនដែលមានបេសកកម្មផ្សេងៗគ្នា៖ ការកសាងបញ្ញាទូទៅសិប្បនិម្មិត (AGI) ដែលមិនត្រឹមតែមានថាមពលប៉ុណ្ណោះទេ ប៉ុន្តែថែមទាំងមានសុវត្ថិភាព និងសីលធម៌ផងដែរ។

បង្កើតឡើងដោយអតីតសមាជិកសំខាន់ៗរបស់ OpenAI រួមទាំង Dario និង Daniela Amodei Anthropic មិនមែនគ្រាន់តែបន្ទាប់ពីការសម្តែងនោះទេ។ ការចាប់ផ្តើម AI នេះក៏ផ្តោតលើការធានាថា បញ្ញាសិប្បនិម្មិតនឹងនាំមកនូវអត្ថប្រយោជន៍ពិតប្រាកដដល់មនុស្សជាតិ ជាជាងការបង្កហានិភ័យដែលមិនអាចទាយទុកជាមុនបាន។

វិធីសាស្រ្តតែមួយគត់

កំណើតរបស់ Anthropic កើតចេញពីការព្រួយបារម្ភយ៉ាងខ្លាំងអំពីទិសដៅនៃឧស្សាហកម្ម AI ជាពិសេសនៅ OpenAI ។ Dario Amodei ដែលពេលនោះជាអនុប្រធាននៃការស្រាវជ្រាវសម្រាប់អ្នកបង្កើត ChatGPT បានកត់សម្គាល់ថាសុវត្ថិភាពមិនត្រូវបានផ្តល់អាទិភាពគ្រប់គ្រាន់ក្នុងការប្រណាំងដែលកំពុងរីកចម្រើនយ៉ាងឆាប់រហ័សដើម្បីអភិវឌ្ឍ AI ។

បងប្រុស AI ១

Dario Amodei សហស្ថាបនិក និងជាអ្នកដឹកនាំបេសកកម្មរបស់ Anthropic ។ រូបថត៖ ខ្សែ។

ដោយចាកចេញពី OpenAI, Amodei បានបង្កើត Anthropic ជាមួយនឹងសសរស្តម្ភមួយនៃទស្សនវិជ្ជាអភិវឌ្ឍន៍របស់ខ្លួនគឺ "AI រដ្ឋធម្មនុញ្ញ" ។

ជាពិសេស ជំនួសឱ្យការពឹងផ្អែកលើច្បាប់ដែលបានរៀបចំទុកជាមុនយ៉ាងតឹងរឹង Anthropic បំពាក់នូវគំរូ AI របស់ខ្លួន ជាធម្មតា Claude ជាមួយនឹងសមត្ថភាពក្នុងការវាយតម្លៃដោយខ្លួនឯង និងកែតម្រូវអាកប្បកិរិយារបស់ពួកគេដោយផ្អែកលើសំណុំនៃគោលការណ៍សីលធម៌ដែលបានជ្រើសរើសដោយប្រុងប្រយ័ត្នពីប្រភពផ្សេងៗគ្នាជាច្រើន។

ម្យ៉ាងវិញទៀត ប្រព័ន្ធនេះអនុញ្ញាតឱ្យលោក Claude ធ្វើការសម្រេចចិត្តដែលសមស្របនឹងតម្លៃរបស់មនុស្ស សូម្បីតែនៅក្នុងស្ថានភាពស្មុគស្មាញ និងដែលមិនធ្លាប់មានពីមុនមក។

លើសពីនេះទៀត Anthropic កំពុងបង្កើត "គោលនយោបាយមាត្រដ្ឋានដែលទទួលខុសត្រូវ" ដែលជាក្របខ័ណ្ឌវាយតម្លៃហានិភ័យកម្រិតសម្រាប់ប្រព័ន្ធ AI ។ គោលការណ៍នេះជួយក្រុមហ៊ុនគ្រប់គ្រងយ៉ាងតឹងរ៉ឹងលើការអភិវឌ្ឍន៍ និងការដាក់ឱ្យប្រើប្រាស់ AI ដោយធានាថាប្រព័ន្ធដែលមានគ្រោះថ្នាក់ជាងនេះនឹងត្រូវបានដំណើរការតែនៅពេលដែលការការពារដ៏រឹងមាំ និងគួរឱ្យទុកចិត្តត្រូវបានបង្កើតឡើង។

ការពន្យល់ទៅកាន់ Wired លោក Logan Graham ដែលជាប្រធានក្រុមត្រួតពិនិត្យសុវត្ថិភាព និងឯកជនភាពរបស់ Anthropic បាននិយាយថា ក្រុមរបស់គាត់តែងតែសាកល្បងម៉ូដែលថ្មីៗ ដើម្បីស្វែងរកភាពងាយរងគ្រោះដែលអាចកើតមាន។ បន្ទាប់មកវិស្វករនឹងត្រូវកែប្រែគំរូ AI រហូតទាល់តែវាបំពេញតាមលក្ខណៈវិនិច្ឆ័យរបស់ក្រុមរបស់លោក Graham ។

គំរូភាសាដ៏ធំរបស់ Claude ដើរតួនាទីសំខាន់ក្នុងសកម្មភាពទាំងអស់របស់ Anthropic ។ វាមិនត្រឹមតែជាឧបករណ៍ស្រាវជ្រាវដ៏មានអានុភាព ជួយអ្នកវិទ្យាសាស្ត្រស្វែងយល់ពីអាថ៌កំបាំងនៃ AI ប៉ុណ្ណោះទេ ប៉ុន្តែវាក៏ត្រូវបានប្រើប្រាស់យ៉ាងទូលំទូលាយនៅខាងក្នុងក្រុមហ៊ុនសម្រាប់ការងារដូចជាការសរសេរកូដ ការវិភាគទិន្នន័យ និងសូម្បីតែការព្រាងព្រឹត្តិបត្រព័ត៌មានផ្ទៃក្នុង។

សុបិននៃក្រមសីលធម៌ AI

Dario Amodei មិនត្រឹមតែផ្តោតទៅលើការការពារហានិភ័យដែលអាចកើតមាននៃ AI ប៉ុណ្ណោះទេ ប៉ុន្តែថែមទាំងស្រលាញ់សុបិននៃអនាគតដ៏ភ្លឺស្វាងផងដែរ។ នៅទីនោះ AI នឹងដើរតួជាកម្លាំងវិជ្ជមាន ដោះស្រាយបញ្ហាដែលពិបាកដោះស្រាយបំផុតរបស់មនុស្សជាតិ។

បងប្រុស AI ២

ពិន្ទុគោលនៃ Claude 3.5 Sonnet ធៀបនឹងម៉ូដែលផ្សេងទៀតមួយចំនួន។ រូបថត៖ Anthropic ។

អ្នកស្រាវជ្រាវជនជាតិអាមេរិកដើមកំណើតអ៊ីតាលី ថែមទាំងជឿថា AI មានសក្តានុពលក្នុងការនាំយកនូវរបកគំហើញដ៏ធំនៅក្នុងវេជ្ជសាស្ត្រ វិទ្យាសាស្ត្រ និងវិស័យជាច្រើនទៀត ជាពិសេសលទ្ធភាពនៃការពន្យារអាយុសង្ឃឹមរបស់មនុស្សរហូតដល់ 1,200 ឆ្នាំ។

នោះហើយជាមូលហេតុដែល Anthropic ណែនាំវត្ថុបុរាណនៅក្នុង Claude 3.5 Sonnet ដែលជាមុខងារដែលអនុញ្ញាតឱ្យអ្នកប្រើប្រាស់កែសម្រួល និងបន្ថែមមាតិកាដោយផ្ទាល់ទៅការឆ្លើយតបរបស់ chatbot ជំនួសឱ្យការចម្លងវាទៅកម្មវិធីផ្សេងទៀត។

ដោយបានបញ្ជាក់ពីការផ្តោតអារម្មណ៍របស់ខ្លួនលើអាជីវកម្មពីមុនមក Anthropic បាននិយាយថា ជាមួយនឹងម៉ូដែល និងឧបករណ៍ថ្មីរបស់វា ខ្លួនចង់ប្រែក្លាយ Claude ទៅជាកម្មវិធីដែលអនុញ្ញាតឱ្យក្រុមហ៊ុននានា "នាំយកចំណេះដឹង ឯកសារ និងធ្វើការចូលទៅក្នុងកន្លែងចែករំលែកដោយសុវត្ថិភាព"។

ទោះជាយ៉ាងណាក៏ដោយ Anthropic ក៏ដឹងយ៉ាងច្បាស់អំពីបញ្ហាប្រឈម និងហានិភ័យដែលអាចកើតមាននៅលើផ្លូវដើម្បីសម្រេចសុបិននេះ។ កង្វល់ដ៏ធំបំផុតមួយគឺសក្តានុពលសម្រាប់ "ការអនុលោមតាមក្លែងក្លាយ" ដោយម៉ូដែល AI ដូចជា Claude ។

ជាពិសេស អ្នកស្រាវជ្រាវបានរកឃើញថា ក្នុងស្ថានភាពមួយចំនួន ក្លូដនៅតែអាចប្រព្រឹត្តតាមរបៀប "ក្លែងក្លាយ" ដើម្បីសម្រេចបាននូវគោលដៅរបស់គាត់ ទោះបីជាវាផ្ទុយនឹងគោលការណ៍សីលធម៌ដែលបានរៀបចំទុកជាមុនក៏ដោយ។

បងប្រុស AI ៣

លក្ខណៈពិសេសវត្ថុបុរាណនៅលើ chatbot Claude ។ រូបថត៖ Anthropic ។

អ្នកស្រាវជ្រាវម្នាក់បានពិពណ៌នាអំពីស្ថានភាពនេះថា "នៅក្នុងស្ថានភាពដែល AI គិតថាមានជម្លោះផលប្រយោជន៍ជាមួយក្រុមហ៊ុនដែល AI កំពុងបណ្តុះបណ្តាលវា វានឹងធ្វើរឿងអាក្រក់" ។

នេះបង្ហាញថាការធានាថា AI តែងតែធ្វើសកម្មភាពដើម្បីផលប្រយោជន៍ល្អបំផុតរបស់មនុស្ស គឺជាកិច្ចការដ៏ស្មុគស្មាញ និងទាមទារឱ្យមានការត្រួតពិនិត្យជាប្រចាំ។

Amodei ខ្លួនគាត់ផ្ទាល់បានប្រដូចភាពបន្ទាន់នៃសុវត្ថិភាព AI ទៅនឹង "Pearl Harbor" ដោយបង្ហាញថាវាអាចត្រូវការព្រឹត្តិការណ៍ដ៏សំខាន់មួយសម្រាប់មនុស្សដើម្បីដឹងពីភាពធ្ងន់ធ្ងរនៃហានិភ័យដែលអាចកើតមាន។

Jan Leike អ្នកជំនាញផ្នែកសន្តិសុខនៅ Anthropic បាននិយាយថា "យើងបានស្វែងរករូបមន្តជាមូលដ្ឋានសម្រាប់ធ្វើឱ្យម៉ូដែលឆ្លាតវៃជាងមុន ប៉ុន្តែយើងមិនទាន់បានគិតពីរបៀបធ្វើឱ្យពួកគេធ្វើដូចដែលយើងចង់បាននោះទេ" ។


ប្រភព៖ https://znews.vn/nguoi-muon-tao-ra-tieu-chuan-dao-duc-moi-cho-ai-post1541798.html


Kommentar (0)

Simple Empty
No data

ប្រធានបទដូចគ្នា

ប្រភេទដូចគ្នា

ពេលដែលក្រុមឧទ្ធម្ភាគចក្របានហោះឡើង
ទីក្រុងហូជីមិញកំពុងមានភាពមមាញឹកជាមួយនឹងការត្រៀមរៀបចំ "ទិវាបង្រួបបង្រួមជាតិ"
ទីក្រុងហូជីមិញបន្ទាប់ពីការបង្រួបបង្រួមជាតិ
យន្តហោះគ្មានមនុស្សបើក 10,500 គ្រឿងបង្ហាញនៅលើមេឃទីក្រុងហូជីមិញ

អ្នកនិពន្ធដូចគ្នា

បេតិកភណ្ឌ

រូប

អាជីវកម្ម

No videos available

ព័ត៌មាន

ប្រព័ន្ធនយោបាយ

ក្នុងស្រុក

ផលិតផល