ព័ត៌មាន

គំរូ Framework ថ្មី ត្រូវបានបញ្ចេញដើម្បីការពារប្រព័ន្ធ Machine Learning System

ក្រុមហ៊ុន Microsoft សហការជាមួយ MITRE, IBM, NVIDIA, and Bosch បានចេញគំរូ (Framework) ថ្មីដែលជួយដល់ការវិភាគស្វែងរកដើម្បីសុវត្ថិភាព ឆ្លើយតប និងបញ្ឈប់ការប៉ះពាល់ដែលបណ្តាលមក ពីការវាយប្រហារទៅលើប្រព័ន្ធរៀនសូត្រម៉ាស៊ីន (ML)។ វាត្រូវបានហៅថា Adversarial ML Threat Matrix ការចាប់ផ្តើមនេះដើម្បីរៀបចំបច្ចេកវិទ្យាខុសគ្នាដែលប្រើដោយហេគឃ័រសម្រាប់វាយប្រហារ ML systems។

 គ្រាន់តែ AI និង ML ត្រូវបានដាក់ពង្រាយនៅក្នុងកម្មវិធី ហេគឃ័រមិនអាចប្រើបច្ចេកទេសតែមួយទៅ បង្កើនឥទ្ធិពលនៃមេរោគរបស់ខ្លួនបានទេ ប៉ុន្តែអាចប្រើគុណសម្បត្តិវាធ្វើឱ្យម៉ាស៊ីនរៀនសូត្រខុស (fool machine learning models) ជាមួយនឹងទិន្នន័យមិនត្រឹមត្រូវ ដែលជាមូលហេតុនាំឱ្យប្រព័ន្ធសម្រេចចិត្ត ខុស និងប៉ះពាល់ដល់ស្ថេរភាព និងសុវត្ថិភាពរបស់កម្មវិធី AI។ 

ការពិតទៅ អ្នកស្រាវជ្រាវ ESET កាលពីឆ្នាំមុនបានរកឃើញ Emotet ដែលជាមេរោគផ្អែកលើអ៊ីម៉ែល (email-based malware) នៅពីក្រោយយុទ្ធការបោកប្រាស់ botnet-driven និងការវាយប្រហារមេរោគ ransomware ត្រូវបានកំពុងតែប្រើ ML ដើម្បីជំរុញគោលដៅរបស់ខ្លួន។ កាលពីដើមខែនេះ Microsoft បានព្រមានពីមេរោគ Android ransomware strain ថ្មីដែលរួមមានគំរូរៀនម៉ាស៊ីន (machine leaning model) ដែល មិនទាន់បានដាក់បញ្ចូលជាមួយមេរោគ malware ទេ តែអាចត្រូវបានប្រើដើម្បីទាញយក អត្ថប្រយោជន៍ពីរូបភាពនៅក្នុងអេក្រង់ទូរសព័្ទដើម្បីចាប់ជំរិតដោយមិនចាំបាច់កែប្រែ។ 

ក្រៅពីនេះ អ្នកស្រាវជ្រាវបានរកឃើញថាអ្វីដែលហៅថាការវាយប្រហារត្រលប់នោះ (model-inversion attacks) នៅក្នុងដំណើរការគំរូ (model) ត្រូវបានប្រើដើម្បីបង្កប់ព័ត៌មានពីទិន្នន័យដែលត្រូវរៀននោះ។ យោងតាមរបាយការណ៍ Gartner ដកស្រង់ដោយ Microsoft, ៣០% នៃការវាយប្រហារលើ AI អាចនឹង កើនឡើងនៅឆ្នាំ២០២២ ត្រូវបានមើលឃើញថាដើម្បីទាញយកប្រយោជន៍ពីការបំពុលព័ត៌មាន, លួច model, ឬគំរូប្រឆាំង (adversarial samples) ដើម្បីវាយប្រហារលើប្រព័ន្ធរៀនសូត្ររបស់ម៉ាស៊ីន (machine learning-power systems)។ 

Adversarial ML Threat Matrix សង្ឃឹមថាអាចដោះស្រាយបញ្ហាដោយប្រឆាំងនឹងទិន្នន័យនៃការ ផលិតអាវុធជាមួយនឹងការរៀបចំអាកប្បកិរិយាសត្រូវ និងការគំរាម ដែល Microsoft and MITRE បាន អះអាងថាមានប្រសិទ្ធិភាពប្រឆាំងនឹងប្រព័ន្ធ ML systems។ គំនិតគឺថាក្រុមហ៊ុនអាចប្រើ Adversarial ML Threat Matrix ដើម្បីធ្វើតេស្តសាកល្បងសមត្ថភាពរបស់ AI model របស់ពួកគេដោយធ្វើតាមសេណារីយ៉ូនៃការវាយប្រហារជាក់ស្តែងដោយប្រើបញ្ជីបច្ចេកទេស ដើម្បីចាប់ផ្តើមដំណើរការ ប្រតិបត្តិការ unsafe ML models, បំពុល training data, និងទាញយក ទិន្នន័យសំខាន់ៗតាមរយៈគំរូវាយប្រហារលួចនេះ (model stealing attacks)៕

image

image