Մարդասպան ռոբոտները կբացատրեն մարդկանց իրենց որոշումները
Ամերիկացի փորձագետները զարգացնում են նեյրոնային ցանց, որը կարող է բացատրել մարտական ռոբոտների որոշումները: Դա կբարձրացնի մարդկային վստահության մակարդակն «էլեկտրոնային զինվորների» նկատմամբ:
«Explainable Artificial Intelligence» կամ պարզապես XAI ծրագիրը թույլ կտա մարդկանց և ռոբոտներին ավելի լավ հասկանալ միմյանց: XAI նեյրոնային ցանցը կկառուցի ռոբոտի տրամաբանական շղթան և կբացատրի մարդկանց, թե ինչու է մեքենան որևէ որոշում կայացրել, օրինակ` ինչո՞ւ է որոշակի թիրախների ուղղությամբ կրակ բացել: Նոր համակարգի ներդրման շնորհիվ զինվորները կկարողանան հասկանալ, թե ինչ չափանիշով է մեքենան գնահատել որոշակի օբյեկտի կամ անձի վտանգավորությունը: XAI-ն ավելի հեշտ կդարձնի մարտական ռոբոտների ադապտացիան ռազմական կոնֆլիկտներում և կնվազեցնի անիմաստ դաժանության աստիճանը:
Նեյրոցանցի մշակումը կատարվում է ԱՄՆ-ի բանակում խառը ռոբոտային-մարդկային մարտական միավորներ ստեղծելու համար: Չնայած դժվար է պատկերացնել, բայց մի քանի տասնամյակ անց ռոբոտները կդառնան լիարժեք զինվորներ, այնպիսին, ինչպես մարդիկ: Ավելին, նրանք կկարողանան փոխարինել մարդուն այն դեպքերում, երբ անհրաժեշտ է կենդանի թիրախի վրա կրակ բացել: Այսկերպ մարդիկ ազատված կլինեն սպանելու որոշում կայացնելուց:
Նոր համակարգն օգտակար կլինի ոչ միայն զինվորականների համար: Այն կարող է օգտագործվել նաև քաղաքացիական կյանքում, արդյունաբերությունում, անվտանգության համակարգերում և բժշկության մեջ: Նման օրինակ բերում է Raytheon ընկերության առաջատար փորձագետ Բիլ Ֆերգյուսոնը, որն անմիջականորեն մասնակցում է նյարդային ցանցի մշակմանը:
«Եթե արհեստական ինտելեկտը հայտնաբերել է թոքերի քաղցկեղի նշաններ, բժիշկը կարող է պարզել, թե ինչու է մեքենան այդպես որոշել: Համակարգիչը ցույց կտա բոլոր այն վտանգավոր մասերը, որոնք բժիշկը կարող էր անտեսել: Դրանից հետո բժիշկը կկարողանա որոշել՝ արդյո՞ք պետք է շտկել ախտորոշումը, կամ արդյո՞ք նեյրոնային ցանցը սխալվել է»,- բացատրում է փորձագետը:
Սիրարփի Աղաբաբյան