Google-ի նոր տեխնոլոգիան կարող է կարդալ մարմնի լեզուն՝ առանց տեսախցիկների օգտագործման
Google-ը զարգացնում է «փոխգործակցության նոր լեզու» Advanced Technology and Projects Lab-ում, որը թույլ կտա ժեստերի լեզվին հաղորդակցվել սարքերի հետ:
ATAP համակարգը վերլուծում է շարժումները՝ տեսնելու, թե արդյո՞ք մարդը պատրաստ է փոխազդեցության, իսկ մնացած ժամանակն այն աշխատում է հետին պլանում:
Թիմն օգտագործել է Soli ռադարային սենսորը՝ որոշելու շրջակայքում գտնվող մարդկանց մոտիկությունը, ուղղությունը և երթուղիները: Այնուհետև այն վերլուծում է այս տվյալները՝ որոշելու, թե արդյո՞ք ինչ-որ մեկը նայում է սենսորին, անցնում, մոտենում կամ շրջվում դեպի այն:
Google-ը ստեղծել է չորս շարժումների հավաքածու՝ մոտեցում, անցում, շրջադարձ և հայացք: Այս գործողությունները կարող են օգտագործվել որպես հրամանների կամ ռեակցիաների հրահրիչներ՝ խելացի էկրանների կամ այլ սարքերի հետ շփվելիս: Ժեստերի մի մասն արդեն աշխատում է առկա Soli-ով աշխատող սարքերում: Օրինակ՝ Pixel 4-ն ունի Motion Sense, որը հետաձգում է ահազանգը, եթե դուք թափահարում եք ձեր ձեռքը, կամ արթնացնում է ձեր հեռախոսը, եթե հայտնաբերում է, որ ձեռքը մոտենում է դրան: Google-ի Nest Hub Max-ն օգտագործում է տեսախցիկը բարձրացված բաց ափը տեսնելու համար, և ի պատասխան դադարեցնում է մեդիա նվագարկումը:
Մշակողները բացատրում են. ֆունկցիան անհրաժեշտ է, որպեսզի օգտատերը կարողանա ժեստերի միջոցով անցնել մի քանի սարքերի միջև:
Այժմ ATAP-ի թիմն աշխատում է որոշ գործողությունների համակցման վրա, ինչպիսիք են խոշորացումն ու դիտումը, որպեսզի սարքը կարողանա արձագանքել նաև այս իրավիճակներում:
ATAP-ի դիզայնի ղեկավար Լեոնարդո Ջուստին ասել է. «Սա ամենամեծ խնդիրն է, որին մենք բախվում ենք այս ազդանշանների հետ»: Նա ասաց, որ միացված սարքերի դեպքում ավելի բարդ ալգորիթմների հնարավորություն կա, քան շարժական սարքում: Համակարգի ճշգրտությունը բարելավելու ջանքերի մի մասն է ավելի շատ տվյալներ հավաքել՝ մեքենայական ուսուցման ալգորիթմներ պատրաստելու համար, ներառյալ՝ ճիշտ գործողությունները, ինչպես նաև նմանատիպ, բայց սխալները (որպեսզի նրանք իմանան, թե ինչ չպետք է ձեռնարկեն):
Սիրարփի Աղաբաբյան