Մասնակից:Srnianhov/Ավազարկղ

Վիքիպեդիայից՝ ազատ հանրագիտարանից

Արհեստական բանականության կիրառումը ռազմական արդյունաբերության մեջ այն պրոցեսն է, որի ընթացքում երկրները փորձում են սպառազինել իրենց ռազմական տեխնիկան արհեստական ինտելեկտի գործածությամբ։ Սա իր մեջ պարունակում է չափազանց վտանգավոր տարրեր, որոնց հետևանքով համաշխարհային անվտանգությունը կարող է այլևս ապահովված չլինել։

Ընդհանուր ակնարկ[խմբագրել | խմբագրել կոդը]

Ներկայումս ահռելի միջոցներ են ներդրվում արհեստական բանականությունը մեր առօրյա կյանքում ներգրավվելու համար, որը մեզ հնարավորություն է տալու ունենալ ավելի լավ առողջապահություն, աուդիտ, գովազդների էֆֆեկտիվ կիրառում, արվեստ և վերջիվերջո հզոր ռազմական արդյունաբերություն։ Բայց միևնույն ժամանակ այն իր մեջ պարունակում է մեծ ռիսկեր, քանի որ արհեստական բանականության սխալ կիրառման դեպքում(մասնավորապես՝ ռազմաարդյունաբերությունում) աշխարհը կարող է ունենալ անդառնալի կորուստներ։

Մտահոգությունները[խմբագրել | խմբագրել կոդը]

Բազմաթիվ առաջատար ընկերությունների ղեկավարներ, գործիչներ հանդես են գալիս չափազանց մտահոգ հայտարարություններով ստեղծված իրավիճակի շուրջ։ Իլոն Մասկը և Մուստաֆա Սուլեյմանը հանդիսանում են 26 երկրների 116 առաջատար մասնագետներից ձևավորված խմբի անդամներ, ովքեր փորձում են կանխել ինքնավար զենքերի ստեղծումը։ Նրանք 2017 թվականի օգոստոսին նամակ են հղել ՄԱԿ-ին, որում ասվում է․

- Երբ ինքնավար զենքերը ստեղծվեն, ապա դրանք կնպաստեն մեծամասշտաբ ռազմական կոնֆլիկտների, որոնք իրենց ներգործությունը կունենան այնպիսի կարճ ժամանակահատվածում, որի ընթացքում մարդկությունը չի կարողանա լիովին տիրապետել իրավիճակին։ Սա կարող է հաղթաթուղթ դառնալ բռնակալների և ահաբեկչություն կատարող անձանց ձեռքին, որի միջոցով նրանք կոչնչացնեն աշխարհի խաղաղ բնակչությանը։ Եթե այս ինքնավար զենքերը հաքինգի ենթարկվեն, ապա կունենանք անկանխատեսելի առաջխաղացումներ։

- Մենք երկար ժամանակ չունենք որոշում կայացնելու համար։ Երբ այս "Պանդորայի արկղը" բացվի, չափազանց դժվար կլինի այն փակել։

Ներկայիս իրավիճակը[խմբագրել | խմբագրել կոդը]

Չնայած ստեղծված բարդ և վտանգավոր իրավիճակին, Մեծ Բրիտանիան, ԱՄՆ-ն, Ռուսաստանը և Չինաստանը այն երկրների շարքին են դասվում, որոնք փործում են կանխել կարգավորումների ստեղծումը այս ոլորտում։ Մասնավորապես <<Ջփեն Թայմսի>> հաղորդմամբ՝ ԱՄՆ-ն և ամերիկյան ընկերությունները 2018 թվականին հատկացրել են շուրջ 70 միլիարդ դոլար, որը նպաստել է ինքնավար զենքերի ստեղծմանը և կատարելագործմանը։ Իսկ Չինաստանի նախագահ Սի_Ցզինպինը հայտարարել է, որ Չինաստանը գրավելու է առաջատար դիրք արհեստական բանականության ոլորտում մինչև 2030 թվականը։ Հատկանշական է, որ Չինաստանի առաջարկած ծրագրի կորիզում ընկած է արհեստական բանականության ներառումը ռազմաարդյունաբերության մեջ։ Ընդ որում այս ծրագիրը սուբսիդավորելու է բոլոր այն հաստատություններին և ընկերություններին, որոնք ցանկություն կհայտնեն այս ծրագիրը ի կատար ածել։ Ներկայումս Չինաստանը ահռելի միջոցներ է ներդնում երկրով մեկ վերահսկող համակարգեր տեղադրելու համար։ Սա արդեն ծառայում է Չինաստանի ոստիկանության աշխատանքները օպտիմիզացնելուն։

Ամփոփում[խմբագրել | խմբագրել կոդը]

Առաջին հայացքից կարող է թվալ, որ Չինաստանի գործողությունները անվտանգ են և նպատակ ունեն վերահսկել երկրի ներքին ավազակային գործողությունները, բայց եթե այս համակարգը ենթարկվի հաքինգի որևէ անհատի, հաստատության, ընկերության և նույնիսկ երկրի կողմից, ապա նրանք կարող են իրենց ինքնավար զենքերով ճշգրտորեն թիրախավորել ցանկացած մարդու, տնտեսության համար առանցքային նշանակություն հանդիսացող միավորի և հեշտությամբ ոչնչացնել թիրախը։ Եվ եթե երկրները անցնեն արհեստական բանականությամբ աշխատող սպառազինության մրցավազքի, այնպիսի էկոհամակագում ինչպիսին այժմյանն է՝ գրեթե առանց միջազգային կարգավորումների, ապա մենք կունենանք անկանխատեսելի զարգացումներ, որը փաստում է նաև Իլոն Մասկը։ Ուստի առաջին հերթին պետք է ստեղծել հատուկ միջազգային կարգավորումներ, որոնց միջոցով կունենանք ավելի կանխատեսելի արհեստական բանականություն։


Աղբյուրներ[խմբագրել | խմբագրել կոդը]

https://www.theguardian.com/technology/2017/aug/20/elon-musk-killer-robots-experts-outright-ban-lethal-autonomous-weapons-war https://www.theguardian.com/science/2019/mar/29/uk-us-russia-opposing-killer-robot-ban-un-ai https://towardsdatascience.com/the-ai-arms-race-in-2019-fdca07a086a7 https://time.com/5673240/china-killer-robots-weapons/ https://www.japantimes.co.jp/