Արհեստական բանականություն
| Արհեստական ինտելեկտ |
|---|
| Հիմնական նպատակներ |
| Մոտեցումներ |
| Փիլիսոփայություն |
| Պատմություն |
|
Տեխնոլոգիա, Կիրառություն |
| Հակասություններ |
| Բարդ |
| Բառարան |
Արհեստական բանականություն կամ արհեստական ինտելեկտ (երբեմն նաև մեքենայական ինտելեկտ,
Արհեստական նեյրոնային ցանցեր
[խմբագրել | խմբագրել կոդը]
Նեյրոնային ցանցերը ստեղծվել են մարդու ուղեղի կառուցվածքով ոգեշնչվելով։ Պարզ "նեյրոնը" N մուտքեր է ընդունում բազմաթիվ այլ նեյրոններից, որոնցից յուրաքանչյուրը N նեյրոնի ակտիվացման (կամ "հեռացման") օգտին կամ դեմ կշռադատված "ձայն" է տալիս։ Ուսումնառությունը պահանջում է ալգորիթմ, որը վերապատրաստման տվյալների հիման վրա կկարգավորի կշիռները։ Մի պարզ ալգորիթմ է՝
Հեբիան ուսուցումը, դա կշռի բարձրացումն է, երբ երկու հարակից նեյրոնների մեկի ակտիվացման դեպքում, ակտիվանում է նաև մյուսը։ Ցանցը ձևավորում է "հասկացություններ" որոնք բաշխված են ընդհանուր նեյրոնների ենթացանցում,[Ն 1] որոնք հակված են միասին գործելուն, "ծունկ" հասկացությունը կարող է միավորվել "ոտք" իմաստ ունեցող ենթացանցին, որը ներառում է "ոտքի" ձայնը։ Նեյրոններն ունեն ակդիվացման շարունակական սպեկտր, բացի այդ նեյրոնները կարող են մուտքային տվյալներ մշակել ոչ գծային եղանակով, այլ ոչ թե համեմատել ուղիղ ձայներով։ Ժամանակակից նեյրոնային ցանցերը կարող են սովորել երկուսն էլ անընդհատ ֆունկցիաները և, ի զարմանս թվային տրամաբանական գործողությունները։ Նեյրոնային ցանցերի վաղ ձեռքբերումները ներառում էին ֆոնդային շուկայի կանխատեսումը և (1995) հիմնականում ինքնակառավարվող ավտոմեքենան։[Ն 2][1] 2010-ականներին, խորը ուսուցումն օգտագործող նեյրոնային ցանցերի ձեռքբերումները Արհեստական ինտելեկտ հասցրին լայն հասարակական գիտակցության և արհեստական ինտելեկտի ոլորտին ուղղված կորպորատիվ ֆինանսավորման հսկայական խթանման, օրինակ ԱԲ-ին ուղղված 2017 թվականի ծախսերը 25 անգամ գերազանցեցին 2015-ի ծախսերին[2][3]։
Ոչ ուսուցման նեյրոնային ցանցերի ուսումնասիրությունը սկսվել է[4] Արհեստական ինտելեկտի ոլորտը հայտնաբերելուց տասնամյակ առաջ Վալտեր Պիտցի և Ուորեն Մաքկալոկի աշխատանքներում։ Ֆրանկ Ռոզենբլատտը հայտագործեց պերսեպտրոնը, մեկ շերտով ուսումնառության ցանցը, նման գծային ռեգրեսիայի հին հասկացությանը։ Վաղ ռահվիրաններից են նաև Ալեքսեյ Գրիգորևիչ Իվախնենկոն, Տեյվո Կոհոնենը, Ստեֆեն Գրոսբերգը, Կունիհիկո Կուկուշիման, Քրիստոֆ վոն դեր Մալսբուրգը, Դավիթ Վիլշոուն, Չան Ինչ Ամարին, Բեռնարդ Վիդրոուն, Ջոն Հոպֆիլդը, Էդուարդո Կայանյելոն և ուրիշներ։
Ուղիղ կապով խոր նեյրոնային ցանցեր
[խմբագրել | խմբագրել կոդը]Խորն ուսումնառությունը արհեստական նեյրոնային ցանց է, որը կարող է սովորել պատճառահետևանքային կապերի։ Երկար շղթա։ Օրինակ, վեց թաքնված շերտերով առաջ տանող ցանցը կարող է սովորել յոթ պատճառահետևանքային կապերով շղթան (վեց թաքնված շերտ և ելքային շերտ) և ունի յոթ խորությամբ վարկային հանձնարարության ուղի "credit assignment path" (CAP)։ Շատ խորն ուսուցման համակարգերը պետք է ի վիճակի լինեն սովորել և ունենալ տաս կամ ավելի երկարությամբ պատճառահետևանքային կապերի շղթա[5] Խորն ուսումնառությունը ձևափոխեց արհեստական ինտելեկտի շատ կարևոր ենթաոլորտներ, ներառյալ համակարգչային տեսողություն, խոսքի ճանաչում, բնական լեզվի մշակում և այլն[5][6][7]։
Համաձայն մի ակնարկի[8], "Խորն ուսուցում" արտահայտությունը ներկայացվել է մեքենայական ուսուցման հանրությանը 1986 թվականին Ռինա Դեխտերի կողմից[9] և թափ է առել 2000 թվականին, Իգոր Այզենբերգի և նրա գործընկերների կողմից այն որպես Արհեստական նեյրոնային ցանցեր առաջարկելուց հետո[10]։ Առաջին ֆունկցիոնալ խորն ուսումնառության ցանցերը հրապարակվել են 1965 թվականին Ալեքսեյ Իվախնենկոյի և Լապայի կողմից[11][Հղում աղբյուրներին] Այս ցանցերը մեկ մոտեցմամբ մեկ մակարդակ են յուրացնում։ Իվախնենկոյի 1971 թվականի հոդվածը[12]։ նկարագրում է ուղիղ կապով, ութ շերտանի խորությամբ ուսումնառության պերսեպտրոն, որը, արդեն իսկ, շատ ավելի խորն էր, քան հետագա շատ ցանցեր։ Ջեֆրի Հինտոնի և Ռուսլան Սալախուդինովի 2006 թվականին հրապարակեցին բազմաշերտ ուղիղ կապով նեյրոնային ցանցերի նախապատրաստման այլ եղանակ։ Այն, մեկ մակարդակ մեկ մոտեցմամբ, յուրաքանչյուր մակարդակը դիտարկում է որպես չվերահսկվող Բոլցմանի սահմանափակ մեքենա, այնուհետ օգտագործելով վերահսկվող հետադարձ տարածումը, լավ կարգավորել։[13] Մակերեսային արհեստական նեյրոնային ցանցերի նման խորը նեյրոնային ցանցերը կարող են մոդելավորել բարդ ոչ գծային հարաբերություններ։ Վերջին տարիների առաջընթացը մեքենայական ուսուցման ալգորիթմներում և համակարգիչների սարքային ապահովման մեջ տարան ավելի արդյունավետ մեթոդների խորը նեյրոնային ցանցերի վերապատրաստման համար, որոնք ներառում են ոչ գծային թաքնված էլեմենտների բազմաթիվ շերտեր և շատ մեծ ելքային շերտ[14]։
Խոր ուսուցումը հաճախ օգտագործում է փաթեթային նեյրոնային ցանցեր, որոնք սկիզբ են առնում 1980 թվականին Ֆուկուշիմայի ստեղծած նեոկոգնիտրոնից[15]։ 1989 թվականին Յան Լեկունը գործընկերների հետ այսպիսի կառուցվածքի նկատմամբ կիրառեց սխալը գտնելու ետ տարածման մեթոդը։ Վաղ 2000-ականներին, CNN-ների արդյունաբերական կիրառումը արդեն իսկ գնահատվում էր ԱՄՆ-ում գրված չեկերի 10% - 20% -ը[16]։ 2011-ից ի վեր, fast implementations of CNN-ների արագ կիրառումները GPU-ների վրա, հաղթեցին վիզուալ շաբլոնի ճանաչման մրցույթներում[5]։
12 փաթեթային շերտերով CNN ցանցերը ամրապնդող ուսուցման հետ օգտագործվում էին Deepmind-ի "AlphaGo Lee" ծրագրում, որը 2016 թվականին հաղթեց Գո խաղի չեմպիոնին[17]։
Խոր պարբերական նեյրոնային ցանցեր
[խմբագրել | խմբագրել կոդը]Սկզբում խորն ուսումառությունը կիրառվում էր նաև պարբերական նեյրոնային ցանցերով (RNNs) հաջորդական ուսումնառության նկատմամբ[18], որն ամբողջականացվել է Թյուրինգի տեսությունում[19] և մուտքային տվյալների կամայական հաջորդականության մշակման համար կարող են իրականացնել կամայական ծրագրեր։ RNN-ի խորությունը անսահմանափակ է և կախված է մուտքի հաջորդականության երկարությունից, այսպիսով RNN-ը խորն ուսումնառության օրինակ է[5] RNN-ները կարող են սովորել գրադիենտի անկմամբ[20][21][22],։ սակայն թույլ են տալիս գրադիենտի խնդրի անհետացում[6][23]։ 1992 թվականին ցույց է տրվել, որ պարբերական նեյրոնային ցանցերի ստեկի անվերահսկելի նախապատրաստումը կարող է արագացնել խորը հաջորդական խնդիրների հետագա վերահսկողական ուսումնասիրությունը[24]։
Բազմաթիվ հետազոտողներ այժմ օգտագործում են խոր ուսուցման պարբերական նեյրոնային ցանցերի տարբերակներ, որ կոչվում են երկար կարճաժամկետ հիշողության ցանց (LSTM), հրապարակված 1997 թվականին Hochreiter & Schmidhuber-ի կողմից[25]։ LSTM-ն is often trained by Connectionist Temporal Classification (CTC).[26] Այս մոտեցումը խոսքի ճանաչման մեջ հեղափոխություն իրականացրեց Google-ում, Microsoftում և Baidu-ում[27][28][29]։ Օրինակ, 2015 թվականին, LSTM Google-ի խոսքի ճանաչումն աճեց 49% CTC-ուսուցման միջոցով, որն այժմ հասանելի է Google Voice-ի միջոցով միլիարդավոր սմարթֆոնի օգտվողներին[30]։ Google-ը LSTM-ն օգտագործվում է նաև մեքենայական թարգմանությունը[31], լեզվի մոդելավորումը[32] և բազմալեզու լեզվական մշակումը բարելավելու համար[33]։ LSTM-ը CNN-ների հետ նաև զարգացրել են պատկերի ավտոմատ նկարագրության ստեղծումը[34] և բազում այլ կիրառություններ։
Առաջընթացի գնահատում
[խմբագրել | խմբագրել կոդը]Արհեստական ինտելեկտը, ինչպես էլեկտրաէներգիան կամ գոլորշու շարժիչը, ընդհանուր նշանակության տեխնոլոգիա է։ Չկա միակարծություն, թե ինչպես բնութագրել խնդիրները, որոնցում ԱԲ-ն ձգտում է աչքի ընկնել[35]։ Մինչ ծրագրերը, ինչպիսին AlphaZero-ն է, հաջողեցին զրոյից իրենց սեփական գիտելիքները գեներացնել, շատ այլ մեքենայական ուսուցման ծրագրեր պահանջում են վերապատրաստման մեծ հավաքածուներ[36][37]։ Հետազոտող Էնդրյու Ինը որպես "ծայրահեղ անկատար բթամտի կանոն" է առաջարկել, որը "համարյա ամեն ինչ, որ սովորական մարդը մտքում կարող է անել մի վայրկյանից քիչ ժամանակում, հավանաբար այժմ կամ մոտ ապագայում կարող ենք ավտոմատացնել արհեստական ինտելեկտ օգտագործելով։"[38] Մորավեկի պարադոքսը ենթադրում է, որ ԱԲ-ն զիջում է մարդուն շատ հարցերում, որ մարդկային ուղեղը հատկապես զարգացած է լավ գործելու համար[39]։
Առաջընթացի ցուցանիշների գնահատման համար, խաղերն ապահովում են լավ հրապարակված չափորոշիչներ։ Մոտավորապես 2016 թվականին AlphaGo-ն դասական խաղատախտակային խաղերի դարաշրջանն ավարտեց։ Ոչ ատարյալ գիտելիքի խաղերը նոր մարտահրավերներ են դնում խաղերի տեսության արհեստական ինտելեկտի բնագավառում[40][41]։ Կիբեռսպորտ խաղերը, ինչպիսին StarCraft-ն է շարունակում է լրացուցիչ հանրային ցուցանիշներ ապահովել[42][43]։ Արհեստական ինտելեկտում հետազոտությունը խթանելու համար, բազմաթիվ մրցույթներ և մրցանակներ գոյություն ունեն։ Մրցույթների ամենատարածված բնագավառները ներառում են մեքենայական ընդհանուր ինտելեկտը, խոսակցական վարքագիծ, տվյալների վերլուծություն, ինքնակառավարվող ավտոմեքենաներ, ռոբոտների ֆուտբոլ, ինպես նաև սովորական խաղեր[44]։
"Իմիտացիոն խաղ" (1950 թվականի Թյուրինգի թեստի մեկնաբանումը, որը գնահատում է արդյոք համակարգիչը կարող է նմանակել մարդուն) այսօր դիտարկվում է շատ կիրառելի որպես իմաստալից չափանիշ[45]։ Թյուրինգի թեստից ածանցյալ, Ամբողջովին Ավտոմատացված Թյուրինգի Հանրային թեստը ներկայացնում է համակարգիչն ու մարդն առանձին։ (CAPTCHA). Ինչպես անունից է հետևում այն օգնում է որոշել օգտվողը մարդ է, թե մարդուն նմանակող համակարգիչ։ Ի տարբերություն Թյուրինգի ստանդարտ թեստի, CAPTCHA-ն կառավարվում է մեքենայի կողմից և ուղղված է դեպի մարդը, այլ ոչ թե մարդու կողմից կառավարվող և ուղղված մեքենային։ Համակարգիչը օգտվողին լրացնելու պարզ թեստ է առաջարկում, ապա գնահատում է այն։ Կոմպյուտերներն ի վիճակի չեն լուծել խնդիրը, ուստի ճշգրիտ լուծումը համարվում է թեստն անցած մարդու արդյունքը։ CAPTCHA-ի տարածված թեստի տեսակն է, որ պահանջում է ծռմռված տառերի, թվերի կամ նշանների մուտքագրումը, որոնք հայտնվում են էկրանին, համակարգչի կողմից չվերծանվող պատկերով։[46]
Առաջարկվող "ունիվերսալ ինտելեկտի" թեստերը նպատակուղղված են համադրելու, թե որքան լավ են մեքենաները, մարդիկ, և նույնիսկ կենդանիներն աշխատում հնարավորինս ընդհանուր խնդիրների բազմության վրա։ Ծայրահեղ դեպքում թեստերի հավաքածուն կարող է պարունակել Կալմոգորովի բարդությամբ գնահատված բոլոր հնարավոր խնդիրները, ցավոք, այս խնդիրների բազմություններում գերիշխում են աղքատացած շաբլոնին համեմատվող վարժությունները, որտեղ կարգավորվող ԱԲ-ն հեշտությամբ կարող է գերազանցել մարդու կատարողականի մակարդակը[47][48]։
Կիրառություններ
[խմբագրել | խմբագրել կոդը]
Արհեստական ինտելեկտը վերաբերում է յուրաքանչյուր ինտելեկտուալ խնդրի։[49] Ժամանակակից արհեստական ինտելեկտի միջոցները շատ տարածված են և շատ են այստեղ բոլորը թվարկելու համար։ Հաճախ, երբ տեխնիկան դառնում է հիմնական օգտագործվող, այն այլևս չի համարվում արհեստական ինտելեկտ, այս երևույթը դիտարկվում է որպես արհեստական ինտելեկտի ազդեցություն։[50]
Արհեստական ինտելեկտի բարձրակարգ նմուշներ են ինքնակառավարվող փոխադրամիջոցները (ինչպիսիք են անօդաչու թռչող սարքերը և ինքնակառավարվող մեքենաները), բժշկական ախտորոշումը, արվեստի գործերի ստեղծումը (ինչպես պոեզիան), մաթեմատիկական թեորեմների ապացուցումը, խաղեր խաղալը (շախմատ ու գո), որոնողական համակարգեր (Գուգլ (որոնողական համակարգ)), առցանց օգնական (Siri), լուսանկարներում պատկերների ճանաչումը, սպամի ֆիլտրումը, թռիչքի հետաձգման կանխատեսումը[51], դատական որոշումների կանխատեսումը[52] և առցանց գովազդներին ուշադրություն դարձնելը։[49][53][54]
Քանի որ սոցիալական լրատվամիջոցները որպես լուրերի աղբյուր երիտասարդների համար անցնում են հեռուստատեսությանը, իսկ նորությունների գործակալությունները լուրերի տարածումը գեներացնելու համար ավելի շատ են հիմնվում սոցիալական մեդիա հարթակների վրա[55], հրատարակիչների մեծ մասը պատմություններն ավելի արդյունավետ ուղարկելու համար և տարածման մեծ ծավալ գեներացնելու համար այժմ օգտագործում են արհեստական ինտելեկտի (ԱԲ) տեխնոլոգիաները[56]։
Առողջապահություն
[խմբագրել | խմբագրել կոդը]
ԱԲ-ն կիրառվում է թանկարժեք պրոբլեմի՝ դեղաչափերի որոշման խնդիրների վրա, ենթադրվում է, որ ԱԲ-ի կիրառումը կարող է խնայել 16 միլիարդ դոլար։ 2016 թվականին նորարական ուսումնասիրությունները Կալիֆորնիայում գտել են, որ ԱԲ-ի օգնությամբ մշակված մաթեմատիկական բանաձևերը ճշգրիտ որոշում են մարդու օրգաններին տրվող դեղերի ճշգրիտ չափաբաժինները[57]։

Արհեստական ինտելեկտը ներխուժում է բժշկության ոլորտ օգնելու բժիշկներին։ Համաձայն Bloomberg Technology-ի, Microsoft-ը մշակել է ԱԲ, որն օգնում է բժիշկներին բուժել քաղցկեղը[58]։ Քաղցկեղին վերաբերող հսկայական քանակությամբ հետազոտություններ և դեղեր են մշակվել։ Մանրամասն, քաղցկեղի բուժման համար գոյություն ունեն ավելի քան 800 դեղորայք և պատվաստանյութեր։ Սա բացասաբար է ազդում բժիշկների վրա, քանի որ ընտրության շատ մեծ թվով տարբերակներ կան, ինչը ավելի է դժվարացնում ճիշտ դեղն ընտրել հիվանդի համար։ Microsoft-ը աշխատում է "Hanover" անվամբ մեքենայի մշակման ծրագրի վրա։ Դրա նպատակն է հիշել քաղցկեղին անհրաժեշտ բոլոր փաստաթղթերը, օգնելու կանխատեսել դեղերի որ համադրություններն ամենաարդյունավետը կլինի յուրաքանչյուր հիվանդի համար։ Ներկայումս աշխատում են մյելոիդ լեյկեմիայի՝ մահացու քաղցկեղի, դեմ պայքարի ծրագրի վրա, որի բուժումը տասնամյակների ընթացքում չի բարելավվել։ Մեկ այլ ուսումնասիրություն փաստում է, որ մաշկի քաղցկեղը հայտնաբերելու գործում արհեստական ինտելեկտը նույնքան լավ է, որքան պատրաստված բժիշկները[59]։ Մեկ այլ ուսումնասիրություն արհեստական ինտելեկտն օգտագործում է վերահսկելու բազում բարձր ռիսկային հիվանդներին, և դա իրագործվել է յուրաքանչյուր հիվանդին բազմաթիվ հարցեր տալով, որոնք կազմվելեն բժիշկ հիվանդ կենդանի շփումների հիման վրա[60]։ Մեկ ուսումնասիրություն կատարվել է ուսուցման փոխանցմամբ, մեքենան նույնքան հաջող է ախտորոշում, որքան լավ պատրաստված ակնաբույժը և ավելի քան 95% տոկոս ճշգրտությամբ, կարող է 30 որոշում կայացնել, արդյոք հիվանդին պետք է բուժման ուղարկել[61]։
Ըստ CNN-ի վիրաբույժների վերջին հետազոտությունները Վաշինգտոնի մանկական ազգային բժշկական կենտրոնում, հաջողությամբ ցուցադրեցին վիրահատություն ավտոմատ ռոբոտի կողմից։ Թիմը հետևում էր ռոբոտին, երբ նա փափուկ հյուսվածքների վիրահատություն էր կատարում, բաց վիրահատության ժամանակ կարելով խոզի երիկամը և դա անում էր մարդ վիրաբույժից լավ։ IBM ստեղծել է արհեստական ինտելեկտով իր սեփական համակարգիչը, IBM Watson, որը գերազանցել է մարդու ինտելեկտը (որոշ մակարդակներում)։ Watson-ը ոչ միայն հաղթեց Jeopardy! խաղի նախկին չեմպիոններին[62], այլ նաև հերոս հայտարարվեց, լեյկեմիայով հիվանդ կնոջն ախտորոշելուց հետո[63]։
Ավտոմոբիլային
[խմբագրել | խմբագրել կոդը]Արհեստական ինտելեկտի առաջընթացը նպաստել է ավտոմոբիլային արդյունաբերության զարգացմանը ինքնագնաց ավտոմեքենաների ստեղծման և զարգացման միջոցով։ 2016 թվականի տվյալներով, ավելի քան 30 ընկերություններ օգտագործում են ԱԲ-ն ինքնագնաց ավտոմեքենաներ ստեղծելու համար։ Արհեստական ինտելեկտով զբաղվող երեք ընկերություններ` Tesla, Google և Apple, ներառված են ինքնագնաց մեքենաներ ստեղծելու մեջ[64]։
Բազմաթիվ բաղադրիչներ են նպաստում ինքնակառավարվող ավտոմեքենաների գործունեությանը։ Այս տրանսպորտային միջոցները միավորում են այնպիսի համակարգեր, ինչպիսիք են արգելակումը, գոտիների փոփոխությունը, բախման կանխարգելումը, նավիգացիան և քարտեզագրումը։ Այս համակարգերը բարձր արդյունավետության համակարգիչների հետ միասին ինտեգրվում են մեկ բարդ տրանսպորտային միջոցի մեջ[65]։
Վերջին զարգացումներն ինքնավար ավտոմոբիլներում դարձրել են ինքնակառավարվող բեռնատարների նորարարությունը հնարավոր, չնայած դրանք դեռևս փորձարկման փուլում են։ Միացյալ Թագավորության կառավարությունը օրենք է ընդունել, որով 2018 թվականին սկսվելու են ինքնագնաց բեռնատարների դասակների փորձարկումները[66]։ Ինքնակառավարվող բեռնատարների դասակները ինքնագնաց բեռնատարների պարկ են, որ հետևում են մեկ ոչ ինքնակառավարվող առաջատար բեռնատարի, այսպիսով բեռնատար դասակները դեռևս ամբողջովին ավտոմատացված չեն։ Մինչդեռ Daimler գերմանական ավտոմոբիլային ընկերությունը փորձարկում է կիսաավտոմատ բեռնատար, որը միայն կօգտագործվի մայրուղիների վրա[67]։
Հիմնական գործոնը, որն ազդում է ինքնակառավարվող ավտոմոբիլի գործունեության վրա, քարտեզագրումն է։ Ընդհանուր առմամբ մեքենան նախապես ծրագրավորված կլիներ վարման տարածքի քարտեզին համապատասխան։ Այս քարտեզը կներառեր փողոցային լույսի և անհարթությունների մոտեցման մասին տվյալներ, որպեսզի մեքենան տեղյակ լինի իր շրջապատից։ Համենայն դեպս, Google-ն աշխատում է ալգորիթմի վրա, ստեղծելով սարք, որը տարբեր նոր միջավայրերի կկարողանար հարմարվել, որպեսզի վերացնի նախապես ծրագրավորված քարտեզների կարիքը[68]։ Որոշ ինքնակառավարվող մեքենաներ հագեցած չեն ղեկով կամ արգելակման շարժիչներով, հետևաբար հետազոտություն է կատարվել այնպիսի ալգորիթմ ստեղծելու, որն ի վիճակի է ուղևորների անվտանգությունն ապահովել, արագության և վարորդական պայմանների մասին իրազեկման միջոցով[69]։
Մեկ այլ գործոն, որը ազդում է ինքնակառավարվող մեքենայի վրա, ուղևորների անվտանգության ապահովումն է։ Անվարորդ ավտոմեքենա ստեղծելու համար ինժեներները պետք է ծրագրավորեն այն բարձր ռիսկայնության իրավիճակների կարգավորման համար։ Այս իրավիճակները կարող են ներառել հետիոտնի հետ դեմ առ դեմ բախումը։ Ավտոմեքենայի հիմնական նպատակը պետք է լինի այնպիսի որոշում կայացնելը, որը հետիոտնին հարվածելուց խուսափի և ուղևորներին չվնասի։ Բայց հնարավոր է իրադրություն, երբ մեքենայի որոշումը մեկնումեկին վտանգի է ենթարկում։ Այլ կերպ ասած, մեքենան պետք է որոշի` խնայել հետիոտնին, թե ուղևորին[70]։ Ավտոմեքենայի ծրագրավորումն այսպիսի իրավիճակներում վճռորոշ է հաջող ինքնակառավարվող մեքենայի համար։
Ֆինանսներ և տնտեսություն
[խմբագրել | խմբագրել կոդը]Ֆինանսական հաստատությունները վաղուց օգտագործում են արհեստական նեյրոնային ցանց համակարգերը հայտնաբերելու նորմայից դուրս ծախսերը կամ բողոքները և առանձնացնելու մարդկային հետազոտման համար։ ԱԲ-ի օգտագործումը բանկային համակարգում կարելի է դիտարկել 1987 թվականին, երբ Security Pacific National Bank-ը ԱՄՆ-ում ստեղծում է խարդախության կանխարգելման գործառույթ, որը կբացառի դեբետային քարտերի չլիազորված օգտագործումը։ Կասիստո և Moneystream նման ծրագրերը ֆինանսական ծառայություններում օգտագործում են ԱԲ-ն։
Ներկայումս բանկերն արհեստական ինտելեկտ համակարգերն օգտագործում են գործառույթներ իրականացնելու, հաշվապահություն վարելու, բաժնետոմսեր ձեռքբերելու և սեփականության կառավարման համար։ ԱԲ-ն կարող է փոփոխություններին արագ արձագանքել կամ երբ գործարք տեղի չի ունենում[71]։ 2001 թվականի օգոստոսին ռոբոտները հաղթեցին մարդկանց ֆինանսական առևտրի նմանակման մրցույթում[72]։ ԱԲ-ը նաև նվազեցրել է խարդախության և ֆինանսական հանցագործությունների դեպքերը, հետևելով օգտվողների վարքագծային մոդելներին, նորմայից դուրս դրսևորումներն ամրագրելով[73]։
ԱԲ մեքենաների օգտագործումը շուկայում, կիրառություններում, օրինակ առցանց առևտրում և որոշումների կայացման մեջ փոխել է հիմնական տնտեսական տեսությունները[74]։ Օրինակ, AI- ի գնման և վաճառքի պլատֆորմները փոխել են առաջարկի և պահանջարկի օրենքը, որով այժմ հեշտությամբ հնարավոր է գնահատել անհատականացված պահանջարկի և մատակարարման կորերը, հետևաբար և անհատականացված գնագոյացումը։ Բացի այդ ԱԲ մեքենաները նվազեցնում են ինֆորմացիոն ասիմետրիան շուկայում, դարձնելով շուկաներն ավելի արդյունավետ, միաժամանակ նվազեցնելով գործարքների ծավալը։ Ավելին, ԱԲ-ն շուկաներում սահմանափակում է շուկաների վարքագծի հետևանքները, կրկին շուկան ավելի արդյունավետ դարձնելով։ Այլ տեսություններ, որտեղ ԱԲ-ն ազդեցություն է ունեցել, ներառում են ռացիոնալ ընտրության տեսությունը, ռացիոնալ սպասումների տեսությունը, խաղերի տեսությունը, Լյուիսի շրջադարձային կետի, պորտֆելի օպտիմիզացիան և հակափաստարկ մտածողությունը։
Կառավարություն
[խմբագրել | խմբագրել կոդը]Տեսախաղեր
[խմբագրել | խմբագրել կոդը]Տեսախաղերում արհեստական ինտելեկտը սովորաբար օգտագործվում է ոչ խաղացող կերպարների (NPCs) մոտ դինամիկ նպատակասլաց վարք գեներացնելու համար։ Բացի այդ լավ հասկանալի ԱԲ մեթոդները սովորաբար օգտագործվում են ճանապարհի որոնման համար։ Որոշ հետազոտողներ NPC ԱԲ-ն խաղերի մեջ արդյունաբերական խնդիրների մեծ մասի համար համարում են "լուծված պրոբլեմ"։ Ավելի ոչ տիպիկ խաղեր են Left 4 Dead-ի (2008) ԱԲ-ռեժիսորը և դասակների նեյրոէվոլյուցիոն վերապատրաստումը Supreme Commander 2 (2010).[75][76]
Ռազմական ուժեր
[խմբագրել | խմբագրել կոդը]Ռոբոտատեխնիկայի վրա ամենամյա տարեկան ծախսերն աշխարհում 5.1 միլիարդ ԱՄՆ դոլարից 2010 թվականին հասել է 7.5 միլիարդի 2015 թվականին[77][78]։ Ռազմական անօդաչու սարքերը լայն տարածում ունեն։ 2017 թվականին Վլադիմիր Պուտինը հայտարարեց "Ով էլ որ դառնա առաջատար արհեստական ինտելեկտում, նա էլ կդառնա աշխարհի տիրակալ"[79][80]։ Արհեստական ինտելեկտի շատ հետազոտողներ ձգտում են հեռու մնալ ԱԲ-ի ռազմական կիրառություններից[81]։
Աուդիտ
[խմբագրել | խմբագրել կոդը]Արհեստական ինտելեկտը հնարավոր է դարձնում ֆինանսական հաշվետվության մշտական աուդիտը։ ԱԲ գործիքները կարող են վերլուծել տարբեր ինֆորմացիայի հավաքածուներն անմիջապես։ Պոտենցիալ օգուտը կլինի ընդհանուր աուդիտորական ռիսկերը նվազեցնելը, վստահության մակարդակը կաճի և աուդիտի տևողությունը կնվազի[82]։
Գովազդ
[խմբագրել | խմբագրել կոդը]Հնարավոր է ԱԲ-ն օգտագործել կանխագուշակելու կամ ընդհանրացնելու հաճախորդների վարքագիծը իրենց թվային հետքով, որպեսզի ուղղորդել նրանց անհատականացված խրախուսման ակցիաներ կամ ավտոմատ ստեղծել հաճախորդների նախընտրությունների ցանկ[83]։ Փաստաթղթերը հաստատում են, որ առցանց խաղերով զբաղվող կազմակերպություններն ԱԲ-ն օգտագործում են հաճախորդներին նպատակաուղղելու համար[84]։
Ավելին, անհատականության հաշվարկի ԱԲ մոդելների կիրառումը կարող է նպաստել գովազդային արշավների արժեքի նվազեցմանը, ավելացնելով հոգեբանական թիրախը ավանդական սոցիոդեմոգրաֆիկ կամ վարքային թիրախավորմանը[85]։
Արվեստ
[խմբագրել | խմբագրել կոդը]Արհեստական ինտելեկտը բազմաթիվ ստեղծագործական կիրառություններ է ոգեշնչել, ներառյալ դրանց օգտագործումը վիզուալ արվեստ ստեղծելու գործում։ "Մտածող մեքենաներ․ Արվեստ և դիզայն 1959–1989 կոմյուտերային թվերին" ցուցահանդեսը MoMA-ում[86] ներկայացնում է ԱԲ-ի պատմական կիրառությունների լավ ակնարկ արվեստում, ճարտարապետության և դիզայնի մեջ։ Արվեստ ստեղծող ԱԲ-ի օգտագործումը ցուցադրող վերջին ցուցահանդեսները, ներառյալ Google-ի հովանավորությամբ աուկցիոնը Գրեյ Արեա Հիմնադրամում, Սան Ֆրանցիսկո, որտեղ նկարիչները փորձեր էին անում deepdream ալգորիթմով[87] և "Unhuman: Արվեստը ԱԲ-ի դարաշրջանում," ցուցահանդեսը, որը տեղի ունեցավ Լոս Անջելեսում և Ֆրանկֆուրտում 2017 թվականի աշնանը[88][89]։ 2018 թվականի գարնանը Հաշվողական տեխնիկայի ասոցիացիան ամսագրի հատուկ համար է թողարկել նվիրված համակարգիչներ և արվեստ թեմային, ընդգծելով մեքենայական ուսուցման դերը արվեստում[90]։
Փիլիսոփայություն և Էթիկա
[խմբագրել | խմբագրել կոդը]Արհեստական ինտելեկտին վերաբերող երեք փիլիսոփայական հարցեր կան․
- Ընդհանուր արհեստական ինտելեկտը հնարավո՞ր է։ Մեքենան կարո՞ղ է լուծել ցանկացած խնդիր, որը մարդը կարող է լուծել բանականությամբ։ Կամ արդյո՞ք խիստ սահմանափակումներ կան, թե ինչ է կարող անել մեքենան։
- Բանական մեքենաները վտանգավո՞ր են։ Ինչպե՞ս մենք կարող ենք վստահ լինել, որ մեքենաները գործում են և օգտագործվում են էթիկայի սահմաններում։
- Կարո՞ղ է մեքենան ունենալ խելք, գիտակցություն և հոգեվիճակ, նույն իմաստով ինչը մարդն ունի։ Կարո՞ղ է մեքենան լինել զգոն և հետևաբար որոշակի իրավունքներ ունենալ։ Կարո՞ղ է մեքենան միտումնավոր վնաս հասցնել։
Արհեստական ընդհանուր ինտելեկտի սահմանները
[խմբագրել | խմբագրել կոդը]Կարո՞ղ է մեքենան խելացի լինել։ Այն կարո՞ղ է մտածել։
- Հաշվիչ մեքենաները և բանականությունը։ Մեզ պետք չի որոշել, արդյոք մեքենան կարող է "մտածել", մենք պետք է միայն որոշենք, արդյոք մեքենան կարող է գործել նույնքան խելացի, որքան մարդը։ Արհեստական ինտելեկտին վերաբերող փիլիսոփայական խնդիրներին այսպիսի մոտեցումը Թյուրինգի թեստի հիմքն է[91]։
- Դարտմութի առաջարկը։ "Ուսումնառության յուրաքանչյուր ասպեկտ կամ բանականության այլ առանձնահատկություն կարելի է այնքան ճշգրիտ նկարագրել, որ կարելի լինի ստեղծել մեքենա դրա նմանակման համար։" Այս հիպոթեզը տպված էր 1956 թվականի Դարտմութի կոնֆերանսի առաջարկում և արտահայտում է ԱԲ հետազոտողների մեծ մասի տեսակետը[92]։
- Նյուելի և Սայմոնի ֆիզիկական սիմվոլների համակարգի հիպոթեզը։ "Ֆիզիկական սիմվոլների համակարգը ունի ընդհանուր բանական գործողությունների անհրաժեշտ և բավարար միջոցներ։" Նյուելն ու Սայմոնը պնդում են, որ բանականությունը բաղկացած է սիմվոլների նկատմամբ ֆորմալ գործողություններից[93]։ Հյուբերտ Դրեյֆուսը հակառակն էր պնդում, մարդու փորձը ավելի շուտ կախված է անգիտակից բնազդից, քան սիմվոլների գիտակցված մանիպուլյացիայից և իրավիճակի "զգալուց", այլ ոչ հստակ սիմվոլիկ գիտելիքից[94][95]։
- Գյոդելյան փաստարկները։ Ինքը Գյոդելը[96], Ջոն Լուկասը (1961) և Ռոջեր Պենրոուզը (1989-ից ավելի մանրամասն փաստարկներով) առաջ քաշեցին տեխնիկական փաստարկներ, որ մաթեմատիկոսները հետևականորեն տեսնեն իրենց սեփական "Գյոդելի փաստարկների" ճշմարտացիությունը և հետևաբար Թյուրինգի մեքենայից դուրս, հաշվարկային կարողություններ ունեն[97] Այնուամենայնիվ գիտական և մաթեմատիկական համայնքների ներկայիս կոնսենսուսն այն է, որ "Գյոդելյան փաստարկները" անարդյունավետ են[98][99][100]։
- Արհեստական ուղեղի փաստարկը։ Մեքենան կարող է մոդելավորել ուղեղը և քանի որ ուղեղը խելացի է, նմանակված ուղեղը նույնպես պետք է խելացի լինի, ուստի մեքենաները կարող են խելացի լինել։ Հանս Մորավեկը, Ռեյմոնդ Կուրցվեյլը և այլք պնդում ե որ տեխնիկապես հնարավոր է ուղղակի պատճենել ուղեղը ապարատային և ծրագրային ապահովման միջոցով և նման մոդելավորումը ըստ էության նույնն է լինելու[101]։
- Արհեստական ինտելեկտի ազդեցությունը։ Մեքենաներն արդեն խելացի են, սակայն դիտորդները հրաժարվում են ճանաչել դա։ Երբ Deep Blue-ն շախմատով հաղթեց Գարրի Կասպարովին, մեքենան խելացի էր գործում։ Այնուամենայնիվ դիտորդները սովորաբար անտեսում են արհեստական ինտելեկտի ծրագրի վարքագիծը, պնդելով, որ ի վերջո դա «իրական» բանականություն չի։ Այսպիսով «իրական» բանականությունն այն է, ինչ խելամիտ վարքագծով մարդիկ կարող են, և մեքենաները դեռևս չեն կարող։ Սա հայտնի է որպես արհեստական ինտելեկտի ազդեցություն․ «ԱԲ-ն այն է, ինչ դեռևս չի արվել»։
Պոտենցիալ վնաս
[խմբագրել | խմբագրել կոդը]Արհեստական ինտելեկտի լայնորեն օգտագործումը կարող է անկանխատեսելի հետևանքներ ունենալ, որոնք լինեն վտանգավոր և անցանկալի։ Ապագա կյանքի ինստիտուտի գիտնականները, ի թիվս այլոց, նկարագրել են կարճաժամկետ հետազոտական նպատակներ տեսնելու, թե ինչպես է ԱԲ-ն ազդում իր հետ կապ ունեցող տնտեսության, օրենքների և էթիկայի վրա և ինչպես նվազեցնել անվտանգության ռիսկերը։ Երկարաժամկետ հեռանկարում գիտնականները առաջարկել են շարունակել օպտիմալացնել գործառույթը, նվազագույնի հասցնելով հնարավոր անվտանգության ռիսկերը, որոնք գալիս են նոր տեխնոլոգիաների հետ[102]։
Գոյատևման ռիսկ
[խմբագրել | խմբագրել կոդը]Ֆիզիկոս Սթիվեն Հոքինգը, Մայքրոսոֆթի հիմնադիր Բիլ Գեյթսը և SpaceX-ի հիմնադիր Իլոն Մասկը մտահոգություն են արտահայտել ԱԲ-ի այն աստիճանի հնարավոր զարգացման վերաբերյալ, որ մարդիկ չկարողանան այն վերահսկել, և Հոքինգի ենթադրությունը, որ դա կարող է "մարդկության վերջը լինել"։ [103] [104] [105]
| Արհեստական ինտելեկտի լիակատար զարգացումը կարող էր հանգեցնել մարդկային ցեղի վերացմանը։ Հենց մարդիկ զարգացնեն արհեստական ինտելեկտը, այն կսկսի ինքնուրույն թռիչքով զարգանալ և կվերափոխվի անընդհատ վերելքով։ Մարդիկ, որոնք սահմանափակված են կենսաբանական դանդաղ էվոլյուցիայով, չեն կարող մրցակցել և դուրս կմղվեն։ - Սթիվեն Հոքինգ[106]
|
Նիկ Բոստրոմը, իր Սուպերինտելեկտ գրքում փաստարկներ է բերում, որ արհեստական ինտելեկտը մարդկության համար սպառնալիքներ կստեղծի։ Նա պնդում է, որ բավականաչափ խելացի ԱԲ-ն, եթե այն ընտրել է որևէ նպատակի հասնելու գործողություններ, կցուցադրի զուգամիտող վարքագիծ, ինչպիսիք են ռեսուրսների ձեռքբերում կամ իրեն անջատելուց պաշտպանելը։ Եթե ԱԲ-ի նպատակները մարդկության վրա ազդեցություն չեն գործում՝ մի օրինակ ԱԲ-ն ասվում է հաշվել pi թիվը, որքան հնարավոր է մեծ ճշտությամբ, այն կարող է վնասել մարդկությանը, պահանջելով շատ ռեսուրսներ կամ պաշտպանել իրեն անջատելուց, ի վերջո ավելի լավ հասնելու իր նպատակին։ Արհեստական ինտելեկտի ռիսկի նկատմամբ մտահոգությունը հանգեցրել է մի շարք էական նվիրատվությունների և ներդրումների։ Տեխնիկական տիտանների մի խումբ, այդ թվում Պիտեր Թիլը, Ամազոն Վեբ ծառայությունները և Մասկը 1 միլիարդ դոլար են հատկացրել OpenAI-ին, շահույթ չհետապնդող ընկերություն, որը նպատակաուղղված է ԱԲ-ի զարգացման պատասխանատվության ապահովմանը[107]։ Փորձագետների կարծիքները տարբեր են, ընդ որում չափավոր մաս են կազմում թե հնարավոր գերմարդկային ԱԲ-ի ռիսկով մտահոգները և թե անհոգները[108]։ 2015 թվականի հունվարին Իլոն Մասկը, ԱԲ-ի որոշումներ կայացնելու մեխանիզմի հետազոտության համար, Ապագա Կյանքի Ինստիտուտին տաս միլիոն դոլար նվիրաբերեց։ Ինստիտուտի նպատակն է "բարձրացնել իմաստնությունը, որով մենք կառավարում ենք" տեխնոլոգիայի աճող հզորությունը։ Մասկը նաև ֆինանսավորում է արհեստական ինտելեկտ մշակող ընկերություններին, ինչպիք են Google DeepMind-ը և Vicarious-ը, որպեսզի "ուղղակի հետևի, թե ինչ է կատարվում արհեստական ինտելեկտի ոլորտում[109]։ Կարծում եմ այնտեղ հնարավոր վտանգներ են առկա։"[110][111]
Այդ վտանգը պատկերացնելու համար, երևակայական ԱԲ-ն պետք է հաղթահարի կամ խորամանկի ողջ մարդկությանը, ինչը էքսպերտների փոքրամասնությունը պնդում է, որ հնարավոր է բավականին հեռու ապագայում և արժանի է հետազոտման[112][113]։ Այլ հակափաստարկները պտտվում են արհեստական ինտելեկտում ներգրավված մարդկանց շրջանում, որոնք արժեքավոր են արհեստական ինտելեկտի տեսանկյունից[114]։
Մարդկության արժեզրկում
[խմբագրել | խմբագրել կոդը]Ժոզեֆ Վայզենբաումը գրել է ԱԲ-ի կիրառությունները ի սկզբանե չեն կարող հաջողությամբ նմանակել մարդկային բուն զգացմունքները և ԱԲ տեխնոլոգիաների կիրառությունը այնպիսի ոլորտներում, ինչպիսիք են հաճախորդների սպասարկումը և հոգեթերապիան[115], խորապես սխալ էր։ Վայզենբաումին նույնպես անհանգստացնում էր, որ ԱԲ հետազոտողները (և որոշ փիլիսոփաներ) մարդկային միտքը պատրաստ էին դիտարկել որպես ոչ այլ ինչ, քան համակարգչային ծրագիր (հաշվողական տեխնիկա)։ Վայզենբաումը գտնում էր, որ ԱԲ-ն արժեզրկում է մարդու կյանքը[116]։
Սոցիալական արդարությունe
[խմբագրել | խմբագրել կոդը]Մի մտահոգություն կա, որ ԱԲ ծրագրերը կարող են ծրագրված լինել ընդդեմ որոշակի խմբերի դեմ, ասենք կանանց և փոքրամասնությունների դեմ, որովհետև մշակողների մեծ մասը հարուստ կովկասցի տղամարդիկ են[117]։ Արհեստական ինտելեկտին աջակցում են տղամարդկանց 47%-ը, կանանց՝ 35%-ը։
Մարդու աշխատանքի պահանջարկի նվազում
[խմբագրել | խմբագրել կոդը]Ավտոմոտացման և զբաղվածության միջև կապը բարդ է։ Մինչ ավտոմատացումը վերացնում է հին աշխատատեղերը, այն նաև, միկրոտնտեսական և մակրոտնտեսական ազդեցությունների շնորհիվ, նոր աշխատեղեր է ստեղծում[118]։ Ի տարբերություն ավտոմատացման նախորդ ալիքների, այժմ շատ միջին դասի աշխատանքներ հնարավոր է դուրս մղվեն արհեստական ինտելեկտի կողմից։ Էկոնոմիստը հայտարարում է․ "Անհանգստությունը, որ ԱԲ-ն սպիտակ օձիքներով աշխատանքների հետ նույնը կանի, ինչ որ գոլորշու էներգիան կատարեց բանվորների հետ արդյունաբերական հեղափոխության ընթացքում", "արժե լուրջ ընդունել"[119]։ Ռիսկի սուբյեկտիվ գնահատականները շատ են տարբեր են, օրինակ, Մայքլ Օսբորնը և Կառլ Բենեդիկտ Ֆրեյը ենթադրում են որ ԱՄՆ աշխատատեղերի 47%-ը "բարձր ռիսկային են" հնարավոր ավտոմատացման դեպքում, մինչդեռ OECD-ի հաշվետվությունը գնահատում է միայն աշխատատեղերի 9%-ը "բարձր ռիսկային"[120][121][122]։ Ծայրահեղ ռիսկի տակ են իրավաբանների օգնականներից մինչև արագ սննդի խոհարարները, մինչդեռ կաճեն խնամքի հետ կապված մասնագիտությունների պահանջարկը, սկսած անձնական առողջապահությունից մինչև հոգևոր[123]։ Մարտին Ֆորդը և այլք ավելի հեռու են գնում և պնդում են, որ աշխատանքների մեծ մասը սովորական են, կրկնվող և կանխատեսելի։ Ֆորդը զգուշացնում է, որ այս աշխատանքները կավտոմատացվեն մոտակա տասնամյակների ընթացքում և որ շատ նոր աշխատանքներ "միջին ընդունակությունների տեր մարդկանց համար մատչելի չեն", նույնիսկ, եթե նրանք վերապատրաստվեն։ Տնտեսագետները մատնանշում են, որ նախկին տեխնոլոգիաներն ավելի շուտ ընդհանուր զբաղվածության աճի, քան նվազման տենդենց ունեին, սակայն գիտակցում են, որ ԱԲ-ի հետ "մենք չուսումնասիրված տիրույթում ենք"[124]։
Ինքնավար զենքեր
[խմբագրել | խմբագրել կոդը]Ներկայումս 50+ երկրներ, ներառյալ Միացյալ Նահանգները, Չինաստանը, Ռուսաստանը և Միացյալ Թագավորությունը, ուսումնասիրում են ռազնադաշտում գործող ռոբոտներ։ Շատերն անհանգստանում են սուպերինտելեկտուալ ԱԲ համակարգերի ռիսկից և ուզում են սահմանափակել արհեստական զինվորների և դրոնների օգտագործումը[125]։
Էթիկ մեքենաներ
[խմբագրել | խմբագրել կոդը]Ինտելեկտուալ մեքենաները կարող են օգտագործվել վնասները կանխարգելելու և ռիսկերը նվազեցնելու համար։ Դրանք կարող են էթիկական եզրահանգումների հնարավորություն ունենալ, որպեսզի ավելի լավ ընտրեն իրենց գործողությունները։ Հետազոտություններն այս ոլորտում ներառում են մեքենայական էթիկան, արհեստական բարոյական ագենտները և բարեկամ ԱԲ-ները։
Արհեստական բարոյական ագենտներ
[խմբագրել | խմբագրել կոդը]Վենդել Վալախը իր Բարոյական մեքենաներ գրքում ներկայացնում է արհեստական բարոյական ագենտ հասկացությունը[126]։ Վալախի համար բարոյական մեքենաները դարձել են արհեստական ինտելեկտի լանդշաֆթի հետազոտության մաս, առաջնորդվելով երկու կենտրոնական հարցերով․ "Արդյոք մարդկությունն ուզում է բարոյական որոշումներ կայացնող կոմպյուտերներ"[127] և "Կարող են ռոբոտները լինել իսկապես բարոյական"[128]։ Վալախի հարցը չէր վերաբերում նրան, որ արդյոք մեքենաները կարող են դրսևորել բարոյական վարքագծի համարժեք, այլ կարող է հասարակությունը սահմանափակումներ դնել արհեստական բարոյական գործակալների զարգացման վրա[129]։
Մեքենայի էթիկա
[խմբագրել | խմբագրել կոդը]Մեքենայի էթիկայի ոլորտը վերաբերում է մեքենայի էթիկ սկզբունքներ տալուն կամ ի հայտ եկող էթիկական երկընտրանքներիի լուծումների բացահայտմանը, հնարավորություն տալով իրենց էթիկական որոշում կայացնելիս գործել էթիկապես պատասխանատու կերպով[130]։ Բնագավառը բնութագրվել է The field was delineated in the AAAI Fall 2005 թվականի աշնանը կայացած Մեքենայական Էթիկայի սիմպոզիումի ժամանակ Symposium on Machine Ethics: "Տեխնոլոգիաների և էթիկայի միջև փոխհարաբերություններին ուղղված անցյալ հետազոտությունները հիմնականում կենտրոնացած էին մարդկանց կողմից տեխնոլոգիայի, պատասխանատու կամ ոչ, օգտագործմանը։ Քչերին էր հետաքրքրում, թե մարդիկ ինչպես պետք է վերաբերվեն մեքենաներին։ Ամեն դեպքում միայն մարդ արարածն է ճշգրիտ էթիկական մտածողությամբ։ Ժամանակն է գոնե որոշ մեքենաների էթիկական բաղադրիչ ավելացնել։ Դա պահանջում են մեքենաների վարքագծի էթիկական հետևանքների գիտակցումը, ինչպես նաև մեքենաների անկախության վերջին և պոտենցիալ զարգացումները։ Ի տարբերություն համակարգիչների հաքինգի, ծրագրային ապահովման հատկությունների, գաղտնիության խնդիրների և այլ թեմաների, որոնք առնչվում են համակարգչային էթիկայի հետ, մեքենայական էթիկան վերաբերում է մեքենայի վարքագծին օգտվողների և այլ մեքենաների նկատմամբ։ Մեքենայական էթիկայի վերաբերյալ հետազոտությունները կարևոր են ինքնավար համակարգերի հետ կապված մտահոգությունները մեղմելու համար - կարելի է պնդել, որ ինքնավար մեքենաների հասկացությունը, առանց այդ բաղադրիչի, ընկած է մեքենայական ինտելեկտի հետ կապված բոլոր մտահոգությունների հիմքում։ Մեքենայական էթիկայի ուսումնասիրությունը կարող է հանգեցնել առկա էթիկական տեսությունների հետ կապված խնդիրներին բացահայտմանը, զարգացնելով մեր մտածելակերպը Էթիկայի մասին:"[131] Մեքենայական էթիկան երբեմն անվանում են մեքենայական բարոյականություն, հաշվարկային էթիկան՝ հաշվարկային բարոյականություն։ Այս նորաստեղծ բնագավառի տարբեր հեռանկարների մասին կարելի է գտնել "Machine Ethics"[130] հավաքածուի մեջ, որը մեկտեղված է AAAI 2005 թվականի աշնանը Մեքենայական Էթիկային նվիրված սիմպոզիումից[131]։
Չարամիտ և բարեկամ ԱԲ
[խմբագրել | խմբագրել կոդը]Քաղաքագետ Չարլզ Ռուբինը կարծում է, որ ԱԲ-ն ոչ կարող է նախագծվել, ոչ էլ երաշխավորվել որպես բարյացակամ[132]։ Նա պնդում է, որ "ցանկացած բավականին առաջադեմ բարեգործություն կարող է չտարբերակվել չարամտությունից։" Մարդիկ չպետք է ենթադրեն մեքնաները և ռոբոտները բարեհամբյուր կլինեն իրենց նկատմամբ, որովհետև ապրիորի պատճառ չկա կարծելու որ նրանց դուր կգա մեր բարոյականության համակարգը, որը զարգացել է մեր յուրահատուկ կենսաբանության հետ։ Հիպերխելացի ծրագրային ապահովումը անպայման չի որ որոշի աջակցել մարդկության շարունակական գոյությունը և չափազանց դժվար կլինի կանգնեցնել։ Այս թեման վերջերս սկսել է քննարկվել ակադեմիական հրապարակումներում, որպես իրական ռիսկի աղբյուր ընդդեմ քաղաքակրթության, մարդկության և երկիր մոլորակի։
Այս պրոբլեմին հանգուցալուծում տալու առաջարկներից մեկն է, արաշխավորված լինել, որ առաջին ընդհանուր առմամբ խելացի ԱԲ-ն բարեկամ ԱԲ-է և այնուհետ կարողանա վերահսկել հետագայում մշակված ԱԲ-ները։ Ոմանք հարցնում են, արդյո՞ք այսպիսի ստուգումը կարող է իրականում տեղում մնալ։
ԱԲ առաջատար հետազոտող Ռոդնի Բրուկսը գրում է․ "Կարծում եմ սխալ է, որ մենք անհանգստանալ, որ մենք կմշակենք չարամիտ ԱԲ երբևէ, հաջորդ հարյուրամյակների ընթացքում։ Մտահոգությունը գալիս է հիմնական սխալից, որ մենք չենք կարողանում տարբերակել ԱԲ-ի կոնկրետ ասպեկտում, շատ իրական վերջին ձեռքբերումները և զգայական կամային բանակություն կառուցելու ահռելիությունն ու բարդությունը։"[133]
Մեքենայական գիտակցություն, զգայունություն և բանականություն
[խմբագրել | խմբագրել կոդը]Եթե ԱԲ համակարգը կրկնօրինակում է մարդկային բանականության բոլոր կարևոր ասպեկտները, այդ համակարգը կլինի նաև զգայու՞ն- այն կունենա՞ բանականություն, որն ունի գիտակցություն։ Այս հարցը սերտորեն կապված է մարդկային գիտակցության բնույթին վերաբերող փիլիսոփայական խնդրին, որը հիմնականում վերաբերում է գիտակցության դժվար խնդիրներին։
Գիտակցություն
[խմբագրել | խմբագրել կոդը]Դեվիդ Չալմերսը բանականությունը հասկանալու երկու խնդիր է առանձնացրել, որոնք նա անվանել է գիտակցության "դժվար" և "հեշտ" խնդիրներ[134]։ Հեշտ խնդիրն այն է՝ հասկանալ, թե ինչպես է ուղեղը մշակում ազդակները, պլանավորում և վարքագիծը վերահսկում։ Դժվար խնդիրն է՝ բացատրել ինչպես է զգում կամ ինչու այն ինչ որ բան պետք է զգա ընդհանրապես։ Մարդու կողմից ինֆորմացիայի մշակումը հեշտ է բացատրել, մարդու սուբյեկտիվ փորձը՝ դժվար։
Օրինակ, դիտարկենք թե ինչ է տեղի ունենում, երբ մարդուն ցույց են տալիս գույնի օրինակ և նա ճանաչում է այն, ասելով "կարմիր է"։ Հեշտ խնդիրը միայն պահանջում է հասկանալ ուղեղի մեխանիզմը, որը մարդուն հնարավորություն է տալիս իմանալ, որ գույնի օրինակը կարմիր է։ Դժվար խնդիրն այն է, որ մարդիկ նաև գիտեն նաև էլի ինչ որ բան՝ նրանք նաև գիտեն կարմիրն ինչ տեսք ունի։ (Քննարկենք, որ ի ծնե կույր մարդը կարող է իմանալ, որ ինչ որ բան կարմիր է, առանց իմանալու կարմիրն ինչ տեսք ունի։)[Ն 3] Յուրաքանչյուրը գիտի, որ գոյություն ունի սուբյեկտիվ փորձ, քանի որ նրանք դա անում են ամեն օր (այսինքն, բոլոր տեսնող մարդիկ գիտեն թե կարմիրն ինչ տեսք ունի)։ Դժվար խնդիրն այն է, բացատրել, թե ինչպես է ուղեղը ստեղծում դա, ինչու՞ այն գոյություն ունի և ինչպես է այն տարբեր, քան գիտելիքը և ուղեղի այլ ասպեկտները։
Հաշվարկայնություն և ֆունկցիոնալիզմ
[խմբագրել | խմբագրել կոդը]Հաշվարկայնությունը մտքի փիլիսոփայության դիրքորոշում է, որ մարդու միտքը կամ ուղեղը (կամ երկուսն էլ) տեղեկատվության մշակման համակարգ է և որ մտածողությունը հաշվարկելու ձև է[135]։ Հաշվարկայնությունը պնդում է, որ ուղեղի և մարմնի միջև կապը նման է կամ նույնն է ինչ որ ծրագրային և ապարատային ապահովման միջև կապը և այդպիսով կարող է լինել գիտակցություն և մարմին խնդրի լուծում։ Այս փիլիսոփայական դիրքորոշումը առաջացել է 1960-ականների ԱԲ հետազոտողների և իմացաբանական գիտնականների աշխատանքներից, որ սկզբում առաջարկել էին փիլիսոփաներ Ջերրի Ֆոդորը և Հիլարի Պուտնամը։
Ուժեղ ԱԲ-ի վարկածը
[խմբագրել | խմբագրել կոդը]Փիլիսոփայական դիրքորոշումը, որը Ջոն Սիիրլն անվանեց ուժեղ ԱԲ, պնդում է․ "Համապատասխան ծրագրավորված համակարգիչը ճշգրիտ մուտքերով և ելքերով, ճիշտ նույն իմաստով գիտակցություն կունենա ինչ ունեն մարդիկ։"[136] Սիիրլը ժխտում է այս հայտարարությունը իր Չինական սենյակ փաստարկով, որը խնդրում է մեզ նայել համակարգչից ներս և փորձել գտնել, որտեղ կարող է լինել "բանականությունը"[137]։
Ռոբոտների իրավունքները
[խմբագրել | խմբագրել կոդը]Եթե կարելի է ստեղծել բանականություն ունեցող մեքենա, կարող է այն նաև զգա՞լ։ Եթե այն կարող է զգալ, այն պե՞տք է ունենա նույնպիսի իրավունքներ, ինչպես մարդիկ։ Այս խնդիրը, այժմ հայտնի որպես "ռոբոտի իրավունքներ", ներկայումս քննարկվում է Կալիֆորնիայի Ապագայի ինստիտուտի կողմից, չնայած շատ քննադատներ կարծում են, որ քննարկումը վաղաժամ է[138] Տրանսհումանիզմի որոշ քննադատներ պնդում են, որ ռոբոտի հիպոտետիկ իրավունքներն ընկած են կենդանիների իրավունքների և մարդկանց իրավունքների միջև սպեկտրում[139]։ Նյութը խորապես քննարկվել է 2010 թվականի Plug & Pray վավերագրական ֆիլմում[140]։
Սուպերխելացի
[խմբագրել | խմբագրել կոդը]Արդյոք կա՞ սահման մեքենաները կամ մարդ-մեքենա հիբրիդները կարող են լինել։ Սուպերբանական, հիպերբանական կամ գերմարդկային բանականությունը հիպոթեթիկ ագենտ է, որն ամենապայծառ և ամենատաղանդավոր մարդու ունակությունները գերազանցող բանականություն կունենա։ Գերբնականը կարող է նաև վերաբերել այսպիսի ագենտի բանականության աստիճանին[141]։
Տեխնոլոգիական առանձնահատկություն
[խմբագրել | խմբագրել կոդը]Եթե ընդհանուր արհեստական ինտելեկտի ուսումնասիրությունը բերել է բավականին խելացի ծրագրային ապահովում, այն կարող է ծրագրավորել և զարգացնել ինքն իրեն։ Բարելաված ծրագրային ապահովումը իրեն զարգացնելու տեսանկյունից նույնիսկ ավելի լավը կլինի, որը կբերի ռեկուրսիվ ինքնակատարելագործման[142]։ Նոր բանականությունը կարող է հետևաբար աճել երկրաչափական պրոգրեսիայով և էապես գերազանցել մարդկանց։ Ֆանտաստ գրող Վերնոր Վինգը այս սցենարն անվանել է "եզակիություն"[143]։ Տեխնոլոգիական եզակիությունը այն է, երբ տեխնոլոգիաների առաջընթացի արագացումը կառաջացնի սրընթաց աճի էֆեկտ, որտեղ արհեստական ինտելեկտը կգերազանցի մարդու ինտելեկտուալ կարողությունները և վերահսկողությունը, այդպիսով արմատապես փոխելով կամ նույնիսկ ավարտելով քաղաքակրթությունը։ Քանի որ այդպիսի բանականության հնարավորությունները կարող է հնարավոր չլինի հասկանալ, տեխնոլոգիական յուրահատկությունը այն է, որից դուրս պատահարները անկանխատեսելի են և նույնիսկ անհասկանալի[141][143]։
Ռեյ Կուրցվեյլը օգտագործել է Մուռի օրենքը (որը նկարագրում է թվային տեխնոլոգիաների էքսպոնենցիալ անդադար բարելավումը) հաշվարկելու որ համակարգիչները 2029 թվականին կունենան նույնքան հաշվարկային հզորություն, որքան մարդկային ուղեղը, և կանխատեսում է, որ եզակիությունը ի հայտ կգա 2045 թվականին[143]։
Տրանսհումանիզմ
[խմբագրել | խմբագրել կոդը]Ռոբոտներ մշակող Հանս Մորավեկը, կիբեռնետիկ Կեվին Ուորվիկը և Ռեյմոնդ Կուրցվեյլը կանխատեսել են, որ մարդիկ և մեքենաները ապագայում կմիաձուլվեն որպես կիբորգներ, որոնք ավելի ունակ են և հզոր, քան յուրաքանչյուրը[144]։ Այս գաղափարը կոչվում է տրանսհումանիզմ, որը գալիս է Օլդոս Հաքսլիից և Ռոբերտ Էթինգերից։
Էդվարդ Ֆրեդկինը պնդում է "արհեստական ինտելեկտը էվոլյուցիայի հաջորդ փուլն է", գաղափարը սկզբում առաջ է քաշել Սեմյուել Բաթլերը "Դարվինը մեքենաների մեջ" գրքում (1863), և 1998 թվականին ընդլայնվեց Ջորջ Դեյսոնի կողմից, իր նույնանուն գրքում[145]։
Գեղարվեստական գրականության մեջ
[խմբագրել | խմբագրել կոդը]
Մտածելու կարողությամբ արհեստական արարածներ երևացել են դեռևս հին ժամանակների պատմություններում[146], և մշտական թեմա են եղել գիտական ֆանտաստիկայում։
Այս գործերում սովորական այլաբանությունը սկսվում է Մերի Շելլիի Ֆրանկենշթայնից, որտեղ ստեղծված մարդը սպառնալիք է դառնում վարպետների համար։ Այն ներառում է այնպիսի գործեր, ինչպիսին են Արթուր Կլարկի և Ստենլի Կուբրիկի 2001 թվականի տիեզերական ոդիսականը և 2001: A Space Odyssey (երկուսն էլ 1968), HAL 9000, տիեզերանավը ղեկավարող մարդասպան համակարգիչը Discovery One, ինչպես նաև Տերմինատոր (1984) և Մատրիցա (1999). Հակառակ դրան, հազվադեպ հավատարիմ ռոբոտներ, ինչպես Գորտը Օրը, երբ երկիրը կանգ առավ-ից (1951) և եպիսկոպոսը Այլ մոլորակայինները (1986) քիչ հայտնի են ժողովրդական մշակույթի մեջ[147]։ Իսաակ Ազիմովը ներկայացրեց Ռոբոտների երեք օրենքը շատ գրքերում և պատմություններում, ամենանշանակալին "Multivac" սերիաներն են նույն անվանմամբ սուպեր խելացի համակարգչի մասին։ Ազիմովի օրենքները հաճախ վեր են հանվում մեքենայական էթիկայի ոչ պրոֆեսիոնալ քննարկումներում[148], մինչդեռ համարյա արհեստական ինտելեկտի բոլոր հետազոտողները ծանոթ են Ազիմովի օրենքներին զանգվածային մշակույթի միջոցով, նրանք ընդհանուր առմամբ դրանք անօգուտ են համարում շատ պատճառներով, որոնցից մեկը դրանց երկիմաստությունն է[149]։
Տրանսհումանիզմ (մարդկանց և մեքենաների միաձուլումը) հետազոտվում է մանգա Ghost in the Shell և Դյունա գիտաֆանտաստիկ շարքերում։ 1980-ականներին, ճապոնացի նկարիչ Հեջիմե Սարոյաման նկարեց և հրապարակեց Սեքսի ռոբոտներ շարքը, պատկերելով իրական օրգանական մարդկային տեսքը մետաղական մկանային մաշկով և հետագայում հրապարակեց "the Gynoids" գիրքը, որն օգտագործվեց ֆիլմ ստեղծողների, այդ թվում Ջորջ Լուկասի կողմից իրենց ստեղծագործություններում։ Սարոյաման այդ օրգանիկ ռոբոտները երբեք չէր դիտարկում որպես բնության իրական մաս, այլ մարդկային երևակայության արդյունք, ֆանտազիա, որ գոյություն ունի միայն մարդու մտքում, նույնիսկ երբ նա իրական տեսք է ստացել։ Մի քանի գործեր ԱԲ-ն օգտագործում են մեզ ստիպելու դիմակայել հիմնահարցին, թե ինչն է մեզ մարդ դարձնում, մեզ ներկայացնելով արհեստական արարածներ, որոնք կարող են զգացմունքներ ունենալ, հետևաբար և տառապել։ Սա երևում է Կարել Չապեկի "R.U.R."-ում, the "A.I. Artificial Intelligence" և "Մեքենայից" ֆիլմերում, ինչպես նաև Ֆիլիպ Դիկի Do Androids Dream of Electric Sheep? վեպում։ Դիկը գտնում է, որ մարդու սուբյեկտիվության մեր պատկերացումը փոխվում է արհեստական ինտելեկտ ստեղծող տեխնոլոգիայի միջոցով[150]։
Տես նաև
[խմբագրել | խմբագրել կոդը]Նշումներ
[խմբագրել | խմբագրել կոդը]- ↑ Each individual neuron is likely to participate in more than one concept.
- ↑ Steering for the 1995 "No Hands Across America" required "only a few human assists".
- ↑ This is based on Mary's Room, a thought experiment first proposed by Frank Jackson in 1982
Ծանոթագրություններ
[խմբագրել | խմբագրել կոդը]- ↑ Domingos, 2015, Chapter 4
- ↑ «Why Deep Learning Is Suddenly Changing Your Life». Fortune. 2016. Արխիվացված է օրիգինալից 2018 թ․ ապրիլի 14-ին. Վերցված է 2018 թ․ մարտի 12-ին.
- ↑ «Google leads in the race to dominate artificial intelligence». The Economist (անգլերեն). 2017. Վերցված է 2018 թ․ մարտի 12-ին.
- ↑
Neural networks and connectionism:
- Russell & Norvig 2003, էջեր. 736–748
- Poole, Mackworth & Goebel 1998, էջեր. 408–414
- Luger & Stubblefield 2004, էջեր. 453–505
- Nilsson 1998, chpt. 3
- ↑ 5,0 5,1 5,2 5,3 Schmidhuber, J. (2015). «Deep Learning in Neural Networks: An Overview». Neural Networks. 61: 85–117. arXiv:1404.7828. doi:10.1016/j.neunet.2014.09.003. PMID 25462637.
- ↑ 6,0 6,1 Ian Goodfellow, Yoshua Bengio, and Aaron Courville (2016). Deep Learning. MIT Press. Online Արխիվացված 16 Ապրիլ 2016 Wayback Machine
- ↑ Hinton, G.; Deng, L.; Yu, D.; Dahl, G.; Mohamed, A.; Jaitly, N.; Senior, A.; Vanhoucke, V.; Nguyen, P.; Sainath, T.; Kingsbury, B. (2012). «Deep Neural Networks for Acoustic Modeling in Speech Recognition – The shared views of four research groups». IEEE Signal Processing Magazine. 29 (6): 82–97. doi:10.1109/msp.2012.2205597.
- ↑ Schmidhuber, Jürgen (2015). «Deep Learning». Scholarpedia. 10 (11): 32832. Bibcode:2015SchpJ..1032832S. doi:10.4249/scholarpedia.32832. Արխիվացված օրիգինալից 2016 թ․ ապրիլի 19-ին.
- ↑ Rina Dechter (1986). Learning while searching in constraint-satisfaction problems. University of California, Computer Science Department, Cognitive Systems Laboratory.Online Արխիվացված 19 Ապրիլ 2016 Wayback Machine
- ↑ Igor Aizenberg, Naum N. Aizenberg, Joos P.L. Vandewalle (2000). Multi-Valued and Universal Binary Neurons: Theory, Learning and Applications. Springer Science & Business Media.
- ↑ Ivakhnenko, Alexey (1965). Cybernetic Predicting Devices. Kiev: Naukova Dumka.
- ↑ Ivakhnenko, Alexey (1971). «Polynomial theory of complex systems». IEEE Transactions on Systems, Man and Cybernetics (4): 364–378.
- ↑ Hinton, 2007
- ↑ Research, AI (2015 թ․ հոկտեմբերի 23). «Deep Neural Networks for Acoustic Modeling in Speech Recognition». airesearch.com. Վերցված է 2015 թ․ հոկտեմբերի 23-ին.
- ↑ Fukushima, K. (1980). «Neocognitron: A self-organizing neural network model for a mechanism of pattern recognition unaffected by shift in position». Biological Cybernetics. 36 (4): 193–202. doi:10.1007/bf00344251. PMID 7370364.
- ↑ Yann LeCun (2016). Slides on Deep Learning Online Արխիվացված 23 Ապրիլ 2016 Wayback Machine
- ↑ Silver, David; Schrittwieser, Julian; Simonyan, Karen; Antonoglou, Ioannis; Huang, Aja; Guez, Arthur; Hubert, Thomas; Baker, Lucas; Lai, Matthew; Bolton, Adrian; Chen, Yutian; Lillicrap, Timothy; Fan, Hui; Sifre, Laurent; Driessche, George van den; Graepel, Thore; Hassabis, Demis (2017 թ․ հոկտեմբերի 19). «Mastering the game of Go without human knowledge». Nature. 550 (7676): 354–359. Bibcode:2017Natur.550..354S. doi:10.1038/nature24270. ISSN 0028-0836. «AlphaGo Lee... 12 convolutional layers»Կաղապար:Closed access
- ↑
Recurrent neural networks, Hopfield nets:
- Russell & Norvig 2003, էջ. 758
- Luger & Stubblefield 2004, էջեր. 474–505
- ↑ Hyötyniemi, Heikki (1996). «Turing machines are recurrent neural networks». Proceedings of STeP '96/Publications of the Finnish Artificial Intelligence Society: 13–24.
- ↑ P. J. Werbos. Generalization of backpropagation with application to a recurrent gas market model" Neural Networks 1, 1988.
- ↑ A. J. Robinson and F. Fallside. The utility driven dynamic error propagation network. Technical Report CUED/F-INFENG/TR.1, Cambridge University Engineering Department, 1987.
- ↑ R. J. Williams and D. Zipser. Gradient-based learning algorithms for recurrent networks and their computational complexity. In Back-propagation: Theory, Architectures and Applications. Hillsdale, NJ: Erlbaum, 1994.
- ↑ Sepp Hochreiter (1991), Untersuchungen zu dynamischen neuronalen Netzen Արխիվացված 6 Մարտ 2015 Wayback Machine, Diploma thesis. Institut f. Informatik, Technische Univ. Munich. Advisor: J. Schmidhuber.
- ↑ Schmidhuber, J. (1992). «Learning complex, extended sequences using the principle of history compression». Neural Computation. 4 (2): 234–242. CiteSeerX 10.1.1.49.3934. doi:10.1162/neco.1992.4.2.234.
- ↑ Hochreiter, Sepp; and Schmidhuber, Jürgen; Long Short-Term Memory, Neural Computation, 9(8):1735–1780, 1997
- ↑ Alex Graves, Santiago Fernandez, Faustino Gomez, and Jürgen Schmidhuber (2006). Connectionist temporal classification: Labelling unsegmented sequence data with recurrent neural nets. Proceedings of ICML'06, pp. 369–376.
- ↑ Hannun, Awni; Case, Carl; Casper, Jared; Catanzaro, Bryan; Diamos, Greg; Elsen, Erich; Prenger, Ryan; Satheesh, Sanjeev; Sengupta, Shubho; Coates, Adam; Ng, Andrew Y. (2014). «Deep Speech: Scaling up end-to-end speech recognition». arXiv:1412.5567 [cs.CL].
- ↑ Hasim Sak and Andrew Senior and Francoise Beaufays (2014). Long Short-Term Memory recurrent neural network architectures for large scale acoustic modeling. Proceedings of Interspeech 2014.
- ↑ Li, Xiangang; Wu, Xihong (2015). «Constructing Long Short-Term Memory based Deep Recurrent Neural Networks for Large Vocabulary Speech Recognition». arXiv:1410.4281 [cs.CL].
- ↑ Haşim Sak, Andrew Senior, Kanishka Rao, Françoise Beaufays and Johan Schalkwyk (September 2015): Google voice search: faster and more accurate. Արխիվացված 9 Մարտ 2016 Wayback Machine
- ↑ Sutskever, Ilya; Vinyals, Oriol; Le, Quoc V. (2014). «Sequence to Sequence Learning with Neural Networks». arXiv:1409.3215 [cs.CL].
- ↑ Jozefowicz, Rafal; Vinyals, Oriol; Schuster, Mike; Shazeer, Noam; Wu, Yonghui (2016). «Exploring the Limits of Language Modeling». arXiv:1602.02410 [cs.CL].
- ↑ Gillick, Dan; Brunk, Cliff; Vinyals, Oriol; Subramanya, Amarnag (2015). «Multilingual Language Processing From Bytes». arXiv:1512.00103 [cs.CL].
- ↑ Vinyals, Oriol; Toshev, Alexander; Bengio, Samy; Erhan, Dumitru (2015). «Show and Tell: A Neural Image Caption Generator». arXiv:1411.4555 [cs.CV].
- ↑ Brynjolfsson, Erik; Mitchell, Tom (2017 թ․ դեկտեմբերի 22). «What can machine learning do? Workforce implications». Science (անգլերեն). էջեր 1530–1534. Bibcode:2017Sci...358.1530B. doi:10.1126/science.aap8062. Վերցված է 2018 թ․ մայիսի 7-ին.
- ↑ Sample, Ian (2017 թ․ հոկտեմբերի 18). «'It's able to create knowledge itself': Google unveils AI that learns on its own». the Guardian (անգլերեն). Վերցված է 2018 թ․ մայիսի 7-ին.
- ↑ «The AI revolution in science». Science | AAAS (անգլերեն). 2017 թ․ հուլիսի 5. Վերցված է 2018 թ․ մայիսի 7-ին.
- ↑ «Will your job still exist in 10 years when the robots arrive?». South China Morning Post (անգլերեն). 2017. Վերցված է 2018 թ․ մայիսի 7-ին.
- ↑ «IKEA furniture and the limits of AI». The Economist (անգլերեն). 2018. Վերցված է 2018 թ․ ապրիլի 24-ին.
- ↑ Borowiec, Tracey Lien, Steven (2016). «AlphaGo beats human Go champ in milestone for artificial intelligence». latimes.com. Վերցված է 2018 թ․ մայիսի 7-ին.
{{cite news}}: CS1 սպաս․ բազմաթիվ անուններ: authors list (link) - ↑ Brown, Noam; Sandholm, Tuomas (2018 թ․ հունվարի 26). «Superhuman AI for heads-up no-limit poker: Libratus beats top professionals». Science (անգլերեն). էջեր 418–424. doi:10.1126/science.aao1733. Վերցված է 2018 թ․ մայիսի 7-ին.
- ↑ Ontanon, Santiago; Synnaeve, Gabriel; Uriarte, Alberto; Richoux, Florian; Churchill, David; Preuss, Mike (2013 թ․ դեկտեմբեր). «A Survey of Real-Time Strategy Game AI Research and Competition in StarCraft». IEEE Transactions on Computational Intelligence and AI in Games. 5 (4): 293–311. doi:10.1109/TCIAIG.2013.2286295.
- ↑ «Facebook Quietly Enters StarCraft War for AI Bots, and Loses». WIRED. 2017. Վերցված է 2018 թ․ մայիսի 7-ին.
- ↑ «ILSVRC2017». image-net.org (անգլերեն). Վերցված է 2018 թ․ նոյեմբերի 6-ին.
- ↑ Schoenick, Carissa; Clark, Peter; Tafjord, Oyvind; Turney, Peter; Etzioni, Oren (2017 թ․ օգոստոսի 23). «Moving beyond the Turing Test with the Allen AI Science Challenge». Communications of the ACM. 60 (9): 60–64. doi:10.1145/3122814.
- ↑ O'Brien, Marakas
- ↑ Mathematical definitions of intelligence:
- ↑ Hernández-Orallo, José; Dowe, David L.; Hernández-Lloreda, M.Victoria (2014 թ․ մարտ). «Universal psychometrics: Measuring cognitive abilities in the machine kingdom». Cognitive Systems Research. 27: 50–74. doi:10.1016/j.cogsys.2013.06.001.
- ↑ 49,0 49,1 Russell, Norvig, էջ 1
- ↑ CNN, 2006
- ↑ Using AI to predict flight delays, Ishti.org.
- ↑ N. Aletras; D. Tsarapatsanis; D. Preotiuc-Pietro; V. Lampos (2016). «Predicting judicial decisions of the European Court of Human Rights: a Natural Language Processing perspective». PeerJ Computer Science. Արխիվացված օրիգինալից 2016 թ․ հոկտեմբերի 29-ին.
- ↑ «The Economist Explains: Why firms are piling into artificial intelligence». The Economist. 2016 թ․ մարտի 31. Արխիվացված օրիգինալից 2016 թ․ մայիսի 8-ին. Վերցված է 2016 թ․ մայիսի 19-ին.
- ↑ Lohr, Steve (2016 թ․ փետրվարի 28). «The Promise of Artificial Intelligence Unfolds in Small Steps». The New York Times. Արխիվացված օրիգինալից 2016 թ․ փետրվարի 29-ին. Վերցված է 2016 թ․ փետրվարի 29-ին.
- ↑ Wakefield, Jane (2016 թ․ հունիսի 15). «Social media 'outstrips TV' as news source for young people». BBC News. Արխիվացված օրիգինալից 2016 թ․ հունիսի 24-ին.
- ↑ Smith, Mark (2016 թ․ հուլիսի 22). «So you think you chose to read this article?». BBC News. Արխիվացված օրիգինալից 2016 թ․ հուլիսի 25-ին.
- ↑ «10 Promising AI Applications in Health Care». Harvard Business Review. 2018 թ․ մայիսի 10. Վերցված է 2018 թ․ օգոստոսի 28-ին.
- ↑ Dina Bass (2016 թ․ սեպտեմբերի 20). «Microsoft Develops AI to Help Cancer Doctors Find the Right Treatments». Bloomberg. Արխիվացված օրիգինալից 2017 թ․ մայիսի 11-ին.
- ↑ Gallagher, James (2017 թ․ հունվարի 26). «Artificial intelligence 'as good as cancer doctors'». BBC News (բրիտանական անգլերեն). Արխիվացված օրիգինալից 2017 թ․ հունվարի 26-ին. Վերցված է 2017 թ․ հունվարի 26-ին.
- ↑ Langen, Pauline A.; Katz, Jeffrey S.; Dempsey, Gayle, eds. (1994 թ․ հոկտեմբերի 18), Remote monitoring of high-risk patients using artificial intelligence, Արխիվացված օրիգինալից 2017 թ․ փետրվարի 28-ին, Վերցված է 2017 թ․ փետրվարի 27-ին
- ↑ Kermany, D; Goldbaum, M; Zhang, Kang. «Identifying Medical Diagnoses and Treatable Diseases by Image-Based Deep Learning» (PDF). www.cell.com. Վերցված է 2018 թ․ դեկտեմբերի 18-ին.
- ↑ Markoff, John (2011 թ․ փետրվարի 16). «On 'Jeopardy!' Watson Win Is All but Trivial». The New York Times. Արխիվացված օրիգինալից 2017 թ․ սեպտեմբերի 22-ին.
- ↑ Ng, Alfred (2016 թ․ օգոստոսի 7). «IBM's Watson gives proper diagnosis after doctors were stumped». NY Daily News (անգլերեն). Արխիվացված օրիգինալից 2017 թ․ սեպտեմբերի 22-ին.
- ↑ "33 Corporations Working On Autonomous Vehicles". CB Insights. N.p., 11 August 2016. 12 November 2016.
- ↑ West, Darrell M. "Moving forward: Self-driving vehicles in China, Europe, Japan, Korea, and the United States". Center for Technology Innovation at Brookings. N.p., September 2016. 12 November 2016.
- ↑ Burgess, Matt. «The UK is about to Start Testing Self-Driving Truck Platoons». WIRED. Արխիվացված օրիգինալից 2017 թ․ սեպտեմբերի 22-ին. Վերցված է 2017 թ․ սեպտեմբերի 20-ին.
- ↑ Davies, Alex. «World's First Self-Driving Semi-Truck Hits the Road». WIRED. Արխիվացված օրիգինալից 2017 թ․ հոկտեմբերի 28-ին. Վերցված է 2017 թ․ սեպտեմբերի 20-ին.
- ↑ McFarland, Matt. "Google's artificial intelligence breakthrough may have a huge impact on self-driving cars and much more". The Washington Post 25 February 2015. Infotrac Newsstand. 24 October 2016
- ↑ "Programming safety into self-driving cars". National Science Foundation. N.p., 2 February 2015. 24 October 2016.
- ↑ ArXiv, E. T. (26 October 2015). Why Self-Driving Cars Must Be Programmed to Kill. Retrieved 17 November 2017, from https://www.technologyreview.com/s/542626/why-self-driving-cars-must-be-programmed-to-kill/
- ↑ O'Neill,, Eleanor (2016 թ․ հուլիսի 31). «Accounting, automation and AI». www.icas.com (English). Արխիվացված օրիգինալից 2016 թ․ նոյեմբերի 18-ին. Վերցված է 2016 թ․ նոյեմբերի 18-ին.
{{cite web}}: CS1 սպաս․ հավելյալ կետադրություն (link) CS1 սպաս․ չճանաչված լեզու (link) - ↑ Robots Beat Humans in Trading Battle. Արխիվացված 9 Սեպտեմբեր 2009 Wayback Machine BBC.com (8 August 2001)
- ↑ «CTO Corner: Artificial Intelligence Use in Financial Services – Financial Services Roundtable». Financial Services Roundtable (ամերիկյան անգլերեն). 2015 թ․ ապրիլի 2. Արխիվացված է օրիգինալից 2016 թ․ նոյեմբերի 18-ին. Վերցված է 2016 թ․ նոյեմբերի 18-ին.
- ↑ Marwala, Tshilidzi; Hurwitz, Evan (2017). Artificial Intelligence and Economic Theory: Skynet in the Market. London: Springer. ISBN 978-3-319-66104-9.
- ↑ «Why AI researchers like video games». The Economist. Արխիվացված օրիգինալից 2017 թ․ հոկտեմբերի 5-ին.
- ↑ Yannakakis, G. N. (2012, May). Game AI revisited. In Proceedings of the 9th conference on Computing Frontiers (pp. 285–292). ACM.
- ↑ «Getting to grips with military robotics». The Economist (անգլերեն). 2018 թ․ հունվարի 25. Վերցված է 2018 թ․ փետրվարի 7-ին.
- ↑ «Autonomous Systems: Infographic». www.siemens.com (անգլերեն). Արխիվացված է օրիգինալից 2018 թ․ փետրվարի 7-ին. Վերցված է 2018 թ․ փետրվարի 7-ին.
- ↑ «Artificial Intelligence Fuels New Global Arms Race». WIRED. Վերցված է 2017 թ․ դեկտեմբերի 24-ին.
- ↑ Clifford, Catherine (2017 թ․ սեպտեմբերի 29). «In the same way there was a nuclear arms race, there will be a race to build A.I., says tech exec». CNBC. Վերցված է 2017 թ․ դեկտեմբերի 24-ին.
- ↑ Metz, Cade (2018 թ․ մարտի 15). «Pentagon Wants Silicon Valley's Help on A.I.». The New York Times. Վերցված է 2018 թ․ մարտի 19-ին.
- ↑ Chang, Hsihui; Kao, Yi-Ching; Mashruwala, Raj; Sorensen, Susan M. (2017 թ․ ապրիլի 10). «Technical Inefficiency, Allocative Inefficiency, and Audit Pricing». Journal of Accounting, Auditing & Finance: 0148558X1769676. doi:10.1177/0148558X17696760.
- ↑ Matz, S. C., et al. "Psychological targeting as an effective approach to digital mass persuasion." Proceedings of the National Academy of Sciences (2017): 201710966.
- ↑ Busby, Mattha (2018 թ․ ապրիլի 30). «Revealed: how bookies use AI to keep gamblers hooked». the Guardian (անգլերեն).
- ↑ Celli, Fabio, Pietro Zani Massani, and Bruno Lepri. "Profilio: Psychometric Profiling to Boost Social Media Advertising." Proceedings of the 2017 ACM on Multimedia Conference. ACM, 2017 [1]
- ↑ https://www.moma.org/calendar/exhibitions/3863 Retrieved July 29, 2018
- ↑ https://www.washingtonpost.com/news/innovations/wp/2016/03/10/googles-psychedelic-paint-brush-raises-the-oldest-question-in-art/ Retrieved July 29
- ↑ «Unhuman: Art in the Age of AI – State Festival». Statefestival.org. Վերցված է 2018 թ․ սեպտեմբերի 13-ին.
- ↑ https://www.artsy.net/article/artsy-editorial-hard-painting-made-computer-human. Retrieved July 29
- ↑ https://dl.acm.org/citation.cfm?id=3204480.3186697 Retrieved July 29
- ↑
The Turing test:
Turing's original publication: Historical influence and philosophical implications:- Haugeland 1985, էջեր. 6–9
- Crevier 1993, էջ. 24
- McCorduck 2004, էջեր. 70–71
- Russell & Norvig 2003, էջեր. 2–3 and 948
- ↑
Dartmouth proposal:
- McCarthy et al. 1955 (the original proposal)
- Crevier 1993, էջ. 49 (historical significance)
- ↑
The physical symbol systems hypothesis:
- Newell & Simon 1976, էջ. 116
- McCorduck 2004, էջ. 153
- Russell & Norvig 2003, էջ. 18
- ↑ Dreyfus criticized the necessary condition of the physical symbol system hypothesis, which he called the "psychological assumption": "The mind can be viewed as a device operating on bits of information according to formal rules." (Dreyfus 1992, էջ 156)
- ↑
Dreyfus' critique of artificial intelligence:
- Dreyfus 1972, Dreyfus & Dreyfus 1986
- Crevier 1993, էջեր. 120–132
- McCorduck 2004, էջեր. 211–239
- Russell & Norvig 2003, էջեր. 950–952
- ↑ Gödel 1951: in this lecture, Kurt Gödel uses the incompleteness theorem to arrive at the following disjunction: (a) the human mind is not a consistent finite machine, or (b) there exist Diophantine equations for which it cannot decide whether solutions exist. Gödel finds (b) implausible, and thus seems to have believed the human mind was not equivalent to a finite machine, i.e., its power exceeded that of any finite machine. He recognized that this was only a conjecture, since one could never disprove (b). Yet he considered the disjunctive conclusion to be a "certain fact".
- ↑
The Mathematical Objection:
- Russell & Norvig 2003, էջ. 949
- McCorduck 2004, էջեր. 448–449
- Turing 1950 under "(2) The Mathematical Objection"
- Hofstadter 1979
- Gödel 1931, Church 1936, Kleene 1935, Turing 1937
- ↑ Graham Oppy (2015 թ․ հունվարի 20). «Gödel's Incompleteness Theorems». Stanford Encyclopedia of Philosophy. Վերցված է 2016 թ․ ապրիլի 27-ին. «These Gödelian anti-mechanist arguments are, however, problematic, and there is wide consensus that they fail.»
- ↑ Stuart J. Russell; Peter Norvig (2010). «26.1.2: Philosophical Foundations/Weak AI: Can Machines Act Intelligently?/The mathematical objection». Artificial Intelligence: A Modern Approach (3rd ed.). Upper Saddle River, NJ: Prentice Hall. ISBN 0-13-604259-7. «even if we grant that computers have limitations on what they can prove, there is no evidence that humans are immune from those limitations.»
- ↑ Mark Colyvan. An introduction to the philosophy of mathematics. Cambridge University Press, 2012. From 2.2.2, 'Philosophical significance of Gödel's incompleteness results': "The accepted wisdom (with which I concur) is that the Lucas-Penrose arguments fail."
- ↑
Artificial brain arguments: AI requires a simulation of the operation of the human brain
- Russell & Norvig 2003, էջ. 957
- Crevier 1993, էջեր. 271 and 279
- ↑ Russel, Stuart., Daniel Dewey, and Max Tegmark. Research Priorities for Robust and Beneficial Artificial Intelligence. AI Magazine 36:4 (2015). 8 December 2016.
- ↑ Rawlinson, Kevin (2015 թ․ հունվարի 29). «Microsoft's Bill Gates insists AI is a threat». BBC News. Արխիվացված օրիգինալից 2015 թ․ հունվարի 29-ին. Վերցված է 2015 թ․ հունվարի 30-ին.
- ↑ Holley, Peter (2015 թ․ հունվարի 28). «Bill Gates on dangers of artificial intelligence: 'I don't understand why some people are not concerned'». The Washington Post. ISSN 0190-8286. Արխիվացված օրիգինալից 2015 թ․ հոկտեմբերի 30-ին. Վերցված է 2015 թ․ հոկտեմբերի 30-ին.
- ↑ Gibbs, Samuel (2014 թ․ հոկտեմբերի 27). «Elon Musk: artificial intelligence is our biggest existential threat». The Guardian. Արխիվացված օրիգինալից 2015 թ․ հոկտեմբերի 30-ին. Վերցված է 2015 թ․ հոկտեմբերի 30-ին.
- ↑ Cellan-Jones, Rory (2014 թ․ դեկտեմբերի 2). «Stephen Hawking warns artificial intelligence could end mankind». BBC News. Արխիվացված օրիգինալից 2015 թ․ հոկտեմբերի 30-ին. Վերցված է 2015 թ․ հոկտեմբերի 30-ին.
- ↑ Post, Washington. «Tech titans like Elon Musk are spending $1 billion to save you from terminators». Արխիվացված օրիգինալից 2016 թ․ հունիսի 7-ին.
- ↑ Müller, Vincent C.; Bostrom, Nick (2014). «Future Progress in Artificial Intelligence: A Poll Among Experts» (PDF). AI Matters. 1 (1): 9–11. doi:10.1145/2639475.2639478. Արխիվացված (PDF) օրիգինալից 2016 թ․ հունվարի 15-ին.
- ↑ «The mysterious artificial intelligence company Elon Musk invested in is developing game-changing smart computers». Tech Insider. Արխիվացված օրիգինալից 2015 թ․ հոկտեմբերի 30-ին. Վերցված է 2015 թ․ հոկտեմբերի 30-ին.
- ↑ Clark, Jack. «Musk-Backed Group Probes Risks Behind Artificial Intelligence». Bloomberg.com. Արխիվացված օրիգինալից 2015 թ․ հոկտեմբերի 30-ին. Վերցված է 2015 թ․ հոկտեմբերի 30-ին.
- ↑ «Elon Musk Is Donating $10M Of His Own Money To Artificial Intelligence Research». Fast Company. 2015 թ․ հունվարի 15. Արխիվացված օրիգինալից 2015 թ․ հոկտեմբերի 30-ին. Վերցված է 2015 թ․ հոկտեմբերի 30-ին.
- ↑ «Is artificial intelligence really an existential threat to humanity?». Bulletin of the Atomic Scientists. 2015 թ․ օգոստոսի 9. Արխիվացված օրիգինալից 2015 թ․ հոկտեմբերի 30-ին. Վերցված է 2015 թ․ հոկտեմբերի 30-ին.
- ↑ «The case against killer robots, from a guy actually working on artificial intelligence». Fusion.net. Արխիվացված օրիգինալից 2016 թ․ փետրվարի 4-ին. Վերցված է 2016 թ․ հունվարի 31-ին.
- ↑ «Will artificial intelligence destroy humanity? Here are 5 reasons not to worry». Vox. 2014 թ․ օգոստոսի 22. Արխիվացված օրիգինալից 2015 թ․ հոկտեմբերի 30-ին. Վերցված է 2015 թ․ հոկտեմբերի 30-ին.
- ↑ In the early 1970s, Kenneth Colby presented a version of Weizenbaum's ELIZA known as DOCTOR which he promoted as a serious therapeutic tool. (Crevier 1993, էջեր 132–144)
- ↑
Joseph Weizenbaum's critique of AI:
- Weizenbaum 1976
- Crevier 1993, էջեր. 132–144
- McCorduck 2004, էջեր. 356–373
- Russell & Norvig 2003, էջ. 961
- ↑ «Արխիվացված պատճենը». Արխիվացված է օրիգինալից 2019 թ․ հունվարի 12-ին. Վերցված է 2019 թ․ հունվարի 15-ին.
- ↑ E McGaughey, 'Will Robots Automate Your Job Away? Full Employment, Basic Income, and Economic Democracy' (2018) SSRN, part 2(3)
- ↑ «Automation and anxiety». The Economist. 2015 թ․ մայիսի 9. Վերցված է 2018 թ․ հունվարի 13-ին.
- ↑ Lohr, Steve (2017). «Robots Will Take Jobs, but Not as Fast as Some Fear, New Report Says». The New York Times. Վերցված է 2018 թ․ հունվարի 13-ին.
- ↑ Frey, Carl Benedikt; Osborne, Michael A (2017 թ․ հունվարի 1). «The future of employment: How susceptible are jobs to computerisation?». Technological Forecasting and Social Change. 114: 254–280. CiteSeerX 10.1.1.395.416. doi:10.1016/j.techfore.2016.08.019. ISSN 0040-1625.
- ↑ Arntz, Melanie, Terry Gregory, and Ulrich Zierahn. "The risk of automation for jobs in OECD countries: A comparative analysis." OECD Social, Employment, and Migration Working Papers 189 (2016). p. 33.
- ↑ Mahdawi, Arwa (2017 թ․ հունիսի 26). «What jobs will still be around in 20 years? Read this to prepare your future». The Guardian. Վերցված է 2018 թ․ հունվարի 13-ին.
- ↑ Ford, Martin; Colvin, Geoff (2015 թ․ սեպտեմբերի 6). «Will robots create more jobs than they destroy?». The Guardian. Վերցված է 2018 թ․ հունվարի 13-ին.
- ↑ «Stephen Hawking, Elon Musk, and Bill Gates Warn About Artificial Intelligence». Observer. 2015 թ․ օգոստոսի 19. Արխիվացված օրիգինալից 2015 թ․ հոկտեմբերի 30-ին. Վերցված է 2015 թ․ հոկտեմբերի 30-ին.
- ↑ Wendell Wallach (2010). Moral Machines, Oxford University Press.
- ↑ Wallach, pp 37–54.
- ↑ Wallach, pp 55–73.
- ↑ Wallach, Introduction chapter.
- ↑ 130,0 130,1 Michael Anderson and Susan Leigh Anderson (2011), Machine Ethics, Cambridge University Press.
- ↑ 131,0 131,1 «Machine Ethics». aaai.org. Արխիվացված է օրիգինալից 2014 թ․ նոյեմբերի 29-ին.
- ↑ Rubin, Charles (Spring 2003). «Artificial Intelligence and Human Nature |'The New Atlantis». 1: 88–100. Արխիվացված է օրիգինալից 2012 թ․ հունիսի 11-ին.
{{cite journal}}: Cite journal requires|journal=(օգնություն) - ↑ Brooks, Rodney (2014 թ․ նոյեմբերի 10). «artificial intelligence is a tool, not a threat». Արխիվացված է օրիգինալից 2014 թ․ նոյեմբերի 12-ին.
- ↑ Chalmers, David (1995). «Facing up to the problem of consciousness». Journal of Consciousness Studies. 2 (3): 200–219. Արխիվացված է օրիգինալից 2005 թ․ մարտի 8-ին. Վերցված է 2019 թ․ հունվարի 19-ին. See also this link
- ↑ Horst, Steven, (2005) "The Computational Theory of Mind" in The Stanford Encyclopedia of Philosophy
- ↑ This version is from Searle (1999), and is also quoted in Dennett 1991, էջ. 435. Searle's original formulation was "The appropriately programmed computer really is a mind, in the sense that computers given the right programs can be literally said to understand and have other cognitive states." (Searle 1980, էջ 1). Strong AI is defined similarly by Russell & Norvig (2003, էջ. 947): "The assertion that machines could possibly act intelligently (or, perhaps better, act as if they were intelligent) is called the 'weak AI' hypothesis by philosophers, and the assertion that machines that do so are actually thinking (as opposed to simulating thinking) is called the 'strong AI' hypothesis."
- ↑
Searle's Chinese room argument:
- Searle 1980. Searle's original presentation of the thought experiment.
- Searle 1999.
- Russell & Norvig 2003, էջեր. 958–960
- McCorduck 2004, էջեր. 443–445
- Crevier 1993, էջեր. 269–271
- ↑
Robot rights:
- Russell & Norvig 2003, էջ. 964
- BBC News 2006
- McCorduck (2004, էջեր. 190–25) discusses Frankenstein and identifies the key ethical issues as scientific hubris and the suffering of the monster, i.e. robot rights.
- ↑ Evans, Woody (2015). «Posthuman Rights: Dimensions of Transhuman Worlds». Teknokultura. Universidad Complutense, Madrid. Արխիվացված օրիգինալից 2016 թ․ դեկտեմբերի 28-ին. Վերցված է 2016 թ․ դեկտեմբերի 5-ին.
- ↑ maschafilm. «Content: Plug & Pray Film – Artificial Intelligence – Robots -». plugandpray-film.de. Արխիվացված օրիգինալից 2016 թ․ փետրվարի 12-ին.
- ↑ 141,0 141,1 Roberts, Jacob (2016). «Thinking Machines: The Search for Artificial Intelligence». Distillations. Vol. 2, no. 2. էջեր 14–23. Վերցված է 2018 թ․ մարտի 20-ին.
- ↑ Omohundro, Steve (2008). The Nature of Self-Improving Artificial Intelligence. presented and distributed at the 2007 Singularity Summit, San Francisco, CA.
- ↑ 143,0 143,1 143,2
Technological singularity:
- Vinge 1993
- Kurzweil 2005
- Russell & Norvig 2003, էջ. 963
- ↑ Transhumanism:
- ↑
AI as evolution:
- Edward Fredkin is quoted in McCorduck (2004, էջ. 401).
- Butler 1863
- Dyson 1998
- ↑
AI in myth:
- McCorduck 2004, էջեր. 4–5
- Russell & Norvig 2003, էջ. 939
<ref>թեգ. «AI in myth» անվանումը սահմանվել է մի քանի անգամ, սակայն տարբեր բովանդակությամբ: - ↑ Buttazzo, G. (2001 թ․ հուլիս). «Artificial consciousness: Utopia or real possibility?». Computer (IEEE). 34 (7): 24–30. doi:10.1109/2.933500. Արխիվացված օրիգինալից 2016 թ․ դեկտեմբերի 30-ին. Վերցված է 2016 թ․ դեկտեմբերի 29-ին.
- ↑ Anderson, Susan Leigh. "Asimov's "three laws of robotics" and machine metaethics." AI & Society 22.4 (2008): 477–493.
- ↑ McCauley, Lee (2007). «AI armageddon and the three laws of robotics». Ethics and Information Technology. 9 (2): 153–164. CiteSeerX 10.1.1.85.8904. doi:10.1007/s10676-007-9138-2.
- ↑ Galvan, Jill (1997 թ․ հունվարի 1). «Entering the Posthuman Collective in Philip K. Dick's "Do Androids Dream of Electric Sheep?"». Science Fiction Studies. 24 (3): 413–429. JSTOR 4240644.
Քաղվածելու սխալ՝ «Fragmentation of AI» անվանումով <references>-ում սահմանված <ref> թեգը սկզբնական տեքստում չի օգտագործվել:
Քաղվածելու սխալ՝ «Problems of AI» անվանումով <references>-ում սահմանված <ref> թեգը սկզբնական տեքստում չի օգտագործվել:
Քաղվածելու սխալ՝ «AI in early science fiction» անվանումով <references>-ում սահմանված <ref> թեգը սկզբնական տեքստում չի օգտագործվել:
Քաղվածելու սխալ՝ «Formal reasoning» անվանումով <references>-ում սահմանված <ref> թեգը սկզբնական տեքստում չի օգտագործվել:
Քաղվածելու սխալ՝ «AI's immediate precursors» անվանումով <references>-ում սահմանված <ref> թեգը սկզբնական տեքստում չի օգտագործվել:
Քաղվածելու սխալ՝ «Hegemony of the Dartmouth conference attendees» անվանումով <references>-ում սահմանված <ref> թեգը սկզբնական տեքստում չի օգտագործվել:
Քաղվածելու սխալ՝ «AI in England» անվանումով <references>-ում սահմանված <ref> թեգը սկզբնական տեքստում չի օգտագործվել:
Քաղվածելու սխալ՝ «Expert systems» անվանումով <references>-ում սահմանված <ref> թեգը սկզբնական տեքստում չի օգտագործվել:
Քաղվածելու սխալ՝ «AI in 2000s» անվանումով <references>-ում սահմանված <ref> թեգը սկզբնական տեքստում չի օգտագործվել:
Քաղվածելու սխալ՝ «AI widely used» անվանումով <references>-ում սահմանված <ref> թեգը սկզբնական տեքստում չի օգտագործվել:
Քաղվածելու սխալ՝ «Reasoning» անվանումով <references>-ում սահմանված <ref> թեգը սկզբնական տեքստում չի օգտագործվել:
Քաղվածելու սխալ՝ «Uncertain reasoning» անվանումով <references>-ում սահմանված <ref> թեգը սկզբնական տեքստում չի օգտագործվել:
Քաղվածելու սխալ՝ «Psychological evidence of sub-symbolic reasoning» անվանումով <references>-ում սահմանված <ref> թեգը սկզբնական տեքստում չի օգտագործվել:
Քաղվածելու սխալ՝ «Knowledge representation» անվանումով <references>-ում սահմանված <ref> թեգը սկզբնական տեքստում չի օգտագործվել:
Քաղվածելու սխալ՝ «Knowledge engineering» անվանումով <references>-ում սահմանված <ref> թեգը սկզբնական տեքստում չի օգտագործվել:
Քաղվածելու սխալ՝ «Representing categories and relations» անվանումով <references>-ում սահմանված <ref> թեգը սկզբնական տեքստում չի օգտագործվել:
Քաղվածելու սխալ՝ «Representing time» անվանումով <references>-ում սահմանված <ref> թեգը սկզբնական տեքստում չի օգտագործվել:
Քաղվածելու սխալ՝ «Representing causation» անվանումով <references>-ում սահմանված <ref> թեգը սկզբնական տեքստում չի օգտագործվել:
Քաղվածելու սխալ՝ «Representing knowledge about knowledge» անվանումով <references>-ում սահմանված <ref> թեգը սկզբնական տեքստում չի օգտագործվել:
Քաղվածելու սխալ՝ «Ontology» անվանումով <references>-ում սահմանված <ref> թեգը սկզբնական տեքստում չի օգտագործվել:
Քաղվածելու սխալ՝ «Qualification problem» անվանումով <references>-ում սահմանված <ref> թեգը սկզբնական տեքստում չի օգտագործվել:
Քաղվածելու սխալ՝ «Default reasoning and non-monotonic logic» անվանումով <references>-ում սահմանված <ref> թեգը սկզբնական տեքստում չի օգտագործվել:
Քաղվածելու սխալ՝ «Breadth of commonsense knowledge» անվանումով <references>-ում սահմանված <ref> թեգը սկզբնական տեքստում չի օգտագործվել:
Քաղվածելու սխալ՝ «Intuition» անվանումով <references>-ում սահմանված <ref> թեգը սկզբնական տեքստում չի օգտագործվել:
Քաղվածելու սխալ՝ «Planning» անվանումով <references>-ում սահմանված <ref> թեգը սկզբնական տեքստում չի օգտագործվել:
Քաղվածելու սխալ՝ «Information value theory» անվանումով <references>-ում սահմանված <ref> թեգը սկզբնական տեքստում չի օգտագործվել:
Քաղվածելու սխալ՝ «Classical planning» անվանումով <references>-ում սահմանված <ref> թեգը սկզբնական տեքստում չի օգտագործվել:
Քաղվածելու սխալ՝ «Non-deterministic planning» անվանումով <references>-ում սահմանված <ref> թեգը սկզբնական տեքստում չի օգտագործվել:
Քաղվածելու սխալ՝ «Multi-agent planning» անվանումով <references>-ում սահմանված <ref> թեգը սկզբնական տեքստում չի օգտագործվել:
Քաղվածելու սխալ՝ «Machine learning» անվանումով <references>-ում սահմանված <ref> թեգը սկզբնական տեքստում չի օգտագործվել:
Քաղվածելու սխալ՝ «Reinforcement learning» անվանումով <references>-ում սահմանված <ref> թեգը սկզբնական տեքստում չի օգտագործվել:
Քաղվածելու սխալ՝ «Natural language processing» անվանումով <references>-ում սահմանված <ref> թեգը սկզբնական տեքստում չի օգտագործվել:
Քաղվածելու սխալ՝ «Applications of natural language processing» անվանումով <references>-ում սահմանված <ref> թեգը սկզբնական տեքստում չի օգտագործվել:
Քաղվածելու սխալ՝ «Machine perception» անվանումով <references>-ում սահմանված <ref> թեգը սկզբնական տեքստում չի օգտագործվել:
Քաղվածելու սխալ՝ «Speech recognition» անվանումով <references>-ում սահմանված <ref> թեգը սկզբնական տեքստում չի օգտագործվել:
Քաղվածելու սխալ՝ «Object recognition» անվանումով <references>-ում սահմանված <ref> թեգը սկզբնական տեքստում չի օգտագործվել:
Քաղվածելու սխալ՝ «Computer vision» անվանումով <references>-ում սահմանված <ref> թեգը սկզբնական տեքստում չի օգտագործվել:
Քաղվածելու սխալ՝ «Robotics» անվանումով <references>-ում սահմանված <ref> թեգը սկզբնական տեքստում չի օգտագործվել:
Քաղվածելու սխալ՝ «Configuration space» անվանումով <references>-ում սահմանված <ref> թեգը սկզբնական տեքստում չի օգտագործվել:
Քաղվածելու սխալ՝ «Robotic mapping» անվանումով <references>-ում սահմանված <ref> թեգը սկզբնական տեքստում չի օգտագործվել:
Քաղվածելու սխալ՝ «Emotion and affective computing» անվանումով <references>-ում սահմանված <ref> թեգը սկզբնական տեքստում չի օգտագործվել:
Քաղվածելու սխալ՝ «Neats vs% scruffies» անվանումով <references>-ում սահմանված <ref> թեգը սկզբնական տեքստում չի օգտագործվել:
Քաղվածելու սխալ՝ «Symbolic vs% sub-symbolic» անվանումով <references>-ում սահմանված <ref> թեգը սկզբնական տեքստում չի օգտագործվել:
Քաղվածելու սխալ՝ «GOFAI» անվանումով <references>-ում սահմանված <ref> թեգը սկզբնական տեքստում չի օգտագործվել:
Քաղվածելու սխալ՝ «AI at CMU in the 60s» անվանումով <references>-ում սահմանված <ref> թեգը սկզբնական տեքստում չի օգտագործվել:
Քաղվածելու սխալ՝ «Soar» անվանումով <references>-ում սահմանված <ref> թեգը սկզբնական տեքստում չի օգտագործվել:
Քաղվածելու սխալ՝ «AI at Stanford in the 60s» անվանումով <references>-ում սահմանված <ref> թեգը սկզբնական տեքստում չի օգտագործվել:
Քաղվածելու սխալ՝ «AI at Edinburgh and France in the 60s» անվանումով <references>-ում սահմանված <ref> թեգը սկզբնական տեքստում չի օգտագործվել:
Քաղվածելու սխալ՝ «AI at MIT in the 60s» անվանումով <references>-ում սահմանված <ref> թեգը սկզբնական տեքստում չի օգտագործվել:
Քաղվածելու սխալ՝ «Cyc» անվանումով <references>-ում սահմանված <ref> թեգը սկզբնական տեքստում չի օգտագործվել:
Քաղվածելու սխալ՝ «Knowledge revolution» անվանումով <references>-ում սահմանված <ref> թեգը սկզբնական տեքստում չի օգտագործվել:
Քաղվածելու սխալ՝ «Embodied AI» անվանումով <references>-ում սահմանված <ref> թեգը սկզբնական տեքստում չի օգտագործվել:
Քաղվածելու սխալ՝ «Revival of connectionism» անվանումով <references>-ում սահմանված <ref> թեգը սկզբնական տեքստում չի օգտագործվել:
Քաղվածելու սխալ՝ «Computational intelligence» անվանումով <references>-ում սահմանված <ref> թեգը սկզբնական տեքստում չի օգտագործվել:
Քաղվածելու սխալ՝ «Intelligent agents» անվանումով <references>-ում սահմանված <ref> թեգը սկզբնական տեքստում չի օգտագործվել:
Քաղվածելու սխալ՝ «Agent architectures» անվանումով <references>-ում սահմանված <ref> թեգը սկզբնական տեքստում չի օգտագործվել:
Քաղվածելու սխալ՝ «Hierarchical control system» անվանումով <references>-ում սահմանված <ref> թեգը սկզբնական տեքստում չի օգտագործվել:
Քաղվածելու սխալ՝ «Search» անվանումով <references>-ում սահմանված <ref> թեգը սկզբնական տեքստում չի օգտագործվել:
Քաղվածելու սխալ՝ «Logic as search» անվանումով <references>-ում սահմանված <ref> թեգը սկզբնական տեքստում չի օգտագործվել:
Քաղվածելու սխալ՝ «Planning as search» անվանումով <references>-ում սահմանված <ref> թեգը սկզբնական տեքստում չի օգտագործվել:
Քաղվածելու սխալ՝ «Uninformed search» անվանումով <references>-ում սահմանված <ref> թեգը սկզբնական տեքստում չի օգտագործվել:
Քաղվածելու սխալ՝ «Informed search» անվանումով <references>-ում սահմանված <ref> թեգը սկզբնական տեքստում չի օգտագործվել:
Քաղվածելու սխալ՝ «Optimization search» անվանումով <references>-ում սահմանված <ref> թեգը սկզբնական տեքստում չի օգտագործվել:
Քաղվածելու սխալ՝ «Genetic programming» անվանումով <references>-ում սահմանված <ref> թեգը սկզբնական տեքստում չի օգտագործվել:
Քաղվածելու սխալ՝ «Society based learning» անվանումով <references>-ում սահմանված <ref> թեգը սկզբնական տեքստում չի օգտագործվել:
Քաղվածելու սխալ՝ «Logic» անվանումով <references>-ում սահմանված <ref> թեգը սկզբնական տեքստում չի օգտագործվել:
Քաղվածելու սխալ՝ «Satplan» անվանումով <references>-ում սահմանված <ref> թեգը սկզբնական տեքստում չի օգտագործվել:
Քաղվածելու սխալ՝ «Symbolic learning techniques» անվանումով <references>-ում սահմանված <ref> թեգը սկզբնական տեքստում չի օգտագործվել:
Քաղվածելու սխալ՝ «Propositional logic» անվանումով <references>-ում սահմանված <ref> թեգը սկզբնական տեքստում չի օգտագործվել:
Քաղվածելու սխալ՝ «First-order logic» անվանումով <references>-ում սահմանված <ref> թեգը սկզբնական տեքստում չի օգտագործվել:
Քաղվածելու սխալ՝ «Fuzzy logic» անվանումով <references>-ում սահմանված <ref> թեգը սկզբնական տեքստում չի օգտագործվել:
Քաղվածելու սխալ՝ «Stochastic methods for uncertain reasoning» անվանումով <references>-ում սահմանված <ref> թեգը սկզբնական տեքստում չի օգտագործվել:
Քաղվածելու սխալ՝ «Bayesian networks» անվանումով <references>-ում սահմանված <ref> թեգը սկզբնական տեքստում չի օգտագործվել:
Քաղվածելու սխալ՝ «Bayesian inference» անվանումով <references>-ում սահմանված <ref> թեգը սկզբնական տեքստում չի օգտագործվել:
Քաղվածելու սխալ՝ «Bayesian learning» անվանումով <references>-ում սահմանված <ref> թեգը սկզբնական տեքստում չի օգտագործվել:
Քաղվածելու սխալ՝ «Bayesian decision networks» անվանումով <references>-ում սահմանված <ref> թեգը սկզբնական տեքստում չի օգտագործվել:
Քաղվածելու սխալ՝ «Stochastic temporal models» անվանումով <references>-ում սահմանված <ref> թեգը սկզբնական տեքստում չի օգտագործվել:
Քաղվածելու սխալ՝ «Decisions theory and analysis» անվանումով <references>-ում սահմանված <ref> թեգը սկզբնական տեքստում չի օգտագործվել:
Քաղվածելու սխալ՝ «Markov decision process» անվանումով <references>-ում սահմանված <ref> թեգը սկզբնական տեքստում չի օգտագործվել:
Քաղվածելու սխալ՝ «Game theory and mechanism design» անվանումով <references>-ում սահմանված <ref> թեգը սկզբնական տեքստում չի օգտագործվել:
Քաղվածելու սխալ՝ «Classifiers» անվանումով <references>-ում սահմանված <ref> թեգը սկզբնական տեքստում չի օգտագործվել:
Քաղվածելու սխալ՝ «Decision tree» անվանումով <references>-ում սահմանված <ref> թեգը սկզբնական տեքստում չի օգտագործվել:
Քաղվածելու սխալ՝ «K-nearest neighbor algorithm» անվանումով <references>-ում սահմանված <ref> թեգը սկզբնական տեքստում չի օգտագործվել:
Քաղվածելու սխալ՝ «Kernel methods» անվանումով <references>-ում սահմանված <ref> թեգը սկզբնական տեքստում չի օգտագործվել:
Քաղվածելու սխալ՝ «Gaussian mixture model» անվանումով <references>-ում սահմանված <ref> թեգը սկզբնական տեքստում չի օգտագործվել:
Քաղվածելու սխալ՝ «Naive Bayes classifier» անվանումով <references>-ում սահմանված <ref> թեգը սկզբնական տեքստում չի օգտագործվել:
<references>-ում սահմանված <ref> թեգը սկզբնական տեքստում չի օգտագործվել:Արտաքին հղումներ
[խմբագրել | խմբագրել կոդը]- Արդյո՞ք ԱԲ-ն կարող է լինել անկախ․ ռիսկերը, հնարավորություններն ու իրական սահմանները
- Արհեստական բանականությունը և մարդկության ապագան
| Վիքիպահեստն ունի նյութեր, որոնք վերաբերում են «Արհեստական բանականություն» հոդվածին։ |
| ||||||||||||
