Արհեստական բանականություն

Վիքիպեդիայից՝ ազատ հանրագիտարանից
Jump to navigation Jump to search

Արհեստական ինտելեկտ (AI, երբեմն նաև մեքենայական ինտելեկտ), ի տարբերություն մարդուն և կենդանիներին հատուկ բնական բանականության, մեքենայի կողմից ցուցադրվող բանականություն է։ Ինֆորմատիկայում AI հետազոտությունը սահմանվում է որպես "խելացի գործակալի" հետազոտություն՝ ցանկացած սարք, որն ընկալում է իր շրջակայքը և ձեռնարկում է գործողություններ, որոնք առավելագույնի են հասցնում հաջողությամբ նպատակին հասնելու նրա հնարավորությունները։ Կոպիտ ասած "արհեստական ինտելեկտ" տերմինը կիրառվում է, երբ մեքենան նմանեցնում է "ճանաչողական" գործառույթներ, որոնա մարդիկ ասոցիացնում են խելքի հետ, այնպիս օրինակ "սովորելը" և "խնդիր լուծելը"[1]:

Արհեստական ինտելեկտի շրջանակները վիճարկվում են․ քանի որ մեքենաները դառնում են ավելի ունակ, խնդիրները, որ համարվում էին "ինտելեկտ" պահանջող, հաճախ հեռացվում են սահմանումից, տանելով դեպի ֆենոմեն․ "Արհեստական ինտելեկտը հնարք է, որ դեռևս չի իրագործվել։"[2] Օրինակ, սիմվոլների օպտիկական ճանաչումը հաճախ հեռացվում է "արհեստական ինտելեկտից", դառնալով սովորական տեխնոլոգիա։[3] Ժամանակակից մեքենաների ունակությունները սովորաբար հաջողությամբ օգտագործվում են արհեստական ինտելեկտին դասակարգվող մարդկային խոսքի ճանաչողության, բարձր մակարդակի ռազմավարական խաղային համակարգերի[4], (ինչպես շախմատն է և Go խաղը)[5], ինքնակառավարվող մեքենաների, բովանդակության ինտելեկտուալ առաքման և ռազմական սիմուլյացիայի մեջ։

Արհեստական ​​ինտելեկտը որպես ակադեմիական ուղղություն ստեղծվել է 1956 թվականին և տարիների ընթացքում լավատեսության մի քանի ալիքներ է ունեցել,[6]>[7] որոնց հետևել է հիասթափություն և ֆինանսավորման կորուստ (հայտնի որպես "AI ձմեռ")[8][9], այնուհետ նոր մոտեցումներ, հաջողություն և նորացված ֆինանսավորում[7][10]: Իր պատմության մեծ մասի ընթացքում արհեստական ինտելեկտը բաժանված էր երկու ենթաճյուղերի, որոնց հաճախ հնարավոր չէր կապել մեկը մյուսի հետ[11]: Ենթաճյուղերը հիմնված են տեխնիկական նկատառումների հիման վրա, այնպիսիք են կոնկրետ նպատակներ (օրինակ "ռոբոտիկա" կամ "մեքենայական ուսուցում")[12], կոնկրետ գործիքների օգտագործում ("տրամաբանություն" կամ արհեստական նեյրոնային ցանցեր), կամ խորը փիլիսոփայական տարբերություններ[13][14][15]: Ենթաճյուղերը հիմնված էին նաև սոցիալական գործոնների վրա (կոնկրետ հաստատություններ կամ կոնկրետ հետազոտողների աշխատանքներ)[11]:

Արհեստական ինտելեկտի ավանդական խնդիրները (կամ նպատակները) ներառում են հիմնավորում, գիտելիքի ներկայացում, ավտոմատացված պլանավորում, մեքենայական ուսուցում, բնական լեզվի մշակում, մեքենայական ընկալում և օբյեկտների տեղաշարժի և բանեցնելու հմտություններ[12]: Ընդհանուր արհեստական ինտելեկտը ճյուղի արկարաժամկետ նպատակների թվում է։[16] Մոտեցումները ներառում են վիչակագրական մեթոդներ, համակարգչային ինտելեկտ և ավանդական սիմվոլիկ արհեստական ինտելեկտ։ Արհեստական ինտելեկտում օգտագործվում են շատ գործիքներ․ որոնում և մաթեմատիկական օպտիմիզացիա, արհեստական նեյրոնային ցանցեր և վիճակագրության վրա հիմնված մեթոդներ։ Արհեստական ինտելեկտը հիմնվում է համակարգչային գիտության, մաթեմատիկայի, լինգվիստիկայի, հոգեբանության, փիլիսոփայության և շատ այլ ուղղությունների վրա։

Ճյուղը հիմնվել է այն դրույթից ելնելով, որ մարդու բանականությունը «հնարավոր է ճշգրիտ նկարագրել, այնպես, որ հնարավոր է մեքենա ստեղծել, որ այն նմանակի»[17]: Սա բարձրացնում է մտքի բնույթի և մարդկային ինտելեկտով օժտված արհեստական էակների ստեղծման էթիկայի փիլիսոփոյական փաստարկները, որոնք խնդիրներ էին, որ ուսումնասիրվել են միֆերի, ֆանտաստիկայի և փիլիսոփայության մեջ անթիկ ժամանակներից ի վեր։ [18] Ոմանք արհեստական ինտելեկտի առաջընթացը դիտարկում են որպես վտանգ մարդկության հանդեպ[19]: Մյուսները կարծում են, որ ի տարբերություն նախորդ տեխնոլոգիական հեղափոխությունների, կբերի զանգվածային գործազրկության[20]:

Քսանմեկերորդ դարում համակարգչի հզորության մեծ տվյալների հսկայական քանակությունը և տեսական ընկալման բնագավառների զուգահեռ ձեռքբերումներից հետո, արհեստական ինտելեկտի մեթոդները վերածնունդ ապրեցին, և AI մեթոդները տեխնոլոգիական ինդուստրիայի էական բաղկացուցիչը դարձան, օգնելով լուծել համակարգչային գիտության, մաթապահովման նախագծմանև գործողությունների հետազոտման դժվար խնդիրները[21][10]:

Բովանդակություն

Պատմություն[խմբագրել | խմբագրել կոդը]

Տալոս, արհեստական ինտելեկտով հին առասպելական ավտոմատ

Մտածելու ընդունակություն ունեցող արհեստական էակներ, որպես պատմություններ պատմող սարքեր, ներկայացվել են անտիկ ախարհում,[22] և տարածված էին գեղարվեստական ժանրում, ինչպես Մերի Շելլիի Ֆրանկենշթեյն կամ Կարել Չապեկի Ռոսսոմի ունիվերսալ ռոբոտներ.[23] Այս կերպարները և նրանց ճակատագրերը բարձրացնում էին միևնույն խնդիրները, ինչ այժմ քննարկվում է արհեստական ինտելեկտի էթիկայում։[18] Բանականության ուսումնասիրությունները սկսվել են անթիկ փիլիսոփաներից և մաթեմատիկոսներից։ Մաթեմատիկական տրամաբանության ուսումնասիրությունը հանգեցրեց Ալան Թյուրինգի հաշվարկների տեսությանը, որում ենթադրվում է, որ մեքենան "0" և "1" պարզ սիմվոլների խառնելու օգնությամբ կարող է նմանակել կամայական իմաստալից մաթեմատիկական եզրակացություն։ Այս հասկացությունը, որ թվային համակարգիչները կարող են նմանակել ֆորմալ մտածողության կամայական պրոցես, հայտնի է որպես Չյորչ-Թյուրինդի թեզիս։[24] Նեյրոգիտության, ինֆորմացիայի տեսության և կիբեռնետիկայի զուգահեռ զարգացումները հետազոտողներին ուղղորդեցին դիտարկել էլեկտրոնային ուղեղի ստեղծման հնարավորությունը։ Թյուրինգը ենթադրեց, որ եթե մարդը չի կարողանում տարբերել անձի և մեքենայի պատասխանները, ապա մեքենան կարելի է համարել “խելացի"։[25] Որպես համընդհանուր ճանաչում ունեցող արհեստական ինտելեկտի աշխատանք կարելի է համարել 1943 թվականին Մակկալոկի և Փիթսի կողմից Թյուրինգի լրիվության համար ստեղծած "արհեստական նեյրոնները"։[26]

Արհեստական ինտելեկտի ճյուղը ծնվել է 1956 թվականին. Դորտմուդի քոլեջի վորքշոփի ժամանակ:[24] Մասնակիցները՝ Ալեն Նյուել (Կարնեգի Մելոն համալսարան), Հերբերտ Սայմոն (Կարնեգի Մելոն համալսարան), Ջոն Մակկարտի (Մասաչուսեթսի Տեխնոլոգիական ինստիտուտ), Մարվին Մինսկի (Մասաչուսեթսի Տեխնոլոգիական ինստիտուտ) և Արթուր Սամուել (IBM), դարձան արհեստական ինտելեկտի հիմնադիրներն ու հետազոտողները։[27] Նրանք և նրանց ուսանողները ծրագրեր էին իրականացնում, որոնց մամուլը "ապշեցուցիչ" էր անվանում․[28] համակարգիչները յուրացնում էին շաշկու ռազմավարությունը (1954)[29] (և 1959 թվականին ըստ էության ավելի լավ էին խաղում, քան միջին ունակությունների տեր մարդը),[30] լուծում էին տեքստային խնդիրները հանրահաշվում,ապացուցում էին տրամաբանական թեորեմները (1956) և անգլերեն խոսում։[31] 1960-ականների կեսերին, արհեստական ինտելեկտի հետազոտությունները մեծապես ֆինանսավորվում էին ԱՄՆ պաշտպանության նախարարության առաջատար հետազոտական նախագծերի գործակալության կողմից։[32] Եվ աշխարհով մեկ լաբորատորիաներ հիմնվեցին։[33] Արհեստական ինտելեկտի հիմնադիրները ապագայի նկատմամբ լավատես էին․ Հերբերտ Սայմոնը կանխատեսում էր, "քսան տարի անց մեքենաները կկարողանան կատարել մարդու կողմից կատարվող կամայական աշխատանք"։ Մարվին Մինսկին համաձայնել էր գրելով, "մի սերունդ անց ... 'արհեստական ինտելեկտի' ստեղծման պրոբլեմը էապես կլուծվի"։[6]

Նրանք չկարողացան գնահատել մնացած խնդիրների դճվարությունները։ Առաջընթացը դանդաղեց և 1974 թվականին, ի պատասխան Ջեյմս Լայթհիլլի քննադատությանը և ԱՄՆ-ի կոնգրեսի շարունակական ճնշումներին ֆինանսավորել ավելի արդյունավետ նախագծեր, թե ԱՄՆ և թե Բրիտանական կառավարությունները կտրեցին արհեստական ինտելեկտի հետազոտությունների ֆինանսավորումը։ Հաջորդ մի քանի տարիները հետագայում կոչվեցին "AI ձմեռ"[8] ժամանակաշրջան, երբ արհեստական ինտելեկտի ֆինանսավորում դժվար էր ձեռք բերել։

1980-ականների սկզբներին, արհեստական ինտելեկտի հետազոտությունները վերակենդանացան, պայմանավորված էքսպերտ համակարգերի կոմերցիոն հաջողությամբ,[34] արհեստական ինտելեկտի ձևաչափ, որ նմանակում է մասնագետների գիտելիքն ու վերլուծական ունակությունները։ 1985 թվականին արհեստական ինտելեկտի շուկան հատել էր միլիարդ դոլարի սահմանը։ Միևնույն ժամանակ Ճապոնիայի հինգերորդ սերնդի մեքենաների ծրագիրը ոգեշնչեց ԱՄՆ և Բրիտանական կառավարություններին վերականգնել արհեստական ինտելեկտի ակադեմիական հետազոտությունների ֆինանսավորումը։[7] Այնուամենայնիվ սկսելով 1987 թվականի Լիսպ մեքենաների փլուզմամբ, ևս մեկ անգամ հեղինակազրկվելով, արհեստական ինտելեկտը ընկավ երկրորդ ավելի երկարատև ընդմիջման փուլ[9]:

1990-ականների վերջերին և 21-րդ դարի սկզբում, արհեստական ինտելեկտը սկսեց օգտագործվել լոգիստիկայում, տվյալների մշակման, բժշկական ախտորոշման և այլ բնագավառներում։[21] Հաջողությունը կապված էր համակարգչային հզորության բարձրացմամբ (տես Մուռի օրենք),կոնկրետ խնդիրների լուծմանը առավել մեծ ուշադրությամբ, արհեստական ինտելեկտի և այլ բնագավառների greater emphasis on solving specific problems, new ties between AI and other fields (ինչպիսիք վիճակագրություն, տնտեսագիտություն և մաթեմատիկական օպտիմիզացիա) միջև նոր կապերի հաստատմամբ, և հետազոտողներին պահպանել մաթեմատիկական մեթոդներն ու գիտական ստանդարտները։[35] Deep Blue-ն 1997 թվականի մայիսի 11-ին դարձավ առաջին շախմատ խաղացող կոմպյուտերային համակարգը, որ հաղթեց աշխարհի չեմպիոն Գարի Կասպարովին։[36]

2011 թվականին, Jeopardy! հեռուստախաղի ցուցադրական հանդիպման ժամանակ, IBM-ի հարցուպատասխան Վաթսոն համակարգը նշանակալի տարբերությամբ հաղթել է երկու մեծագույն Jeopardy! մեծագույն չեմպիոնների՝ Բրեդ Ռուտերին և Կեն Ջենինգսին։[37] Արագ կոմպյուտերները, ալգորիթմական բարելավումները և հասանելիությունը մեծ տվյալներին մեքենայական ուսուցման և ընկալման հնարավորություն ստեղծեցին, տվյալների վրա հիմնված խորն ուսուցման մեթոդները սկսեցին գերակշռել ճշգրտության թեստերում։[38] Kinect-ը, որը ապահովում է 3D մարմին–շարժում ինտերֆեյս է ապահովում Xbox 360-ի և Xbox One-ի համար օգտագործում է ալգորիթմներ արհեստական ինտելեկտի երկարատև հետազոտությունների շնորհիվ[39] այնպես ինչպես խելացի անձնական օգնականը սմարթֆոնում։[40] 2016 թվականի մարտին, AlphaGoGo մրցույթում, Go-ի չեմպիոն Լի Սեդոլին հինգ խաղից չորսում հաղթեց, դառնալով առաջին կոմպյուտերային Go-խաղացող համակարգը, որը հաղթեց պրոֆեսիոնալ Go խաղացողին առանց արգելքների։[5][41] 2017 թվականին Go-ի ապագան համաժողովում, AlphaGoԿե Ցե-ի հետ երեք խաղից բաղկացած մրցույթում հաղթեց նրան,[42] ով շուրջ երկու տարի աշխարհի թիվ 1 խաղացողն էր։[43][44] Սա նշանակալի իրադարձություն էր արհեստական ինտելեկտի զարգացման բնագավառում, քանի որ Go-ն չափազանց բարդ խաղ է, ավելի քան շախմատը։

Համաձայն Բլումբերգի, 2015 թվականը արհեստական ինտելեկտի համար նշանակալի տարի էր, ընդ որում արհեստական ինտելեկտը գուգլում օգտագործող ծրագրային ապահովման նախագծերի քանակը աճել է 2012 թվականի "հատուկենտ օգտագործումից" մինչև 2,700 նախագծեր։ Փաստացի տվյալները ցույց են տալիս, որ 2011 թվականից սկսած պատկերների մշակման առաջադրանքներում սխալների քանակը էապես նվազել է։[45] Դա բացատրվում է հաշվարկվող ենթակառուցվածքների, հետազոտման գործիքների և տվյալների բազմությունների աճի շնորհիվ հասանելի արհեստական նեյրոնային ցանցի ընդլայնմամբ։[10] Այլ օրինակներ են՝ Skype համակարգը, որ մի լեզվից մյուս լեզվին ավտոմատ թարգմանություն է ապահովում և Facebook-ը, որը կարող է պատկերները նկարագրել կույր մարդկանց։[45] 2017 թվականի հարցումներում կազմակերպություններից հինգից մեկը հայտարարում է, որ "Արհեստական ինտելեկտը զետեղել են որոշ առաջարկություններում կամ գործընթացներում"։[46][47]

Հիմունքներ[խմբագրել | խմբագրել կոդը]

Տիպիկ արհեստական ինտելեկտը ընկալում է միջավայրը և իրականացնում է գործողություններ, որոնք առավելագույնի են հասցնում հաջողությամբ իր նպատականերին հասնելու հնարավորությունը։[48] Արհեստական ինտելեկտի ենթադրվող նպատակետը կարող է լինել պարզ ("1, երբ Go խաղալիս հաղթում է, հակառակ դեպքում՝ 0") կամ բարդ ("Կատարել նախկինում պարգևներ բերած գործողություններին մաթեմատիկորեն նմանատիպ գործողություններ"). Նպատակները կարող են հստակ սահմանվել, կամ կարող են դրվել։ Եթե Արհեստական ինտելեկտը ծրագրված է "ուսուցման ամրապնդման" համար, նպատակները կարող են անուղղակի ստիպել որոշակի վարքագծեր խրախուսել և ալյերը պատժել։ [Ն 1] Այլ կերպ էվոլյուցիոն համակարգը կարող է նպաստել նպատակներին օգտագործելով հարմարվողականության ֆունկցիան "հարմարվողականության ֆունկցիան" վերափոխվելու գերադասաբար փոխարինել բարձրակարգ արհեստական ինտելեկտի համակարգերը, սա նման է թե ինչպես կենդանիները զարգացան իրենց որոշակի նպատակների, ինչպես սնունդ գտնելն է, կամ ինչպես կարելի է շներին բազմացնել արհեստական ընտրության միջոցով, որպեսզի ցանկալի հատկություններ ժառանգեն։[49] Որոշ արհեստական ինտելեկտ համակարգեր, ինչպիսին մոտակա-հարևանը, տրված նպատակի փոխարեն դիտարկում են նմանությամբ, բացառությամբ, որ նպատակները ինչ որ կերպ թաքնված են դրանց ուսուցման տվայալներում։[50] Այսպիսի համակարգերը կարող են համարվել ոչ նշատակային համակարգեր, որոնց "նպատակն" է հաջողությամբ իրականացնել իրենց նեղ դասակարգման խնդիրը։.[51]

Արհեստական ինտելեկտը հաճախ պտտվում է ալգորիթմների օգտագործման շուրջ։ Ալգորիթմը հստակ հրահանգների բազմություն է, որ կարող է իրականացնել մեխանիկական համակարգիչը։[Ն 2] Բարդ ալգորիթմը հաճախ կառուցվում է ավելի պարզ ալգորիթմների միջոցով։ Պարզ ալգորիթմի օրինակ է կետ-խաչ օպտիմալ խաղալու հետևյալ եղանակը․[52]

  1. եթե ունեք "վտանգ" (այսինքն, անընդմեջ երկուսը), վերցրեք մնացած դաշտը։ Հակառակ դեպքում,
  2. եթե "պատառաքաղ" միաժամանակ երկու վտանգ կարող եք ստեղծել, կատարեք այդ քայլը։ Հակառակ դեպքում,
  3. վերցրեք դաշտի կենտրոնը, եթե այն ազատ է։ Հակառակ դեպքում,
  4. եթե ձեր հակառակորդը խաղացել է անկյունում, վերցրեք հանդիպակաց անկյունը։ Հակառակ դեպքում,
  5. վերցրեք դատարկ անկյունը։ Հակառակ դեպքում,
  6. վերցրեք դատարկ դաշտը։

Արհեստական ինտելեկտի շատ ալգորիթմներ ունակ են սովորել տվյալների հիման վրա, դրանք կարող են ինքնակատարելագործվել հիմնվելով փորձերի արդյունքների վրա (ռազմավարություններ, կամ "թերթել կանոնները", որոնք նախկինում լավ են աշխատել), կամ կարող են իրենք այլ ալգորիթմ գրել։ "Աշակերտներից" ոմանք, ներառյալ Բեյեսյան ցանցեր, լուծումների ծառեր և մոտակա հարևան, տեսականորեն կարող են անսահման տվյալների, ժամանակի և հիշողության առկայության դեպքում, սովորել մոտարկել կամայական ֆունկցիա, ներառյալ ողջ աշխարհը լավագույնը նկարագրող մաթեմատիկական ֆունկցիաների համադրությունը։ Ըստ էության այս աշակերտները կարող են դուրս բերել ողջ հնարավոր գիտելիքը, դիտարկելով յուրաքանչյուր հնարավոր վարկածներ և համադրելով դրանք տվյալների հետ։ Պրակտիկայում, անհնար է դիտարկել ամեն մի հնարավորություն, "կոմբինատոր պոռթկման" երևույթի պատճառով, որտեղ պրոբլեմի լուծման համար անհրաժեշտ ժամանակը աճում է էքսպոնենցիալ։ Արհեստական ինտելեկըի հետազոտությունների մեծ մասը ներառում է այն, թե ինչպես լայն հնարավորություններից առանձնացնել և բացառել տարբերակները, որոնց միջոցով հաջողության հասնելը քիչ հավանական է։ [53] >[54] Օրինակ, երբ քարտեզի վրա Դենվերից Նյու Յորք ը ամենակարճ երթուղին որոնելիս, կարելի է ամենակարճ ճանապարհ Սան Ֆրանցիսկոյով կամ հեռու արևմուտքով անցնող ցանկացած այլ ճանապարհ բացառել, այդպիսով, ամենակարճ երթուղին փնտրող արհեստական ինտելեկտի ալգորիթմւ կարող է խուսափել ամեն հնարավոր ճանապարհ դիտարկող կոմբինատոր պոռթկումից։[55] Արհեստական ինտելեկտի ամենավաղ (և ամենահասկանալի) մոտեցումը սիմվոլիզմն էր (այնպիսին ինչպիսին ձևական տրամաբանությունն է): "Եթե առողջ չափահաս մարդը ջերմում է, ապա հնարավոր է նա գրիպով հիվանդ է"։ Հաջորդ, ավելի ընդհանուր մոտեցումը Բայեսյան եզրակացությունն է, "Եթե ընթացիկ այցելուն ջերմում է, դիտարկեք հավանականությունը, որ նա հիվանդ է գրիպով այս-այս կերպ"։ Երրորդ ավելի ընդգրկուն մոտեցումը, չափազանց տարածված արհեստական ինտելեկտի սովորական կիրառումներում, անալոգայնությունը: "Հետազոտելով նախորդ այցելուների մասին տեղեկությունները՝ ջերմությունը, ախտանիշները, տարիքը և այլ գործոններ, որոնք հիմնականում համընկնում են այս հիվանդի ցուցանիշների հետ, այդ հիվանդների քանի %-ն էր գրիպով հիվանդ"։ Չորրորդ մոտեցումն ավելի դժվար է հասկանալ, բայց հիմնված է ուղեղի ինտուիտիվ աշխատանքի վրա․ արհեստական նեյրոնային ցանցի մոտեցումը օգտագործում է արհեստական "նեյրոնները", որոնք կարող են սովորել իրենց համեմատելով ցանկալի արդյունքների հետ և փոխելով ներքին նեյրոնների միջև ուժեղ կապերը, "հզորացնել" կապերը, որոնք թվում են օգտակար։ Այս չորս հիմնական մոտեցումները կարող են մասնակի համընկնել միմյանց և էվոլյուցիոն համակարգերի հետ, օրինակ նեյրոնային ցանցերը կարող են սովորել եզրակացնել, ընդհանրացնել և նմանակել։ Որոշ համակարգեր անուղղակ կամ ուղղակի օգտագործում են այս մոտեցումների բազմազանությունը, այլ արհեստական ինտելեկտի և ոչ ալգորիթմների հետ մեկտեղ,[56] լավագույն մոտեցումը հաճախ կախված է խնդրից։[57][58]

Կապույտ գիծը կարող է լինել պատահական աղմուկի պատճառով գծային ֆունկցիայի չափազանցելու օրինակ։

Ուսուցող ալգորիթմները աշխատում են այն հիմունքներով, որ ռազմավարությունները, ալգորիթմները և եզրակացությունները, որոնք լավ աշխատել են անցյալում, հավանաբար կշարունակեն լավ աշխատել նաև ապագայում։ Այս եզրակացությունները կարող են լինել ակնհաայտ, օրինակ "քանի որ վերջին 10,000 օրերի ընթացքում արևը ծագում է ամեն առավոտ, հավանաբար այն կծագի նաև վաղն առավոտյան"։ Կարող են լինել երանգավորված, օրինակ ընտանիքների "X%-ը աշխարհագրական առումով տարբեր տեսակներ ունենալ գունային տարբերակներով, ուստի Y%-ի հնարավորությամբ գոյություն ունի սև կարապ"։ Ուսանողները նաև աշխատում են "Օկկամի ածելիի" հիմքի վրա: Պարզագույն տեսությունը, որ բացատրում է տվյալները, ամենահավանականն է։ Հետևաբար, ուսանողը հաջողելու համար պարզագույն տեսությունները պետք է նախընտրի բարդերից, բացառությամբ երբ բարդ տեսությունը էապես լավն է։ Անցած ուսումնական փորձի հիման վրա չափազանց բարդ տեսության միջոցով տվյալների վերանայումը, կարգավորումը հայտնի է որպես վերապատրաստում։ Շատ համակարգեր փորձում են նվազեցնել վերապատրաստումը գնահատելով որքանով է ենթադրությունը համապատասխանում տվյալներին, բացառում բարդ ենթադրությունները։[59] Բացի դասական վերապատրաստումից ուսանողները կարող են հիասթափվել "սխալ դաս սովորելուց"։ Խաղալիքի օրինակը հետևյալն է, պատկերի դասակարգիչը, որ պատրաստաված է ճանաչել միայն շագանակագույն ձիեր և սև կատուներ, կարող է եզրակացնել որ բլոր շագանակագույն նմուշները հավանաբար ձիեր են։[60] Ի տարբերություն մարդկանց պատկերների ժամանակակից դասակարգիչները պատկերի բաղադրիչների միջև տարածական կապը չեն կարողանում որոշել, փոխարենը դրանք ուսումնասիրում են պիքսելների աբստրակտ շաբլոնները, որոնք մարդիկ անտեսում են, բայց որոնք գծայնորեն կապվում են իրական օբյեկտների որոշ տեսակների պատկերների հետ: Այդպիսի շաբլոնի թեթև տեղտեղ համընկնումը իրական պատկերի հետ բերում է "մրցակից" պատկերի, ինչը համակարգը սխալ է դասակարգում։[Ն 3][61][62][63]

Ինքնակառավարվող ավտոմոբիլային համակարգը կարող է օգտագործել նեյրոնային ցանցը, որոշելու պատկերի որ մասն է, թվում է, թե համընկնում է հետիոտների նախկին ուսումնասիրված պատկերներին և այնուհետև մոդելավորել այդ տարածքները որպես դանդաղ շարժվող, բայց ինչ որ չափով անկանխատեսելի ուղղանկյուն պրիզմաներ, որոնցից պետք է խուսափել։[64][65]

Մարդկանց համեմատությամբ գոյություն ունեցող արհեստական ինտելեկտի համակարգերի մոտ բացակայում են մարդու մի քանի "առողջ մտածելակերպի" հատկանիշներ; մարդիկ ունեն նաիվ ֆիզիկայի, ինչպիսիք են տարածություն, ժամանակ և ֆիզիկական փոխազդեցություններ, մասին մտածելու հզոր մեխանիզմներ։ Սա նույնիսկ փոքր երեխաներին հնարավորություն է տալիս հեշտությամբ եզրակացնել "Եթե այս գրիչը գլորի սեղանից, ապա այն կընկնի հատակին"։ Մարդիկ նաև "ժողովրդական հոգեբանության", որն օգնում է մեկնաբանել բնական լեզվով նախադասությունները, օրինակ, "Քաղաքային խորհուրդը ցուցարարներիդիմումը մերժեց, քանի որ նրանք բռնություն էին քարոզում"։ (Արհեստական ինտելեկտին դժվար է որոշել ավագանու անդամներն են, թե ցուցարարներն են բռնություն քարոզում։)[66][67][68] "Ընդհանուր գիտելիքի" պակասը նշանակում է, որ արհեստական ինտելեկտն այլ սխալներ է թույլ տալիս քան մարդը։ Օրինակ, գոյություն ունեցող ինքնակառավարվող ավտոմեքենաները չեն կարող եզրակացնել հետիոտնի ոչ գտնվելու վայրի, ոչ նրա տեղաշարժվելու ուղղության մտադրության մասին, փոխարենը պետք է օգտագործեն ոչ մարդկային մեթոդներ, պատահարներից խուսափելու համար։[69][70][71]

Խնդիրներ[խմբագրել | խմբագրել կոդը]

Արհեստական ինտելեկտի հետազոտության նպատակն է ստեղծել տեխնոլոգիա, որը թույլ է տալիս համակարգիչներին և մեքենաներին խելացի գործել։ Ինտելեկտ ստեղծելու հիմնական խնդիրը բաժանվում է ենթախնդիրների։ Դրանք բաղկացած են որոշակի առանձնահատկություններից կամ հնարավորություններից, որոնք հետազոտողներն ակնկալում են խելամիտ համակարգից։ Ստորև նկարագրված հատկությունները առավել ուշադրության են արժանացել։[12]

Մտահանգում, խնդրի լուծում[խմբագրել | խմբագրել կոդը]

Վաղ հետազոտողները մշակել էին ալգորիթմներ, որոնք քայլ առ քայլ նմանակում էին մտահանգումները, որոնք մարդիկ օգտագործում էին հանելուկներ լուծելիս և տրամաբանական եզրակացություններ անելիս։[72] 1980-ականների և 1990-ականների վերջերին, արհեստական ինտելեկտի հետազոտողները, օգտագործելով հավանականության և տնտեսագիտության հասկացությունները, մշակեցին անորոշ կամ ոչ ամբողջական տեղեկատվության հետ գործելու մեթոդներ։[73]

Այս ալգորիթմները բավարար չեն ծավալուն քննարկումներ պահանջող խնդիրների համար, որովհետև դրանք կտանեն "կոմբինատոր պայթյունի"․ խնդիրների բարդացմանը զուգահեռ դրանց լուծումները էքսպոնենցիալ դանդաղում են։ [53] Փաստացի, նույնիսկ մարդիկ հազվադեպ են օգտագործում քայլ-առ-քայլ եզրակացությունը, որը վաղ արհեստական ինտելեկտի համակարգերը կարող էին մոդելավորել։ Նրանք իրենց խնդիրների մեծ մասը լուծում են օգտագործելով արագ ինտուիտիվ դատողություններով։[74]

Գիտելիքի ներկայացում[խմբագրել | խմբագրել կոդը]

Օնտոլոգիան գիտելիքը ներկայացնում է որպես բնագավառի հասկացությունների բազմություն և այդ հասկացությունների միջև հարաբերություններ։

Գիտելիքի ներկայացումը[75] և գիտելիքի մշակումը[76] Արհեստական ինտելեկտի դասական հետազոտության մեջ կենտրոնական տեղ են գրավում։ Որոշ "էքսպերտ համակարգեր" փորձում են որոշ նեղ տիրույթի վերաբերող մասնագետների հստակ գիտելիքները մեկտեղել։ Բացի այդ որոշ նախագծեր փորձում են միջին մարդուն հայտնի "ողջամիտ գիտելիքները" հավաքել աշխարհին վերաբերող ընդհանուր գիտելիքների տվյալների բազայում։ Ողջամիտ գիտելիքների բազայում տեղ կգտնեն օբյեկտները, հատկությունները, կատեգորիաները և օբյեկտների միջև հարաբերությունները,[77] իրադրությունները, միջոցառումները, իրավիճակները և ժամանակը,[78] պատճառները և հետևանքները,[79] գիտելիք գիտելիքի մասին (ինչ մենք գիտենք այն մասին, թե ինչ այլ մարդիկ գիտեն);[80] և շատ այլ քիչ հետազոտված բնագավառներ։ Ներկայացումը, թե "Ինչ գոյություն ունի" կոմպյուտերային օնտոլոգիա է՝ օբյեկտների, հարաբերությունների, գաղափարների և հատկությունների ֆորմալ նկարագրություն, որ ծրագրային ագենտները դրանք կարող են մեկնաբանել։ Այս բոլորի սեմանտիկան ամրագրվում են որպես հասկացությունների, դերերի և անհատների նկարագրողական տրամաբանություն, և սովորաբար Վեբ Անթոլոգիական լեզվով իրականացվում են որպես դասեր, հատկություններ և անհատներ։ [81] Ամենաընդհանուր անթոլոգիաները վերին անթոլոգիաներ, որոնք փորձում են ողջ գիտելիքի հիմք ապահովել[82] դառնալով միջնորդ տիրույթային անթոլոգիաների միջև, որոնք ներառում են որոշակի գիտելիքների տիրույթների մասին կոնկրետ գիտելիքներ։ Գիտելիքի այսպիսի ֆորմալ ներկայացումը կարող է օգտագործվել բովանդակության վրա հիմնված ինդեքսավորման և որոնման մեջ,[83] պատահարի նկարագրության,[84] կլինիկական որոշումների աջակցման,[85] գիտելիքի հայտնաբերման մեջ ("հետաքրքիր" և գործուն եզրակացություններ տվյալների մեծ բազաներից փնտրելիս),[86] և այլ բնագավառներում։[87]

Գիտելիքի ներկայացման ամենադժվար խնդիրներից են․

Հիմնական պատճառաբանությունը և դասակարգման խնդիրը։

Շատ բաներ, ինչ մարդիկ գիտեն "աշխատանքային ենթադրությունների" տեսք են ստանում։ Օրինակ, երբ խոսակցության մեջ թռչուն է հիշատակվում, մարդիկ, սովորաբար պատկերացնում են բռունցքի չափ ունեցող կենդանի, որ երգում է և թռչում։ Սրանցից ոչինչ ճիշտ չէ բոլոր թռչունների համար։ Ջոն Մակկարտին այս խնդիրը ներկայացրեց 1969 թվականին[88] որպես դասակարգման խնդիր․ կամայական ողջամիտ կանոնի համար, որ արհեստական ինտելեկտի հետազոտողները պետք է ներկայացեն, գոյություն ունեն բազում բացառություններ։ Գրեթե ոչինչ բացարձակ ճիշտ կամ սխալ չկա, ինչ աբստրակտ տրամաբանությունն է պահանջում։ Արհեստական ինտելեկտի հետազոտողները այս խնդրի բազմաթիվ լուծումներ են ուսումնասիրել։[89]

Ողջամիտ գիտելիքի լայնությունը
Փաստերը, որ միջին մարդը գիտի մեծաքանակ են։ Հետազոտական նախագծերը, որոնք փորձում են ողջամիտ գիտելիքի ամբողջական տվյալների բազա ստեղծել, պահանջում են հսկայական ծավալի անթոլոգիական պրոյեկտման աշխատանքներ, որոնք պետք է արվեն ձեռքով՝ մեկ բարդ հասկացություն մեկ մոտեցմամբ։[90]
Ողջամիտ գիտելիքի սիմվոլիկ տեսքը
Շատ բաներ, որ մարդիկ գիտեն, չեն ներկայացված "փաստերի" կամ "պնդումների" ձևով, որ նրանք կարողանային բանավոր ներկայացնել։ Օրինակ, շախմատիստը կարող է խուսափել կոնկրետ շախմատային դիրքից, որովհետև այն "շատ բացայատ է"[91] կամ արվեստի քննադատը առաջին հայացքից կարող է հասկանալ, որ քանդակը կեղծ է։[92] Սրանք անգիտակցական և ենթասիմվոլիկ ինտուիցիաներ կամ միտումներ են մարդու ուղեղում։[93] Այսպիսի գիտելիքը տեղեկացնում է, աջակցում և ապահովում է սիմվոլիկ գիտակցված գիտելիքի միջավայր։ Ինչպես կապակցված ենթասիմվոլային հիմնավորման խնդրի դեպքում, հույս կա, որ իրադրության արհեստական ինտելեկտը, հաշվարկային արհեստական ինտելեկտը, կամ վիճակագրական արհեստական ինտելեկտը կարող են ապահովել ներկայացնելու այս կարգի գիտելիք։[93]

Պլանավորում[խմբագրել | խմբագրել կոդը]

Խելացի ագենտները պետք է կարողանան նպատակներ դնել և դրանց հասնել։[94] Դրանք պետք է աշխարհի դրության ապագայի ներկայացման եղանակներ ունենան և և ի վիճակի լինեն կանխագուշակումներ անել թե ինչպես են իրենց գործողությունները կփոխեն դա և եղած տարբերակներից ընտրել առավելագույն օգտակարը։[95]

Դասական պլանավորման համակարգերում, ագենտը կարող է ենթադրել, որ աշխարհում միակ գործող համակարգն է, ագենտին հնարավորություն տալով ագենտին վստահ լինել իր գործողությունների հետևանքների մեջ։[96] Այնուամենայնիվ, եթե ագենտը միակ դերակատարը չէ, ապա պահանջվում է որ ագենտը կարողանա գործել անորոշության պայմաններում։ Այսինքն ագենտը պետք է կարողանա ոչ միայն գնահատել միջավայրը և կանխատեսումներ անել, այլ նաև գնահատել իր կանխատեսումները և դրանց հիման վրա ադապտացվել։[97]

Բազմա-ագենտ պլանավորումը տրված նպատակին հասնելու համար օգտագործում է բազմաթիվ ագենտների համագործակցությունն ու մրցակցությունը։ Այսպիսի վարքագիծն օգտագործվում է էվոլյուցիոն ալգորիթմների և ամբոխային մտածողության կողմից։[98]

Ուսուցում[խմբագրել | խմբագրել կոդը]

    1rightarrow.png Հիմնական հոդված՝ Մեքենայական ուսուցում


Մեքենայական ուսուցումը Արհեստական ինտելեկտի ստեղծումից ի վեր դրա հիմնարար հետազոտությունների հայեցակարգն է,[99] այն կոմպյուտերային ալգորիթմների ուսումնասիրությունն է, որը փորձերի շնորհիվ ավտոմատ բարելավվում է։[100][101]

Չվերահսկվող ուսուցումը դա մուտքային հոսքում շաբլոններ գտնելու ունակությունն է։ Վերահսկվող ուսուցումը ներառում է թե դասակարգումը, թե թվային ռեգրեսիան։ Դասակարգումն օգտագործվում է որոշելու թե առարկան ինչ կատեգորիայի է պատկանում, մի քանի կատեգորիայի մի շարք օրինակներ դիտարկելուց հետո։ Ռեգրեսիան փորձ է ստեղծել ֆունկցիա, որն արտահայտում է մուտքի և ելքի միջև հարաբերությունը և կանխատեսում թե ինչպես ելքային տվյալները կփոխվեն մուտքային տվյալների փոփոխմանը զուգահեռ։[101] Դասակարգողները և ռեգրեսիոն սովորողները, երկուսն էլ, կարող են դիտարկվել որպես "ֆունկցիայի մոտարկողներ" որ փորձում են սովորել անհայտ (հնարավոր է անուղղակի) ֆունկցիա, օրինակ, սպամ դասակարգիչը կարող է դիտարկվել որպես ֆունկցիայի ուսումնասիրություն, որը էլեկտրոնային նամակի տեքստը արտապատկերում է երկու կատեգորիաներից մեկին, "սպամ" կամ "ոչ սպամ"։ Հաշվողական ուսուցման տեսությունը կարող է գնահատել սովորողներին հաշվողական բարդությամբ, նմուշի բարդությամբ (որքան տվյալ է պահանջվում), կամ օպտիմիզացիոն տեսության այլ հասկացություններով։[102] Ուծեղացված ուսուցման դեպքում[103] գործակալը լավ պատասխանների դեպքում պարգևատրում է, իսկ վատերի դեպքում պատժում։ Իր խնդրահարույց տարածքում գործող ռազմավարություն ձևավորելու համար գործակալն օգտագործում է պարգևների և պատժամիջոցների հաջորդականություն։

Բնական լեզվի վերամշակումը[խմբագրել | խմբագրել կոդը]

Սինտաքսիս վերլուծության ծառը ներկայացնում է լեզվի քերականությանը համապատասխան նախադասության սինտաքսիս կառուցվածքը։

Բնական լեզվի վերամշակումը[104] մեքենային տալիս է մարդկային լեզուն կարդալու և հասկանալու ունակություն։ Բնական լեզվի բավականաչափ հզոր համակարգը թույլ կտա օգտագործել բնական լեզու-օգտվող ինտերֆեյսը և ուղղակիորեն գիտելիք քաղել անմիջականորեն մարդկանց կողմից ստեղծված աղբյուրներից: Բնական լեզվի մշակման որոշ պարզ տարբերակներ ներառում են տեքստի որոնում, տեղեկատվության վերլուծություն, հարցերի պատասխանում[105] և մեքենայական թարգմանություն։[106] Ժամանակակից շատ մոտեցումներ տեքստի սինտաքսիս ներկայացումը կառուցելու համար օգտագործում են բառի համընկնման հաճաախականությունը։ "Բանալի խոսքերի որոնման" ռազմավարությունը ընդունված է և լայնածավալ, սակայն երբեմն անիմաստ, օրինակ "շուն" բառը փնտրելիս, կարող է բաց թողնվել "պուդել" բառը պարունակող փաստաթղթերը։ "Լեքսիկալ նմանության" ռազմավարություններն օգտագործում են այնպիսի բառեր, ինչպիսին "վթարն" է գնահատելու նյութի զգացմունքայնությունը։ Ժամանակակից վիճակագրական մոտեցումները կարող են միավորել ինչպես այս բոլոր ռազմավարությունները, այնպես էլ այլք և հաճախ հասնում են ընդունելի ճշգրության էջի կամ պարբերության մակարդակով, սակայն առանձին նախադասությունների դասակարգման տեսակետից մնում են սեմանտիկորեն անհասկանալի։ Բացի ողջամիտ գիտելիքի վերծանման սովորական բարդությունները, բնական լեզվի մշակման գոյություն ունեցող համակարգերը շատ թույլ են գործարար ծրագրերում կենսունակ դարձնելու համար։ Բացի բնական լեզվի սեմանտիկ մշակման վերջնական նպատակն է ողջամիտ գիտելիքի լիակատար ըմբռնումը։[107]

Ընկալում[խմբագրել | խմբագրել կոդը]

Հատկությունների հայտնաբերում (պատկերված եզրույթի հայտնաբերումը օգնում է Արհեստական ինտելեկտ համակարգին չմշակված տվյալների հիման վրա կազմել ինֆորմատիվ աբստրակտ կառուցվածքներ։

Մեքենայական ընկալումը[108] դա հնարավորություն է սենսորներից եկող ազդանշաններն օգտագործել (ինչպիսիք են տեսախցիկները (տեսանելի սպեկտր կամ ինֆրակարմիր), միկրոֆոնները, անլար ազդանշանները, և ակտիվ լիդարները, ռադարը և շոշափող սենսորներն են) աշխարհի ասպեկտները հասկանալու համար։ Կիրառումները ներառում են խոսքի ճանաչումը,[109] դեմքի ճանաչումը և օբյեկտի ճանաչումը։[110] Կոմպյուտերային տեսողությունը դա տեսողական մուտքը վերլուծելու ունակությունն է։ Այսպիսի ներդրումը սովորաբար երկիմաստ է․ հսկա, հիսուն մետր բոյ ունեցող հետիոտնը հեռվից կարող է նույն պիքսելներն արձակել որքան սովորական չափսերի մերձակայքում գտնվող հետիոտնը: Արհեստական ինտելեկտի համակարգից պահանջել կարծիք հայտնել տարբեր մեկնաբանությունների հարաբերական ճշմարտանմանության և հիմնավորվածության վերաբերյալ, ելնելով օրինակ "սկզբնական մոդելից" գնահատել որ հիսուն մետրանոց հետիոտն գոյություն չունի։[111]Կոմպյուտերային տեսողության խնդիրները ներառում են պատկերի ստացումը, մշակումը, վերլուծությունը և թվային պատկերների յուրացումը և իրական աշխարհից բազմաչափ տվյալների ձեռքբերումը, լուծումների տեսքով թվային կամ սիմվոլիկ ինֆորմացիա ստանալու համար։

Շարժում և մանիպուլացիա[խմբագրել | խմբագրել կոդը]

    1rightarrow.png Հիմնական հոդված՝ Ռոբոտատեխնիկա


Արհեստական ինտելեկտը մեծապես օգտագործվում է ռոբոտների մեջ։[112] Բարձրակարգ ռոբոտային բազուկները և այլ արդյունաբերական ռոբոտները լայնորեն օգտագործվում են ժամանակակից գործարաններում, փորձից կարող են սովորել ինչպես արդյունավետ շարժվել, չնայած շփման և տեղափոխման սահունության առկայությանը։[113] Ժամանակակից շարժվող ռոբոտը, երբ տված է փոքր, հաստատուն և տեսանելի միջավայր, կարող է որոշել իր գտնվելու վայրը և քարտեզագրել այն, այնուամենայնիվ դինամիկ միջավայրերը, ինչպես (էնդոսկոպիայում) հիվանդի շնչառական օրգանի ներսում, ավելի մեծ մարտահրավեր է առաջացնում։ Շարժման պլանավորումը դա շարժման առաջադրանքը "պրիմիտիվների" շարժումների տրոհելու պրոցես է, ինչպիսիք են անհատական համատեղ շարժումները։ Այսպիսի շարժումը հաճախ ներառում է համատեղ գործողություն, երբ շարժումը պահանջում է օբյեկտի հետ ֆիզիկական շփման մեջ մնալ:[114][115][116] Մորավեկի պարադոքսը ընդգծում է, որ ցածր մակարդակի սենսորային շարժման հմտությունները, որոնք մարդիկ ընդունում են որպես ինքնին հասկանալի, դժվար է ծրագրավորել ռոբոտում։ Պարադոքսը Հանս Մորավեկի անունն է կրում, ով 1988 թվականին հայտարարեց, որ "համեմատաբար հեշտ է կոմպլուտերին հրահանգել ցուցադրել լավ արդյունքներ չափահասին հատուկ ինտելեկտուալ կամ շաշկու խաղում, և դժվար կամ անհնար է դրանց տալ մեկ տարեկանի հմտություններ, որ գալիս են ընկալումից և շարժունակությունից"։[117][118] Սա բացատրվում է նրանով, որ ի տարբերություն շաշկու, ֆիզիկական ճարտարությունը բնական ընտրության ուղիղ թիրախն է եղել միլիոնավոր տարիներ։[119]

Սոցիալական ինտելեկտ[խմբագրել | խմբագրել կոդը]

[Քիսմեթ ռոբոտ, սաղմնային սոցիալական ունակություններով (ռոբոտ)[120]

Մորավեկի պարադոքսը կարող է ընդլայնվել սոցիալական ինտելեկտի բազմաթիվ ձևերի վրա։[121][122] Բազմաթիվ գործակալների միջև բաշխված ավտոնոմ տրանսպորտային միջոցների կոորդինացումը մնում է բարդ պրոբլեմ։[123] Հուզական հաշվարկները միջճյուղային հովանոց է, որ ներառում է համակարգեր, որոնք ճանաչում, մեկնաբանում, մշակում մարդկային զգացմունքները։[124][125][126] Հուզական հաշվարկների չափավոր հաջողությունները, ներառյալ տեքստային տրամադրության վերլուծությունները և վերջերս մուլտիմոդալ հուզական վերլուծությունները, որտեղ արհեստական ինտելեկտը դասակարգում է տեսագրված թեմայով դրսևորվող ազդեցությունները։[127]

Երկարաժամկետ հեռանկարում սոցիալական հմտությունները և մարդկային զգացմունքների հասկանալը և խաղերի տեսությունը արժեքավոր կլինի սոցիալական ագենտի համար։ Մարդկանց գործողությունների շարժառիթները և հուզական վիճակները հասկանալու միջոցով նրանց գործողությունները կանխատեսելու կարողությունն ագենտին հնարավորություն կտա ավելի լավ որոշումներ ընդունել։ Որոշ համակարգերնմանակում են մարդկային զգացմունքները և արտահայտությունները, մարդկային փոխհարաբերության զգացմունքային դինամիկայում ավելի զգայուն երևալու համար, այլ կերպ նպաստելու մարդ համակարգիչ փոխազդեցությանը։[128] Նման կերպ որոշ վիրտուալ օգնականներ ծրագրավորված են զրույց վարել և նույնիսկ կատակել, սա նաիվ օգտվողների մոտ ոչ իրատեսական տպավորություն է ստեղծվում, թե որքան ինտելեկտուալ են գոյություն ունեցող համակարգչային ագենտները։[129]

Ընդհանուր ինտելեկտ[խմբագրել | խմբագրել կոդը]

Պատմականորեն այնպիսի նախագծերը, ինչպիսիք են Cyc գիտելիքների բազան (1984–) և զանգվածային ճապոնական հինգերորդ սերընդի համակարգիչ նախաձեռնությունը (1982–1992) փորձեց ընդգրկել մարդկային գիտելիքի ողջ բազմազանությունը։ Այս վաղ նախագծերը չկարողացան խուսափել ոչ-քանակական սիմվոլիկ տրամաբանության մոդելների սահմանափակումներից և հետադարձ հայացքից մեծապես թերագնահատվեց արհեստական ինտելեկտի միջտիրույթային դժվարությունը։ Ներկայումս ժամանակակից արհեստական ինտելեկտի հետազոտողները փոխարենը մեծամասամբ աշխատում են հեշտ մշակվող "նեղ արհեստական ինտելեկտի" կիրառությունների վրա (ինչպիսիք բժշկական ախտորոշումը և ավտոմոբիլային նավիգացիան են)։[130] Շատ հետազոտողներ կանխատեսում են որ տարբեր տիրույթներում "նեղ արհեստական ինտելեկտի" աշխատանքները ի վերջո կներառվեն արհեստական ընդհանուր ինտելեկտով մեքենայի մեջ (AGI), միավորելով այս հոդված բերված նեղ հմտությունները և ինչ որ տեսակետից նույնիսկ կգերազանցեն մարդկային կարողությունները այս բնագավառներից մեծ մասում։[16][131] Շատ հաջողություններ ունեն ընդհանուր միջտիրույթային նշանակություն։ Մեկ բարձր մակարդակի օրինակ է որ DeepMind-ը 2010 թվականին մշակեց "ընդհանրացված արհեստական ինտելեկտ" որն ինքնուրույն կարող է սովորել շատ բազմազան Atari խաղեր և հետագայում մշակեց համակարգի տարբերակ, որը հաջողում է հաջորդական ուսուցման պրոբլեմը։[132][133][134] Բացի ուսուցման փոխանցումից[135] վարկածային ընդհանուր արհեստական ինտելեկտի առաջխաղացումը կարող է ներառել ռեֆլեկտիվ կառուցվածքի զարգացումը, որը կարող է մասնակցել տեսական որոշումների ընդունման մեջ և պարզել թե ինչպես "անջատել" համապարփակ գիտելիքների բազան կառուցվածք չունեցող համաշխարհային սարդոստայնից։[4] Ոմանք պնդում են որ ինչ որ Some argue that some kind of (դեռևս չբացահայտված) կոնցեպտուալ պարզ, բայց մաթեմատիկորեն բարդ, conceptually straightforward, but mathematically difficult, "Վարպետ Ալգորիթմ" կարող է տանել արհեստական ընդհանուր ինտելեկտի։[136] Ի վերջո մի քանի "երևացող" մոտեցումներ դիտարկվում են մարդկային ինտելեկտին ակնհայտ մոտ և համարում են որ անտրոմորֆիկ հատկություններն, ինչպիսին արհեստական ուղեղն է կամ զարգացումը խթանող ռոբոտը մի օր կարող են հասնել կրիտիկական կետի, երբ ընդհանուր ինտելեկտ կառաջանա։[137][138]

Այս հոդվածի շատ խնդիրներ նույնպես կարող են ընդհանուր ինտելեկտ պահանջել, եթե մեքենաները խնդիրները լուծեն այնպես, ինչպես մարդիկ են անում։ Օրինակ, նույնիսկ կոնկրետ պարզ խնդիրները, ինչպիսին մեքենայական թարգմանությունն է, պահանջում է որ մեքենան գրի և կարդա երկու լեզուներով էլ, հետևի հեղինակի փաստարկներին, իմանա ինչի մասին է խոսվում և հավաստի վերարտադրի հեղինակի նախնական մտադրությունները։ Մեքենայական թարգմանության խնդիրը դիտարկվում է որպես արհեստական ինտելեկտի ամբողջական խնդիր, քանի որ բոլոր այս խնդիրները միաժամանակ պետք է լուծվեն որպեսզի մեքենայական կատարումը մարդու թարգմանության մակարդակին հասնի։

Մոտեցումներ[խմբագրել | խմբագրել կոդը]

Արհեստական ինտելեկտի հետազոտությունները առաջնորդող միավորող տեսություն կամ պարադիգմ գոյություն չունի։ Բազմաթիվ խնդիրների վերաբերյալ հետազոտողներն անհամաձայնություններ ունեն։[139] Երկար ժամանակ մի քանի հարց անպատասխան մնացած հարցերից են․ արհեստական ինտելեկտը արդյոք պետք է նմանակի բնական ինտելեկտին ուսումնասիրելով հոգեբանությունը կամ նեյրոգիտությունը։ Կամ մարդու բիոլոգիայի հետ կապը նույքան անհեթեթ է որքան թռչնի բիոլոգիայինը աերոնավիգացիոն տեխնիկայի հետ։[13] Կարող է ինտելեկտուալ վարքագիծը նկարագրել պարզ, էլեգանտ սկզբունքներով, ինչպիսին տրամաբանությունն է կամ օպտիմիզացիոն մաթեմատիկան։ Կամ դա անհրաժեշտաբար պահանջում է լուծել մեծ թվով բոլորովին կապ չունեցող պրոբլեմներ։[14]

Կիբեռնետիկա և ուղեղի մոդելավորում[խմբագրել | խմբագրել կոդը]

    1rightarrow.png Հիմնական հոդված՝ Կիբեռնետիկա

1940-ականներին և 1950-ականներին, մի շարք հետազոտողներ ուսումնասիրել են նեյրոկենսաբանության, ինֆորմացիոն տեսության և կիբեռնետիկայի միջև կապը։ Նրանցից ոմանք էլեկտրոնային ցանցեր օգտագործող տարրական ինտելեկտ ունեցող մեքենաներ են ստեղծել։ Այդ հետազոտողներից շատերը հավաքվել էին Անգլիայի Փրինսթոնի համալսարանում և Ռատիո ակումբում հեռահաղորդակցության հանրության ժողովին։[140] 1960 թվականին այս մոտեցումը չի օգտագորվել, չնայած 1980-ականներին դրա տարրերը վերականգնվեցին։

Սիմվոլիկ[խմբագրել | խմբագրել կոդը]

Երբ 1950-ականների կեսերին հասանելիությունը թվային կոմպյուտերներին հնարավոր դարձավ, արհեստական ինտելեկտի հետազոտողները սկսեցին պարզել, որ մարդկային բանականությունը կարելի է արտահայտել սիմվոլների մանիպուլյացիայով։ Հետազոտությունը կենտրոնացել էր երեք ինստիտուտներում․ Կարնեգի Մելոն համալսարան, Ստենֆորդի համալսարան և Մասաչուսեթսի Տեխնոլոգիական ինստիտուտ, և ինչպես նկարագրված է վերևում, յուրաքանչյուրը զարգացրել էր հետազոտության իր յուրահատուկ ձևը։ [141] 1960-ականներին սիմվոլիկ մոտեցումները մեծ հաջողություն ունեցան, փոքր ցուցադրական ծրագրերում բարձր մակարդակի մտածողություն նմանակելում։ Կիբեռնետիկական կամ արհեստական նեյրոնային ցանցային մոտեցումները հետին պլան մղվեցին։[142] 1960-ականների և 1970-ականների հետազոտողները համոզվեցին, որ սիմվոլիկ մոտեցումները ի վերջո կհաջողեն ստեղծել ընդհանուր արհեստական ինտելեկտով մեքենա և դա դիտարկում էին որպե իրենց ոլորտի նպատակ։

Ճանաչողական մոդելավորում[խմբագրել | խմբագրել կոդը]

Տնտեսագետ Հերբերտ Սայմոնը և Ալեն Նյուելը ուսումնասիրել են մարդու խնդիրներ լուծելու հմտությունները և փորձել են դրանք ֆորմալիզացնել և նրանց աաշխատանքը հիմք դրեց արհեստական ինտելեկտի, ինչպես նաև կոգնիտիվ գիտության, գործողությունների հետազոտման և կառավարման գիտության ոլորտում։ Նրանց հետազոտական խումբը հոգեբանական էքսպերիմենտների արդյունքներն օգտագործում էին զարգացնելու ծրագրեր, որ նմանակում են մեթոդներին, որոնք մարդիկ օգտագործում են խնդիրներ լուծելիս։ Կարնեգի Մելոն համալսարանում հիմնված այս ավանդույթը 1980 թվականի կեսերին, ի վերջո հանգեցրեց Soar կոգնիտիվ ճարտարապետության մշակմանը։[143][144]

Տրամաբանության վրա հիմնված[խմբագրել | խմբագրել կոդը]

Ի տարբերություն Սայմոնի և Նյուելի, Ջոն Մակկարտնին համարում էր, որ մեքենան չպետք է մոդելավորի մարդկանց մտքերը, այլ փոխարենը պետք է փորձի գտնել աբստրակտ հիմնավորման և խնդրի լուծման գոյությունը, անկախ մարդն այդ նույն ալգորիթմն է օգտագործում։[13] Սթենֆորդի համալսարանի նրա լաբորատորիան մտադրված էր օգտագործել ֆորմալ տրամաբանությունը տարբեր խնդիրներ լուծելու համար, ներառյալ գիտելիքի ներկայացում, ավտոմատացված պլանավորում և մեքենայական ուսուցում։[145] Տրամաբանությունը նաև Էդինբուրգի համալսարանի ուշադրության կենտրոնում էր, Եվրոպայի այլ երկրներում, ինչը հանգեցրեց Prolog ծրագրավորման լեզվի մշակմանը և տրամաբանական ծրագրավորում գիտության զարգացմանը։[146]

Հակատրամաբանական կամ խառնաշփոթ[խմբագրել | խմբագրել կոդը]

MIT հետազոտողները (ինչպիսիք Մարվին Մինսկի և Սեյմուր Փեյփերթ)[147]գտել են, որ բարդ խնդիրներ լուծելիս, ինչպիսիք կոմպյուտերային տեսողությունն ու բնական լեզվի մշակումը պահանջում են հրատապ լուծումներ- նրանք վիճում էին, որ չկա պարզ և ընդհանուր սկզբունք (տրամաբանության նման), որը կընդգրկի ինտիլիգենտ վարքի բոլոր ասպեկտները։ Ռոջեր Շրանկը իրենց "հակատրամաբանական" մոտեցումը նկարագրում է որպես approaches as "խառնաշփոթ"։[14] Ողջամիտ գիտելիքների բազան արհեստական ինտելեկտի "խառնաշփոթի" օրինակ է, քանի որ դրանք ստեղծվում են ձեռքով, մեկ բարդ հասկացություն մեկ անգամ։[148]

Գիտելիքի վրա հիմված[խմբագրել | խմբագրել կոդը]

Երբ 1970-ականներին մեծ հիշողությամբ կոմպյուտերները հասանելի դարձան, բոլոր երեք ուղղությունների հետազոտողները սկսեցին կառուցել գիտելիքի վրա հիմնված արհեստական ինտելեկտի կիրառություններ։[149] Այս "գիտելիքի հեզափոխությունը" հանգեցրեց [[էքսպերտ համակարգ]երի մշակմանն ու տեղայնացմանը (առաջարկված Էդվարդ Ֆեյենբաումի կողմից), արհեստական ինտելեկտի առաջին իրոք հաջող ծրագրային ապահովումը։[34] Բոլոր էքսպերտ համակարգերի կառուցվածքի հիմնական բաղադրիչը գիտելիքների բազան է, որը պարունակում է արհեստական ինտելեկտը ներկայացնող փաստեր և կանոններ։[150] Գիտելիքի հեղափոխությունը պայմանավորված էր նաև այն գիտակցությամբ, որ արհեստական ինտելեկտի բազում պարզ կիրառություններ կպահանջեն գիտելիքի հսկայական ծավալներ։

Ենթասիմվոլիկ[խմբագրել | խմբագրել կոդը]

1980-ականներին, կարծես թե սիմվոլիկ արհեստական ինտելեկտի առաջընթացը կանգ առավ, և շատերը կարծում էին որ սիմվոլիկ համակարգերը երբեք ի վիճակի չեն լինելու նմանակել մարդկային մտածողության ողջ ընթացքը, հատկապես մեքենայական ընկալումը, ռոբոտները, մեքենայական ուսուցումը և պատկերների ճանաչումը։ Մի շարք հետազոտողներ սկսեցին արհեստական ինտելեկտի կոնկրետ խնդիրների համար դիտարկել "ենթասիմվոլիկ" մոտեցումները։[15] Ենթասիմվոլիկ մոտեցումները կարողանում են մոտենալ ինտելեկտին, առանց գիտելիքի կոնկրետ ներկայացման։

Ներկառուցված ինտելեկտ[խմբագրել | խմբագրել կոդը]

Սա ընդգրկում է ներկառուցված, տեղայնացված, վարքագծի վրա հիմնված և նորագույն արհեստական ինտելեկտը։ Ռոբոտների հարակից դաշտի հետազոտողները մերժեցին սիմվոլիկ արհեստական ինտելեկտը և կենտրոնացան հիմնական տեխնիկական խնդիրների վրա, որոնք ռոբոտների թույլ կտան շարժվել և գոյատևել։[151] Նրանց աշխատանքը վերակենդանացրեց վաղ 1950-ականների կիբեռնետիկ հետազոտողների ոչ սիմվոլիկ տեսակետը և նորից մտցրեց կառավարման տեսության օգտագործումը արհեստական ինտելեկտում։ Սա համընկավ կոգնիտիվ գիտությանը հարակից ներառական մտքի թեզիսի զարգացման հետ․ այն գաղափարը, որ բարձր ինտելեկտի համար պահանջվում են մարմնի տարբեր ասպեկտներ (ինչպես շարժումը, ընկալումը և արտացոլումը)։

Զարգացնող ռոբոտների շրջանակներում զարգացնող ուսուցման մոտեցումներ են մշակվում, որոնք ռոբոտներին հնարավորություն են տալիս կուտակել նոր հմտությունների դիրեկտորիաներ, անկախ ինքնագնահատման, իրական ուսուցիչների հետ սոցիալական փոխազդեցության և առաջնորդող մեխանիզմների կիրառման միջոցով (ակտիվ ուսուցում, հասունացում, սիներգիա, և այլն).[152][153][154][155]

Հաշվողական ինտելեկտ և ծրագրային հաշիվ[խմբագրել | խմբագրել կոդը]

Interest in Արհեստական նեյրոնային ցանցերի և "կապակցվածության" հանդեպ հետաքրքրությունը վերականգնվեց Դեվիդ Ռումելհարթի և այլոց օգնությամբ 1980-ականների կեսերին։[156] Արհեստական նեյրոնային ցանցերը ծրագրածին հաշվի օրինակ են, դրանք այն խնդիրների լուծումներն են, որոնք չեն կարող լուծվել լիարժեք տրամաբանական որոշակիությամբ և որտեղ մոտավոր լուծումը հաճախ բավարար է։ Արհեստական ինտելեկտի այլ ծրագրային մոտեցումներ ներառում են անորոշ համակարգեր, էվոլյուցիոն հաշվարկ և շատ վիճակագրական գործիքներ։ Ծրագրային հաշվի կիրառումը արհեստական ինտելեկտի համակարգերում ուսումնասիրվում է հաշվարկային ինտելեկտ գիտական ուղղության կողմից։[157]

Վիճակագրական ուսուցում[խմբագրել | խմբագրել կոդը]

Շատ ավանդական արհեստական ինտելեկտ GOFAI համակարգեր մնացին հատուկ կտորներում, սիմվոլիկ հաշիվը, որ աշխատում էր իրենց սեփական խաղալիք մոդելի վրա, ձախողում էր իրական ընդհանրացված տարբերակում։ Այնուամենայնիվ 1990-ականներին արհեստական ինտելեկտի հետազոտողները կիրառեցին բարդ մաթեմատիկական գործիքներ, այնպիսիք, ինչպիսին AI researchers adopted sophisticated mathematical tools, such as Մարկովի թաքնված մոդելը (HMM), ինֆորմացիոն տեսություն, և Բայեսիան նորմատիվ որոշումների տեսություն համեմատելու կամ միավորելու մրցակցող կառուցվածքները։ ընդհանուր մաթեմատիկական լեզուն բարձրակարգ համագործակցության հնարավորություն տվեց ավելի կայացած բնագավառների հետ (ինչպես մաթեմատիկան, տնտեսագիտությունը կամ գործողությունների հետազոտությունը[Ն 4] Compared with GOFAI-ի հետ համեմատած, նոր "վիճագրական ուսուցման" միջոցները, ինչպիսին HMM և նեյրոնային ցանցերն են, շատ պրակտիկ տիրույթներում, ինչպիսին տվյալների որսն է ավելի բարձր ճշգրտության են հասնում, առանց տվյալների բազմության սեմանտիկ հասկացվածության անհրաժեշտության։ Իրական տվյալներով հաջողությունների աճը բերեց տարբեր մոտեցումների համեմատության նկատմամբ ուշադրության աճին՝ համեմատելու թե առաջարկված յուրահատուկ խաղալիք մոդելներից ո՞ր մոտեցումն է լավագույնը ներկայացվում ավելի լայն կոնտեաստում։ Արհեստական ինտելեկտի հետազոտությունները դառնում էին ավելի գիտական։ Ներկայումս փորձերի արդյունքները հաճախ ճշգրիտ չափելի են և երբեմն (դժվարությամբ) վերարտադրելի։[35][158] Տարբեր վիճակագրական ուսուցման միեթոդներ տարբեր սահմանափակումներ ունեն, օրինակ, հիմնական HMM-ն չի կարող մոդելավորել բնական լեզվի անվերջ հնարավոր կոմբինացիաները։[159] Քննադատները նշում են, որ ավանդական GOFAI-ից շեղվելը դեպի վիճակագրական ուսուցում, հաճախ նաև հեռանալ է բացատրելի արհեստական ինտելեկտից։ Արհեստական ընդհանուր ինտելեկտի հետազոտության մեջ, որոշ գիտնականներ զգուշացնում են վիճակագրական ուսուցումից չափազանց մեծ կախվածությունից, և պնդում, որ GOFAI-ի շարունակական հետազոտությունը դեռևս անհրաժեշտ կլինի ընդհանուր ինտելեկտի հասնելու համար։[160][161]

Մոտեցումների ինտեգրում[խմբագրել | խմբագրել կոդը]

Ինտելեկտուալ ագենտի պարադիգմ
Ինտելեկտուալ ագենտը համակարգ է, որը ընկալում է իր շրջապատը և գործողություններ է ձեռնարկում, որոնք առավելագույնի են հասցնում հաջողության հնարավորությունը։ Պարզագույն ինտելեկտուալ ագենտներ են յուրահատուկ խնդիրներ լուծող ծրագրերը։ Ավելի բարդ ագենտները ներառում են մարդկանց և մարդկանց կազմակերպությունները (ինչպես բիզնեսները)։ Պարադիգմը հետազոտողներին թույլ է տալիս ուղղակիորեն համեմատել և նույնիսկ միավորել մեկուսածված խնդիների նկատմամբ տարբեր մոտեցումները, հարցնելով, որ ագենտն է լավագույնը տված "նպատակային ֆունկցիան" առավելագույնին հասցնելու մեջ։ Յուրահատուկ պրոբլեմ լուծող ագենտը կարող է օգտագործել աշխատող ամեն մի մոտեցում՝ որոշ ագենտներ սիմվոլիկ կամ տրամանական, որոշները ենթասիմվոլիկ արհեստական նեյրոնային ցանցեր և մյուսները կարող են օգտագործել նոր մոտեցումներ։ Պարադիգմը նաև հետազոտողներին տալիս է ուրիշ բնագավառների հետ շփվելու ընդհանուր լեզու, ինչպիսին են որոշումների տեսությունը, տնտեսագիտությունը, որոնք նույնպես օգտագործում են աբստրակտ ագենտների հասկացությունը։ Ամբողջական ագենտ կառուցելը հետազոտողից պահանջում է լուծել ինտեգրման իրական խնդիրներ, օրինակ, քանի որ սենսորային համակարգերը շրջակա միջավայրի մասին անորոշ տեղեկատվություն են տալիս, պլանավորման համակարգերը պետք է կարողանան գործել անորոշության մեջ։ Ինտելեկտուալ ագենտ պարադիգմը 1990-ականների ընթացքում լայնորեն ընդունվեց։[162]
Ագենտի կառուցվածք և կոգնիտիվ կառուցվածք
Հետազաոտողները բազմա-ագենտ համակարգերում փոխգործակցող ինտելեկտուալ ագենտներից ինտելեկտուալ համակարգեր կառուցելու համար համակարգեր են մշակել։[163] Հիերարխիկ կառավարման համակարգը կամուրջ է ապահովում ենթասիմվոլիկ արհեստական ինտելեկտի, դրա ամենացածր ռեակտիվ մակարդակում և ավանդական սիմվոլիկ արհեստական ինտելեկտի, դրա ամենաբարձր մակարդակում, ազատ ժամանակի սահմանափակումները հնարավորություն են տալիս պլանավորել և մոդելավորել աշխարհը։[164] Որոշ կոգնիտիվ կառուցվածքներ սովորաբար կառուցված են նեղ խնդիրների լուծման համար, ուրիշները մշակված են մարդու իմացությունը նմանակելու և ընդհանուր պատկերացում կազմելու համար։

Գործիքներ[խմբագրել | խմբագրել կոդը]

Արհեստական ինտելեկտը մշակել է մեծ թվով գործիքներ լուծելու ամենաբարդ խնդիրները Ինֆորմատիկայում։ Ստորև բերված են այս մեթոդների ամենատարածվածներից մի քանիսը։

Կիրառություններ[խմբագրել | խմբագրել կոդը]

Վեբ էջում հաճախորդներին ծառայություն մատուցող վիրտուալ ավտոմատ օգնական՝ արհեստական ինտելեկտի շատ պարզ կիրառություն


Արհեստական ինտելեկտը վերաբերում է յուրաքանչյուր ինտելեկտուալ խնդրի։[165] Ժամանակակից արհեստական ինտելեկտի միջոցները շատ տարածված են և շատ են այստեղ բոլորը թվարկելու համար։ Հաճախ, երբ տեխնիկան դառնում է հիմնական օգտագործվող, այն այլևս չի համարվում արհեստական ինտելեկտ, այս երևույթը դիտարկվում է որպես արհեստական ինտելեկտի ազդեցություն։[166]

Արհեստական ինտելեկտի բարձրակարգ նմուշներ են ինքնակառավարվող փոխադրամիջոցները (ինչպիսիք են անօդաչու թռչող սարքերը և ինքնակառավարվող մեքենաները), բժշկական ախտորոշումը, արվեստի գործերի ստեղծումը (ինչպես պոեզիան), մաթեմատիկական թեորեմների ապացուցումը, խաղեր խաղալը (շախմատ ու գո), որոնողական համակարգեր (Գուգլ (որոնողական համակարգ)), առցանց օգնական (Siri), լուսանկարներում պատկերների ճանաչումը, սպամի ֆիլտրումը, թռիչքի հետաձգման կանխատեսումը[167], դատական որոշումների կանխատեսումը[168] և առցանց գովազդներին ուշադրություն դարձնելը։[165][169][170]

«Արհեստական բանականություն» տերմինի ծագում ու հասկացություն[խմբագրել | խմբագրել կոդը]

Նախաբանում արհեստական ինտելեկտի սահմանման մեջբերումը, որը սահմանվել է 1956 թվականին Ջոն Մաքքարթիի կողմից Դարտմուտի համալսարանում անցկացվող համաժողովի ժամանակ, ուղղակիորեն կապված չէ մարդու բանականության հասկացության հետ։ Համաձայն Մաքքարթիի՝ արհեստական բանականության հետազոտողները կարող են օգտագործել մարդկանց մոտ չնկատվող մեթոդներ, եթե դրանք անհրաժեշտ են որոշակի խնդիր լուծելու համար։

Պարզաբանելով իր սահմանումը՝ Ջոն Մաքքարթին նշում է. «Խնդիրն այն է, որ մենք դեռ չենք կարող ամբողջությամբ սահմանել, թե որ հաշվողական գործողություններն ենք մենք ցանկանում անվանել ինտելեկտուալ։ Մենք հասկանում ենք ինտելեկտի միայն որոշ մեխանիզմներ։ Այդ պատճառով էլ այս գիտության մեջ ինտելեկտ հասկացություն ասելով հասկանում ենք միայն այն հաշվողական գործողությունները, որոնք ունակ են աշխարհում հասնել նախանշված նպատակներին»։

Միևնույն ժամանակ կա տեսակետ, համաձայն որի բանականությունը կարող է լինել միայն որպես կենսաբանական երևույթ։

Արհեստական բանականության ռուսական ասոցիացիայի մասնակիցներն արհեստական բանականությունը սահմանում են հետևյալ կերպ.

  1. Գիտական ուղղվածություն, որի շրջանակում տրվում և լուծվում են մարդկային գործունեության հետ կապված ապարատային և ծրագրային այնպիսի մոդելներ, որոնք սովորաբար համարվում են ինտելեկտուալ։
  2. Բանական համակարգերը կատարում են այնպիսի ֆուկցիաներ, որոնք ի սկզբանե համարվում են մարդկային գործունեության արդյունք։ Այդուհանդերձ բանական համակարգը տեխնիկական կամ ծրագրային համակարգ է և այն ունակ է լուծել խնդիրներ, որոնք սովորաբար համարվում են ստեղծագործական, պատկանում են որոշակի ոլորտի, դրա մասին տեղեկատվությունը պահպանվում է այդպիսի համակարգում։ Բանական համակարգի կառուցվածքը ներառում է 3 հիմնական հատված՝ գիտելիքների շտեմարան, լուծող և ինտելեկտուալ ինտերֆեյս, որը թույլ է տալիս օգտագործել էլեկտրոնային հաշվողական տեխնիկան առանց հատուկ ծրագրային տվյալների ներմուծման։
  3. «Արհեստական ինտելեկտ» անվանումով գիտությունը մտնում է ինֆորմատիկայի մեջ, իսկ նրա հիմքի վրա ստեղծված տեխնոլոգիաները՝ տեղեկատվական տեխնոլոգիաների։ Այս գիտության խնդիրն է հաշվողական տեխնիկայի և այլ արհեստական սարքերի միջոցով վերստեղծել տրամաբանական հիմնավորումներ և գործողություններ։

Մարդու և «մեքենայի» համար բանականության ընդհանուր սահմանումներից մեկը կարելի է ձևակերպել այսպես. «Բանականությունը համակարգի ունակությունն է ստեղծել ինքնակրթության համար ծրագրեր, որոնք կհորինեն որոշակի բարդության խնդիրներ և կլուծեն դրանք»։

Արհեստական բանականության զարգացման նախադրյալներ[խմբագրել | խմբագրել կոդը]

Ալան Թյուրինգը 16 տարեկան հասակում

Արհեստական բանականության պատմությունը, որպես նոր գիտական ուղղություն, սկսում է 20-րդ դարի կեսերից։ Արդեն այդ ժամանակ ձևավորվել էին բազմաթիվ նախադրյալներ դրա զարգացման համար. փիլիսոփաների շրջանում վաղուց վեճեր էին ընթանում մարդու էության և աշխարհընկալման շուրջ, նեյրոֆիզիոլոգներն ու հոգեբանները զարգացրել էին մարդկային ուղեղի և մտածողության մի շարք տեսություններ, տնտեսագետներն ու մաթեմատիկոսները փորձում էին տարբեր խնդիրների համար գտնել օպտիմալ լուծումներ և, վերջապես, ծնվել էր հաշվողական մաթեմատիկային տեսության հիմնասյունը՝ ալգորիթմների տեսությունը։ Եվ ստեղծվեցին առաջին համակարգիչները։

Պարզվեց, որ նոր մեքենաների հաշվելու արագությունը մարդկայինից արագ է, այդ պատճառով էլ գիտնականների շրջանում հարց առաջացավ՝ որքան է համակարգիչների հնարավորությունների սահմանը և արդյոք մեքենաները կհասնեն մարդկային մտածողության մակարդակին։ 1950 թվականին հաշվողական տեխնիկային պիոներներից մեկը՝ անգլիացի գիտնական Ալան Թյուրինգը, գրում է «Կարո՞ղ է մեքենան մտածել» [171]վերնագրով մի հոդված։ Հոդվածում նկարագրվում է մի գործընթաց, որի միջոցով հնարավոր կլիներ որոշել այն ակնթարթը, թե երբ մեքենան մտածողությամբ կարող է համեմատվել մարդու հետ։ Այդ գործընթացը հետագայում կոչվեց Թյուրինգի թեստ։

Մոտեցումներ և ուղղություն[խմբագրել | խմբագրել կոդը]

Խնդիրներն հասկանալու մոտեցումներ[խմբագրել | խմբագրել կոդը]

«Ինչո՞վ է զբաղվում արհեստական բանականությունը» հարցի պատասխանները բազմաթիվ են։ Գրեթե ամեն հեղինակ, ով գրում է արհեստական բանականության մասին, բախվում է որևէ սահմանման և այն դիտարկում է այս գիտության ձեռքբերումների լույսի ներքո։

Փիլիոսոփայության մեջ որոշված չէ բնության և մարդկային բանականության կարգավիճակի հարցը, չկան նաև համակարգչի «խելամտության» հասնելու չափանիշները, չնայած որ արհեստական բանականության սկզբնավորման ժամանակ առաջարկվել են մի շարք վարկածներ, օրինակ Թյուրինգի թեստը կամ Նյուելլ-Սայմոնի վարկածը։ Այդ պատճառով էլ կարելի է առանձնացնել արհեստական բանականության մշակման 2 հիմնական մոտեցում.[172]

  • նվազող (անգլ. Top-Down AI), նշանագիտական – փորձագետների համակարգերի ստեղծում, գիտելիքների և տրամաբանական լուծումների համակարգերի բազա, որոնք նմանակում են բազմաստիճան մտավոր գործընթացներ՝ մտածողություն, քննադատություն, խոսք, էմոցիա, ստեղծագործում և այլն։
  • աճող (անգլ. Bottom-Up AI), կենսաբանական – նեյրոնային ցանցերի և էվոլուցիոն հաշվարկների ուսումնասիրում, համապատասխան հաշվողական համակարգեր, ինչպիսիք են նեյրոհամակարգիչներն ու կենսահամակարգիչները։

Վերջին մոտեցումը, ըստ Ջոն Մաքքարթիի, չի վերաբերում արհեստական բանականություն գիտությանը, նրանց միավորում է միայն վերջնական նպատակը։

ԱՍԻՄՕ — Հոնդա ֆիրմայի ինտելեկտուալ ռոբոտ
Մրցաշար RoboCup

Թյուրինգի թեստ կամ ինտուիտիվ մոտեցում[խմբագրել | խմբագրել կոդը]

    1rightarrow.png Հիմնական հոդված՝ Թյուրինգի թեստ

Էմպիրիկ թեստը առաջարկվում է Ալան Թյուրինգի կողմից «Հաշվողական մեքենաներ և բանականություն» (անգլ. Computing Machinery and Intelligence)[173] հոդվածում, որը հրատարակվել է 1950 թվականին «Mind» փիլիոսոփայական ամսագրում:Այս թեստի նպատակն է մարդկային մտածողությանը մոտ արհեստական մտածողության հնարավորությունների սահմանումը։

Այս թեստի ստանդարտ մեկնաբանաությունը հնչում է այսպես. «Մարդը փոխազդում է մեկ համակարգչի և մեկ մարդու հետ։ Հարցերի պատասխանների հիման վրա նա պետք է որոշի ում հետ է խոսում՝ մարդու, թե համակարգչային ծրագրի։ Համակարգչային ծրագրի խնդիրն է մարդուն շփոթմունքի մեջ գցել՝ ստիպելով անել սխալ ընտրություն»։ Թեստի մասնակիցներն իրար չեն տեսնում։

Ամենաընդհանուր մոտեցումը ենթադրում է, որ արհեստական բանակությունը սովորական պայմաններում կցուցաբերի մարդու վարքագծից չտարբերվող վարքագիծ։ Այս գաղափարը հանդիսանում է Թյուրինգի թեստի մոտեցման ընդհանրացում, որը պնդում է՝ մեքենան կդառնա գիտակից միայն այն ժամանակ, երբ կկարողանամ սովորական մարդու հետ խոսակցություն վարել և մարդը չի գիտակցի, որ զրուցում է մեքենայի հետ (զրույցն ընթանում է նամակագրության միջոցով)։

Ֆանտաստ գրողները հաճախ են առաջարկում ևս մեկ մոտեցում, այն է՝ արհեստական բանականությունը կառաջանա այն ժամանակ, երբ մեքենան ի վիճակի կլինի զգալու և ստեղծելու։ Այսպես, «Երկհարյուրամյա մարդու» Էնդրու Մարտինի տերը նրան վերաբերվում ա որպես մարդու այն ժամանակ, երբ այն ստեղծում է խաղալիք սեփական նախագծով։ Իսկ «Աստղային ուղու» Դեյտան, որն ունակ էր հաղորդակցվելու և սովորելու, երազում էր էմոցիաներ ու ինտուիցիա ունենար։

Ամեն դեպքում վերջին մոտեցումը հազիվ թե դիմանա ավելի մանարամասն քննադատությանը։ Որպես օրինակ դժվար չէ ստեղծել մեխանիզմ, որը կարող է գնահատել արտաքին կամ ներքին միջավայրի որոշակի ցուցանիշներ և արձագանքի դրանց անբարենպաստ նշանակությանը։ Այսպիսի համակարգի մասին կարելի է ասել, որ այն ունի զգացմունքներ («ցավ» - հարվածի ցուցիչի աշխատանքի ռեակցիան, «քաղց» - կուտակիչ մարտկոցի լիցքավորման նմազումը և այլն)։

Սիմվոլիկ մոտեցում[խմբագրել | խմբագրել կոդը]

Սիմվոլիկ մոտեցումը թույլ է տալիս կատարել գործողություններ վատ ձևակերպված խնդիրների և նրանց իմաստների հետ:

Նոր խնդիրների լուծման հաջողությունն ու արդյունավետությունը կախված է նրանից, թե ինչպես կարող է վերլուծվել եղած ինֆորմացիան, որը պահանջում է վերացական մեթոդների կիրառման ճկունություն:

Տրամաբանական մոտեցում[խմբագրել | խմբագրել կոդը]

Արհեստական բանակություն ստեղծելու տրամաբանական մոտեցումը հիմնված է հիմնավորումների մոդելավորման վրա։ Տեսական հիմքը տրամաբանությունն է։

Հիբրիդային մոտեցում[խմբագրել | խմբագրել կոդը]

Հիբրիդային մոտեցումը ենթադրում է, որ նեյրոնային և սիմվոլային մոդելների միայն սիներգիկ համակցությունն է հասնում հաշվողական հնարավորությունների ամբողջ սպեկտորին։

Գիտելիքի ներկայացում[խմբագրել | խմբագրել կոդը]

Գիտելիքի ներկայացվում է որպես հասկացությունների տիրույթ և դրանց միջև հարաբերություններ

Գիտելիքի ներկայացումը և գիտելիքի կառուցումը արհեստական բանականության հետազոտություններում կենտրոնական տեղ են զբաղեցնում։ Խնդիրների մեծ մասը, որ ենթադրվում է կիրականացվեն մեքենայի կողմից, կպահանջեն աշխարհի մասին լայնածավալ գիտելիքներ։ Արհեստական բանականությունում ներկայացվելու անհրաժեշտություն ունեն․ Օբյեկտները, հատկությունները, կատեգորիաները և օբյեկտների միջև հարաբերությունները, դրանց թվում են իրադրությունները, պատահարները, վիճակները և ժամանակը; պատճառներն ու հետևանքները; գիտելիքի մասին գիտելիք (մենք ինչ գիտենք, թե այլ մարդիկ ինչ գիտեն) և այլ ավելի քիչ հետազոտված տիրույթներ։

Pathfinding 2D Illustration.svg

Ծանոթագրություններ[խմբագրել | խմբագրել կոդը]

  1. Russell, Norvig, էջ 2
  2. Hofstadter (1980, էջ. 601)
  3. Schank Roger C. (1991)։ Where's the AI։ AI magazine 12 (4): 38 
  4. 4,0 4,1 Russell, Norvig
  5. 5,0 5,1 «AlphaGo – Google DeepMind»։ Արխիվացված օրիգինալից 10 March 2016-ին 
  6. 6,0 6,1 Optimism of early AI: quoted in Crevier 1993, էջ. 109 . quoted in Crevier 1993, էջ. 109 .
  7. 7,0 7,1 7,2 Boom of the 1980s: rise of expert systems, Fifth Generation Project, Alvey, MCC, SCI:
  8. 8,0 8,1 First AI Winter, Mansfield Amendment, Lighthill report
  9. 9,0 9,1 Second AI winter:
  10. 10,0 10,1 10,2 AI becomes hugely successful in the early 21st century
  11. 11,0 11,1 Pamela McCorduck (2004, էջեր. 424) writes of "the rough shattering of AI in subfields—vision, natural language, decision theory, genetic algorithms, robotics ... and these with own sub-subfield—that would hardly have anything to say to each other."
  12. 12,0 12,1 12,2 This list of intelligent traits is based on the topics covered by the major AI textbooks, including:
  13. 13,0 13,1 13,2 Biological intelligence vs. intelligence in general: , who make the analogy with aeronautical engineering. , who writes that there are "two major branches of artificial intelligence: one aimed at producing intelligent behavior regardless of how it was accomplished, and the other aimed at modeling intelligent processes found in nature, particularly human ones." , a paper in Science, which describes McCarthy's indifference to biological models. Kolata quotes McCarthy as writing: "This is AI, so we don't care if it's psychologically real" https://books.google.am/books?id=PEkqAAAAMAAJ  . McCarthy recently reiterated his position at the AI@50 conference where he said "Artificial intelligence is not, by definition, simulation of human intelligence" (Maker 2006).
  14. 14,0 14,1 14,2 Neats vs. scruffies:
  15. 15,0 15,1 Symbolic vs. sub-symbolic AI:
  16. 16,0 16,1 General intelligence (strong AI) is discussed in popular introductions to AI: and Kurzweil 2005
  17. See the Dartmouth proposal, under Philosophy, below.
  18. 18,0 18,1 This is a central idea of Pamela McCorduck's Machines Who Think. She writes: "I like to think of artificial intelligence as the scientific apotheosis of a venerable cultural tradition." (McCorduck 2004, էջ 34) "Artificial intelligence in one form or another is an idea that has pervaded Western intellectual history, a dream in urgent need of being realized." (McCorduck 2004, էջ xviii) "Our history is full of attempts—nutty, eerie, comical, earnest, legendary and real—to make artificial intelligences, to reproduce what is the essential us—bypassing the ordinary means. Back and forth between myth and reality, our imaginations supplying what our workshops couldn't, we have engaged for a long time in this odd form of self-reproduction." (McCorduck 2004, էջ 3) She traces the desire back to its Hellenistic roots and calls it the urge to "forge the Gods." (McCorduck 2004, էջեր 340–400)
  19. «Stephen Hawking believes AI could be mankind's last accomplishment»։ BetaNews։ 21 October 2016։ Արխիվացված օրիգինալից 28 August 2017-ին 
  20. Ford Martin, Colvin Geoff (6 September 2015)։ «Will robots create more jobs than they destroy?»։ The Guardian։ Վերցված է 13 January 2018 
  21. 21,0 21,1 AI applications widely used behind the scenes:
  22. AI in myth:
  23. AI in early science fiction.
  24. 24,0 24,1 Formal reasoning:
  25. "Artificial Intelligence." Encyclopedia of Emerging Industries, edited by Lynn M. Pearce, 6th ed., Gale, 2011, pp. 73–80. Gale Virtual Reference Library, http://link.galegroup.com/apps/doc/CX1930200017/GVRL?u=mcc_pv&sid=GVRL&xid=cd5adac2. Accessed 31 Mar. 2018.
  26. Russell, Norvig, էջ 16
  27. Hegemony of the Dartmouth conference attendees: , who write "for the next 20 years the field would be dominated by these people and their students."
  28. Russell, Norvig, էջ 18: «it was astonishing whenever a computer did anything kind of smartish»
  29. Schaeffer J. (2009) Didn’t Samuel Solve That Game?. In: One Jump Ahead. Springer, Boston, MA
  30. Samuel A. L. (July 1959)։ «Some Studies in Machine Learning Using the Game of Checkers»։ IBM Journal of Research and Development 3 (3): 210–229։ doi:10.1147/rd.33.0210 
  31. "Golden years" of AI (successful symbolic reasoning programs 1956–1973): The programs described are Arthur Samuel's checkers program for the IBM 701, Daniel Bobrow's STUDENT, Newell and Simon's Logic Theorist and Terry Winograd's SHRDLU.
  32. DARPA pours money into undirected pure research into AI during the 1960s:
  33. AI in England:
  34. 34,0 34,1 Expert systems:
  35. 35,0 35,1 Formal methods are now preferred ("Victory of the neats"):
  36. McCorduck, 2004, էջեր 480–483
  37. Markoff, 2011
  38. «Ask the AI experts: What’s driving today’s progress in AI?»։ McKinsey & Company (անգլերեն)։ Վերցված է 13 April 2018 
  39. Administrator։ «Kinect's AI breakthrough explained»։ i-programmer.info։ Արխիվացված օրիգինալից 1 February 2016-ին 
  40. Rowinski, Dan (15 January 2013)։ «Virtual Personal Assistants & The Future Of Your Smartphone [Infographic]»։ ReadWrite։ Արխիվացված օրիգինալից 22 December 2015-ին 
  41. «Artificial intelligence: Google's AlphaGo beats Go master Lee Se-dol»։ BBC News։ 12 March 2016։ Արխիվացված օրիգինալից 26 August 2016-ին։ Վերցված է 1 October 2016 
  42. «After Win in China, AlphaGo’s Designers Explore New AI»։ 27 May 2017։ Արխիվացված օրիգինալից 2 June 2017-ին 
  43. «World's Go Player Ratings»։ May 2017։ Արխիվացված օրիգինալից 1 April 2017-ին 
  44. «柯洁迎19岁生日 雄踞人类世界排名第一已两年» (Chinese)։ May 2017։ Արխիվացված օրիգինալից 11 August 2017-ին 
  45. 45,0 45,1 Clark Jack (8 December 2015)։ «Why 2015 Was a Breakthrough Year in Artificial Intelligence»։ Bloomberg News։ Արխիվացված օրիգինալից 23 November 2016-ին։ Վերցված է 23 November 2016։ «After a half-decade of quiet breakthroughs in artificial intelligence, 2015 has been a landmark year. Computers are smarter and learning faster than ever.» 
  46. «Reshaping Business With Artificial Intelligence»։ MIT Sloan Management Review (անգլերեն)։ Վերցված է 2 May 2018 
  47. Lorica Ben (18 December 2017)։ «The state of AI adoption»։ O'Reilly Media (անգլերեն)։ Վերցված է 2 May 2018 
  48. Definition of AI as the study of intelligent agents: , which provides the version that is used in this article. Note that they use the term "computational intelligence" as a synonym for artificial intelligence. .
  49. Domingos, 2015, Chapter 5
  50. Domingos, 2015, Chapter 7
  51. Lindenbaum, M., Markovitch, S., & Rusakov, D. (2004). Selective sampling for nearest neighbor classifiers. Machine learning, 54(2), 125–152.
  52. Domingos, 2015, Chapter 1
  53. 53,0 53,1 Intractability and efficiency and the combinatorial explosion:
  54. Domingos, 2015, Chapter 2, Chapter 3
  55. Hart P. E., Nilsson, N. J., Raphael, B. (1972)։ «Correction to "A Formal Basis for the Heuristic Determination of Minimum Cost Paths"»։ SIGART Newsletter (37): 28–29։ doi:10.1145/1056777.1056779 
  56. «Algorithm in Artificial Intelligence» 
  57. Domingos, 2015, Chapter 2, Chapter 4, Chapter 6
  58. «Can neural network computers learn from experience, and if so, could they ever become what we would call 'smart'?»։ Scientific American (անգլերեն)։ 2018։ Վերցված է 24 March 2018 
  59. Domingos, 2015, Chapter 6, Chapter 7
  60. Domingos, 2015, էջ 286
  61. «Single pixel change fools AI programs»։ BBC News։ 3 November 2017։ Վերցված է 12 March 2018 
  62. «AI Has a Hallucination Problem That's Proving Tough to Fix»։ WIRED։ 2018։ Վերցված է 12 March 2018 
  63. Goodfellow, Ian J., Jonathon Shlens, and Christian Szegedy. "Explaining and harnessing adversarial examples." arXiv preprint arXiv:1412.6572 (2014).
  64. Matti D., Ekenel H. K., Thiran J. P. (2017)։ «Combining LiDAR space clustering and convolutional neural networks for pedestrian detection»։ 2017 14th IEEE International Conference on Advanced Video and Signal Based Surveillance (AVSS): 1–6։ ISBN 978-1-5386-2939-0։ doi:10.1109/AVSS.2017.8078512 
  65. Ferguson Sarah, Luders Brandon, Grande Robert C., How Jonathan P. (2015)։ «Real-Time Predictive Modeling and Robust Avoidance of Pedestrians with Uncertain, Changing Intentions»։ Algorithmic Foundations of Robotics XI։ Springer Tracts in Advanced Robotics (անգլերեն) (Springer, Cham) 107: 161–177։ ISBN 978-3-319-16594-3։ arXiv:1405.5581։ doi:10.1007/978-3-319-16595-0_10 
  66. «Cultivating Common Sense | DiscoverMagazine.com»։ Discover Magazine։ 2017։ Վերցված է 24 March 2018 
  67. Davis Ernest, Marcus Gary (24 August 2015)։ «Commonsense reasoning and commonsense knowledge in artificial intelligence»։ Communications of the ACM 58 (9): 92–103։ doi:10.1145/2701413 
  68. Winograd Terry (January 1972)։ «Understanding natural language»։ Cognitive Psychology 3 (1): 1–191։ doi:10.1016/0010-0285(72)90002-3 
  69. «Don't worry: Autonomous cars aren't coming tomorrow (or next year)»։ Autoweek։ 2016։ Վերցված է 24 March 2018 
  70. Knight Will (2017)։ «Boston may be famous for bad drivers, but it’s the testing ground for a smarter self-driving car»։ MIT Technology Review (անգլերեն)։ Վերցված է 27 March 2018 
  71. Prakken Henry (31 August 2017)։ «On the problem of making autonomous vehicles conform to traffic law»։ Artificial Intelligence and Law 25 (3): 341–363։ doi:10.1007/s10506-017-9210-0 
  72. Քաղվածելու սխալ՝ Սխալ <ref> պիտակ՝ Reasoning անվանումով ref-երը տեքստ չեն պարունակում:
  73. Քաղվածելու սխալ՝ Սխալ <ref> պիտակ՝ Uncertain reasoning անվանումով ref-երը տեքստ չեն պարունակում:
  74. Քաղվածելու սխալ՝ Սխալ <ref> պիտակ՝ Psychological evidence of sub-symbolic reasoning անվանումով ref-երը տեքստ չեն պարունակում:
  75. Քաղվածելու սխալ՝ Սխալ <ref> պիտակ՝ Knowledge representation անվանումով ref-երը տեքստ չեն պարունակում:
  76. Քաղվածելու սխալ՝ Սխալ <ref> պիտակ՝ Knowledge engineering անվանումով ref-երը տեքստ չեն պարունակում:
  77. Քաղվածելու սխալ՝ Սխալ <ref> պիտակ՝ Representing categories and relations անվանումով ref-երը տեքստ չեն պարունակում:
  78. Քաղվածելու սխալ՝ Սխալ <ref> պիտակ՝ Representing time անվանումով ref-երը տեքստ չեն պարունակում:
  79. Քաղվածելու սխալ՝ Սխալ <ref> պիտակ՝ Representing causation անվանումով ref-երը տեքստ չեն պարունակում:
  80. Քաղվածելու սխալ՝ Սխալ <ref> պիտակ՝ Representing knowledge about knowledge անվանումով ref-երը տեքստ չեն պարունակում:
  81. Sikos Leslie F. (June 2017)։ Description Logics in Multimedia Reasoning։ Cham: Springer։ ISBN 978-3-319-54066-5։ doi:10.1007/978-3-319-54066-5։ Արխիվացված օրիգինալից 29 August 2017-ին 
  82. Քաղվածելու սխալ՝ Սխալ <ref> պիտակ՝ Ontology անվանումով ref-երը տեքստ չեն պարունակում:
  83. Smoliar Stephen W., Zhang HongJiang (1994)։ «Content based video indexing and retrieval»։ IEEE multimedia 1.2: 62–72 
  84. Neumann Bernd, Möller Ralf (January 2008)։ «On scene interpretation with description logics»։ Image and Vision Computing 26 (1): 82–101։ doi:10.1016/j.imavis.2007.08.013 
  85. Kuperman G. J., Reichley R. M., Bailey T. C. (1 July 2006)։ «Using Commercial Knowledge Bases for Clinical Decision Support: Opportunities, Hurdles, and Recommendations»։ Journal of the American Medical Informatics Association 13 (4): 369–371։ PMC 1513681։ doi:10.1197/jamia.M2055 
  86. MCGARRY KEN (1 December 2005)։ «A survey of interestingness measures for knowledge discovery»։ The Knowledge Engineering Review 20 (1): 39։ doi:10.1017/S0269888905000408 
  87. Bertini M, Del Bimbo A, Torniai C (2006)։ «Automatic annotation and semantic retrieval of video sequences using multimedia ontologies»։ MM ‘06 Proceedings of the 14th ACM international conference on Multimedia։ 14th ACM international conference on Multimedia։ Santa Barbara: ACM։ էջեր 679–682 
  88. Քաղվածելու սխալ՝ Սխալ <ref> պիտակ՝ Qualification problem անվանումով ref-երը տեքստ չեն պարունակում:
  89. Քաղվածելու սխալ՝ Սխալ <ref> պիտակ՝ Default reasoning and non-monotonic logic անվանումով ref-երը տեքստ չեն պարունակում:
  90. Քաղվածելու սխալ՝ Սխալ <ref> պիտակ՝ Breadth of commonsense knowledge անվանումով ref-երը տեքստ չեն պարունակում:
  91. Dreyfus, Dreyfus
  92. Gladwell, 2005
  93. 93,0 93,1 Քաղվածելու սխալ՝ Սխալ <ref> պիտակ՝ Intuition անվանումով ref-երը տեքստ չեն պարունակում:
  94. Քաղվածելու սխալ՝ Սխալ <ref> պիտակ՝ Planning անվանումով ref-երը տեքստ չեն պարունակում:
  95. Քաղվածելու սխալ՝ Սխալ <ref> պիտակ՝ Information value theory անվանումով ref-երը տեքստ չեն պարունակում:
  96. Քաղվածելու սխալ՝ Սխալ <ref> պիտակ՝ Classical planning անվանումով ref-երը տեքստ չեն պարունակում:
  97. Քաղվածելու սխալ՝ Սխալ <ref> պիտակ՝ Non-deterministic planning անվանումով ref-երը տեքստ չեն պարունակում:
  98. Քաղվածելու սխալ՝ Սխալ <ref> պիտակ՝ Multi-agent planning անվանումով ref-երը տեքստ չեն պարունակում:
  99. Alan Turing discussed the centrality of learning as early as 1950, in his classic paper "Computing Machinery and Intelligence".(Turing 1950) In 1956, at the original Dartmouth AI summer conference, Ray Solomonoff wrote a report on unsupervised probabilistic machine learning: "An Inductive Inference Machine".(Solomonoff 1956)
  100. This is a form of Tom Mitchell's widely quoted definition of machine learning: "A computer program is set to learn from an experience E with respect to some task T and some performance measure P if its performance on T as measured by P improves with experience E."
  101. 101,0 101,1 Քաղվածելու սխալ՝ Սխալ <ref> պիտակ՝ Machine learning անվանումով ref-երը տեքստ չեն պարունակում:
  102. Jordan M. I., Mitchell T. M. (16 July 2015)։ «Machine learning: Trends, perspectives, and prospects»։ Science 349 (6245): 255–260։ Bibcode:2015Sci...349..255J։ doi:10.1126/science.aaa8415 
  103. Քաղվածելու սխալ՝ Սխալ <ref> պիտակ՝ Reinforcement learning անվանումով ref-երը տեքստ չեն պարունակում:
  104. Քաղվածելու սխալ՝ Սխալ <ref> պիտակ՝ Natural language processing անվանումով ref-երը տեքստ չեն պարունակում:
  105. "Versatile question answering systems: seeing in synthesis" Archived 1 February 2016 at the Wayback Machine., Mittal et al., IJIIDS, 5(2), 119–142, 2011
  106. Քաղվածելու սխալ՝ Սխալ <ref> պիտակ՝ Applications of natural language processing անվանումով ref-երը տեքստ չեն պարունակում:
  107. Cambria Erik, White Bebo (May 2014)։ «Jumping NLP Curves: A Review of Natural Language Processing Research [Review Article]»։ IEEE Computational Intelligence Magazine 9 (2): 48–57։ doi:10.1109/MCI.2014.2307227 
  108. Քաղվածելու սխալ՝ Սխալ <ref> պիտակ՝ Machine perception անվանումով ref-երը տեքստ չեն պարունակում:
  109. Քաղվածելու սխալ՝ Սխալ <ref> պիտակ՝ Speech recognition անվանումով ref-երը տեքստ չեն պարունակում:
  110. Քաղվածելու սխալ՝ Սխալ <ref> պիտակ՝ Object recognition անվանումով ref-երը տեքստ չեն պարունակում:
  111. Քաղվածելու սխալ՝ Սխալ <ref> պիտակ՝ Computer vision անվանումով ref-երը տեքստ չեն պարունակում:
  112. Քաղվածելու սխալ՝ Սխալ <ref> պիտակ՝ Robotics անվանումով ref-երը տեքստ չեն պարունակում:
  113. Քաղվածելու սխալ՝ Սխալ <ref> պիտակ՝ Configuration space անվանումով ref-երը տեքստ չեն պարունակում:
  114. Tecuci, 2012
  115. Քաղվածելու սխալ՝ Սխալ <ref> պիտակ՝ Robotic mapping անվանումով ref-երը տեքստ չեն պարունակում:
  116. Cadena Cesar, Carlone Luca, Carrillo Henry, Latif Yasir, Scaramuzza Davide, Neira Jose, Reid Ian, Leonard John J. (December 2016)։ «Past, Present, and Future of Simultaneous Localization and Mapping: Toward the Robust-Perception Age»։ IEEE Transactions on Robotics 32 (6): 1309–1332։ doi:10.1109/TRO.2016.2624754 
  117. Moravec Hans (1988)։ Mind Children։ Harvard University Press։ էջ 15 
  118. Chan Szu Ping (15 November 2015)։ «This is what will happen when robots take over the world»։ Վերցված է 23 April 2018 
  119. «IKEA furniture and the limits of AI»։ The Economist (անգլերեն)։ 2018։ Վերցված է 24 April 2018 
  120. Kismet
  121. Thompson Derek (2018)։ What Jobs Will the Robots Take?։ The Atlantic։ Վերցված է 24 April 2018 
  122. Scassellati Brian (2002)։ «Theory of mind for a humanoid robot»։ Autonomous Robots 12 (1): 13–24 
  123. Cao Yongcan, Yu Wenwu, Ren Wei, Chen Guanrong (February 2013)։ «An Overview of Recent Progress in the Study of Distributed Multi-Agent Coordination»։ IEEE Transactions on Industrial Informatics 9 (1): 427–438։ arXiv:1207.3231։ doi:10.1109/TII.2012.2219061 
  124. Thro, 1993
  125. Edelson, 1991
  126. Tao, Tan
  127. Poria Soujanya, Cambria Erik, Bajpai Rajiv, Hussain Amir (September 2017)։ «A review of affective computing: From unimodal analysis to multimodal fusion»։ Information Fusion 37: 98–125։ doi:10.1016/j.inffus.2017.02.003 
  128. Քաղվածելու սխալ՝ Սխալ <ref> պիտակ՝ Emotion and affective computing անվանումով ref-երը տեքստ չեն պարունակում:
  129. Waddell Kaveh (2018)։ Chatbots Have Entered the Uncanny Valley։ The Atlantic։ Վերցված է 24 April 2018 
  130. Pennachin C., Goertzel B. (2007)։ «Contemporary Approaches to Artificial General Intelligence»։ Artificial General Intelligence. Cognitive Technologies։ Cognitive Technologies (Berlin, Heidelberg: Springer)։ ISBN 978-3-540-23733-4։ doi:10.1007/978-3-540-68677-4_1 
  131. Roberts Jacob (2016)։ Thinking Machines: The Search for Artificial Intelligence։ Distillations 2 (2): 14–23։ Վերցված է 20 March 2018 
  132. «The superhero of artificial intelligence: can this genius keep it in check?»։ the Guardian (անգլերեն)։ 16 February 2016։ Վերցված է 26 April 2018 
  133. Mnih Volodymyr, Kavukcuoglu Koray, Silver David, Rusu Andrei A., Veness Joel, Bellemare Marc G., Graves Alex, Riedmiller Martin, Fidjeland Andreas K., Ostrovski Georg, Petersen Stig, Beattie Charles, Sadik Amir, Antonoglou Ioannis, King Helen, Kumaran Dharshan, Wierstra Daan, Legg Shane, Hassabis Demis (26 February 2015)։ «Human-level control through deep reinforcement learning»։ Nature 518 (7540): 529–533։ Bibcode:2015Natur.518..529M։ doi:10.1038/nature14236 
  134. Sample Ian (14 March 2017)։ «Google’s DeepMind makes AI program that can learn like a human»։ the Guardian (անգլերեն)։ Վերցված է 26 April 2018 
  135. «From not working to neural networking»։ The Economist (անգլերեն)։ 2016։ Վերցված է 26 April 2018 
  136. Domingos, 2015
  137. Քաղվածելու սխալ՝ Սխալ <ref> պիտակ՝ Brain simulation անվանումով ref-երը տեքստ չեն պարունակում:
  138. Goertzel Ben, Lian Ruiting, Arel Itamar, de Garis Hugo, Chen Shuo (December 2010)։ «A world survey of artificial brain projects, Part II: Biologically inspired cognitive architectures»։ Neurocomputing 74 (1–3): 30–49։ doi:10.1016/j.neucom.2010.08.012 
  139. Nils Nilsson writes: "Simply put, there is wide disagreement in the field about what AI is all about" (Nilsson 1983, էջ 10).
  140. Քաղվածելու սխալ՝ Սխալ <ref> պիտակ՝ AI's immediate precursors անվանումով ref-երը տեքստ չեն պարունակում:
  141. Քաղվածելու սխալ՝ Սխալ <ref> պիտակ՝ GOFAI անվանումով ref-երը տեքստ չեն պարունակում:
  142. The most dramatic case of sub-symbolic AI being pushed into the background was the devastating critique of perceptrons by Marvin Minsky and Seymour Papert in 1969. See History of AI, AI winter, or Frank Rosenblatt.
  143. Քաղվածելու սխալ՝ Սխալ <ref> պիտակ՝ AI at CMU in the 60s անվանումով ref-երը տեքստ չեն պարունակում:
  144. Քաղվածելու սխալ՝ Սխալ <ref> պիտակ՝ Soar անվանումով ref-երը տեքստ չեն պարունակում:
  145. Քաղվածելու սխալ՝ Սխալ <ref> պիտակ՝ AI at Stanford in the 60s անվանումով ref-երը տեքստ չեն պարունակում:
  146. Քաղվածելու սխալ՝ Սխալ <ref> պիտակ՝ AI at Edinburgh and France in the 60s անվանումով ref-երը տեքստ չեն պարունակում:
  147. Քաղվածելու սխալ՝ Սխալ <ref> պիտակ՝ AI at MIT in the 60s անվանումով ref-երը տեքստ չեն պարունակում:
  148. Քաղվածելու սխալ՝ Սխալ <ref> պիտակ՝ Cyc անվանումով ref-երը տեքստ չեն պարունակում:
  149. Քաղվածելու սխալ՝ Սխալ <ref> պիտակ՝ Knowledge revolution անվանումով ref-երը տեքստ չեն պարունակում:
  150. Frederick Hayes-Roth, William Murray, Leonard Adelman։ «Expert systems» (անգլերեն)։ doi:10.1036/1097-8542.248550 
  151. Քաղվածելու սխալ՝ Սխալ <ref> պիտակ՝ Embodied AI անվանումով ref-երը տեքստ չեն պարունակում:
  152. Weng, McClelland
  153. Lungarella, Metta
  154. Asada, Hosoda
  155. Oudeyer, 2010
  156. Քաղվածելու սխալ՝ Սխալ <ref> պիտակ՝ Revival of connectionism անվանումով ref-երը տեքստ չեն պարունակում:
  157. Քաղվածելու սխալ՝ Սխալ <ref> պիտակ՝ Computational intelligence անվանումով ref-երը տեքստ չեն պարունակում:
  158. Hutson Matthew (16 February 2018)։ «Artificial intelligence faces reproducibility crisis»։ Science (անգլերեն)։ էջեր 725–726։ Bibcode:2018Sci...359..725H։ doi:10.1126/science.359.6377.725։ Վերցված է 28 April 2018 
  159. Norvig, 2012
  160. Langley, 2011
  161. Katz, 2012
  162. Քաղվածելու սխալ՝ Սխալ <ref> պիտակ՝ Intelligent agents անվանումով ref-երը տեքստ չեն պարունակում:
  163. Քաղվածելու սխալ՝ Սխալ <ref> պիտակ՝ Agent architectures անվանումով ref-երը տեքստ չեն պարունակում:
  164. Քաղվածելու սխալ՝ Սխալ <ref> պիտակ՝ Hierarchical control system անվանումով ref-երը տեքստ չեն պարունակում:
  165. 165,0 165,1 Russell, Norvig, էջ 1
  166. CNN, 2006
  167. Using AI to predict flight delays, Ishti.org.
  168. N. Aletras, D. Tsarapatsanis, D. Preotiuc-Pietro, V. Lampos (2016)։ «Predicting judicial decisions of the European Court of Human Rights: a Natural Language Processing perspective»։ PeerJ Computer Science։ Արխիվացված օրիգինալից 29 October 2016-ին 
  169. «The Economist Explains: Why firms are piling into artificial intelligence»։ The Economist։ 31 March 2016։ Արխիվացված օրիգինալից 8 May 2016-ին։ Վերցված է 19 May 2016 
  170. Lohr Steve (28 February 2016)։ «The Promise of Artificial Intelligence Unfolds in Small Steps»։ The New York Times։ Արխիվացված օրիգինալից 29 February 2016-ին։ Վերցված է 29 February 2016 
  171. Алан Тьюринг, Могут ли машины мыслить?
  172. Jack Copeland. What is Artificial Intelligence? 2000
  173. Alan Turing, «Computing Machinery and Intelligence», Mind, vol. LIX, no. 236, October 1950, pp. 433—460.

Տես նաև[խմբագրել | խմբագրել կոդը]


Քաղվածելու սխալ՝ <ref> tags exist for a group named "Ն", but no corresponding <references group="Ն"/> tag was found, or a closing </ref> is missing