Արհեստական բանականություն

Վիքիպեդիայից՝ ազատ հանրագիտարանից
Jump to navigation Jump to search

Արհեստական ինտելեկտ (AI), երբեմն նաև մեքենայական ինտելեկտ, ի տարբերություն մարդուն և կենդանիներին հատուկ բնական բանականության, մեքենայի կողմից ցուցադրվող բանականություն է։ Ինֆորմատիկայում AI հետազոտությունը սահմանվում է որպես "խելացի գործակալի" հետազոտություն՝ ցանկացած սարք, որն ընկալում է իր շրջակայքը և ձեռնարկում է գործողություններ, որոնք առավելագույնի են հասցնում հաջողությամբ նպատակին հասնելու նրա հնարավորությունները։ Կոպիտ ասած "արհեստական ինտելեկտ" տերմինը կիրառվում է, երբ մեքենան նմանեցնում է "ճանաչողական" գործառույթներ, որոնա մարդիկ ասոցիացնում են խելքի հետ, այնպիս օրինակ "սովորելը" և "խնդիր լուծելը"[1]:

Արհեստական ինտելեկտի շրջանակները վիճարկվում են․ քանի որ մեքենաները դառնում են ավելի ունակ, խնդիրները, որ համարվում էին "ինտելեկտ" պահանջող, հաճախ հեռացվում են սահմանումից, տանելով դեպի ֆենոմեն․ "Արհեստական ինտելեկտը հնարք է, որ դեռևս չի իրագործվել։"[2] Օրինակ, սիմվոլների օպտիկական ճանաչումը հաճախ հեռացվում է "արհեստական ինտելեկտից", դառնալով սովորական տեխնոլոգիա։[3] Ժամանակակից մեքենաների ունակությունները սովորաբար հաջողությամբ օգտագործվում են արհեստական ինտելեկտին դասակարգվող մարդկային խոսքի ճանաչողության, բարձր մակարդակի ռազմավարական խաղային համակարգերի[4], (ինչպես շախմատն է և Go խաղը)[5], ինքնակառավարվող մեքենաների, բովանդակության ինտելեկտուալ առաքման և ռազմական սիմուլյացիայի մեջ։

Արհեստական ​​ինտելեկտը որպես ակադեմիական ուղղություն ստեղծվել է 1956 թվականին և տարիների ընթացքում լավատեսության մի քանի ալիքներ է ունեցել,[6]>[7] որոնց հետևել է հիասթափություն և ֆինանսավորման կորուստ (հայտնի որպես "AI ձմեռ")[8][9], այնուհետ նոր մոտեցումներ, հաջողություն և նորացված ֆինանսավորում[7][10]: Իր պատմության մեծ մասի ընթացքում արհեստական ինտելեկտը բաժանված էր երկու ենթաճյուղերի, որոնց հաճախ հնարավոր չէր կապել մեկը մյուսի հետ[11]: Ենթաճյուղերը հիմնված են տեխնիկական նկատառումների հիման վրա, այնպիսիք են կոնկրետ նպատակներ (օրինակ "ռոբոտիկա" կամ "մեքենայական ուսուցում")[12], կոնկրետ գործիքների օգտագործում ("տրամաբանություն" կամ արհեստական նեյրոնային ցանցեր), կամ խորը փիլիսոփայական տարբերություններ[13][14][15]: Ենթաճյուղերը հիմնված էին նաև սոցիալական գործոնների վրա (կոնկրետ հաստատություններ կամ կոնկրետ հետազոտողների աշխատանքներ)[11]:

Արհեստական ինտելեկտի ավանդական խնդիրները (կամ նպատակները) ներառում են հիմնավորում, գիտելիքի ներկայացում, ավտոմատացված պլանավորում, մեքենայական ուսուցում, բնական լեզվի մշակում, մեքենայական ընկալում և օբյեկտների տեղաշարժի և բանեցնելու հմտություններ[12]: Ընդհանուր արհեստական ինտելեկտը ճյուղի արկարաժամկետ նպատակների թվում է։[16] Մոտեցումները ներառում են վիչակագրական մեթոդներ, համակարգչային ինտելեկտ և ավանդական սիմվոլիկ արհեստական ինտելեկտ։ Արհեստական ինտելեկտում օգտագործվում են շատ գործիքներ․ որոնում և մաթեմատիկական օպտիմիզացիա, արհեստական նեյրոնային ցանցեր և վիճակագրության վրա հիմնված մեթոդներ։ Արհեստական ինտելեկտը հիմնվում է համակարգչային գիտության, մաթեմատիկայի, լինգվիստիկայի, հոգեբանության, փիլիսոփայության և շատ այլ ուղղությունների վրա։

Ճյուղը հիմնվել է այն դրույթից ելնելով, որ մարդու բանականությունը «հնարավոր է ճշգրիտ նկարագրել, այնպես, որ հնարավոր է մեքենա ստեղծել, որ այն նմանակի»[17]: Սա բարձրացնում է մտքի բնույթի և մարդկային ինտելեկտով օժտված արհեստական էակների ստեղծման էթիկայի փիլիսոփոյական փաստարկները, որոնք խնդիրներ էին, որ ուսումնասիրվել են միֆերի, ֆանտաստիկայի և փիլիսոփայության մեջ անթիկ ժամանակներից ի վեր։ [18] Ոմանք արհեստական ինտելեկտի առաջընթացը դիտարկում են որպես վտանգ մարդկության հանդեպ[19]: Մյուսները կարծում են, որ ի տարբերություն նախորդ տեխնոլոգիական հեղափոխությունների, կբերի զանգվածային գործազրկության[20]:

Քսանմեկերորդ դարում համակարգչի հզորության մեծ տվյալների հսկայական քանակությունը և տեսական ընկալման բնագավառների զուգահեռ ձեռքբերումներից հետո, արհեստական ինտելեկտի մեթոդները վերածնունդ ապրեցին, և AI մեթոդները տեխնոլոգիական ինդուստրիայի էական բաղկացուցիչը դարձան, օգնելով լուծել համակարգչային գիտության, մաթապահովման նախագծմանև գործողությունների հետազոտման դժվար խնդիրները[21][10]:

Պատմություն[խմբագրել | խմբագրել կոդը]

Տալոս, արհեստական ինտելեկտով հին առասպելական ավտոմատ

Մտածելու ընդունակություն ունեցող արհեստական էակներ, որպես պատմություններ պատմող սարքեր, ներկայացվել են անտիկ ախարհում,[22] և տարածված էին գեղարվեստական ժանրում, ինչպես Մերի Շելլիի Ֆրանկենշթեյն կամ Կարել Չապեկի Ռոսսոմի ունիվերսալ ռոբոտներ.[23] Այս կերպարները և նրանց ճակատագրերը բարձրացնում էին միևնույն խնդիրները, ինչ այժմ քննարկվում է արհեստական ինտելեկտի էթիկայում։[18] Բանականության ուսումնասիրությունները սկսվել են անթիկ փիլիսոփաներից և մաթեմատիկոսներից։ Մաթեմատիկական տրամաբանության ուսումնասիրությունը հանգեցրեց Ալան Թյուրինգի հաշվարկների տեսությանը, որում ենթադրվում է, որ մեքենան "0" և "1" պարզ սիմվոլների խառնելու օգնությամբ կարող է նմանակել կամայական իմաստալից մաթեմատիկական եզրակացություն։ Այս հասկացությունը, որ թվային համակարգիչները կարող են նմանակել ֆորմալ մտածողության կամայական պրոցես, հայտնի է որպես Չյորչ-Թյուրինդի թեզիս։[24] Նեյրոգիտության, ինֆորմացիայի տեսության և կիբեռնետիկայի զուգահեռ զարգացումները հետազոտողներին ուղղորդեցին դիտարկել էլեկտրոնային ուղեղի ստեղծման հնարավորությունը։ Թյուրինգը ենթադրեց, որ եթե մարդը չի կարողանում տարբերել անձի և մեքենայի պատասխանները, ապա մեքենան կարելի է համարել “խելացի"։[25] Որպես համընդհանուր ճանաչում ունեցող արհեստական ինտելեկտի աշխատանք կարելի է համարել 1943 թվականին Մակկալոկի և Փիթսի կողմից Թյուրինգի լրիվության համար ստեղծած "արհեստական նեյրոնները"։[26]

Արհեստական ինտելեկտի ճյուղը ծնվել է 1956 թվականին. Դորտմուդի քոլեջի վորքշոփի ժամանակ:[24] Մասնակիցները՝ Ալեն Նյուել (Կարնեգի Մելոն համալսարան), Հերբերտ Սայմոն (Կարնեգի Մելոն համալսարան), Ջոն Մակկարտի (Մասաչուսեթսի Տեխնոլոգիական ինստիտուտ), Մարվին Մինսկի (Մասաչուսեթսի Տեխնոլոգիական ինստիտուտ) և Արթուր Սամուել (IBM), դարձան արհեստական ինտելեկտի հիմնադիրներն ու հետազոտողները։[27] Նրանք և նրանց ուսանողները ծրագրեր էին իրականացնում, որոնց մամուլը "ապշեցուցիչ" էր անվանում․[28] համակարգիչները յուրացնում էին շաշկու ռազմավարությունը (1954)[29] (և 1959 թվականին ըստ էության ավելի լավ էին խաղում, քան միջին ունակությունների տեր մարդը),[30] լուծում էին տեքստային խնդիրները հանրահաշվում,ապացուցում էին տրամաբանական թեորեմները (1956) և անգլերեն խոսում։[31] 1960-ականների կեսերին, արհեստական ինտելեկտի հետազոտությունները մեծապես ֆինանսավորվում էին ԱՄՆ պաշտպանության նախարարության առաջատար հետազոտական նախագծերի գործակալության կողմից։[32] Եվ աշխարհով մեկ լաբորատորիաներ հիմնվեցին։[33] Արհեստական ինտելեկտի հիմնադիրները ապագայի նկատմամբ լավատես էին․ Հերբերտ Սայմոնը կանխատեսում էր, "քսան տարի անց մեքենաները կկարողանան կատարել մարդու կողմից կատարվող կամայական աշխատանք"։ Մարվին Մինսկին համաձայնել էր գրելով, "մի սերունդ անց ... 'արհեստական ինտելեկտի' ստեղծման պրոբլեմը էապես կլուծվի"։[6]

Նրանք չկարողացան գնահատել մնացած խնդիրների դճվարությունները։ Առաջընթացը դանդաղեց և 1974 թվականին, ի պատասխան Ջեյմս Լայթհիլլի քննադատությանը և ԱՄՆ-ի կոնգրեսի շարունակական ճնշումներին ֆինանսավորել ավելի արդյունավետ նախագծեր, թե ԱՄՆ և թե Բրիտանական կառավարությունները կտրեցին արհեստական ինտելեկտի հետազոտությունների ֆինանսավորումը։ Հաջորդ մի քանի տարիները հետագայում կոչվեցին "AI ձմեռ"[8] ժամանակաշրջան, երբ արհեստական ինտելեկտի ֆինանսավորում դժվար էր ձեռք բերել։

1980-ականների սկզբներին, արհեստական ինտելեկտի հետազոտությունները վերակենդանացան, պայմանավորված էքսպերտ համակարգերի կոմերցիոն հաջողությամբ,[34] արհեստական ինտելեկտի ձևաչափ, որ նմանակում է մասնագետների գիտելիքն ու վերլուծական ունակությունները։ 1985 թվականին արհեստական ինտելեկտի շուկան հատել էր միլիարդ դոլարի սահմանը։ Միևնույն ժամանակ Ճապոնիայի հինգերորդ սերնդի մեքենաների ծրագիրը ոգեշնչեց ԱՄՆ և Բրիտանական կառավարություններին վերականգնել արհեստական ինտելեկտի ակադեմիական հետազոտությունների ֆինանսավորումը։[7] Այնուամենայնիվ սկսելով 1987 թվականի Լիսպ մեքենաների փլուզմամբ, ևս մեկ անգամ հեղինակազրկվելով, արհեստական ինտելեկտը ընկավ երկրորդ ավելի երկարատև ընդմիջման փուլ[9]:

1990-ականների վերջերին և 21-րդ դարի սկզբում, արհեստական ինտելեկտը սկսեց օգտագործվել լոգիստիկայում, տվյալների մշակման, բժշկական ախտորոշման և այլ բնագավառներում։[21] Հաջողությունը կապված էր համակարգչային հզորության բարձրացմամբ (տես Մուռի օրենք),կոնկրետ խնդիրների լուծմանը առավել մեծ ուշադրությամբ, արհեստական ինտելեկտի և այլ բնագավառների greater emphasis on solving specific problems, new ties between AI and other fields (ինչպիսիք վիճակագրություն, տնտեսագիտություն և մաթեմատիկական օպտիմիզացիա) միջև նոր կապերի հաստատմամբ, և հետազոտողներին պահպանել մաթեմատիկական մեթոդներն ու գիտական ստանդարտները։[35] Deep Blue-ն 1997 թվականի մայիսի 11-ին դարձավ առաջին շախմատ խաղացող կոմպյուտերային համակարգը, որ հաղթեց աշխարհի չեմպիոն Գարի Կասպարովին։[36]

2011 թվականին, Jeopardy! հեռուստախաղի ցուցադրական հանդիպման ժամանակ, IBM-ի հարցուպատասխան Վաթսոն համակարգը նշանակալի տարբերությամբ հաղթել է երկու մեծագույն Jeopardy! մեծագույն չեմպիոնների՝ Բրեդ Ռուտերին և Կեն Ջենինգսին։[37] Արագ կոմպյուտերները, ալգորիթմական բարելավումները և հասանելիությունը մեծ տվյալներին մեքենայական ուսուցման և ընկալման հնարավորություն ստեղծեցին, տվյալների վրա հիմնված խորն ուսուցման մեթոդները սկսեցին գերակշռել ճշգրտության թեստերում։[38] Kinect-ը, որը ապահովում է 3D մարմին–շարժում ինտերֆեյս է ապահովում Xbox 360-ի և Xbox One-ի համար օգտագործում է ալգորիթմներ արհեստական ինտելեկտի երկարատև հետազոտությունների շնորհիվ[39] այնպես ինչպես խելացի անձնական օգնականը սմարթֆոնում։[40] 2016 թվականի մարտին, AlphaGoGo մրցույթում, Go-ի չեմպիոն Լի Սեդոլին հինգ խաղից չորսում հաղթեց, դառնալով առաջին կոմպյուտերային Go-խաղացող համակարգը, որը հաղթեց պրոֆեսիոնալ Go խաղացողին առանց արգելքների։[5][41] 2017 թվականին Go-ի ապագան համաժողովում, AlphaGoԿե Ցե-ի հետ երեք խաղից բաղկացած մրցույթում հաղթեց նրան,[42] ով շուրջ երկու տարի աշխարհի թիվ 1 խաղացողն էր։[43][44] Սա նշանակալի իրադարձություն էր արհեստական ինտելեկտի զարգացման բնագավառում, քանի որ Go-ն չափազանց բարդ խաղ է, ավելի քան շախմատը։

Համաձայն Բլումբերգի, 2015 թվականը արհեստական ինտելեկտի համար նշանակալի տարի էր, ընդ որում արհեստական ինտելեկտը գուգլում օգտագործող ծրագրային ապահովման նախագծերի քանակը աճել է 2012 թվականի "հատուկենտ օգտագործումից" մինչև 2,700 նախագծեր։ Փաստացի տվյալները ցույց են տալիս, որ 2011 թվականից սկսած պատկերների մշակման առաջադրանքներում սխալների քանակը էապես նվազել է։[45] Դա բացատրվում է հաշվարկվող ենթակառուցվածքների, հետազոտման գործիքների և տվյալների բազմությունների աճի շնորհիվ հասանելի արհեստական նեյրոնային ցանցի ընդլայնմամբ։[10] Այլ օրինակներ են՝ Skype համակարգը, որ մի լեզվից մյուս լեզվին ավտոմատ թարգմանություն է ապահովում և Facebook-ը, որը կարող է պատկերները նկարագրել կույր մարդկանց։[45] 2017 թվականի հարցումներում կազմակերպություններից հինգից մեկը հայտարարում է, որ "Արհեստական ինտելեկտը զետեղել են որոշ առաջարկություններում կամ գործընթացներում"։[46][47]

Հիմունքներ[խմբագրել | խմբագրել կոդը]

Տիպիկ արհեստական ինտելեկտը ընկալում է միջավայրը և իրականացնում է գործողություններ, որոնք առավելագույնի են հասցնում հաջողությամբ իր նպատականերին հասնելու հնարավորությունը։[48] Արհեստական ինտելեկտի ենթադրվող նպատակետը կարող է լինել պարզ ("1, երբ Go խաղալիս հաղթում է, հակառակ դեպքում՝ 0") կամ բարդ ("Կատարել նախկինում պարգևներ բերած գործողություններին մաթեմատիկորեն նմանատիպ գործողություններ"). Նպատակները կարող են հստակ սահմանվել, կամ կարող են դրվել։ Եթե Արհեստական ինտելեկտը ծրագրված է "ուսուցման ամրապնդման" համար, նպատակները կարող են անուղղակի ստիպել որոշակի վարքագծեր խրախուսել և ալյերը պատժել։ [Ն 1] Այլ կերպ էվոլյուցիոն համակարգը կարող է նպաստել նպատակներին օգտագործելով հարմարվողականության ֆունկցիան "հարմարվողականության ֆունկցիան" վերափոխվելու գերադասաբար փոխարինել բարձրակարգ արհեստական ինտելեկտի համակարգերը, սա նման է թե ինչպես կենդանիները զարգացան իրենց որոշակի նպատակների, ինչպես սնունդ գտնելն է, կամ ինչպես կարելի է շներին բազմացնել արհեստական ընտրության միջոցով, որպեսզի ցանկալի հատկություններ ժառանգեն։[49] Որոշ արհեստական ինտելեկտ համակարգեր, ինչպիսին մոտակա-հարևանը, տրված նպատակի փոխարեն դիտարկում են նմանությամբ, բացառությամբ, որ նպատակները ինչ որ կերպ թաքնված են դրանց ուսուցման տվայալներում։[50] Այսպիսի համակարգերը կարող են համարվել ոչ նշատակային համակարգեր, որոնց "նպատակն" է հաջողությամբ իրականացնել իրենց նեղ դասակարգման խնդիրը։.[51]

Արհեստական ինտելեկտը հաճախ պտտվում է ալգորիթմների օգտագործման շուրջ։ Ալգորիթմը հստակ հրահանգների բազմություն է, որ կարող է իրականացնել մեխանիկական համակարգիչը։[Ն 2] Բարդ ալգորիթմը հաճախ կառուցվում է ավելի պարզ ալգորիթմների միջոցով։ Պարզ ալգորիթմի օրինակ է կետ-խաչ օպտիմալ խաղալու հետևյալ եղանակը․[52]

  1. եթե ունեք "վտանգ" (այսինքն, անընդմեջ երկուսը), վերցրեք մնացած դաշտը։ Հակառակ դեպքում,
  2. եթե "պատառաքաղ" միաժամանակ երկու վտանգ կարող եք ստեղծել, կատարեք այդ քայլը։ Հակառակ դեպքում,
  3. վերցրեք դաշտի կենտրոնը, եթե այն ազատ է։ Հակառակ դեպքում,
  4. եթե ձեր հակառակորդը խաղացել է անկյունում, վերցրեք հանդիպակաց անկյունը։ Հակառակ դեպքում,
  5. վերցրեք դատարկ անկյունը։ Հակառակ դեպքում,
  6. վերցրեք դատարկ դաշտը։

Արհեստական ինտելեկտի շատ ալգորիթմներ ունակ են սովորել տվյալների հիման վրա, դրանք կարող են ինքնակատարելագործվել հիմնվելով փորձերի արդյունքների վրա (ռազմավարություններ, կամ "թերթել կանոնները", որոնք նախկինում լավ են աշխատել), կամ կարող են իրենք այլ ալգորիթմ գրել։ "Աշակերտներից" ոմանք, ներառյալ Բեյեսյան ցանցեր, լուծումների ծառեր և մոտակա հարևան, տեսականորեն կարող են անսահման տվյալների, ժամանակի և հիշողության առկայության դեպքում, սովորել մոտարկել կամայական ֆունկցիա, ներառյալ ողջ աշխարհը լավագույնը նկարագրող մաթեմատիկական ֆունկցիաների համադրությունը։ Ըստ էության այս աշակերտները կարող են դուրս բերել ողջ հնարավոր գիտելիքը, դիտարկելով յուրաքանչյուր հնարավոր վարկածներ և համադրելով դրանք տվյալների հետ։ Պրակտիկայում, անհնար է դիտարկել ամեն մի հնարավորություն, "կոմբինատոր պոռթկման" երևույթի պատճառով, որտեղ պրոբլեմի լուծման համար անհրաժեշտ ժամանակը աճում է էքսպոնենցիալ։ Արհեստական ինտելեկըի հետազոտությունների մեծ մասը ներառում է այն, թե ինչպես լայն հնարավորություններից առանձնացնել և բացառել տարբերակները, որոնց միջոցով հաջողության հասնելը քիչ հավանական է։ [53] >[54] Օրինակ, երբ քարտեզի վրա Դենվերից Նյու Յորք ը ամենակարճ երթուղին որոնելիս, կարելի է ամենակարճ ճանապարհ Սան Ֆրանցիսկոյով կամ հեռու արևմուտքով անցնող ցանկացած այլ ճանապարհ բացառել, այդպիսով, ամենակարճ երթուղին փնտրող արհեստական ինտելեկտի ալգորիթմւ կարող է խուսափել ամեն հնարավոր ճանապարհ դիտարկող կոմբինատոր պոռթկումից։[55] Արհեստական ինտելեկտի ամենավաղ (և ամենահասկանալի) մոտեցումը սիմվոլիզմն էր (այնպիսին ինչպիսին ձևական տրամաբանությունն է): "Եթե առողջ չափահաս մարդը ջերմում է, ապա հնարավոր է նա գրիպով հիվանդ է"։ Հաջորդ, ավելի ընդհանուր մոտեցումը Բայեսյան եզրակացությունն է, "Եթե ընթացիկ այցելուն ջերմում է, դիտարկեք հավանականությունը, որ նա հիվանդ է գրիպով այս-այս կերպ"։ Երրորդ ավելի ընդգրկուն մոտեցումը, չափազանց տարածված արհեստական ինտելեկտի սովորական կիրառումներում, անալոգայնությունը: "Հետազոտելով նախորդ այցելուների մասին տեղեկությունները՝ ջերմությունը, ախտանիշները, տարիքը և այլ գործոններ, որոնք հիմնականում համընկնում են այս հիվանդի ցուցանիշների հետ, այդ հիվանդների քանի %-ն էր գրիպով հիվանդ"։ Չորրորդ մոտեցումն ավելի դժվար է հասկանալ, բայց հիմնված է ուղեղի ինտուիտիվ աշխատանքի վրա․ արհեստական նեյրոնային ցանցի մոտեցումը օգտագործում է արհեստական "նեյրոնները", որոնք կարող են սովորել իրենց համեմատելով ցանկալի արդյունքների հետ և փոխելով ներքին նեյրոնների միջև ուժեղ կապերը, "հզորացնել" կապերը, որոնք թվում են օգտակար։ Այս չորս հիմնական մոտեցումները կարող են մասնակի համընկնել միմյանց և էվոլյուցիոն համակարգերի հետ, օրինակ նեյրոնային ցանցերը կարող են սովորել եզրակացնել, ընդհանրացնել և նմանակել։ Որոշ համակարգեր անուղղակ կամ ուղղակի օգտագործում են այս մոտեցումների բազմազանությունը, այլ արհեստական ինտելեկտի և ոչ ալգորիթմների հետ մեկտեղ,[56] լավագույն մոտեցումը հաճախ կախված է խնդրից։[57][58]

Կապույտ գիծը կարող է լինել պատահական աղմուկի պատճառով գծային ֆունկցիայի չափազանցելու օրինակ։

Ուսուցող ալգորիթմները աշխատում են այն հիմունքներով, որ ռազմավարությունները, ալգորիթմները և եզրակացությունները, որոնք լավ աշխատել են անցյալում, հավանաբար կշարունակեն լավ աշխատել նաև ապագայում։ Այս եզրակացությունները կարող են լինել ակնհաայտ, օրինակ "քանի որ վերջին 10,000 օրերի ընթացքում արևը ծագում է ամեն առավոտ, հավանաբար այն կծագի նաև վաղն առավոտյան"։ Կարող են լինել երանգավորված, օրինակ ընտանիքների "X%-ը աշխարհագրական առումով տարբեր տեսակներ ունենալ գունային տարբերակներով, ուստի Y%-ի հնարավորությամբ գոյություն ունի սև կարապ"։ Ուսանողները նաև աշխատում են "Օկկամի ածելիի" հիմքի վրա: Պարզագույն տեսությունը, որ բացատրում է տվյալները, ամենահավանականն է։ Հետևաբար, ուսանողը հաջողելու համար պարզագույն տեսությունները պետք է նախընտրի բարդերից, բացառությամբ երբ բարդ տեսությունը էապես լավն է։ Անցած ուսումնական փորձի հիման վրա չափազանց բարդ տեսության միջոցով տվյալների վերանայումը, կարգավորումը հայտնի է որպես վերապատրաստում։ Շատ համակարգեր փորձում են նվազեցնել վերապատրաստումը գնահատելով որքանով է ենթադրությունը համապատասխանում տվյալներին, բացառում բարդ ենթադրությունները։[59] Բացի դասական վերապատրաստումից ուսանողները կարող են հիասթափվել "սխալ դաս սովորելուց"։ Խաղալիքի օրինակը հետևյալն է, պատկերի դասակարգիչը, որ պատրաստաված է ճանաչել միայն շագանակագույն ձիեր և սև կատուներ, կարող է եզրակացնել որ բլոր շագանակագույն նմուշները հավանաբար ձիեր են։[60] Ի տարբերություն մարդկանց պատկերների ժամանակակից դասակարգիչները պատկերի բաղադրիչների միջև տարածական կապը չեն կարողանում որոշել, փոխարենը դրանք ուսումնասիրում են պիքսելների աբստրակտ շաբլոնները, որոնք մարդիկ անտեսում են, բայց որոնք գծայնորեն կապվում են իրական օբյեկտների որոշ տեսակների պատկերների հետ: Այդպիսի շաբլոնի թեթև տեղտեղ համընկնումը իրական պատկերի հետ բերում է "մրցակից" պատկերի, ինչը համակարգը սխալ է դասակարգում։[Ն 3][61][62][63]

Ինքնակառավարվող ավտոմոբիլային համկարգը կարող է օգտագործել նեյրոնային ցանցը, որոշելու պատկերի որ մասն է, թվում է, թե համընկնում է հետիոտների նախկին ուսումնասիրված պատկերներին և այնուհետև մոդելավորել այդ տարածքները որպես դանդաղ շարժվող, բայց ինչ որ չափով անկանխատեսելի ուղղանկյուն պրիզմաներ, որոնցից պետք է խուսափել։[64][65]

Մարդկանց համեմատությամբ գոյություն ունեցող արհեստական ինտելեկտի համակարգերի մոտ բացակայում են մարդու մի քանի "առողջ մտածելակերպի" հատկանիշներ; մարդիկ ունեն նաիվ ֆիզիկայի, ինչպիսիք են տարածություն, ժամանակ և ֆիզիկական փոխազդեցություններ, մասին մտածելու հզոր մեխանիզմներ։ Սա նույնիսկ փոքր երեխաներին հնարավորություն է տալիս հեշտությամբ եզրակացնել "Եթե այս գրիչը գլորի սեղանից, ապա այն կընկնի հատակին"։ Մարդիկ նաև "ժողովրդական հոգեբանության", որն օգնում է մեկնաբանել բնական լեզվով նախադասությունները, օրինակ, "Քաղաքային խորհուրդը ցուցարարներիդիմումը մերժեց, քանի որ նրանք բռնություն էին քարոզում"։ (Արհեստական ինտելեկտին դժվար է որոշել ավագանու անդամներն են, թե ցուցարարներն են բռնություն քարոզում։)[66][67][68] "Ընդհանուր գիտելիքի" պակասը նշանակում է, որ արհեստական ինտելեկտն այլ սխալներ է թույլ տալիս քան մարդը։ Օրինակ, գոյություն ունեցող ինքնակառավարվող ավտոմեքենաները չեն կարող եզրակացնել հետիոտնի ոչ գտնվելու վայրի, ոչ նրա տեղաշարժվելու ուղղության մտադրության մասին, փոխարենը պետք է օգտագործեն ոչ մարդկային մեթոդներ, պատահարներից խուսափելու համար։[69][70][71]

Խնդիրներ[խմբագրել | խմբագրել կոդը]

Արհեստական ինտելեկտի հետազոտության նպատակն է ստեղծել տեխնոլոգիա, որը թույլ է տալիս համակարգիչներին և մեքենաներին խելացի գործել։ Ինտելեկտ ստեղծելու հիմնական խնդիրը բաժանվում է ենթախնդիրների։ Դրանք բաղկացած են որոշակի առանձնահատկություններից կամ հնարավորություններից, որոնք հետազոտողներն ակնկալում են խելամիտ համակարգից։ Ստորև նկարագրված հատկությունները առավել ուշադրության են արժանացել։[12]

Մտահանգում, խնդրի լուծում[խմբագրել | խմբագրել կոդը]

Վաղ հետազոտողները մշակել էին ալգորիթմներ, որոնք քայլ առ քայլ նմանակում էին մտահանգումները, որոնք մարդիկ օգտագործում էին հանելուկներ լուծելիս և տրամաբանական եզրակացություններ անելիս։[72] 1980-ականների և 1990-ականների վերջերին, արհեստական ինտելեկտի հետազոտողները, օգտագործելով հավանականության և տնտեսագիտության հասկացությունները, մշակեցին անորոշ կամ ոչ ամբողջական տեղեկատվության հետ գործելու մեթոդներ։[73]

Այս ալգորիթմները բավարար չեն ծավալուն քննարկումներ պահանջող խնդիրների համար, որովհետև դրանք կտանեն "կոմբինատոր պայթյունի"․ խնդիրների բարդացմանը զուգահեռ դրանց լուծումները էքսպոնենցիալ դանդաղում են։ [53] Փաստացի, նույնիսկ մարդիկ հազվադեպ են օգտագործում քայլ-առ-քայլ եզրակացությունը, որը վաղ արհեստական ինտելեկտի համակարգերը կարող էին մոդելավորել։ Նրանք իրենց խնդիրների մեծ մասը լուծում են օգտագործելով արագ ինտուիտիվ դատողություններով։[74]

Գիտելիքի ներկայացում[խմբագրել | խմբագրել կոդը]

Օնտոլոգիան գիտելիքը ներկայացնում է որպես բնագավառի հասկացությունների բազմություն և այդ հասկացությունների միջև հարաբերություններ։

Գիտելիքի ներկայացումը[75] և գիտելիքի մշակումը[76] Արհեստական ինտելեկտի դասական հետազոտության մեջ կենտրոնական տեղ են գրավում։ Որոշ "էքսպերտ համակարգեր" փորձում են որոշ նեղ տիրույթի վերաբերող մասնագետների հստակ գիտելիքները մեկտեղել։ Բացի այդ որոշ նախագծեր փորձում են միջին մարդուն հայտնի "ողջամիտ գիտելիքները" հավաքել աշխարհին վերաբերող ընդհանուր գիտելիքների տվյալների բազայում։ Ողջամիտ գիտելիքների բազայում տեղ կգտնեն օբյեկտները, հատկությունները, կատեգորիաները և օբյեկտների միջև հարաբերությունները,[77] իրադրությունները, միջոցառումները, իրավիճակները և ժամանակը,[78] պատճառները և հետևանքները,[79] գիտելիք գիտելիքի մասին (ինչ մենք գիտենք այն մասին, թե ինչ այլ մարդիկ գիտեն);[80] և շատ այլ քիչ հետազոտված բնագավառներ։ Ներկայացումը, թե "Ինչ գոյություն ունի" կոմպյուտերային օնտոլոգիա է՝ օբյեկտների, հարաբերությունների, գաղափարների և հատկությունների ֆորմալ նկարագրություն, որ ծրագրային ագենտները դրանք կարող են մեկնաբանել։ Այս բոլորի սեմանտիկան ամրագրվում են որպես հասկացությունների, դերերի և անհատների նկարագրողական տրամաբանություն, և սովորաբար Վեբ Անթոլոգիական լեզվով իրականացվում են որպես դասեր, հատկություններ և անհատներ։ [81] Ամենաընդհանուր անթոլոգիաները վերին անթոլոգիաներ, որոնք փորձում են ողջ գիտելիքի հիմք ապահովել[82] դառնալով միջնորդ տիրույթային անթոլոգիաների միջև, որոնք ներառում են որոշակի գիտելիքների տիրույթների մասին կոնկրետ գիտելիքներ։ Գիտելիքի այսպիսի ֆորմալ ներկայացումը կարող է օգտագործվել բովանդակության վրա հիմնված ինդեքսավորման և որոնման մեջ,[83] պատահարի նկարագրության,[84] կլինիկական որոշումների աջակցման,[85] գիտելիքի հայտնաբերման մեջ ("հետաքրքիր" և գործուն եզրակացություններ տվյալների մեծ բազաներից փնտրելիս),[86] և այլ բնագավառներում։[87]

Գիտելիքի ներկայացման ամենադժվար խնդիրներից են․

Հիմնական պատճառաբանությունը և դասակարգման խնդիրը։

Շատ բաներ, ինչ մարդիկ գիտեն "աշխատանքային ենթադրությունների" տեսք են ստանում։ Օրինակ, երբ խոսակցության մեջ թռչուն է հիշատակվում, մարդիկ, սովորաբար պատկերացնում են բռունցքի չափ ունեցող կենդանի, որ երգում է և թռչում։ Սրանցից ոչինչ ճիշտ չէ բոլոր թռչունների համար։ Ջոն Մակկարտին այս խնդիրը ներկայացրեց 1969 թվականին[88] որպես դասակարգման խնդիր․ կամայական ողջամիտ կանոնի համար, որ արհեստական ինտելեկտի հետազոտողները պետք է ներկայացեն, գոյություն ունեն բազում բացառություններ։ Գրեթե ոչինչ բացարձակ ճիշտ կամ սխալ չկա, ինչ աբստրակտ տրամաբանությունն է պահանջում։ Արհեստական ինտելեկտի հետազոտողները այս խնդրի բազմաթիվ լուծումներ են ուսումնասիրել։[89]

Ողջամիտ գիտելիքի լայնությունը
Փաստերը, որ միջին մարդը գիտի մեծաքանակ են։ Հետազոտական նախագծերը, որոնք փորձում են ողջամիտ գիտելիքի ամբողջական տվյալների բազա ստեղծել, պահանջում են հսկայական ծավալի անթոլոգիական պրոյեկտման աշխատանքներ, որոնք պետք է արվեն ձեռքով՝ մեկ բարդ հասկացություն մեկ մոտեցմամբ։[90]
Ողջամիտ գիտելիքի սիմվոլիկ տեսքը
Շատ բաներ, որ մարդիկ գիտեն, չեն ներկայացված "փաստերի" կամ "պնդումների" ձևով, որ նրանք կարողանային բանավոր ներկայացնել։ Օրինակ, շախմատիստը կարող է խուսափել կոնկրետ շախմատային դիրքից, որովհետև այն "շատ բացայատ է"[91] կամ արվեստի քննադատը առաջին հայացքից կարող է հասկանալ, որ քանդակը կեղծ է։[92] Սրանք անգիտակցական և ենթասիմվոլիկ ինտուիցիաներ կամ միտումներ են մարդու ուղեղում։[93] Այսպիսի գիտելիքը տեղեկացնում է, աջակցում և ապահովում է սիմվոլիկ գիտակցված գիտելիքի միջավայր։ Ինչպես կապակցված ենթասիմվոլային հիմնավորման խնդրի դեպքում, հույս կա, որ իրադրության արհեստական ինտելեկտը, հաշվարկային արհեստական ինտելեկտը, կամ վիճակագրական արհեստական ինտելեկտը կարող են ապահովել ներկայացնելու այս կարգի գիտելիք։[93]

Պլանավորում[խմբագրել | խմբագրել կոդը]

Խելացի ագենտները պետք է կարողանան նպատակներ դնել և դրանց հասնել։[94] Դրանք պետք է աշխարհի դրության ապագայի ներկայացման եղանակներ ունենան և և ի վիճակի լինեն կանխագուշակումներ անել թե ինչպես են իրենց գործողությունները կփոխեն դա և եղած տարբերակներից ընտրել առավելագույն օգտակարը։[95]

Դասական պլանավորման համակարգերում, ագենտը կարող է ենթադրել, որ աշխարհում միակ գործող համակարգն է, ագենտին հնարավորություն տալով ագենտին վստահ լինել իր գործողությունների հետևանքների մեջ։[96] However, if the agent is not the only actor, then it requires that the agent can reason under uncertainty. This calls for an agent that can not only assess its environment and make predictions, but also evaluate its predictions and adapt based on its assessment.[97]

Multi-agent planning uses the cooperation and competition of many agents to achieve a given goal. Emergent behavior such as this is used by evolutionary algorithms and swarm intelligence.[98]

«Արհեստական բանականություն» տերմինի ծագում ու հասկացություն[խմբագրել | խմբագրել կոդը]

Նախաբանում արհեստական ինտելեկտի սահմանման մեջբերումը, որը սահմանվել է 1956 թվականին Ջոն Մաքքարթիի կողմից Դարտմուտի համալսարանում անցկացվող համաժողովի ժամանակ, ուղղակիորեն կապված չէ մարդու բանականության հասկացության հետ։ Համաձայն Մաքքարթիի՝ արհեստական բանականության հետազոտողները կարող են օգտագործել մարդկանց մոտ չնկատվող մեթոդներ, եթե դրանք անհրաժեշտ են որոշակի խնդիր լուծելու համար։

Պարզաբանելով իր սահմանումը՝ Ջոն Մաքքարթին նշում է. «Խնդիրն այն է, որ մենք դեռ չենք կարող ամբողջությամբ սահմանել, թե որ հաշվողական գործողություններն ենք մենք ցանկանում անվանել ինտելեկտուալ։ Մենք հասկանում ենք ինտելեկտի միայն որոշ մեխանիզմներ։ Այդ պատճառով էլ այս գիտության մեջ ինտելեկտ հասկացություն ասելով հասկանում ենք միայն այն հաշվողական գործողությունները, որոնք ունակ են աշխարհում հասնել նախանշված նպատակներին»։

Միևնույն ժամանակ կա տեսակետ, համաձայն որի բանականությունը կարող է լինել միայն որպես կենսաբանական երևույթ։

Արհեստական բանականության ռուսական ասոցիացիայի մասնակիցներն արհեստական բանականությունը սահմանում են հետևյալ կերպ.

  1. Գիտական ուղղվածություն, որի շրջանակում տրվում և լուծվում են մարդկային գործունեության հետ կապված ապարատային և ծրագրային այնպիսի մոդելներ, որոնք սովորաբար համարվում են ինտելեկտուալ։
  2. Բանական համակարգերը կատարում են այնպիսի ֆուկցիաներ, որոնք ի սկզբանե համարվում են մարդկային գործունեության արդյունք։ Այդուհանդերձ բանական համակարգը տեխնիկական կամ ծրագրային համակարգ է և այն ունակ է լուծել խնդիրներ, որոնք սովորաբար համարվում են ստեղծագործական, պատկանում են որոշակի ոլորտի, դրա մասին տեղեկատվությունը պահպանվում է այդպիսի համակարգում։ Բանական համակարգի կառուցվածքը ներառում է 3 հիմնական հատված՝ գիտելիքների շտեմարան, լուծող և ինտելեկտուալ ինտերֆեյս, որը թույլ է տալիս օգտագործել էլեկտրոնային հաշվողական տեխնիկան առանց հատուկ ծրագրային տվյալների ներմուծման։
  3. «Արհեստական ինտելեկտ» անվանումով գիտությունը մտնում է ինֆորմատիկայի մեջ, իսկ նրա հիմքի վրա ստեղծված տեխնոլոգիաները՝ տեղեկատվական տեխնոլոգիաների։ Այս գիտության խնդիրն է հաշվողական տեխնիկայի և այլ արհեստական սարքերի միջոցով վերստեղծել տրամաբանական հիմնավորումներ և գործողություններ։

Մարդու և «մեքենայի» համար բանականության ընդհանուր սահմանումներից մեկը կարելի է ձևակերպել այսպես. «Բանականությունը համակարգի ունակությունն է ստեղծել ինքնակրթության համար ծրագրեր, որոնք կհորինեն որոշակի բարդության խնդիրներ և կլուծեն դրանք»։

Արհեստական բանականության զարգացման նախադրյալներ[խմբագրել | խմբագրել կոդը]

Ալան Թյուրինգը 16 տարեկան հասակում

Արհեստական բանականության պատմությունը, որպես նոր գիտական ուղղություն, սկսում է 20-րդ դարի կեսերից։ Արդեն այդ ժամանակ ձևավորվել էին բազմաթիվ նախադրյալներ դրա զարգացման համար. փիլիսոփաների շրջանում վաղուց վեճեր էին ընթանում մարդու էության և աշխարհընկալման շուրջ, նեյրոֆիզիոլոգներն ու հոգեբանները զարգացրել էին մարդկային ուղեղի և մտածողության մի շարք տեսություններ, տնտեսագետներն ու մաթեմատիկոսները փորձում էին տարբեր խնդիրների համար գտնել օպտիմալ լուծումներ և, վերջապես, ծնվել էր հաշվողական մաթեմատիկային տեսության հիմնասյունը՝ ալգորիթմների տեսությունը։ Եվ ստեղծվեցին առաջին համակարգիչները։

Պարզվեց, որ նոր մեքենաների հաշվելու արագությունը մարդկայինից արագ է, այդ պատճառով էլ գիտնականների շրջանում հարց առաջացավ՝ որքան է համակարգիչների հնարավորությունների սահմանը և արդյոք մեքենաները կհասնեն մարդկային մտածողության մակարդակին։ 1950 թվականին հաշվողական տեխնիկային պիոներներից մեկը՝ անգլիացի գիտնական Ալան Թյուրինգը, գրում է «Կարո՞ղ է մեքենան մտածել» [99]վերնագրով մի հոդված։ Հոդվածում նկարագրվում է մի գործընթաց, որի միջոցով հնարավոր կլիներ որոշել այն ակնթարթը, թե երբ մեքենան մտածողությամբ կարող է համեմատվել մարդու հետ։ Այդ գործընթացը հետագայում կոչվեց Թյուրինգի թեստ։

Մոտեցումներ և ուղղություն[խմբագրել | խմբագրել կոդը]

Խնդիրներն հասկանալու մոտեցումներ[խմբագրել | խմբագրել կոդը]

«Ինչո՞վ է զբաղվում արհեստական բանականությունը» հարցի պատասխանները բազմաթիվ են։ Գրեթե ամեն հեղինակ, ով գրում է արհեստական բանականության մասին, բախվում է որևէ սահմանման և այն դիտարկում է այս գիտության ձեռքբերումների լույսի ներքո։

Փիլիոսոփայության մեջ որոշված չէ բնության և մարդկային բանականության կարգավիճակի հարցը, չկան նաև համակարգչի «խելամտության» հասնելու չափանիշները, չնայած որ արհեստական բանականության սկզբնավորման ժամանակ առաջարկվել են մի շարք վարկածներ, օրինակ Թյուրինգի թեստը կամ Նյուելլ-Սայմոնի վարկածը։ Այդ պատճառով էլ կարելի է առանձնացնել արհեստական բանականության մշակման 2 հիմնական մոտեցում.[100]

  • նվազող (անգլ. Top-Down AI), նշանագիտական – փորձագետների համակարգերի ստեղծում, գիտելիքների և տրամաբանական լուծումների համակարգերի բազա, որոնք նմանակում են բազմաստիճան մտավոր գործընթացներ՝ մտածողություն, քննադատություն, խոսք, էմոցիա, ստեղծագործում և այլն։
  • աճող (անգլ. Bottom-Up AI), կենսաբանական – նեյրոնային ցանցերի և էվոլուցիոն հաշվարկների ուսումնասիրում, համապատասխան հաշվողական համակարգեր, ինչպիսիք են նեյրոհամակարգիչներն ու կենսահամակարգիչները։

Վերջին մոտեցումը, ըստ Ջոն Մաքքարթիի, չի վերաբերում արհեստական բանականություն գիտությանը, նրանց միավորում է միայն վերջնական նպատակը։

ԱՍԻՄՕ — Հոնդա ֆիրմայի ինտելեկտուալ ռոբոտ
Մրցաշար RoboCup

Թյուրինգի թեստ կամ ինտուիտիվ մոտեցում[խմբագրել | խմբագրել կոդը]

    1rightarrow.png Հիմնական հոդված՝ Թյուրինգի թեստ

Էմպիրիկ թեստը առաջարկվում է Ալան Թյուրինգի կողմից «Հաշվողական մեքենաներ և բանականություն» (անգլ. Computing Machinery and Intelligence)[101] հոդվածում, որը հրատարակվել է 1950 թվականին «Mind» փիլիոսոփայական ամսագրում:Այս թեստի նպատակն է մարդկային մտածողությանը մոտ արհեստական մտածողության հնարավորությունների սահմանումը։

Այս թեստի ստանդարտ մեկնաբանաությունը հնչում է այսպես. «Մարդը փոխազդում է մեկ համակարգչի և մեկ մարդու հետ։ Հարցերի պատասխանների հիման վրա նա պետք է որոշի ում հետ է խոսում՝ մարդու, թե համակարգչային ծրագրի։ Համակարգչային ծրագրի խնդիրն է մարդուն շփոթմունքի մեջ գցել՝ ստիպելով անել սխալ ընտրություն»։ Թեստի մասնակիցներն իրար չեն տեսնում։

Ամենաընդհանուր մոտեցումը ենթադրում է, որ արհեստական բանակությունը սովորական պայմաններում կցուցաբերի մարդու վարքագծից չտարբերվող վարքագիծ։ Այս գաղափարը հանդիսանում է Թյուրինգի թեստի մոտեցման ընդհանրացում, որը պնդում է՝ մեքենան կդառնա գիտակից միայն այն ժամանակ, երբ կկարողանամ սովորական մարդու հետ խոսակցություն վարել և մարդը չի գիտակցի, որ զրուցում է մեքենայի հետ (զրույցն ընթանում է նամակագրության միջոցով)։

Ֆանտաստ գրողները հաճախ են առաջարկում ևս մեկ մոտեցում, այն է՝ արհեստական բանականությունը կառաջանա այն ժամանակ, երբ մեքենան ի վիճակի կլինի զգալու և ստեղծելու։ Այսպես, «Երկհարյուրամյա մարդու» Էնդրու Մարտինի տերը նրան վերաբերվում ա որպես մարդու այն ժամանակ, երբ այն ստեղծում է խաղալիք սեփական նախագծով։ Իսկ «Աստղային ուղու» Դեյտան, որն ունակ էր հաղորդակցվելու և սովորելու, երազում էր էմոցիաներ ու ինտուիցիա ունենար։

Ամեն դեպքում վերջին մոտեցումը հազիվ թե դիմանա ավելի մանարամասն քննադատությանը։ Որպես օրինակ դժվար չէ ստեղծել մեխանիզմ, որը կարող է գնահատել արտաքին կամ ներքին միջավայրի որոշակի ցուցանիշներ և արձագանքի դրանց անբարենպաստ նշանակությանը։ Այսպիսի համակարգի մասին կարելի է ասել, որ այն ունի զգացմունքներ («ցավ» - հարվածի ցուցիչի աշխատանքի ռեակցիան, «քաղց» - կուտակիչ մարտկոցի լիցքավորման նմազումը և այլն)։

Սիմվոլիկ մոտեցում[խմբագրել | խմբագրել կոդը]

Սիմվոլիկ մոտեցումը թույլ է տալիս կատարել գործողություններ վատ ձևակերպված խնդիրների և նրանց իմաստների հետ:

Նոր խնդիրների լուծման հաջողությունն ու արդյունավետությունը կախված է նրանից, թե ինչպես կարող է վերլուծվել եղած ինֆորմացիան, որը պահանջում է վերացական մեթոդների կիրառման ճկունություն:

Տրամաբանական մոտեցում[խմբագրել | խմբագրել կոդը]

Արհեստական բանակություն ստեղծելու տրամաբանական մոտեցումը հիմնված է հիմնավորումների մոդելավորման վրա։ Տեսական հիմքը տրամաբանությունն է։

Հիբրիդային մոտեցում[խմբագրել | խմբագրել կոդը]

Հիբրիդային մոտեցումը ենթադրում է, որ նեյրոնային և սիմվոլային մոդելների միայն սիներգիկ համակցությունն է հասնում հաշվողական հնարավորությունների ամբողջ սպեկտորին։

Գիտելիքի ներկայացում[խմբագրել | խմբագրել կոդը]

Գիտելիքի ներկայացվում է որպես հասկացությունների տիրույթ և դրանց միջև հարաբերություններ

Գիտելիքի ներկայացումը և գիտելիքի կառուցումը արհեստական բանականության հետազոտություններում կենտրոնական տեղ են զբաղեցնում։ Խնդիրների մեծ մասը, որ ենթադրվում է կիրականացվեն մեքենայի կողմից, կպահանջեն աշխարհի մասին լայնածավալ գիտելիքներ։ Արհեստական բանականությունում ներկայացվելու անհրաժեշտություն ունեն․ Օբյեկտները, հատկությունները, կատեգորիաները և օբյեկտների միջև հարաբերությունները, դրանց թվում են իրադրությունները, պատահարները, վիճակները և ժամանակը; պատճառներն ու հետևանքները; գիտելիքի մասին գիտելիք (մենք ինչ գիտենք, թե այլ մարդիկ ինչ գիտեն) և այլ ավելի քիչ հետազոտված տիրույթներ։

Pathfinding 2D Illustration.svg

Ծանոթագրություններ[խմբագրել | խմբագրել կոդը]

  1. Russell, Norvig, էջ 2
  2. Hofstadter (1980, էջ. 601)
  3. Schank Roger C. (1991)։ Where's the AI։ AI magazine 12 (4): 38 
  4. Russell, Norvig
  5. 5,0 5,1 «AlphaGo – Google DeepMind»։ Արխիվացված օրիգինալից 10 March 2016-ին 
  6. 6,0 6,1 Optimism of early AI: quoted in Crevier 1993, էջ. 109 . quoted in Crevier 1993, էջ. 109 .
  7. 7,0 7,1 7,2 Boom of the 1980s: rise of expert systems, Fifth Generation Project, Alvey, MCC, SCI:
  8. 8,0 8,1 First AI Winter, Mansfield Amendment, Lighthill report
  9. 9,0 9,1 Second AI winter:
  10. 10,0 10,1 10,2 AI becomes hugely successful in the early 21st century
  11. 11,0 11,1 Pamela McCorduck (2004, էջեր. 424) writes of "the rough shattering of AI in subfields—vision, natural language, decision theory, genetic algorithms, robotics ... and these with own sub-subfield—that would hardly have anything to say to each other."
  12. 12,0 12,1 12,2 This list of intelligent traits is based on the topics covered by the major AI textbooks, including:
  13. Biological intelligence vs. intelligence in general: , who make the analogy with aeronautical engineering. , who writes that there are "two major branches of artificial intelligence: one aimed at producing intelligent behavior regardless of how it was accomplished, and the other aimed at modeling intelligent processes found in nature, particularly human ones." , a paper in Science, which describes McCarthy's indifference to biological models. Kolata quotes McCarthy as writing: "This is AI, so we don't care if it's psychologically real" https://books.google.com/books?id=PEkqAAAAMAAJ  . McCarthy recently reiterated his position at the AI@50 conference where he said "Artificial intelligence is not, by definition, simulation of human intelligence" (Maker 2006).
  14. Neats vs. scruffies:
  15. Symbolic vs. sub-symbolic AI:
  16. General intelligence (strong AI) is discussed in popular introductions to AI: and Kurzweil 2005
  17. See the Dartmouth proposal, under Philosophy, below.
  18. 18,0 18,1 This is a central idea of Pamela McCorduck's Machines Who Think. She writes: "I like to think of artificial intelligence as the scientific apotheosis of a venerable cultural tradition." (McCorduck 2004, էջ 34) "Artificial intelligence in one form or another is an idea that has pervaded Western intellectual history, a dream in urgent need of being realized." (McCorduck 2004, էջ xviii) "Our history is full of attempts—nutty, eerie, comical, earnest, legendary and real—to make artificial intelligences, to reproduce what is the essential us—bypassing the ordinary means. Back and forth between myth and reality, our imaginations supplying what our workshops couldn't, we have engaged for a long time in this odd form of self-reproduction." (McCorduck 2004, էջ 3) She traces the desire back to its Hellenistic roots and calls it the urge to "forge the Gods." (McCorduck 2004, էջեր 340–400)
  19. «Stephen Hawking believes AI could be mankind's last accomplishment»։ BetaNews։ 21 October 2016։ Արխիվացված օրիգինալից 28 August 2017-ին 
  20. Ford Martin, Colvin Geoff (6 September 2015)։ «Will robots create more jobs than they destroy?»։ The Guardian։ Վերցված է 13 January 2018 
  21. 21,0 21,1 AI applications widely used behind the scenes:
  22. AI in myth:
  23. AI in early science fiction.
  24. 24,0 24,1 Formal reasoning:
  25. "Artificial Intelligence." Encyclopedia of Emerging Industries, edited by Lynn M. Pearce, 6th ed., Gale, 2011, pp. 73–80. Gale Virtual Reference Library, http://link.galegroup.com/apps/doc/CX1930200017/GVRL?u=mcc_pv&sid=GVRL&xid=cd5adac2. Accessed 31 Mar. 2018.
  26. Russell, Norvig, էջ 16
  27. Hegemony of the Dartmouth conference attendees: , who write "for the next 20 years the field would be dominated by these people and their students."
  28. Russell, Norvig, էջ 18: «it was astonishing whenever a computer did anything kind of smartish»
  29. Schaeffer J. (2009) Didn’t Samuel Solve That Game?. In: One Jump Ahead. Springer, Boston, MA
  30. Samuel A. L. (July 1959)։ «Some Studies in Machine Learning Using the Game of Checkers»։ IBM Journal of Research and Development 3 (3): 210–229։ doi:10.1147/rd.33.0210 
  31. "Golden years" of AI (successful symbolic reasoning programs 1956–1973): The programs described are Arthur Samuel's checkers program for the IBM 701, Daniel Bobrow's STUDENT, Newell and Simon's Logic Theorist and Terry Winograd's SHRDLU.
  32. DARPA pours money into undirected pure research into AI during the 1960s:
  33. AI in England:
  34. Expert systems:
  35. Formal methods are now preferred ("Victory of the neats"):
  36. McCorduck, 2004, էջեր 480–483
  37. Markoff, 2011
  38. «Ask the AI experts: What’s driving today’s progress in AI?»։ McKinsey & Company (անգլերեն)։ Վերցված է 13 April 2018 
  39. Administrator։ «Kinect's AI breakthrough explained»։ i-programmer.info։ Արխիվացված օրիգինալից 1 February 2016-ին 
  40. Rowinski, Dan (15 January 2013)։ «Virtual Personal Assistants & The Future Of Your Smartphone [Infographic]»։ ReadWrite։ Արխիվացված օրիգինալից 22 December 2015-ին 
  41. «Artificial intelligence: Google's AlphaGo beats Go master Lee Se-dol»։ BBC News։ 12 March 2016։ Արխիվացված օրիգինալից 26 August 2016-ին։ Վերցված է 1 October 2016 
  42. «After Win in China, AlphaGo’s Designers Explore New AI»։ 27 May 2017։ Արխիվացված օրիգինալից 2 June 2017-ին 
  43. «World's Go Player Ratings»։ May 2017։ Արխիվացված օրիգինալից 1 April 2017-ին 
  44. «柯洁迎19岁生日 雄踞人类世界排名第一已两年» (Chinese)։ May 2017։ Արխիվացված օրիգինալից 11 August 2017-ին 
  45. 45,0 45,1 Clark Jack (8 December 2015)։ «Why 2015 Was a Breakthrough Year in Artificial Intelligence»։ Bloomberg News։ Արխիվացված օրիգինալից 23 November 2016-ին։ Վերցված է 23 November 2016։ «After a half-decade of quiet breakthroughs in artificial intelligence, 2015 has been a landmark year. Computers are smarter and learning faster than ever.» 
  46. «Reshaping Business With Artificial Intelligence»։ MIT Sloan Management Review (անգլերեն)։ Վերցված է 2 May 2018 
  47. Lorica Ben (18 December 2017)։ «The state of AI adoption»։ O'Reilly Media (անգլերեն)։ Վերցված է 2 May 2018 
  48. Definition of AI as the study of intelligent agents: , which provides the version that is used in this article. Note that they use the term "computational intelligence" as a synonym for artificial intelligence. .
  49. Domingos, 2015, Chapter 5
  50. Domingos, 2015, Chapter 7
  51. Lindenbaum, M., Markovitch, S., & Rusakov, D. (2004). Selective sampling for nearest neighbor classifiers. Machine learning, 54(2), 125–152.
  52. Domingos, 2015, Chapter 1
  53. 53,0 53,1 Intractability and efficiency and the combinatorial explosion:
  54. Domingos, 2015, Chapter 2, Chapter 3
  55. Hart P. E., Nilsson, N. J., Raphael, B. (1972)։ «Correction to "A Formal Basis for the Heuristic Determination of Minimum Cost Paths"»։ SIGART Newsletter (37): 28–29։ doi:10.1145/1056777.1056779 
  56. «Algorithm in Artificial Intelligence» 
  57. Domingos, 2015, Chapter 2, Chapter 4, Chapter 6
  58. «Can neural network computers learn from experience, and if so, could they ever become what we would call 'smart'?»։ Scientific American (անգլերեն)։ 2018։ Վերցված է 24 March 2018 
  59. Domingos, 2015, Chapter 6, Chapter 7
  60. Domingos, 2015, էջ 286
  61. «Single pixel change fools AI programs»։ BBC News։ 3 November 2017։ Վերցված է 12 March 2018 
  62. «AI Has a Hallucination Problem That's Proving Tough to Fix»։ WIRED։ 2018։ Վերցված է 12 March 2018 
  63. Goodfellow, Ian J., Jonathon Shlens, and Christian Szegedy. "Explaining and harnessing adversarial examples." arXiv preprint arXiv:1412.6572 (2014).
  64. Matti D., Ekenel H. K., Thiran J. P. (2017)։ «Combining LiDAR space clustering and convolutional neural networks for pedestrian detection»։ 2017 14th IEEE International Conference on Advanced Video and Signal Based Surveillance (AVSS): 1–6։ ISBN 978-1-5386-2939-0։ doi:10.1109/AVSS.2017.8078512 
  65. Ferguson Sarah, Luders Brandon, Grande Robert C., How Jonathan P. (2015)։ «Real-Time Predictive Modeling and Robust Avoidance of Pedestrians with Uncertain, Changing Intentions»։ Algorithmic Foundations of Robotics XI։ Springer Tracts in Advanced Robotics (անգլերեն) (Springer, Cham) 107: 161–177։ ISBN 978-3-319-16594-3։ arXiv:1405.5581։ doi:10.1007/978-3-319-16595-0_10 
  66. «Cultivating Common Sense | DiscoverMagazine.com»։ Discover Magazine։ 2017։ Վերցված է 24 March 2018 
  67. Davis Ernest, Marcus Gary (24 August 2015)։ «Commonsense reasoning and commonsense knowledge in artificial intelligence»։ Communications of the ACM 58 (9): 92–103։ doi:10.1145/2701413 
  68. Winograd Terry (January 1972)։ «Understanding natural language»։ Cognitive Psychology 3 (1): 1–191։ doi:10.1016/0010-0285(72)90002-3 
  69. «Don't worry: Autonomous cars aren't coming tomorrow (or next year)»։ Autoweek։ 2016։ Վերցված է 24 March 2018 
  70. Knight Will (2017)։ «Boston may be famous for bad drivers, but it’s the testing ground for a smarter self-driving car»։ MIT Technology Review (անգլերեն)։ Վերցված է 27 March 2018 
  71. Prakken Henry (31 August 2017)։ «On the problem of making autonomous vehicles conform to traffic law»։ Artificial Intelligence and Law 25 (3): 341–363։ doi:10.1007/s10506-017-9210-0 
  72. Քաղվածելու սխալ՝ Սխալ <ref> պիտակ՝ Reasoning անվանումով ref-երը տեքստ չեն պարունակում:
  73. Քաղվածելու սխալ՝ Սխալ <ref> պիտակ՝ Uncertain reasoning անվանումով ref-երը տեքստ չեն պարունակում:
  74. Քաղվածելու սխալ՝ Սխալ <ref> պիտակ՝ Psychological evidence of sub-symbolic reasoning անվանումով ref-երը տեքստ չեն պարունակում:
  75. Քաղվածելու սխալ՝ Սխալ <ref> պիտակ՝ Knowledge representation անվանումով ref-երը տեքստ չեն պարունակում:
  76. Քաղվածելու սխալ՝ Սխալ <ref> պիտակ՝ Knowledge engineering անվանումով ref-երը տեքստ չեն պարունակում:
  77. Քաղվածելու սխալ՝ Սխալ <ref> պիտակ՝ Representing categories and relations անվանումով ref-երը տեքստ չեն պարունակում:
  78. Քաղվածելու սխալ՝ Սխալ <ref> պիտակ՝ Representing time անվանումով ref-երը տեքստ չեն պարունակում:
  79. Քաղվածելու սխալ՝ Սխալ <ref> պիտակ՝ Representing causation անվանումով ref-երը տեքստ չեն պարունակում:
  80. Քաղվածելու սխալ՝ Սխալ <ref> պիտակ՝ Representing knowledge about knowledge անվանումով ref-երը տեքստ չեն պարունակում:
  81. Sikos Leslie F. (June 2017)։ Description Logics in Multimedia Reasoning։ Cham: Springer։ ISBN 978-3-319-54066-5։ doi:10.1007/978-3-319-54066-5։ Արխիվացված օրիգինալից 29 August 2017-ին 
  82. Քաղվածելու սխալ՝ Սխալ <ref> պիտակ՝ Ontology անվանումով ref-երը տեքստ չեն պարունակում:
  83. Smoliar Stephen W., Zhang HongJiang (1994)։ «Content based video indexing and retrieval»։ IEEE multimedia 1.2: 62–72 
  84. Neumann Bernd, Möller Ralf (January 2008)։ «On scene interpretation with description logics»։ Image and Vision Computing 26 (1): 82–101։ doi:10.1016/j.imavis.2007.08.013 
  85. Kuperman G. J., Reichley R. M., Bailey T. C. (1 July 2006)։ «Using Commercial Knowledge Bases for Clinical Decision Support: Opportunities, Hurdles, and Recommendations»։ Journal of the American Medical Informatics Association 13 (4): 369–371։ PMC 1513681։ doi:10.1197/jamia.M2055 
  86. MCGARRY KEN (1 December 2005)։ «A survey of interestingness measures for knowledge discovery»։ The Knowledge Engineering Review 20 (1): 39։ doi:10.1017/S0269888905000408 
  87. Bertini M, Del Bimbo A, Torniai C (2006)։ «Automatic annotation and semantic retrieval of video sequences using multimedia ontologies»։ MM ‘06 Proceedings of the 14th ACM international conference on Multimedia։ 14th ACM international conference on Multimedia։ Santa Barbara: ACM։ էջեր 679–682 
  88. Քաղվածելու սխալ՝ Սխալ <ref> պիտակ՝ Qualification problem անվանումով ref-երը տեքստ չեն պարունակում:
  89. Քաղվածելու սխալ՝ Սխալ <ref> պիտակ՝ Default reasoning and non-monotonic logic անվանումով ref-երը տեքստ չեն պարունակում:
  90. Քաղվածելու սխալ՝ Սխալ <ref> պիտակ՝ Breadth of commonsense knowledge անվանումով ref-երը տեքստ չեն պարունակում:
  91. Dreyfus, Dreyfus
  92. Gladwell, 2005
  93. 93,0 93,1 Քաղվածելու սխալ՝ Սխալ <ref> պիտակ՝ Intuition անվանումով ref-երը տեքստ չեն պարունակում:
  94. Քաղվածելու սխալ՝ Սխալ <ref> պիտակ՝ Planning անվանումով ref-երը տեքստ չեն պարունակում:
  95. Քաղվածելու սխալ՝ Սխալ <ref> պիտակ՝ Information value theory անվանումով ref-երը տեքստ չեն պարունակում:
  96. Քաղվածելու սխալ՝ Սխալ <ref> պիտակ՝ Classical planning անվանումով ref-երը տեքստ չեն պարունակում:
  97. Քաղվածելու սխալ՝ Սխալ <ref> պիտակ՝ Non-deterministic planning անվանումով ref-երը տեքստ չեն պարունակում:
  98. Քաղվածելու սխալ՝ Սխալ <ref> պիտակ՝ Multi-agent planning անվանումով ref-երը տեքստ չեն պարունակում:
  99. Алан Тьюринг, Могут ли машины мыслить?
  100. Jack Copeland. What is Artificial Intelligence? 2000
  101. Alan Turing, «Computing Machinery and Intelligence», Mind, vol. LIX, no. 236, October 1950, pp. 433—460.

Տես նաև[խմբագրել | խմբագրել կոդը]


Քաղվածելու սխալ՝ <ref> tags exist for a group named "Ն", but no corresponding <references group="Ն"/> tag was found, or a closing </ref> is missing