Վերահսկվող ուսուցում

Վիքիպեդիայից՝ ազատ հանրագիտարանից

Վերահսկվող ուսումը մեքենայական ուսուցման խնդիրներից է։ Այն սովորում է ֆունկցիա, որը մուտք-ելքային տվյալների զույգերի օրինակի հիման վրա այլ մուտքային տվյալներից ստանում է նման արդյունքներ[1]։ Դա նշանակում է, որ մուտքագրվող տվյալները և արդյունքը նախապես հայտնի են, և ակնկալվում է ստանալ նմանատիպ արդյունք նոր մուտքագրվող տվյալների համար։ Վերահսկվող ուսուցման մեջ յուրաքանչյուր օրինակը մի զույգ է, որը բաղկացած է մուտքային օբյեկտից (սովորաբար վեկտորից) և ցանկալի ելքային արժեքներից։ Վերահսկվող ուսուցման ալգորիթմը վերլուծում է վերապատրաստման տվյալները և ստեղծում է ֆունկցիա, որը կարող է օգտագործվել նոր օրինակների քարտեզագրման համար։ Օպտիմալ դեպքը հնարավորություն կտա ալգորիթմին ճիշտ որոշել դասի լեյբլները նոր դեպքերի համար։ Սա ուսուցման ալգորիթմից պահանջում է ընդհանրացնել վերապատրաստման տվյալները նոր դեպքերի համար «ողջամիտ» ձևով (տե՛ս ինդուկտիվ կողմնակալությունը )։

Քայլերի հաջորդականությունը[խմբագրել | խմբագրել կոդը]

Վերահսկվող ուսուցման տվյալ խնդիրը լուծելու համար հարկավոր է կատարել հետևյալ քայլերը.

  1. Որոշել վերապատրաստման օրինակների տեսակը։ Ցանկացած այլ բան անելուց առաջ պետք է որոշել, թե ինչպիսի տվյալներ են օգտագործվում վերապատրաստման համար։ Օրինակ ՝ ձեռագրերի վերլուծության դեպքում սա կարող է լինել մեկ ձեռագիր տառ, մի ամբողջ ձեռագիր բառ կամ ձեռագիր նախադասություն։
  2. Հավաքել վերապատրաստման օրինակներ։ Դրանք պետք է լինեն ներկայացուցչական իրական ֆունկցիայի համար։ Այսպիսով, հավաքվում են մուտքային օբյեկտներ և դրանց համապատասխան ելքեր կամ մարդկային փորձագետներից, կամ չափումներից։
  3. Որոշել սովորած ֆունկցիայի մուտքային տվյալների ներկայացման ձևը։ Սովորված ֆունկցիայի ճշգրտությունը խստորեն կախված է նրանից, թե ինչպես է ներկայացվում մուտքային օբյեկտը։ Սովորաբար, մուտքային օբյեկտը վերածվում է առանձնահատկությունների վեկտորի, որն իր մեջ պարունակում է օբյեկտը նկարագրող մի շարք առանձնահատկություններ։ Առանձնահատկությունների քանակը չպետք է չափազանց մեծ լինի ծավալի տեսանկյունից, բայց պետք է պարունակի բավարար տեղեկատվություն` արդյունքը ճշգրիտ կանխատեսելու համար։
  4. Որոշել սովորած ֆունկցիայի կառուցվածքը և համապատասխան սովորող ալգորիթմը(learning algorithm)։ Օրինակ՝ ինժեները կարող է ընտրել օժանդակ վեկտորի մեքենաներ(support vector machines) կամ որոշման ծառեր (decision tree)։
  5. Ամբողջացնել դիզայնը։ Աշխատացնել սովորող ալգորիթմը հավաքված վերապատրաստման տվյալների վրա։ Վերահսկվող ուսուցման որոշ ալգորիթմներ պահանջում են որոշել վերահսկման որոշակի պարամետրեր։ Այս պարամետրերը կարող են ճշգրտվել` օպտիմալացնելով կատարողականը վերապատրաստման տվյալների մի մասի վրա որը կոչվում է վավերացման տվյալներ (validation set) կամ խաչաձև վավերացման (cross-validation) միջոցով։
  6. Գնահատեl սովորած ֆունկցիայի ճշգրտությունը։ Պարամետրերի ճշգրտումից և սովորելուց հետո ստացված ֆունկցիայի կատարողականը պետք է չափվի թեստի վրա, որը առանձին է վերապատրաստման տվյալներից։

Ալգորիթմի ընտրություն[խմբագրել | խմբագրել կոդը]

Գոյություն ունեն բազմաթիվ վերահսկվող ուսուցման ալգորիթմներ՝ յուրաքանչյուրն իր ուժեղ և թույլ կողմերով։ Չկա մեկ միասնական սովորող ալգորիթմ, որն ամենալավն է աշխատում վերահսկվող ուսուցման բոլոր խնդիրների համար։

Ալգորիթմներ[խմբագրել | խմբագրել կոդը]

Առավել լայն կիրառում ունեցող ալգորիթմներն են.

Ինչպես են գործում վերահսկվող ուսուցման ալգորիթմները[խմբագրել | խմբագրել կոդը]

Տրված վերապատրաստման օրինակների համար, որոնք ունեն հետևյալ տեսքը՝ այնպես, որ -ն i- րդ օրինակի առանձնահատկության վեկտորն է, իսկ դրա պիտակն է (label, այսինքն՝ դաս), սովորող ալգորիթմը փնտրում է ֆունկցիա՝ , որտեղ մուտքային տարածք է, -ը՝ ելքային։ ֆունկցիան հնարավոր ֆունկցիաների տարր է, որը սովորաբար անվանում են վարկածների/հիպոթեզների տարածք։ Երբեմն հարմար է ներկայացնել ֆունկցիայի տեսքով այնպես, որ սահմանվի որպես -ի արժեք, որը տալիս է ամենաբարձր գնահատականը. ։ Գնահատականների ֆունկցիաների տարածքը նշանակենք ։

Չնայած որ և կարող են լինել ցանկացած տարածքի ֆունկցիաներ, շատ սովորող ալգորիթմներ հավանականային մոդելներ են, որտեղ ստանում է պայմանական հավանականության մոդելի ձևը՝ , կամ ստանում է համատեղ հավանականության մոդելի ձևը՝ . Օրինակ, նայիվ Բայեսը և գծային խտրական վերլուծությունը համատեղ հավանականության մոդելներ են, մինչդեռ լոգիստիկ ռեգրեսիան պայմանական հավանականության մոդել է։

կամ -ն ընտրելու 2 հիմնական մոտեցումներ կան՝ էմպիրիկ ռիսկերի նվազեցում և կառուցվածքային ռիսկերի նվազեցում[2]։ Էմպիրիկ ռիսկերի նվազեցումը որոնում է այն ֆունկցիա, որը լավագույնս ադապտացվում է(fit) վերապատրաստման տվյալների վրա։ Կառուցվածքային ռիսկերի նվազեցումը ներառում է <<տուգանային>> գործառույթ, որը վերահսկում է կողմնակալության / վարիացիայի փոխանակումը։

Երկու դեպքում էլ ենթադրվում է, որ վերապատրաստման տվյալները բաղկացած են անկախ և նույնական բաշխված զույգերի նմուշից՝ ։ Չափելու համար, թե որքանով է ֆունկցիան ադապտացվում դասընթացների տվյալների վրա, կորստի ֆունկցիան (loss funcion) սահմանվում է սայմանվում է հետևյալ կերպ` ։ Վերապատրասման տվյալների օրինակով՝ , կանխատեսվող արժեքի կորուստը կլինի .

ֆունկցիայի ռիսկը՝ , սահմանվում է որպես -իակնկալվող կորուստ։ Դա կարելի է գնահատել վերապատրաստման տվյալների հիման վրա.

.

Էմպիրիկ ռիսկի նվազեցում[խմբագրել | խմբագրել կոդը]

Էմպիրիկ ռիսկի նվազեցման դեպքում վերահսկվող ուսուցման ալգորիթմը որոնում է այնպիսի ֆունկցիա, որը նվազագույնի է հասցնում ։ Հետևաբար, վերահսկվող ուսուցման ալգորիթմը կարելի է կառուցել օպտիմիզացման ալգորիթմի կիրառմամբ -ն գտնելու համար։

Երբ պայմանական հավանականության բաշխումն է՝ , իսկ կորստի ֆունկցիան բացասական լոգարիթմական ճշմարտանմանությունն է՝ , ապա էմպիրիկ ռիսկի նվազեցումը համարժեք է առավելագույն ճշմարտանմանության գնահատմանը։

Երբ պարունակում է բազմաթիվ ֆունկցիաներ կամ վերապատրաստման տվյալները բավականաչափ շատ չեն, էմպիրիկ ռիսկերի նվազեցումը հանգեցնում է բարձր վարիացիայի և վատ ընդհանրացման։ Ուսուցման ալգորիթմը կարողանում է անգիր կատարել վերապատրաստման օրինակները՝ առանց լավ ընդհանրացնելու։ Սա կոչվում է գերակատարում (overfitting)։

Կառուցվածքային ռիսկերի նվազեցում[խմբագրել | խմբագրել կոդը]

Կառուցվածքային ռիսկերի նվազեցումը ձգտում է կանխել գերակատարումը` կարգավորող տույժը օպտիմիզացիայի մեջ ներառելով։

Օգտագործվել են տույժերի լայն բազմազանություն, որոնք համապատասխանում են տարբեր բարդությունների։ Օրինակ, ենթադրենք՝ գծային ֆունկցիան ունի հետևյալ տեսքը.

.

Ռեգուլարիզացիայի հայտնի տուգանք է , որը կշիռների քառակուսային էվկլիդյան նորմ է, որը հայտնի է նաև որպես նորմ։ Այլ նորմերից են նորմ, , և նորմա, որը ոչ զրոյական -երի քանակն է։ Տուգանքը նշանակենք ։

Վերահսկվող ուսուցման օպտիմիզացման խնդիրը այնպիսի ֆունկցիա գտնելն է, որը նվազագույնի է հասցնում՝

պարամետրը վերահսկում է կողմնակալության տարբերությունը։ Երբ , սա տալիս է էմպիրիկ ռիսկի մինիմալացում ցածր կողմնակալությամբ և բարձր վարիացիայով։ Երբ մեծ է, սովորող ալգորիթմը կունենա բարձր կողմնակալություն և ցածր վարիացիա։ -ի արժեքը կարելի է ընտրել էմպիրիկորեն՝ խաչաձև վալիդացիայի միջոցով։

Բարդության տուգանքը ունի բայեսյան մեկնաբանություն՝ որպես բացասական լոգարիթմական հավանականություն, որի դեպքում -ի պոստերիոր հավանականությունն է։

Ընդհանրացումներ[խմբագրել | խմբագրել կոդը]

Կան մի քանի եղանակներ, որոնց միջոցով կարելի է ընդհանրացնել ստանդարտ վերահսկվող ուսուցման խնդիրը։

  • Կիսահսկվող ուսուցում. Ցանկալի ելքային արժեքները տրամադրվում են միայն որպես վերապատրաստման տվյալների ենթաբազմություն։ Մնացած տվյալները չունեն լեյբլներ։
  • Թույլ վերահսկողություն. Աղմկոտ, սահմանափակ կամ ոչ ճշգրիտ աղբյուրներն օգտագործվում են վերահսկողության ազդանշան ապահովելու համար՝ վերապատրաստման տվյալների պիտակավորման համար։
  • Ակտիվ ուսուցում. Փոխանակ ենթադրելու, որ վերապատրաստման բոլոր օրինակները իսկզբանե տրված են, ակտիվ ուսուցման ալգորիթմները ինտերակտիվորեն հավաքում են նոր օրինակներ, սովորաբար՝ օգտագործողի կողմից հարցումներ կատարելով։ Հաճախ հարցումները հիմնված են չհրապարակված տվյալների վրա, ինչը համատեղում է կիսահսկվող ուսուցումը ակտիվ ուսուցման հետ։
  • Կառուցվածքային կանխատեսում. Երբ ցանկալի ելքային արժեքը բարդ օբյեկտ է, օրինակ՝ փարսյան ծառ կամ պիտակավորված գրաֆիկ, ապա ստանդարտ մեթոդները պետք է ընդլայնվեն։
  • Դասակարգել սովորելը. Երբ մուտքային տվյալները օբյեկտների շարք են, և ցանկալի ելքը այդ օբյեկտների դասակարգումն է, ապա նորից պետք է ստանդարտ մեթոդները ընդլայնվեն։

Մոտեցումներ և ալգորիթմներ[խմբագրել | խմբագրել կոդը]

  • Վերլուծական ուսուցում
  • Արհեստական նեյրոնային ցանց
  • Հետադարձման ալգորիթմ (Backpropagation)
  • Խթանում (մետա-ալգորիթմ, boosting)
  • Բայեսյան վիճակագրություն
  • Դեպքերի վրա հիմնված հիմնավորում (Case-based reasoning)
  • Որոշման ծառի ուսուցում
  • Ինդուկտիվ տրամաբանության ծրագրավորում
  • Գաուսական գործընթացների հետընթաց
  • Գենետիկական ծրագրավորում
  • Տվյալների մշակման խմբային եղանակ (Group method of data handling)
  • Կեռնելի գնահատականները
  • Ավտոմատ ուսուցում (Learning Automata)
  • Ուսուցման դասակարգիչ համակարգեր
  • Հաղորդագրության նվազագույն երկարությունը ( որոշման ծառեր, որոշումների գծապատկերներ և այլն)
  • Նայիվ Բայես դասակարգիչ
  • Մոտակա հարևան ալգորիթմը
  • Օժանդակ վեկտորային մեքենաներ
  • Պատահական անտառներ
  • Օրդինալ դասակարգում
  • Տվյալների նախամշակում
  • Վիճակագրական կապի ուսուցում
  • Proaftn՝ բազմակողմանի դասակարգման ալգորիթմ
  • Այլ

Օգտագործման ոլորտները[խմբագրել | խմբագրել կոդը]

Ծանոթություններ[խմբագրել | խմբագրել կոդը]

  1. Stuart J. Russell, Peter Norvig (2010) Artificial Intelligence: A Modern Approach, Third Edition, Prentice Hall 9780136042594.
  2. Vapnik, V. N. The Nature of Statistical Learning Theory (2nd Ed.), Springer Verlag, 2000.

Արտաքին հղումներ[խմբագրել | խմբագրել կոդը]