Մեծ տվյալներ

Վիքիպեդիայից՝ ազատ հանրագիտարանից
Jump to navigation Jump to search

Մեծ տվյալներ (անգլ.՝ big data, [ˈbɪɡ ˈdeɪtə]), հսկայական ծավալի և զգալի բազմազանության կառուցվածքային և ոչ կառուցվածքային տվյալների անվանում, որոնք արդյունավետորեն մշակվում են հորիզոնական մասշտաբային ծրագրային գործիքներով, որոնք հայտնվել են 2000-ականների վերջին և հանդիսանում են այլընտրանքային տվյալների բազայի կառավարման համակարգերի և Business Intelligence դասի լուծումների համար[1][2][3]:

Լայն իմաստով, «մեծ տվյալների» մասին խոսվում է որպես սոցիալ-տնտեսական ֆենոմենի մասին, որը կապված է տվյալների հսկայական պաշարների (որոշ խնդրահարույց ոլորտներում՝ տվյալների համաշխարհային ծավալը) վերլուծության տեխնոլոգիական հնարավորությունների առաջացման և դրանից բխող վերափոխման հետևանքների հետ[4]:

Որպես բնութագրական առանձնահատկություն մեծ տվյալների համար ավանդաբար առանձնացվում է «երեք V»՝ ծավալը (անգլ.՝ volume՝ ֆիզիկական ծավալի իմաստով), արագություն (velocity՝ ինչպես աճի արագության, այնպես էլ արագ մշակման և արդյունքների ստացման անհրաժեշտության իմաստով), բազմազանություն (variety՝ կառուցվածքային և կիսակառուցվածքային տվյալների տարբեր տեսակների միաժամանակյա մշակման հնարավորության իմաստով)[5][6], հետագայում առաջացել են այդ առանձնահատկության տարբեր տատանումներ և մեկնաբանություններ։

Տեղեկատվական տեխնոլոգիաների տեսանկյունից, մոտեցումների և գործիքների ամբողջության մեջ ի սկզբանե ներառվել են անսահմանափակ կառուցվածքային տվյալների զանգվածային զուգահեռ մշակման միջոցները, առաջին հերթին՝ NoSQL կատեգորիայի տվյալների բազայի կառավարման համակարգեր, MapReduce ալգորիթմներ և դրանց ծրագրային ապահովման շրջանակներ և Hadoop նախագծի գրադարաններ[7]: Հետագայում մեծ տվյալների տեխնոլոգիաների շարքին սկսել են դասվել տեղեկատվական տեխնոլոգիաների մի շարք լուծումներ, որոնք այս կամ այն ​​աստիճանով համապատասխանում են նմանատիպ բնութագրական հատկանիշների չափազանց մեծ տվյալների պաշարների մշակման ունակություններով։

Համաշխարհային(չաշխատող հղում) տեխնոլոգիական ներուժը տեղեկատվական տվյալների պահպանման, փոխանցման և հաշվարկման համար (աշխարհում ինֆորմացիայի թվային մասնաբաժնի աճն ու փոփոխությունը)[8]։ * 2002 թվականը եղել է շրջադարձային անալոգային և թվային տվյալների համախարհային ծավալի հարաբերության տեսանկյունից վերջինիս օգտին, որի ծավալն ավելացել է երկրաչափական պրոգրեսիայով։* 2007 թվականին թվային տվյալների ծավալը գերազանցել է անալոգայինի ծավալը գրեթե 15 անգամ՝ կազմելով 280 էքսաբայթ թվային տվյալներ 19 անալոգայինի դիմաց։

Պատմություն[խմբագրել | խմբագրել կոդը]

«Մեծ տվյալներ» տերմինի լայն ներդրումը կապված է «Nature» ամսագրի խմբագիր Քլիֆորդ Լինչի հետ, որը 2008 թվականի սեպտեմբերի 3-ի համար պատրաստել է հատուկ թողարկում՝ «Ինչպե՞ս կարող են ապագայի վրա ազդել գիտության տեխնոլոգիաները, որոնք հնարավորություն են տալիս աշխատելու մեծ քանակությամբ տվյալների հետ», որում հավաքվել էին նյութեր մշակվող տվյալների ծավալների ու բազմազանության պայթյունավտանգ աճի և տեխնոլոգիական հեռանկարների մասին «քանակից որակ» որակական թռիչքի պարադիգմայում. տերմինն առաջարկվել է անգլիական բիզնես միջավայրում տարածված «մեծ նավթ» և «մեծ հանքաքար» մետաֆորների համաբանությամբ։

Չնայած այն հանգամանքին, որ տերմինը ներմուծվել է ակադեմիական միջավայրում և նախ և առաջ վերաբերել է գիտական ​​տվյալների աճի և բազմազանության խնդրին, 2009 թվականից սկսած այն լայնորեն տարածվել է բիզնես մամուլում, իսկ մինչև 2010 թվականը հայտնվել են բացառապես և ուղղակիորեն մեծ տվյալների մշակման խնդրին վերաբերող առաջին ապրանքները և լուծումները։ Մինչև 2011 թվականը կազմակերպությունների համար տեղեկատվական տեխնոլոգիաների խոշորագույն մատակարարների մեծամասնությունը իրենց բիզնեսի ռազմավարություններում օգտագործում է մեծ տվյալների հայեցակարգը՝ ներառյալ IBM[9], Oracle[10], Microsoft[11], Hewlett-Packard[12], EMC[13], իսկ տեղեկատվական տեխնոլոգիաների շուկայի հիմնական վերլուծաբանները հայեցակարգին են նվիրում առանձին ուսումնասիրություններ[5][14][15][16]:

2011 թվականին Gartner-ը նշել է մեծ տվյալները որպես տեղեկատվական տեխնոլոգիաների ենթակառուցվածքների թիվ երկու միտումը (վիրտուալացումից հետո և ավելի կարևոր, քան էներգախնայողությունը և մշտադիտարկումը)[17]։ Այդ ժամանակ էլ կանխատեսվել է, որ մեծ տվյալների տեխնոլոգիաների ներդրումը առավելագույն ազդեցություն կունենա տեղեկատվական տեխնոլոգիաների վրա արտադրության, առողջապահության, առևտրի, պետական կառավարման, ինչպես նաև այն ոլորտներում և գիտաճյուղերում, որտեղ արձանագրվում են ռեսուրսների անհատական ​​տեղաշարժեր[18]:

2013 թվականից ի վեր մեծ տվյալները՝ որպես ուսումնական առարկա, ուսումնասիրվում են համալսարանական ծրագրերում տվյալների գիտության[19] և հաշվողական գիտության ու ինժեներիայի բնագավառում[20]։

2015 թվականին Gartner-ը բացառել է մեծ տվյալները նոր տեխնոլոգիաների հասունացման ցիկլից և դադարել է թողարկել 2011-2014 թվականներին առանձին լույս տեսած մեծ տվյալների տեխնոլոգիաների հասունության ցիկլը՝ դա պատճառաբանելով աղմուկի փուլից դեպի գործնական կիրառության անցմամբ։ Առանձին հասունության ցիկլում ներկայացված տեխնոլոգիաները, մեծ մասամբ, անցել են հատուկ ցիկլերի` առաջադեմ վերլուծության և տվյալների գիտության, BI և տվյալների վերլուծության, տեղեկատվության կորպորատիվ կառավարման, ռեզիդենտ հաշվարկների, տեղեկատվական ենթակառուցվածքների մեջ[21]։

VVV[խմբագրել | խմբագրել կոդը]

VVV (ծավալ, արագություն, բազմազանություն) բնութագրերի փաթեթն ի սկզբանե մշակվել է Meta Group-ի կողմից 2001 թվականին՝ մեծ տվյալների՝ որպես տեղեկատվական տեխնոլոգիաների մեթոդների և գործիքների որոշակի շարքի մասին պատկերացումների համատեքստից դուրս, դրանում, կազմակերպությունների համար տվյալների կենտրոնական պահեստի հայեցակարգի աճման շնորհիվ՝ նշվել է տվյալների կառավարման համարժեքությունը բոլոր երեք առումներով[22]։ Հետագայում հայտնվել են մեկնաբանություններ «չորս V»-ով (ավելացվել է veracity՝ հուսալիություն, օգտագործվել է IBM- ի գովազդային նյութերում[23]), «հինգ V»-ով (այս վարկածում ավելացվել են viability` կենսունակություն և value՝ արժեք[24]) և նույնիսկ «յոթ V»-ով (վերնշյալներից բացի ավելացվել են նաև variability` փոփոխականություն և visualization[25]): IDC-ն «չորրորդ V»-ն մեկնաբանում է որպես արժեք` համապատասխան պայմաններում համապատասխան ծավալները վերամշակելու տնտեսական իրագործելիության կարևորության տեսանկյունից, ինչը նույնպես արտացոլված է IDC-ի՝ մեծ տվյալների սահմանման մեջ[26]։ Բոլոր դեպքերում այդ հատկանիշներում շեշտում են, որ մեծ տվյալների համար բնութագրող հատկանիշ է ոչ միայն նրանց ֆիզիկական ծավալը, այլև այլ կատեգորիաներ, որոնք կարևոր են տվյալների մշակման և վերլուծության առաջադրանքի բարդությունը հասկանալու համար։

Աղբյուրներ[խմբագրել | խմբագրել կոդը]

Մեծ տվյալների դասական աղբյուր են ճանաչվել բանացանցը և սոցիալական մեդիան, ինչպես նաև համարվում է, որ մեծ տվյալները կարող են բխել ձեռնարկությունների և կազմակերպությունների ներքին տեղեկատվությունից (որ գեներացվում են տեղեկատվական միջավայրում, բայց նախկինում չեն պահվել և չեն վերլուծվել)՝ բժշկության և կենսաինֆորմատիկայի ոլորտներից, աստղաբանական դիտարկումներից[27]։

Որպես մեծ տվյալների առաջացման աղբյուրների օրինակներ նշվում են[28][29] չափիչ սարքերից անընդհատ ստացվող տվյալները, իրադարձությունները ռադիոհաճախականության նույնացուցիչներից, սոցիալական ցանցերից հաղորդագրությունների հոսքերը, օդերևութաբանական տվյալները, Երկրի հեռազննումից ստացված տվյալները, բջջային ցանցերի, աուդիո և վիդեո ձայնագրման սարքերի բաժանորդների գտնվելու վայրի վերաբերյալ տվյալների հոսքերը։ Ակնկալվում է, որ այդ աղբյուրների համատարած օգտագործման մշակումն ու սկսվելը կխթանեն մեծ տվյալների տեխնոլոգիաների ներթափանցումը ինչպես գիտահետազոտական գործունեության, այնպես էլ առևտրի և պետական ​​կառավարման ոլորտում։

Վերլուծության մեթոդներ[խմբագրել | խմբագրել կոդը]

Մեծ տվյալների համար կիրառվող վերլուծության մեթոդներն ու տեխնիկան առաձնացվել են McKinsey-ի զեկույցում.

  • Data Mining դասի մեթոդներ, ասոցիատիվ կանոնների ուսուցում (անգլ.՝ association rule learning), դասակարգում (նոր տվյալների դասակարգման մեթոդներ՝ նախկինում առկա տվյալների նկատմամբ կիրառված սկզբունքների հիման վրա), կլաստերային վերլուծություն, ռեգրեսիոն վերլուծություն,
  • քրաուդսորսինգ, տվյալների դասակարգումը և հարստացումը լայն, անորոշ մարդկանց շրջանակի ուժերով, որ ներգրավվել են հանրային առաջարկի հիման վրա, առանց աշխատանքային հարաբերությունների մեջմտնելու,
  • տվյալների խառում և ինտեգրում (անգլ.՝ data fusion and integration), տեխնիկաների հավաքածու, որը թույլ է տալիս բազմաբնույթ տվյալներ ինտեգրել տարբեր աղբյուրներից խորքային վերլուծության հնարավորության համար, որպես այդպիսի տեխնիկայի օրինակներ, որոնք կազմում են մեթոդների այս դասը, բերվում են ազդանշանների թվային մշակում և բնական լեզվի մշակում (ներառյալ տոնայնության վերլուծությունը),
  • մեքենայական ուսուցում, ներառյալ ուսուցումն ուսուցչի հետ և առանց ուսուցչի, ինչպես նաև Ensemble learning՝ վիճակագրական վերլուծության կամ մեքենայական ուսուցման հիման վրա կառուցված մոդելների օգտագործումը բազային մոդելների հիման վրա համալիր կանխատեսումներ ստանալու համար (անգլ.՝ constituent models),
  • արհեստական նեյրոնային ցանց, ցանցային վերլուծություն, օպտիմիզացիա, ներառյալ գենետիկական ալգորիթմներ,
  • պատկերների ճանաչում,
  • կանխատեսող վերլուծություն,
  • իմիտացիոն մոդելավորում,
  • տարածական վերլուծություն (անգլ.՝ Spatial analysis), տվյալների մեջ տոպոլոգիական, երկրաչափական և աշխարհագրական տեղեկատվություն օգտագործող մեթոդների դաս,
  • վիճակագրական վերլուծություն, օրինակ՝ A/B-թեստավորում և ժամանակային շարքերի վերլուծություն,
  • վերլուծական տվյալների վիզուալիզացիա, տեղեկատվության ներկայացում նկարների, դիագրամների տեսքով, ինտերակտիվ հնարավորությունների և անիմացիայի միջոցով, ինչպես արդյունքների ստացման, այնպես էլ հետագա վերլուծության համար որպես ելակետային տվյալներ օգտագործելու համար։

Տեխնոլոգիաներ[խմբագրել | խմբագրել կոդը]

Ամենից հաճախ, որպես մեծ տվյալների մշակման հիմնական սկզբունք նշվում է հորիզոնական մասշտաբայնությունը, որն ապահովում է հարյուրավոր և հազարավոր հաշվարկային հանգույցներում բաշխված տվյալների մշակումը՝ առանց արդյունավետության անկման։ Մասնավորապես, այս սկզբունքը ներառված է NIST-ի մեծ տվյալների սահմանման մեջ։ Միևնույն ժամանակ, McKinsey-ը, բացի վերլուծաբանների մեծամասնության կողմից դիտարկված NoSQL, MapReduce, Hadoop, R տեխնոլոգիաներից, մեծ տվյալների մշակման համար կիրառելիության համատեքստում ներառում է նաև Business Intelligence տեխնոլոգիաներ և կապի տվյալների շտեմարանների կառավարման համակարգեր, որոնք ունեն SQL լեզվի աջակցություն[30]:

NoSQL[խմբագրել | խմբագրել կոդը]

MapReduce[խմբագրել | խմբագրել կոդը]

Hadoop[խմբագրել | խմբագրել կոդը]

R[խմբագրել | խմբագրել կոդը]

Սարքավորումներով լուծումներ[խմբագրել | խմբագրել կոդը]

Գոյություն ունեն մի շարք ապարատային և ծրագրային համակարգեր, որոնք ապահովում են նախապես կազմաձևված լուծումներ` մեծ տվյալների մշակման համար, ինչպիսիք են՝ Aster MapReduce սարքը (Teradata Corporation), Oracle Big Data, Greenplum (EMC Corporation, Greenplum հրավիրված ընկերության լուծումների հիման վրա)։ Այս համակարգերը մատակարարվում են որպես հեռահաղորդակցման միջոցներ, որոնք պատրաստ են տվյալների կենտրոններում տեղադրելու համար, պարունակում են սերվերների կլաստեր և հսկիչ ծրագրակազմ` զանգվածային-զուգահեռ մշակման համար։

Ռեզիդենտ հաշվարկների համար ապարատային լուծումները, առաջին հերթին, օպերատիվ հիշողության մեջ տվյալների բազաների և օպերատիվ հիշողության վերլուծությունների համար, մասնավորապես, առաջարկվող Hana ապարատային-ծրագրային համալիրների (SAP-ի նախապատկերված ապարատային-ծրագրային լուծում) և Exalytics-ի (Oracle-ի համալիրը, որը հիմնված է Timesten հարաբերական համակարգի և բազմաչափ Essbase վրա), ինչպես նաև երբեմն վերաբերում է մեծ տվյալների ոլորտի որոշումներին[31][32], չնայած այն հանգամանքին, որ նման մշակումը ի սկզբանե զանգվածային-զւգահեռ չէ, իսկ մեկ հանգույցի օպերատիվ հիշողության ծավալները սահմանափակվում են մի քանի տերաբայթերով։

Բացի այդ, մեծ տվյալների համար երբեմն լուծումները ներառում են ապարատային-ծրագրային համալիրներ, որոնք հիմնված են ավանդական հարաբերական տվյալների բազայի կառավարման համակարգերի վրա` Netezza, Teradata, Exadata, որոնք ի վիճակի են արդյունավետորեն մշակել կառուցվածքային տեղեկատվության տերաբայթերը և էքսաբայթերը՝ լուծելով կառուցվածքային տվյալների հսկայական ծավալի արագ որոնման և վերլուծական մշակման խնդիրները։ Նշվում է, որ չափազանց մեծ ծավալի տվյալների մշակման համար առաջին զանգվածային-զուգահեռ ապարատային և ծրագրային լուծումները եղել են Britton Lee ընկերության մեքենաները, որ առաջին անգամ թողարկվել են 1983 թվականին, և Teradata ընկերության մեքենաները (սկսել են թողարկվել 1984 թվականին, իսկ 1990 թվականին՝ Teradata-ն ներառել Britton Lee-ն)[33]:

DAS -ի տվյալների պահպանման համակարգերի ապարատային լուծումները, որոնք ուղղակիորեն կապված են հանգույցներին, SN-ճարտարապետությունում վերամշակման հանգույցների անկախության պայմաններում, երբեմն նույնպես վերագրվում են մեծ տվյալների տեխնոլոգիաներին։ Հենց մեծ տվյալների հայեցակարգի առաջացման հետ էկապվում 2010 թվականի սկզբին DAS լուծումների նկատմամբ հետաքրքրության աճը, 2000-ական թվականներին NAS-ի և SAN-ի դասերի ցանցային լուծումների կողմից դրանք դուրս մղելուց հետո[34]։

Ծանոթագրություններ[խմբագրել | խմբագրել կոդը]

  1. Праймесбергер, 2011, “Big data refers to the volume, variety and velocity of structured and unstructured data pouring through networks into processors and storage devices, along with the conversion of such data into business advice for enterprises.”
  2. PwC, 2010, Термин «большие данные» характеризует совокупности данных c возможным экспоненциальным ростом, которые слишком велики, слишком неформатированы или слишком неструктурированы для анализа традиционными методами., էջ 42
  3. McKinsey, 2011, “Big data” refers to datasets whose size is beyond the ability of typical database software tools to capture, store, manage, and analyze, էջ 1
  4. Майер-Шенбергер, 2014
  5. 5,0 5,1 Gartner, 2011
  6. Канаракус, Крис (2011-11-01)։ «Машина Больших Данных»։ Сети, № 04, 2011 (ռուսերեն)։ Открытые системы։ Արխիվացված է օրիգինալից 2012-09-03-ին։ Վերցված է 2011-11-12։ «…большие данные как «три V»: volume («объем» — петабайты хранимых данных), velocity («скорость» — получение данных, преобразование, загрузка, анализ и опрос в реальном времени) и variety («разнообразие» — обработка структурированных и полуструктурированных данных различных типов)» 
  7. PwC, 2010, К началу 2010 года Hadoop, MapReduce и ассоциированные с ними технологии с открытым кодом стали движущей силой целого нового явления, которое O’Reilly Media, The Economist и другие издания окрестили большими данными, էջ 42
  8. «The World’s Technological Capacity to Store, Communicate, and Compute Information»։ MartinHilbert.net։ Վերցված է ապրիլի 13, 2016 
  9. Дубова, Наталья (2011-11-03)։ «Большая конференция о Больших Данных» (ռուսերեն)։ Открытые системы։ Արխիվացված է օրիգինալից 2012-09-03-ին։ Վերցված է 2011-11-12։ «На форуме IBM Information on Demand, собравшем более 10 тыс. участников, центральной темой стала аналитика Больших Данных» 
  10. Henschen, Doug (2011-10-24)։ «Oracle Releases NoSQL Database, Advances Big Data Plans» (անգլերեն)։ InformationWeek։ Արխիվացված է օրիգինալից 2012-09-03-ին։ Վերցված է 2011-11-12 
  11. Finley, Klint (2011-07-17)։ «Steve Ballmer on Microsoft's Big Data Future and More in This Week's Business Intelligence Roundup» (անգլերեն)։ ReadWriteWeb։ Արխիվացված է օրիգինալից 2012-09-03-ին։ Վերցված է 2011-11-12 
  12. Шах, Агам (2011-08-19)։ «HP меняет персональные компьютеры на Большие Данные»։ Открытые системы։ Արխիվացված է օրիգինալից 2012-09-03-ին։ Վերցված է 2011-11-12 
  13. «EMC Tries To Unify Big Data Analytics» (անգլերեն)։ InformationWeek։ 2011-09-21։ Արխիվացված է օրիգինալից 2012-09-03-ին։ Վերցված է 2011-11-12 
  14. Woo, Benjamin և այլք: (2011-10-01)։ «IDC's Worldwide Big Data Taxonomy» (անգլերեն)։ International Data Corporation։ Արխիվացված է օրիգինալից 2012-09-03-ին։ Վերցված է 2011-11-12 
  15. Evelson, Boris and Hopkins, Brian (2011-09-20)։ «How Forrester Clients Are Using Big Data» (անգլերեն)։ Forrester Research։ Արխիվացված է օրիգինալից 2012-09-03-ին։ Վերցված է 2011-11-12 
  16. McKinsey, 2011
  17. Thibodeau, Patrick (2011-10-18)։ «Gartner's Top 10 IT challenges include exiting baby boomers, Big Data» (անգլերեն)։ Computerworld։ Արխիվացված է օրիգինալից 2012-09-03-ին։ Վերցված է 2011-11-12 
  18. Черняк, 2011, По оценкам экспертов, например McKinsey Institute, под влиянием Больших Данных наибольшей трансформации подвергнется сфера производства, здравоохранения, торговли, административного управления и наблюдения за индивидуальными перемещениями
  19. «MSc in Data Science»։ School of Computing (անգլերեն)։ Dundee University։ 2013-01-01։ Արխիվացված է օրիգինալից 2013-01-22-ին։ Վերցված է 2013-01-18։ «A data scientist is a person who excels at manipulating and analysing data, particularly large data sets that don’t fit easily into tabular structures (so-called “Big Data”)» 
  20. «Master of Science degree. Harvard's first degree program in Computational Science and Engineering is an intensive year of coursework leading to the Master of Science»։ Institute for Applied Computational Science (անգլերեն)։ Harvard University։ 2013-01-01։ Արխիվացված է օրիգինալից 2013-01-22-ին։ Վերցված է 2013-01-18։ «“…Many of the defining questions of this era in science and technology will be centered on ‘big data’ and machine learning. This master’s program will prepare students to answer those questions…”» 
  21. Simon Sharwood (2015-08-21)։ «Forget Big Data hype, says Gartner as it cans its hype cycle»։ The Register (անգլերեն)։ Վերցված է 2017-02-19 
  22. Doug Laney (2001-02-06)։ «3D Data Management: Controlling Data Volume, Velocity, and Variety»։ Meta Group (անգլերեն)։ Վերցված է 2017-02-19 
  23. «The Four V´s of Big Data»։ IBM (անգլերեն)։ 2011։ Վերցված է 2017-02-19 
  24. Neil Biehn (2013-05-01)։ «The Missing V’s in Big Data: Viability and Value»։ Wired (անգլերեն)։ Վերցված է 2017-02-19 
  25. Eileen McNulty (2014-05-22)։ «Understanding Big Data: The Seven V’s»։ Dataconomy (անգլերեն)։ Վերցված է 2017-02-19 
  26. Чэнь и др., 2014, էջ 4
  27. Чэнь и др., 2014, էջ 19—23
  28. McKinsey, 2011, էջեր 7—8
  29. Черняк, 2011
  30. McKinsey, 2011, էջեր 31—33
  31. Черняк, 2011, Следующим шагом может стать технология SAP HANA (High Performance Analytic Appliance), суть которой в размещении данных для анализа в оперативной памяти
  32. Darrow, Barb (2011-10-02)։ «Oracle launches Exalytics, an appliance for big data» (անգլերեն)։ GigaOM։ Արխիվացված է օրիգինալից 2012-09-03-ին։ Վերցված է 2011-11-12 
  33. Черняк, 2011, …первой создать «машину баз данных» удалось компании Britton-Lee в 1983 году на базе мультипроцессорной конфигурации процессоров семейства Zilog Z80. В последующем Britton-Lee была куплена Teradata, с 1984 года выпускавшая компьютеры MPP-архитектуры для систем поддержки принятия решений и хранилищ данных
  34. Леонид Черняк (2011-05-05)։ «Большие данные возрождают DAS»։ «Computerworld Россия», № 14, 2011 (ռուսերեն)։ Открытые системы։ Արխիվացված է օրիգինալից 2012-09-03-ին։ Վերցված է 2011-11-12 

Գրականություն[խմբագրել | խմբագրել կոդը]

Արտաքին հղումներ[խմբագրել | խմբագրել կոդը]