Deepfake

Վիքիպեդիայից՝ ազատ հանրագիտարանից

Deepfake- ները («խորը ուսուցում» և «կեղծ») սինթետիկ կրիչներ[1] են, որոնցում գոյություն ունեցող պատկերի կամ տեսանյութի անձը փոխարինվում է ուրիշի նմանությամբ։ Թեև «Կեղծման» գործողությունը նոր չէ, Deepfake-ները օգտագործում են բարդ մեթոդներ մեքենայական ուսուցման և արհեստական ինտելեկտի միջոցով՝ շահարկելու կամ ստեղծելու տեսողական և աուդիո բովանդակություն՝ իրական թվալու մեծ պոտենցիալով[2]։ Դիփֆեյքեր ստեղծելու համար օգտագործվող մեքենայական ուսուցման հիմնական մեթոդները հիմնված են խորը ուսուցման վրա և ներառում են գեներատիվ նեյրոնային ցանցերի ճարտարապետության ուսուցում, ինչպիսիք են ավտոկոդավորիչները կամ գեներատիվ հակառակորդ ցանցերը (GANs)[3][4]։

Deepfake-ը մեծ ուշադրություն է գրավել կեղծ լուրեր, կեղծիքների և ֆինանսական խարդախությունների մեջ դրանց օգտագործումից հետո։ Սա արձագանքներ է առաջացրել կառավարության կողմից հայտնաբերելու և սահմանափակելու դրանց օգտագործումը[5]

Դիփֆեյքի երկու օրինակ. թեև նրանք իրական մարդկանց պատկերներ են թվում, սակայն դեմքերը ստեղծվել են համակարգչով և այսպիսի մարդիկ գոյություն չունեն:

Պատմություն[խմբագրել | խմբագրել կոդը]

Լուսանկարների մանիպուլյացիան մշակվել է 19-րդ դարում և շուտով կիրառվել է շարժապատկերների վրա։ Տեխնոլոգիան անշեղորեն բարելավվել է 20-րդ դարում, և ավելի արագ՝ թվային տեսանյութերի միջոցով։

Deepfake տեխնոլոգիան մշակվել է ակադեմիական հաստատությունների հետազոտողների կողմից՝ սկսած 1990-ականներից, իսկ ավելի ուշ՝ առցանց համայնքների սիրողականների կողմից։

Ակադեմիական հետազոտություն[խմբագրել | խմբագրել կոդը]

Դիփֆեյքերի հետ կապված ակադեմիական հետազոտությունները հիմնականում գտնվում են համակարգչային տեսողության ոլորտում, որը համակարգչային գիտության ենթաոլորտ է։ Վաղ շրջադարձային նախագիծը եղել է Video Rewrite ծրագիրը, որը հրապարակվել է 1997 թվականին, այն փոփոխել է խոսող անձի առկա տեսագրությունը՝ պատկերելու համար, թե ինչպես է այդ անձը արտաբերում մեկ ուրիշ աուդիո ուղու մեջ պարունակվող բառերը[6]։ Դա առաջին համակարգն էր, որն ամբողջությամբ ավտոմատացրեց դեմքի այս տեսակի վերակենդանացումը, և դա արեց՝ օգտագործելով մեքենայական ուսուցման տեխնիկան, որպեսզի կապեր հաստատի տեսահոլովակի առարկայի հնչյունների և մարդու բերանի շարժումների միջև[6]։

Ժամանակակից ակադեմիական նախագծերը կենտրոնացած են ավելի իրական թվացող տեսահոլովակների ստեղծման և տեխնիկայի բարելավման վրա[7][8]:«Սինթեզավորում Օբամային» ծրագիրը, որը հրապարակվել է 2017 թվականին, փոփոխում է նախկին նախագահ Բարաք Օբամայի տեսագրությունը՝ պատկերելու համար, թե ինչպես է նա արտաբերում առանձին աուդիո ուղու մեջ պարունակվող խոսքերը։ Նախագիծը որպես հիմնական հետազոտական ներդրում մատնանշում է իր ֆոտոռեալիստական տեխնիկան՝ ձայնից բերանի շարժումները սինթեզելու համար։ Face2Face ծրագիրը, որը հրապարակվել է 2016 թվականին, փոփոխում է մարդու դեմքի տեսագրությունը՝ պատկերելով նրանց, իրական ժամանակում, այլ անձի դեմքի արտահայտությունով։ Նախագիծը որպես հիմնական հետազոտական ներդրում մատնանշում է դեմքի արտահայտությունները իրական ժամանակում վերարտադրելու առաջին մեթոդը՝ օգտագործելով տեսախցիկը, որը չի ֆիքսում խորությունը, ինչը հնարավոր է դարձնում տեխնիկայի իրականացումը սովորական սպառողական տեսախցիկների միջոցով[8]։

2018 թվականի օգոստոսին Բերկլիի Կալիֆորնիայի համալսարանի հետազոտողները հրապարակեցին մի ծրագիր, որը ներկայացնում էր իրենից <<կեղծ պարային>> հավելված, որը կարող է ստեղծել վարպետորեն պարելու ունակության տպավորություն՝ օգտագործելով արհեստական բանականություն[9][10]։ Այս նախագիծը ընդլայնեց deepfake-երի կիրառումը մարդու ամբողջ մարմնի վրա. նախորդ աշխատանքները կենտրոնացած էին գլխի կամ դեմքի վրա[9]։

Ընդհանուր առմամբ, ակնկալվում է, որ deepfake-ը ազդեցություն կունենա լրատվամիջոցների և հասարակության, մեդիա արտադրության, լրատվամիջոցների ներկայացուցչությունների, կանոնակարգերի և քաղաքականության վրա։

Սիրողական զարգացում[խմբագրել | խմբագրել կոդը]

Deepfake տերմինը առաջացել է մոտ 2017 թվականի վերջին Reddit-ի «deepfakes» անունով օգտատերից։ Նա, ինչպես նաև Reddit համայնքի այլ անդամները, r/deepfakes, կիսվել են իրենց ստեղծած deepfake-երով.

Առևտրային զարգացում[խմբագրել | խմբագրել կոդը]

2018 թվականի հունվարին գործարկվեց ֆիրմային desktop հավելված, որը կոչվում էր FakeApp[11]։ Այս հավելվածը թույլ է տալիս օգտատերերին հեշտությամբ ստեղծել և կիսվել տեսանյութերով՝ միմյանց հետ փոխած դեմքերով[12]։ 2019 թվականի դրությամբ FakeApp-ը փոխարինվել է բաց կոդով այլընտրանքներով, ինչպիսիք են Faceswap-ը, DeepFaceLab-ը և վեբ հիմնված հավելվածները, ինչպիսիք են DeepfakesWeb.com-ը[13][14][15]

Խոշոր ընկերությունները նույնպես սկսում են օգտագործել deepfake: Բջջային հավելվածների հսկա Momo-ն ստեղծեց Zao հավելվածը, որը թույլ է տալիս օգտվողներին իրենց դեմքը տեղադրել հեռուստատեսային և ֆիլմերի տեսահոլովակների վրա։

Մեթոդներ[խմբագրել | խմբագրել կոդը]

Այս օրինակում Deepfake տեխնոլոգիան օգտագործվում է դեմքի ձևավորում ստեղծելու համար։

Deepfake-ը հիմնված է մի տեսակի նեյրոնային ցանցերի վրա, որոնք կոչվում են autoencoder[16]: Դրանք բաղկացած են կոդավորիչից, որը պատկերը նվազեցնում է ավելի ցածր ծավալի, և ապակոդավորիչից, որը վերակառուցում է պատկերը թաքնված ներկայացումից։ Deepfake-ը օգտագործում է այս ճարտարապետությունը՝ ունենալով ունիվերսալ կոդավորիչ, որը կոդավորում է մարդուն թաքնված տարածության մեջ[17]։ Թաքնված ներկայացումը պարունակում է հիմնական հատկանիշները դեմքի հատկությունների և մարմնի կեցվածքի վերաբերյալ։ Այն կարող է այնուհետև վերծանվել թիրախի համար հատուկ պատրաստված մոդելի միջոցով:[5] Սա նշանակում է, որ թիրախի մանրամասն տեղեկատվությունը կտեղադրվի բնօրինակ տեսանյութի դեմքի և մարմնի հիմքում ընկած հատկանիշների վրա, որոնք ներկայացված են թաքնված տարածության մեջ։

Օգտագործում[խմբագրել | խմբագրել կոդը]

Արվեստ[խմբագրել | խմբագրել կոդը]

2018 թվականի մարտին բազմամասնագիտական նկարիչ Ջոզեֆ Այերլը հրապարակեց Un'emozione per semper 2.0 (անգլերեն անվանումը՝ The Italian Game(Իտալական խաղ)) տեսաարվեստը։ Նկարիչը օգտագործել է Deepfake տեխնոլոգիան՝ ստեղծելու արհեստական ինտելեկտի դերասանուհի՝ 80-ականների կինոաստղ Օռնելլա Մուտիի սինթետիկ տարբերակը, որը ճանապարհորդում է ժամանակի մեջ 1978-ից մինչև 2018 թվականը։ Մասաչուսեթսի տեխնոլոգիական ինստիտուտն անդրադարձել է այս արվեստի գործին «Creative Wisdom»[18] ուսումնասիրության մեջ։ Տեխնիկական իրականացման համար Այերլին օգտագործել է ֆոտոմոդել Քենդալ Ջեների տեսարանները։ Ծրագիրը Ջեների դեմքը փոխարինեց Օռնելլա Մուտիի արհեստական ինտելեկտով հաշվարկված դեմքով։ Արդյունքում՝ արհեստական ինտելեկտի դերասանուհին ունի իտալացի դերասանուհի Օռնելլա Մուտիի դեմքը և Քենդալ Ջեների մարմինը։

Քաղաքականություն[խմբագրել | խմբագրել կոդը]

Deepfake-ը օգտագործվել է հայտնի քաղաքական գործիչներին տեսանյութերում խեղաթյուրելու համար։

  • Առանձին տեսանյութերում Արգենտինայի նախագահ Մաուրիսիո Մակրիի դեմքը փոխարինվել է Ադոլֆ Հիտլերի դեմքով, իսկ Անգելա Մերկելի դեմքը փոխարինվել է Դոնալդ Թրամփի դեմքով[19] :
    Deepfake տեսանյութ. Վլադիմիր Պուտինը զգուշացնում է ամերիկացիներին ընտրություններին միջամտելու և քաղաքական պառակտման աճի մասին
    2018 թվականի ապրիլին Ջորդան Փիլը համագործակցելով Buzzfeed-ի հետ՝ Փիլի ձայնով Բարաք Օբամայի մասին deepfake ստեղծելու համար. այն ծառայել է որպես հանրային ծառայության հայտարարություն՝ deepfake-երի մասին տեղեկացվածությունը բարձրացնելու համար[20]։
  • 2020 թվականի ապրիլին Extinction Rebellion-ի բելգիական մասնաճյուղը Facebook-ում հրապարակեց Բելգիայի վարչապետ Սոֆի Վիլմեսի deepfake տեսանյութը։ Տեսանյութում խոսվում էր անտառահատումների և COVID-19-ի միջև հնարավոր կապի մասին։ Այն 24 ժամվա ընթացքում ունեցել է ավելի քան 100000 դիտում և ստացել բազմաթիվ մեկնաբանություններ։
  • 2019 թվականի հունիսին Միացյալ Նահանգների Կոնգրեսի Ներկայացուցիչների պալատի հետախուզության հանձնաժողովը լսումներ է անցկացրել ընտրությունները ազդելու համար deepfake-երի հնարավոր չարամիտ օգտագործման վերաբերյալ[21]։

Սոցիալական ցանցեր[խմբագրել | խմբագրել կոդը]

Deepfake-ը սկսել է օգտագործվել հանրահայտ սոցիալական մեդիա հարթակներում, մասնավորապես Zao-ի միջոցով՝ չինական հավելվածի միջոցով, որը թույլ է տալիս օգտատերերին փոխարինել իրենց դեմքերը ֆիլմերի և հեռուստատեսային շոուների հերոսների դեմքերով, ինչպիսիք են Romeo + Juliet-ը և Game of Thrones-ի հերոսները[22]։ Հավելվածն ի սկզբանե ենթարկվել է հսկողության՝ կապված օգտատերերի տվյալների և գաղտնիության քաղաքականության հետ, որից հետո ընկերությունը հայտարարություն է տարածել՝ պնդելով, որ կվերանայի քաղաքականությունը[23]։ 2020 թվականի հունվարին Facebook-ը հայտարարեց, որ իր հարթակներում նոր միջոցներ է ներդնում օգտատերերի տվյալների ապահովությունը երաշխավորելու համար[24]։

Ֆիլմեր[խմբագրել | խմբագրել կոդը]

Ենթադրություններ են եղել այն մասին, որ դիփֆեյքերն օգտագործվելու են ապագա ֆիլմերի համար թվային դերասաններ ստեղծելու համար։ Թվային ձևով կառուցված/փոփոխված մարդիկ նախկինում արդեն օգտագործվել են ֆիլմերում, և խորը կեղծիքները կարող են մոտ ապագայում նոր զարգացումների նպաստել[25]։ Deepfake տեխնոլոգիան արդեն օգտագործվել է երկրպագուների կողմից՝ գոյություն ունեցող ֆիլմերում դեմքեր ավելացնելու կամ փոխարինելու համար, ինչպես օրինակ՝ Հարիսոն Ֆորդի երիտասարդ դեմքը Հան Սոլոյի դեմքին տեղադրելը Solo: A Star Wars Story-ում[26]։

Շանտաժ[խմբագրել | խմբագրել կոդը]

Deepfake-ը կարող է օգտագործվել շանտաժի նյութեր ստեղծելու համար, որոնք կեղծ մեղադրանք են ներկայացնում զոհին։ Այնուամենայնիվ, քանի որ կեղծիքները չեն կարող արժանահավատորեն տարբերվել իսկական նյութերից, շանտաժի զոհերն կարող են պնդել, որ տեսանյութերը կամ նկարները կեղծ են՝ հերքելով դրանց արժանահավատությունը։

Մտահոգություններ[խմբագրել | խմբագրել կոդը]

Խարդախություն[խմբագրել | խմբագրել կոդը]

«Կիմ Չեն Ըն»

Աուդիո կեղծիքները օգտագործվել են որպես սոցիալական ճարտարագիտության խարդախությունների մաս՝ մարդկանց խաբկանքով ստիպելով մտածել, որ նրանք հրահանգներ են ստանում վստահելի անհատից[27] : 2019 թվականին բրիտանական էներգետիկ ընկերության գործադիր տնօրենին խաբել են հեռախոսով, նրան հրամայելով 220,000 եվրո փոխանցել հունգարական բանկային հաշվին, մի անհատի կողմից, ով աուդիո deepfake տեխնոլոգիան օգտագործել է ընկերության մայր ընկերության գործադիր տնօրենի ձայնը նմանակելու համար[28]։

Վավերականություն[խմբագրել | խմբագրել կոդը]

Թեև կեղծ լուսանկարները վաղուց շատ են եղել, տեսանյութերը կեղծել ավելի դժվար է եղել, և խորը ֆեյքերի առկայությունը մեծացնում է տեսանյութերը որպես իրական կամ ոչ իրական դասակարգելու դժվարությունը[19]:Արհեստական բանականությունը հետազոտող Ալեքս Չամպանդարդն ասում է, որ մարդիկ պետք է իմանան, թե ինչ արագությամբ կարելի է ինչ որ բանի ռեպուտացիան կործանել deepfake տեխնոլոգիայի միջոցով, և որ խնդիրը տեխնոլոգիայի մեջ չէ, այլ տեղեկատվության և լրագրության հանդեպ մարդկանց ունեցած վստահության մեջ։ Deepfake-ը կարող է օգտագործվել զրպարտելու և ապատեղեկատվություն տարածելու համար[29]։ Առաջնային որոգայթն այն է, որ կարող է գալ ժամանկ, երբ այլևս հնարավոր չի լինի որոշել, թե արդյոք լրատվամիջոցի բովանդակությունը համապատասխանում է ճշմարտությանը։

Ծանոթագրություններ[խմբագրել | խմբագրել կոդը]

  1. «Prepare, Don't Panic: Synthetic Media and Deepfakes». WITNESS Media Lab (ամերիկյան անգլերեն). Վերցված է 2021 թ․ նոյեմբերի 16-ին.
  2. Kietzmann, Jan; Lee, Linda W.; McCarthy, Ian P.; Kietzmann, Tim C. (2020 թ․ մարտի 1). «Deepfakes: Trick or treat?». Business Horizons. ARTIFICIAL INTELLIGENCE AND MACHINE LEARNING (անգլերեն). 63 (2): 135–146. doi:10.1016/j.bushor.2019.11.006. ISSN 0007-6813.
  3. «You thought fake news was bad? Deep fakes are where truth goes to die». the Guardian (անգլերեն). 2018 թ․ նոյեմբերի 12. Վերցված է 2021 թ․ նոյեմբերի 16-ին.
  4. PhD, Sven Charleer (2019 թ․ մայիսի 17). «Family fun with deepfakes. Or how I got my wife onto the Tonight Show». Medium (անգլերեն). Վերցված է 2021 թ․ նոյեմբերի 16-ին.
  5. Clarke, Yvette D. (2019 թ․ հունիսի 28). «H.R.3230 - 116th Congress (2019-2020): Defending Each and Every Person from False Appearances by Keeping Exploitation Subject to Accountability Act of 2019». www.congress.gov. Վերցված է 2021 թ․ նոյեմբերի 16-ին.
  6. 6,0 6,1 Bregler, Christoph; Covell, Michele; Slaney, Malcolm (1997 թ․ օգոստոսի 3). «Video Rewrite: driving visual speech with audio». Proceedings of the 24th annual conference on Computer graphics and interactive techniques. SIGGRAPH '97. USA: ACM Press/Addison-Wesley Publishing Co.: 353–360. doi:10.1145/258734.258880. ISBN 978-0-89791-896-1.
  7. Suwajanakorn, Supasorn; Seitz, Steven M.; Kemelmacher-Shlizerman, Ira (2017 թ․ հուլիսի 20). «Synthesizing Obama: learning lip sync from audio». ACM Transactions on Graphics. 36 (4): 95:1–95:13. doi:10.1145/3072959.3073640. ISSN 0730-0301.
  8. 8,0 8,1 Thies, Justus; Zollhöfer, Michael; Stamminger, Marc; Theobalt, Christian; Nießner, Matthias (2016-06). «Face2Face: Real-Time Face Capture and Reenactment of RGB Videos». 2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR): 2387–2395. doi:10.1109/CVPR.2016.262.
  9. 9,0 9,1 «An AI program will soon be here to help your deepfake dancing - just don't call it deepfake». Business Insider Australia (ավստրալիական անգլերեն). 2018 թ․ օգոստոսի 27. Արխիվացված է օրիգինալից 2019 թ․ ապրիլի 10-ին. Վերցված է 2021 թ․ նոյեմբերի 16-ին.
  10. Vincent, James (2018 թ․ օգոստոսի 26). «Deepfakes for dancing: you can now use AI to fake those dance moves you always wanted». The Verge (անգլերեն). Վերցված է 2021 թ․ նոյեմբերի 16-ին.
  11. «What is a Deepfake and How Are They Made?». Online Tech Tips (ամերիկյան անգլերեն). 2019 թ․ մայիսի 23. Վերցված է 2021 թ․ նոյեմբերի 16-ին.
  12. Robertson, Adi (2018 թ․ փետրվարի 11). «I'm using AI to face-swap Elon Musk and Jeff Bezos, and I'm really bad at it». The Verge (անգլերեն). Վերցված է 2021 թ․ նոյեմբերի 16-ին.
  13. «Make Your Own Deepfakes [Online App]». Deepfakes Web. Վերցված է 2021 թ․ նոյեմբերի 16-ին.
  14. «Welcome». Faceswap (ամերիկյան անգլերեն). Վերցված է 2021 թ․ նոյեմբերի 16-ին.
  15. iperov (2021 թ․ նոյեմբերի 16), DeepFaceLab, Վերցված է 2021 թ․ նոյեմբերի 16-ին
  16. Zucconi, Alan (2018 թ․ մարտի 14). «Understanding the Technology Behind DeepFakes». Alan Zucconi (ամերիկյան անգլերեն). Վերցված է 2021 թ․ նոյեմբերի 16-ին.
  17. Kan, Enoch (2018 թ․ դեկտեմբերի 10). «What The Heck Are VAE-GANs?». Medium (անգլերեն). Վերցված է 2021 թ․ նոյեմբերի 16-ին.
  18. «PART 6: MEDIA CO-CREATION WITH NON-HUMAN SYSTEMS · Works in Progress». web.archive.org. 2020 թ․ մարտի 4. Արխիվացված է օրիգինալից 2020 թ․ մարտի 4-ին. Վերցված է 2021 թ․ նոյեմբերի 16-ին.
  19. 19,0 19,1 Bezmalinovic, Tomislav. ««Deepfakes» - Wenn Merkel plötzlich Trumps Gesicht trägt: die gefährliche Manipulation von Bildern und Videos». Aargauer Zeitung (գերմաներեն). Վերցված է 2021 թ․ նոյեմբերի 16-ին.
  20. Romano, Aja (2018 թ․ ապրիլի 18). «Jordan Peele's simulated Obama PSA is a double-edged warning against fake news». Vox (անգլերեն). Վերցված է 2021 թ․ նոյեմբերի 16-ին.
  21. CNN, Donie O'Sullivan. «Congress to investigate deepfakes as doctored Pelosi video causes stir». CNN. Վերցված է 2021 թ․ նոյեմբերի 16-ին. {{cite web}}: |last= has generic name (օգնություն)
  22. Damiani, Jesse. «Chinese Deepfake App Zao Goes Viral, Faces Immediate Criticism Over User Data And Security Policy». Forbes (անգլերեն). Վերցված է 2021 թ․ նոյեմբերի 16-ին.
  23. Porter, Jon (2019 թ․ սեպտեմբերի 2). «Another convincing deepfake app goes viral prompting immediate privacy backlash». The Verge (անգլերեն). Վերցված է 2021 թ․ նոյեմբերի 16-ին.
  24. «Ahead of Irish and US elections, Facebook announces new measures against 'deepfake' videos». independent (անգլերեն). Վերցված է 2021 թ․ նոյեմբերի 16-ին.
  25. Kemp, Luke (2019 թ․ հուլիսի 8). «In the age of deepfakes, could virtual actors put humans out of business?». the Guardian (անգլերեն). Վերցված է 2021 թ․ նոյեմբերի 16-ին.
  26. Radulovic, Petrana (2018 թ․ հոկտեմբերի 17). «Harrison Ford is the star of Solo: A Star Wars Story thanks to deepfake technology». Polygon (ամերիկյան անգլերեն). Վերցված է 2021 թ․ նոյեմբերի 16-ին.
  27. Statt, Nick (2019 թ․ սեպտեմբերի 5). «Thieves are now using AI deepfakes to trick companies into sending them money». The Verge (անգլերեն). Վերցված է 2021 թ․ նոյեմբերի 16-ին.
  28. Damiani, Jesse. «A Voice Deepfake Was Used To Scam A CEO Out Of $243,000». Forbes (անգլերեն). Վերցված է 2021 թ․ նոյեմբերի 16-ին.
  29. «Weaponised deep fakes: National security and democracy on JSTOR». www.jstor.org (անգլերեն). Վերցված է 2021 թ․ նոյեմբերի 16-ին.

Արտաքին հղումներ[խմբագրել | խմբագրել կոդը]

  1. WITNESS Media Lab | Prepare, Don't Panic: Synthetic Media and Deepfakes - WITNESS Media Lab
  2. Kietzmann Jan, Lee Linda W., McCarthy Ian P., Kietzmann Tim C. (2020-03-01)։ «Deepfakes: Trick or treat?»։ Business Horizons։ ARTIFICIAL INTELLIGENCE AND MACHINE LEARNING (անգլերեն) 63 (2)։ 135–146։ ISSN 0007-6813։ doi:10.1016/j.bushor.2019.11.006