Deepfake

Վիքիպեդիայից՝ ազատ հանրագիտարանից
Jump to navigation Jump to search

Deepfake- ները («խորը ուսուցում» և «կեղծ») սինթետիկ կրիչներ[1] են, որոնցում գոյություն ունեցող պատկերի կամ տեսանյութի անձը փոխարինվում է ուրիշի նմանությամբ։ Թեև <<Կեղծման>> գործողությունը նոր չէ, Deepfake-ները օգտագործում են բարդ մեթոդներ մեքենայական ուսուցման և արհեստական ինտելեկտի միջոցով՝ շահարկելու կամ ստեղծելու տեսողական և աուդիո բովանդակություն՝ իրական թվալու մեծ պոտենցիալով[2]: Դիփֆեյքեր ստեղծելու համար օգտագործվող մեքենայական ուսուցման հիմնական մեթոդները հիմնված են խորը ուսուցման վրա և ներառում են գեներատիվ նեյրոնային ցանցերի ճարտարապետության ուսուցում, ինչպիսիք են ավտոկոդավորիչները կամ գեներատիվ հակառակորդ ցանցերը (GANs)::[3][4]

Deepfake-ը մեծ ուշադրություն է գրավել կեղծ լուրեր, կեղծիքների և ֆինանսական խարդախությունների մեջ դրանց օգտագործումից հետո: Սա արձագանքներ է առաջացրել կառավարության կողմից հայտնաբերելու և սահմանափակելու դրանց օգտագործումը[5]

Դիփֆեյքի երկու օրինակ. թեև նրանք իրական մարդկանց պատկերներ են թվում, սակայն դեմքերը ստեղծվել են համակարգչով և այսպիսի մարդիկ գոյություն չունեն:

Պատմություն[խմբագրել | խմբագրել կոդը]

Լուսանկարների մանիպուլյացիան մշակվել է 19-րդ դարում և շուտով կիրառվել է շարժապատկերների վրա: Տեխնոլոգիան անշեղորեն բարելավվել է 20-րդ դարում, և ավելի արագ՝ թվային տեսանյութերի միջոցով:

Deepfake տեխնոլոգիան մշակվել է ակադեմիական հաստատությունների հետազոտողների կողմից՝ սկսած 1990-ականներից, իսկ ավելի ուշ՝ առցանց համայնքների սիրողականների կողմից:

Ակադեմիական հետազոտություն[խմբագրել | խմբագրել կոդը]

Դիփֆեյքերի հետ կապված ակադեմիական հետազոտությունները հիմնականում գտնվում են համակարգչային տեսողության ոլորտում, որը համակարգչային գիտության ենթաոլորտ է: Վաղ շրջադարձային նախագիծը եղել է Video Rewrite ծրագիրը, որը հրապարակվել է 1997 թվականին, այն փոփոխել է խոսող անձի առկա տեսագրությունը՝ պատկերելու համար, թե ինչպես է այդ անձը արտաբերում մեկ ուրիշ աուդիո ուղու մեջ պարունակվող բառերը[6]: Դա առաջին համակարգն էր, որն ամբողջությամբ ավտոմատացրեց դեմքի այս տեսակի վերակենդանացումը, և դա արեց՝ օգտագործելով մեքենայական ուսուցման տեխնիկան, որպեսզի կապեր հաստատի տեսահոլովակի առարկայի հնչյունների և մարդու բերանի շարժումների միջև։[6]

Ժամանակակից ակադեմիական նախագծերը կենտրոնացած են ավելի իրական թվացող տեսահոլովակների ստեղծման և տեխնիկայի բարելավման վրա[7][8]:«Սինթեզավորում Օբամային» ծրագիրը, որը հրապարակվել է 2017 թվականին, փոփոխում է նախկին նախագահ Բարաք Օբամայի տեսագրությունը՝ պատկերելու համար, թե ինչպես է նա արտաբերում առանձին աուդիո ուղու մեջ պարունակվող խոսքերը: Նախագիծը որպես հիմնական հետազոտական ​​ներդրում մատնանշում է իր ֆոտոռեալիստական ​​տեխնիկան՝ ձայնից բերանի շարժումները սինթեզելու համար: Face2Face ծրագիրը, որը հրապարակվել է 2016 թվականին, փոփոխում է մարդու դեմքի տեսագրությունը՝ պատկերելով նրանց, իրական ժամանակում, այլ անձի դեմքի արտահայտությունով ։ Նախագիծը որպես հիմնական հետազոտական ​​ներդրում մատնանշում է դեմքի արտահայտությունները իրական ժամանակում վերարտադրելու առաջին մեթոդը՝ օգտագործելով տեսախցիկը, որը չի ֆիքսում խորությունը, ինչը հնարավոր է դարձնում տեխնիկայի իրականացումը սովորական սպառողական տեսախցիկների միջոցով:[8]

2018 թվականի օգոստոսին Բերկլիի Կալիֆորնիայի համալսարանի հետազոտողները հրապարակեցին մի ծրագիր, որը ներկայացնում էր իրենից <<կեղծ պարային>> հավելված, որը կարող է ստեղծել վարպետորեն պարելու ունակության տպավորություն՝ օգտագործելով արհեստական բանականություն:[9][10] Այս նախագիծը ընդլայնեց deepfake-երի կիրառումը մարդու ամբողջ մարմնի վրա. նախորդ աշխատանքները կենտրոնացած էին գլխի կամ դեմքի վրա:[9]

Ընդհանուր առմամբ, ակնկալվում է, որ deepfake-ը ազդեցություն կունենա լրատվամիջոցների և հասարակության, մեդիա արտադրության, լրատվամիջոցների ներկայացուցչությունների, կանոնակարգերի և քաղաքականության վրա:

Սիրողական զարգացում[խմբագրել | խմբագրել կոդը]

Deepfake տերմինը առաջացել է մոտ 2017 թվականի վերջին Reddit-ի «deepfakes» անունով օգտատերից։ Նա, ինչպես նաև Reddit համայնքի այլ անդամները, r/deepfakes, կիսվել են իրենց ստեղծած deepfake-երով.

Առևտրային զարգացում[խմբագրել | խմբագրել կոդը]

2018 թվականի հունվարին գործարկվեց ֆիրմային desktop հավելված, որը կոչվում էր FakeApp։[11] Այս հավելվածը թույլ է տալիս օգտատերերին հեշտությամբ ստեղծել և կիսվել տեսանյութերով՝ միմյանց հետ փոխած դեմքերով։[12] 2019 թվականի դրությամբ FakeApp-ը փոխարինվել է բաց կոդով այլընտրանքներով, ինչպիսիք են Faceswap-ը, DeepFaceLab-ը և վեբ հիմնված հավելվածները, ինչպիսիք են DeepfakesWeb.com-ը[13][14][15]

Խոշոր ընկերությունները նույնպես սկսում են օգտագործել deepfake: Բջջային հավելվածների հսկա Momo-ն ստեղծեց Zao հավելվածը, որը թույլ է տալիս օգտվողներին իրենց դեմքը տեղադրել հեռուստատեսային և ֆիլմերի տեսահոլովակների վրա:

Մեթոդներ[խմբագրել | խմբագրել կոդը]

Այս օրինակում Deepfake տեխնոլոգիան օգտագործվում է դեմքի ձևավորում ստեղծելու համար։

Deepfake-ը հիմնված է մի տեսակի նեյրոնային ցանցերի վրա, որոնք կոչվում են autoencoder:[16] Դրանք բաղկացած են կոդավորիչից, որը պատկերը նվազեցնում է ավելի ցածր ծավալի, և ապակոդավորիչից, որը վերակառուցում է պատկերը թաքնված ներկայացումից: Deepfake-ը օգտագործում է այս ճարտարապետությունը՝ ունենալով ունիվերսալ կոդավորիչ, որը կոդավորում է մարդուն թաքնված տարածության մեջ[17]: Թաքնված ներկայացումը պարունակում է հիմնական հատկանիշները դեմքի հատկությունների և մարմնի կեցվածքի վերաբերյալ: Այն կարող է այնուհետև վերծանվել թիրախի համար հատուկ պատրաստված մոդելի միջոցով:[5] Սա նշանակում է, որ թիրախի մանրամասն տեղեկատվությունը կտեղադրվի բնօրինակ տեսանյութի դեմքի և մարմնի հիմքում ընկած հատկանիշների վրա, որոնք ներկայացված են թաքնված տարածության մեջ:

Օգտագործում[խմբագրել | խմբագրել կոդը]

Արվեստ[խմբագրել | խմբագրել կոդը]

2018 թվականի մարտին բազմամասնագիտական նկարիչ Ջոզեֆ Այերլը հրապարակեց Un'emozione per semper 2.0 (անգլերեն անվանումը՝ The Italian Game(Իտալական խաղ)) տեսաարվեստը։ Նկարիչը օգտագործել է Deepfake տեխնոլոգիան՝ ստեղծելու արհեստական ինտելեկտի դերասանուհի՝ 80-ականների կինոաստղ Օռնելլա Մուտիի սինթետիկ տարբերակը, որը ճանապարհորդում է ժամանակի մեջ 1978-ից մինչև 2018 թվականը: Մասաչուսեթսի տեխնոլոգիական ինստիտուտն անդրադարձել է այս արվեստի գործին «Creative Wisdom»[18] ուսումնասիրության մեջ։ Տեխնիկական իրականացման համար Այերլին օգտագործել է ֆոտոմոդել Քենդալ Ջեների տեսարանները։ Ծրագիրը Ջեների դեմքը փոխարինեց Օռնելլա Մուտիի արհեստական ինտելեկտով հաշվարկված դեմքով: Արդյունքում՝ արհեստական ինտելեկտի դերասանուհին ունի իտալացի դերասանուհի Օռնելլա Մուտիի դեմքը և Քենդալ Ջեների մարմինը։

Քաղաքականություն[խմբագրել | խմբագրել կոդը]

Deepfake-ը օգտագործվել է հայտնի քաղաքական գործիչներին տեսանյութերում խեղաթյուրելու համար:

  • Առանձին տեսանյութերում Արգենտինայի նախագահ Մաուրիսիո Մակրիի դեմքը փոխարինվել է Ադոլֆ Հիտլերի դեմքով, իսկ Անգելա Մերկելի դեմքը փոխարինվել է Դոնալդ Թրամփի դեմքով [19] :
    Deepfake տեսանյութ. Վլադիմիր Պուտինը զգուշացնում է ամերիկացիներին ընտրություններին միջամտելու և քաղաքական պառակտման աճի մասին
    2018 թվականի ապրիլին Ջորդան Փիլը համագործակցելով Buzzfeed-ի հետ՝ Փիլի ձայնով Բարաք Օբամայի մասին deepfake ստեղծելու համար. այն ծառայել է որպես հանրային ծառայության հայտարարություն՝ deepfake-երի մասին տեղեկացվածությունը բարձրացնելու համար:[20]
  • 2020 թվականի ապրիլին Extinction Rebellion-ի բելգիական մասնաճյուղը Facebook-ում հրապարակեց Բելգիայի վարչապետ Սոֆի Վիլմեսի deepfake տեսանյութը։ Տեսանյութում խոսվում էր անտառահատումների և COVID-19-ի միջև հնարավոր կապի մասին։ Այն 24 ժամվա ընթացքում ունեցել է ավելի քան 100000 դիտում և ստացել բազմաթիվ մեկնաբանություններ։
  • 2019 թվականի հունիսին Միացյալ Նահանգների Կոնգրեսի Ներկայացուցիչների պալատի հետախուզության հանձնաժողովը լսումներ է անցկացրել ընտրությունները ազդելու համար deepfake-երի հնարավոր չարամիտ օգտագործման վերաբերյալ[21]:

Սոցիալական ցանցեր[խմբագրել | խմբագրել կոդը]

Deepfake-ը սկսել է օգտագործվել հանրահայտ սոցիալական մեդիա հարթակներում, մասնավորապես Zao-ի միջոցով՝ չինական հավելվածի միջոցով, որը թույլ է տալիս օգտատերերին փոխարինել իրենց դեմքերը ֆիլմերի և հեռուստատեսային շոուների հերոսների դեմքերով, ինչպիսիք են Romeo + Juliet-ը և Game of Thrones-ի հերոսները: [22]Հավելվածն ի սկզբանե ենթարկվել է հսկողության՝ կապված օգտատերերի տվյալների և գաղտնիության քաղաքականության հետ, որից հետո ընկերությունը հայտարարություն է տարածել՝ պնդելով, որ կվերանայի քաղաքականությունը:[23] 2020 թվականի հունվարին Facebook-ը հայտարարեց, որ իր հարթակներում նոր միջոցներ է ներդնում օգտատերերի տվյալների ապահովությունը երաշխավորելու համար։[24]

Ֆիլմեր[խմբագրել | խմբագրել կոդը]

Ենթադրություններ են եղել այն մասին, որ դիփֆեյքերն օգտագործվելու են ապագա ֆիլմերի համար թվային դերասաններ ստեղծելու համար: Թվային ձևով կառուցված/փոփոխված մարդիկ նախկինում արդեն օգտագործվել են ֆիլմերում, և խորը կեղծիքները կարող են մոտ ապագայում նոր զարգացումների նպաստել [25]: Deepfake տեխնոլոգիան արդեն օգտագործվել է երկրպագուների կողմից՝ գոյություն ունեցող ֆիլմերում դեմքեր ավելացնելու կամ փոխարինելու համար, ինչպես օրինակ՝ Հարիսոն Ֆորդի երիտասարդ դեմքը Հան Սոլոյի դեմքին տեղադրելը Solo: A Star Wars Story-ում [26]։

Շանտաժ[խմբագրել | խմբագրել կոդը]

Deepfake-ը կարող է օգտագործվել շանտաժի նյութեր ստեղծելու համար, որոնք կեղծ մեղադրանք են ներկայացնում զոհին: Այնուամենայնիվ, քանի որ կեղծիքները չեն կարող արժանահավատորեն տարբերվել իսկական նյութերից, շանտաժի զոհերն կարող են պնդել, որ տեսանյութերը կամ նկարները կեղծ են՝ հերքելով դրանց արժանահավատությունը:

Մտահոգություններ[խմբագրել | խմբագրել կոդը]

Խարդախություն[խմբագրել | խմբագրել կոդը]

«Կիմ Չեն Ըն»

Աուդիո կեղծիքները օգտագործվել են որպես սոցիալական ճարտարագիտության խարդախությունների մաս՝ մարդկանց խաբկանքով ստիպելով մտածել, որ նրանք հրահանգներ են ստանում վստահելի անհատից [27] : 2019 թվականին բրիտանական էներգետիկ ընկերության գործադիր տնօրենին խաբել են հեռախոսով, նրան հրամայելով 220,000 եվրո փոխանցել հունգարական բանկային հաշվին, մի անհատի կողմից, ով աուդիո deepfake տեխնոլոգիան օգտագործել է ընկերության մայր ընկերության գործադիր տնօրենի ձայնը նմանակելու համար [28]։

Վավերականություն[խմբագրել | խմբագրել կոդը]

Թեև կեղծ լուսանկարները վաղուց շատ են եղել, տեսանյութերը կեղծել ավելի դժվար է եղել, և խորը ֆեյքերի առկայությունը մեծացնում է տեսանյութերը որպես իրական կամ ոչ իրական դասակարգելու դժվարությունը:[19]Արհեստական բանականությունը հետազոտող Ալեքս Չամպանդարդն ասում է, որ մարդիկ պետք է իմանան, թե ինչ արագությամբ կարելի է ինչ որ բանի ռեպուտացիան կործանել deepfake տեխնոլոգիայի միջոցով, և որ խնդիրը տեխնոլոգիայի մեջ չէ, այլ տեղեկատվության և լրագրության հանդեպ մարդկանց ունեցած վստահության մեջ : Deepfake-ը կարող է օգտագործվել զրպարտելու և ապատեղեկատվություն տարածելու համար:[29] Առաջնային որոգայթն այն է, որ կարող է գալ ժամանկ, երբ այլևս հնարավոր չի լինի որոշել, թե արդյոք լրատվամիջոցի բովանդակությունը համապատասխանում է ճշմարտությանը:

Ծանոթագրություններ[խմբագրել | խմբագրել կոդը]

  1. WITNESS Media Lab | Prepare, Don't Panic: Synthetic Media and Deepfakes - WITNESS Media Lab
  2. Kietzmann Jan, Lee Linda W., McCarthy Ian P., Kietzmann Tim C. (2020-03-01)։ «Deepfakes: Trick or treat?»։ Business Horizons։ ARTIFICIAL INTELLIGENCE AND MACHINE LEARNING (անգլերեն) 63 (2): 135–146։ ISSN 0007-6813։ doi:10.1016/j.bushor.2019.11.006
  1. «Prepare, Don't Panic: Synthetic Media and Deepfakes»։ WITNESS Media Lab (en-US)։ Վերցված է 2021-11-16 
  2. Kietzmann Jan, Lee Linda W., McCarthy Ian P., Kietzmann Tim C. (2020-03-01)։ «Deepfakes: Trick or treat?»։ Business Horizons։ ARTIFICIAL INTELLIGENCE AND MACHINE LEARNING (անգլերեն) 63 (2): 135–146։ ISSN 0007-6813։ doi:10.1016/j.bushor.2019.11.006 
  3. «You thought fake news was bad? Deep fakes are where truth goes to die»։ the Guardian (անգլերեն)։ 2018-11-12։ Վերցված է 2021-11-16 
  4. PhD Sven Charleer (2019-05-17)։ «Family fun with deepfakes. Or how I got my wife onto the Tonight Show»։ Medium (անգլերեն)։ Վերցված է 2021-11-16 
  5. Clarke Yvette D. (2019-06-28)։ «H.R.3230 - 116th Congress (2019-2020): Defending Each and Every Person from False Appearances by Keeping Exploitation Subject to Accountability Act of 2019»։ www.congress.gov։ Վերցված է 2021-11-16 
  6. 6,0 6,1 Bregler Christoph, Covell Michele, Slaney Malcolm (1997-08-03)։ «Video Rewrite: driving visual speech with audio»։ Proceedings of the 24th annual conference on Computer graphics and interactive techniques։ SIGGRAPH '97 (USA: ACM Press/Addison-Wesley Publishing Co.): 353–360։ ISBN 978-0-89791-896-1։ doi:10.1145/258734.258880 
  7. Suwajanakorn Supasorn, Seitz Steven M., Kemelmacher-Shlizerman Ira (2017-07-20)։ «Synthesizing Obama: learning lip sync from audio»։ ACM Transactions on Graphics 36 (4): 95:1–95:13։ ISSN 0730-0301։ doi:10.1145/3072959.3073640 
  8. 8,0 8,1 Thies Justus, Zollhöfer Michael, Stamminger Marc, Theobalt Christian, Nießner Matthias (2016-06)։ «Face2Face: Real-Time Face Capture and Reenactment of RGB Videos»։ 2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR): 2387–2395։ doi:10.1109/CVPR.2016.262 
  9. 9,0 9,1 «An AI program will soon be here to help your deepfake dancing - just don't call it deepfake»։ Business Insider Australia (en-AU)։ 2018-08-27։ Վերցված է 2021-11-16 
  10. Vincent James (2018-08-26)։ «Deepfakes for dancing: you can now use AI to fake those dance moves you always wanted»։ The Verge (անգլերեն)։ Վերցված է 2021-11-16 
  11. «What is a Deepfake and How Are They Made?»։ Online Tech Tips (en-US)։ 2019-05-23։ Վերցված է 2021-11-16 
  12. Robertson Adi (2018-02-11)։ «I’m using AI to face-swap Elon Musk and Jeff Bezos, and I’m really bad at it»։ The Verge (անգլերեն)։ Վերցված է 2021-11-16 
  13. «Make Your Own Deepfakes [Online App]»։ Deepfakes Web։ Վերցված է 2021-11-16 
  14. «Welcome»։ Faceswap (en-US)։ Վերցված է 2021-11-16 
  15. iperov (2021-11-16), DeepFaceLab, https://github.com/iperov/DeepFaceLab, վերցված է 2021-11-16 
  16. Zucconi Alan (2018-03-14)։ «Understanding the Technology Behind DeepFakes»։ Alan Zucconi (en-US)։ Վերցված է 2021-11-16 
  17. Kan Enoch (2018-12-10)։ «What The Heck Are VAE-GANs?»։ Medium (անգլերեն)։ Վերցված է 2021-11-16 
  18. «PART 6: MEDIA CO-CREATION WITH NON-HUMAN SYSTEMS · Works in Progress»։ web.archive.org։ 2020-03-04։ Վերցված է 2021-11-16 
  19. 19,0 19,1 Bezmalinovic Tomislav։ ««Deepfakes» - Wenn Merkel plötzlich Trumps Gesicht trägt: die gefährliche Manipulation von Bildern und Videos»։ Aargauer Zeitung (գերմաներեն)։ Վերցված է 2021-11-16 
  20. Romano Aja (2018-04-18)։ «Jordan Peele’s simulated Obama PSA is a double-edged warning against fake news»։ Vox (անգլերեն)։ Վերցված է 2021-11-16 
  21. CNN Donie O'Sullivan։ «Congress to investigate deepfakes as doctored Pelosi video causes stir»։ CNN։ Վերցված է 2021-11-16 
  22. Damiani Jesse։ «Chinese Deepfake App Zao Goes Viral, Faces Immediate Criticism Over User Data And Security Policy»։ Forbes (անգլերեն)։ Վերցված է 2021-11-16 
  23. Porter Jon (2019-09-02)։ «Another convincing deepfake app goes viral prompting immediate privacy backlash»։ The Verge (անգլերեն)։ Վերցված է 2021-11-16 
  24. «Ahead of Irish and US elections, Facebook announces new measures against 'deepfake' videos»։ independent (անգլերեն)։ Վերցված է 2021-11-16 
  25. Kemp Luke (2019-07-08)։ «In the age of deepfakes, could virtual actors put humans out of business?»։ the Guardian (անգլերեն)։ Վերցված է 2021-11-16 
  26. Radulovic Petrana (2018-10-17)։ «Harrison Ford is the star of Solo: A Star Wars Story thanks to deepfake technology»։ Polygon (en-US)։ Վերցված է 2021-11-16 
  27. Statt Nick (2019-09-05)։ «Thieves are now using AI deepfakes to trick companies into sending them money»։ The Verge (անգլերեն)։ Վերցված է 2021-11-16 
  28. Damiani Jesse։ «A Voice Deepfake Was Used To Scam A CEO Out Of $243,000»։ Forbes (անգլերեն)։ Վերցված է 2021-11-16 
  29. «Weaponised deep fakes: National security and democracy on JSTOR»։ www.jstor.org (անգլերեն)։ Վերցված է 2021-11-16