slika
Računala postaju sve bolja u simuliranju stvarnosti. Moderna se kinematografija, na primjer, uvelike oslanja na računalno generiranu scenografiju i likove, umjesto stvarnih lokacija i rekvizita koji su nekad bili uobičajeni. Ovakve scene danas je već vrlo teško razlikovati od stvarnosti.

Iako je relativno nedavno ova tehnologija deepfake-a zauzimala dobar dio medijskog prostora, većina ljudi i dalje ne zna o čemu se zapravo radi i na koji način se ona može koristiti u svakodnevnom medijskom (dez)informiranju.

Najnovija iteracija u računalnim slikama, deepfakeovi nastaju kada se umjetna inteligencija (AI) programira da zamijeni lik jedne osobe drugom u nekom snimljenom videu.

Što je deepfake i kako funkcionira?

Izraz "deepfake" proizlazi iz temeljne tehnologije koja se krije iza nje, a koja se zove "deep learning". Radi se o obliku umjetne inteligencije, odnosno o algoritmima dubokog učenja, koji "sami uče" kako riješiti probleme kada im se daju veliki skupovi podataka. Isto tako, ovi algoritmi se koriste i za zamjenu lica u video i digitalnom sadržaju kako bi se napravili lažni mediji realističnog izgleda.

Postoji nekoliko metoda za stvaranje deepfakeova, ali najčešće se oslanjaju na korištenje dubokih neuronskih mreža koje uključuju autokodere koji koriste tehniku ​​zamjene lica. Najprije vam je potreban ciljani video koji ćete koristiti kao osnovu za deepfake, a zatim kolekciju videoisječaka osobe koju želite umetnuti u njega.


Videozapisi mogu biti potpuno nepovezani. Npr., meta može biti isječak iz holivudskog filma, a videozapis osobe koju želite umetnuti u film može biti nasumični isječak preuzet s YouTubea.

Autoenkoder je AI program za dubinsko učenje koji ima zadatak proučavati video isječke kako bi shvatio kako osoba izgleda iz raznih kutova i uvjeta okoline, a zatim preslikati tu osobu na pojedinca u ciljnom videu pronalaženjem zajedničkih značajki.

Još jedna vrsta strojnog učenja koja se koristi pri ovome je i Generative Adversarial Networks (GANs), koja otkriva i poboljšava sve nedostatke u deepfakeu, otežavajući detektorima deepfakea njihovo dekodiranje.

GAN-ovi se također koriste kao popularna metoda za stvaranje deepfakeova, oslanjajući se na proučavanje velikih količina podataka kako bi se "naučilo" kako razviti nove primjere koji oponašaju pravu stvar, s nevjerojatnom točnošću.

Nekoliko aplikacija i softvera olakšava generiranje deepfakeova čak i za početnike, poput kineske aplikacije Zao, DeepFace Lab, FaceApp (koja je aplikacija za uređivanje fotografija s ugrađenim tehnikama umjetne inteligencije), Face Swap i uklonjenog DeepNudea - posebno opasne aplikacije koja je generirala lažne slike golih žena.

Velika količina softvera deepfake može se pronaći na GitHubu, zajednici otvorenog koda za razvoj softvera. Neke od ovih aplikacija koriste se u svrhu čiste zabave — zbog čega stvaranje deepfakea nije zabranjeno — dok je za druge mnogo vjerojatnije da će se koristiti zlonamjerno.


Mnogi stručnjaci vjeruju da će u budućnosti deepfakeovi postati daleko sofisticiraniji kako se tehnologija bude dalje razvijala i mogli bi predstavljati ozbiljnije prijetnje javnosti, u vezi s miješanjem u izbore, političkim napetostima i dodatnim kriminalnim aktivnostima.


Kako se koriste deepfakeovi?

Iako mogućnost automatske izmjene lica radi stvaranja vjerodostojnog sintetičkog videa realističnog izgleda ima neke zanimljive benigne primjene (kao što su filmovi i igre), ovo je očito opasna tehnologija s nekim zabrinjavajućim aplikacijama. Jedna od prvih stvarnih aplikacija za deepfake zapravo je bila stvaranje sintetičke pornografije.

2017. godine, korisnik reddita pod imenom "deepfakes" stvorio je forum za pornografiju na kojoj su glumcima zamijenjena lica. Od tada je pornografija (osobito pornografija iz osvete) stalno dolazila u vijesti, ozbiljno narušavajući ugled slavnih i istaknutih osoba. Prema prema izvješću Deeptracea, pornografija je činila 96% deepfake videa pronađenih na internetu u 2019. godini.

Deepfake video također se koristi i u politici. Na primjer, 2018. godine jedna je belgijska politička stranka objavila video Donalda Trumpa koji drži govor pozivajući Belgiju da se povuče iz Pariškog klimatskog sporazuma. Međutim, Trump nikada nije održao taj govor - bio je to deepfake. To nije bila prva upotreba deepfakea za stvaranje obmanjujućih videozapisa, a politički stručnjaci koji su upućeni u tehnologiju spremaju se za budući val lažnih vijesti koje sadrže uvjerljivo realistične deepfakeove.

Naravno, ne predstavlja svaki deepfake video egzistencijalnu prijetnju demokraciji, jer ne manjka deepfakeova koji se koriste isključivo za humor i satiru.

Jesu li deepfakeovi samo videozapisi?

Deepfakeovi nisu ograničeni samo na videozapise. Deepfake audio je brzorastuće polje koje ima ogroman broj primjena.

Realistične audio krivotvorine sada se mogu napraviti pomoću algoritama dubokog učenja sa samo nekoliko sati (ili u nekim slučajevima, minuta) zvuka osobe čiji se glas klonira, a nakon što se napravi model glasa, toj osobi se može napraviti da izgovori bilo što.

Deepfake audio ima medicinske primjene u obliku zamjene glasa, kao i u dizajnu računalnih igara - sada programeri mogu dopustiti likovima u igri da govore bilo što u stvarnom vremenu umjesto da se oslanjaju na ograničeni skup skripti koje su unaprijed snimljene.

Kako otkriti deepfake?

Kako deepfake postaje sve češći, društvo će se kolektivno najvjerojatnije morati prilagoditi uočavanju deepfake videa na isti način na koji su online korisnici sada prilagođeni otkrivanju drugih vrsta lažnih vijesti.

Često se, kao što je slučaj s kibernetičkom sigurnošću, mora pojaviti više tehnologija dubokog lažiranja kako bi se otkrilo i spriječilo njegovo širenje, što zauzvrat može pokrenuti začarani krug i potencijalno stvoriti veću štetu.

Postoji nekoliko indikatora koji odaju deepfake:
  • Trenutačni deepfakeovi imaju problema s realističnim animiranjem lica, a rezultat je video u kojem subjekt nikada ne trepće, ili trepće prečesto ili neprirodno. Međutim, nakon što su istraživači sa Sveučilišta u Albanyju objavili studiju otkrivanja abnormalnosti treptanja, objavljeni su novi deepfakeovi koji više nisu imali ovaj problem.
  • Potražite probleme s kožom ili kosom ili licima koja izgledaju mutnija od okoline u kojoj se nalaze. Fokus bi mogao izgledati neprirodno.
  • Izgleda li osvjetljenje neprirodno? Često će algoritmi deepfake zadržati osvjetljenje isječaka koji su korišteni kao model za lažni video, što se loše slaže s osvjetljenjem u ciljanom videu.
  • Zvuk se možda neće činiti kao da odgovara osobi, osobito ako je video lažiran, ali izvorni zvuk nije tako pažljivo manipuliran.
Borba protiv deepfakeova tehnologije

Dok će deepfake s vremenom postati realističniji kako se tehnike budu poboljšavale, nismo potpuno bespomoćni kada je riječ o borbi protiv njih. Brojne tvrtke razvijaju metode za uočavanje deepfakeova, a neke od njih su startupi.

Na primjer, Sensity je razvio platformu za otkrivanje koja je slična antivirusu za deepfake koji upozorava korisnike putem e-pošte kada gledaju nešto što nosi izdajničke otiske sintetičkih medija generiranih umjetnom inteligencijom. Sensity koristi iste procese dubokog učenja koji se koriste za stvaranje lažnih videozapisa.

Operation Minerva ima izravniji pristup otkrivanju deepfakeova. Algoritam ove tvrtke uspoređuje potencijalne deepfakeove s poznatim video zapisima koji su već "digitalno otisnuti". Na primjer, može otkriti primjere osvetničke pornografije prepoznavanjem da je deepfake video jednostavno modificirana verzija postojećeg videa koji je Operacija Minerva već katalogizirala.

Prošle je godine Facebook bio domaćin Deepfake Detection Challenge, otvorene, suradničke inicijative za poticanje stvaranja novih tehnologija za otkrivanje deepfakeova i drugih vrsta manipuliranih medija. Natjecanje je sadržavalo nagrade u rasponu do 500.000 dolara.

Završne misli

Ljudi su kolektivno uhvaćeni u zamku digitalnog doba i tek sada, s određenim vremenskim odmakom, događa se postupno otrježnjenje.

Sjetite se svih aplikacija koje ste upotrijebili, dopuštajući raznim "trećim stranama" korištenje vlastitih fotografija u svrhu zabave. Nije pretjerivanje da je svaka snimljena fotografija i video na vašem mobitelu potencijalna prijetnja vašoj privatnosti. Što mislite, kako u javnost povremenu izađu vrlo "privatni" video isječci?

Bez obzira što se deklarativno odvija "borba" protiv zlouporabe deepfake tehnologije, ona se zasigurno koristi, na dnevnoj bazi od strane najvećih manipulatora današnjice.

Imajte ove činjenice na umu kad slijedeći put pogledate nešto iz mainstream medija!