Novi zakon ima za cilj borbu protiv deepfakea koje generira umjetna inteligencija i ugrožava filmsku industriju, no odluka preispituje dugotrajnu zabrinutost koja ugrožava i žene

Nedavni prijedlog zakona NO FAKES Act od strane dvostranačke skupine američkih senatora označava značajan korak u rješavanju sve veće zabrinutosti oko deepfakeova koje generira umjetna inteligencija. Ovaj predloženi zakon nastoji zaštititi pojedince, posebice umjetnike, od neovlaštene uporabe njihovog lika u digitalno manipuliranom sadržaju.

Prijedlog zakona, koji su predstavili senatori Chris Coons, Marsha Blackburn, Amy Klobuchar i Thom Tillis, uspostavio bi pravne posljedice za proizvodnju ili distribuciju sadržaja generiranog umjetnom inteligencijom koji lažno prikazuje pojedinca bez njihova pristanka. Cilj mu je stvoriti nacionalni standard za postupanje s takvim sadržajem, zahtijevajući od internetskih platformi da uklone uvredljivi materijal nakon obavijesti i potencijalno držeći kreatore i distributere odgovornima za štetu.

Ovaj zakonodavni napor dolazi kao odgovor na nekoliko visokoprofilnih incidenata, uključujući oglas generiran umjetnom inteligencijom koji prikazuje Toma Hanksa koji podržava stomatološki plan bez njegova dopuštenja i lažnu pjesmu koju su navodno napisali Drake i The Weeknd. Akt je dobio podršku velikih igrača u industriji zabave, uključujući SAG-AFTRA, Udrugu diskografske industrije Amerike, pa čak i AI tvrtku OpenAI. No, ovo je potaknulo raspravu o konačnom pokušaju da se stane na kraj deepfakeu koji često služi za emocionalnu manipulaciju, osvetu nakon prekida ili cyber nasilje (realno, često je sve troje u igri).

Iako Zakon NO FAKES svakako predstavlja korak naprijed u rješavanju izazova koje postavlja sadržaj generiran umjetnom inteligencijom, ključno je prepoznati da su deepfakes problem godinama, mnogo prije nedavnog napretka tehnologije umjetne inteligencije. Ono što je posebno zanimljivo – i zabrinjavajuće – je to da dugo vremena nije bilo kvalitetne zaštite za obične pojedince, one koji ne zarađuju basnoslovne iznose od svoga lica i glume, posebno žene.

Povijest manipuliranih fotografija seže u rane dane uređivanja fotografija i videa. Međutim, pojam “deepfake” pojavio se 2017., poklapajući se s usponom sofisticiranijih tehnika koje pokreće AI za stvaranje realističnih lažnih fotografija i videa. Od tada se tehnologija ubrzano razvijala, postajala je dostupnija i teže ju je otkriti, odnosno primijetiti da nije autentična.

Žene su posebno bile nesrazmjerno pogođene deepfakeovima. Studija Deeptracea iz 2019. pokazala je da je 96 % deepfake videozapisa na mreži bila pornografija bez pristanka, a velika većina ciljala je na žene. Ova alarmantna statistika naglašava kako je tehnologija oružjem za uznemiravanje, ucjenjivanje i kršenje privatnosti pojedinaca, često s razornim osobnim i profesionalnim posljedicama. S obzirom na nemogućnost kontrole internetskog sadržaja, pitanje je kako će se ova situacija uopće pronalaziti, a onda i kažnjavati.

Nedostatak dosadašnje snažne pravne zaštite i tehnoloških mjera zaštite ostavio je mnoge žrtve ranjivima. Donedavno je bilo malo prava za pojedince čija je ličnost zloupotrijebljena u deepfakeovima, osobito ako nisu imali resursa za pokretanje pravnog postupka ili nisu bili javne osobe s timovima posvećenim zaštiti njihove fotografije.

Zakon NO FAKES Act, iako je prvenstveno usmjeren na zaštitu umjetnika i javnih osoba, predstavlja širu potvrdu potrebe za pravnim okvirima za rješavanje sadržaja generiranog umjetnom inteligencijom. Međutim, to također naglašava veliko kašnjenje u provedbi takve zaštite. Tehnologija za stvaranje uvjerljivih deepfakeova postoji već godinama, no sveobuhvatno zakonodavstvo tek se sada uvodi. Svakako, javna lica, poput Scarlet Johansson, koja se žustro boriv protiv ovog problema, uvelike pomažu da se čuju problemi i običnih ljudi, da vlasti ne mogu ignorirati ovaj problem – kako im je to uspjelo kad je bila riječ o tisuće osoba pogođenih ovom tehnologijom. Dva koraka naprijed, tri natrag?

Ovaj zaostatak između tehnološkog napretka i pravne zaštite služi kao podsjetnik na važnost proaktivnog donošenja politika u svjetlu tehnologija koje se brzo razvijaju. Kako AI nastavlja napredovati, ključno je da zakonodavci, tehnolozi i društvo u cjelini rade zajedno kako bi uspostavili etičke smjernice i zakonske mjere zaštite koje štite sve pojedince, a ne samo one koji su u javnosti. Kako napredujemo, ključno je osigurati da se ova zaštita proširi na sve članove društva, rješavajući dugotrajnu ranjivost s kojom su se mnoge, osobito žene, suočile u digitalnom svijetu. I ne, to ne znači da smo protiv razvoja tehnologije – već protiv korištenja iste za razne oblike nasilja nad drugima.