Milan Filipović
Direktor istraživanja u Komitetu pravnika za ljudska prava - YUCOM
Veštačka inteligencija je danas sposobna da generiše tekst, uverljive imitacije nečijeg glasa i realistične fotografije i video snimke. Prava opasnost se ne krije u stvaranju humanoidnih robota, već u ovladavanju jezikom. Korišćenjem dipfejk (eng. Deepfake) tehnologije moguće je diskreditovati organizatore ili učesnike protesta, stvarajući lažne dokaze o nasilju, govoru mržnje ili drugim nezakonitim aktivnostima.
Dipfejk tehnologija može prikazati mirne protestante kao nasilne, opravdavajući time oštru reakciju policije ili nametanje restriktivnih mera
Dipfejkovi i veštačka inteligencija dovode u pitanje našu sposobnost da razlikujemo stvarnost od manipulacije. U skorijoj budućnosti, realistični video snimci nasilnih demonstracija i lidera mirnih protesta koji izgovaraju pozive na nasilje mogli bi postati sveprisutni.
Ova tehnologija bi mogla biti iskorišćena kako bi se obeshrabrili građani da se priključe protestima ili kako bi se izazvala podela među ljudima u vezi sa brutalnim razbijanjem mirnih protesta
Pored generisanja dipfejk sadržaja, algoritmi veštačke inteligencije mogu biti korišćeni za širenje dezinformacija putem društvenih mreža, pojačavajući uticaj kampanja dezinformacija.
Ovo predstavlja ozbiljnu pretnju za javna okupljanja, jer se dipfejkovi strategijski koriste za širenje lažnih narativa, manipulaciju javnim mnjenjem i podsticanje konflikata
Viralna priroda digitalnog sadržaja otežava suzbijanje efekata dezinformacija zasnovanih na dipfejkovima, što dodatno ugrožava proces informisanog donošenja odluka i otežava organizaciju mirnih protesta.
Suočeni s novim izazovima, često brzopleto posežemo za idejom unapređenja zakonodavstva, bez osvrta na to koliko se postojeći propisi zaista primenjuju.
Srbiji ne nedostaje zakonski okvir za reagovanje na sprečavanje javnih skupova putem pretnje, sile ili obmane
Članom 151 Krivičnog zakonika propisano je krivično delo Sprečavanja javnog skupa. Međutim, ovo kao i brojna druga krivična dela se retko procesuiraju uprkos ozbiljnoj društvenoj potrebi za njihovim suzbijanjem. Postojeći mehanizmi pravne zaštite često gube svoju svrhu i zbog dugotrajnosti postupaka, ali i drugih prepreka. Tužbe za povredu časti i ugleda neće obeshrabriti tabloide da krše zakon, ako će im država kroz šeme finansiranja platiti veću sumu novca nego što je iznos odštete za povredu časti i ugleda. Ako danas ne možemo shvatiti kako neko može poverovati u neverovatne naslove tabloida, zamislite kako će biti sutra kada tabloidne televizije budu te naslove materijalizovale u obliku uverljivih pokretnih slika.
Pravni postupci mogu igrati značajnu ulogu u suzbijanju zlonamernog korišćenja dipfejkova i ispravljanju nanete štete. Ipak, treba imati na umu da oni često ne mogu u potpunosti vratiti stvari u stanje pre štetnih događaja, posebno kod širenja dezinformacija.
Da bi se smanjila isplativost zlonamernog korišćenja dipfejkova, treba primeniti holistički pristup koji kombinuje pravne, tehnološke i obrazovne mere
To uključuje donošenje jasnih propisa koje zabranjuju zloupotrebu dipfejk tehnologije, unapređenje efikasnosti pravosuđa u ovim predmetima, razvoj tehnoloških alata za detekciju dipfejkova, kao i kampanje koje informišu javnost o rizicima i prepoznavanju lažnih sadržaja. Cilj je stvoriti okruženje u kojem bi zlonamerno korišćenje dipfejkova bilo manje privlačno, dok bi se istovremeno očuvala sloboda izražavanja.
Rast veštačke inteligencije i dipfejkova izaziva složena pravna i etička pitanja. Veštačka inteligencija ima potencijal za unapređenje društva, ali istovremeno predstavlja ozbiljan rizik po ljudska prava. Erozija poverenja, manipulacija javnim diskursom, gušenje neslaganja, širenje dezinformacija i pravni izazovi zahtevaju hitnu pažnju. U društvu se sve češće mogu čuti zahtevi za zabranom korišćenja veštačke inteligencije, uglavnom zbog straha od gubitka radnih mesta koja bi mogla biti zamenjena ovom tehnologijom. Međutim, trenutni napori država su uglavnom usmereni na obavezno obeležavanje lažnih ili manipulisanih sadržaja, iako je teško zamisliti da bi takvi propisi mogli zaustaviti one koji žele zloupotrebiti ovu tehnologiju.
Novi propisi ciljaju tehnološke kompanije koje imaju obavezu moderiranja sadržaja
Prema zahtevima EU, kada je reč o upotrebi čet botova, korisnici moraju biti jasno informisani da ne razgovaraju sa osobom od krvi i mesa. Dodatno, Evropska unija je uputila zahtev da Facebook, Tik Tok i Google počnu da obeležavaju sadržaj nastao upotrebom veštačke inteligencije. Početkom godine na snagu su stupile i smernice Kineske administracije za sajber prostor (CAC) o načinu kreiranja dipfejk sadržaja tako da je sad zabranjena kreacija istog bez pristanka lica na koje se odnosi kao i u slučaju kada je u suprotnosti sa nacionalnim interesima ove zemlje, te je naloženo da se dipfejk sadržaj jasno obeležava radi borbe protiv onlajn prevara i klevete. U skladu sa ovim i popularna platforma TikTok, u vlasništvu kineskih preduzetnika, je već uskladila svoje smernice. U drugim zemljama poput Velike Britanije i SAD-a naglasak je stavljen na borbu protiv upotrebe dipfejk sadržaja u osvetničkoj pornografiji.
Evropski sud za ljudska prava je već utvrdio odgovornost platformi za moderaciju komentara s govorom mržnje u predmetu Delfi protiv Estonije. Dok je presuda u tom predmetu u najgorem slučaju rezultirala odlukom medija o brisanju sekcija za komentare i gubitku dela interakcije sa publikom, efekat po platforme na koje se postavljaju video sadržaji nije lako predvideti.
Jedna od mogućih posledica suzbijanja zloupotrebe dipfejkova može biti nemogućnost postavljanja sadržaja od strane neverifikovanih članova što bi otežalo pristup disidentima u autoritarnim režimima koji, zbog straha od represalija, žele da anonimno objave snimke policijske brutalnosti na protestima
Ono što dodatno zabrinjava je to što će u nedostatku kapaciteta za ljudsku moderaciju, ona biti prepuštena veštačkoj inteligenciji.
U Srbiji još uvek nije usvojen proaktivan pristup u vezi sa dipfejk sadržajem
Međutim, kreiranje i objavljivanje dipfejk snimka neke stvarne osobe bez njenog pristanka u Srbiji može predstavljati kršenje zakona ukoliko se time zadire u njenu privatnost, povređuje njen ugled ili se krše njena autorska prava.
Javne ličnosti, uključujući poznate osobe iz sveta zabave i sporta, često se suočavaju s manjim nivoom privatnosti u odnosu na obične građane. Međutim, iako su izloženi većoj pažnji javnosti, to ne znači da nemaju pravo na privatnost.
Važno je naglasiti da bi neovlašćena upotreba deepfake materijala javnih ličnosti u reklamne svrhe trebalo da bude zabranjena.
Kao nosioci javnih funkcija, političari se suočavaju s pritiscima koji proizlaze iz njihove uloge. U mnogim demokratskim društvima, sloboda izražavanja i kritika su važne vrednosti koje se štite. Političari bi trebalo da imaju veću toleranciju na javnu kritiku, uključujući političke parodije i satire, te bi jasno označeni dipfejkovi političara trebalo da budu dozvoljeni.
Fotografisanje i snimanje lica koje nisu javne ličnosti na javnom mestu je u principu dozvoljeno, ukoliko se time ne zadire osetno u njihovu privatnost. Međutim, ukoliko bi takav snimak bio iskorišćen za kreiranje dipfejk sadržaja koji prikazuje to lice u nekom privatnom činu, to bi moglo biti krivično delo.
Dipfejk snimak svojom sadržinom može naškoditi i ugledu lica, a ukoliko je kreiran obradom autorskog dela (npr. predavanja), može biti reči i o kršenju autorskih prava. Zavisno od okolnosti slučaja, pored krivičnog postupka žrtvama zloupotrebe dipfejk tehnologije na raspolaganju može biti i parnični postupak za naknadu štete zbog povredi časti i ugleda, odnosno kršenja autorskih prava, kao i postupci pred nezavisnim i regulatornim telima.
U potrazi za više informacija o pravima i obavezama organizatora javnih okupljanja u digitalnom dobu, možete pogledati “Protesti i digitalne tehnologije – Vodič za organizatore” koji je izradio Komitet pravnika za ljudska prava – Jukom.
Izvor >>