Nova era deepfakea: Stvarni voditelji “izvještavaju” o lažnim pričama
Deepfake segmenti koji izgledaju kao da ih prenose vodeći novinari i TV mreže munjevito se šire internetom, a stručnjaci upozoravaju da je svijet došao do prekretnice u manipulaciji medijima, i to tek godinu dana od povijesno važnih izbora.
“Sada ćemo razgovarati s jedinim preživjelim u nedavnoj pucnjavi u školi, TikTokerom Krishnom Sahayem,” izgovara – barem se tako čini – voditeljica vijesti američkog kanala CBS, Anne-Marie Green.
“To je sigurno bilo apsolutno traumatično,” kaže novinarka u drugom videu, također se obraćajući Sahayu. “Što je svima prolazilo kroz glavu?”
Nakon kratke pauze, Sahay izgovara: “Pa metci.”
Krishna Sahay, zvijezda TikToka i YouTubea, jedan je od gomile korisnika društvenih mreža koji generativnu umjetnu inteligenciju koristi za stvaranje news segmenata koji izgledaju vrlo stvarno. Zahvaljujući tehnologiji, novinari – vodeća imena iz velikih medija poput CBS-a, CNN-a, BBC-ja i šire – izgledaju i zvuče realistično, a zbog moćnih algoritama platformi senzacionalističke priče i lažni naslovi postaju viralni, budući da izgledaju kao vjerodostojne vijesti.
Sredinom listopada internetom se proširio autentični video CNN-ove dopisnice Clarisse Ward koji prikazuje kako ona bježi od raketa u blizini granice Gaze i Izraela. Video je, međutim, bio popraćen lažnim audio materijalom koji potkopava njeno izvještavanje.
U lažiranim prilozima koje je stvorio Sahay, a zbog kojih je prikupio milijune pratitelja, preko desetak poznatih voditelja s čitavog niza TV mreža “izgovara” problematične komentare i “intervjuira” Sahaya koji se izruguje pucnjavama u školama, terorističkim napadima 11. rujna, žrtvama silovanja i drugim skupinama koje targetiraju kriminalci.
U mnogim slučajevima ovi izmišljeni segmenti privlače veću publiku od stvarnih vijesti koje objavljuju legitimne medijske kuće na svojim verificiranim profilima. Jedan od posljednjih deepfake videa koji je objavio Sahay, a u kojem se nalazi Margaret Brennan iz poznatog news programa CBS-a Face the Nation, prikupio je preko 300.000 lajkova na TikToku. Za usporedbu, najpopularniji video istog dana objavljen na službenom TikToku profilu emisije prikupio je tek 7.000 lajkova. TikTok je Sahaya izbacio sa svoje platforme dok je Forbes radio na ovom izvještaju, a Sahay nije odgovorio na nekoliko upita za komentar. Iako je njegov TikTok profil sada suspendiran, njegove objave još uvijek je lako pronaći na platformi budući da ih ponovno objavljuju i drugi korisnici, a neki od njih dostupni su i na YouTubeu.
Najveće platforme društvenih medija imaju pravila za borbu protiv deepfake videa. Glasnogovornica TikToka Ariane Selliers izjavila je kako “TikTok od kreatora traži da jasno označe realističan sadržaj koji je nastao umjetnom inteligencijom,” kao i da TikTok “nastavlja uklanjati sadržaj koji može nanijeti štetu oponašanjem stvarnih ljudi i obmanjivanjem korisnika.” Većina videa koje je objavljivao Sahay nisu sadržavali potrebnu oznaku. TikTok zabranjuje objavu deepfake videa u kojima umjetna inteligencija oponaša privatne osobe i “iako imamo fleksibilniji pristup što se tiče javnih osoba, ne želimo da ni oni budu podvrgnuti zlostavljanju ili da se ljude obmanjuje po pitanju politike ili financija,” navodi kompanija u svom pravilniku. Glasnogovornica YouTubea Elena Hernandez kaže kako YouTube već dugo ima “politike za borbu protiv dezinformacija i zabranjuje manipulaciju i izmjenu sadržaja na način koji bi mogao predstavljati ozbiljan rizik od teške štete.”
Glasnogovornica CNN-a Emily Kuhn nije željela komentirati segmente vijesti manipulirane umjetnom inteligencijom, no izjavila je kako je audio u prilogu CNN-ove dopisnice s granice Izraela i Gaze “izmišljen, netočan i neodgovorno iskrivljuje trenutak koji je CNN pokrio uživo. Ljudi bi prilog trebali pogledati u cijelosti i to putem vjerodostojne platforme”.
CBS-ova voditeljica O’Donnell nije odgovorila na upite za komentar, no glasnogovornica medijske kuće April Andrews izjavila je kako “CBS vrlo ozbiljno shvaća svoja prava na intelektualno vlasništvo.” Glasnogovornik BBC-ja Robin Miller kaže kako “naši odvjetnici postupaju svaki put kada saznamo za neki deepfake video,” kao i da “u svijetu u kojem dezinformacija ima sve više, pozivamo sve da provjeravaju linkove kako bi se uvjerili da vijesti dobivaju iz izvora kojima vjeruju.”
Nova era deepfakea
Deepfake videi, kao i jeftiniji, takozvani “cheepfakes“, nisu novost – samo ovog mjeseca internetom su se proširili lažni videi Toma Hanksa u kojemu glumac promovira zubarsko osiguranje, kao i poznatog YouTubera MrBeasta čiji je lažni dvojnik dijelio modele iPhonea 15.
“Jesu li društvene mreže spremne na porast deepfakeova nastalih umjetnom inteligencijom?” upozorio je na Twitteru MrBeast, čije je pravo ime Jimmy Donaldson. “Ovo je ozbiljan problem.”
Nadzorni odbor Facebooka također je prošlog tjedna objavio da su otvorili slučaj u vezi s manipuliranom videosnimkom američkog predsjednika Joea Bidena.
Međutim, ono što jest novo su manipulirane vijesti koje se oslanjaju na glasove i lica poznatih novinara, a to je i mnogo opasnija situacija. Ranije ove godine, tvrtka za analitiku društvenih medija Graphika objavila je istraživanje o “novom i jedinstvenom obliku video sadržaja” otkrivenih na Facebooku, Twitteru i YouTubeu. Riječ je o videima televizijskih voditelja stvorenih umjetnom inteligencijom koji su dio “prokineske operacije političkog spama.” Kineski državni mediji također su eksperimentirali s voditeljima nastalim korištenjem umjetne inteligencije. Deepfake videosnimke visoke produkcije i duljeg trajanja, poput onih koje je stvarao Sahay, sve su popularnije na platformama.
“Videi televizijskih voditelja moćan su alat za odašiljanje dezinformacija,” rekao je Hany Farid, profesor na sveučlištu Berkeley koji je na temu deepfakea svjedočio i pred američkim Kongresom. “U mnogim slučajevima te voditelje publika poznaje i vjeruje im, a čak ako to i nije slučaj, opći format televizijskih vijesti ljudima je poznat, a samim time mu se i više vjeruje.”
“Rezultati su vrlo dobri, iako ne i savršeni, pogotovo kada se takve snimke gleda na mobilnim uređajima i kada korisnici brzo pregledavaju društvene mreže,” dodao je Farid, čije istraživanje se fokusira na ljudsku percepciju i analizu slike. “Morat ćemo se uozbiljiti oko zaštite prava ljudi čija se lica i glasovi prisvajaju.”
Deepfake videi često se koriste u memeovima čiji je cilj nasmijati publiku. Do ekstremnog scenarija – onog u kojem bi se taj manipulirani sadržaj mogao koristiti za širenje dezinformacija i tako promijeniti tijek političkih izbora, javnih ponuda kompanija i drugih važnih događaja – još nije došlo. Ipak, američki predsjednički izbori 2020. godine dogodili su se uoči eksplozije umjetne inteligencije koju je pokrenuo ChatGPT. Ta aplikacija ove je godine postala jedna od najbrže rastućih u povijesti, a pridonijela je i širokoj upotrebi te tehnologije, kao i milijarde dolara ulaganja u start-up kompanije koje se bave umjetnom inteligencijom.
Sada gotovo svatko može koristiti jednostavne i dostupne alate umjetne inteligencije kako bi “natjerao” javne ličnosti (ali i obične ljude) da govore i čine stvari koje inače nikada ne bi činili. To je pojačalo strahove da bi umjetna inteligencija nadolazeće izbore u Americi mogla pretvoriti u Divlji zapad. Nikoga nije umirila činjenica da se sve popularnija tehnologija koristi za stvaranje naizgled legitimnih vijesti.
Najveći strah je da će se takvi videi – sa stvarnim voditeljima u realističnim situacijama – koristiti kao “agresivan oblik širenja dezinformacija… s tim ćemo se morati nositi dok nam se približavaju izbori 2024. godine,” kaže odvjetnik Kevin Goldberg, stručnjak za Prvi amandman američkog Ustava u neprofitnoj udruzi Freedom Forum iz Washington DC-ja.
Ipak, Goldberg je upozorio da “također ne bismo smjeli preburno reagirati.”
“Da, ovdje postoji potencijal za podvale,” kaže on za Forbes. “No naš pravni sustav, kao i naše društvo u cjelini, i više je nego opremljen da se nosi s ovom novom okolinom.”
Autor originalnog članka: Alexandra S. Levine, Forbes
Link: In A New Era Of Deepfakes, AI Makes Real News Anchors Report Fake Stories
(Prevela: Nataša Belančić)