Ко боље открива Деепфакес: човек или машина?

Ključni zaključci

  • Duboki lažnjaci predstavljaju ozbiljnu pretnju društvu, uključujući širenje dezinformacija, oštećenje reputacije putem lažnog predstavljanja i podsticanje sukoba koji ugrožavaju nacionalnu bezbednost.
  • Iako AI tehnologija nudi alate za identifikovanje dubokih lažnjaka, oni nisu savršeni, i ljudska procena ostaje ključna u detekciji deepfake sadržaja.
  • Ljudi i alati zasnovani na veštačkoj inteligenciji imaju različite prednosti i slabosti u prepoznavanju deepfake-a, pa kombinovanje njihovih mogućnosti može unaprediti uspeh u otkrivanju i smanjivanju opasnosti od ove tehnologije.

Deepfake-ovi predstavljaju opasnost za svaki aspekt modernog društva. Naša sposobnost da prepoznamo lažni sadržaj je od suštinske važnosti u borbi protiv dezinformacija. Međutim, sa napretkom AI tehnologije, postavlja se pitanje: kome možemo više verovati u otkrivanju dubokih lažnjaka – ljudima ili mašinama?

Opasnosti od Deepfake-ova

Sa razvojem veštačke inteligencije, opasnosti koje donose deepfake-ovi postaju sve veća pretnja za sve nas. Evo sažetka nekih od najznačajnijih problema koje ovi lažnjaci stvaraju:

  • Dezinformacije: Deepfake video i audio snimci mogu širiti lažne informacije, poput lažnih vesti.
  • Lažno predstavljanje: Kroz lažno predstavljanje ljudi, deepfake-ovi mogu oštetiti reputaciju pojedinaca ili prevariti one koji ih poznaju.
  • Nacionalna bezbednost: Jedan od najopasnijih scenarija sa deepfake-ovima je izmišljeni snimak ili audio zapis nekog globalnog lidera koji podstiče konflikt.
  • Građanski nemiri: Deepfake snimci se mogu koristiti za izazivanje besa i građanskih nemira među određenim grupama.
  • Sajber bezbednost: Sajber kriminalci već koriste alate za kloniranje glasova pomoću veštačke inteligencije kako bi ciljali pojedince ubedljivim porukama od ljudi koje poznaju.
  • Privatnost i saglasnost: Zlonamerna upotreba deepfake-ova iskorišćava pojedince bez njihovog pristanka.
  • Poverenje i samopouzdanje: Ako ne možemo razlikovati istinu od prevare, tačne informacije takođe postaju nepouzdane.

Deepfake-ovi će postati sve uverljiviji, zbog čega su nam potrebni efikasni alati i procedure za njihovo otkrivanje. AI nudi jedno takvo rešenje u obliku modela za detekciju dubokih lažnjaka. Međutim, kao i algoritmi koji su dizajnirani da identifikuju tekstove generisane veštačkom inteligencijom, ni alati za otkrivanje deepfake-ova nisu savršeni.

Trenutno, ljudska procena je jedino drugo sredstvo na koje se možemo osloniti. Dakle, da li smo bolji od algoritama u identifikaciji deepfake-ova?

Mogu li algoritmi bolje otkriti duboke lažnjake od ljudi?

Deepfake-ovi predstavljaju ozbiljnu pretnju, pa tehnološki giganti i istraživačke grupe posvećuju velike resurse njihovom istraživanju i razvoju. Tokom Deepfake Detection Challenge 2019. godine, kompanije poput Meta, Microsoft i Amazon ponudile su nagrade od 1.000.000 dolara za najprecizniji model detekcije.

Model sa najboljim rezultatima postigao je 82,56% tačnosti na setu javno dostupnih video snimaka. Međutim, kada su isti modeli testirani na „crnoj kutiji“ seta podataka od 10.000 neviđenih video snimaka, model sa najboljim rezultatima imao je tačnost od samo 65,18%.

Postoji i veliki broj studija koje analiziraju performanse AI alata za detekciju deepfake-ova u poređenju sa ljudskim bićima. Rezultati se razlikuju od studije do studije, ali generalno, ljudi su ili jednako uspešni ili čak nadmašuju alate za otkrivanje dubokih lažnjaka.

Jedna studija objavljena u PNAS 2021. godine otkrila je da su „obični ljudski posmatrači“ postigli nešto veću stopu tačnosti od vodećih alata za detekciju deepfake-ova. Međutim, studija je takođe pokazala da su i ljudi i AI modeli podložni različitim vrstama grešaka.

Zanimljivo je da je istraživanje Univerziteta u Sidneju pokazalo da je ljudski mozak, nesvesno, efikasniji u detekciji deepfake-ova od naših svesnih napora.

Otkrivanje vizuelnih tragova u deepfake-ovima

Nauka o detekciji deepfake-ova je kompleksna, a potrebna analiza varira u zavisnosti od karakteristika snimka. Na primer, zloglasni deepfake video severnokorejskog lidera Kim Džong-una iz 2020. godine je u suštini „glava koja govori“. U ovom slučaju, najefikasnija metoda detekcije bi mogla biti analiza visema (pokreta usta) i fonema (foničkih zvukova) kako bi se uočile nedoslednosti.

Ljudski eksperti, povremeni posmatrači i algoritmi mogu izvesti ovu analizu, čak i ako se rezultati razlikuju. MIT definiše osam pitanja koja pomažu u identifikaciji deepfake video snimaka:

  • Obratite pažnju na lice. Vrhunske deepfake manipulacije su gotovo uvek transformacije lica.
  • Obratite pažnju na obraze i čelo. Da li koža izgleda previše glatko ili previše naborano? Da li starost kože odgovara starosti kose i očiju? Deepfake-ovi mogu biti nekongruentni u određenim aspektima.
  • Obratite pažnju na oči i obrve. Da li se senke pojavljuju na očekivanim mestima? Deepfake-ovi možda neće u potpunosti prikazati prirodnu fiziku scene.
  • Obratite pažnju na naočare. Da li postoji odsjaj? Ima li previše odsjaja? Da li se ugao odsjaja menja kada se osoba kreće? Još jednom, deepfake-ovi možda neće u potpunosti prikazati prirodnu fiziku osvetljenja.
  • Obratite pažnju na dlake na licu ili njihov nedostatak. Da li dlake na licu izgledaju stvarno? Deepfake-ovi mogu dodati ili ukloniti brkove, zaliske ili bradu. Međutim, deepfake-ovi možda neće moći da učine ovu transformaciju potpuno prirodnom.
  • Obratite pažnju na mladeže na licu. Da li mladež izgleda stvarno?
  • Obratite pažnju na treptanje. Da li osoba trepće dovoljno ili previše?
  • Obratite pažnju na pokrete usana. Neki deepfake-ovi su zasnovani na sinhronizaciji usana. Da li pokreti usana deluju prirodno?

Najnoviji AI alati za detekciju deepfake-ova mogu analizirati iste faktore, opet, sa različitim nivoima uspeha. Naučnici za podatke konstantno razvijaju i nove metode, poput detekcije prirodnog protoka krvi u licima govornika na ekranu. Ovi novi pristupi i poboljšanja postojećih mogli bi dovesti do toga da alati za detekciju deepfake-ova, zasnovani na veštačkoj inteligenciji, budu superiorniji od ljudi u budućnosti.

Otkrivanje audio tragova u deepfake-ovima

Detekcija deepfake audio sadržaja predstavlja drugačiji izazov. Bez vizuelnih naznaka videa i mogućnosti da se identifikuju audio-vizuelne nedoslednosti, otkrivanje deepfake-ova se u velikoj meri oslanja na audio analizu (u nekim slučajevima, druge metode, poput verifikacije metapodataka, mogu biti od pomoći).

Studija koju je objavio University College London 2023. godine otkrila je da ljudi mogu prepoznati lažni govor u 73% slučajeva (na engleskom i mandarinskom). Kao i kod deepfake video zapisa, ljudski slušaoci često intuitivno prepoznaju neprirodne govorne obrasce u govoru generisanom veštačkom inteligencijom, čak i ako ne mogu precizno reći šta tačno deluje pogrešno.

Uobičajeni znaci uključuju:

  • Mrmljanje
  • Nedostatak izražajnosti
  • Pozadinska ili interferentna buka
  • Vokalne ili govorne nedoslednosti
  • Nedostatak „punoće“ u glasovima
  • Previše skriptovan govor
  • Nedostatak nesavršenosti (lažni startovi, korekcije, kašljanje itd.)

Algoritmi takođe mogu analizirati govor u potrazi za istim deepfake signalima, ali nove metode čine alate efikasnijim. Istraživanje USENIX-a identifikovalo je obrasce u rekonstrukciji vokalnog trakta pomoću AI, koji ne uspevaju da oponašaju prirodni govor. Zaključak je da AI generatori glasa proizvode zvuk koji odgovara uskim vokalnim traktima (otprilike veličine slamke) bez prirodnih pokreta ljudskog govora.

Ranije istraživanje sa Instituta Horst Gortz analiziralo je originalne i deepfake audio zapise na engleskom i japanskom, otkrivajući suptilne razlike u višim frekvencijama pravog i deepfake govora.

I vokalni trakt i nedoslednosti u visokim frekvencijama su uočljive ljudskim slušaocima i AI modelima za detekciju. U slučaju razlika u visokim frekvencijama, AI modeli bi teoretski mogli postati sve precizniji – iako se isto može reći i za AI deepfake-ove.

I ljude i algoritme deepfake-ovi prevare, ali na različite načine

Studije pokazuju da su ljudi i najnoviji alati za detekciju veštačke inteligencije slično sposobni da identifikuju deepfake-ove. Stope uspešnosti mogu varirati od 50% do 90%+, u zavisnosti od parametara testa.

Generalno, i ljudi i mašine su podjednako prevareni deepfake-ovima. Ono što je najvažnije je da smo podložni prevari na različite načine, a to bi mogao biti naš najveći adut u suočavanju sa opasnostima deepfake tehnologije. Kombinacija prednosti ljudi i alata za detekciju deepfake-ova umanjiće slabosti svakog od njih i poboljšati ukupni uspeh.

Na primer, MIT istraživanje je pokazalo da su ljudi bolji u identifikaciji lažnih snimaka svetskih lidera i poznatih ličnosti u odnosu na AI modele. Takođe je otkriveno da se AI modeli bore sa snimcima na kojima je više ljudi, iako se veruje da je to rezultat obuke algoritama na snimcima sa jednim govornikom.

Sa druge strane, ista studija je otkrila da su AI modeli bili uspešniji od ljudi kod snimaka lošeg kvaliteta (mutnih, zrnastih, tamnih, itd.) koji se mogu namerno koristiti za obmanjivanje ljudskih gledalaca. Isto tako, nedavne metode detekcije AI, poput praćenja protoka krvi u određenim delovima lica, uključuju analizu koju ljudi nisu sposobni da izvedu.

Sa razvojem više metoda, sposobnost veštačke inteligencije da prepozna znake koje ne možemo ne samo da će se poboljšati, već će se poboljšati i njena sposobnost da obmanjuje. Veliko pitanje je da li će tehnologija detekcije deepfake-ova i dalje nadmašivati same deepfake-ove.

Gledanje stvari drugačije u doba deepfake-ova

Alati za detekciju deepfake-ova zasnovani na veštačkoj inteligenciji će nastaviti da se poboljšavaju, kao i kvalitet deepfake sadržaja. Ako sposobnost veštačke inteligencije da obmanjuje nadmaši njenu sposobnost detekcije (kao što je slučaj sa tekstom generisanim pomoću veštačke inteligencije), ljudska procena može biti jedino sredstvo koje nam ostaje za borbu protiv deepfake-ova.

Svi imaju odgovornost da nauče znakove deepfake-ova i kako ih prepoznati. Osim što se štitimo od prevare i bezbednosnih pretnji, sve o čemu razgovaramo i delimo na mreži podložno je dezinformacijama ako izgubimo osećaj stvarnosti.