Videozapisi stvoreni uz pomoć umjetne inteligencije, u kojima stvarni ljudi govore stvari koje zapravo nikad nisu rekli, u Americi su prepoznati kao prijetnja nacionalnoj sigurnosti, no stručnjakinja za Claire Wardle smatra da stvaranje panike oko toga može donijeti više štete od samih deepfake videa

Piše: Ana Dokler

U videozapisu, izvorno objavljenom na internetskoj stranici New York Timesa, pjevačica Adele skreće nam pažnju na novu tehnologiju koja može donijeti probleme poznatim osobama te navodi nekoliko primjera tzv. deepfake videa – naizgled realističnih videozapisa stvorenih uz pomoć umjetne inteligencije, u kojima su stvarni ljudi prikazani kako govore ili rade stvari koje u stvarnosti nikada nisu.

Međutim, i ovaj je napravljen istom tehnologijom, i umjesto Adele, o ovoj aktualnoj temi govori stručnjakinja za manipulacije na internetu Claire Wardle, izvršna direktorica organizacije First Draft, koja se bavi istraživanjima i edukacijom o dezinformacijama.

O opasnostima deepfake tehnologije u zadnje se vrijeme sve više govori u kontekstu američkih predsjedničkih izbora 2020. pa je u lipnju Obavještajni odbor Predstavničkog doma Kongresa sazvao i saslušanje o prijetnjama koje takvi videozapisi predstavljaju za nacionalnu sigurnost. U nedavno objavljenom izvještaju Sveučilišta u New Yorku o oblicima i izvorima dezinformacija koje bi mogle utjecati na izbore na prvom mjestu nalaze se upravo deepfake videozapisi. Platforme poput Facebooka, YouTubea i Twittera također razmišljaju hoće li i na koji način odgovoriti na ovaj novi oblik širenja dezinformacija.

Rezultati europskih nastojanja u borbi protiv dezinformacija

Činjenica je da su deepfake videozapisi sve realističniji i da je tehnologija za njihovu izradu sve dostupnija, no Claire Wardle smatra da je panika koju izazivaju pretjerana i da alarmiranje javnosti o njihovim opasnostima može prouzročiti veću štetu od samih deepfake videa. Objašnjava kako ovakve manipulacije zapravo nisu novost, s obzirom na to da već dugo postoje brojni programi i aplikacije za obradu fotografija i videa, ali i da se autentične fotografije mogu koristiti u drugačijem kontekstu, kao ilustracije za situacije s kojima nemaju nikakve veze. Primjer je fotografija pakistanskih izbjeglica u Grčkoj koja je u SAD-u iskorištena da bi se izazvala zabrinutost oko dolaska migranata iz Meksika.

Odgovornost platformi, ali i javnosti

“Ne treba vam deepfake tehnologija i umjetna inteligencija da biste manipulirali emocijama ljudi i širili dezinformacije. Ono što bi nas trebalo brinuti je dobit lažljivaca od ove priče, odnosno laži i djela s kojima će se ljudi izvuči na temelju široko rasprostranjenog skepticizma. Kad sve može biti lažno, puno je lakše i onome tko je kriv odbaciti istinu kao laž“, kaže Claire Ward te dodaje da je od same tehnologije puno više brine to kako mi kao društvo reagiramo na ideju da ne možemo vjerovati onome što vidimo ili čujemo.

“Kako se smanjuje povjerenje javnosti u institucije poput medija, obrazovanja i izbora, i sama demokracija postaje neodrživa. Ključno je kako reagiramo na te ozbiljne probleme. Društvene mreže trebaju odlučiti kako se će se dalje odnositi prema ovakvim sadržajima i kako će ih označavati, no i javnost treba biti svjesna svog dijela odgovornosti. Ako niste sto posto sigurni da je nešto istinito, nemojte to dijeliti, jer nije vrijedno rizika”, poručuje na kraju.

Kako i sami sudjelujemo u širenju lažnih vijesti

S obzirom na moguće utjecaje deepfake videa, kao i činjenicu da ih danas svatko može napraviti uz pomoć besplatnih aplikacija, na portalu Common Sense Media smatraju da bi roditelji trebali razgovarati s djecom o tome kako ih prepoznati.

Razgovor s djecom o deepfake tehnologiji

Dok tehnološke kompanije ne nađu rješenja za prepoznavanje i označavanje manipuliranih videozapisa, poručuju, možemo obratiti pažnju na znakove poput neujednačene boje lica, osvjetljenja koje ne djeluje ispravno, loše sinkroniziranog zvuka i slike te zamagljenja na spoju lica i vrata, odnosno kose.

S portala Common Sense Media prenosimo vam i neke od savjeta za razgovor s djecom, kako biste ih potaknuli na kritičko razmišljanje o ovom trendu:

  • Upoznajte se s temom. Provedite 10 minuta zajedno gledajući ovu analizu 10 popularnih deepfake videa:

  • Razgovarajte o obrađivanju fotografija i videa. Pitajte djecu sviđaju li im se manipulirane slike i videozapisi. Zašto misle da su popularni i tako široko rasprostranjeni? Misle li da postoje neki problemi povezani s tim trendom?
  • Razgovarajte o osobnoj odgovornosti. Raspravljajte s djecom o tome je li dobro namjerno dovoditi u zabludu ljude pomoću deepfake videa i kakvu odgovornost imaju njihovi kreatori i konzumenti. Treba li tehnološka industrija imati ulogu u ograničavanju širenja deepfake videa?
  • Razgovarajte o konkretnim deepfake videozapisima. Jesu li primijetili neke viralne videozapise koji su bili tako obrađeni? Je li manipulacija bila očita ili suptilnija? Koja je bila svrha tog videa? Zašto bi netko napravio deepfake video?

Face App i zloupotreba osobnih podataka: Ima li razloga za zabrinutost?

Foto: Screenshot