Ghid pentru depistarea unui videoclip deepfake. La ce să fim atenți
Data publicării:
Autor: Alexandru Negrici
WhatsApp
FOTO: DNSC
FOTO: DNSC
Detectarea Deepfake-urilor devine o provocare din ce în ce mai mare.

Tehnologiile de inteligență artificială care stau la baza acestor falsuri devenind tot mai sofisticate, cercetătorii și dezvoltatorii se străduiesc să dezvolte noi instrumente și tehnici pentru a identifica și a combate aceste amenințări la adresa autenticității informațiilor. În acest sens, Directoratul Național de Securitate cibernetică a eliberat un ghid.

Indicii că avem de a face cu un deepfake:

Pentru a ajuta utilizatorii să identifice astfel de falsuri, ghidul oferă câteva indicii:

  • Mediul înconjurător: Aspecte cum ar fi umbrele inexistente, reflexiile exagerate sau zonele neclare pot trăda prezența unei manipulări.
  • Imperfecțiuni ale feței: Detalii precum alunițe nerealiste, clipiri nesincronizate, sau distorsiuni în interiorul gurii, cum ar fi absența dinților sau prezența unor dinți prea perfecți, pot indica un Deepfake.
  • Nesincronizarea vorbirii și a mișcării buzelor: Observarea nesincronizării între vorbire și mișcarea buzelor, mai ales în momente precum strănutul, poate fi un alt indiciu al falsificării.
  • Aspecte tehnice: Uneori, apar pixeli în nuanțe de gri la marginile componentelor modificate. De asemenea, observarea distorsiunilor când persoana din înregistrare este privită dintr-un alt unghi poate dezvălui un Deepfake, deoarece algoritmul nu poate deduce aspectul persoanei din alt unghi dacă nu s-au folosit fotografii ale acesteia din diverse unghiuri.

La ce să mai fim atenți?

Analiza comportamentală reprezintă una dintre abordările promițătoare în această luptă. Această metodă se concentrează pe identificarea micilor imperfecțiuni sau anomalii în comportamentul sau mișcările fizice ale subiectului.

Consistența iluminării este și ea luată în considerare, detectând inconsistentele în iluminare pentru a determina dacă imaginea a fost manipulată. Analiza texturii pielii și detectarea ridurilor de expresie sunt alte tehnici eficiente, care identifică modificările subtile aduse subiectului.

Pe lângă aceste metode, verificarea consistenței respirației devine tot mai importantă. Analiza variațiilor minore în culoarea feței sau a umbrelor poate indica bătăile inimii și respirația, fiind un alt indicator al autenticității unui conținut. Utilizarea rețelelor neuronale convoluționale (CNN) pentru analiza frame-urilor individuale din videoclipuri reprezintă, de asemenea, o abordare eficientă, deși necesită o cantitate mare de date de antrenament.

Există și soluții comerciale disponibile, furnizate de start-up-uri specializate în detectarea Deepfake-urilor, care combină mai multe tehnici pentru a oferi soluții la cheie pentru organizații sau indivizi. Cu toate acestea, există provocări și limitări în această luptă. Pe măsură ce tehnologiile de detectare devin mai sofisticate, la fel se întâmplă și cu metodele de creare a Deepfake-urilor.

În plus, este important ca utilizatorii să fie conștienți de riscurile asociate cu conținutul falsificat. Există numeroase exemple de utilizare a Deepfake-urilor în scopuri frauduloase, de la promovarea unor scheme de investiții până la înșelarea unor persoane pentru a transfera sume mari de bani. În acest context, educația și vigilența sunt cruciale pentru protejarea împotriva acestor amenințări.

Exemple reale de înșelăciune

O femeie pensionară din Vaslui a fost victima unei escrocherii postată online pe platforma YouTube. Escrocii au creat un videoclip fals în care un cunoscut bancher și alte personalități cunoscute recomandau o platformă de investiții. Promisiunea unor profituri rapide a convins pensionara să investească suma de 52.000 de lei, economii strânse în 20 de ani de muncă. Chiar dacă femeia a raportat această fraudă autorităților, experții consideră că șansele de recuperare a fondurilor pierdute sunt minime.

Actorii rău intenționați devin tot mai inventivi. Acum pot imita perfect vocea unei persoane dragi pentru a vă păcăli. Te pot suna pretinzând că sunt un membru al familiei care are nevoie urgentă de bani. Recomandăm ca întotdeauna să fie verificată identitatea apelantului, chiar dacă pare să fie o rudă sau un prieten cunoscut. Nu trimite niciodată bani în grabă și anunță imediat autoritățile dacă ai suspiciuni. Doar prin vigilență și informare te poți proteja de această formă de fraudă.

În 2019, un Deepfake audio a fost folosit pentru a înșela un CEO cu 220.000 de euro. Directorul general al unei firme de energie cu sediul în Marea Britanie a crezut că vorbea la telefon cu directorul general al companiei-mamă germane atunci când a urmat ordinele de a transfera imediat 220.000 de euro în contul bancar al unui furnizor maghiar. De fapt, vocea aparținea unui escroc care folosea tehnologia vocală IA pentru a-l imita pe directorul executiv german.

Google News icon  Fiți la curent cu ultimele noutăți. Urmăriți DCNews și pe Google News

WhatsApp
Iti place noua modalitate de votare pe dcnews.ro?
pixel