Detectarea Deepfake-urilor devine o provocare din ce în ce mai mare.
Tehnologiile de inteligență artificială care stau la baza acestor falsuri devenind tot mai sofisticate, cercetătorii și dezvoltatorii se străduiesc să dezvolte noi instrumente și tehnici pentru a identifica și a combate aceste amenințări la adresa autenticității informațiilor. În acest sens, Directoratul Național de Securitate cibernetică a eliberat un ghid.
Pentru a ajuta utilizatorii să identifice astfel de falsuri, ghidul oferă câteva indicii:
Analiza comportamentală reprezintă una dintre abordările promițătoare în această luptă. Această metodă se concentrează pe identificarea micilor imperfecțiuni sau anomalii în comportamentul sau mișcările fizice ale subiectului.
Consistența iluminării este și ea luată în considerare, detectând inconsistentele în iluminare pentru a determina dacă imaginea a fost manipulată. Analiza texturii pielii și detectarea ridurilor de expresie sunt alte tehnici eficiente, care identifică modificările subtile aduse subiectului.
Pe lângă aceste metode, verificarea consistenței respirației devine tot mai importantă. Analiza variațiilor minore în culoarea feței sau a umbrelor poate indica bătăile inimii și respirația, fiind un alt indicator al autenticității unui conținut. Utilizarea rețelelor neuronale convoluționale (CNN) pentru analiza frame-urilor individuale din videoclipuri reprezintă, de asemenea, o abordare eficientă, deși necesită o cantitate mare de date de antrenament.
Există și soluții comerciale disponibile, furnizate de start-up-uri specializate în detectarea Deepfake-urilor, care combină mai multe tehnici pentru a oferi soluții la cheie pentru organizații sau indivizi. Cu toate acestea, există provocări și limitări în această luptă. Pe măsură ce tehnologiile de detectare devin mai sofisticate, la fel se întâmplă și cu metodele de creare a Deepfake-urilor.
În plus, este important ca utilizatorii să fie conștienți de riscurile asociate cu conținutul falsificat. Există numeroase exemple de utilizare a Deepfake-urilor în scopuri frauduloase, de la promovarea unor scheme de investiții până la înșelarea unor persoane pentru a transfera sume mari de bani. În acest context, educația și vigilența sunt cruciale pentru protejarea împotriva acestor amenințări.
O femeie pensionară din Vaslui a fost victima unei escrocherii postată online pe platforma YouTube. Escrocii au creat un videoclip fals în care un cunoscut bancher și alte personalități cunoscute recomandau o platformă de investiții. Promisiunea unor profituri rapide a convins pensionara să investească suma de 52.000 de lei, economii strânse în 20 de ani de muncă. Chiar dacă femeia a raportat această fraudă autorităților, experții consideră că șansele de recuperare a fondurilor pierdute sunt minime.
Actorii rău intenționați devin tot mai inventivi. Acum pot imita perfect vocea unei persoane dragi pentru a vă păcăli. Te pot suna pretinzând că sunt un membru al familiei care are nevoie urgentă de bani. Recomandăm ca întotdeauna să fie verificată identitatea apelantului, chiar dacă pare să fie o rudă sau un prieten cunoscut. Nu trimite niciodată bani în grabă și anunță imediat autoritățile dacă ai suspiciuni. Doar prin vigilență și informare te poți proteja de această formă de fraudă.
În 2019, un Deepfake audio a fost folosit pentru a înșela un CEO cu 220.000 de euro. Directorul general al unei firme de energie cu sediul în Marea Britanie a crezut că vorbea la telefon cu directorul general al companiei-mamă germane atunci când a urmat ordinele de a transfera imediat 220.000 de euro în contul bancar al unui furnizor maghiar. De fapt, vocea aparținea unui escroc care folosea tehnologia vocală IA pentru a-l imita pe directorul executiv german.
Fiți la curent cu ultimele noutăți. Urmăriți DCNews și pe Google News