Femeile, în special, au fost vizate de tehnologia care creează deepfake-uri explicite. Discuția pe care ar trebui să o ai cu copilul tău.
Publicitate
Problema s-ar putea să pară abstractă până când imagini pornografice false cu Taylor Swift, generate de inteligență artificială, au devenit virale pe platforma de socializare X/Twitter. Acum, problema pur și simplu nu poate fi ignorată, spun experții în securitatea online a copiilor.
"Când se întâmplă asta [lui Swift], cred că minorii și părinții încep să realizeze că nimeni nu este imun la asta", spune Laura Ordoñez, redactor-șef și șef de media digitală și familie la Common Sense Media, notează Mashable.
Fie că explici conceptul de deepfake-uri și abuz bazat pe imagini AI, vorbind despre durerea pe care astfel de imagini o cauzează victimelor, sau ajutându-ți copilul să dezvolte abilități critice de gândire pentru a lua decizii etice despre deepfake-uri, există multe lucruri pe care părinții le pot și ar trebui să le abordeze în conversațiile continue despre acest subiect.
Adam Dodge, fondatorul The Tech-Savvy Parent, spune că părinții care simt că trebuie să înțeleagă temeinic deepfake-urile înainte de o conversație cu copilul lor nu trebuie să-și facă griji că par sau devin experți.
În schimb, tot ce este necesar este o înțelegere de bază a conceptului că software-ul și algoritmii alimentați de AI fac uimitor de ușor să se creeze deepfake-uri realiste și explicite și că astfel de tehnologii sunt ușor de accesat online. De fapt, copiii de vârstă școlară primară pot întâlni aplicații sau software-uri cu această capacitate și le pot folosi pentru a crea deepfake-uri cu puține provocări sau bariere tehnice.
"Ceea ce le spun părinților este: 'Uitați-vă, trebuie să înțelegeți cât de devreme și des copiii sunt expuși la această tehnologie, că se întâmplă mai devreme decât vă dați seama și să apreciați cât de periculoasă este."
Dodge spune că părinții trebuie să fie pregătiți să discute despre posibilitatea ca tehnologia să vizeze copilul lor; că vor vedea conținut inadecvat; sau că vor participa la crearea sau distribuirea de imagini false explicite.
Dacă sunteți destul de îngrijorat de aceste posibilități, încercați să nu vă grăbiți într-o discuție despre deepfake-uri. În schimb, Ordoñez recomandă abordarea subiectului într-un mod deschis, neînfricoșător, întrebându-vă copilul ce știe sau ce a auzit despre deepfake-uri.
Ea adaugă că este important să priviți abuzul bazat pe imagini AI ca o formă de manipulare online care există pe aceeași scară cu dezinformarea. Cu această structură, reflectarea asupra deepfake-urilor devine un exercițiu de gândire critică.
Ordoñez spune că părinții pot ajuta copilul să învețe semnele care arată că imaginile au fost manipulate. Deși evoluția rapidă a AI face ca unele dintre aceste semne caracteristice să nu mai fie evidente, Ordoñez spune că este încă util să subliniezi că orice deepfake (nu doar cel explicit) poate fi identificat prin decolorarea feței, iluminarea care pare neobișnuită și estomparea la nivelul gâtului și părului.
Părinții pot învăța și ei alături de copilul lor, spune Ordoñez. Acest lucru ar putea implica citirea și discutarea împreună a conținutului artificial generat de AI, care nu este explicit, cum ar fi melodia "Heart on My Sleeve", lansată în mai 2023, care pretindea că folosește versiuni AI ale vocilor lui Drake și The Weeknd. Deși această poveste are relativ puține consecințe pentru copii, poate iniția o conversație semnificativă despre cum ar fi să-ți folosești vocea fără consimțământul tău.
În timp ce deepfake-urile explicite reprezintă abuz digital și violență împotriva victimei, copilul tău s-ar putea să nu înțeleagă pe deplin acest lucru. În schimb, ei ar putea fi curioși cu privire la tehnologie și chiar dornici să o încerce.
Dodge spune că, în timp ce acest lucru este înțeles, părinții pun în mod obișnuit limite rezonabile curiozității copiilor lor. De exemplu, alcoolul este ținut la distanță de ei. Filmele pentru adulți sunt interzise până la o anumită vârstă. Nu li se permite să conducă fără instruire și experiență adecvată.
Părinții ar trebui să privească tehnologia deepfake într-o manieră similară, spune Dodge: "Nu vrei să pedepsești copiii pentru curiozitatea lor, dar dacă au acces nelimitat la internet și inteligența artificială, această curiozitate îi va conduce pe căi periculoase."
Copiii pot privi deepfake-urile non-explicite ca pe o formă de divertisment. Pre-adolescenții și adolescenții ar putea chiar să creadă în mod incorect argumentul susținut de unii: că deepfake-urile pornografice nu sunt dăunătoare deoarece nu sunt reale.
Totuși, ei ar putea fi convinși să vadă deepfake-urile explicite ca pe un abuz bazat pe imagini AI atunci când discuția include concepte precum consimțământul, empatia, bunătatea și bullying-ul. Dodge spune că invocarea acestor idei în timpul discuției despre deepfake-uri poate îndrepta atenția copilului către victime.
Dacă, de exemplu, un adolescent știe să ceară permisiunea înainte de a lua un obiect fizic de la un prieten sau coleg de clasă, același lucru este valabil și pentru obiecte digitale, cum ar fi fotografiile și videoclipurile postate pe rețelele de socializare. Folosirea acestor fișiere digitale pentru a crea un deepfake nud cuiva nu este o glumă sau un experiment inofensiv, ci o formă de furt care poate duce la suferință profundă pentru victimă.
În mod similar, Dodge spune că, așa cum o persoană tânără nu ar ataca pe cineva pe stradă din senin, nu se aliniază valorilor lor să atace pe cineva virtual.
"Aceste victime nu sunt fabricate sau false", spune Dodge. "Acestea sunt persoane reale."
În general, Ordoñez spune că părinții pot vorbi despre ce înseamnă să fii un bun cetățean digital, ajutându-și copilul să reflecteze dacă este în regulă să inducă în eroare oamenii, consecințele deepfake-urilor și cum ar putea face să se simtă ceilalți când văd sau devin victime ale imaginilor.
Ordoñez observă că adulții, inclusiv părinții, nu sunt imuni la participarea cu entuziasm la ultima tendință digitală fără a reflecta asupra implicărilor. Ia, de exemplu, cât de repede adulții au început să-și facă autoportrete AI interesante folosind aplicația Lensa la sfârșitul anului 2022. Dincolo de entuziasm, existau preocupări semnificative legate de confidențialitate, drepturile utilizatorilor și potențialul aplicației de a fura sau de a îndepărta artiști.
Momente ca acestea sunt momentul ideal pentru ca părinții să reflecteze asupra propriilor practici digitale și să modeleze comportamentul pe care ar dori ca copiii lor să-l adopte, spune Ordoñez. Atunci când părinții iau o pauză pentru a reflecta critic asupra alegerilor lor online și împărtășesc perspectiva acelei experiențe cu copilul lor, demonstrează cum pot adopta aceeași abordare.
Atunci când părinții aud despre pericolele pe care le prezintă deepfake-urile, Ordoñez spune că adesea doresc o "solutie rapidă" pentru a-și ține copilul departe de aplicațiile și software-urile care utilizează această tehnologie.
Utilizarea controalelor parentale care restricționează accesul la anumite descărcări și site-uri este importantă, spune Dodge. Cu toate acestea, astfel de controale nu sunt o soluție sigură. Copiii pot și vor găsi o modalitate de a ocoli aceste restricții, chiar dacă nu își dau seama ce fac.
În plus, Dodge spune că un copil ar putea vedea deepfake-uri sau ar putea întâlni tehnologia la casa unui prieten sau pe dispozitivul mobil al altcuiva. De aceea, este crucial să se aibă conversații despre abuzul bazat pe imagini AI, "chiar dacă punem restricții puternice prin controalele parentale sau luăm dispozitivele noaptea", spune Dodge.
Perspectiva ca propriul copil să rănească un coleg cu abuz bazat pe imagini AI sau să devină victima acestuia este înfricoșătoare. Dar Ordoñez avertizează împotriva utilizării tacticilor de speriat pentru a descuraja un copil sau adolescent să interacționeze cu tehnologia și conținutul.
Atunci când vorbești cu fete tinere, în special, ale căror fotografii și videoclipuri de pe rețelele de socializare ar putea fi folosite pentru a genera deepfake-uri explicite, Ordoñez sugerează să vorbești cu ele despre cum se simt atunci când postează imagini cu ei înșiși și riscurile potențiale. Aceste conversații nu ar trebui să arunce vina asupra fetelor care doresc să participe la social media. Cu toate acestea, discutarea riscurilor le poate ajuta să reflecteze asupra propriilor setări de confidențialitate.
În timp ce nu există nicio garanție că o fotografie sau videoclip cu ele nu va fi folosită împotriva lor la un moment dat, ele pot simți că au puterea de a face alegeri intenționate despre ce distribuie.
Si adolescenții pot beneficia de faptul că știu că întâlnirea cu tehnologia capabilă să creeze deepfake-uri explicite, într-o perioadă de dezvoltare în care sunt foarte vulnerabili să ia decizii pripite, poate duce la alegeri care să rănească grav pe alții, spune Ordoñez.
Încurajarea tinerilor să învețe să se retragă și să se întrebe cum se simt înainte de a face ceva de genul să creeze un deepfake poate face o diferență imensă.
"Atunci când te retragi, [copiii noștri] au această conștientizare, trebuie doar să fie împuternicită, susținută și îndrumată în direcția potrivită", spune Ordoñez.
Fiți la curent cu ultimele noutăți. Urmăriți DCNews și pe Google News
de Val Vâlcu