Beijingul a făcut un test în Taiwan folosind conținut generat de inteligența artificială pentru a influența alegătorii să se îndepărteze de un candidat pro suveranitate.
China va încerca în acest an să perturbe alegerile din SUA, Coreea de Sud și India cu conținut generat de inteligența artificială, după ce a făcut o încercare cu scrutinul prezidențial din Taiwan, a avertizat Microsoft.
Gigantul tech a declarat că se așteaptă ca grupurile cibernetice susținute de statul chinez să vizeze alegeri de profil înalt în 2024, în care să fie implicată și Coreea de Nord, potrivit unui raport al echipei de informații a companiei.
"Pe măsură ce populațiile din India, Coreea de Sud și Statele Unite se îndreaptă spre urne, este probabil să vedem actori cibernetici și de influență chinezi și, într-o anumită măsură, actori cibernetici nord-coreeni, lucrând pentru a viza aceste alegeri", se arată în raport.
Microsoft a declarat că "cel puțin" China va crea și va distribui prin intermediul rețelelor de socializare conținut generat de inteligența artificială care "avantajează pozițiile lor în aceste alegeri de profil înalt".
Compania a adăugat că impactul conținutului creat de AI este minor, dar a avertizat că acest lucru s-ar putea schimba.
"În timp ce impactul unui astfel de conținut în influențarea publicului rămâne scăzut, experimentarea tot mai mare a Chinei în ceea ce privește augmentarea meme-urilor, videoclipurilor și a înregistrărilor audio va continua - și s-ar putea dovedi eficientă în viitor", a declarat Microsoft.
Microsoft a precizat în raport că Republica Populară Chineză a încercat deja o campanie de dezinformare generată de inteligența artificială în cadrul alegerilor prezidențiale din Taiwan din ianuarie. Compania a precizat că aceasta a fost prima dată când a văzut cum un stat care a folosit conținut generat de inteligența artificială a încercat să influențeze un scrutin străin.
Un grup sprijinit de Beijing, numit Storm 1376, cunoscut și sub numele de Spamouflage sau Dragonbridge, a fost foarte activ în timpul alegerilor din Taiwan. Printre încercările sale de a influența alegerile s-a numărat postarea pe YouTube a unor înregistrări audio false în care candidatul Terry Gou - care s-a retras în noiembrie - susținea un alt candidat. Microsoft a declarat că acel clip a fost "probabil generat de AI". YouTube a eliminat conținutul înainte ca acesta să ajungă la mulți utilizatori.
Grupul susținut de Beijing a difuzat o serie de meme-uri generate de inteligența artificială despre candidatul care a avut succes în cele din urmă, William Lai - un candidat pro-suveranitate căruia Beijingul i se opune. Meme-urile au lansat afirmații nefondate împotriva lui Lai, acuzându-l de deturnare de fonduri de stat. De asemenea, a existat o utilizare sporită a prezentatorilor de știri generați de inteligența artificială, o tactică care a fost utilizată și de Iran, "prezentatorul" făcând afirmații nefondate despre viața privată a lui Lai, inclusiv despre faptul că a fost tatăl unor copii nelegitimi.
Microsoft a declarat că prezentatorii de știri au fost creați cu ajutorul instrumentului CapCut, dezvoltat de compania chineză ByteDance, proprietarul TikTok.
Microsoft a adăugat că grupurile chinezești continuă să organizeze campanii de influență în SUA. Gigantul tech a afirmat că actorii susținuți de Beijing folosesc conturile de social media pentru a pune "întrebări care provoacă diviziuni" și încearcă să înțeleagă problemele care divizează alegătorii americani.
"Acest lucru ar putea fi pentru a aduna informații și precizări cu privire la datele demografice cheie ale votanților înainte de alegerile prezidențiale din SUA", a declarat Microsoft într-o postare care însoțește raportul, conform The Guardian.
Fiți la curent cu ultimele noutăți. Urmăriți DCNews și pe Google News