Meta, Microsoft și Adobe se aliază împotriva deepfake-urilor periculoase, susține Reuters.
20 de companii de tehnologie de top, inclusiv Meta, Microsoft și Open AI, au semnat un acord pentru a combate dezinformarea generată de inteligența artificială (AI) în alegerile din 2024. Acordul vine ca răspuns la creșterea îngrijorărilor legate de potențialul acestei tehnologii de a influența procesele electorale din întreaga lume.
Creșterea accelerată a inteligenței artificiale generative, care poate crea text, imagini și video în doar câteva secunde, a stârnit temeri privind utilizarea sa în scopuri malițioase în cadrul alegerilor din acest an. Peste jumătate din populația lumii urmează să își aleagă liderii, iar dezinformarea prin AI reprezintă o amenințare serioasă.
Acordul semnat la Conferința de Securitate de la München reunește companii care dezvoltă modele generative de AI pentru crearea de conținut (OpenAI, Microsoft, Adobe) și platforme sociale media responsabile de controlul dezinformării (Meta, TikTok, X).
Semnatarii se angajează să colaboreze în dezvoltarea instrumentelor pentru detectarea imaginilor, videourilor și audio-urilor falsificate cu ajutorul AI, să realizeze campanii publice de conștientizare a alegătorilor cu privire la conținutul înșelător și să elimine rapid informațiile dăunătoare de pe platformele lor.
Tehnologia de identificare a conținutului generat de AI sau pentru certificarea originii sale ar putea implica filigranare sau metadate înglobate.
„Considerăm că forța acestui acord constă în diversitatea și numărul participanților”, a declarat Nick Clegg, președintele pentru afaceri internaționale la Meta Platforms.
„Este absolut necesar ca platformele individuale să dezvolte politici de detectare, trasabilitate, etichetare, filigranare etc., însă fără un angajament global și interoperabil, vom rămâne cu o diversitate de abordări ineficiente”, a adăugat Clegg.
În prezent, inteligența artificială generativă este deja utilizată pentru a influența politicile și chiar pentru a descuraja participarea la vot. De exemplu, în ianuarie, un robocall în Statele Unite folosind o înregistrare audio falsificată a președintelui Biden i-a îndemnat pe alegătorii din New Hampshire să nu participe la alegerile primare.
Deși instrumentele de generare de text precum ChatGPT de la OpenAI sunt populare, companiile tehnologice își vor concentra eforturile pe combaterea efectelor negative ale fotografiilor, videoclipurilor și audio-urilor create cu ajutorul AI. Acest lucru se datorează, parțial, faptului că oamenii tind să fie mai sceptici față de text.
„Există o conexiune emoțională cu audio, video și imagini”, a declarat Dana Rao, directorul de securitate la Adobe. „Creierul nostru este programat să accepte mai ușor acest tip de media.”
Acest acord reprezintă un pas important în combaterea dezinformării prin inteligență artificială și protejarea integrității proceselor electorale din întreaga lume. Rămâne de văzut însă cum vor fi implementate aceste angajamente și cât de eficiente vor fi măsurile luate de către giganții tehnologiei.
Fiți la curent cu ultimele noutăți. Urmăriți DCNews și pe Google News
de Val Vâlcu