Experții avertizează cu privire la riscurile GPT-4, noul instrument baza pe inteligență artificială de la OpenAI.
Lansarea lui GPT-4 marchează o altă piatră de hotar majoră pentru progresul software-ului generator de inteligență artificială, dar experții cred că este posibil să fi declanșat un val cu totul nou de criminalitate cibernetică, potrivit Verdict.
GPT-4 de la OpenAI este următorul model al celui mai popular chatbot din lume, ChatGPT. Lansat în noiembrie anul trecut, chatbot-ul generativ a atras milioane de utilizatori.
Noul model îmbunătățit permite procesarea simultană a de opt ori mai multe cuvinte și este capabil să treacă un examen simulat de barou de drept cu un scor în primii 10% dintre cei care iau testul.
„Cu o posibilitate sporită de a emula performanța la nivel uman în scenarii academice, capacitatea tehnologiei este cu adevărat impresionantă”, a declarat Alexey Khitrov, fondatorul ID R&D, pentru Verdict, „dar aceste capabilități îmbunătățite oferă, de asemenea, infractorilor cibernetici mai multe modalități de a-și realiza operațiunile de fraudă mai eficient și mai scalabil.”
Khitrov, a cărei companie biometrică se concentrează pe a face autentificarea de securitate cât mai sigură și accesibilă posibil, consideră că GPT-4 este capabil să creeze răspunsuri scrise mai convingătoare pentru a fi tuilizate cu scopul de fraudă.
„Acest lucru va face mai greu pentru victimele vizate să discearnă dacă interacționează cu omul sau cu mașina și dacă sunt înșelați de phishing sau vishing”, a spus Khitrov.
„Mai ales că serviciile automatizate sunt popularizate, iar vocea și imaginea AI antrenate devin mai convingătoare”, a adăugat el.
Alți experți cred, de asemenea, că GPT-4 are puterea să „accelereze criminalitatea cibernetică” și să „împuternicească pe răufăcători”.
„ChatGPT4 poate oferi răufăcătorilor, chiar și celor non-tehnici, instrumentele pentru a-și accelera și valida activitatea”, a declarat Oded Vanunu, șeful cercetării vulnerabilității produselor la Check Point Software, pentru Verdict.
Potrivit lui Vanunu, a cărei echipă și-a petrecut cele 24 de ore de la lansarea GPT-4 cercetând capacitățile sale de criminalitate cibernetică, susține că este capabilă să depășească provocările tehnice în dezvoltarea malware-ului.
„Ceea ce vedem este că ChatGPT4 poate servi atât actorilor buni, cât și celor răi. Actorii buni pot folosi ChatGPT pentru a crea cod util societății, dar, în același timp, actorii răi pot folosi această tehnologie AI pentru executarea rapidă a criminalității cibernetice”, a spus Vanunu.
Fiți la curent cu ultimele noutăți. Urmăriți DCNews și pe Google News