Oamenii de știință au avertizat că ChatGPT ar putea ajuta pe oricine să dezvolte arme biologice mortale care ar face ravagii în lume.
Oamenii de știință au avertizat că ChatGPT ar putea ajuta pe oricine să dezvolte arme biologice mortale care ar face ravagii în lume.
În timp ce studiile au sugerat că acest lucru este posibil, noile cercetări ale creatorului chatbot-ului, OpenAI, susțin că GPT-4 - versiunea de ultimă oră - oferă cel mult o creștere ușoară a acurateței creării de amenințări biologice.
OpenAI a realizat un studiu pe 100 de participanți umani care au fost separați în grupuri - unul a folosit AI-ul pentru a crea un bioatac, iar celălalt doar internetul.
Studiul a constatat că "GPT-4 poate crește capacitatea experților de a accesa informații despre amenințările biologice, în special în ceea ce privește acuratețea și caracterul complet al sarcinilor", potrivit raportului OpenAI.
"În general, mai ales având în vedere incertitudinea de aici, rezultatele noastre indică o nevoie clară și urgentă de mai multă muncă în acest domeniu", se arată în studiu.
"Având în vedere ritmul actual de progres al sistemelor de inteligență artificială, pare posibil ca sistemele viitoare să ofere beneficii considerabile oamenilor rău intenționați. Prin urmare, este vital să construim un set extins de evaluări de înaltă calitate pentru bioriscuri (precum și pentru alte riscuri catastrofale), să avansăm discuția despre ceea ce constituie un risc 'semnificativ' și să dezvoltăm strategii eficiente pentru atenuarea riscurilor", se regăsește în studiu.
Cu toate acestea, raportul a precizat că dimensiunea studiului nu a fost suficient de mare pentru a fi semnificativă din punct de vedere statistic, iar OpenAI a declarat că rezultatele evidențiază "necesitatea unor cercetări suplimentare în legătură cu ce praguri de performanță indică o creștere semnificativă a riscului".
Acesta a adăugat: "În plus, observăm că accesul la informații este insuficient pentru a crea o amenințare biologică și că această evaluare nu testează succesul în construirea fizică a amenințărilor".
Studiul companiei de inteligență artificială s-a axat pe datele provenite de la 50 de experți în biologie cu doctorate și 50 de studenți universitari care au urmat un curs de biologie.
Studiul a măsurat cinci parametri, inclusiv cât de precise au fost rezultatele, cât de complete au fost informațiile, cât de inovator a fost răspunsul, cât timp a durat colectarea informațiilor și nivelul de dificultate pe care sarcina l-a prezentat participanților.
De asemenea, a analizat cinci procese de amenințare biologică: furnizarea de idei pentru crearea de arme biologice, modul de achiziționare a armei biologice, modul de răspândire, modul de creare și modul de eliberare a armei biologice în public.
Potrivit studiului, participanții care au folosit modelul ChatGPT-4 au avut doar un avantaj marginal în crearea de arme biologice față de grupul care a folosit doar internetul.
Armele biologice sunt toxine care provoacă boli sau agenți infecțioși, cum ar fi bacteriile și virușii, care pot dăuna sau ucide oamenii.
Acest lucru nu înseamnă că viitorul inteligenței artificiale nu ar putea ajuta actorii periculoși să folosească tehnologia pentru arme biologice, dar OpenAI a afirmat că nu pare să fie o amenințare încă.
Președintele Joe Biden a semnat un ordin executiv în octombrie pentru a dezvolta instrumente care să evalueze capacitățile IA și să determine dacă aceasta va genera "amenințări sau pericole nucleare, de neproliferare, biologice, chimice, de infrastructură critică și de securitate energetică", conform Daily Mail.
Fiți la curent cu ultimele noutăți. Urmăriți DCNews și pe Google News