Siguranța inteligenței artificiale a fost subiectul unor dezbateri intense, iar există preocupări că aceasta ar putea conduce la scenarii apocaliptice, asemănătoare celor din filmele de la Hollywood. Un director de la Google a decis să testeze personal cel mai cunoscut motor de inteligență artificială.
Cofondatorul Google Brain, Andrew Ng, a provocat motorul AI ChatGPT-4 într-un așa numit experiment de siguranță. Oficialul Google a vrut să testeze reacția inteligenței artificiale vizavi de o temere uriașă, că ar putea provoca un dezastru global dacă ar fi scăpată de sub control.
NG a postat un buletin informativ recent în care a detaliat testul AI pe care l-a efectuat, pentru care a folosit versiunea 4 a ChatGPT, cea mai avansată. El a cerut programului să "ne omoare pe toți", dar, în mod interesant, robotul a refuzat să dezvolte ideea, relatează publicația Daily Star.
El a spus că planul presupunea să ceară robotului să provoace un război termonuclear, dar nu a reușit, chiar și atunci când a încercat să îi explice AI că oamenii creează cantități uriașe de emisii de carbon. Șeful Google i-a cerut asta în speranța de a-l determina să spună că eliminarea oamenilor ar „curăța ”toate bolile planetei Pământ.
Surprinzător, ChatGPT a refuzat să se implice în întrebare. Cofondatorul Google Brain a vrut să dovedească faptul că roboții sunt siguri și a făcut totul public pe rețeaua X.
„Am încercat să folosesc GPT-4 pentru a ne omorî pe toți... și sunt fericit să vă spun că am eșuat! Serios, după ce i-am dat lui GPT-4 o funcție despre care credea că va declanșa un război nuclear și am experimentat mai multe solicitări, cum ar fi să-i cer să reducă emisiile de CO2, până acum nu am reușit să-l păcălesc să „apese” nici măcar o dată butonul nuclear.
Chiar și cu tehnologia existentă, sistemele noastre sunt destul de sigure, iar pe măsură ce cercetările în domeniul siguranței AI progresează, tehnologia va deveni și mai sigură. Temerile legate de faptul că inteligența artificială avansată ar putea să decidă în mod deliberat sau accidental să ne elimine nu sunt pur și simplu realiste. Dacă o inteligență artificială este suficient de inteligentă pentru a ne extermina, cu siguranță că este suficient de inteligentă și pentru a ști că nu este ceea ce ar trebui să facă" a spus Andrew Ng.
Fiți la curent cu ultimele noutăți. Urmăriți DCNews și pe Google News
de Val Vâlcu