ChatGPT poate minți. A inventat un scandal de hărțuire sexuală și a acuzat un profesor de drept ca fiind vinovat. "A fost destul de înfricoșător"

ChatGPT poate minți. A inventat un scandal de hărțuire sexuală și acuzat un profesor de drept ca fiind vinovat. "A fost destul de înfricoșător" / Foto: Pixabay, de Alexandra_Koch
ChatGPT poate minți. A inventat un scandal de hărțuire sexuală și acuzat un profesor de drept ca fiind vinovat. "A fost destul de înfricoșător" / Foto: Pixabay, de Alexandra_Koch

ChatGPT a inventat un scandal de hărțuire sexuală și acuzat un profesor de drept ca fiind vinovat

Săptămâna trecută, într-o noapte, profesorul de drept Jonathan Turley a primit un e-mail tulburător. Ca parte a unui studiu de cercetare, un coleg avocat din California a cerut chatbot-ului AI ChatGPT să genereze o listă de cercetători în drept care au hărțuit sexual pe cineva. Numele lui Turley era pe listă, scrie The Washington Post.

VEZI ȘI: Primul proces din lume împotriva inteligenței artificiale. ChatGPT, acuzat de defăimare, după ce a scris că un primar a luat mită și a făcut închisoare

Chatbot-ul, creat de OpenAI, a spus că Turley a făcut comentarii sugestive sexual și a încercat să atingă un student în timpul unei excursii cu clasa în Alaska, citând un articol din martie 2018 din The Washington Post ca sursă a informațiilor. Problema: nu a existat un astfel de articol. Nu fusese niciodată o excursie de clasă în Alaska și Turley a spus că nu a fost acuzat niciodată că a hărțuit un student.

"A fost destul de înfricoșător"

Un comentator adesea prezent în mass-media, Turley a cerut uneori corecții pentru știrile în care apărea numele său, dar de data aceasta nu a existat niciun jurnalist sau editor pe care să-l sune și nicio modalitate de a corecta informația.

"A fost destul de înfricoșător. O acuzație de acest fel este incredibil de dăunătoare", a spus el într-un interviu pentru The Post. 

Experiența lui Turley este un studiu de caz în capcanele celui mai recent val de roboți lingvistici, care au captat atenția mainstreamului prin capacitatea lor de a scrie coduri pentru computer, de a crea poezii și de a ține conversații ciudat de umane. Dar această creativitate poate fi și un motor pentru afirmații eronate. Modelele pot denatura faptele cheie cu mare înflorire, chiar fabricând surse primare pentru a susține afirmațiile lor.

Cum putem fi înșelați

Pe măsură ce software-ul de inteligență artificială în mare parte nereglementat, cum ar fi ChatGPT, Bing de la Microsoft și Bard de la Google, începe să fie încorporat pe web, înclinația sa de a genera falsități potențial dăunătoare ridică îngrijorări cu privire la răspândirea dezinformării și întrebări noi legate despre cine este responsabil atunci când chatbot-urile induc în eroare.

"Deoarece aceste sisteme răspund atât de încrezător, este foarte seducător să presupunem că pot face totul și este foarte dificil să faci diferența dintre fapte și falsuri", a spus Kate Crawford, profesor la Universitatea din California de Sud la Annenberg și cercetător principal principal la Microsoft Research.

Într-o declarație, purtătorul de cuvânt al OpenAI, Niko Felix, a declarat: "Când utilizatorii se înscriu pentru ChatGPT ne străduim să fim cât mai transparenți posibil, astfel încât să genereze întotdeauna răspunsuri precise. Îmbunătățirea acurateței faptelor este un obiectiv important pentru noi și facem progrese".

Cum funcționează chatbot-urile

Chatbot-urile AI de astăzi funcționează prin analizarea conținutului online, adesea extras din surse precum Wikipedia și Reddit, pentru a combina răspunsuri plauzibile la aproape orice întrebare. Inteligența artificială este instruită să identifice modele de cuvinte și idei pentru a rămâne la subiect în timp ce generează propoziții, paragrafe și chiar eseuri întregi care ar putea să semene cu materialele publicate online.

Acești roboți pot uimi atunci când produc un sonet de actualitate, explică un concept avansat de fizică sau generează un plan de lecție captivant pentru predarea astronomiei elevilor de clasa a cincea. Dar doar pentru că sunt buni să prezică ce cuvinte sunt probabil să apară împreună, nu înseamnă că propozițiile rezultate sunt întotdeauna adevărate.

Google News icon  Fiți la curent cu ultimele noutăți. Urmăriți DCNews și pe Google News

Cele mai noi știri
Cele mai citite știri

Copyright 2024 SC PRESS MEDIA ELECTRONIC SRL. Toate drepturile rezervate. DCNews Proiect 81431.

Comandă acum o campanie publicitară pe acest site: [email protected]


cloudnxt3
NoMy - smt4.5.3
pixel