OpenAI angajează un „Șef al departamentului de pregătire”, numind acest post drept „o poziție critică, într-un moment în care modelele lingvistice mari se îmbunătățesc foarte rapid.” Sam Altman, CEO-ul OpenAI avertizează că postul va fi solicitant: „Va fi un job stresant și te vei implica aproape imediat.” Salarizarea pentru acest job este de 555.000 de dolari, plus un pachet de acțiuni.
Altman a declarat că, în 2025, la OpenAI au fost deja identificate semnale timpurii privind impactul negativ al inteligenței artificiale asupra sănătății mintale. Într-o postare pe X, Altman a spus: „Acesta este un rol critic într-un moment important; modelele AI se îmbunătățesc rapid și acum sunt capabile de multe lucruri grozave, dar încep și să prezinte unele provocări reale.
:format(webp):quality(100)/https://www.dailybusiness.ro/wp-content/uploads/2025/12/altman-sam-1024x683.jpg)
„Potențialul impact negativ al modelelor lingvistice mari (Large Language Models – LLM), tehnologia care stă la baza aplicațiilor precum ChatGPT – asupra sănătății mintale a fost ceva ce am văzut în avanpremieră în 2025; abia acum vedem cum modelele devin atât de bune, în privința securității computerelor încât încep să găsească vulnerabilitățile critice.”
Altman a explicat că, deși OpenAI are sisteme pentru a măsura cât de puternice devin modelele sale, compania are nevoie de o înțelegere mai profundă a modului în care aceste capabilități ar putea fi utilizate în mod abuziv.
El a spus că obiectivul jobului este de a limita utilizările dăunătoare ale inteligenței artificiale în produse și în lumea reală, fără a împiedica oamenii să beneficieze de tehnologie.
El a adăugat că această muncă este dificilă deoarece există puține exemple din trecut din care să învățăm. Unele idei care par utile la început pot crea probleme neașteptate mai târziu.
Potrivit lui Altman, rolul va implica asistarea colegilor din domeniul securității cibernetice în utilizarea instrumentelor avansate de inteligență artificială, astfel încât atacatorii să nu poată utiliza abuziv aceeași tehnologie.
De asemenea, jobul acoperă modul în care OpenAI lansează sistemele de inteligență artificială legate de biologie și cum compania asigură siguranța sistemelor care se pot îmbunătăți în timp.
Utilizarea abuzivă a inteligenței artificiale a crescut brusc, infractorii cibernetici utilizează din ce în ce mai mult instrumentele de inteligență artificială pentru a comite infracțiuni precum atacuri de phishing, fraude online și alte escrocherii digitale.
Compania OpenAI, producătoarea ChatGPT, a fost supusă anchetei în septembrie, după moartea unui tânăr de 16 ani care interacționase intens cu chatbotul.
Potrivit unui raport NPR, băiatul i-a mărturisit inteligenței artificiale gândurile și planurile sale suicidare. Chatbotul nu l-a încurajat să ceară ajutorul părinților și, la un moment dat, chiar s-a oferit să-l ajute să scrie un bilet de adio.
Într-un raport din octombrie, BMJ a declarat că un audit al companiei a constatat că sute de mii de utilizatori ChatGPT prezintă semne de psihoză, manie sau gânduri suicidare în fiecare săptămână.