„Tinerii, mai ales, îl folosesc pe ChatGPT ca pe un terapeut sau coach de viață, cerând sfaturi despre relații și despre ce să facă. Dar, spre deosebire de un profesionist autorizat, un chatbot nu oferă nicio protecție legală.”, a explicat Altman.
Șeful OpenAI a recunoscut că, în prezent, industria inteligenței artificiale nu dispune de un cadru juridic clar care să garanteze confidențialitatea utilizatorilor, scrie Mashable. Acest lucru înseamnă că orice informație transmisă către ChatGPT sau alte instrumente AI poate, teoretic, să fie accesată și, în unele cazuri, folosită ca probă în instanță.
Lipsa unor reglementări uniforme este agravată de climatul legislativ fragmentat din Statele Unite. În timp ce autoritățile federale caută să impună reguli coerente, reglementările la nivel de stat variază semnificativ, generând un context incert pentru protecția datelor utilizatorilor de AI. Deși anumite legi federale reglementează conținutul generat de AI, precum deepfake-urile, protecția conversațiilor personale rămâne o zonă gri.
Un exemplu concret al acestei ambiguități legale este litigiul în desfășurare între OpenAI și cotidianul The New York Times. În cadrul procesului, companiei i s-a cerut să păstreze toate conversațiile utilizatorilor, ca parte a procedurilor legale. OpenAI contestă această decizie în instanță, încercând să protejeze datele respective, dar cazul evidențiază riscurile legate de lipsa unui cadru clar privind datele generate prin AI.
În acest context, experții în drept digital și confidențialitate îndeamnă publicul să evite divulgarea de informații sensibile în conversațiile cu inteligența artificială. Până la adoptarea unor norme stricte care să protejeze datele utilizatorilor, informațiile personale pot rămâne vulnerabile la accesări neautorizate sau la utilizări în contexte juridice.