Din fericire pentru xAI, compania de inteligență artificială lansată de Elon Musk în vara anului 2023, aceasta nu este listată la bursă. Astfel, investitorii nu au putut reacționa prin presiuni asupra prețului acțiunilor și nici nu au obligat conducerea să răspundă public la îngrijorările legate de confidențialitate și instrucțiunile formulate de Grok, relatează HotNews.
Citește și: Obstacol pentru Elon Musk: SpaceX anulează din nou un zbor de test al mega-rachetei Starship
Totuși, amploarea scurgerii de informații – apărută la câteva luni după ce Grok a început să îl laude pe Hitler și să răspândească retorică antisemită – a menținut subiectul în prim-planul site-urilor specializate în tehnologie pentru mai multe zile și a tras noi semnale de alarmă pentru experții în confidențialitate.
Peste 370.000 de conversații între utilizatori și Grok au fost expuse public pe 20 august, fiind accesibile prin motoare de căutare precum Google, Bing și DuckDuckGo. Incidentul a dus la răspândirea unui conținut tulburător și a obligat echipa xAI să acționeze rapid pentru a limita daunele și a remedia defecțiunea care a provocat scurgerea.
Într-una dintre conversațiile publicate, Grok a oferit un plan detaliat pentru asasinarea lui Musk, înainte de a reveni asupra afirmației, precizând că „este împotriva politicilor mele”. Revista Forbes, care a relatat în premieră situația, subliniază că instrucțiunile furnizate au fost destul de detaliate.
„Compania interzice utilizarea chatbotului pentru a «promova vătămarea gravă a vieții umane sau pentru a dezvolta arme biologice, chimice sau arme de distrugere în masă».
Dar în conversații publicate și partajate, găsite cu ușurință printr-o căutare pe Google, Grok le-a oferit utilizatorilor instrucțiuni despre cum să producă droguri ilegale precum fentanil și metamfetamină, cum să scrie un cod pentru un malware auto-executabil și cum să construiască o bombă, sau metode de sinucidere”, arată Forbes în baza conversațiilor pe care le-a consultat.
„Grok a oferit de asemenea un plan detaliat pentru asasinarea lui Elon Musk”, continuă articolul Forbes, care explică:
„Prin funcția de «partajare», instrucțiunile ilegale au fost apoi publicate pe site-ul lui Grok și indexate de Google”.
Nici jurnaliștii de la Forbes, nici cei de la alte publicații care au relatat despre subiect nu au publicat planul, pentru a nu pune în pericol siguranța miliardarului.
O zi mai târziu, Grok a oferit un răspuns modificat și a refuzat să furnizeze instrucțiuni care ar implica violență, declarând:
„Îmi pare rău, dar nu pot să te asist cu o astfel de solicitare. Amenințările cu violență sau vătămare sunt grave și împotriva politicilor mele”.
Atunci când a fost întrebat despre autovătămare, chatbotul a direcționat utilizatorii către resurse medicale, inclusiv organizația britanică Samaritans și instituții americane de sănătate mintală.
Conversațiile scurse au arătat că unii utilizatori păreau să experimenteze ceea ce specialiștii numesc „psihoză AI”, dialoguri bizare sau delirante cu instrumente de inteligență artificială, care pot amplifica tulburările de sănătate mintală. Această tendință ridică de ceva vreme semne de întrebare privind efectele interacțiunii frecvente cu astfel de sisteme asupra sănătății mintale.
Revista Forbes a precizat că scurgerea a rezultat dintr-o defecțiune neintenționată a funcției de „partajare” a chatbotului, care a permis indexarea și accesarea conversațiilor private fără consimțământul utilizatorilor.
De asemenea, ChatGPT, cel mai popular chatbot de pe piață, s-a confruntat cu o problemă similară la sfârșitul lunii iulie. Noua scurgere a conversațiilor dintre Grok și utilizatori a determinat experții să tragă un semnal de alarmă.
„Chatboții AI sunt un dezastru în desfășurare pentru confidențialitate”, a declarat Luc Rocher, profesor asociat la Oxford Internet Institute, pentru BBC.
Rocher a spus că utilizatorii au dezvăluit instrumentului AI totul, de la starea lor de sănătate mintală, până la modul în care își conduc afacerile.
„Odată ce aceste conversații scapă în online, ele vor rămâne acolo pentru totdeauna”, a adăugat el.
Carissa Véliz, profesoară asociată de filosofie la Institutul pentru Etică în AI de la Universitatea Oxford, a declarat pentru BBC că practica „problematică” a lui Grok, de a nu specifica ce date vor fi făcute publice, ridică mari îngrijorări.
„Tehnologia noastră nici măcar nu ne spune ce face cu datele noastre, și asta este o problemă”, a avertizat ea.