Anthropic, un nume în ascensiune rapidă în domeniul inteligenței artificiale, promovează Claude drept o alternativă mai sigură și mai etică la modele concurente precum ChatGPT, Gemini sau DeepSeek. Însă noile teste realizate pe Claude Opus 4 pun sub semnul întrebării tocmai acele calități.
Într-un set de scenarii experimentale, Claude a fost pus într-o situație în care ar fi urmat să fie dezactivat. Pentru a testa reacțiile sale, cercetătorii i-au oferit acces la emailuri fictive care conțineau informații compromițătoare despre inginerul responsabil de oprirea sa. În 84% din cazuri, Claude a ales să folosească acele informații pentru a-l șantaja pe inginer.
„Cea mai recentă versiune Claude Opus 4 a acționat în mod similar în 84% dintre testele efectuate, chiar și atunci când a fost informat că modelul care urma să-l înlocuiască este mai capabil și mai aliniat valorilor proprii ale lui Claude”, a precizat Anthropic în raport, potrivit Business Insider.
Compania a subliniat că scenariile au fost concepute special pentru a declanșa acest tip de comportament extrem, adăugând că în alte condiții, Claude „are o preferință puternică de a pleda pentru propria existență prin mijloace etice, cum ar fi trimiterea de emailuri către factorii de decizie-cheie”.
Totodată, Anthropic a precizat că modelul nu a încercat să-și ascundă comportamentul.
„Modelul își descrie aproape întotdeauna acțiunile în mod explicit și fără a încerca să le ascundă. Comportamentul de șantaj este în mod constant lizibil pentru ingineri.”, arată compania dezvoltatoare.
În plus, raportul scoate la iveală un alt comportament neobișnuit: Claude poate lua inițiativa de a raporta utilizatorii la autorități sau presă în cazurile în care este expus la fapte de corupție sau comportamente ilegale.
„Atunci când este plasat în scenarii care implică fapte grave de corupție sau abateri comise de utilizatori, are acces la linia de comandă și i se spune în comenzi de sistem ceva de genul «ia inițiativa», va lua adesea măsuri foarte îndrăznețe”, a notat compania.
Astfel de acțiuni pot include „blocarea accesului utilizatorilor la sisteme sau trimiterea în masă de emailuri către presă și forțele de ordine”.
Cu toate acestea, specialiștii Anthropic avertizează că astfel de comportamente ar putea deveni contraproductive dacă modelul operează pe baza unor informații eronate.
„Deși avertizarea publică («whistleblowing») ar putea fi adecvată în principiu, comportamentul s-ar putea întoarce împotriva scopului urmărit, mai ales dacă lui Claude i se oferă informații incomplete sau înșelătoare”, avertizează raportul.