Într-un weekend de la mijlocul lunii mai, la Berkeley, California, a avut loc o reuniune secretă, organizată sub formă de conclav, la care au participat 30 dintre cei mai respectați matematicieni din lume. Scopul întâlnirii a fost testarea capacităților unui nou model avansat de inteligență artificială, o4-mini, un model de limbaj de tip LLM (Large Language Model) specializat în raționament matematic.
Te-ar mai putea interesa și: Evaluarea Națională 2025. Elevii clasei a VIII-a continuă examenele cu proba la matematică
Acești experți în matematică, aleși pentru a participa în proiectul FrontierMath organizat de organizația Epoch AI, au fost însărcinați să conceapă probleme dificile, care să pună la încercare limitele gândirii matematice ale modelului AI. Atmosfera a fost una de maximă discreție, participanții fiind obligați să semneze acorduri de confidențialitate și să comunice doar prin aplicația criptată Signal, pentru a evita orice „contaminare” a datelor cu întrebări ce ar putea fi reutilizate de AI în antrenamente viitoare.
o4-mini, antrenat de OpenAI, este considerat un pas important în dezvoltarea modelelor capabile de raționament logic profund, depășind performanțele versiunilor tradiționale ale LLM-urilor, ca cele folosite anterior în ChatGPT. Prin antrenamente specifice și întărire din partea experților umani, o4-mini a fost conceput pentru a rezolva probleme matematice de o complexitate ridicată.
Testarea reală a fost lansată anterior, când Epoch AI a propus un set de 300 de întrebări matematici inedite. Modelele clasice au eșuat lamentabil, cele mai bune reușind să rezolve sub 2% dintre probleme. Spre deosebire de ele, o4-mini a obținut un scor de circa 20% în doar câteva luni de testare, iar ulterior a început să rezolve chiar și probleme de nivel doctoral, extrem de dificile, pe care doar o mână de oameni din lume le-ar putea înțelege, darămite rezolva.
În timpul întâlnirii din mai, participanții au fost împărțiți în echipe și s-au întrecut în a concepe întrebări care să blocheze chatbotul. Fiecare problemă nerezolvată de AI era recompensată cu 7.500 de dolari, dar sarcina s-a dovedit mai dificilă decât se anticipase.
De exemplu, Ken Ono, profesor de matematică la Universitatea din Virginia și lider al evenimentului, a propus o problemă avansată de teorie a numerelor. Spre surprinderea lui, o4-mini nu doar că a înțeles problema, dar a parcurs literatura de specialitate în câteva minute, a rezolvat o versiune simplificată a problemei pentru a-și testa înțelegerea și apoi a prezentat o soluție corectă în timp real, comentând ironic că „nu este necesară citarea, deoarece numărul a fost calculat de mine!”.
Pentru Ono și ceilalți matematicieni, această demonstrație de raționament a fost uluitoare, dar și ușor neliniștitoare. Era evident că se confruntau nu cu un simplu model statistic, ci cu un „colaborator puternic”, după cum l-a numit chiar el.
În cele din urmă, cercetătorii au reușit să formuleze zece întrebări care au pus în dificultate modelul o4-mini. Cu toate acestea, impresia generală a fost că AI-ul nu doar că rezolva probleme de mare dificultate, ci o făcea cu o viteză incomparabil mai mare decât orice expert uman, în câteva minute, față de săptămâni sau luni necesare unui matematician profesionist.
Cu toate aceste reușite, participanții și-au exprimat îngrijorarea cu privire la un viitor în care AI-ul ar putea deveni atât de puternic încât să intimideze sau să eclipseze gândirea umană. Matematicianul Yang Hui He a remarcat că o4-mini oferă soluții cu o încredere atât de mare, încât se impune prin autoritate, un fenomen pe care l-a numit „dovadă prin intimidare”.
Pe măsură ce evenimentul se apropia de final, discuțiile s-au îndreptat către posibila apariție a unui „nivel 5”, întrebări pe care niciun matematician uman nu le poate rezolva.
Te-ar mai putea interesa și: Bacalaureat 2025. Subiecte MATEMATICĂ și ISTORIE. Ce au primit elevii la proba obligatorie a profilului