Ce se întâmplă?/Mai mulți cercetători OpenAI au avertizat compania despre o descoperire importantă în inteligența artificială care ar putea amenința omenirea
Înainte de cele patru zile de ”exil” ale directorului general al OpenAI, Sam Altman, mai mulți cercetători OpenAI au scris o scrisoare către consiliul de administrație în care avertizau cu privire la o descoperire puternică în domeniul inteligenței artificiale, despre care spuneau că ar putea amenința omenirea, au declarat pentru Reuters două persoane familiarizate cu acest subiect.
Scrisoarea și algoritmul de inteligență artificială, care nu au fost raportate anterior, au fost evoluții cheie înainte de înlăturarea de către consiliul de administrație a lui Altman, ”copilul minune” al inteligenței artificiale generative, au spus cele două surse. Înainte de revenirea sa triumfală, peste 700 de angajați au amenințat că vor demisiona și se vor alătura susținătorului Microsoft (MSFT.O) în semn de solidaritate cu liderul lor concediat.
Sursele au citat scrisoarea ca fiind un factor dintr-o listă mai lungă de nemulțumiri ale consiliului de administrație care a dus la concedierea lui Altman, printre care se numără preocupările legate de comercializarea progreselor înainte de a înțelege consecințele. Reuters nu a reușit să consulte o copie a scrisorii. Personalul care a scris scrisoarea nu a răspuns la solicitările de a comenta situația.
După ce a fost contactat de Reuters, OpenAI, care a refuzat să comenteze oficial, a recunoscut într-un mesaj intern adresat personalului un proiect numit Q* și o scrisoare adresată consiliului înainte de evenimentele din weekend, a declarat una dintre persoane. Un purtător de cuvânt al OpenAI a declarat că mesajul, trimis de Mira Murati, un director cu vechime, a alertat personalul cu privire la anumite articole din presă, fără a comenta acuratețea acestora.
Unii dintre cei de la OpenAI cred că Q* (pronunțat Q-Star) ar putea fi o descoperire în căutarea de către startup a ceea ce este cunoscut sub numele de inteligență generală artificială (AGI), a declarat una dintre persoane pentru Reuters. OpenAI definește AGI ca fiind sisteme autonome care depășesc oamenii în majoritatea sarcinilor valoroase din punct de vedere economic.
Având în vedere resursele vaste de calcul, noul model a fost capabil să rezolve anumite probleme matematice, a declarat persoana sub rezerva anonimatului, deoarece individul nu a fost autorizat să vorbească în numele companiei. Cu toate că efectua doar calcule matematice la nivelul elevilor de școală primară, faptul că a reușit astfel de teste i-a făcut pe cercetători să fie foarte optimiști cu privire la viitorul succes al Q*, a mai spus sursa.
Reuters nu a putut verifica în mod independent capacitățile lui Q* susținute de cercetători.
”VĂLUL IGNORANȚEI”
Cercetătorii consideră că matematica este o frontieră a dezvoltării inteligenței artificiale generative. În prezent, AI generativă este bună la scriere și la traducerea limbilor străine prin prezicerea statistică a următorului cuvânt, iar răspunsurile la aceeași întrebare pot varia foarte mult. Dar cucerirea abilității de a face matematică – unde există un singur răspuns corect – presupune că AI ar avea capacități mai mari de raționament asemănătoare cu inteligența umană. Acest lucru ar putea fi aplicat, de exemplu, la cercetări științifice noi, consideră cercetătorii în domeniul AI.
Spre deosebire de un calculator care poate rezolva un număr limitat de operații, AGI poate generaliza, învăța și înțelege.
În scrisoarea adresată consiliului de administrație, cercetătorii au semnalat abilitățile și potențialul pericol al inteligenței artificiale, au declarat sursele, fără a preciza exact care sunt problemele de siguranță menționate în scrisoare. Există de mult timp discuții în rândul informaticienilor cu privire la pericolul reprezentat de mașinile extrem de inteligente, de exemplu dacă acestea ar putea decide că distrugerea umanității este în interesul lor.
Cercetătorii au semnalat, de asemenea, activitatea unei echipe de „cercetători în domeniul inteligenței artificiale”, a cărei existență a fost confirmată de mai multe surse. Grupul, format prin combinarea echipelor anterioare „Code Gen” și „Math Gen”, explora modul de optimizare a modelelor de inteligență artificială existente pentru a le îmbunătăți raționamentul și, în cele din urmă, pentru a efectua lucrări științifice, a declarat una dintre persoane.
Altman a condus eforturile pentru a face din ChatGPT una dintre aplicațiile software cu cea mai rapidă creștere din istorie și a atras investițiile – și resursele de calcul – necesare de la Microsoft pentru a se apropia de AGI.
Pe lângă faptul că a anunțat o serie de noi instrumente în cadrul unei demonstrații în această lună, Altman a anunțat săptămâna trecută, în cadrul unui summit al liderilor mondiali din San Francisco, că, în opinia sa, se întrezăresc progrese majore.
„De patru ori în istoria OpenAI, cea mai recentă dată chiar în ultimele două săptămâni, am reușit să fiu prezent în sală, atunci când împingem vălul ignoranței înapoi și frontiera descoperirii înainte, iar a face acest lucru este o onoare profesională de neuitat”, a declarat el la summitul Asia-Pacific Economic Cooperation.
O zi mai târziu, consiliul de administrație l-a concediat pe Altman.