Foarte interesante amănunte...
Telenovela OpenAI, dar și frenezia creată de avansul rapid al programelor stil ChatGPT și Bard au readus în prim-plan și ideea de „Inteligență Artificială Generală”, dar și de „Singularitate tehnologică”, momentul când mașinile ar putea deveni conștiente și ar putea depăși net inteligența umană. De ce este subiectul așa de controversat și care sunt pașii până acolo. Ce spun scenariile negative și cele pozitive? De ce nu știm dacă o „Singularitate” va exista?
Un subiect ce a fost readus la suprafață
Sam Altman, șeful OpenAI, spunea cu doar câteva zile înainte de izbucnirea faimosului scandal de la companie, că marele țel este construirea unei „superinteligențe”. AGI (Inteligență Artificială Generală) se referă la un nivel de dezvoltare în domeniul inteligenței artificiale în care un sistem este capabil să desfășoare orice sarcină intelectuală pe care o poate realiza un om.
Zece zile mai târziu, Reuters scria că, înainte ca Sam Altman să fie, timp de patru zile, înlăturat de la șefia OpenAI, câțiva cercetători din companie au trimis board-ului de conducere o scrisoare despre o descoperire capitală în AI care ar putea fi un „pericol pentru umanitate”,
Proiectul descris se numește Q*, iar sursele citate de Reuters spuneau că acest nou model a putut rezolva probleme complexe de matematică pe care modele anterioare - și foarte sofisticate - dezvoltate de OpenAI nu le-a putut rezolva. Erau cu siguranță exagerări, iar așa-zisul „pericol pentru umanitate” nu este aproape de noi. Însă merită clar discutat subiectul, fiindcă va reveni des în anii următori.
2023 a fost în tehnologie anul discuțiilor interminabile despre inteligența artificială și despre lucrurile bune, dar și rele, pe care ni le-ar putea aduce aceste avansuri rapide din domeniu. Au avertizat și cele mai luminate minți ale omenirii că am putea-o lua pe căi greșite, în timp alți oameni super-intelgenți au spus că vom avea foarte multe de câștigat de pe urma acestor descoperiri ce ne vor simplifica viața.
Și mai interesant a fost faptul că, inclusiv șefi de companii ce lucrează la dezvoltarea unor produse AI avansate, au cerut ca autoritățile să reglementeze domeniul, pentru a fi evitate derapajele.
Foarte mulți au spus că dezvoltarea AI trebuie să se facă respectând anumite reguli, iar Uniunea Europeană a și venit cu un set concret de propuneri de reglementare. Nu este perfect, dar este un început.
Singularitatea - un moment la care visează fanii romanelor SF
Singularitatea tehnologică este un concept ipotetic care se referă la un punct în timp în viitor când Inteligența Artificială va deveni atât de avansată, încât va depăși inteligența umană. Acest lucru ar putea avea un impact profund asupra societății umane, deoarece va duce la o schimbare rapidă și fundamentală a modului în care trăim și lucrăm.
Ideea centrală este că, la un anumit punct, inteligența artificială sau alte tehnologii pot deveni atât de avansate, încât vor depăși înțelegerea sau capacitatea de control a oamenilor. Aici este și marea îngrijorare: că omenirea va pierde controlul în fața acestei Singularități.
Acest concept este asociat cu ideea că evenimentele ulterioare devin imprevizibile, deoarece o inteligență superioară ar putea influența rapid și semnificativ direcția evoluției tehnologice și a societății, fără ca noi, oamenii, să avem cum ne opune.
Dar NU se știe dacă omenirea va ajunge atât de departe și dacă va exista vreodată o „Singularitate AI”. Unii experți spun că ar putea apărea peste câteva zeci de ani, alții că abia peste 200-300 de ani, iar alții, că niciodată.
Despre cum s-ar putea ajunge la o singularitate AI au scris mai mult autorii de romane SF, fiindcă trebuie multă imaginație. O variantă ar fi să ajungem să putem adăuga la inteligența noastră umană puterea de procesare a unui supercomputer, iar în acest fel am deveni versiuni „supercharged” ale noi înșine.
O altă variantă, tot foarte SF, ar fi ca supercomputerele să învețe să „gândească” și să se alieze pentru a forma un „creier global”.
Acea super-mașină ar trebui să ajungă să aibă conștiință și să se poată îmbunătăți pe sine într-un mod super-rapid și total autonom de intervențiile oamenilor. Ce le-ar lua oamenilor secole, o super-mașină ar putea reuși la nivel de dezvoltare în ani sau luni. Ar fi o schimbare cum nu s-a mai petrecut de la începuturile omenirii pe Pământ.
Însă o problemă este că nu s-a căzut de acord asupra unei definiție a conștiinței și nici nu o putem cuantifica. Însă o super-inteligență ar trebui să înțeleagă lumea din jurul ei, să aibă conștiință de sine și să poată planifica viitorul, stabilind diferite țeluri și construind planuri clare pentru a le atinge.
Ar trebui ca o super-inteligență artificială să facă previziuni complexe ale viitorului îndepărtat și să ia în calcul aspecte care nouă, oamenilor, ne scapă, fiindcă acea mașinărie va avea la dispoziție mai multe date. Ar trebui ca o mașinărie să își poată stabili propriile obiective, iar aici este marea întrebare: vor fi aceste obiective prietenoase cu oamenii sau oamenii vor fi văzuți ca ceva ce trebui înlăturat?
Dacă într-o zi roboții vor deveni mai inteligenți decât oamenii, ei ne-ar putea da la o parte, ca pe niște relicve ale evoluției. Scenariul negativist ar fi că acești roboți se vor autoreplica, ar deveni tot mai inteligenți de la generație la generație și această nebunie va duce la secătuirea planetei de resursele ei. Scenarii și mai nebunești spun că „roboții” superinteligenți ar putea apoi să se năpustească în spațiul cosmic pentru a-și continua căutarea de inteligență, până când vor ajunge la alte planete, stele și galaxii, cu scopul de a le converti în computere. Unii cred că ar putea consuma întregul univers. Scenariile sunt enumerate de Michio Kaku, celebru autor cunoscut și pentru aparițiile în numeroase documentare despre știință.
Dar întrucât planetele, stelele și galaxiile se află la distanțe incredibil de mari, s-ar putea ca lacomul computer să modifice legile fizicii, în așa fel încât să se poată deplasa mai rapide decât lumina li, cu apetitul lui enorm, să consume pe de-a-ntregul sisteme stelare și galaxii.
Totuși, scenariul cel mai probabil este o AI „prietenoasă”, fiindcă putem bănui că oamenii de știință se vor asigura că roboții nu vor deveni periculoși. Vor avea probabil un „kill switch”, un mecanism de siguranță care poate fi acționat de om în orice moment, mai ales dacă „robotul” manifestă semnele unui comportament turbulent. Ar trebui să fie închis rapid, cu o simplă comandă.
Când s-a născut conceptul de singularitate „tech”
Conceptul de „singularitate” provine din astrofizică și se referă la un punct de gravitație infinită, din care nimic nu poate evada, conceptul fiind făcut celebru de teoriile despre negre și de documentarele ce descriu aceste zone extreme din Univers.
În 1958, doi matematicieni menționau, pentru prima oară, ideea unei „singularități AI”, adică punctul în care roboții vor fi mai inteligenți decât oamenii și vor fi capabili și să facă auto-replicare. Sunt filme cu armate de roboți autoreplicanți ce creează roboți tot mai buni, de la generație la generație. Cele mai pesimiste scenarii spun că acei roboți ultra-inteligenți vor fi agresivi și, în dorința de a produce versiuni și mai performante, vor devora resursele planetei și apoi vor trece să în spațiu.
Unul dintre cei doi matematicieni era John von Neumann, cel care a avut o contribuție importantă la dezvoltarea computerelor electronice. El a fost printre primii care s-au ocupat de determinarea numărului minim de condiții necesare pentru ca o mașină să poată crea o copie a ei înseși.
Când va apărea o singularitate? Cei mai optimiști experți au estimat că va fi în 20 de ani, iar cei mai pesimiști, în 1.000 de ani.
La 1993, un cercetător pe nume Verner Vinge spunea: „În decurs de 30 de ani vom avea mijloacele tehnologice să creăm o inteligență supraumană. La scurt timp după aceea, epoca oamenilor se va sfârși. Aș fi surprins dacă acest eveniment se va produce înainte de 2005 sau după 2030”.
Pe de altă parte, Douglas Hofstadter, care a scris mai multe cărți de succes, spunea așa: Aș fi foarte surprins dacă ceva care să aducă măcar de departe cu această situație s-ar produce în următorii 100, până la 200 de ani”.
Dar mereu această idee de a crea o inteligență supra-umană a fost la 30-40 de ani distanță de momentul prognozei și nu s-a concretizat, fiindcă multe lucruri trebuie să se potrivească pentru ca o astfel de creație să devină realitate.
În anii 80 sau 90 ai secolului trecut au fost multe predicții care spuneau că prin 2020 sau 2030 computerele vor fi așa de avansate, încât ar ajunge capabile să realizeze copii ale lor însele. Nu s-a ajuns acolo, însă omenirea a izbutit alte progrese tehnologice ce erau greu de anticipat acum peste patru decenii.
Singularitatea este în general considerată a fi un eveniment negativ, deoarece ar putea duce la o pierdere a controlului uman asupra tehnologiei și la o schimbare rapidă și fundamentală a societății. În cel mai rău caz „roboții” ne-ar putea distruge cu totul, cum și-au imaginat scenariștii din diverse filme faimoase.
AGI - Artificial general intelligence
Nu știm dacă se va dezvolta vreodată o „singularitate AI”, dar o etapă intermediară ar putea fi dezvoltarea a ceea ce se numește AGI.
În primul rând trebuie spus că AGI este o formă foarte avansată de AI, mult peste așa numitele sisteme „narrow AI” pe care le putem folosi în prezent și care sunt foarte bune la un singur lucru, nu la mai multe, iar nivelul lor cognitiv este net inferior celui uman.
La AGI lucrurile stau cu totul altfel.
Ce este Artificial general intelligence
Artificial General Intelligence (AGI), cunoscută și sub denumirea de inteligență artificială generală, se referă la un tip de AI care ar avea capacitatea de a înțelege, învăța și aplica cunoștințe într-un mod similar cu o minte umană.
Diferența cheie între AGI și alte forme net inferioare de inteligență artificială constă în capacitatea AGI de a se adapta și de a rezolva o gamă largă de sarcini intelectuale, fără a fi programată specific pentru fiecare sarcină în parte.
În esență, AGI ar putea să îndeplinească orice sarcină cognitivă pe care o poate realiza un om. Acest nivel de inteligență artificială ar implica o conștiință de sine, capacitatea de a înțelege contextul, de a învăța din experiență și de a aplica cunoștințele într-un mod flexibil și creativ.
AGI va fi la „ani lumină” de ChatGPT și Google Bard, care sunt forme specializate, ce abordează sarcini specifice precum recunoașterea vocală, traducerea limbajului natural sau jocurile de strategie. AGI va fi mult mult mai sofisticată.
O inteligență artificială generală ar trebui să fie capabilă să se descurce cu o gamă extrem de variată de sarcini și contexte, într-un mod asemănător cu o minte umană. Este complicat să ajungi așa de departe, întrucât majoritatea sistemelor de inteligență artificială devenite în prezent „vedete” sunt specializate într-o anumită sarcină sau domeniu.
O AGI ar trebui să poată înțelege contextul în care acționează, să învețe din experiență și să se adapteze la schimbările din mediu. Cuvântul cheie aici este să ÎNȚELEAGĂ.
Foarte îngrijorătoare este ideea de autonomie: ce faci dacă o AGI începe să acționeze pe cont propriu și, într-un fel sau altul, va face rău oamenilor? Așadar, dacă AGI devine capabilă să se auto-îmbunătățească și să ia decizii în mod autonom, există riscul pierderii controlului uman asupra sistemului.
AGI vs Singularitate
AGI este o tehnologie, în timp ce Singularitatea este un eveniment. AGI este un concept care se referă la o mașină ce poate gândi și acționa precum un om. Singularitatea este un eveniment care se referă la momentul în care o mașină devine mai inteligentă decât un om.
Singularitatea poate sau nu să fie legată de dezvoltarea AGI, dar AGI este adesea considerată una dintre tehnologiile cheie care ar putea contribui la un astfel de eveniment.
AGI este posibilă, în timp ce Singularitatea este ipotetică. Nu există nicio garanție că Singularitatea va fi vreodată realizată. Singularitatea este un concept care este încă în curs de cercetare și discuție.
Unii cercetători și lideri din domeniul inteligenței artificiale sunt optimiști și consideră că AGI ar putea fi realizată în următorul deceniu, în timp ce alții sunt mai rezervați și cred că o super-inteligență nu va fi dezvoltată decât peste câteva sute de ani.
De ce este așa de greu din punct de vedere tehnic să fie dezvoltată o formă de Artificial General Intelligence?
Ar fi mai multe motive, iar unul ține de faptul că nu înțelegem pe deplin cum funcționează inteligența umană, așa că este dificilă proiectarea unui sistem AI care să o poată „imita”.
Apoi, deși modelele de învățare automată sunt un instrument important în dezvoltarea AGI, ele încă sunt limitate în ceea ce pot învăța și face.
O altă dificultate ține de crearea de algoritmi care pot rezolva probleme complexe. AGI trebuie să poată rezolva o gamă largă de probleme ultra-complicate, iar dezvoltarea de algoritmi pe măsură este dificilă., cum ar fi planificarea, luarea deciziilor și rezolvarea problemelor. Crearea de algoritmi care pot rezolva aceste probleme este dificilă.
Un alt aspect, extrem de important, este că sunt uriașe costurile de computing pentru a dezvolta sisteme puternice de AI. Este nevoie de multe miliarde de dolari și de investitori care dacă i-ar da trebuie să creadă că au șanse de a-i recupera.
Estimarea momentului exact în care vom dezvolta o Artificial General Intelligence (AGI) este foarte dificilă din cauza numeroaselor incertitudini legate de progresele tehnologice, finanțare, descoperiri științifice și alte variabile.
Sursa foto: Dreamstime.com