Când va controla Inteligența Artificială lumea. Răspunsul dat de ChatGPT
Inteligența artificială (AI) transformă rapid campaniile politice, stârnind îngrijorări cu privire la potențialul său de a submina alegerile, în special atunci când este folosită pentru a genera deepfake și dezinformare, scrie Newsweek.
ChatGPT/ FOTO shutterstock
Viitoarele alegeri prezidențiale se confruntă cu un control sporit asupra acestor riscuri, pe măsură ce instrumentele AI devin mai sofisticate și mai accesibile.
Un exemplu de mare profil este un deepfake al președintelui Joe Biden , care îl înfățișează în mod fals spunând oamenilor să nu voteze. Acest tip de conținut, dacă nu este verificat, ar putea afecta încrederea publicului în procesul democratic.
Videoclipurile sau clipurile audio manipulate pot înșela alegătorii fabricând declarații aparent realiste, dar false ale personalităților politice.
Ca răspuns, organizațiile de verificare a faptelor precum Full Fact au început să folosească instrumente AI pentru a monitoriza afirmațiile în timp real, analizând discursurile și manifestele pentru a preveni răspândirea dezinformării. Cu toate acestea, provocările rămân semnificative, mai ales atunci când deepfake-urile se răspândesc rapid prin intermediul rețelelor sociale, adesea înainte de a putea fi dezmințite de verificatorii de fapte cu ochi de vultur care pot identifica un videoclip fals, susține publicația americana.
Mustafa Suleyman, cofondatorul DeepMind, subliniază aceste pericole în cartea sa The Coming Wave , argumentând că AI necontrolată ar putea perturba semnificativ procesele democratice. El pledează pentru o reglementare și o supraveghere mai strictă pentru a preveni ca tehnologiile AI să fie folosite pentru a induce în eroare sau a manipula electoratul. Preocupările lui Suleyman se aliniază cu opinia oamenilor de știință mai largă, care avertizează asupra potențialului AI de a destabiliza alegerile la nivel global dacă nu sunt controlate corespunzător.
Sondajele indică, de asemenea, conștientizarea publicului cu privire la potențialul de a provoca rău al AI . Aproape jumătate dintre americani se tem că AI ar putea ataca umanitatea. Realizat de YouGov, sondajul a dezvăluit modul în care americanii au simțit că inteligența computerizată și umană sunt stivuite și a evidențiat preocupările cu privire la posibilitatea unui conflict între om și mașină.
Newsweek a întrebat instrumentul AI generativ, ChatGPT : „Când va prelua AI lumea?”
ChatGPT a răspuns: „Întrebarea dacă și când AI ar putea „prelua lumea” este una complexă, care depinde de modul în care definim „preluarea” și ce evoluții în tehnologia AI ar putea duce la un astfel de rezultat. Este un subiect adesea discutat în science fiction, dar realitatea este mult mai nuanțată.
„În prezent, AI este puternică, dar foarte specializată. Ea excelează în sarcini precum recunoașterea imaginilor, prelucrarea limbajului natural și analiza datelor, dar nu este nici pe departe pe măsura întregului spectru al inteligenței umane. Ne referim la acest nivel de inteligență artificială ca fiind inteligență artificială îngustă sau inteligență artificială slabă, ceea ce înseamnă că este bună la sarcini specifice, dar îi lipsesc abilitățile cognitive generale.
„Ideea de „preluare” de către AI se referă de obicei la inteligența generală artificială (AGI) sau superinteligența - sisteme AI care pot îndeplini orice sarcină intelectuală pe care o poate îndeplini un om și, eventual, pot depăși inteligența umană. Nu suntem nici pe departe pe punctul de a dezvolta AGI. Experții sunt împărțiți în ceea ce privește momentul sau chiar dacă AGI va fi realizată. Unii cred că s-ar putea întâmpla în câteva decenii, în timp ce alții susțin că s-ar putea să nu se întâmple niciodată.
„Punctul de vedere optimist: AGI ar putea duce la progrese masive în tehnologie, medicină și calitatea vieții, dar ar trebui să fie gestionată cu atenție.
„Punct de vedere precaut: Fără măsuri de protecție adecvate, AGI ar putea deveni incontrolabil, ducând la consecințe nedorite, mai ales dacă depășește inteligența umană fără a fi aliniat la valorile umane.
Riscuri și provocări
„Există mai multe riscuri potențiale, dar sunt departe de a fi sigure.
„Un risc pe termen scurt este utilizarea IA în aplicații militare, cum ar fi dronele autonome, care ar putea provoca o instabilitate globală gravă.
„Automatizarea locurilor de muncă: AI ar putea perturba forța de muncă, automatizează multe locuri de muncă, ceea ce ar putea duce la tulburări societale dacă sistemele economice și sociale nu se adaptează.
„Probleme etice și de control: cea mai mare preocupare pentru AGI este alinierea – cum să ne asigurăm că obiectivele AI sunt aliniate cu valorile umane. Dacă AGI nu este bine aliniat, teoretic ar putea urmări obiective care sunt dăunătoare umanității, fie în mod deliberat, fie ca parte. efectul programării sale.
Control și siguranță
„Organizații precum OpenAI, DeepMind și altele cercetează în mod activ cum să construiască sisteme AI sigure și controlabile. Există diverse abordări pentru a se asigura că IA rămâne benefică, inclusiv:
Alinierea valorilor: asigurarea faptului că sistemele AI înțeleg și urmează principiile etice umane.
Reglementări și guvernanță: Elaborarea de acorduri internaționale pentru a controla utilizarea și dezvoltarea inteligenței artificiale, în special în cazul aplicațiilor periculoase.
Speculații privind cronologia
„Pe termen scurt (următorii 5-10 ani): AI va continua să facă progrese semnificative în domenii specifice, cum ar fi îngrijirea sănătății, transportul și educația. Cu toate acestea, vom lucra în continuare cu sisteme AI înguste și este puțin probabil ca acestea să „cucerească lumea” în vreun sens.
„Termen mediu (20-50 de ani): Unii cercetători speculează că AGI ar putea apărea, dar acest lucru este speculativ și foarte incert. Dacă se va întâmpla acest lucru, va veni cu considerente etice și de siguranță majore.
„Pe termen lung (peste 50 de ani): Este extrem de dificil să prevezi dezvoltarea inteligenței artificiale atât de departe. În cazul în care AGI și superinteligența se dezvoltă, gestionarea atentă va fi esențială pentru a evita rezultatele dăunătoare.
Concluzie
„Este puțin probabil ca AI să „cucerească lumea” în viitorul apropiat. În timp ce AGI, sau inteligența artificială superinteligentă, ar putea prezenta riscuri dacă ar fi dezvoltată, suntem încă departe de a atinge acest stadiu.
„Faptul că AI devine o forță a binelui sau a răului va depinde de modul în care omenirea îi modelează dezvoltarea prin orientări etice, guvernanță și măsuri de siguranță.”
Sursa: adevarul.ro