Foarte interesante amănunte...

Foarte interesante amănunte...

Când s-au conectat la HBO Max la sfârșitul lunii mai, oamenii au observat ceva ciudat. De obicei, atunci când cineva se conectează la site, HBO îi cere să verifice că este om, rezolvând un captcha - acea mică căsuță de verificare "Nu sunt robot" sau grilele de imagini "selectează toate pătratele cu stopuri" care dovedesc site-ului că ești, de fapt, un om.

Dar de data aceasta, când utilizatorii s-au conectat, li s-a cerut în schimb să rezolve o serie complexă de puzzle-uri. Sarcinile bizare variau de la adunarea punctelor de pe imagini de zaruri până la ascultarea unor scurte clipuri audio și selectarea clipului care conținea un model de sunet care se repeta. Aceste noi sarcini ciudate, aparent pentru a dovedi că utilizatorii sunt umani, nu s-au limitat la HBO: Pe toate platformele, utilizatorii au fost puși în dificultate de puzzle-uri din ce în ce mai imposibile, cum ar fi identificarea unor obiecte - cum ar fi un cal făcut din nori - care nu există.

Motivul din spatele acestor noi cerințe? O inteligență artificială îmbunătățită. Deoarece companiile de tehnologie și-au antrenat roboții pe vechile captchas, aceste programe sunt acum atât de capabile încât pot depăși cu ușurință provocările tipice. Drept urmare, noi, oamenii, trebuie să depunem mai mult efort pentru a ne dovedi umanitatea doar pentru a intra online. Dar captchas-urile care ne dau bătăi de cap sunt doar vârful aisbergului atunci când vine vorba de modul în care IA rescrie mecanica internetului, scrie Business Insider.

De la apariția ChatGPT anul trecut, companiile de tehnologie s-au grăbit să încorporeze tehnologia AI din spatele acestuia. În multe cazuri, companiile au dezrădăcinat produsele lor de bază de lungă durată pentru a face acest lucru. Ușurința de a produce texte și imagini aparent autoritare cu un simplu clic pe un buton amenință să erodeze instituțiile fragile ale internetului și să facă din navigarea pe web un marasm.

Pe măsură ce febra inteligenței artificiale a pus stăpânire pe web, cercetătorii au descoperit cum poate fi folosită ca armă pentru a agrava unele dintre cele mai presante probleme ale internetului - cum ar fi dezinformarea și confidențialitatea - făcând, în același timp, ca experiența simplă de zi cu zi a vieții online - de la ștergerea spam-ului până la simpla conectare la site-uri - să fie mai enervantă decât este deja.

"Nu vreau să spun că incapacitatea noastră de a ține în frâu IA va duce la prăbușirea societății", mi-a spus Christian Selig, creatorul Apollo, o aplicație populară de pe Reddit, "dar cred că are cu siguranță potențialul de a afecta profund internetul". Iar până acum, IA face din internet un coșmar.

Timp de aproape 20 de ani, Reddit a fost prima pagină neoficială a internetului, iar această longevitate se datorează în mare parte voluntarilor care îi moderează diferitele comunități. Conform unei estimări, moderatorii Reddit fac anual o muncă neplătită în valoare de 3,4 milioane de dolari. Pentru a face acest lucru, ei se bazează pe instrumente precum Apollo, o aplicație veche de aproape un deceniu care oferă instrumente avansate de moderare. Dar în iunie, utilizatorii au fost întâmpinați cu un mesaj neobișnuit: Apollo se închidea. În încercarea companiei de a intra în goana după aurul AI, aplicațiile terțe s-au confruntat cu tăierea.

Apollo și alte interfețe ca aceasta se bazează pe accesul la interfața de programare a aplicațiilor Reddit, sau API, o bucată de software care ajută aplicațiile să facă schimb de date. În trecut, Reddit permitea oricui să îi extragă datele gratuit - cu cât mai multe instrumente permitea Reddit, cu atât mai mulți utilizatori erau atrași, ceea ce a ajutat aplicația să crească. Dar acum, companiile de inteligență artificială au început să folosească Reddit și rezerva sa vastă de interacțiune umană online pentru a-și antrena modelele. În încercarea de a profita de acest interes brusc, Reddit a anunțat noi prețuri scumpe pentru accesul la datele sale. Apollo și alte aplicații au devenit pagube colaterale, declanșând o lună de proteste și neliniște din partea comunității Reddit. Compania a refuzat să cedeze, chiar dacă acest lucru însemna să înstrăineze comunitățile de oameni care constituie sufletul său.

Pe măsură ce vacile de muls bani din războiul de date subminează calitatea site-urilor cândva de încredere, o sumedenie de conținut îndoielnic generat de inteligența artificială se revarsă pe paginile web. Martijn Pieters, un inginer de software cu sediul la Cambridge, a fost recent martor la declinul Stack Overflow, site-ul de referință pe internet pentru întrebări și răspunsuri tehnice. El contribuia și modera pe platformă de peste un deceniu, când aceasta s-a prăbușit brusc în iunie. Compania din spatele site-ului, Prosus, a decis să permită răspunsuri generate de inteligența artificială și a început să taxeze firmele de inteligență artificială pentru accesul la datele sale. Ca răspuns, moderatorii de top au intrat în grevă, susținând că conținutul de calitate scăzută generat de AI contravine scopului însuși al site-ului: "să fie un depozit de conținut de înaltă calitate pentru întrebări și răspunsuri".

NewsGuard, o firmă care urmărește dezinformarea și evaluează credibilitatea site-urilor de informare, a descoperit aproape 350 de posturi de știri online care sunt generate aproape în întregime de AI, cu o supraveghere umană redusă sau chiar inexistentă. Site-uri precum Biz Breaking News și Market News Reports produc articole generice care acoperă o gamă largă de subiecte, inclusiv politică, tehnologie, economie și călătorii. Multe dintre aceste articole sunt pline de afirmații neverificate, teorii ale conspirației și farse. Când NewsGuard a testat modelul de inteligență artificială din spatele ChatGPT pentru a evalua tendința acestuia de a răspândi relatări false, a eșuat de 100 de ori din 100.

Inteligența artificială halucinează frecvent răspunsurile la întrebări și, dacă modelele de inteligență artificială nu vor fi reglate cu precizie și protejate cu bariere de protecție, a spus Gordon Crovitz, co-directorul executiv al NewsGuard, "acestea vor fi cea mai mare sursă de dezinformare persuasivă la scară largă din istoria internetului". Un raport al Europol, agenția de aplicare a legii din Uniunea Europeană, se așteaptă ca, în câțiva ani, un procent uluitor de 90% din conținutul internetului să fie generat de inteligența artificială.

Deși aceste site-uri de știri generate de AI nu au încă o audiență semnificativă, creșterea lor rapidă este un precursor al ușurinței cu care conținutul generat de AI va denatura informațiile pe rețelele sociale. În cadrul cercetărilor sale, Filippo Menczer, profesor de informatică și director al Observatorului privind mediile sociale de la Universitatea Indiana, a descoperit deja rețele de roboți care postează volume mari de conținut generat de ChatGPT pe site-uri de socializare precum X (fostul Twitter) și Facebook. Și, în timp ce roboții AI au acum semne revelatoare, experții indică faptul că aceștia vor deveni în curând mai buni la imitarea oamenilor și la eludarea sistemelor de detectare dezvoltate de Menczer și de rețelele sociale.

În timp ce site-urile administrate de utilizatori, precum Reddit, și platformele de socializare se luptă mereu împotriva actorilor răi, oamenii pierd, de asemenea, un loc crucial la care apelează pentru a verifica informațiile: motoarele de căutare. Microsoft și Google vor îngropa în curând legăturile tradiționale ale rezultatelor căutărilor în favoarea unor rezumate realizate de roboți care nu sunt pregătiți pentru a distinge realitatea de ficțiune. Atunci când căutăm o întrebare pe Google, aflăm nu numai răspunsul, ci și modul în care acesta se încadrează în contextul mai larg al ceea ce se află pe internet. Filtrăm aceste rezultate și apoi alegem sursele în care avem încredere. Un motor de căutare alimentat de un chatbot întrerupe aceste experiențe, elimină contextul, cum ar fi adresele site-urilor web, și poate "papagaliza" un răspuns plagiat, despre care Crovitz de la NewsGuard mi-a spus că pare "autorizat, bine scris", dar este "complet fals".

Conținutul sintetic a inundat, de asemenea, platformele de comerț electronic precum Amazon și Etsy. Cu două săptămâni înainte ca un manual tehnic al lui Christopher Cowell, un inginer de curriculum din Portland, Oregon, să fie publicat, acesta a descoperit o carte nou listată cu același titlu pe Amazon. Cowell și-a dat seama în curând că era generată de inteligența artificială și că editorul din spatele ei a preluat probabil titlul de pe lista de pre-lansare de pe Amazon și l-a introdus în software precum ChatGPT. În mod similar, pe Etsy, o platformă cunoscută pentru catalogul său artizanal, realizat manual, arta, cănile și cărțile generate de AI sunt acum ceva obișnuit.

Cu alte cuvinte, va deveni foarte greu să distingi ce este real de ce nu este real online. În timp ce dezinformarea a fost de mult timp o problemă a internetului, inteligența artificială va face ca vechile noastre probleme să dispară.

Pe termen scurt, ascensiunea inteligenței artificiale va introduce o serie de provocări tangibile în materie de securitate și confidențialitate. Escrocheriile online, care sunt în creștere din noiembrie, vor fi mai greu de detectat, deoarece AI le va face mai ușor de adaptat la fiecare țintă. Cercetările efectuate de John Licato, profesor de informatică la University of South Florida, au arătat că este posibil să se creeze cu precizie escrocherii în funcție de preferințele și tendințele comportamentale ale unei persoane, având în vedere foarte puține informații despre o persoană de pe site-urile web publice și din profilurile de socializare.

Unul dintre semnele cheie ale escrocheriilor de phishing cu risc ridicat - un tip de atac în care intrusul se dă drept o entitate de încredere, cum ar fi banca, pentru a fura informații sensibile - este faptul că textul conține adesea greșeli de scriere sau grafica nu este atât de rafinată și clară pe cât ar trebui să fie. Dar aceste semne nu vor exista într-o rețea de fraudă cu inteligență artificială, hackerii transformând generatoarele gratuite de text-imagine și de text precum ChatGPT în motoare puternice de spam. Inteligența artificială generativă ar putea fi potențial folosită pentru a vă plăsmui poza de profil în campania de e-mail personalizată a unei mărci sau pentru a produce un mesaj video de la un politician cu o voce refăcută artificial, vorbind exclusiv despre subiectele care vă interesează.

Internetul se va simți din ce în ce mai mult ca și cum ar fi proiectat pentru mașini și de către mașini. Iar acest lucru se întâmplă deja: Datele unei firme de securitate cibernetică, Darktrace, au detectat o creștere cu 135% a campaniilor cibernetice malițioase de la începutul anului 2023 și au dezvăluit că infractorii apelează din ce în ce mai mult la roboți pentru a scrie e-mailuri de phishing, pentru a trimite mesaje fără erori, mai lungi, care au mai puține șanse de a fi prinse de filtrele de spam.

Iar în curând, hackerii ar putea să nu mai fie nevoiți să se chinuie prea mult pentru a obține informațiile dvs. sensibile. În momentul de față, hackerii recurg adesea la un labirint de metode indirecte pentru a vă spiona, inclusiv trackeri ascunși în interiorul site-urilor web și cumpărarea de seturi mari de date cu informații compromise de pe dark web. Dar cercetătorii în domeniul securității au descoperit că roboții AI din aplicațiile și dispozitivele dvs. ar putea fura informații sensibile pentru hackeri. Deoarece modelele de inteligență artificială de la OpenAI și Google parcurg în mod activ web, hackerii pot ascunde coduri malițioase - un set de instrucțiuni pentru robot - în interiorul site-urilor web și pot face ca roboții să le execute fără nicio intervenție umană.

Să presupunem că vă aflați pe Microsoft Edge, un browser care vine integrat cu chatbotul Bing AI. Deoarece chatbotul citește în mod constant paginile pe care le consultați, ar putea detecta coduri malițioase ascunse într-un site web pe care îl vizitați. Codul ar putea cere lui Bing AI să pretindă că este un angajat Microsoft, să vă prezinte o nouă ofertă de utilizare gratuită a Microsoft Office și să vă ceară detaliile cardului de credit. Iată cum a reușit un expert în securitate să păcălească Bing AI.

Florian Tramèr, profesor asistent de informatică la ETH Zürich, consideră că aceste atacuri de tip "prompt injection" sunt îngrijorătoare, mai ales având în vedere că asistenții inteligenți AI își fac loc în tot felul de aplicații, cum ar fi căsuțele de e-mail, browserele, programele de birou și altele și, prin urmare, pot accesa cu ușurință datele. "Ceva de genul unui asistent inteligent de inteligență artificială care să vă gestioneze e-mailul, calendarul, achizițiile etc., pur și simplu nu este viabil în acest moment din cauza acestor riscuri", a declarat Tramèr.

Pe măsură ce inteligența artificială continuă să facă ravagii în inițiative comunitare precum Wikipedia și Reddit, internetul va părea din ce în ce mai mult ca și cum ar fi proiectat pentru mașini și de către mașini. Toby Walsh, profesor de inteligență artificială la Universitatea din New South Wales, mi-a spus că acest lucru ar putea distruge rețeaua cu care suntem obișnuiți acum. De asemenea, va îngreuna lucrurile și pentru creatorii de inteligență artificială. Pe măsură ce conținutul generat de AI îneacă munca umană, companiile de tehnologie precum Microsoft și Google vor avea mai puține date originale pentru a-și îmbunătăți modelele.

"IA funcționează astăzi pentru că este antrenată pe baza sudorii și ingeniozității oamenilor", a spus Walsh. "Dacă IA generativă de a doua generație este antrenată pe epuizarea primei generații, calitatea va scădea drastic." La începutul acestui an, în luna mai, un studiu al Universității din Oxford a constatat că antrenarea IA pe date generate de alte sisteme de IA determină degradarea și, în cele din urmă, colapsul acesteia. Și, pe măsură ce se întâmplă acest lucru, la fel se va întâmpla și cu calitatea informațiilor găsite online.

Licato, profesorul de la University of South Florida, compară starea actuală a experienței web cu teoria "internetului mort". Pe măsură ce cele mai vizitate site-uri de pe internet, precum Reddit, vor fi inundate de articole și comentarii scrise de roboți, companiile vor desfășura contraboți suplimentari pentru a citi și filtra conținutul automatizat. În cele din urmă, conform acestei teorii, cea mai mare parte a creării și consumului de conținut pe internet nu va mai fi realizată de oameni. "Este un lucru ciudat de imaginat, dar pare din ce în ce mai probabil, având în vedere modul în care merg lucrurile", a declarat Licato.


populare
astăzi

1 Greu de crezut așa ceva, dar...

2 Culisele picante din spatele așa-zisei crize dintre partidele „condamnate” să împartă un ciolan mai auster

3 VIDEO Singura întrebare care l-a făcut pe Putin să tușească...

4 DOCUMENT Pensiile rămân înghețate o perioadă, salariile bugetarilor la fel, dar pentru întreg anul viitor / Toate modificările importante

5 Amușinarea lui Orban pe la București arată că pe măsură ce se blochează colaborarea energetică cu Ucraina, cu atât devine mai importantă cea cu Români…