Cercetătorii au demonstrat modul în care inteligenţa artificială poate fi utilizată pentru a redacta ştiri false convingătoare

Cercetătorii au demonstrat modul în care inteligenţa artificială poate fi utilizată pentru a redacta ştiri false convingătoare

Cercetătorii au demonstrat modul în care inteligenţa artificială (AI) poate fi utilizată pentru redactarea ştirilor false cu o contribuţie minimă a oamenilor, relatează vineri Press Association.

Organizaţia OpenAI, printre ai cărei susţinători se numără Elon Musk şi Microsoft, a decis să nu publice în întregime codul de sistem, cunoscut drept GPT-2, din cauza îngrijorărilor legate de modul în care acesta ar putea fi utilizat în mod abuziv pentru producţia pe scară largă a ştirilor false convingătoare. În schimb, OpenAI a dat publicităţii o versiune restrânsă.

Echipa care lucrează la acest proiect a dezvoltat o modalitate prin care AI poate continua să redacteze în mod independent articole utilizând un set de date cuprinzând opt milioane de pagini web plecând de la doar câteva linii de text scrise de om.

Au fost utilizate în mod specific date obţinute prin accesarea unor link-uri cu trimitere externă de pe site-ul social de agregare de ştiri Reddit, cu cel puţin trei voturi - un indicator al calităţii şi importanţei.

Câteva exemple publicate de oamenii de ştiinţă demonstrează modul în care afirmaţiile false, precum cea potrivit căreia reciclarea este nocivă pentru planetă, sunt redactate de AI pe un ton autentic.

Acest tip de tehnologie AI prezintă beneficii, însă poate fi totodată utilizată în scopuri maliţioase, atrage atenţia OpenAI.

''Aceste concluzii, coroborate cu rezultate anterioare cu privire la imagistica sintetică, audio şi video, implică faptul că tehnologiile reduc costurile generării de conţinut fals şi a campaniilor de dezinformare'', a explicat organizaţia non-profit.

''Aşa cum fenomenul 'deep fake' necesită mai mult scepticism în privinţa imaginilor, publicul larg va trebui să devină mai sceptic în privinţa textului găsit online'', a notat OpenAI.

Cercetătorii au atras atenţia că dezvoltarea sistemelor AI poate conduce atât la crearea de ştiri înşelătoare, cât şi la asumarea altor identităţi în mediul online, la publicarea unor mesaje automate abuzive sau false în media de socializare, dar şi la crearea automată de conţinut spam sau a mesajelor tip phishing.

Grupul a notat că sunt necesare cercetări suplimentare pentru conceperea unor ''contramăsuri tehnice şi non-tehnice mai bune'' împotriva ''capabilităţilor ce nu pot fi încă anticipate ale acestor actori'' şi a îndemnat totodată guvernele să monitorizeze impactul unor astfel de tehnologii.AGERPRES


populare
astăzi

1 Informații care dau fiori...

2 ALERTĂ România, condamnată să-i plătească 85 de milioane de euro plus dobânzi fostului proprietar rus al rafinăriei RAFO Onești

3 VIDEO Priviți ce „drăcovenie” au scos americanii din „cutia cu maimuțe”

4 Dau și ceilalți? / O mare navă rusă s-a scufundat în Mediterană după o explozie la sala motoarelor / „Ursa Major” era „strategică” pentru Rusia

5 Băiatul lui Ștefan Bănică Jr. povestește cum a fost bătut și umilit: „Mi-a dat pumni în burtă, apoi se lua de mine: de ce plângi, ești fetiță?”