FBI avertizează cu privire la pericolul clipurilor deepfake. Cum te protejezi de atacurile sextortion

FBI avertizează cu privire la pericolul clipurilor deepfake. Cum te protejezi de atacurile sextortion

Escrocii folosesc inteligența artificială pentru a crea imagini falsificate de natură sexuală, pe care apoi le folosesc în scheme ”sextortion”. În trecut, aceste scheme implicau infractori care furau imagini intime sau convingeau victimele să le trimită, apoi le amenințau cu publicarea acestora.

Sextortion. FOTO Shutterstock

Sextortion. FOTO Shutterstock

Sextortion, o combinație între cuvintele sex și extortion (extorcare), este o formă de șantaj în care infractorii amenință să publice imagini sau videoclipuri cu conținut sexual al unei persoane, în scopul de a obține bani, bunuri sau alte favoruri de la victima respectivă.

În prezent escrocii accesează imagini disponibile public și inofensive de pe site-uri de socializare sau alte surse și folosesc tehnici de inteligență artificială pentru a crea videoclipuri sau imagini explicite, cerând ulterior bani - chiar dacă materialul nu este real.

Săptămâna aceasta, FBI a emis un avertisment cu privire la această amenințare, avertizând oamenii să fie prudenți atunci când postează sau trimit imagini cu ei înșiși sau informații de identificare pe rețelele de socializare, aplicații de întâlniri sau alte site-uri online.

Agenția a declarat că a observat o "creștere" a rapoartelor începând din aprilie cu privire la utilizarea deepfake-urilor în schemele sextortion, iar imaginile sau videoclipurile sunt distribuite online pentru a hărțui victimele și a le cere bani, carduri cadou sau alte plăți. Escrocii pot solicita victimei chiar și trimiterea de conținut explicit real, conform investigatorilor federali.

"Multe dintre victime, inclusiv minori, nu sunt conștiente că imaginile lor au fost copiate, manipulate și distribuite până când acest lucru le este adus la cunoștință de altcineva", a scris FBI, menționând că victimele de multe ori află despre imaginile respective de la atacatori sau le găsesc singure pe internet. "Odată ce sunt distribuite, victimele se confruntă cu provocări semnificative în împiedicarea continuării partajării conținutului manipulat sau eliminarea acestuia de pe internet."

Ce spune Thomas Uhlemann, Security Specialist pentru ESET, despre clipurile deepfake și sextortion:

”Clipurile și imaginile de tip deepfakes au cunoscut recent o renaștere, datorită inovației și disponibilității instrumentelor cu inteligență artificială pentru a modifica orice fel de imagini, videoclipuri și chiar sunete. Această tehnologie a fost folosită cu precădere în scenarii de război, dar recent a devenit disponibilă aproape tuturor. În urmă cu aproximativ 5 ani, videoclipurile și imaginile false încă puteau fi identificate cu ușurință, dar acest lucru a devenit din ce în ce mai greu de făcut.

În trecut, acestea erau folosite mai ales pentru a ataca ținte importante, cum ar fi politicienii sau marile corporații prin atacuri de fraudă, deoarece crearea falsurilor era relativ costisitoare. Situația s-a schimbat dramatic. Inteligența artificială poate utiliza date disponibile în mod public, de exemplu imaginile prezente în contul de socializare al oricărei persoane, și poate crea conținut hiperrealist care, ulterior, poate fi utilizat în șantajarea victimelor.

Prin urmare, este esențial ca persoanele să-și consolideze măsurile de confidențialitate, cum ar fi trecerea profilurilor de social media în modul „privat” și să se gândească bine înainte de a posta public orice conținut. Părinții sunt sfătuiți să le vorbească copiilor lor despre potențialele pericole asociate atacurilor de tip „revenge porn” ce folosesc imagini sau clipuri create prin intermediul tehnologiei deepfake, iar persoanele în vârstă trebuie să fie sfătuite cu privire la modul în care trebuie să reacționeze în cazul apelurilor telefonice și al mesajelor false.”

Sursa: adevarul.ro


Citește și:

populare
astăzi

1 După chestia asta Geoană e out! Cine urmează?

2 „Na, că ți-am arătat și țâțele de bucurie”

3 Văduva lui Prigoană, Mihaela Botezatu, i-a dat o veste proastă Adrianei Bahmuțeanu: „Copiii nu vor să o vadă”

4 Care o fi faza cu știrea asta?

5 Hm! Pe asta o știați?