FBI avertizează cu privire la pericolul clipurilor deepfake. Cum te protejezi de atacurile sextortion
Escrocii folosesc inteligența artificială pentru a crea imagini falsificate de natură sexuală, pe care apoi le folosesc în scheme ”sextortion”. În trecut, aceste scheme implicau infractori care furau imagini intime sau convingeau victimele să le trimită, apoi le amenințau cu publicarea acestora.
Sextortion. FOTO Shutterstock
Sextortion, o combinație între cuvintele sex și extortion (extorcare), este o formă de șantaj în care infractorii amenință să publice imagini sau videoclipuri cu conținut sexual al unei persoane, în scopul de a obține bani, bunuri sau alte favoruri de la victima respectivă.
În prezent escrocii accesează imagini disponibile public și inofensive de pe site-uri de socializare sau alte surse și folosesc tehnici de inteligență artificială pentru a crea videoclipuri sau imagini explicite, cerând ulterior bani - chiar dacă materialul nu este real.
Săptămâna aceasta, FBI a emis un avertisment cu privire la această amenințare, avertizând oamenii să fie prudenți atunci când postează sau trimit imagini cu ei înșiși sau informații de identificare pe rețelele de socializare, aplicații de întâlniri sau alte site-uri online.
Agenția a declarat că a observat o "creștere" a rapoartelor începând din aprilie cu privire la utilizarea deepfake-urilor în schemele sextortion, iar imaginile sau videoclipurile sunt distribuite online pentru a hărțui victimele și a le cere bani, carduri cadou sau alte plăți. Escrocii pot solicita victimei chiar și trimiterea de conținut explicit real, conform investigatorilor federali.
"Multe dintre victime, inclusiv minori, nu sunt conștiente că imaginile lor au fost copiate, manipulate și distribuite până când acest lucru le este adus la cunoștință de altcineva", a scris FBI, menționând că victimele de multe ori află despre imaginile respective de la atacatori sau le găsesc singure pe internet. "Odată ce sunt distribuite, victimele se confruntă cu provocări semnificative în împiedicarea continuării partajării conținutului manipulat sau eliminarea acestuia de pe internet."
Ce spune Thomas Uhlemann, Security Specialist pentru ESET, despre clipurile deepfake și sextortion:
”Clipurile și imaginile de tip deepfakes au cunoscut recent o renaștere, datorită inovației și disponibilității instrumentelor cu inteligență artificială pentru a modifica orice fel de imagini, videoclipuri și chiar sunete. Această tehnologie a fost folosită cu precădere în scenarii de război, dar recent a devenit disponibilă aproape tuturor. În urmă cu aproximativ 5 ani, videoclipurile și imaginile false încă puteau fi identificate cu ușurință, dar acest lucru a devenit din ce în ce mai greu de făcut.
În trecut, acestea erau folosite mai ales pentru a ataca ținte importante, cum ar fi politicienii sau marile corporații prin atacuri de fraudă, deoarece crearea falsurilor era relativ costisitoare. Situația s-a schimbat dramatic. Inteligența artificială poate utiliza date disponibile în mod public, de exemplu imaginile prezente în contul de socializare al oricărei persoane, și poate crea conținut hiperrealist care, ulterior, poate fi utilizat în șantajarea victimelor.
Prin urmare, este esențial ca persoanele să-și consolideze măsurile de confidențialitate, cum ar fi trecerea profilurilor de social media în modul „privat” și să se gândească bine înainte de a posta public orice conținut. Părinții sunt sfătuiți să le vorbească copiilor lor despre potențialele pericole asociate atacurilor de tip „revenge porn” ce folosesc imagini sau clipuri create prin intermediul tehnologiei deepfake, iar persoanele în vârstă trebuie să fie sfătuite cu privire la modul în care trebuie să reacționeze în cazul apelurilor telefonice și al mesajelor false.”
Sursa: adevarul.ro