Folosirea Inteligenței Artificiale: UE a emis primele măsuri. Cum vă puteți proteja
Folosirea inteligenței artificiale în UE va fi reglementată pentru prima dată în lume, de noi măsuri emise de Parlamentul European în funcție de nivelurile de risc existente.
Parlamentul European a emis primele reguli privind Inteligența Artificială FOTO Shutterstock
În cadrul strategiei sale digitale, UE dorește să reglementeze inteligența artificială pentru a asigura condiții optime de dezvoltare și folosire a acestei tehnologii inovatoare. IA poate aduce numeroase beneficii, cum ar fi servicii medicale mai bune, transport mai sigur și mai curat, producție mai eficientă precum și energie mai ieftină și mai sustenabilă.
În aprilie 2021, Comisia Europeană a propus primul cadru normativ al UE pentru IA. Acesta prevede ca sistemele IA ce pot fi folosite în diferite aplicații să fie analizate și clasificate conform cu nivelul de risc pentru utilizatori. Diferitele niveluri de risc impun mai multă sau mai puțină reglementare. O dată intrate în vigoare, acestea vor fi primele norme din lume în privința IA.
Sistemele IA trebuie să fie sigure
Prioritatea Parlamentului este să se asigure că sistemele IA folosite în UE sunt sigure, transparente, trasabile, nediscriminatorii și ecologice. Sistemele IA trebuie supravegheate de oameni, nu prin procese automatizate, pentru a evita rezultatele dăunătoare.
Parlamentul dorește, de asemenea, să stabilească o definiție uniformă și neutră din punct de vedere tehnologic pentru IA, care să poată fi aplicată sistemelor IA viitoare.
Actul IA: reguli diferite pentru diferite niveluri de risc
Noile reguli stabilesc obligații pentru furnizori și utilizatori în funcție de nivelul de risc din partea inteligenței artificiale. Deși multe sisteme IA prezintă un risc minim, acestea trebuie evaluate.
Risc inacceptabil
Sistemele IA cu risc inacceptabil sunt sisteme considerate o amenințare pentru oameni și vor fi interzise. Ele includ:
- Manipularea cognitiv-comportamentală a persoanelor sau a anumitor grupuri vulnerabile: de exemplu jucării activate prin voce care încurajează comportamentul periculos la copii
- Scorul social: clasificarea persoanelor în funcție de comportament, statut socio-economic sau caracteristici personale
- Sisteme de identificare biometrică în timp real și la distanță, cum ar fi recunoașterea facială
Pot fi permise unele excepții. De exemplu, sistemele de identificare biometrică la distanță „ulterioare” - în care identificarea are loc după trecerea unei perioade semnificative de timp - vor fi permise pentru a urmări infracțiuni grave, dar numai cu aprobarea instanței.
Risc ridicat
Sistemele IA care afectează negativ siguranța sau drepturile fundamentale vor fi considerate cu risc ridicat și vor fi împărțite în două categorii:
1. Sisteme IA utilizate în produsele care intră sub incidența legislației UE privind siguranța produselor. Acestea includ jucării, aviație, mașini, dispozitive medicale și ascensoare.
2. Sisteme IA din opt domenii specifice care vor trebui înregistrate într-o bază de date a UE:
- Identificarea și clasificarea biometrică a persoanelor fizice
- Managementul și operarea infrastructurii critice
- Educație și formare profesională
- Ocuparea forței de muncă, managementul lucrătorilor și accesul la activități independente
- Accesul și folosirea unor servicii private esențiale, precum și a unor servicii și beneficii publice
- Gestionarea migrației, azilului și controlului la frontieră
- Asistența în interpretarea și aplicarea legii.
Toate sistemele IA cu risc ridicat vor fi evaluate înainte de a fi puse pe piață și, de asemenea, pe parcursul ciclului lor de viață.
IA generativă
IA generativă, cum este ChatGPT, va trebui să se conformeze cerințelor de transparență:
- Menționarea faptului că un conținut a fost generat de IA
- Proiectarea modelului pentru a preveni generarea de conținut ilegal
- Publicarea de rezumate ale datelor protejate prin drepturi de autor utilizate pentru instruire
Risc limitat
Sistemele de IA cu risc limitat vor trebui să respecte cerințe minime de transparență care să permită utilizatorilor să ia decizii în cunoștință de cauză. După ce a interacționat cu aplicațiile, utilizatorul poate decide dacă dorește să le folosească în continuare. Utilizatorii trebuie să fie informați atunci când interacționează cu IA. Această cerință include sisteme IA care generează sau manipulează imagini, conținut audio sau video, de exemplu deepfakes.
Pașii următori
Parlamentul urmează să își adopte poziția de negociere în iunie 2023, după care vor începe discuțiile cu țările UE în Consiliu cu privire la forma finală a legii.
Obiectivul este să se ajungă la un acord până la sfârșitul acestui an .
Sursa: adevarul.ro