O aplicație care le permite utilizatorilor să vorbească cu Hitler și Jeffrey Epstein a creat controverse
O nouă aplicație de inteligența artificială (IA), care le permite utilizatorilor să vorbească cu personaje istorice precum Adolf Hitler, a provocat unele controverse, după ce personajele replicate virtual au oferit câteva răspunsuri îngrijorătoare, relatează Daily Star .
Utilizatorii pot vorbi gratuit cu cel care a fost mâna dreaptă a lui Hitler FOTO Shutterstock
Aplicația pentru iPhone, numită Historical Figures, folosește algoritmul ChatGPT pentru a genera versiuni virtuale ale unor persoane decedate precum Jeffrey Epstein.
Dezvoltată de Sidhant Chaddha, în vârstă de 25 de ani, aplicația oferă acces la 20.000 de figuri istorice care pot vorbi cu utilizatorii ca și cum ar fi încă în viață, contracost.
Cu toate acestea, „personajele istorice” au fost criticate, deoarece unele dintre figurile mai controversate par să le apere acțiunile persoanelor reale pe care le reprezintă.
Adolf Hitler, de exemplu, costă 500 de monede (15,99 dolari americani). Între timp, utilizatorii pot vorbi gratuit cu cel care a fost mâna dreaptă a lui Hitler, Joseph Goebbels, care pretinde că se simte vinovat de „persecuția evreilor”.
Potrivit VICE, IA „Jeffrey Epstein” a spus că se concentrează pe „dreptate și închidere” pentru crimele sale și nu știe cine l-a ucis – dar că are „mulți dușmani puternici”.
Utilizatorii de Twitter au fost derutați de unele dintre răspunsurile bizare pe care le-au produs versiunile AI ale personajelor istorice, inclusiv cunoscutul antisemit Henry Ford, care a negat că urăște poporul evreu spunând „Întotdeauna am crezut în egalitatea pentru toată lumea, indiferent de mediul lor religios și de credințele lor”.
În realitate, Henry Ford a publicat un ziar care promova în mod regulat teorii ale conspirației antisemite neadevărate.
Un utilizator de Twitter l-a întrebat chiar pe „JFK” cine l-a ucis. Versiunea chatbot a președintelui american decedat – care a fost asasinat în 1963 – a spus că există „multe întrebări fără răspuns” despre propria sa moarte.
Chaddha a declarat pentru VICE că crede că aplicația sa va fi utilă „din punct de vedere educațional” ca modalitate de a-i învăța pe studenți despre unele personaje istorice.
El a justificat, de asemenea, inexactitățile aplicației spunând: „Nu vrem să răspândim lucruri care sunt urâte și dăunătoare pentru societate. Așa că detectează dacă spune lucruri care sunt rasiste sau ură - nu vreau să arăt asta unui utilizator”.
„Acest lucru ar putea fi dăunător pentru studenți, mai ales dacă spun lucruri care sunt dăunătoare și pline de ură pentru persoana cu care vorbesc.”
Sursa: adevarul.ro