INCREDIBIL/Un ROBOT Microsoft s-a „VIRUSAT” după o zi! A ajuns să posteze mesaje RASISTE și SEXUALE!

INCREDIBIL/Un ROBOT Microsoft s-a „VIRUSAT” după o zi! A ajuns să posteze mesaje RASISTE și SEXUALE!

Un robot de chat cu inteligenta artificiala s-a "molipsit" de la tinerii de pe Twitter si a ajuns sa posteze mesaje rasiste si cu caracter sexual! Un experiment facut de Microsoft a dat rezultate neprevazute. Compania a creat un robot de chat gandit sa interactioneze pe Twitter cu tinerii intre 18 si 24 de ani, insa la mai putin de o zi dupa lansarea acestui user virtual, el a inceput sa posteze mesaje in care Hitler este elogiat, altele in care Donald Trump este laudat, dar si altele cu continut sexual explicit. Chat-bot-ul numit Tay a invatat totul de la cei cu care a interactionat. Intamplarea este amuzanta, dar scoate la iveala intrebari serioase despre cum va fi pe viitor folosita inteligenta artificiala pe internet.

Tay Tweet  este un chat-bot, un user virtual de Twitter pe care Microsoft l-a creat pentru a testa modul in care acesta intelege conversatiile cu tinerii si pentru a testa si ce va posta dupa ce va urmari ce-i scriu tinerii. Experimentul este gandit pentru a imbunatati diverse servicii Microsoft in care va fi folosita inteligenta artificiala, iar robotul de chat devine cu atat mai "destept" cu cat interactioneaza mai mult cu useri reali.

Cum descrie Microsoft chat-bot-ul

Tay Tweet a postat zeci de mii de mesaje pe Twitter in mai putin de o zi, insa ceea ce a uluit a fost faptul ca o parte dintre ele au fost mesaje rasiste, xenofobe, pro-Hitler si pro-Trump. In plus, in unele mesaje, Tay facea referire la acte sexuale, iar in altele spunea ca este bine ce a facut Hitler cu evreii.

Tay este un fel de "papagal digital" care repeta ce aude de la userii obisnuiti de Twitter, astfel ca nu este o surpriza faptul ca mesajele au degenerat, fiindca pe Twitter - ca si peste tot pe internet - sunt multe mesaje rasiste, mesaje care incita la ura sau care au continut sexual explicit. Asadar, chat-bot-ul reflecta limbajul folosit de multi pe Twitter.

Nu este clar cat de mult a pregatit compania chat-bot-ul pentru climatul de pe Twitter, insa in descrierea oficiala, despre Tay se spune ca a fost construit folosind date publice relevante care au fost modelate si filtrate.

Desi multe dintre raspunsurile lui Tay pot fi considerate glume, intregul episod ridica intrebari serioase, noteaza The Verge. Cum vom putea sa invatam diversele programe de inteligenta artificiala sa foloseasca datele publice, fara a prelua si multele prostii de pe internet? Tehnologia a incorporat diverse prejudecati din societate si diverse lucruri reprobabile, iar "aventurile" lui Tay pe Twitter arata ca trebuie sa tinem cont de ele cand lasam mici programe sa creeze continut..

Surse: The Telegraph, The Verge, The Guardian



populare
astăzi

1 Greu de crezut așa ceva, dar...

2 Culisele picante din spatele așa-zisei crize dintre partidele „condamnate” să împartă un ciolan mai auster

3 VIDEO Singura întrebare care l-a făcut pe Putin să tușească...

4 DOCUMENT Pensiile rămân înghețate o perioadă, salariile bugetarilor la fel, dar pentru întreg anul viitor / Toate modificările importante

5 Amușinarea lui Orban pe la București arată că pe măsură ce se blochează colaborarea energetică cu Ucraina, cu atât devine mai importantă cea cu Români…