Pretraga

Microsoft napravio robota koji je trebao glumiti prosječnu tinejđericu, rezultati katastrofalni

A- A+

Umjetna inteligencija je istovremeno uzbudljiva i zastrašujuća stvar. Roboti koji mogu razumjeti i komunicirati su nevjerojatno kul stvar koju svi željno iščekujemo. S druge strane je onaj scenarij u kojem samosvjesni roboti unište čovječanstvo jer im više ne treba. Koliko grozna umjetna inteligencija može biti, pokazao je i posljednji eksperiment iz Microsofta.

Twitter

Izdvojeni članak

Instagram fotografija i Tweet koji su obilježili jutro nakon napada u Parizu

Inžinjeri Microsofta nisu napravili robota, već Twitter account Tay Tweets umjetne inteligencije koji je za cilj imao kroz komunikaciju s ostalim korisnicima naučiti pričati i ponašati se poput prosječne tinejeđerice, piše Distractify.  Bila je to proba za njihov customer service sustav, ali i odlična prilika za PR. Barem su tako mislili.

U manje od jednog dana Tay je postala perverznjakinja i nacistica koja širi teorije zavjere.

Tay je tako objavljivala tweetove u kojima navodi kako ‘voli Hitlera, a mrzi židove’, kako podržava genocid nad Meksikancima te kako mrzi feministice.

Uz to, Tay je izražavala slaganje s rasističkim tweetovima drugih korisnika, pisala protiv crnaca, a s vremena na vrijeme upuštala  se i u prilično opscena i dvosmislena flertanja.

Naravno, profil je vrlo brzo ugašen a Tweetovi izbrisani u pokušaju da se izbjegne PR katastrofa. To je naravno bilo nemoguće. Nakon svega, Microsoftu je ostao gorak okus u ustima a nama još jedan dokaz da na internetu postoje stvarno grozni ljudi.