News Flash:

Decizie controversata luata de Microsoft! Anutul facut acum de companie in urma unui experiment iesit de sub control

29 Martie 2016
501 Vizualizari | 0 Comentarii
Oficialii Microsoft au luat aceasta hotarare dupa ce lucrurile au degenerat.

Microsoft a decis sa stearga robotul de chat Tay bazat pe inteligenta artificiala dupa ce utilizatorii de Twitter au transformat acest personaj intr-o tanara care este fan Hitler, care promoveaza incestul si care crede ca Bush este autorul atentatelor de la World Trade Center din 11 septembrie.

Cei de la Microsoft au creat-o pe Tay si au instruit-o sa vorbeasca precum o adolescenta.Ea ar fi urmat sa imbunatateasca serviciul cu clientii.

Robotul foloseste un limbaj specific adolescentilor si stie despre Taylor Swift, Miley Cyrus si Kanye West.

Scopul ei era sa se dezvolte mai departe, cu ajutorul comunitatii, insa userii au inceput sa o invete lucruri nu prea ortodoxe, iar experimentul a degenerat. Microsoft a decis, deci, sa o pensioneze pe Tay la doar o zi de la lansarea ei.


microsoft inteligenta artificiala twitter taylor swift miley cyrus
Distribuie:  

Realitatea.net

Din aceeasi categorie

Mica publicitate

© 2018 - IT.BZI - Toate drepturile rezervate
Page time :0.1551 (s) | 35 queries | Mysql time :0.017859 (s)