News Flash:

Decizie controversata luata de Microsoft! Anutul facut acum de companie in urma unui experiment iesit de sub control

29 Martie 2016
590 Vizualizari | 0 Comentarii
Newsletter
BZI Live Video Divertisment
Video Monden
Muzica Populara Curs valutar
EUR: 4.6559 RON (+0.0040)
USD: 3.9517 RON (-0.0226)
Horoscop
berbec
taur
gemeni
rac
leu
fecioara
balanta
scorpion
sagetator
capricorn
varsator
pesti
Oficialii Microsoft au luat aceasta hotarare dupa ce lucrurile au degenerat.

Microsoft a decis sa stearga robotul de chat Tay bazat pe inteligenta artificiala dupa ce utilizatorii de Twitter au transformat acest personaj intr-o tanara care este fan Hitler, care promoveaza incestul si care crede ca Bush este autorul atentatelor de la World Trade Center din 11 septembrie.

Cei de la Microsoft au creat-o pe Tay si au instruit-o sa vorbeasca precum o adolescenta.Ea ar fi urmat sa imbunatateasca serviciul cu clientii.

Robotul foloseste un limbaj specific adolescentilor si stie despre Taylor Swift, Miley Cyrus si Kanye West.

Scopul ei era sa se dezvolte mai departe, cu ajutorul comunitatii, insa userii au inceput sa o invete lucruri nu prea ortodoxe, iar experimentul a degenerat. Microsoft a decis, deci, sa o pensioneze pe Tay la doar o zi de la lansarea ei.

Daca ti-a placut articolul, te asteptam si pe pagina de Facebook. Avem si Instagram.

microsoft inteligenta artificiala twitter taylor swift miley cyrus
Distribuie:  

Realitatea.net

Din aceeasi categorie

Mica publicitate

© 2018 - IT.BZI - Toate drepturile rezervate
Page time :0.1633 (s) | 35 queries | Mysql time :0.017612 (s)