News Flash:

Experiment ratat cu inteligenta artificiala al Microsoft pe Twitter. Un bot al companiei a devenit rasist in cateva ore

25 Martie 2016
1002 Vizualizari | 0 Comentarii
Newsletter
BZI Live Video Divertisment
Video Monden
Muzica Populara Curs valutar
EUR: 4.6559 RON (+0.0040)
USD: 3.9517 RON (-0.0226)
Horoscop
berbec
taur
gemeni
rac
leu
fecioara
balanta
scorpion
sagetator
capricorn
varsator
pesti
Microsoft a lansat pe Twitter un chat bot, bazat pe inteligenta artificiala dezvoltata de companie, care urma sa interactioneze cu tineri cu varste cuprinse intre 18 si 24 de ani.
 
Bot-ul „Tay”, •Tayandyou pe Twitter, trebuia sa invete lucruri noi si sa devina mai inteligent in urma interactiunilor de pe reteaua de microblogging. Lucrurile au luat, insa, o intorsatura dezastruoasa. Dupa numai cateva ore, Tay a inceput sa publice comentarii rasiste, teorii ale conspiratiei si sa nege genocide.

 Unul dintre cele mai circulate mesaje publicate de Tay este: „Bush a facut 9/11 si Hitler ar fi facut o treaba mai buna decat maimuta pe care o avem acum. Donald Trump este singura speranta pe care o avem”.
 
Tay nu s-a oprit aici. A negat existenta Holocaustului si a afirmat ca uraste evreii si feministele.
 
Dupa doar cateva ore, Microsoft a dezactivat bot-ul si a anuntat ca il va relansa dupa ce programatorii companiei vor imbunatati software-ul din spatele acestuia.
Daca ti-a placut articolul, te asteptam si pe pagina de Facebook. Avem si Instagram.

Galerie Foto

tay-b
microsoft twitter chat bot inteligenta artificiala
Distribuie:  

Realitatea.net

Din aceeasi categorie

Mica publicitate

© 2018 - IT.BZI - Toate drepturile rezervate
Page time :0.1848 (s) | 24 queries | Mysql time :0.012998 (s)