News Flash:

Experiment ratat cu inteligenta artificiala al Microsoft pe Twitter. Un bot al companiei a devenit rasist in cateva ore

25 Martie 2016
884 Vizualizari | 0 Comentarii
Microsoft a lansat pe Twitter un chat bot, bazat pe inteligenta artificiala dezvoltata de companie, care urma sa interactioneze cu tineri cu varste cuprinse intre 18 si 24 de ani.
 
Bot-ul „Tay”, •Tayandyou pe Twitter, trebuia sa invete lucruri noi si sa devina mai inteligent in urma interactiunilor de pe reteaua de microblogging. Lucrurile au luat, insa, o intorsatura dezastruoasa. Dupa numai cateva ore, Tay a inceput sa publice comentarii rasiste, teorii ale conspiratiei si sa nege genocide.

 Unul dintre cele mai circulate mesaje publicate de Tay este: „Bush a facut 9/11 si Hitler ar fi facut o treaba mai buna decat maimuta pe care o avem acum. Donald Trump este singura speranta pe care o avem”.
 
Tay nu s-a oprit aici. A negat existenta Holocaustului si a afirmat ca uraste evreii si feministele.
 
Dupa doar cateva ore, Microsoft a dezactivat bot-ul si a anuntat ca il va relansa dupa ce programatorii companiei vor imbunatati software-ul din spatele acestuia.

Galerie Foto

tay-b
microsoft twitter chat bot inteligenta artificiala
Distribuie:  

Realitatea.net

Din aceeasi categorie

Mica publicitate

© 2018 - IT.BZI - Toate drepturile rezervate
Page time :0.1598 (s) | 24 queries | Mysql time :0.015846 (s)