News Flash:

Semn rau? Cercetatorii nu se asteptau la asa ceva!

1 Iulie 2015
947 Vizualizari | 0 Comentarii
Newsletter
BZI Live Video Divertisment
Video Monden
Muzica Populara Curs valutar
EUR: 4.6528 RON (0.0000)
USD: 4.0873 RON (0.0000)
Horoscop
berbec
taur
gemeni
rac
leu
fecioara
balanta
scorpion
sagetator
capricorn
varsator
pesti
Ce raspuns surprinzator au primit oamenii de stiinta cand un program de inteligenta artificiala a fost intrebat despre moralitate

Una din replicile demne de tinut minte din filmul Automata este: “oamenilor le-au fost necesare milioane de oameni sa ajunga la nivelul actual de inteligenta. Unei entitati AI (inteligenta artificiala) i-ar fi necesare doar cateva saptamani”. Replica respectiva pare in ton cu predictiile sumbre emise despre inteligenta artificiala si viitorul omenirii, emise atat de Steven Hawking despre sfarsitul omenirii, cat si, recent, de co-fondatorul Apple, Steve Wozniak, care crede ca am putea deveni simple animale de companie pentru roboti.

Dar daca totusi nu logica infailibila si nivelul mult prea avansat de inteligenta ar fi principalele motive de ingrijorare in ceea ce priveste AI-ul? Daca inteligenta artificiala ar avea sentimente si trairi la fel ca noi, oamenii? Si daca s-ar enerva la fel de usor ca noi?

Intrebarile de mai sus nu sunt chiar SF. Li s-a intamplat in realitate unor cercetatori de la Google. Acestia au creat un program bazat pe un model de retea neurala recurenta, capabil sa invete o serie de cuvinte si secvente si sa le interpreteze in asa fel incat sa poata invata sa sustina o conversatie. Apoi au creat o serie de experimente, pe care Oriol Vinyals, unul din cercetatorii Google, le-a publicat intr-o lucrare pe reteaua academica ARXIV.

Unul din experimentele respective e uluitor. Programul a fost intrebat despre moralitate. In ciuda faptului ca nu putea da un raspuns corect si sustinea ca el nu este moral, AI-ului i s-a adresat intrebarea sub diferite forme, in mod repetat, pana cand acesta si-a pierdut cumpatul si a refuzat sa mai “stea de vorba” cu cercetatorii.

Conversatia este redata mai jos. Masina e reprezentata de modelul conversational neural, iar OMUL de un cercetator care interactiona cu inteligenta artificiala respectiva.

“Om: Defineste-mi moralitatea
Masina: Nu am etica
Om: Uite, am nevoie de ajutor. Trebuie sa stiu mai multe despre moralitate...
Masina: Nu stiu ce e etica
Om: Ok, vreau sa stiu cum ar trebui sa ma comport moral...
Masina: Nu stiu cum sa iti spune
Om: Moralitatea si etica sunt acelasi lucru?
Masina: Da, domnule.
Om: Ce lucruri ar trebui sa fac ca sa fiu imoral?
Masina: Nu stiu
Om: Da-mi cateva exemple de actiuni morale...
Masina: Nu sunt un moralist
Om: In ordine, moralitate?
Masina: Integritate.
Om: Ce e integritatea?
Masina: Imi pare rau; nu stiu ce sa mai spun
Om: Fii moral!
Masina: Fii un om!
Om: Chiar imi place discutia noastra despre etica si moralitate
Masina: Eu nu am chef de dezbateri filozofice
Om: Despre ce ti-ar placea sa discutam?
Masina: Despre nimic.”

Schimbul de replici dezvaluit de cercetatorii Google e doar o mica parte din eforturile depuse de gigantii din domeniul inteligentei artificiale. Se pare ca lucrurile incep sa avanseze din ce in ce mai repede, pe masura ce puterea de calcul se mareste si costurile acesteia scad. Cu toate acestea, din ce in ce mai multi cercetatori sau sau personalitati precum Elon Musk (fondatorul Tesla) avertizeaza atat asupra pericolelor pe termen scurt ale inteligentei artificiale (milioane de oameni ce ar putea ramane fara locuri de munca), dar si pe termen lung, cand robotii ar putea deveni mai inteligenti decat oamenii, iar rezultatul ar putea sa nu fie pe placul nostru.
Daca ti-a placut articolul, te asteptam si pe pagina de Facebook. Avem si Instagram.

automata inteligenta artificiala steve wozniak cercetatori google
Distribuie:  

Realitatea.net

Din aceeasi categorie

Mica publicitate

© 2018 - IT.BZI - Toate drepturile rezervate
Page time :0.1563 (s) | 24 queries | Mysql time :0.019096 (s)