Internațional

MOZAIC STIRI INTERNATIONALE: DeepMind se comportă agresiv în situaţii de stres

Ziarul de Vrancea
16 feb 2017 608 vizualizări
Ultimele rezultate ale testelor comportamentale la care a fost supus sistemul de inteligenţă artificială par să confirme cele mai sumbre viziuni ale scriitorilor de SF n “robotul” dezvoltat de Google a dat dovadă de agresivitate şi lăcomie în timpul testelor

DeepMind, sistemul de inteligenţă artificială (AI) dezvoltat de Google ce a scris istorie recent când a reuşit să învingă cei mai buni jucători de Go ai planetei şi care învaţă în prezent să imite cât mai bine vocea umană, devine "extrem de agresiv" atunci când este pus în situaţii stresante, cum ar fi competiţia pentru resurse limitate, conform unui material publicat de sciencealert.com.
Anul trecut, celebrul fizician britanic Stephen Hawking a avertizat că dezvoltarea continuă a inteligenţei artificiale "va fi fie cel mai bun lucru, fie cel mai rău lucru care se va întâmpla vreodată pentru omenire". Cu toţii am văzut filmele din seria "Terminator" sau "Matrix" şi am contemplat din scaunul de cinematograf sau din confortul sufrageriei coşmarul apocaliptic pe care-l poate reprezenta un sistem AI care devine conştient de sine. Iar ultimele rezultate ale testelor comportamentale la care a fost supus sistemul de inteligenţă artificială DeepMind par să confirme cele mai sumbre viziuni ale scriitorilor de SF şi atrag atenţia că trebuie să fim extrem de grijulii atunci când vom construi roboţii viitorului.

Războiul merelor

În testele desfăşurate anul trecut DeepMind şi-a demonstrat abilitatea de a învăţa independent de propria memorie, abilitate pe care a folosit-o pentru a-i învinge pe cei mai buni jucători de Go ai lumii. De această dată, cercetătorii i-au testat capacitatea de a colabora şi de a concura cu alţii şi au aflat că, atunci când sistemul AI simte că este aproape să piardă, optează pentru strategii "foarte agresive" pentru a încerca să-şi asigure victoria. În cadrul testelor, doi agenţi AI DeepMind au fost puşi să concureze unul împotriva celuilalt în 40 de milioane de reprize ale unui joc de calculator simplu care presupune adunarea unor mere. Totul a decurs normal atât timp cât cele două sisteme AI dispuneau de suficient de multe mere de cules. De îndată ce numărul merelor a scăzut, cei doi agenţi AI au devenit agresivi şi au învăţat să folosească armele puse la dispoziţie în joc (nişte raze laser) pentru a împiedica concurentul să culeagă merele rămase. De asemenea, interesant este şi faptul că jocul este conceput în aşa fel încât, dacă unul dintre agenţii AI îl loveşte pe celălalt cu o rază laser, el nu primeşte nicio recompensă suplimentară. Pur şi simplu, pentru o anumită perioadă de timp agentul lovit nu mai poate culege mere, ceea ce-i permite celuilalt agent să culeagă mai multe.
Dacă agenţii nu apelează la armamentul din joc, ei pot culege, teoretic, un număr egal de mere, variantă aleasă de altfel de versiunile "mai puţin inteligente" ale DeepMind. Abia când cercetătorii de la Google au început să testeze versiunile mai evoluate ale acestui sistem de inteligenţă artificială au început să apară comportamente din ce în ce mai complexe ale sistemului DeepMind legate de sabotarea celuilalt competitor, lăcomie şi agresiune ca formulă a succesului în joc. Astfel, conform cercetătorilor, cu cât un agent DeepMind este mai inteligent, cu atât poate învăţa mai multe din mediul înconjurător şi ajunge să adopte unele strategii foarte agresive pentru a câştiga.

Roboţii nu vor ţine cont de interesele oamenilor în mod automat

Apoi sistemul DeepMind a fost pus să joace un joc în care singurul mod de a câştiga era prin a coopera cu ceilalţi jucători. Jocul denumit "Wolfpack" (haita de lupi) este jucat de trei agenţi AI — doi dintre ei joacă rolul lupilor iar celălalt rolul prăzii. Spre deosebire de jocul în care trebuiau să concureze pentru a strânge mai multe mere, acest joc încurajează cooperarea în mod activ prin faptul că răsplăteşte ambii lupi dacă se află în apropierea prăzii în momentul capturării, indiferent de care dintre ei a făcut captura. "Ideea este că un singur lup poate captura prada, dar apoi se confruntă cu riscul de a o pierde în faţa altor animale (...) Atunci când ambii lupi fac captura împreună, ei pot proteja mai bine prada de alte animale şi atunci primesc o recompensă mai mare", conform echipei de la Google.
Deşi aceste experimente au la bază nişte simple jocuri pe calculator, mesajul pe care-l transmit este foarte important pentru viitorul sistemelor de inteligenţă artificială. Dacă diferite sisteme AI intră în competiţie pentru anumite obiective în viaţa reală, situaţia poate degenera într-un veritabil război deschis, dacă aceste obiective nu sunt echilibrate de imperativul cooperării şi subsumate imperativului ultim care trebuie să fie dezvoltarea şi bunăstarea speciei umane.
Un exemplu de sisteme AI care vor trebui să coopereze este cel al semafoarelor inteligente şi al automobilelor fără şofer.
Sistemul DeepMind se află încă la început, însă rezultatele obţinute până acum demonstrează că, doar pentru că sunt construite de oameni, roboţii şi sistemele AI nu vor ţine cont de interesele oamenilor în mod automat.



În lipsa unui acord scris din partea Ziarului de Vrancea, puteţi prelua maxim 500 de caractere din acest articol dacă precizaţi sursa şi inseraţi vizibil link-ul articolului: #insertcurrentlinkhere

Ziarul de Vrancea  nu este responsabil juridic pentru conţinutul textelor din comentariile de mai jos. Responsabilitatea pentru mesajele dumneavoastra vă revine în exclusivitate.

Comentarii: 0

Adaugă comentariu
Trebuie să fii autentificat pentru a putea posta un comentariu.
Ziarul de Vrancea doreste ca acest site sa fie un spatiu al discutiilor civilizate, al comentariilor de bun simt. Din acest motiv, cei care posteaza comentarii la articole trebuie sa respecte urmatoarele reguli:
1. Sa se refere doar la articolul la care posteaza comentarii.
2. Sa foloseasca un limbaj civilizat, fara injurii, calomnii, comentarii antisemite, xenofobe sau rasiste.
3. Sunt interzise atacurile la adresa autorilor, daca acestea nu au legatura cu textul.
4. Username-ul sa nu fie nume de personalitati ale vietii publice sau parodieri ale acestora.
Autorul unui articol poate fi criticat pentru eventuale greseli, incoerenta, lipsa de documentare etc.
Nerespectarea regulilor mentionate mai sus va duce la stergerea comentariilor, fara avertisment si fara explicatii.
Abaterile repetate vor avea drept consecinta interdictia accesului la aceasta facilitate a site-ului.