Avem nevoie de un cod moral pentru roboti?

iunie 18, 2012 at 3:00 pm Lasă un comentariu

Robotii fac tot mai mult parte din viata noastra, tot mai inteligenti, tot mai autonomi, mai capabili sa initieze singuri actiuni, sa treaca dincolo de conditionarile impuse de controlul uman.

Într-una dintre nuvelele sale, „Runaround”, publicata în 1942, celebrul autor SF Isaac Asimov facea publice Cele Trei Legi ale Robotilor, codul moral dupa care se conduceau masinariile inteligente în lumea imaginara a viitorului, lume pe care, în viziunea lui Asimov, fiintele vii o împarteau cu creaturile artificiale robotice, devenite o prezenta obisnuita în acest univers.

Azi, traim într-un ev al progresului tehnologic accelerat, în care realitatea se apropie ametitor de rapid de viziunea lui Asimov. Robotii fac tot mai mult parte din viata noastra, tot mai inteligenti, tot mai autonomi, mai capabili sa initieze singuri actiuni, sa „gândeasca cu capul lor” – chiar daca acel „cap” e un procesor -, sa treaca dincolo de conditionarile impuse de controlul uman. În aceste conditii, un robot poate face mult bine si la fel de mult rau. Iata-ne ajunsi deja în situatia de a elabora un cod moral pentru robotii nostri, un sistem de legi asemenei celui gândit de Asimov. Viziunea lui a devenit realitate, viitorul este deja aici. Dar oare aceste cod moral este atât de usor de elaboratt

Legile robotilor si intepretarile lor

Mii de proiecte se concentreaza, la ora actuala, asupra construirii unor masinarii care sa fie nu doar capabile sa se deplaseze, sa comunice, sa îndeplineasca sarcini precis trasate de oameni, ci si sa ia decizii, în functie de conditii, sa aleaga singure solutii; cu alte cuvinte, sa fie autonome. Iar prin masinarii sau roboti, întelegem nu doar niste roboti umanoizi (care, oricum, reprezinta o minoritate în lumea robotilor de azi), ci si numerosii roboti militari si utilitari de toate formele si marimile, precum si sistemele computerizate care asigura activitatea autonoma a celor mai variate alcatuiri si care vor juca în viitor un rol imens, fiind integrate în mii de sisteme, de la drone la utilaje folosite în constructii, de la aparate electrocasnice la vehicule submarine, de la masinile fara sofer la mini-robotii chirurgicali. Cu alte cuvinte – orice sistem care „gândeste” cu ajutorul unor procesoare, fiind înzestrat cu asa-numita inteligenta artificiala.

Scopul suprem al cercetarilor în domeniul inteligentei artificiale este acela de a crea masinarii care sa fie cât mai apropiate de om, în ceea ce priveste capacitatile cognitive si de decizie. Savantii viseaza la sisteme automate care, la fel ca omul, sa evalueze rapid situatia, sa-si recheme în amintire cunostintele acumulate anterior, sa treaca totul prin sita regulilor morale si, integrând toate aceste aspecte, sa ia o decizie pe baza careia sa actioneze. Pare simplu. Dar nu este.

Robotii lui Asimov aveau de respectat trei legi, mari si late, toate însa având la baza interdictia de a face rau unei fiinte umane. – Un robot nu trebuie sa raneasca o fiinta umana, ori, prin neimplicare, sa permita ca o fiinta umana sa fie ranita.

– Un robot trebuie sa se supuna ordinelor date de fiintele umane, cu exceptia cazului în care aceste ordine vin în contradictie cu Prima Lege.

– Un robot trebuie sa se protejeze pe el însusi, atâta timp cât o asemenea protectie nu vine în contradictie cu Prima si cea de-a Doua Lege.

Un articol publicat recent în The Economist atragea însa atentia asupra unor scenarii – ipotetice, deocamdata – în care un „robot” ascultator si bine educat, patruns de importanta celor trei legi si hotarât sa le respecte, ar fi fost pus în situatii extrem de dificile. Ce ar trebui sa faca, de pilda, o masina fara sofer, când apare pericolul de a lovi niste pietoni:: sa vireze brusc pentru a-i evita, cu riscul de a-si vatama ocupanti si de a lovi alte masinit Sau o drona care trebuie sa traga asupra unui imobil unde se ascunde un terorist, ce-ar trebui sa facat Sa distruga imobilul cu orice pret, pentru a-si îndeplini obiectivul, chiar daca asta înseamna sa omoare si civili nevinovati care se gasesc în acelasi imobilt

De altfel, însusi Asimov, în câteva dintre nuvelele scrise de-a lungul vietii, dupa publicarea Runaround, a imaginat scenarii în care robotii încalcau una sau alta dintre legi sau cel putin visau sa o faca. , sugerând astfel ca niciun set de reguli fixe nu poate acoperi deplin toate situatiile posibile. Ceea ce dovedeste ca lucrurile nu sunt niciodata atât de simple ca pe hârtie.

În ciuda faptului ca Legile Robotilor au fost formulate în urma cu 7 decenii, problema unui cod moral a început sa se puna cu acuitate abia în ultimii ani, când o dezvoltare vijelioasa a sistemelor dotate cu inteligenta artificiala i-a silit pe oameni sa constientizeze faptul ca, odata cu reusitele, iese la iveala si o latura îngrijoratoare: cea a modului în care se vor purta aceste creatii – aproape creaturi – atunci când vor deveni autonome, asa cum îsi doresc creatorii lor. Asadar, vorbim despre un fenomen foarte recent. Ca dovada, lucrarile cuprinzatoare asupra acestui subiect sunt de data recenta:

– În 2009, Oxford University Press a publicat Moral Machines: Teaching Robots Right from Wrong (autori: Wendell Wallach si Colin Allen), o ampla lucrare de sinteza despre provocarile reprezentate de construirea AMA si care citeaza aproximativ 450 de surse bibliografice, vasta lor majoritate datând din secolul XXI. – În 2011, Cambridge University Press a publicat o colectie de eseuri privind problema eticii sistemelor artificiale (Machine Ethics; autori: Michael Anderson si Susan Leigh Anderson) – Tot în 2011, Nick Bostrom si Eliezer Yudkowsky au inserat un articol numit The Ethics of Artificial Intelligence în Cambridge Handbook of Artificial Intelligence.

Si tot asa, marea majoritate a cartilor si articolelor de specialitate, precum si a articolelor de popularizare aparute în diverse publicatii dateaza abia de câtiva ani, ceea ce pare sa indice faptul ca problema a devenit acuta. Fara îndoiala, fenomenul se leaga de faptul ca, în ultimii câtiva ani, robotii si, în general, sistemele dotate cu inteligenta artificiala au devenit, într-adevar, capabile de multe, de diferite actiuni si decizii, ceea ce pune cu stringenta problema unei educatii morale a acestor alcatuiri.

Sub ochii nostri, ia nastere un tip nou de creatura: se vorbeste deja despre o categorie aparte de „fiinte”, asa-numitii agenti morali artificiali (AMA), sisteme dotate cu inteligenta artficiala, dar care vor putea (si vor trebui) sa ia decizii nu doar în functie de conditiile obiective, ci si în conformitate cu o morala care le va fi „bagata în cap” de cei care i-au proiectat si construit.

Experimente, opinii, viziuni

Iata câteva dintre studiile recente ce ilustreaza importanta enorma a acestui aspect al tehnologiei, precum si parerile unor specialisti în privinta acestei complicate chestiuni:

În 2008, un expert în inteligenta artificiala, Noel Sharkey, de la Universitatea din Sheffield, Marea Britanie, atragea atentia asupra acestui aspect, afirmând ca robotii construiti pentru a-i amuza pe copii si a-i îngriji pe batrâni ar trebui supusi unor rigori etice.

Însa nu numai roboticienii si specialistii în etica tehnolgiei, ci însisi expertii militari atrag atentia asupra necesitatii de a-i înzestra pe roboti cu un asemenea cod, de a-i învata, altfel spus, sa deosebeasca binele de rau, cel putin asa cum sunt ele definite în sistemul de valori al societatii moderne de tip ocidental si asa cum sunt întelese ele pe timp de razboi. (Iata înca un aspect care complica problema: alte grupuri umane, cu alte coduri morale si alte sisteme de valori, ar putea construi roboti care sa se comporte dupa alte reguli decât robotii „nostri”, iar rezultatul, cel putin pentru moment, e aproape imposibil de prevazut.) Cu perspectiva transformarii razboiului într-unul purtat, în mare masura, cu ajutorul unor sisteme dotate cu inteligenta artificiala, comportamentul unui robot pe front ar trebui sa fie supus unui cod la fel de strict ca si cel care guverneaza azi comportamentul soldatilor umani. Pentru ca e clar ca, dintre toti robotii, cei militari sunt cei carora li se poate cere cel mai putin sa respecte legile formulate de Asimov. În acelasi timp, asa cum se mentioneaza în articolul din The Economist, un robot-soldat ar putea purta razboiul facând mult mai putin rau decât unul uman: un soldat robot nu jefuieste, nu violeaza, nu ucide si distruge fara sa se poata opri, cuprins de o furie care îl orbeste…

Dar cât de probabila este o evolutie a robotilor, care sa faca necesara înzestrarea lor cu un cod moralt Un articol aparut în Popular Science aduce în scena ciudatul personaj al robotului mincinos, nu un personaj de literatura fantastica, ci unul devenit real. E vorba despre un experiment realizat de cercetatorii Laboratorului de Sisteme Inteligente al Scolii Politehnice Federale din Lausanne, Elvetia, experiment axat pe posibilitatile de evolutie ale robotilor, pe capacitatea lor de a învata si de a coopera pentru a gasi o anumita resursa (un material util) si a se feri de o sursa de material daunator.

Experimentul a implicat 1000 de roboti, împartiti în grupuri de câte zece. Fiecare robot era dotat cu un senzor, un sistem de semnalizare (o lumina albastra) si un „genom” – un cod binar care controla modul în care robotelul reactiona la stimuli. Robotii din prima generatie au fost programati sa îsi aprinda beculetul albastru când descopereau sursa utila, ajutându-i astfel si pe ceilalti roboti sa o gaseasca.

– Cei mai buni 200 de roboti, cei care reusisera sa gaseasca cel mai rapid resursa buna, au format baza pentru viitoarea generatie. „Genoamele” lor au fost combinate, iar rezultatul a fost folosit pentru a programa o noua generatie de roboti. – Dupa 9 generatii, robotii devenisera exceptional de eficienti în gasirea resurselor si comunicarea cu ceilalti roboti pentru a-i îndrepta spre resurse. Însa, daca un robot gasea resursa, semnaliza ca a gasit-o si toti ceilati se îngramadeau acolo spre a o folosi, însemna ca ramâne mai putin pentru cel care a gasit-o, nut Incredibil, dar adevarat: asa au „gândit” si unii dintre roboteii din experiment. Si nu numai ca au înteles problema, dar au gasit si o solutie. – Dupa 500 de generatii, 60% dintre roboti au învatat… sa minta: nu-si mai aprindeau beculetul cînd gaseau resursa cautata; ce-au gasit (doar) al lor sa fie! Dar si mai tare a fost când alti roboti s-au prins ca mincinosii îi fentau, tinând lumina stinsa, si au început sa se uite dupa cei fara beculet aprins, întelegând ca era mai probabil ca tocmai aceia sa fi gasit ceea ce era de gasit. Cu alte cuvinte, au facut exact pe dos decât fusesera programati sa faca!

Asadar, robotii pot învata sa minta. Si daca se mint între ei, nu ne-ar putea minti, într-o buna zi, si pe noit Si, daca ar ajunge sa ne minta, ce i-ar putea împiedica pe unii dintre ei sa faca lucruri si mai rele (din punctul nostru de vedere)t Unii dintre ei ne-ar putea vatama fizic cu usurinta; înzestrati cu arme (cine stie daca n-ar ajunge sa le construiasca singurit) ne-ar putea chiar ucide. Dar daca marile utilaje industriale, lipsite de inteligenta, reprezinta un pericol real pentru om atunci când sunt mânuite fara grija cuvenita, cu atât mai mult ar putea fi primejdios impactul cu un AMA lipsit de frânele morale care permit umanitatii sa-si duca viata în relativa siguranta.

Daca preocuparile academice serioase privind necesitatea de a înzestra AMA cu un cod de reguli morale sunt de data recenta, obsesia confruntarii cu un grup de AMA care evolueaza în legea lor, fara a tine seama de a noastra, i-a bântuit pe multi vizionari. O povestire SF scrisa de un autor sovietic, Anatoli Dneprov, publicata în anii ’50 si intitulata Crabii misuna pe insula, descria întocmai aceasta viziune de cosmar: un savant construise niste crabi robotici inteligenti, programati „sa se înmulteasca” prin construirea altor crabi identici cu ei, din metalele puse la dispozitie de el. Intentia era aceea de a verifica daca teoria darwinista a evolutiei se aplica si sistemelor inteligente artificiale. În doar câteva zile, oamenii de stiinta care urmareau experimentul au constatat ca deja crabii evoluasera, devenind mai mari si mai bine înzestrati. Când materialele din depozite s-au terminat, lucrurile au luat o turnura interesanta: crabii au început sa se atace unii pe ceilalti, învinsii fiind dezasamblati si folositi drept materie prima de catre învingatori, pentru construirea altor crabi. În cele din urma, n-a mai ramas decât un numar mic de crabi uriasi, care se luptau tot timpul între ei. Si, la un moment dat, s-a petrecut ceva la care nimeni nu se asteptase: unul dintre crabi si-a atacat creatorul, pe savantul Cookling. La început, lucrul a parut de neînteles, pâna când oamenii si-au dat seama ca, de fapt, crabul nu facea decât sa-si urmeze programul, sa faca exact ceea ce fusese învatat sa faca: ascultând de programul sau fundamental, care îi „spunea” sa construiasca întruna alti crabi si, în acest scop, sa caute si sa procure neîncetat metal, crabul s-a napustit asupra savantului, încercând sa-i smulga dintii de metal, pentru a-i folosi la crearea altor monstri robotici.

Un scenariu extrem, desigur, dar iata ca, la peste o jumatate de secol de la aceasta interpretare, ne punem deja problema evolutiei sistemelor inteligente artificiale, a limitelor acestei evolutii, a modului în care le-am putea dota cu învatamintele necesare unei convietuiri armonioase cu omul, creatorul lor, atunci când granita dintre capacitatile cognitive umane si cele ale AMA va deveni subtire de tot sau va disparea.

Cum sa-i învatam sa distinga raul de binet Cum sa-i ferim de relele care ne bântuie pe noi si care adesea scapa din strânsoarea frânelor morale, facând atâta rau celor din jur: egoismul, lacomia, setea de putere.

Deocamdata, îi controlam noi pe ei, iar posibilitatea ca ei sa preia controlul pare o utopie. Si totusi, faptul ca oameni care lucreaza zi de zi cu aceste sisteme (si stiu bine ce pot ele si ce nu) sunt preocupati de chestiunea unei etici a functionarii lor arata ca vremea în care va trebui sa gasim o baza morala pentru convietuire nu e atât de departe cum credeam.

Sursa: Descopera.ro

Reclame

Entry filed under: Automatizari. Tags: .

Firmele romanesti ar putea construi noul sediu NATO de la Bruxelles Elisa Leonida Zamfirescu, prima femeie inginer din lume

Lasă un răspuns

Completează mai jos detaliile tale sau dă clic pe un icon pentru a te autentifica:

Logo WordPress.com

Comentezi folosind contul tău WordPress.com. Dezautentificare /  Schimbă )

Fotografie Google

Comentezi folosind contul tău Google. Dezautentificare /  Schimbă )

Poză Twitter

Comentezi folosind contul tău Twitter. Dezautentificare /  Schimbă )

Fotografie Facebook

Comentezi folosind contul tău Facebook. Dezautentificare /  Schimbă )

Conectare la %s

Trackback this post  |  Subscribe to the comments via RSS Feed


Pagini

Categorii

iunie 2012
L M M J V S D
« mai   iul. »
 123
45678910
11121314151617
18192021222324
252627282930  

%d blogeri au apreciat asta: