Press "Enter" to skip to content

Robotii mai de incredere ca oamenii

About-us-ImageRobotii, si sistemele autonome in general, pot cauza anxietate si nesiguranta, in special cum folosirea lor in sarcinile zilnice devin o posibilitate imediata. Pentru a calma putin din anxietate, ar trebui sa ne intoarcem atentia de la deciziile pe care robotii le-ar putea face in locul nostru la cum le fac ei pentru prima data. In unele cazuri, ar putea fi mai de incredere ca un om.

Fie ca iti place sau nu, sistemel autonome sunt aici si aici raman. Prin autonom ne referim la abilitatea unui sistem de a-si lua propriile decizii despre ce o sa faca si cand o sa faca asta. Pana acum, majoritatea exemplelor peste care ati dat, precum aspiratorul robot, autopilotul unei aeronave si sistemul automat de parcare din masina, sunt simple si nici macar special autonome. Aceste sisteme se adapteaza mediului, raspunzand automat la schimbarile de mediu. Acestea sunt pre-programate sa se adapteze la stimuli mediului.

Dar povestile vechi science fiction ne avertizeaza despre sisteme care merg mai departe.  Ceea ce ne ingrijoreaza este cand un sofer uman, pilot sau operator este inlocuit de un software care face propriile alegeri despre ceea ce are de facut.

In calatoria cu avionul, un sistem de autopilot poate sa mentina avionul in zbor catre o anumita traiectorie, dar oamenii decid ce traiectorie sa ia, cand sa se abata si cum sa se comporte cu situatiile neasteptate.

Dar de indata ce ne mutam catre sisteme cu adevarat autonome, software-ul va juca o parte foarte importanta. Nu vom mai avea nevoie de oameni care sa decida cand sa schimbe ruta unui avion, sau cand sa se indeprateze de pe autostrada.

De la acest punct multi dintre noi incep sa se ingrijoreze. Daca masinile pot sa ia propriile decizii, cum putem sti ca este sigur? Dupa ce am vazut filme precum Terminator, ne intrebam daca putem sa avem incredere in masinarii sa nu ne tradeze. Pentru multi, a te urca intr-un avion care zboara singur este o idee rea.

Avem in fata noastra doua optiuni, fie avem incredere oarba in aceste masinarii, fie refuzam sa folosim sisteme autonome. Dar exista si ce-a de-a 3-a varianta.

Cand ne confruntam cu alt om, nu putem fi siguri ceea ce vor decide avand ipoteze pe baza lucrurilor pe care le credem despre ei. Consideram ca daca persoana ne-a mintit in trecut, sau are un trecut in a face greseli, nu ar trebui sa ne incurcam cu el. Dar nu putem fi niciodata siguri de ipotezele noastre, caci persoana care este alaturi de noi ne poate oricand insela.

Sistemel autonome, pe cealalta parte, sunt controlate esential de software, asa ca daca putem izola software-ul care ia deciziile importante, acele decizii pe care un om le-ar fi facut, le putem analiza cu ajutorul acestor programe. Acest lucru nu-l putem face la fel de usor si cu un creier de om.

O cercetare populara in stiinta computerelor este ingrijorata de analiza profunda a software-ului, si in special, furnizarea dovezilor logice cum ca software-ul va face fata tot timpul cererilor. Aceasta abordare, numita verificare formala este folosita in mod deosebit pentru analizarea si evaluarea software-ului critic care poate sa ateste la siguranta umana, precum statii de putere, sisteme de sustinere a vietii sau sisteme de transport. Deci de vreme ce izolam software-ul sa ia deciziile de importanta mare prin sistemele noastre autonome, putem analiza detaliat munca acestor programe.

Cercetarile se ingrijoreaza de exact aceiasi verificare formala a comportamentului sistemelor autonome, si in unele cazuri, putem demonstra ca sistemul software nu va lua niciodata decizii rele.

Procesul de luare a unei decizii este centrala in a face un robot de incredere. In asa fel putem fi mai comfortabili cu eventualele rezultate ale acestor decizii. Mediul in care munca acestor sisteme sunt tipic atat complex cat si incerte. In timp ce accidentele pot aparea, putem fi siguri ca sistemul intotdeauna va incerca sa le evite. Acest lucru poate parea insuficient, dar ne va permite sa trecem de ingrijorarile pe care filmele vechi science fiction ni le-au evidentiat.

In timp ce nu putem spune ca un robot nu va rani accidental pe cineva, prin intermediul verificarii formale am putea fi capabili sa demonstram ca robotii nu vor rani intentionat pe nimeni. Uitandu-ne in programarea interna a robotului, putem sa hotaram nu numai ceea ce va decide sa faca, dar si de ce a decis sa o faca.  In timp ce oamenii vor fi atenti la roboti si sistemele autonome, daca stiu ca aceste sisteme nu vor incerca sa le insele in mod activ, vor fi capabili sa aiba mai multa incredere in ele.

Problema principala devine acum sa demonstrezi, decat cum sa demonstrezi. Putem incerca sa demonstram ca un robot nu va alege sa raneasca un om intentionat. Dar ce putem spune despre robotii medicali sau cei din politie? Un robot medical ar putea sa incerce sa resusciteze pe cineva, dar in acest mod ar putea sa-i raneasca. Un politist robot este insarcinat sa protejeze publicul, insa ce se intampla daca un criminal trage in cineva? Poate robotul sa raneasca criminalul pentru a evita un pericol mai mare?

Ne modificam in mod clar de la intrebarile tehnice catre cele filozofice si etice despre ce comportament il gasim acceptabil si ce comportament etic ar trebui sa exercite un robot. Avand o vedere clara a cum sunt programati robotii sa ia o decizie ne va ajuta in timp ce incercam sa luam decizii pe ambele fronturi.

Faci un comentariu sau dai un răspuns?

Adresa ta de email nu va fi publicată. Câmpurile obligatorii sunt marcate cu *