Masinile autonome si dilema morala sau atunci cand un robot se joaca de-a Dumnezeu -...

english   


Cauta stiri
HomePiata AsigurarilorProtectia consumatorilorDespre asigurariEvenimentePublicatiiRadiowww.xprimm.com
 Ghid Asig 
 Dictionar 
 Lex 
 Tendinte 
 Timp liber 




1 EUR = 4.7509 RON
1 USD = 4.1988 RON










RFI

Tendinte

Full screen Print E-mail Font | Inapoi | Arhiva

Masinile autonome si dilema morala sau atunci cand un robot se joaca de-a Dumnezeu


Inchide ochii si imagineaza-ti ca esti in situatia in care ai cel mult o fractiune de secunda pentru a salva o viata. A ta sau a altcuiva, amandoi fiind, intr-un fel sau altul, amenintati de acelasi risc: moartea. Acum, imagineaza-ti ca un robot s-ar juca de-a Dumnezeu si ar decide cine moare si cine traieste. Da, masinile autonome ar trebui sa joace, in viitorul apropiat, acest joc. Intr-un fel sau altul, un robot va fi programat sa ucida. Pe tine sau pe celalalt. Si nu, nu e vorba de un film, ci de realitatea de maine.

Tehnologia e deja aici. Nu putine sunt vocile care sustin ca masinile autonome vor reduce drastic numarul victimelor accidentelor rutiere. In ultima vreme, insa, la fel de multi sunt si cei care sustin ca, momentan, masinile autonome au venit insotite de o dilema morala. In eventualitatea unui accident, pe cine ar trebui sa salveze masina, pe tine sau pe celalalt? Cat de mult schimba datele problemei copiii si/sau batranii? Cat de mare e provocarea care se ascunde in spatele Inteligentei Artificiale?

Sa luam in calcul urmatorul scenariu: un copil sare de nicaieri in faaa unei masini autonome care circula cu viteza normala. Nu e timp de franare. Ce se intampla? E o problema care trebuie rezolvata intr-o clipa. Vireaza la stanga, spre masinile care circula din sens opus, cu riscul de a provoca un accident in urma caruia sa fie raniti pasagerii si/sau soferul? Vireaza la dreapta, cu riscul de a rani pietonii? Merge drept inainte, cu riscul de a spulbera copilul care i-a aparut in fata?

Anul trecut, Germania a incercat sa gaseasca rezolvarea, devenind prima tara care a cautat sa raspunda acestor intrebari morbide, propunand un set de reguli. Regulile arata, printre altele, ca masinile autonome trebuie sa minimizeze mereu riscul decesului unei persoane si sa nu faca discriminari intre persoane, care sa ia in calcul elemente precum sex, varsta sau orice alt factor. De asemenea, viata unui om trebuie sa aiba mereu prioritate inaintea celei a unui animal sau inaintea unei proprietati.

Peste trei sferturi dintre cei care au participat la studiul realizat in acest sens de autoritatile germane au fost de acord cu acest tip de abordare. Asta, atata vreme cat nu se afla in masina. Daca ar fi in masina, cei mai multi ar vrea sa protejeze pasagerii si pe ei insisi, cu toate costurile. Acest lucru arata ca, in principiu, oamenii au o gandire etica, dar, in practica, intervine egoismul. In teorie, oamenii spun ca sunt pregatiti oricand sa se sacrifice, daca, prin acest gest, ar salva vietile altor participanti la trafic.

Joaca de-a etica sau cum batranii pot fi sacrificati mai usor

Potrivit unui articol aparut in Forbes, MIT Media Lab a incercat, in 2016, sa rezolve aceasta problema etica prin intermediul unui joc, lansand Moral Machine. Astfel, utilizatorii faceau cunostinta online cu alegerile pe care masinile autonome le vor face in viitor. Ar trebui ca o masina autonoma sa salveze un pieton care traverseaza neregulamentar, cu riscul de a sacrifica, in acelasi timp, pasagerii? Sau ar trebui ca masina sa salveze pasagerii si, in acelasi timp, sa sacrifice pietonul?

Prezentand studiul cu o zi inainte ca masinile autonome sa faca prima victima (o masina autonoma Uber a spulberat, in Arizona, o femeie de 49 de ani, care se plimba cu bicicleta), profesorul Iyad RAHWAN a explicat ca acesta este cel mai mare studiu realizat vreodata la nivel global pe probleme de etica. Astfel, Moral Machine a avut nu mai putin de 4 milioane de utilizatori, iar scenariile au inclus diverse combinatii: sexul si varsta pietonilor, pisici si caini traversand drumul etc.

Cercetatorii au aflat ca, atunci cand vine vorba de alegeri "simple" - sacrifici un copil sau sacrifici un adult -, rezultatele au favorizat, in mod coplesitor, protejarea vietilor tinere. Cu cat pietonii erau mai in varsta, cu atat mai mult erau considerati "dispensabili", "sacrificabili". Rezultate la fel de uimitoare au aparut si la protejarea pietonilor vs. protejarea pasagerilor, 40% dintre utilizatori alegand sa salveze pasagerii, chiar daca asta ar inseamna sa spulbere pietonii.

Cu cat scenariul prezentat de Moral Machine era mai complex, cu atat mai greu le era utilizatorilor sa isi exprime opinia. Pusi sa aleaga daca e mai bine sa sacrifice un pieton care circula regulamentar sau doi pietoni care circula neregulamentar, utilizatorii s-au impartit raspunsurile cu exactitate: 50-50. Pentru a sublinia si mai mult dificultatile pe care le avem in identificarea celor mai comune valori etice, rezultatele Moral Machine au variat si in functie de factori precum tara sau o regiune din tara respectiva.

"Rezultatele subliniaza ca exista aspecte diferite pe care trebuie sa le luam in considerare, sunt diferite valori care intra in conflict, ceea ce inseamna o provocare pentru propria noastra etica. Mai mult decat atat, ne provoaca sa rezolvam aceasta dilema singuri, pentru ca nu toti suntem de acord. Daca va fi sa construim masini care reflecta propriile noastre valori, trebuie sa intelegem mai bine aceste valori, sa le cuantificam si sa negociem, pentru a stabili importanta acestora", a declarat Iyad RAHWAN.

Decizia cu privire la ce va face masina a fost luata deja de un programator

David DANKS - Head of Philosophy Department, Carnegie Mellon University -, arata ca, la mijloc, este o neintelegere a modului in care masinile autonome percep ce se intampla in jurul lor. "Decizia cu privire la ce va face masina a fost luata cu luni in urma, cand un programator a decis ca atat valoreaza un pieton, atat valoreaza un biciclist s.a.m.d. In momentul respectiv, masina nu ia decizia la fel cum ar lua-o un om, ci incearca sa gaseasca varianta cea mai buna luand in calcul valorile programate."

Acelasi David DANKS mai arata ca incercarea de a invata sa avem incredere in masinile autonome va fi o calatorie extrem de confuza. Un anumit tip de incredere, arata el, e bazat pe predictibilitate si fiabilitate. "Observand cum se comporta un anumit sistem in anumite situatii iti permite, la un moment dat, cand te afli intr-una din situatiile respective, sa anticipezi ca, prin prisma experientelor anterioare, sistemul va face ceva similar", explica David DANKS.

Pe de alta parte, un alt tip de incredere este bazat pe faptul ca stim de ce si cum functioneaza ceva anume. In acest sens, David DANKS ofera un exemplu personal, dar care ar putea fi inteles mai bine tocmai prin prisma simplitatii sale. "Inteleg cum si de ce sotia mea ia deciziile pe care le ia. Totodata, inteleg principiile si valorile pe care le are, inteleg modul in care ea vede lumea, chiar daca, prin orice masura statistica, sotia mea este mai putin previzibila decat masina."

Interactionand cu alti oameni, ajungem ss-i cunoastem si sa le anticipam reactiile in anumite situatii, dar, avand in vedere modul in care sunt concepute masinile autonome, nu le putem interpreta ca si cum ar fi oameni. "Tocmai pentru ca sunt sisteme autonome, sunt capabile de reactii cu mult mai sofisticate si nu poti spune ca, daca ai vazut asta o data, inseamna ca ai vazut-o de mii de ori", explica David DANKS. Prin urmare, ne va fi extrem de greu sa avem incredere in masinile autonome.

Cat de palpabil este visul unei masini complet autonome?

Nu stim ce ne va aduce ziua de maine, dar nu este exclus ca masinile complet autonome sa ramana doar la stadiul de ideal. Ian ROBERTSON, un reprezentant al companiei BMW, spune ca masinile autonome ar putea sa nu ajunga pe drumurile publice, avand in vedere ca vor fi fortate sa faca alegeri etice, ceea ce poate fi prea mult. El a mai sugerat ca se poate ajunge la un punct in care masinile complet autonome sa fie aprobate strict pentru circulatia pe autostrada, nu si pentru celelalte drumuri publice.

"In Marea Britanie, autoritatile incurajeaza testarea masinilor autonome, chiar daca unele dintre principiile fundamentale ale acestora contravin legislatiei rutiere din tara. Cred, insa, ca, pe termen lung, autoritatile de reglementare vor pune piciorul in prag si vor stabili niste limite, care sa arate cat de departe se poate merge cu aceasta tehnologie. Masinile complet autonome ar putea fi folosite strict pe autostrazi, avand in vedere ca o autostrada este un mediu controlat", a spus ROBERTSON, intr-un interviu pentru The Sun.

Desi multi evita sa se gandeasca la asta, raspunsul la o intrebare extrem de importanta ar putea fi cheia pentru dezvoltarea acestei tehnologii. Cum hotarasti care este valoarea unei vieti? Un sofer poate crede ca, de vreme ce masina ii apartine, aceasta ar trebui sa fie programata astfel incat sa il protejeze pe el inaintea tuturor celorlalti. Alt sofer poate considera ca viata unui pieton este mai presus de orice altceva. Raspunsul la aceasta intrebare poate fi cheia pentru o masina complet autonoma.

Asa cum arata si cei de la Smithsonian, ce este usor pentru oameni poate fi, de multe ori, dificil pentru masini. Evolutia ne-a dezvoltat anumite abilitati, paradoxul lui Moravec spune, insa, ca e extrem de dificil sa predai aceste abilitati sau sa le programezi. Deciziile luate de inginerii de astazi nu vor determina cum va conduce o masina autonoma in viitor, ci cum vor conduce absolut toate masinile autonome. Cu alte cuvinte, algoritmii de astazi vor deveni regulile de maine.

In loc de concluzie: ne dorim, oare, masini autonome care sa conduca asa cum o fac oamenii? Orice s-ar spune, oamenii nu sunt chiar cei mai priceputi soferi, mai ales daca ne gandim ca, de cele mai multe ori, dau dovada, la volan, de o etica mai mult decat indoielnica. Chiar ne dorim asta? Atunci, poate ar trebui sa ne oprim pentru o secunda si sa analizam valorile si principiile care ne ghideaza. Nu de alta, dar poate ca ar trebui sa ne dorim masini autonome care sa conduca ALTFEL. Mai bine, mai sigur.


Acest articol este proprietatea Media XPRIMM si este protejat de legea drepturilor de autor.
In lipsa unui acord scris din partea Media XPRIMM, puteti prelua maxim 500 de caractere din acest articol. Este necesara precizarea sursei si inserarea in mod vizibil a linkului articolului (Masinile autonome si dilema morala sau atunci cand un robot se joaca de-a Dumnezeu).




Share |


Autor: Cristian SUCA | Publicat pe 06.03.2019 | 395 vizualizari


TOP Stiri


Comenteaza acest articol
0 comentarii

DISCLAIMER: Dupa trimiterea comentariului, acesta va fi aprobat de un moderator. Vor fi publicate doar comentariile pertinente, la obiect, legate de continutul prezentat in material. Nu vor fi publicate comentariile care includ cuvinte obscene, atacuri la persoane/ institutii, atacuri si jigniri aduse autorului materialului, injurii aduse celorlalti cititori care au postat un comentariu, anunturi publicitare. Ne rezervam dreptul de a edita sau de a elimina complet orice comentariu care nu corespunde acestor principii. Site-ul 1asig.ro si Media XPRIMM nu-si asuma responsabilitatea juridica pentru opiniile postate in rubrica de comentarii, responsabilitatea formularii acestora revine integral autorului comentariului.

Atentie! Campurile "Comentariu" si "E-mail" sunt obligatorii
Nume:
Daca nu sunteti logat, numele dumneavoastra va aparea cu sufixul '(Anonim)'. Pentru a va autentifica, click aici
Daca sunteti logat si nu completati campul nume, va aparea automat numele dumneavoastra cu care v-ati inregistrat pe site
E-mail:

Comentariu:
< 10.000 car.

  Cod de securitate
Introduceti codul din imagine:




PAID

OMNIASIG


























Copyright 2019-2017 (c) 1asig.ro
powered by Media XPRIMM