Cap als anys 50's
Isaac Asimov va començar a escriure una sèrie de novel·les
que tenien per protagonistes els robots i la seva relació amb els humans. Estem
parlant de "Jo, robot"i de la Trilogia dels Robots (formada per
"Les bòvedes d'acer", "El sol nu" i de "Els robots de
l'Alba") essencialment.
Ja se sap que les
màquines les carrega el diable; aleshores, per assegurar el benestar dels
humans i, desenganyem-nos, per garantir-ne la seva acceptació, caldria estar
ben segurs que nosaltres controlem en el fons les accions dels robots i que
aquests no maquinarien, mai més ben dit, en contra de nosaltres. Va ser
aleshores que Asimov es va treure de la màniga les famoses Tres Lleis de la
Robòtica que qualsevol robot duu implantades al més pregon del seu cervell
positrònic alimentat per energia atòmica. Què diuen aquestes lleis?
- Un robot no pot fer mal a un ésser humà o, per inacció, permetre que un ésser humà prengui mal.
- Un robot ha d'obeir les ordres dels éssers humans, excepte si entren en conflicte amb la primera llei.
- Un robot ha de protegir la seva pròpia existència en la mesura que aquesta protecció no entri en conflicte amb la primera o la segona llei.
Amb això podem estar
ben segurs que aquestes maquinotes treballaran sempre per i només per al nostre
benefici. Estem salvats. Sobre aquestes tres premisses hi ha força relats curts
i novel·les que s'hi recreen per al gaudi del lector àvid de reptes lògics (si
no ja ètics) i de paradoxes...
En aquesta línia de
raonament, un dels debats d'un llibre concret rau al voltant de què passa si un
ser humà comença a maquinar i treballar en benefici propi, i en detriment de la
humanitat? Què passa si un robot és capaç d'entendre aquesta amenaça, no a un
ésser humà, si no al conjunt de la humanitat. En aquest cas, Asimov fa que un
robot, privilegiat entre els seus semblants, capaç d'entendre la diferència
entre humà i humanitat i conscient de la tragèdia que se'ns cau al damunt
(literàriament), s'inventi i s'autoimplanti, per damunt de les Tres Lleis de la
Robòtica, la Llei Zero:
0. Un robot no pot fer mal a la Humanitat o, per inacció, permetre que la Humanitat
prengui cap mal.
La qual li permet
by-passar les tres lleis menys precedents... I carregar-se un humà per salvar
la humanitat. Pim pam #spoiler.
Deixem la literatura i
tornem al mon real, a l'actualitat. Estem en vies d'inventar la "conducció
autònoma". O sigui, que un robot condueixi el nostre cotxe, que prengui
decisions sobre la ruta, el trajecte, els cops de volant... Que s'anticipi als
accidents. I si son inevitables que minimitzi danys. I si també son
inevitables, que minimitzi pèrdues de vides... I, es clar, ha sortit el senyor
"què fem amb la llei zero?" i ens planteja el dubte existencial: i si
per minimitzar pèrdues de vida, el robot al volant decideix que és millor
sacrificar la nostra, amos del cotxe, que la de més d'un vianant? O d'un sol
vianant però millor persona que nosaltres? O més jove i amb més oportunitats? O
més gran i amb més experiència... O el més ric, que ja ha sortit avui un twit
catxondo que explica que Mercedes programarà els seus cotxes amb la prioritat
de salvar la vida del conductor davant de qualsevol alternativa...
Arribats a aquest
punt, jo crec que com a mínim hauríem de debatre dues o tres cosetes... La
primera: si Asimov va inventar-se les Tres Lleis per als seus robots, per què
no les podem aplicar al cervellet dels nostres assistents de conducció? Així
garantim que les màquines treballaran en igualtat de criteris i sempre per al
nostre benefici. I ja que parlem de benefici... Com evitem que el benefici
primi a la resta de vides humanes? Com garantir que tots els cotxes vetllen per
els mateixos valors i no prioritzin a uns o altres en funció del preu del
cotxe? Home... Jo crec que tot el sistema de lleis va encaminat a aquest fet.
Podràs fiar-te o no del sistema legal/judicial, però aquí el cotxe autònom no
afegeix ni treu res a un debat que ja existeix amb les petrolieres, la
obsolescència programada o les farmacèutiques de la nostra monja més mediàtica,
per citar només un exemple.
La segona: què fem amb
la llei Zero? Què passa si el cervell del cotxe , en cas d'incident o accident
avalua riscos i escenaris i arriba a la conclusió que el mal menor és la nostra
mort?... Ooopss... Sobe el paper és encomiable, pero a nivell més pragmàtic què
vol dir, o qui pot decidir que una vida val més que una altra? Dos delinqüents
valen mes que un filàntrop? Quants adults val un nen? O a l'inreves? Crec que
hi ha molta llana per cardar encara abans de debatre si una màquina pot decidir
o no qüestions de tant calat... Dubto que nosaltres mateixos puguem decidir...
Imagina't una màquina!
I tercera: crec que
seguim pensant com humans. Estem fent prendre decisions a les màquines pensant
com humans. Què vol dir que una màquina ha d'avaluar els danys davant un
imminent accident? No es més raonable dedicar tots els recursos computacionals
a preveure l'accident i a evitar-lo? Segur que és més fàcil que recalentar el
cervell positrònic amb debats ètics!
Avaluem les
estadístiques (poques) que tenim ara per ara. En tots els accidents entre cotxes 'humans' i cotxes 'autònoms' el
100% eren deguts a "errors humans" (menteixo, un era degut a un error
d'apreciació del robot d'un TESLA que no
va veure un cotxe en un encreuament perquè un llum brillant va provocar errors
als càlculs i calibratges del sistema, per tant és un problema de
perfeccionament de la tecnologia no de debat ètic). No és més fàcil imaginar un
futur on el 100% dels cotxes autònoms circulen sense accidents que en uns
robots que perden el temps minimitzant les victimes del proper pinyo?
No se... Aqui ho
deixo... #digueu-meingenu pero realment crec que estem més davant d'una
oportunitat que d'una amenaça. Me'n refiaria d'un cotxe autònom? Ara crec que
és prematur, però un mon on tots els cotxes condueixin sols em sembla més segur
que el mon actual amb humans al volant. Recordeu El Perich...
@jibonet
Cap comentari:
Publica un comentari a l'entrada