Destacat »

18 octubre 2017 – 18:18

L’Associació Catalana d’Enginyers de Telecomunicació, el Col·legi d’Enginyeria en Informàtica de Catalunya i el Col·legi d’Enginyers Industrials de Catalunya, s’han unit amb Iniciativa Barcelona Open Data, per promoure la formació en dades obertes entre els …

Read the full story »
Col·legi

el Col·legi, informació rellevant sobre el COEINF, activitats, relacions i varis

Formació

formació continuada i orientació professional, convenis de formació amb altres entitats

Esdeveniments

tots els esdeveniments rellevants del sector TIC

Informes

informes, estudis, enquestes, … relacionats amb les tecnologies de la informació

Professió

món laboral, emprenedors, enginyers en informàtica, entrevistes, certificacions, deontologia, carreres professionals, …

Home » Notícies

Alerta pels robots de la guerra

Submitted by on 22 setembre 2017 – 9:00No Comment
Share Button

Experts en robòtica i en intel·ligència artificial adverteixen dels perills de les armes letals autònomes. Els especialistes subratllen la responsabilitat moral dels humans sobre les accions de les màquines.

x-47B avió no tripulat de l’exercit dels Estats Units

Una vegada s’obri aquesta capsa de Pandora, serà difícil tancar-la”. Aquesta màxima tanca l’escrit que 117 experts de 26 països pioners en robòtica i en desenvolupament de la intel·ligència artificial van enviar l’agost passa a l’ONU amb un propòsit: alertar el món del perill potencial que tenen les armes letals autònomes. Entre els promotors de la iniciativa hi ha empresaris i científics de la talla d’Elon Musk, fundador de Tesla, o Mustafa Suleyman, l’emprenedor de DeepMind, adquirida per Google. 

Els experts en la matèria han proposat a Nacions Unides frenar les armes letals autònomes –com els avions no tripulats i els tancs i metralladores automatitzades-, en el marc de la Conferència Internacional Conjunta sobre Intel·ligència Artificial (IJCAI), celebrada aquest agost a Melbourne. Tots ells temen que la creixent autonomia d’aquestes armes letals desemboqui en un nou escenari bèl·lic que elevi a un altre nivell les conseqüències dels conflictes armats. I per descomptat el nombre de víctimes que aquests provoquen.

“Les armes letals autònomes amenacen de convertir-se en la tercera revolució de combat. Una vegada desenvolupades, permetran disputar conflictes armats a una escala més gran que mai, i en unes escales de temps més ràpides del que els humans poden comprendre”, adverteixen els experts en aquesta carta a l’ONU.

Debat ètic

L’ús automatitzat de la força al camp de batalla fa saltar totes les alarmes. Es pot traduir en llançaments de míssils, torpedes, mines i, en definitiva, tota classe d’explosius. Bombes que poden caure sobre civils i que poden elevar els nivells de violència a una baula superior. El debat ètic i moral sobre l’ús d’una tecnologia capaç de matar de forma autònoma planteja la qüestió sobre el seu control.

Per això, segons un informe de l’Institut Espanyol d’Estudis Estratègics, existeix un consens que defineix el control que haurien d’exercir els humans enfront d’aquestes màquines i que contempla tres dimensions: en primer lloc, el passar comptes, que segons les lleis de la guerra, si la màquina comet un error i ataca un objectiu equivocat, es pot donar el cas que no hi hagi un ésser humà a qui fer responsable i per tant no es puguin demanar responsabilitats. En segon lloc hi ha la qüestió de la responsabilitat moral que tenen els humans sobre les accions de les armes autònomes. Per últim, s’ha de tenir en compte el factor del control sobre les armes autònomes, jao que donada una situació inesperada, es podria produir una fallada en el sistema que provoqués l’atac a un gran nombre d’objectius equivocats.

És per això que les armes autònomes estan avui dia en el punt de mira. Bonnie Docherty, investigadora i professora de la Universitat de Harvard, ha manifestat la seva preocupació pels robots de guerra en moltes ocasions. “És hora que els països es moguin més enllà de la fase de tertúlia i comencin a buscar una prohibició preventiva”, explica la investigadora en un informe publicat a la facultat de dret de Harvard. En ell també adverteix que “els governs han d’assegurar-se que els humans retenen en control sobre qui atacar amb les seves armes i quan disparar”.

Avantatges militars

Els defensors d’aquesta tecnologia destaquen el ventall d’avantatges militars que tenen els robots de guerra. No actuen per pànic, venjança ni odi racial, amplien el camp de batalla, el seu temps de reacció és menor que el dels humans, ofereixen una protecció més gran a les forces armades –poden salvar vides dels soldats- i poden ampliar el camp de batalla. L’absència de passions a la màquina és el que pot fer més objectives les seves accions, encara que aquesta regla no sempre es compleix.

La campanya internacional ‘Stop Killer Robots’ manté que “permetre a les màquines decidir sobre la vida o la mort creua una línia moral fonamental. Els robots autònoms no tenen judici humà ni la capacitat d’entendre el context”. És per això que proposen mesures com la suspensió nacional –almenys temporal- dels robots letals, el compromís amb els drets humans, transparència en el desenvolupament dels sistemes robòtics aplicats a les armes i la participació activa en el debat internacional sobre la qüestió.

La carrera militar per desenvolupar els robots de combat ha generat una mobilització precisament dels que són pioners en robòtica i intel·ligència artificial. De fet, abans de la carta enviada a l’ONU per promoure un espai de debat al voltant de les armes autònomes i evitar la seva proliferació, altres científics com Stephen Hawking ja van escriure el 2015 un manifest en què es definia la Intel·ligència Artificial com la “pitjor amenaça existencial de la humanitat”.

Anna Josa Marrón – EL PERIÓDICO

 

Etiquetes: ,

Aquesta web utilitza 'cookies' pròpies i de tercers per oferir-te una millor experiència i servei. Al navegar o utilitzar els nostres serveis, acceptes l'ús que fem de les 'cookies'. De tota manera, pots canviar la configuració de 'cookies' en qualsevol moment ACEPTAR
Aviso de cookies
Check Our FeedVisit Us On LinkedinVisit Us On TwitterVisit Us On Facebook