Destacat »

6 desembre 2018 – 9:00

El 21 de febrer de 2019 l’Auditori de Barcelona (C/Lepant, 150) acollirà la 24a edició de la “Nit de les Telecomunicacions i la Informàtica”, l’esdeveniment de referència del sector TIC a Catalunya.
Per setè any consecutiu, l’Associació Catalana d’Enginyers de …

Read the full story »
Col·legi

el Col·legi, informació rellevant sobre el COEINF, activitats, relacions i varis

Formació

formació continuada i orientació professional, convenis de formació amb altres entitats

Esdeveniments

tots els esdeveniments rellevants del sector TIC

Informes

informes, estudis, enquestes, … relacionats amb les tecnologies de la informació

Professió

món laboral, emprenedors, enginyers en informàtica, entrevistes, certificacions, deontologia, carreres professionals, …

Home » Opinió

Necessitem la intel·ligència artificial per sobreviure com a espècie

Submitted by on 22 novembre 2018 – 19:00No Comment
Share Button

Sis experts reflexionen sobre com orientar aquesta eina en el nostre benefici.

Armes autònomes que ataquin a un objectiu sense necessitat d’intervenció humana, sistemes d’anàlisi de comportaments capaços de influir en el vot de la societat o vehicles sense conductor que puguin ser hackejats per produir un accident. La intel·ligència artificial a més de suposar una gran oportunitat per a la humanitat, porta amb si una sèrie de riscos. Com va dir el 2017 el físic britànic Stephen Hawking, “pot ser el millor o el pitjor que li passi a la raça humana” . Els experts en aquest sector prediuen que hi haurà els qui intentin fer un mal ús d’aquesta eina. Però, ¿s’ha de deixar de fer servir aquesta tecnologia per això?

“Necessitem la intel·ligència artificial per sobreviure com a espècie”, assegura a EL PAÍS Núria Oliver, doctora en Intel·ligència Artificial pel MIT i membre de la Reial Acadèmia d’Enginyeria. Sense ella, “no podrem afrontar molts dels grans reptes als quals ens enfrontem com el canvi climàtic, l’envelliment de la població i la prevalença de malalties cròniques o la disponibilitat de recursos limitats”.

Més de 8.000 científics especialitzats en àrees tecnològiques -com el fundador de Tesla, Elon Musk, o el cofundador d’Apple Steve Wozniak- han signat una carta oberta publicada el 2015 que alerta dels perills de la intel·ligència artificial. A causa del seu gran potencial, els experts sostenen que és important investigar com aprofitar els seus beneficis i evitar els riscos potencials. Per això, la Comissió Europea ha nomenat aquest any un Comitè d’Experts d’Alt Nivell en Intel·ligència Artificial, per tal d’estudiar les implicacions ètiques, legals i socials d’aquesta eina.

“El perill de la intel·ligència artificial no és la singularitat tecnològica deguda a l’existència d’unes hipotètiques superinteligencias artificials. Els veritables problemes ja són aquí “, afirma Ramon López de Mántaras. El director de l’ Institut d’Investigació en Intel·ligència Artificial del CSICsosté que aquests riscos tenen a veure amb la privacitat, l’autonomia, l’excessiva confiança sobre les capacitats de les màquines, el biaix dels algoritmes d’aprenentatge i la impossibilitat per retre comptes i justificar les seves decisions en un llenguatge comprensible per a les persones.

Sonia Pacheco, directora del congrés Digital Business World Congress, distingeix entre un mal ús de la intel·ligència artificial “no intencionat” i el mal ús “amb intencionalitat”. El primer pot ocórrer quan un algoritme és entrenat amb dades esbiaixades i condicionats pels nostres coneixements i prejudicis. Per exemple, Amazon va començar a desenvolupar el 2014 una intel·ligència artificial de reclutament que, basant-se en els arxius dels últims 10 anys de la companyia, va aprendre que els homes eren preferibles i va començar a discriminar les dones.

dilemes ètics

“Les decisions algorítmiques basades en dades tenen el potencial de millorar la nostra presa de decisions”, sosté Oliver. Però quan aquestes decisions afecten a milers o milions de persones, “sorgeixen dilemes ètics importants”: “Com podem garantir que aquestes decisions i actuacions no tenen conseqüències negatives per a les persones? Qui és responsable d’aquestes decisions? Què passarà quan un algoritme ens conegui a cada un de nosaltres millor que nosaltres mateixos i ser capaços d’aquest coneixement per manipular de manera subliminal el nostre comportament? “.

Un mal ús de la intel·ligència artificial “amb intencionalitat” podria portar amb si riscos físics, polítics o de seguretat, segons Pacheco. Per exemple, un cotxe autònom podria ser hacker i estrellat o usat com una arma, les fake news poden “omplir de soroll les xarxes socials amb l’objectiu de manipular de manera dirigida a grups d’usuaris seleccionats” i “sistemes maliciosos podrien replicar la nostra veu generant informació falsa o generar imatges de nosaltres que fossin irreals gràcies a tècniques de regeneració d’imatge “.

El fundador i conseller delegat d’Amazon, Jeff Bezos, va afirmar l’abril passat al Fòrum sobre Lideratge del Centre Presidencial George W. Bush que és “molt més probable que la intel·ligència artificial ens ajudi”. Però reconèixer els perills que pot comportar: “Les armes autònomes són extremadament aterridores”.

El major risc, segons Oliver, “no està en robots físics sinó en sistemes de programari de gran escala que poden afectar a milions de persones en molt poc temps”. “Per minimitzar el risc que aquests sistemes puguin ser hackejats , és fonamental prendre mesures de seguretat, fiabilitat, reproducibilitat, prudència i veracitat”, afirma la doctora en Intel·ligència Artificial pel MIT.

El paper de les companyies tecnològiques

Per Francesca Rossi, directora d’Ètica en Intel·ligència Artificial d’IBM, és important que les companyies tecnològiques apostin per un desenvolupament d’aquesta eina amb el propòsit d’augmentar la intel·ligència humana i no de reemplaçar-la. També considera fonamental que hi hagi un diàleg constructiu en què participin “des d’aquells que es troben en la primera línia de la recerca en intel·ligència artificial fins a aquells que representen els sectors més vulnerables de la societat”. Precisament Rossi forma part del Comitè d’Experts d’Alt Nivell en Intel·ligència Artificial de la Comissió Europea, que no només està format per experts de l’àmbit de la tecnologia, “sinó que s’estén a filòsofs, psicòlegs, sociòlegs i economistes”.

La intel·ligència artificial és transversal i pot aplicar-se en diferents camps: des de la biologia, la física, la medicina o la química, fins a l’educació, els sistemes de producció, la logística i el transport. Tots els experts consultats coincideixen que no cal deixar d’utilitzar aquesta eina. “És una qüestió d’usar-la adequadament i posar els controls necessaris per evitar el seu ús amb fins perversos”, afirma José María Lucía, soci responsable del entro d’Intel·ligència Artificial i Anàlisi de Dades de EY Wavespace.Per detectar un problema i posar en marxa qualsevol solució cal donar resposta a algunes preguntes: “Com anem a detectar si alguna cosa està sortint-se dels normal? Què cal fer si això passa?”. Lucía explica per exemple que “hi ha hagut diversos casos al món borsari on els algoritmes d’inversió davant escenaris inesperats han acabat creant el caos”.

Algunes empreses tecnològiques ja han establert principis bàsics per desenvolupar la intel·ligència artificial de forma ètica. David Carmona, director general de Desenvolupament de Negoci en Intel·ligència Artificial de Microsoft Corporation, explica que la seva companyia es basa en sis principis bàsics: “Equanimitat, per assegurar-nos que els algoritmes no tinguin biaixos; fiabilitat, per garantir aquesta confiança tecnològica; privacitat; transparència sobre l’ús de dades i funcionament; inclusió de totes les persones i responsabilitat de l’empresa que està darrere d’aquests processos “.

El fet que la intel·ligència artificial existeixi no vol dir que necessàriament es vagi a fer un mal ús d’ella, segons subratllen els experts consultats. “De la mateixa manera que hi ha codis ètics consensuats pràcticament a nivell internacional en biomedicina i en altres àmbits de la investigació científica, s’han d’assentar unes bases: un codi de conducta, uns criteris ètics i unes normes i una estructura reguladora que impedeixin que es realitzi un mal ús “, conclou Pacheco.

ISABEL RUBIO – EL PAÍS

 

Etiquetes:

Aquesta web utilitza 'cookies' pròpies i de tercers per oferir-te una millor experiència i servei. Al navegar o utilitzar els nostres serveis, acceptes l'ús que fem de les 'cookies'. De tota manera, pots canviar la configuració de 'cookies' en qualsevol moment ACEPTAR
Aviso de cookies
Check Our FeedVisit Us On LinkedinVisit Us On TwitterVisit Us On Facebook