Destacat »

https://www.instagram.com/automoyka_himchistka_kiev Instagram Блеск 11 gener 2018 – 9:00

Facebook Блеск El COEINF, juntament amb l’Associació /Col·legi d’Enginyers Industrials de Catalunya (EIC) i amb l’Associació Catalana d’Enginyers de Telecomunicació (telecos.cat), hem mantingut sempre una clara voluntat de servei als professionals de l’enginyeria i a la societat. …

Read the full story »
Instagram Детейлинг watch Col·legi

https://www.facebook.com/autostudio.glyanec Facebook Автостудия Глянец el Col·legi, informació rellevant sobre el COEINF, activitats, relacions i varis

https://www.facebook.com/detailing.com.ua Facebook Детейлинг Formació

Instagram Автостудия Глянец formació continuada i orientació professional, convenis de formació amb altres entitats

Esdeveniments

tots els esdeveniments rellevants del sector TIC

Informes

informes, estudis, enquestes, … relacionats amb les tecnologies de la informació

Professió

món laboral, emprenedors, enginyers en informàtica, entrevistes, certificacions, deontologia, carreres professionals, …

Home » Opinió

Lliçons d’ètica per a màquines que ‘pensen’ i prenen decisions

Submitted by on 22 desembre 2017 – 17:00No Comment
Share Button

La intel·ligència artificial precisa d’unes normes que regulin els processos de disseny i avaluació d’aquesta tecnologia per a anticipar-se a possibles usos immorals, inapropiats o maliciosos.

La creixent autonomia de qualsevol aparell amb intel·ligència artificial, des d’un telèfon mòbil fins a un dron o un androide, obre un nou tipus de relacions home-màquina que han de ser estudiades des de l’ètica, entre molts altres punts de vista.

“Si aquests robots interaccionen amb humans i prenen les seves pròpies decisions racionals a partir de la informació captada per sensors, la possibilitat que produeixin una intel·ligència superior causa certa inquietud perquè es percep que aquesta capacitat podria ser usada contra un sector de la població o, en el cas extrem, contra la humanitat “. Així ho entén Ulises Cortés, professor d’Intel·ligència Artificial de la Universitat Politècnica de Catalunya i coordinador de programes acadèmics del Barcelona Supercomputing Center – Centre Nacional de Supercomputació (BSC-CNS).

És clar que els algoritmes que suporten els serveis de la robòtica necessiten gestionar quantitats ingents de dades personals la seguretat i confidencialitat han de quedar garantides, així com el compromís que només es faran servir per a fins exclusivament autoritzats per l’usuari. Però a més, segons Ricardo Malhado, analista d’IDC, “preservar l’ètica és fonamental per corroborar que no s’estan utilitzant algoritmes parcials amb relació a raça, gènere i religió ni per afavorir els interessos de determinades empreses”. D’aquesta manera, es tracta d’eradicar des del principi qualsevol indici de comportament immoral, com va passar al març de 2016 amb Tay, 1 chatbot creat per Microsoft per parlar per Twitter amb joves d’entre 18 i 24 anys i queva haver de ser retirat perquè “va aprendre” a escriure missatges racistes.

Per això, entre altres coses, es demana als fabricants transparència en els seus desenvolupaments. Però què més cal per garantir aquest comportament ètic de la intel·ligència artificial? Algunes de les respostes a aquesta pregunta són competència de la roboética, una disciplina que es remunta al conte Cercle viciós, publicat el 1942 en el llibre Jo, robot, D’Isaac Asimov. Segons comenta a El País Retina Ulises Cortés, un dels objectius d’aquesta branca de l’ètica és refermar que el disseny d’aquest tipus de màquines garanteix la seguretat de tots els humans. En aquest sentit, els experts en aquesta matèria s’enfronten a qüestions com les següents: Quines regles s’han de seguir per dissenyar la intel·ligència d’aquests robots? Quins principis ètics han d’aprendre? Com s’avalua que apliquen el que han après de forma correcta? Qui i de quina manera regula que el disseny d’aquest tipus d’aparells compleix amb un conjunt mínim de requeriments que garanteixin la seguretat dels humans? Qui i de quina manera vigila el compliment del que legislat?

En principi, els progressos en intel·ligència artificial, per si mateixos, no haurien de plantejar problemes morals ja que molts arriben precisament per salvaguardar aquesta seguretat de les persones o per facilitar que la relació home-màquina sigui més natural i empàtica. Aquest és el cas dels nous mòbils Huawei Mate 10, El processador Kirin 970 simula el pensament humà i és capaç d’analitzar l’entorn, la qual cosa fa que aquests telèfons siguin més “conscients” de les necessitats dels usuaris en cada moment. Però el que Cortés sí que deixa clar que cal tenir en compte des del principi és “el possible mal ús d’aquests avenços”. Com a exemple, aquest professor al·ludeix a la manca de regulació sobre la responsabilitat d’una màquina dissenyada per ser un robot de companyia que ha de tenir localitzat al seu amo de forma permanent i, de vegades, prendre decisions per ell. Com es regula la cessió de la responsabilitat que comporten aquestes decisions? Qui és el responsable últim? Així mateix, s’ha de pensar en un escenari on els robots de companyia estiguin preparats per detectar canvis en l’estat d’ànim dels seus amos i informar els cuidadors legals, que al seu torn poden ser humans o no, perquè prenguin les decisions adequades. I en el cas que una persona opti per no prendre la medicació què ha de fer el robot? ¿Informar el cuidador humà o guardar el secret d’aquesta decisió voluntària? “A més, tot això implica passar informació privada d’un lloc a un altre”, puntualitza Cortés.

Autocontrol versus regulació

Davant la manca d’una regulació, alguns gegants tecnològics van decidir unir-se per tractar conjuntament les qüestions morals davant els avenços de la robòtica i compartir les millors pràctiques en el desenvolupament de la intel·ligència artificial. Així va néixer el setembre de 2016 l’associació Partnership on AI, Impulsada per Amazon, Apple, Google, IBM i Microsoft ia la qual ja s’han unit més de 60 entitats. Es tracta d’una iniciativa inspirada per moviments anteriors com un manifest que al juliol de 2015 alertava dels perills de la intel·ligència artificial, demanant la seva regulació, i que va ser signat per un miler d’experts entre els quals es trobaven el físic Stephen Hawking; el cofundador d’Apple, Steve Wozniak; el fundador de Tesla, Elon Musk; el lingüista Noam Chomsky; o Demis Hassabis, cofundador i CEO de Google DeepMind.

De la mateixa manera, en l’àmbit acadèmic destaquen projectes com AI100, de la Universitat de Stanford, liderat per Eric Horvitz, investigador de Microsoft, i que s’ha compromès a elaborar cada cinc anys un informe detallat sobre la repercussió de la intel·ligència artificial a la societat. El primer d’aquests informes va ser publicat a finals de 2016.

Més propera i recent ens queda la iniciativa dels professors Luc Steels i Ramon López de Mántaras, que al març d’aquest any van propiciar un B · Debate, iniciativa de Biocat i l’Obra Social “la Caixa”, que va derivar en la publicació de la declaració de Barcelona per a l’Ús Apropiat de la Intel·ligència Artificial. Aquest manifest, obert a noves firmes i comentaris, recull la preocupació pel possible ús “inadequat, prematur o maliciós” de les noves tecnologies i com a contrapartida proposa un codi de conducta basat en sis punts: prudència, fiabilitat, transparència, responsabilitat, autonomia restringida i el paper humà.

Tot i aquests moviments d’autocontrol i de les recomanacions procedents de l’àmbit acadèmic, Cortés estima que no només es fa “molt necessària” una regulació que en el cas d’Europa s’ha de fer a nivell comunitari i estatal, sinó que a més “ha d’haver un esforç d’estandardització dels processos de disseny i avaluació dels sistemes intel·ligents autònoms, és a dir, de les màquines capaces de prendre per si mateixes decisions racionals i intel·ligents “. En aquest sentit, ja hi ha iniciatives al Parlament Europeu per estudiar la legislació pertinent que reguli l’ús apropiat de la intel·ligència artificial.

“Els reptes estan canviant dia a dia i l’educació dels ciutadans, els investigadors i els polítics en qüestions ètiques és indispensable per resoldre aquestes qüestions. Els polítics haurien d’entendre l’abast d’aquestes tecnologies i l’assessoria hauria de venir d’experts del sector públic per evitar qualsevol contaminació o biaix. Però queda clar que el d’estudiar o dissenyar les regles d’interacció entre humans i màquines no pot esperar més “, remata Cortés.

José Ángel Plaza López – EL PAÍS

Etiquetes: ,

Aquesta web utilitza 'cookies' pròpies i de tercers per oferir-te una millor experiència i servei. Al navegar o utilitzar els nostres serveis, acceptes l'ús que fem de les 'cookies'. De tota manera, pots canviar la configuració de 'cookies' en qualsevol moment ACEPTAR
Aviso de cookies
Check Our FeedVisit Us On LinkedinVisit Us On TwitterVisit Us On Facebook