Destacat »

25 octubre 2017 – 12:00

Certifica’t amb l’AQPE amb un 20% de descompte + un 10% si ets member abans del 31 de desembre!

Read the full story »
Col·legi

el Col·legi, informació rellevant sobre el COEINF, activitats, relacions i varis

Formació

formació continuada i orientació professional, convenis de formació amb altres entitats

Esdeveniments

tots els esdeveniments rellevants del sector TIC

Informes

informes, estudis, enquestes, … relacionats amb les tecnologies de la informació

Professió

món laboral, emprenedors, enginyers en informàtica, entrevistes, certificacions, deontologia, carreres professionals, …

Home » Notícies

La Intel·ligència Artificial preocupa … fins i tot a la Casa Blanca

Submitted by on 11 maig 2016 – 17:00No Comment
Share Button

Si bé la Intel·ligència Artificial és un àmbit que es troba en ple desenvolupament i les propostes creixen a passos de gegant, resulta innegable que aquest creixement també ha suscitat certes pors. Unes preocupacions que acaba de reconèixer la mateixa Casa Blanca i sobre la qual ha decidit prendre les regnes.

finger me AI

D’aquesta manera, el govern ha anunciat que el subcomitè per a l’Aprenentatge automàtic i Intel·ligència Artificial del Consell Nacional de Ciència i Tecnologia es reunirà setmanalment amb l’objectiu de “monitoritzar” els avenços d’aquest sector. I tot i que la iniciativa evoca inevitablement a una mala pel·lícula de ciència ficció en la qual les màquines acaben sotmetent a la raça humana, la veritat és que no es tracta de tan mala idea com sembla.Expliquem.

Així, i a partir d’ara, els experts tractaran de recopilar totes les novetats de l’IA i aprenentatge automàtic tant en els sectors públics com privats de l’àmbit internacional. Però no només això, sinó que s’encarregaran de coordinar les actuacions federals referent a això i similars. Un “control” que no tracta de minvar el progrés sinó conèixer-lo en profunditat i aprendre a regular-lo.

De fet, les esmentades preocupacions afecten precisament als possibles problemes derivats d’una mala codificació, d’un disseny poc segur, i l’enllumenament de “algoritmes que podrien alterar dràsticament cadascuna de les nostres vides”. Una decisió que, curiosament, ha tingut lloc just després que el govern publiqués un informe en el qual es contemplaven els problemes associats a un món excessivament automatitzat.

“Atès que els serveis basats en dades es tornen cada vegada més omnipresents, i tenint en compte que cada vegada depenem més d’ells, hem d’abordar les preocupacions sobre els biaixos intencionals o implícits que puguin sorgir de les dades i els algoritmes utilitzats, així com l’impacte que poden tenir en l’usuari i la societat”, indica el document.

“El problema sorgeix quan les empreses, institucions i organitzacions utilitzen sistemes algorítmics i processos automatitzats per informar de decisions que afecten les nostres vides, per exemple, si estem o no en condicions de rebre un crèdit o accedir a una feina”, remata.

És a dir, el que es tractaria d’evitar amb aquesta iniciativa és que un error en aquests nous sistemes ens pugui conduir a la negació d’una hipoteca, la inadmissió a la universitat i un llarg etcètera que et pots suposar i que tindria lloc com a conseqüènciade un dels esmentats errors esmentats en les línies prèvies.

Al marge del comentat, la Casa Blanca també patrocinarà esdeveniments relacionats que pretenen obrir, precisament, el diàleg sobre la qüestió i que portaran aparellats programes de recerca específics i la presència de experts en la matèria de l’Escola de Lleis de la Universitat de Washington i el Carnegie Mellon, que abordaran qüestions al voltant de l’ètica i funcionament de la IA.

Via | The Next Web

En Genbeta |  Així és com xerren 2 intel·ligències artificials

Traduit de Genbeta – ÁGUEDA A.LLORCA

Etiquetes:

Aquesta web utilitza 'cookies' pròpies i de tercers per oferir-te una millor experiència i servei. Al navegar o utilitzar els nostres serveis, acceptes l'ús que fem de les 'cookies'. De tota manera, pots canviar la configuració de 'cookies' en qualsevol moment ACEPTAR
Aviso de cookies
Check Our FeedVisit Us On LinkedinVisit Us On TwitterVisit Us On Facebook