Destacat »

30 juliol 2018 – 9:00

L’harmonització de la regulació de les professions a nivell europeu es formalitza per fi arribant al Diari Oficial de la Comissió Europea (DOUE) que per fi s’ha publicat la Directiva europea relativa al test de …

Read the full story »
Col·legi

el Col·legi, informació rellevant sobre el COEINF, activitats, relacions i varis

Formació

formació continuada i orientació professional, convenis de formació amb altres entitats

Esdeveniments

tots els esdeveniments rellevants del sector TIC

Informes

informes, estudis, enquestes, … relacionats amb les tecnologies de la informació

Professió

món laboral, emprenedors, enginyers en informàtica, entrevistes, certificacions, deontologia, carreres professionals, …

Home » Notícies

El sector de la intel·ligència artificial es mobilitza contra les armes autònomes

Submitted by on 25 juliol 2018 – 9:00No Comment
Share Button

L’organització Future of Life Institute (FLI) ha aconseguit el compromís d’investigadors, experts i empreses per no construir armes autònomes de guerra. Entre ells es troben firmes com Google DeepMind o personalitats com Elon Musk.

Des que la intel·ligència artificial va començar a prendre forma com a ciència -fa aproximadament 60 anys- les implicacions ètiques i fins i tot legals han estat sempre una constant. Això sí, més afavorides per visions i relats futuristes que pel que en realitat podia mostrar de cara a la societat. Però ara, que vivim ja en una fase d’implementació -encara que sigui força inicial comparat amb el que pot arribar a realitzar-se en societats i empreses, els grups d’experts i de treball s’han posat mans a l’obra per fomentar un bon ús i moral de la intel·ligència artificial.

Clar exemple d’això és l’organització Future of Life Institute (FLI) que ha aconseguit el compromís d’investigadors, experts i empreses per no construir armes autònomes de guerra. De les 160 companyies i organitzacions signants de 36 països diferents i els 2.400 experts de 90 geografies es troben gegants com Google DeepMind, l’Associació Europea d’AI (EurAI) o personalitats com Elon Musk.

Aquest acord ha estat anunciat per Max Tegmark, president de la (FLI) en el marc de la Conferència Anual Internacional Conjunta sobre Intel·ligència Artificial (IJCAI) que ha portat a més de 5.000 persones a Estocolm (Suècia) durant aquesta setmana. Durant el seu discurs, va advertir dels perills que tanquen els sistemes d’armes autònomes que poden identificar, apuntar i matar a qualsevol sense necessitat que hi hagi una supervisió humana. “La veritat és que la intel·ligència artificial ja està a punt per a exercir un paper cada vegada més important en els exèrcits i sistemes militars“, ha exposat. “I en paral·lel ha sorgit la necessitat i l’oportunitat perquè ciutadans, legisladors i líders de tot el món distingeixin entre els usos acceptables i intolerables d’aquesta tecnologia“.

Una altra de les preocupacions que es van mostrar durant l’esdeveniment va ser la de la possibilitat que aquestes màquines siguin piratejats o acabin en el mercat negre i acabin en mans de bandes de delinqüents. “No podem atorgar la decisió sobre qui viu o qui mor a les màquines. No tenen l’ètica per fer-ho“, ha afirmat Toby Walhs, professor d’intel·ligència artificial de la Universitat de Nova Gal·les del Sud, a Sydney (Austràlia).

ComputerWorld

Etiquetes:

Aquesta web utilitza 'cookies' pròpies i de tercers per oferir-te una millor experiència i servei. Al navegar o utilitzar els nostres serveis, acceptes l'ús que fem de les 'cookies'. De tota manera, pots canviar la configuració de 'cookies' en qualsevol moment ACEPTAR
Aviso de cookies
Check Our FeedVisit Us On LinkedinVisit Us On TwitterVisit Us On Facebook