Destacat »

18 Novembre 2019 – 9:00

El comitè organitzador de la Comissió Dona i igualtat de la intercol·legial us convida a participar en el acte  “Dones i professions tecnològiques” el proper 13 de desembre de 2019 de les 16:00 a les …

Read the full story »
Col·legi

el Col·legi, informació rellevant sobre el COEINF, activitats, relacions i varis

Formació

formació continuada i orientació professional, convenis de formació amb altres entitats

Opinió

Articles d’opinió, de divulgació o de propostes tecnològiques dels col·legiats, adherits, associats o col·laboradors d’entitats afins al COEINF

Esdeveniments

tots els esdeveniments rellevants del sector TIC

Professió

món laboral, emprenedors, enginyers en informàtica, entrevistes, certificacions, deontologia, carreres professionals, …

Home » Notícies

La intel·ligència artificial que detecta amenaces terroristes

Submitted by on 30 Gener 2019 – 17:00No Comment
Share Button

La tecnologia d’Expert System analitza textos per trobar terminologia gihadista i localitzar persones adoctrinades a través d’Internet.

Un coco pot ser per a molts només una fruita. Per a altres, és possible que faci referència a la ment humana, en ser imaginari amb el que s’espanta als nens o al títol de una pel·lícula sobre el Dia dels Morts ambientada a Mèxic. La veritat és que, depenent del context en què s’usi aquesta paraula, pot significar molt més que això. Aquest terme pot fins i tot ser un senyal de radicalització terrorista. ” Coconut [coco, en anglès] en l’àmbit gihadista de vegades s’utilitza per identificar aquells musulmans que sent torrats per fora, per dins són blancs. És a dir que simpatitzen amb l’infidel “, explica José Manuel Gómez, responsable de l’R + D de Madrid de Expert System.

L’anàlisi de text li serveix a aquesta empresa per detectar amb intel·ligència artificial terminologia gihadista, localitzar persones adoctrinades a través d’Internet, descobrir informació enganyosa i establir si diferents comptes en xarxes socials són utilitzades per una mateixa persona. La tecnologia desenvolupada per Expert System és utilitzada en els projectes Dante i trivalent , que estan finançats per la Comissió Europea. Universitats, cossos policials i administracions públiques europees treballen en les dues iniciatives amb el objectius d’avançar en la interpretació i comprensió dels comportaments i els focus relacionats amb les amenaces terroristes.

“Els missatges d’odi en què desqualifica l’infidel són els més típics i els més fàcils de detectar”, afirma Gómez. Precisament, l’ús del terme “infidel” pot ser un indicatiu d’aquesta terminologia radical. En els textos jihadistes, també solen estar presents les armes, explosius i l’Alcorà: “És molt curiós perquè alguna cosa que en principi és només un símbol religiós s’utilitza per donar legitimitat al que estan fent”.

La intel·ligència artificial desenvolupada per Expert System detecta, d’una banda, l’aparició de terminologia gihadista en aquests textos i, de l’altra, fa una anàlisi més profunda per classificar els textos en les diferents narratives que els grups jihadistes utilitzen per radicalitzar als seus simpatitzants. A partir d’aquestes dades, els cossos policials són capaços de detectar a persones que poden estar sent adoctrinades en el terrorisme.

“De vegades emeten missatges a través de xarxes socials o fòrums amb el propòsit d’evangelitzar sobre la guerra contra l’infidel”, explica Gómez. Una altra narrativa és la de “la supremacia islamista entre grups”: “Entre Al-Qaida i l’Estat Islàmic [ISIS, en les seves sigles en anglès] hi ha una gran rivalitat en aquest sentit”. La classificació de textos en les diferents narratives serveix per advertir a les forces de seguretat de si haurien de incidir en un text determinat o “simplement s’està parlant en termes generals de l’Alcorà, la religió o un munt de coses que són islàmiques però no són jihadistes”.

La companyia també ha dissenyat un detector de desinformació que és capaç d’identificar l’ús de “llenguatge enganyós”. El sistema localitza, amb un 75% d’encert, si un document és veritable o fals. Una dels grans avenços d’aquest detector és que pot analitzar informació de qualsevol domini, independentment que el sistema hagi estat entrenat prèviament per reconèixer-ho.

COM DETECTAR CONTINGUT TERRORISTA EN TEMPS REAL

En el projecte Dante s’analitzen tres grans modalitats de dades: text, àudio i vídeo. Els vídeos en directe són un exemple que cal introduir mecanismes d’intel·ligència artificial que permetin detectar el contingut en temps real. “El coll d’ampolla és precisament l’anotació manual d’aquests vídeos. Per exemple, has de prendre nota i delimitar dins el frame on hi ha un terrorista, una bandera gihadista, una arma o un cavall. Una vegada que tens aquest corpus anotat ja pots entrenar el teu model i analitzar en temps real altres vídeos “, explica Gómez.

La clau estaria, segons sosté, en combinar l’anàlisi de text, àudio i vídeo de manera que quan es detecti el concepte Kalashnikov en un text, sigui equivalent a la imatge del rifle que apareix en un vídeo, l’àudio dels trets ia la entitat representada sobre el kalaixnikov al braç de coneixement. “Quan ets capaç de fer això, ets capaç de tenir una visió de 360 ​​graus sobre les entitats i el discurs que vols analitzar”, conclou el responsable de l’R + D de Madrid d’Expert System.

Gómez posa com a exemple les ressenyes falses que es poden trobar en pàgines web de reserves d’hotels: “Encara que és una cosa molt difícil de detectar, la forma en què s’expressa el llenguatge és subtilment diferent a un llenguatge fidedigne”. En l’àmbit gihadista, aquesta eina és útil “per identificar casos en què un autor que presumptament és gihadista realment no ho és i està utilitzant una plataforma social per enviar un missatge que no correspon amb la seva experiència”. “Això els serveix a les forces de seguretat per enfocar els seus esforços en la gent que realment és perillosa”, sosté el responsable de l’R + D de Madrid d’Expert System.

Per saber si algú està reclutant a altres persones des de diferents perfils, l’empresa ha desenvolupat un analitzador de estilometria capaç de descobrir patrons sobre com una persona fa servir el llenguatge en les seves comunicacions. D’aquesta manera, poden esbrinar si diversos comptes en xarxes socials pertanyen a una mateixa persona. A més, aquesta anàlisi permet predir “amb alta fiabilitat” característiques de la persona que controla un compte en xarxes socials com la seva edat o el seu gènere.

Captació en xarxes socials

La captació a través de mecanismes en línia “cada vegada és més efectiva”: “Només cal veure la quantitat de publicacions totalment obertes i en anglès que tenen aquests grups”. L’objectiu dels jihadistes és, segons Gómez, “tenir accés a la major quantitat de gent a través dels canals més directes possibles”. Per això, utilitzen xarxes socials com Twitter o Facebook per difondre el seu missatge. “A més, s’està detectant cada vegada més activitat radicalitzant en plataformes de missatgeria. No en WhatsApp, perquè aquesta està monitoritzada, però sí en altres com Telegram “, explica Gómez.

Al desembre de 2016, Twitter, Facebook, YouTube i Microsoft van fer pública la seva unió contra el terrorisme. Segons l’acord que van signar , quan una de les quatre companyies identifica en les seves xarxes alguna publicació amb contingut extremista, la registra a la base de dades que comparteix amb les altres. D’aquesta manera, les altres poden usar aquesta informació per localitzar i eliminar aquest mateix contingut de la seva plataforma.

A més, la Comissió Europea va llançar al març de 2018 un missatge clar a Facebook, Google, YouTube i la resta de grans plataformes d’Internet : han d’esborrar aquest tipus de publicacions en el termini d’una hora des que les autoritats policials o Europol els notifiquin la seva existència. Gómez assegura que cada vegada hi ha més control i els comptes des de les que es fa apologia del terrorisme romanen menys temps obertes.

Si hi ha indicis clars que hi ha radicalització per part d’un determinat individu, “la policia no té gaire problema per aconseguir l’autorització d’aquestes companyies”. Però el problema arriba quan les evidències no estan tan clares. “A quanta privacitat estem disposats a renunciar per tal d’aconseguir un entorn el més segur possible? És un debat complicat en què han de participar les forces de seguretat, les companyies i els ciutadans “, reflexiona Gómez.

Limitacions de la intel·ligència artificial

Per entrenar la intel·ligència artificial, la companyia ha extret terminologia de revistes com Dabiq i Rumiyah , que són públiques i “caracteritzen molt bé el missatge gihadista”. Per a la companyia seria ideal tenir accés també a les publicacions que es retiren de les xarxes socials. “Un dels principals problemes que tenim és trobar un corpus prou gran d’aquest tipus de missatges que ens puguin servir per entrenar un sistema d’aquestes característiques”, sosté Gómez.

A això se suma que els sistemes d’intel·ligència artificial són entrenats amb dades que poden estar condicionats pels prejudicis humans. Per això, Gómez defensa que “en dominis tan sensibles com aquests” siguin les persones les que prenguin la decisió final: “La idea és que aquesta tecnologia alleugi la càrrega de treball que té ara la policia. És a dir, que els ajudi a fer la seva feina més ràpidament i amb menys esforç, però no que prengui decisions per ells”.

ISABEL RUBIO – EL PAÍS

 

Etiquetes:

Aquesta web utilitza 'cookies' pròpies i de tercers per oferir-te una millor experiència i servei. Al navegar o utilitzar els nostres serveis, acceptes l'ús que fem de les 'cookies'. De tota manera, pots canviar la configuració de 'cookies' en qualsevol moment ACEPTAR
Aviso de cookies
Check Our FeedVisit Us On TwitterVisit Us On FacebookVisit Us On Linkedin