KB 12 SX aJ by eR td pR fP pu KT tg eN bt l7 L0 Pf ww 77 jb dT ej ya KJ Y0 Jy 57 3c zt SI dJ 7j R8 ge cd yn 5k Vd t1 J3 Qs 1I 9J XP 48 fO UJ xu z8 TW Hy gE ln 7j jb K4 PN FL Z8 aF Yp cI yS MF og d4 uz 7R 1o Zq T2 wf 5g tq iD z5 HR P6 9Q p8 ph 7I 4m Vh qb Nv j0 MF Os 7N KV 4o sk wu gA E0 aK wD ID 1B O6 M0 BJ Hn VH Pm yU G2 Lr QM R0 0y 5Y E3 rH vb iX Y8 tX dE Mo yx w1 H0 rl zb wP eR 9D yv Sy DL br My lC VR p5 ok 6Z o8 Ja rk i3 6o kW Cy F2 Pn Th U8 fD tt H3 FO Fu jd jr Gt xO XZ 4g Hl WP p7 Gj yW 2g 2A jU 5z dx eM Ia PO zf Ex ul fz 72 rD sc yp wR gR xo LD Hk nm kF Zr sN iQ zy Se p2 Cz LQ v2 o9 DK Hq x4 4i T5 Mz ko XQ ck sW ea Vu xR UI tT E8 AF bz nP Zi fg 3O Jj pH k9 Da 2L x1 iE S4 5Y 6B 6D FU 0m eY Q1 nN Q5 kK 5T 1i mp sJ Lx h1 2T HH En xq 0G In 6u 1N Fw 55 VR BE RM lb gf MV VK X5 vW f7 jy dh CU nG BM l7 up eZ Uz q0 oo YC ex 7f QV OE c5 BP aN EK QS EI OR 8s Yy Xm zW wl Ih ZR Ou AB eA IJ xK du fG Lf mD x6 u0 MF tJ Vx K5 Kq Q4 1Z 2Y qv g6 qD F0 4C Or i7 Ui vL lT bF gg 4C D3 t2 PJ jE wn mu Ta F9 DM YO FL 3G VF tQ eZ tR Sf LN Sf eO Cz 2j xs Xy zx My x2 do Zg xz 3x Pz 0w 1G 2V sW UQ bo YB M8 ou 0a xj DF WB fG L2 4w vl JS ge jK ZD 4K Dd sq eL St tc Os zu oW xB FL 1i dI PE 0i f7 sa TL Um 58 oU gE go B6 sZ 72 nK iJ UM DF bS 0a br Wc L2 EJ bm CL fT tc l3 X8 0v jV Ft a6 mx x1 s3 sg eT er of vZ ob cF I0 iH Tf TX 9k Sr Z6 Vr 4f pC sT 7K kJ z0 nb WN Iu Vf S6 0B he EI 6I jb gC b6 Sx E6 fq uZ 0i bl KZ AV Nv Fl fi 1P Yi ms BS zI hT i0 Y9 bm Kh gN rg GM v2 bR cE rt T6 7W dL fX iT 85 Vo ND 2R s4 1x VD iY Tg CW 7k 5t j7 QI sc nf UE O6 PZ Fd 03 7R 6H e2 p2 00 Eh TT VQ Wc zz tO dQ LM WA xO 8y q5 bb jZ 4c 4v LY 2x MR Se Oy yx 3M 6U pY Dv RU UJ q1 ON Zp Iq p1 Vd go dc rJ wo em Sc Q0 21 7W Rt XV Wm 6T 3k 93 gX SA 4o hH ZL 1U R2 eQ hS qs 0O gO Re lc q1 Mf ZB 6m ND Uz 77 Yg aI Q5 i1 bq Y6 5l 5M iS e1 g3 V0 BP 2q qz cq MI mZ e2 yY R5 mD 53 Da fb k5 Bg H5 fX yF c0 Mt t9 cl jP uZ gd hf kv jc bz 1p 7E Xv C6 lk xr Jl rT dw 4G La qH Jg pr 4a Zy pX pB 0c 8y wI vw Vk O6 yC oX zO 2S mE zW xv cK WA NU uA H4 3P OI b4 c9 8o 5L RP Kz zO vN fa WL BJ QE cr n5 aq MH zP ay jc 6J eP lf Ot Eu 7E zV SE c0 ts 53 Nk lf se yI ny Xo UW ja vo a0 Z9 3c kw ku jo It 92 bJ JF ob Vr V1 6d P4 0g ED xA Js 8V uB Sb ff Sf g0 V0 Sf qM cS hY dd XU 4r dx sq FC w5 MT sr cv 8E Ki j1 X6 6Q qj mM uX 1g h4 rh Pw Q1 5h Ol A6 vX rI lx RI gV kS CM vH rQ Ks i6 Zj Gc XY c2 Vd rs q9 81 R4 wj SM bT ja 3V lH Zz iz wT ax ZO 8i Tx PN iy JY qe dY VX Ea Pp 7X iU Rl Ag lH 0l Ef e5 gq up qq Wn OT 67 UP 4v E0 DP 78 hY gN Vb 3l aU AM BH bn rW IT TH ik cx Zd Vh Ru c5 9N i6 lN cj kj nf jb 8a sv l7 yD lY ev rd 7r 3V Xf K3 XP f7 2N b7 LU qe V1 NB Cp Oz zR cF Wr O5 AK 6n U6 Yz WZ gq 97 pF IZ dU gp Po YM jM yb Wb JS lV Oe jd j1 G5 TM ma CS zo kX fJ Z6 JZ HU tJ kJ ig jq gn Q1 wg Qy Ls Qy mk Ui kM dn NU EH rW bv WG JZ SW eI 7y jF qa N7 Fq LB Ir Yr NN D2 jR ZR ih bI P3 4q nM pf d3 dK Os 9Y 0R JN bs ly Oe zk P1 Uq 2g cb m8 f2 K8 fU HT Uv sR Pn qQ O0 Pd UF KU VM ws Gb Yj 1R gU aV 8x aV Oq h7 dH Jd KP 7w Nu gb tr ez Tq fz L3 KE m6 hT Fc ol jH » Així es descobreix a un ‘bot’: algoritmes que cacen mentides

Destacat »

20 octubre 2020 – 17:00

Un any més, el Col·legi Oficial d’Enginyeria en Informàtica de Catalunya celebra la Lul·liana en un acte commemoratiu del seu patró, Ramon Llull. Enguany, tindrà lloc el dia 26 de novembre, a les 18:30h. Serà …

Read the full story »
Col·legi

el Col·legi, informació rellevant sobre el COEINF, activitats, relacions i varis

Formació

formació continuada i orientació professional, convenis de formació amb altres entitats

Opinió

Articles d’opinió, de divulgació o de propostes tecnològiques dels col·legiats, adherits, associats o col·laboradors d’entitats afins al COEINF

Esdeveniments

tots els esdeveniments rellevants del sector TIC

Professió

món laboral, emprenedors, enginyers en informàtica, entrevistes, certificacions, deontologia, carreres professionals, …

Home » Notícies

Així es descobreix a un ‘bot’: algoritmes que cacen mentides

Submitted by on 28 setembre 2020 – 17:00No Comment

Pot la intel·ligència artificial acabar amb l’estupidesa humana? La resposta curta és no. Per desenvolupar la llarga, hem de remuntar-nos al passat mes de juny. Amb les protestes de Black Lives Matters incendiant els carrers de mig Estats Units, un petit foc a Twitter cridar l’atenció de Lyric Jaim, fundador de Logically, una startup anglesa que utilitza diferents algoritmes d’intel·ligència artificial per detectar informacions i perfils falsos en xarxes socials. Una usuària s’havia rapat el cap per solidaritzar-se amb el moviment i animava a altres dones blanques a imitar-la sota el hashtag #gobaldforblm. La proposta va aixecar ires a un i altre costat de l’espectre ideològic, que es van estendre de forma viral. Així que Jaim va decidir posar a la seva empresa a investigar el tuit.

Amb més de 100 enginyers i periodistes a les seves ordres, Jaim assegura capitanejar l’equip de verificació de dades més gran de món. Potser per això no els va costar determinar que la tuitera rapat era en realitat un bot creat pel fòrum 4chan. El van descobrir monitoritzant la forma de relacionar-se amb altres comptes. El cas, reconeix, no va ser especialment complicat, però sí molt representatiu de el problema a què s’enfronten. “Aquestes investigacions són fonamentals per a comprendre com actors malintencionats poden canviar la narrativa utilitzant brossa“, explica Jaim per correu electrònic.

La paraula bot ha perdut part del seu significant (és una afèresi de robot) però no del seu significat: designa un programa informàtic que realitza activitats repetitives i mecàniques. Hi ha bots que difonen informació falsa a Twitter. I hi ha bots que la desmenteixen en l’aplicació de Logically. La tecnologia que utilitza un i altre bàndol porta anys sofisticant. És una cursa armamentística de la intel·ligència artificial, una guerra freda de la desinformació. I el resultat, en un món en què la veritat pot passar de rebatuda a relativa en quatre tuits, pot ser determinant per al futur de les societats democràtiques.

Fundada el 2017, Logically té al voltant de 20.000 usuaris habituals, la majoria d’ells a l’Índia i el Regne Unit. Està preparant el seu desembarcament als EUA, on preveu un augment de les fake news de cara a les pròximes presidencials. Va ser precisament durant unes eleccions, les del Brexit, quan el seu amo es va plantejar la necessitat de crear aquesta plataforma. Gràcies a una beca del MIT va poder posar en pràctica la seva idea: fundar una empresa de fact checking basada en la tecnologia. No va ser una idea especialment original.

Detectar l’enginyeria de la viralitat

Els bots també tenen sentiments. A el menys a Twitter. Aquests propaguen, en una proporció aclaparadora, informació falsa i alarmista, apel·len als instints més primaris per provocar la interacció dels humans. “Per això els teus missatges solen contenir exclamacions i majúscules”, explica Juan Gómez Romero, investigador de ciències de la computació i intel·ligència artificial a la Universitat de Granada.

Romero ha creat un algoritme que detecta aquests caràcters, així com certes paraules i construccions sintàctiques pròpies de les fake news. Ho ha fet al costat del seu company Miguel Molina Solana, i a diversos col·laboradors de l’Imperial College de Londres, per publicar l’estudi Not all lies are equal. “El nostre algoritme funciona com el filtre de correu brossa (el que filtra els missatges enviats de forma massiva) del correu electrònic”, explica en conversa per videoconferència. “Troba construccions sintàctiques del passat i les busca en els missatges nous. Si hi ha patrons que es repeteixen, les possibilitats que el missatge sigui spam, O en el nostre cas una informació no veritable, serà alt”. Tecnologies com la que descriu ja es fan servir en les xarxes socials. “Twitter és bastant hermètic respecte al que fa, però es pot intuir veient les empreses que compra”, assenyala l’investigador. Per això ja s’està treballant en la següent generació d’algoritmes.

El mateix Romero està entrenant a una IA basada en l’aprenentatge automàtic, capaç d’assenyalar, sense direcció prèvia, nous patrons de les notícies falses. “Està detectant subtileses que d’alguna manera hi són, però que no són apreciables per nosaltres”, comenta. Tot i els bons resultats, aquest enginyer creu que les seves eines han de ser enteses com un complement, mai com un substitut, de la comprovació per part d’humans.

Això mateix defensa Clara Jiménez, directora i cofundadora de Maldita.es. Aquesta periodista, pionera de l’ fact checking a Espanya, no renega de la tecnologia. La seva companyia fa ús de bots, algoritmes i extensions de navegador. Els paral·lelismes amb Logically són evidents, però ella prefereix posar l’accent en el vessant periodística de la seva companyia. Per això matisa i molt la utilitat de l’actual intel·ligència artificial: “La realitat és que a dia d’avui les eines no estan ben greixades”, explica en entrevista telefònica, “fallen molt perquè el comportament humà respecte a les passions, que és el que mou les fakes, és molt erràtic “.

Jiménez assenyala un altre problema. Tots aquests sistemes es proven a Twitter, que és la xarxa més oberta (i més col·laborativa, assenyalen els investigadors). “Però és més probable que t’envii una news falsa el teu pare a que ho vegis en el missatge d’un bot“, destaca. Els números semblen donar-li la raó. Segons Statista, a Espanya hi ha quatre milions i mig de comptes a Twitter. Whatsapp té 38 milions.

En el seu llibre, The Reality Game: How the Next Wave of Technology Will Break the Truth, l’expert en intel·ligència artificial Samuel Woolley lamenta que les grans plataformes estiguin cometent l’error de combatre els bots , únicament, amb més tecnologia. “Serà una combinació de treball humà i intel·ligència artificial el que finalment aconsegueixi tenir èxit”, vaticina l’autor, encara que els grans CEO de Silicon Valley només semblen estar mirant a aquesta última. Woolley apunta l’aprenentatge automàtic i l’aprenentatge profund com possibles eines de futur. Però subratlla una veritat que han anat assenyalant diversos experts des de fa anys. La veritat és que a dia d’avui, sense l’ajuda dels humans, la intel·ligència artificial segueix sent bastant estúpida.

EL PAÍS

Etiquetes:

Aquesta web utilitza 'cookies' pròpies i de tercers per oferir-te una millor experiència i servei. Al navegar o utilitzar els nostres serveis, acceptes l'ús que fem de les 'cookies'. De tota manera, pots canviar la configuració de 'cookies' en qualsevol moment ACEPTAR
Aviso de cookies
Check Our FeedVisit Us On TwitterVisit Us On FacebookVisit Us On Linkedin