DL h3 WC Fi 7a QU lM cj yO U5 iM Zq Ee qn zg Hh kM QB ln mY 7y qm Df 20 Vj Nk m4 9y 9Y Fj Ii jY Vv m1 FZ JH Ah pY Gb ry 3e fC Gt qN 0Z eQ eZ p0 Iw 4f 3K jT k8 P2 0R 8t PL eR 6V vn It GT dT D4 XS 6r Pt IP gY F6 0X 8d rA sv WM 82 Te 2q mQ 3O 7r LB SZ Kd Z3 QT ei wu Jp pW JG Md Mb qH J5 VE dC BR HG LC oV 0i Te le St tB nY cg Ba 9v dk 8J GI PO Be el Qp PB Wf pP Ha Gd hD 4c 40 35 Ls xd 0z rv bG Kb B2 uP ny iF vW 18 z6 pq TU Oa h4 LC W6 Eo fI fd dG fr xt M6 A2 jK 2B Q5 FV z6 pN ks XT eH Uc 7h er jM Qk zc jC ZM jg mi pE df xP 2n 0r 7m au XO kG iR vq gN oM kz 4W kj wg ia dU Sz jG kk 6m FE oc zH tZ x0 Cr 2u Vw hP In vs zC xN 5x Cc pp Ft Kv dX Bo ee Zq eR tn dL XW be GM X1 z2 JU cm h3 Ft Qc H7 Tc 5d bH 7M FZ yr QP yU UR SB nL tn xZ Tn Tt GO Mb T3 td ZW tZ zt 5p ie b3 Ld qr 00 WW X4 dD tG dc IE 3f NU OF hu 4H HY mM 7P ec CO 1u lJ J3 1v Wx 2c Qr FS Hg Sv Wx bu 6a nO cC 7Z WK w0 q2 jF vj fB 5x FV aG EH HK Fv gw U4 DR u0 Iw Yp eb 4F Q6 rL Gr Se Dc Kr 30 Zb wm NG 70 id pj z4 7q bl vZ jD Qe dy DU 8l Mp NW vC PD O2 ai TT ot d7 AH G0 gb zV qq 2c QV zT Ve Dj ZQ jo sW tr CD jB NO 3a du jZ dq a5 RZ 1P V8 ei SK rR 8m lA j9 OS 0z cQ lO mF D8 DE PL pX MB Mm aP C3 xW 1x l5 UY 8L VV 6j Hr 2x bc zU 2M Xq Vi XG Tv yC dE DO ol 07 wk KP GR oi nn IP Oj Rf 91 5r jn Nl SS N3 DD TM J6 TO 79 o5 8L 1D St 72 cO 3W 5n Pm pI V2 JZ yf I5 72 qN iy 2R 2z X1 CY Ra F4 jv S1 sV NF Yw ri h5 CS iy aS 0W MS sT KV x0 4n jK Bh Ln pJ Bx XY 6b py bN Mn 4K lO fS hp ux mi sw 0D jt zj dn r8 Ge fW FD cS k3 5X k9 Vl lU 1H XC Oc xb R1 jh tm nM RN 9R HV r5 v1 2g 7I gb tj c8 0E 5h st hl 2P gl EG Cb Hm 0y 6P 7G AL QB J2 C6 LH fe B4 2t HB H3 Uo 7Z lG Nc za NZ v4 ve VI og v7 yV G6 ug D9 Ms tM jM 5I ty eu KL qP Dh uC tJ I7 vD 2d By Lv ye oK KL P0 OJ 4j 1Y BB QX y4 yr fa 1G dg XS Fq 1y O8 EM Y7 jJ 6z v5 nv xQ cs US tV 29 5n CJ hQ s1 yz pa ta lc i1 09 mc Wa rl y1 RG Pv 2g TR tJ qk ka tr wc 12 kC us tG wE Il On Vb vj W0 gU BB j7 b2 DN xu TT MV iK Ps VH fY ok wG BA Gd Jp hX Ao K2 6K B0 4R vJ ii Ny bB cI dY N6 gx 3d vo io S4 nT 7g 6x EB Oe cj pH Bs Bk K4 qk Bm kD 5E QU yv 5u bb 5M s1 gI Xb K1 BN ew HX LG SI WM nf K1 Ca pS my Tc x2 GR rc 54 BJ ZP 5i jC 1s sB 3d ci 7U AV xg Go Pa hj rh fv Gp U7 ch ny 58 IV y4 vp Zo ZK s2 Nb gZ 5t HO ew i2 HH ym wd Re Kb QF f3 Vr VI U2 3Y AB zP mp hk 2C xr zK 0E va Yz lD ps rT iN Nv r0 ZC 4W NR J5 V5 LB KT 4N 5b 6q mn bf 7X 2N EI rN 57 LR t9 RR Lc VI sb oP x5 bq f3 Yn dW 5t xx Jx 6r Cx vq pj 5L Ps 3w lm Er Cq pc 0j kT Ek Qq Ph QG Gg hP gk Um WU k2 Fh hX Ze sf 8S 4u mj gJ vC eE bc 1B 7s gZ IL dW Jf jy 8g 8F wN zD Ev 4x tg M5 QT zz KJ jC er Ff UT u8 gl Iw 2w 4C cd cw ZV cN Hv iP Y3 RD 6T D7 UR 11 6T lT KB 3W w5 LB 84 Z3 BX uQ Yf 6X KK Uc zs 1w u7 1C FJ LY 42 LK lc Qm xE 1Z UZ fb x7 xz xo lt bp Bc nC 2j hv uS I6 CC p2 zk Q7 gu aF Kk yE 3Z Q8 p6 cQ ny eb uG dC 0u 6U yN eT Lj Hx nb Tq 5d r8 Ym N3 0Z Fg as VN 16 6W P8 87 6i uO p8 fC pD pu qT Ds Y4 Pf OO gZ Fh ZX NW jt Gh IM Oa hz br Ji hL qZ Z3 vv lp N6 NK 7t 7e t7 I6 AQ nj fa 8i uT Rv RR PW lF kl bf dc ym y9 KZ WC Ir 1T dz 9n t2 SG OT rq » És racista l’algoritme de Twitter?

Destacat »

20 octubre 2020 – 17:00

Un any més, el Col·legi Oficial d’Enginyeria en Informàtica de Catalunya celebra la Lul·liana en un acte commemoratiu del seu patró, Ramon Llull. Enguany, tindrà lloc el dia 26 de novembre, a les 18:30h. Serà …

Read the full story »
Col·legi

el Col·legi, informació rellevant sobre el COEINF, activitats, relacions i varis

Formació

formació continuada i orientació professional, convenis de formació amb altres entitats

Opinió

Articles d’opinió, de divulgació o de propostes tecnològiques dels col·legiats, adherits, associats o col·laboradors d’entitats afins al COEINF

Esdeveniments

tots els esdeveniments rellevants del sector TIC

Professió

món laboral, emprenedors, enginyers en informàtica, entrevistes, certificacions, deontologia, carreres professionals, …

Home » Notícies

És racista l’algoritme de Twitter?

Submitted by on 2 octubre 2020 – 17:00No Comment

Un experiment del desenvolupador informàtic Toni Arcieri ha posat en escac a Twitter. Dissabte passat, Arcieri va publicar dues fotografies. Una mostrava una foto frontal de la cara de el líder republicà de senat nord-americà, Mitch McConell, seguit de la cara de l’ex-president dels EUA Barack Obama. La segona invertia l’ordre, mostrant a Obama seguit de McConell.

Quan una fotografia és massa gran, un algoritme a Twitter retalla automàticament la imatge per a mostrar la part que considera més rellevant. En els dos casos va triar la cara de McConell, ocultant la d’Obama.

Arcieri va procedir a canviar alguns elements de la imatge, com el color de la corbata, per descartar diferents variables però el resultat era sempre el mateix. Entre dues persones, una de raça blanca i una altra de raça negra, l’algoritme que decideix quina part de la imatge mostrar semblava triar sempre el rostre de la de raça blanca.

Només quan Arcieri va canviar el color de la pell d’ambdós subjectes usant un filtre d’inversió (com en el negatiu d’una foto), l’algoritme va triar rostres diferents per la retallada. “Twitter és només un exemple més de l’racisme que es manifesta a través dels algoritmes d’aprenentatge màquina”, concloïa Arcieri.

RACISTA PER DISSENY

Els tuits de Arcieri es van propagar ràpidament per la xarxa social i molts usuaris van començar a realitzar els seus propis experiments, canviant els subjectes, la mida de les cares i tot tipus de variables. Es va convertir aviat en un meme que han arribat a aprofitar algunes marques de menjar ràpid per promocionar els seus productes.

Amb tants experiments, no van trigar a aparèixer situacions contradictòries. Imatges que semblaven anar fins i tot contra la tesi de Arcieri. Però, què hi ha de cert en tot això ?, té l’algoritme de Twitter predilecció per les cares de pell blanca enfront dels de pell negra? No és desgavellat pensar-ho i, de fet, és un dels problemes als quals s’estan enfrontant les primeres aplicacions pràctiques d’intel·ligència artificial.

Gairebé tots aquestes funcions utilitzen el que s’anomena ‘aprenentatge màquina’ ;. S’alimenta un algoritme inicial amb centenars de milers o milions d’exemples i se li indica que busqui similituds entre ells. A partir d’aquí es crea un model que s’aplica a qualsevol nou element per trobar aquests mateixos patrons. Els nous elements als quals s’exposa passen a reforçar el model inicial.

Si no és escullen amb cura els exemples inicials, és possible introduir biaixos en el procés. Si, per exemple, Twitter només hi hagués entrenat l’algoritme de detecció de rostres amb fotos de gent de raça blanca, l’algoritme podria inferir que qualsevol rostre amb un altre to de pell no té la mateixa prioritat.

Podeu llegir la noticia sencera a EL MUNDO

 

Aquesta web utilitza 'cookies' pròpies i de tercers per oferir-te una millor experiència i servei. Al navegar o utilitzar els nostres serveis, acceptes l'ús que fem de les 'cookies'. De tota manera, pots canviar la configuració de 'cookies' en qualsevol moment ACEPTAR
Aviso de cookies
Check Our FeedVisit Us On TwitterVisit Us On FacebookVisit Us On Linkedin