a Pe­ri­go­sa cai­xa Pre­ta dos al­go­rit­mos e a cam­pa­nha elei­to­ral de 2018

lei li­be­ra pro­pa­gan­da po­lí­ti­ca no facebook en­quan­to em­pre­sa en­fren­ta es­cân­da­lo nos eua bra­sil não dis­põe de re­gra, co­mo eu­ro­pa, que exi­gi­rá in­for­ma­ções so­bre os al­go­rit­mos

Brasil em Folhas - - Primeira Página -

apro­pu­bli­ca, um ins­ti­tu­to de jor­na­lis­mo in­de­pen­den­te es­ta­du­ni­den­se que já ga­nhou di­ver­sos prê­mi­os por seu tra­ba­lho in­ves­ti­ga­ti­vo, re­cen­te­men­te no­ti­ci­ou que softwa­res uti­li­za­dos pa­ra aju­dar ma­gis­tra­dos dos es­ta­dos Uni­dos a cal­cu­lar pe­nas com ba­se na pro­ba­bi­li­da­de de os acu­sa­dos co­me­te­rem no­vos cri­mes ti­nha um gra­ve pro­ble­ma: se o in­di­ví­duo era ne­gro, o al­go­rit­mo con­cluía que, em al­gu­mas si­tu­a­ções, es­te ti­nha chan­ces qua­se du­as ve­zes mai­or do que um bran­co de co­me­ter no­vos ilí­ci­tos. Com ba­se nes­te cál­cu­lo, juí­zes con­de­na­ram ne­gros a pe­nas bem mai­o­res do que in­di­ví­du­os bran­cos com an­te­ce­den­tes e his­tó­ri­co de bom com­por­ta­men­to si­mi­la­res. Ha­via um ou­tro gran­de pro­ble­ma: nin­guém sa­bia que cri­té­ri­os eram uti­li­za­dos pa­ra re­a­li­zar o cál­cu­lo de ris­co. De­vi­do a es­sa fal­ta de trans­pa­rên­cia, em bre­ve um ca­so se­rá re­vis­to pe­la su­pre­ma Cor­te ame­ri­ca­na por­que o acu­sa­do afir­mou que seu di­rei­to ao de­vi­do pro­ces­so le­gal foi vi­o­la­do quan­do lhe foi ne­ga­do o di­rei­to a en­ten­der o fun­ci­o­na­men­to do al­go­rit­mo.

Um ou­tro es­tu­do mais re­cen­te mos­trou que al­go­rit­mos ba­se­a­dos in­te­li­gên­cia ar­ti­fi­ci­al apren­de­ram, após ana­li­sar mi­lha­res de fotos, que se exis­te uma ima­gem com al­guém nu­ma co­zi­nha, em fren­te a um fo­gão, de­ve ser uma mu­lher, re­for­çan­do es­te­reó­ti­pos e cau­san­do dis­cri­mi­na­ção. em ou­tro ca­so, um pla­no de saú­de con­cluiu que de­ter­mi­na­do con­su­mi­dor te­ria mai­o­res chan­ces de ter pro­ble­mas car­di­o­vas­cu­la­res ao in­fe­rir que es­te se­ria obe­so por pos­suir um car­ro gran­de e não ter fi­lhos. e se os da­dos es­ti­ve­rem in­cor­re­tos? e se fos­se um ho­mem na co­zi­nha? e se o car­ro ti­ves­se si­do um pre­sen­te? Co­mo li­dar quan­do os da­dos não são pre­ci­sos?

es­te são ape­nas exem­plos, por mais as­sus­ta­do­res que se­jam, de co­mo as nos­sas vi­das ho­je são con­tro­la­das por al­go­rit­mos que mui­tas ve­zes re­pro­du­zem pre­con­cei­tos, es­te­reó­ti­pos e con­tri­bu­em pa­ra au­men­tar a as­si­me­tria de po­der en­tre ci­da­dãos, o es­ta­do e em­pre­sas. Ban­cos, fi­nan­cei­ras, agên­ci­as de em­pre­gos, se­gu­ra­do­ras, ci­da­des in­te­li­gen­tes, car­ros que se au­to­di­ri­gem, to­das são áre­as da so­ci­e­da­de que de­pen­dem fe­roz­men­te de ADM (au­to­ma­ted De­ci­si­on Ma­king), al­go co­mo al­go­rit­mos que to­mam de­ci­sões au­to­ma­ti­ca­men­te.

Frank pas­qua­le, ho­je um dos mai­o­res es­pe­ci­a­lis­tas no as­sun­to, de­fen­de que vi­ve­mos nu­ma Black Box so­ci­ety, em alu­são a opa­ci­da­de in­trín­se­ca dos al­go­rit­mos que con­tro­lam di­ver­sos as­pec­tos do nos­so dia-a-dia e mui­tas ve­zes de­fi­nem co­mo, e se, exer­ce­re­mos al­guns dos nos­sos di­rei­tos mais bá­si­cos, mas que não per­mi­tem co­nhe­cer co­mo se dá o seu efe­ti­vo fun­cio- na­men­to. Mas an­tes, é ne­ces­sá­rio en­ten­der o que são al­go­rit­mos.

al­go­rit­mos são sequên­ci­as de ins­tru­ções pro­gra­ma­dos pa­ra re­a­li­zar uma ou vá­ri­as ta­re­fas. Nor­mal­men­te, co­le­tam da­dos de fon­tes di­ver­sas que fun­ci­o­nam co­mo va­riá­veis que com­bi­na­das le­vam a um re­sul­ta­do. em um pro­gra­ma de com­pu­ta­dor, é um có­di­go, li­nhas de co­man­do, es­cri­tas por pro­gra­ma­do­res. Mais re­cen­te­men­te, al­go­rit­mos de apren­di­za­gem au­to­má­ti­ca pas­sa­ram a es­cre­ver, so­zi­nhos, ou­tros al­go­rit­mos por meio de in­te­li­gên­cia ar­ti­fi­ci­al, o que, por ve­zes, po­de le­var a re­sul­ta­dos to­tal­men­te ines­pe­ra­dos, que não po­de­ri­am ser an­te­vis­tos pe­los hu­ma­nos que de­sen­vol­ve­ram o có­di­go ori­gi­nal. es­se có­di­go é, pe­la mai­o­ria das le­gis­la­ções do mun­do, pro­pri­e­tá­rio. is­so sig­ni­fi­ca que ele per­ten­ce a uma em­pre­sa, po­de ter um gran­de va­lor de mer­ca­do e ser con­si­de­ra­do um se­gre­do de ne­gó­cio. O aces­so a ele por ter­cei­ros po­de sig­ni­fi­car uma gran­de des­van­ta­gem com­pe­ti­ti­va. e aqui re­si­de um dos mai­o­res em­ba­tes que im­pe­de a efe­ti­va trans­pa­rên­cia dos al­go­rit­mos.

Os que de­fen­dem, co­mo pas­qua­le, que as em­pre­sas de­ve­ri­am re­ve­lar o có­di­go de seus al­go­rit­mos a fim de per­mi­tir que a so­ci­e­da­de os en­ten­des­sem e au­di­tas­sem, vi­san­do evi­tar prá­ti­cas dis­cri­mi­na­tó­ri­os, en­con­tram bar­rei­ras na pró­pria le­gis­la­ção na­ci­o­nal e internacional que con­fe­rem as com­pa­nhi­as qua­se que um es­cu­do, sob as ban­dei­ras da pro­pri­e­da­de in­te­lec­tu­al e da li­vre con­cor­rên­cia, que im­pe­de co­nhe­cer os de­ta­lhes que le­vam os al­go­rit­mos a es­tas to­ma­das de de­ci­são.

Na União eu­ro­peia, o Go­o­gle vem sen­do acu­sa­do de uti­li­zar o seu al­go­rit­mo pa­ra fa­vo­re­cer seu pró­prio ser­vi­ço, mos­tran­do as ofer­tas do Go­o­gle shop­ping co­mo as mais re­le­van­tes, o que, le­van­do-se em con­si­de­ra­ção po­si­ção qua­se que do­mi­nan­te o bus­ca­dor, vem sen­do con­si­de­ra­da uma prá­ti­ca mo­no­po­lís­ti­ca. sob o ar­gu­men­to do abu­so de po­der de do­mi­nân­cia, a em­pre­sa foi mul­ta­da em qua­se 2,5 bi­lhões de eu­ros. al­gu­mas das prin­ci­pais dis­cus­sões do pro­ces­so en­vol­vi­am a ne­ces­si­da­de de trans­pa­rên­cia dos al­go­rit­mos pa­ra afe­rir se a com­pa­nhia re­al­men­te fa­vo­re­cia seus ser­vi­ços, o que, pa­ra in­for­tú­nio de pes­qui­sa­do­res, não acon­te­ceu.

Ou­tros, ad­vo­gam a ne­ces­si­da­de de uma trans­pa­rên­cia ba­lan­ce­a­da, que não im­pac­te se­gre­dos co­mer­ci­ais, mas que per­mi­ta não só aos con­su­mi­do­res, mas a so­ci­e­da­de co­mo um to­do, au­di­tar al­go­rit­mos

pa­ra ve­ri­fi­car se es­tes não es­tão, de fá­bri­ca, im­buí­dos de prá­ti­cas dis­cri­mi­na­tó­ri­as. Des­se con­tex­to nas­ce a ideia de ac­coun­ta­bi­lity by De­sign, que, por meio de pro­ces­sos in­di­re­tos, ten­ta co­a­du­nar os in­te­res­ses da so­ci­e­da­de em fis­ca­li­zar prá­ti­cas ba­se­a­das em al­go­rit­mos sem que se­ja ne­ces­sá­rio ter aces­so di­rei­to ao seu có­di­go fonte e re­ve­lar prá­ti­cas co­mer­ci­ais. Tes­tes pa­drões co­mo os ho­je re­a­li­za­dos em veí­cu­los pa­ra iden­ti­fi­car se es­tes es­tão em con­for­mi­da­de com o ar­ran­jo re­gu­la­tó­rio na­ci­o­nal e os pa­drões in­ter­na­ci­o­nais de­fi­ni­dos po­dem ser de­sen- vol­vi­dos, si­mi­lar ao que ho­je já exis­te pa­ra cal­cu­lar ris­cos acei­tá­veis de im­pac­to ao meio am­bi­en­te quan­do da cons­tru­ção de obras. Mas, in­fe­liz­men­te, até mes­mo es­sa so­lu­ção tem se mos­tra­do ine­fi­ci­en­te. em mais um es­cân­da­lo en­vol­ven­do al­go­rit­mos, a mon­ta­do­ra Volkswa­gen al­te­rou ar­ti­fi­ci­al­men­te o soft­ware de seus veí­cu­los pa­ra dis­far­çar a quan­ti­da­de de po­lu­en­tes emi­ti­dos du­ran­te tes­tes pa­ra po­de­rem ter aces­so a de­ter­mi­na­dos mer­ca­dos. a com­ple­xi­da­de do có­di­go em­bar­ca­do era tal que es­te con­se­guia de­tec­tar quan­do es­ta­va sen­do tes­ta­do pa­ra que so­men­te du­ran­te o pro­ce­di­men­to o car­ro emi­tis­se po­lu­en­tes den­tro dos li­mi­tes per­mi­ti­dos pe­la le­gis­la­ção. Ou se­ja, pa­ra evi­tar aces­so ao có­di­go fo­ram uti­li­za­das ou­tras me­to­do­lo­gi­as de ve­ri­fi­ca­ção, mas que fo­ram al­vo de frau­des gra­vís­si­mas que le­va­ram a em­pre­sa a mul­tas as­tronô­mi­cas, enal­te­cen­do a ne­ces­si­da­de de se en­con­trar for­mas al­ter­na­ti­vas e efi­ci­en­tes pa­ra abrir as cai­xas pre­tas.

facebook e a elei­ção de 2018

No Bra­sil, es­sas ques­tões co­me­çam a ser dis­cu­ti­das, prin­ci­pal­men­te no con­tex­to de fa­ke news e pro­pa­gan­da elei­to­ral. es­tu­do da FGV mos­tra que con­tas au­to­ma­ti­za­das mo­ti­vam até 20% de de­ba­tes em apoio a po­lí­ti­cos no Twit­ter, im­pon­do ris­cos à de­mo­cra­cia e ao pro­ces­so elei­to­ral de 2018 por meio de um dis­cur­so ile­gí­ti­mo e par­ci­al. a po­lê­mi­ca au­men­tou com a pro­mul­ga­ção da lei da re­for­ma po­lí­ti­ca, que proi­biu, no seu art. 57-C, a “vei­cu­la­ção de qual­quer ti­po de pro­pa­gan­da elei­to­ral pa­ga na in­ter­net, ex­ce­tu­a­do o im­pul­si­o­na­men­to de con­teú­dos, des­de que iden­ti­fi­ca­do de for­ma inequí­vo­ca co­mo tal e con­tra­ta­do ex­clu­si­va­men­te por par­ti­dos, co­li­ga­ções e can­di­da­tos e seus re­pre­sen­tan­tes”.

afo­ra a dis­cus­são se o im­pul­si­o­na­men­to de con­teú­do po­de­ria ser efe­ti­va­men­te con­si­de­ra­do con­teú­do pa­go, fi­ca a dú­vi­da de co­mo os al­go­rit­mos que irão im­pul­si­o­nar as pro­pa­gan­das fun­ci­o­nam. es­sa des­con­fi­an­ça tem ori­gem nas re­cen­tes de­cla­ra­ções fei­tas por Mark Zuc­ker­berg, CEO do Facebook, ad­mi­tin­do que a re­de so­ci­al foi, de al­gu­ma for­ma, ma­ni­pu­la­da du­ran­te as úl­ti­mas elei­ções ame­ri­ca­nas por ato­res rus­sos que ti­nham cla­ro in­te­res­se em ele­ger o atu­al pre­si­den­te, Do­nald Trump. is­so le­vou a em­pre­sa a en­vi­ar ao Con­gres­so re­gis­tros de mi­lha­res de com­pras de pu­bli­ci­da­de fei­tos por rus­sos e a as­su­mir um com­pro­mis­so de mais trans­pa­rên­cia com re­la­ção a co­mo a pu­bli­ci­da­de com­por­ta­men­tal da sua re­de so­ci­al fun­ci­o­na, in­clu­si­ve o im­pul­si­o­na­men­to. Co­mo es­se po­si­ci­o­na­men­to se­rá im­ple­men­ta­do no Bra­sil ain­da é uma in­cóg­ni­ta, prin­ci­pal­men­te por não ha­ver re­gras que as­se­gu­rem a trans­pa­rên­cia al­go­rít­mi­ca, al­go que po­de­ria ser apren­di­do com o ve­lho con­ti­nen­te.

Des­de da apro­va­ção da no­va GDPR (Re­gu­la­ção eu­ro­peia de pro­te­ção de Da­dos), que en­tra­rá em vi­gor em maio do pró­xi­mo ano, re­pre­sen­tan­tes de di­ver­sos se­to­res tem cla­ma­do a po­si­ti­va­ção de um tal di­rei­to a ex­pli­ca­ção das de­ci­sões to­ma­das por sis­te­mas in­te­li­gen­tes e au­to­ma­ti­za­dos, ba­se­a­do no di­rei­to à trans­pa­rên­cia no tra­ta­men­to de da­dos pes­so­ais. O tex­to de­ter­mi­na que um in­di­ví­duo tem o di­rei­to a ob­ter in­for­ma­ções su­fi­ci­en­tes so­bre um al­go­rit­mo, co­mo o seu fun­ci­o­na­men­to e pos­sí­veis con­sequên­ci­as, que o per­mi­tam to­mar uma de­ci­são ra­ci­o­nal au­to­ri­zan­do ou se opon­do ao uso dos seus da­dos pes­so­ais. em ou­tras pa­la­vras, a GDPR ten­tou achar um meio ter­mo pa­ra har­mo­ni­zar di­rei­tos e in­te­res­ses, mas não de­ter­mi­nou o aces­so ao có­di­go dos al­go­rit­mos. Uma tô­ni­ca di­ver­sa po­de ser en­con­tra­da em vá­ri­as leis que vi­sam re­gu­lar o tra­ta­men­to de da­dos pes­so­ais, co­mo os pro­je­tos de lei atu­al­men­te em dis­cus­são no Bra­sil.

O Bra­sil, ain­da, não dis­põe de uma lei que ou­tor­gue efe­ti­vos ins­tru­men­tos que per­mi­tam ao ci­da­dão al­go si­mi­lar ao pre­sen­te no con­tex­to eu­ro­peu. To­da­via, pro­je­tos em trâ­mi­te no Con­gres­so Na­ci­o­nal re­cor­rem a prin­cí­pi­os que vi­sam li­mi­tar que da­dos se­rão co­le­ta­dos pa­ra com­por os al­go­rit­mos, va­len­do-se de cri­té­ri­os de pro­por­ci­o­na­li­da­de e trans­pa­rên­cia pa­ra evi­tar prá­ti­cas dis­cri­mi­na­tó­ri­as. es­ses pro­je­tos obri­gam ain­da que se­jam im­ple­men­ta­das me­di­das pro­te­ti­vas à pri­va­ci­da­de e ou­tras li­ber­da­des fun­da­men­tais des­de o mo­men­to da con­cep­ção do ser­vi­ço, du­ran­te o seu de­sen­vol­vi­men­to e a sua ofer­ta ao mer­ca­do. prin­cí­pi­os éti­cos vêm sen­do dis­cu­ti­dos em lar­ga es­ca­la e são ca­da vez mais ado­ta­dos na cons­tru­ção des­ses al­go­rit­mos. No en­tan­to, quem irá efe­ti­va­men­te fis­ca­li­zar es­sas me­lho­res prá­ti­cas ain­da não se sa­be.

Di­an­te de tu­do is­so, a ne­ces­si­da­de de trans­pa­rên­cia nos al­go­rit­mos se tor­na ca­da vez mais pre­men­te di­an­te de ce­ná­ri­os qua­se apo­ca­líp­ti­cos de um fu­tu­ro on­de pro­ces­sos de­ci­só­ri­os au­to­ma­ti­za­dos e in­te­li­gên­cia ar­ti­fi­ci­al do­mi­na­rão, e su­pe­ra­rão, o pro­ces­so de­ci­só­rio na­tu­ral do ser hu­ma­no. Des­de car­ros que sem mo­to­ris­tas, robôs e má­qui­nas que subs­ti­tu­em pro­fis­sões co­muns, ge­ra­ção au­to­má­ti­ca de no­tí­ci­as, até mes­mo en­ge­nha­ria ar­ti­fi­ci­al e am­bi­en­tes bé­li­cos, qua­se ne­nhum se­tor da so­ci­e­da­de es­ta­rá imu­ne aos efei­tos que an­tes so­men­te eram pen­sa­dos, e pos­sí­veis, em obras de fic­ção ci­en­tí­fi­ca. Ca­so a cai­xa pre­ta não se­ja aber­ta, po­de­re­mos nos tor­nar re­féns da nos­so pró­pria evo­lu­ção.

El pais

Su­per­com­pu­ta­dor Wat­son.

NUÑO DOMÍNGUEZ

Newspapers in Portuguese

Newspapers from Brazil

© PressReader. All rights reserved.