Es­tu­do ana­li­sa pos­si­bi­li­da­de das má­qui­nas te­rem emo­ções

Jornal de Angola - - SOCIEDADE -

Um pai­nel de es­pe­ci­a­lis­tas em éti­ca da ci­ên­cia e da tec­no­lo­gia, per­ten­cen­tes à Co­mis­são so­bre a Éti­ca do Co­nhe­ci­men­to Ci­en­tí­fi­co e Tec­no­ló­gi­co, um ór­gão con­sul­ti­vo da Or­ga­ni­za­ção das Na­ções Uni­das pa­ra a Edu­ca­ção, Ci­ên­cia e Cul­tu­ra (UNESCO), es­tá a ex­plo­rar a pos­si­bi­li­da­de dos robôs vi­rem a tor­nar-se “má­qui­nas mo­rais”, in­clu­si­ve com di­rei­tos le­gais no ca­so de de­sen­vol­ve­rem a ha­bi­li­da­de de sen­tir emo­ções e dis­tin­guir o cer­to e o er­ra­do.

Num re­la­tó­rio pre­li­mi­nar di­vul­ga­do no final de Se­tem­bro, ci­ta­do on­tem pe­la Rá­dio da Or­ga­ni­za­ção das Na­ções Uni­das, o gru­po de tra­ba­lho so­bre tec­no­lo­gi­as emer­gen­tes de­fen­deu que “de­pen­den­do dos avan­ços fu­tu­ros nes­sa área, a pos­si­bi­li­da­de dos robôs de­sen­vol­ve­rem emo­ções e até es­ta­tu­to mo­ral não po­de ser des­car­ta­da”.

O do­cu­men­to ava­lia as ques­tões éti­cas re­la­ci­o­na­das com o uso de robôs au­tó­no­mos e co­mo os se­res hu­ma­nos in­te­ra­gem com eles.

Robôs ver­sus ani­mais

Se­gun­do os es­pe­ci­a­lis­tas, “o rá­pi­do de­sen­vol­vi­men­to de robôs au­tó­no­mos al­ta­men­te in­te­li­gen­tes de­ve de­sa­fi­ar a clas­si­fi­ca­ção ac­tu­al de se­res de acor­do com o seu es­ta­tu­to mo­ral, de for­ma igual ou até mais pro­fun­da que o mo­vi­men­to dos di­rei­tos dos ani­mais”. De acor­do com o re­la­tó­rio pre­li­mi­nar, su­pon­do que os robôs do fu­tu­ro se tor­nem ain­da mais so­fis­ti­ca­dos, tal­vez até ao pon­to de apren­de­rem com ex­pe­ri­ên­ci­as an­te­ri­o­res e se au­to­pro­gra­ma­rem, a na­tu­re­za dos seus al­go­rit­mos (que são um con­jun­to de ins­tru­ções pre­ci­sas de co­mo o robô de­ve ope­rar) vai tor­nar­se num pro­ble­ma dig­no de “sé­ria aten­ção éti­ca e re­fle­xão”.

Agen­tes éti­cos

Em­bo­ra a mai­o­ria dos es­tu­di­o­sos que tra­ba­lham so­bre a éti­ca dos robôs con­cor­de que eles ain­da es­tão lon­ge de se tor­na­rem “agen­tes éti­cos” co­mo os hu­ma­nos, há es­pe­cu­la­ções de que os robôs pos­sam ad­qui­rir, no fu­tu­ro, ca­rac­te­rís­ti­cas co­mo, por exem­plo, o sen­ti­do de hu­mor.

Os es­pe­ci­a­lis­tas da UNESCO vão mais lon­ge e con­si­de­ram a pos­si­bi­li­da­de dos se­res hu­ma­nos te­rem re­la­ções se­xu­ais ou apai­xo­na­rem-se por es­sas má­qui­nas.

Se­gun­do o do­cu­men­to do pai­nel de es­tu­di­o­sos, a au­to­no­mia dos robôs de­ve cres­cer de for­ma que a sua re­gu­la­ção éti­ca se tor­ne ne­ces­sá­ria.

Is­so se­ria fei­to atra­vés da pro­gra­ma­ção des­sas má­qui­nas com có­di­gos éti­cos, cri­a­dos es­pe­ci­fi­ca­men­te pa­ra pre­ve­nir com­por­ta­men­tos que co­lo­quem em ris­co os se­res hu­ma­nos ou o meio am­bi­en­te.

Apa­ren­te­men­te fu­tu­ris­ta, o re­la­tó­rio é uma vi­são as­sen­te em ten­dên­ci­as do mun­do ac­tu­al.

Newspapers in Portuguese

Newspapers from Angola

© PressReader. All rights reserved.