¿De­be­rían los desa­rro­lla­do­res de soft­wa­re te­ner un có­di­go de éti­ca?

El po­der de im­pul­sar la tec­no­lo­gía ge­ne­ra una gran res­pon­sa­bi­li­dad. ¿Qué de­ben ha­cer los pro­mo­to­res cuan­do se en­fren­tan a un di­le­ma éti­co?

IT Now Costa Rica - - DEVOPS - CIO

Pri­me­ro, no ha­gas da­ño. Es­te es el men­sa­je sub­ya­cen­te del ju­ra­men­to hi­po­crá­ti­co que his­tó­ri­ca­men­te ha­cen los mé­di­cos pa­ra de­mos­trar que se ape­ga­rán a un có­di­go de con­duc­ta éti­ca. Fon­ta­ne­ros, tra­ba­ja­do­res de la cons­truc­ción, po­li­cías - ca­si to­dos los pro­fe­sio­na­les cu­yo tra­ba­jo tie­ne un im­pac­to so­bre el pú­bli­co de­ben guiar­se por un có­di­go éti­co. Hay una ex­cep­ción no­ta­ble: la tec­no­lo­gía. Si bien exis­ten có­di­gos de con­duc­ta pro­pios de or­ga­ni­za­cio­nes y em­pre­sas, co­mo las di­rec­tri­ces de la Aso­cia­ción pa­ra la Ma­qui­na­ria In­for­má­ti­ca (ACM) y del Ins­ti­tu­to de In­ge­nie­ros Eléc­tri­cos y Elec­tró­ni­cos – Cien­cias de la Compu­tación (IEEECS); no hay un con­jun­to de es­tán­da­res que abar­que a to­da la in­dus­tria. Pe­ro de­be­ría ha­ber­lo

En 2015 ex­per­tos in­de­pen­dien­tes re­ve­la­ron que los in­ge­nie­ros de Volks­wa­gen pro­gra­ma­ron los au­to­mó­vi­les pa­ra al­te­rar la can­ti­dad de sus emi­sio­nes; en es­te 2016, du­ran­te la cam­pa­ña elec­to­ral es­ta­dou­ni­den­se, Fa­ce­book (en­tre otros me­dios) li­dió con una epi­de­mia de no­ti­cias fal­sas y EE.UU. en­fren­tó las po­si­bi­li­da­des de in­ter­fe­ren­cias y hac­king ru­so en sus elec­cio­nes. El ac­tual pre­si­den­te ba­só su cam­pa­ña la pro­me­sa de in­cre­men­tar el re­gis­tro de mu­sul­ma­nes exis­ten­tes (o cons­truir uno nue­vo) pa­ra ras­trear a miem­bros de esa fe.

¿El bien con­tra el mal?

Es­tos son só­lo al­gu­nos ejem­plos de có­mo el soft­wa­re pue­de ser uti­li­za­do con fi­nes ne­ga­ti­vos. No hay ma­ne­ra de pre­ver com­ple­ta­men­te los po­si­bles re­sul­ta­dos de un desa­rro­llo, del uso de ca­da pie­za tec­no­ló­gi­ca y el de ca­da lí­nea de có­di­go. Por lo tan­to, ha­cer lo co­rrec­to que­da a car­go de quie­nes di­se­ñan y cons­tru­yen los pro­duc­tos: los pa­que­tes de soft­wa­re, las apli­ca­cio­nes y las so­lu­cio­nes que uti­li­za­mos dia­ria­men­te.

Eso es mu­cha pre­sión

Es di­fí­cil de­ter­mi­nar qué es lo co­rrec­to o no lo es, con la pre­sión de las fe­chas to­pe y tu em­pleo pen­dien­do de un hi­lo. Se­gún Da­ve West, due­ño de pro­duc­tos en Scrum. org, un có­di­go de éti­ca pue­de dar­te un con­tex­to o un mar­co re­fe­ren­cial al cual re­cu­rrir; aun­que si bien ma­ni­fies­ta que le gus­ta­ría que exis­tie­ra, nos di­ce que es com­pren­si­ble que un gru­po de pen­sa­mien­to tan di­ver­so no pue­da es­tar de acuer­do con to­dos los as­pec­tos que lo con­for­ma­rían.

“Me en­can­ta­ría ver un có­di­go de éti­ca es­tan­da­ri­za­do en la in­dus­tria, pues te­ne­mos que con­si­de­rar que nues­tro de­ber es me­jo­rar el ofi­cio de la crea­ción de soft­wa­re. Creo que sen­ta­ría unas

EN­SE­ÑAR A LA gen­te a ha­cer­se las pre­gun­tas co­rrec­tas im­pli­ca co­no­cer cuá­les son esas pre­gun­tas y com­pren­der que los va­lo­res de ca­da uno son dis­tin­tos.

ba­ses só­li­das a las que al­guien pue­da re­cu­rrir si no es­tá se­gu­ro res­pec­to a al­gu­na de sus ta­reas, por­que po­drían re­pen­sar, mi­rar esos va­lo­res y pre­gun­tar­se: “¿es­toy ha­cien­do lo co­rrec­to ba­sán­do­me en es­tas co­sas en las que creo?”, di­jo West.

El de­ba­te so­bre el desa­rro­llo de soft­wa­re tie­ne tan­to tiem­po co­mo la pro­fe­sión mis­ma. Es ca­si im­po­si­ble eva­luar to­das las apli­ca­cio­nes po­ten­cia­les de una tec­no­lo­gía, bue­na o ma­la, lo que re­pre­sen­ta tan­to la be­lle­za co­mo el de­fec­to de la teo­ría; sos­tu­vo Shon Bur­ton, fun­da­dor y CEO de Hi­rin­gSol­ved, que uti­li­za la in­te­li­gen­cia ar­ti­fi­cial pa­ra ayu­dar a las com­pa­ñías a iden­ti­fi­car la di­ver­si­dad de ta­len­tos.

Cual­quier he­rra­mien­ta pue­de ser un ar­ma

“Cual­quier he­rra­mien­ta pue­de ser un ar­ma de­pen­dien­do de có­mo la uses. En la in­te­li­gen­cia ar­ti­fi­cial y la au­to­ma­ti­za­ción, que es lo que se me ocu­rre por­que las te­ne­mos cer­ca, pue­do ver lo bueno y lo ma­lo; y am­bos as­pec­tos son fá­cil­men­te ac­ce­si­bles. Por ejem­plo, con nues­tras apli­ca­cio­nes po­de­mos ayu­dar a los clien­tes a se­lec­cio­nar en­tre va­rios can­di­da­tos. Pe­ro ve­mos que tam­bién po­drían ser uti­li­za­das pa­ra ex­cluir gen­te de di­fe­ren­tes ra­zas o gé­ne­ros, etc. Te­ne­mos un có­di­go de con­duc­ta al que ad­he­rir­nos, pe­ro com­pren­de­mos las con­se­cuen­cias po­ten­cia­les y las in­vo­lun­ta­rias”, co­men­tó Bur­ton.

An­te la fal­ta de un con­jun­to de es­tán­da­res éti­cos, los in­di­vi­duos y las en­ti­da­des cor­po­ra­ti­vas es­tán ha­cien­do pú­bli­cos sus va­lo­res. En di­ciem­bre, el mo­vi­mien­to tec­no­ló­gi­co Ne­ve­rA­gain hi­zo cir­cu­lar la pro­me­sa de re­sis­tir­se a cons­truir una ba­se de da­tos de per­so­nas ba­sa­das en sus creen­cias re­li­gio­sas, las cua­les es­tán pro­te­gi­das por la Cons­ti­tu­ción.

“Nos rehu­sa­mos tam­bién

“Per­so­nal­men­te me en­can­ta­ría ver más for­ma­ción en ma­te­ria de éti­ca que la que ac­tual­men­te se im­par­te, es­pe­cial­men­te en un con­tex­to pro­fe­sio­nal, más allá de cur­sos so­bre teo­ría de la éti­ca, por­que la mis­ma, ais­la­da, no fun­cio­na­rá a me­nos que sea par­te de un es­tán­dar pro­fe­sio­nal más am­plio”. Da­ve West, Scrum.org

a fa­ci­li­tar las de­por­ta­cio­nes ma­si­vas de per­so­nas que el go­bierno con­si­de­ra in­de­sea­bles”, agre­gó. Ha re­co­pi­la­do más de 2 500 fir­mas.

Matt Ma­lo­ney, CEO de Gru­bHub, fue muy cri­ti­ca­do por su pos­tu­ra en con­tra de las ac­cio­nes y el len­gua­je dis­cri­mi­na­dor y de odio. El eje­cu­ti­vo de Ora­cle, Geor­ge Po­lis­ner, re­nun­ció pú­bli­ca­men­te a su tra­ba­jo co­mo res­pues­ta a que su CEO acep­ta­ra una res­pon­sa­bi­li­dad en la nue­va ad­mi­nis­tra­ción pre­si­den­cial.

Pue­de ser di­fí­cil sa­ber dón­de es­tá la lí­nea que se­pa­ra lo co­rrec­to de lo in­co­rrec­to; aun cuan­do es­tés bai­lan­do so­bre ella. Aun­que el có­di­go de éti­ca pue­de ser una so­lu­ción, po­dría ser más im­por­tan­te en­se­ñar a ha­cer las pre­gun­tas.

“Per­so­nal­men­te me en­can­ta­ría ver más for­ma­ción en ma­te­ria de éti­ca que la que ac­tual­men­te se im­par­te, es­pe­cial­men­te en un con­tex­to pro­fe­sio­nal, más allá de cur­sos so­bre teo­ría de la éti­ca, por­que la mis­ma, ais­la­da, no fun­cio­na­rá a me­nos que sea par­te de un es­tán­dar pro­fe­sio­nal más am­plio. Sin em­bar­go tam­bién es evi­den­te que los in­di­vi­duos no pue­den cons­truir soft­wa­re so­los y que no to­man sus de­ci­sio­nes equi­vo­ca­das re­pen­ti­na­men­te, sino de una ma­ne­ra in­cre­men­tal”, di­jo West, de Scri­pum.org.

En­se­ñar a la gen­te a ha­cer­se las pre­gun­tas co­rrec­tas im­pli­ca co­no­cer cuá­les son esas pre­gun­tas y com­pren­der que los va­lo­res de ca­da uno son dis­tin­tos, di­jo Bur­ton. Al­gu­nos in­di­vi­duos no tie­nen pro­ble­mas pa­ra tra­ba­jar en soft­wa­re de reac­to­res nucleares, o en el desa­rro­llo de sis­te­mas de in­te­li­gen­cia pa­ra avio­nes no tri­pu­la­dos, de bom­bas in­te­li­gen­tes o de avio­nes mi­li­ta­res.

Bur­ton nos co­men­tó: “La ver­dad es que ya he­mos es­ta­do an­tes aquí y ya es­ta­mos tra­ba­jan­do en ad­mi­tir los ries­gos y las con­se­cuen­cias in­vo­lun­ta­rias. Ya no se tra­ta de si ‘po­de­mos cons­truir­lo’ por­que sa­be­mos que la tec­no­lo­gía y las ca­pa­ci­da­des pa­ra cons­truir lo que que­ra­mos es­tán ahí. La cues­tión es si de­be­mos ha­cer­lo y si la res­pues­ta es afir­ma­ti­va có­mo po­de­mos ha­cer­lo a prue­ba de erro­res y có­mo nos ase­gu­ra­mos que no ge­ne­ra­mos un im­pac­to da­ñino”.

No hay una “res­pues­ta co­rrec­ta” y un có­di­go de éti­ca pro­ba­ble­men­te no so­lu­cio­ne to­das es­tas cues­tio­nes, pe­ro po­dría ser un ele­men­to pa­ra que los in­di­vi­duos y las or­ga­ni­za­cio­nes in­tere­sa­das en apro­ve­char la gran po­ten­cia de la tec­no­lo­gía creen so­lu­cio­nes más sa­tis­fac­to­rias.

Newspapers in Spanish

Newspapers from Costa Rica

© PressReader. All rights reserved.