Los al­go­rit­mos de in­te­li­gen­cia ar­ti­fi­cial pue­den des­con­tro­lar­se

El Observador Fin de Semana - Cromo - - INFORME -

El mie­do que exis­te se re­du­ce a lo que se llama “sin­gu­la­ri­dad”, que es el mo­men­to en el cual la su­ma del po­der cog­ni­ti­vo de to­das las compu­tado­ras se equi­pa­ra­rá a la ca­pa­ci­dad de pen­sa­mien­to de to­dos los se­res hu­ma­nos. “En es­te con­tex­to, el mie­do ge­ne­ral de las per­so­nas acer­ca de la in­te­li­gen­cia ar­ti­fi­cial se da más vin­cu­la­do a es­ta tec­no­lo­gía apli­ca­da a la ro­bó­ti­ca. Hoy los ro­bots, más allá de al­gún avan­ce, siguen sien­do tor­pes y no tie­nen el avan­ce en mo­vi­mien­to que ya se lo­gró a ni­vel de soft­wa­re res­pec­to a la ca­pa­ci­dad cog­ni­ti­va”, ex­pli­có D’ales­san­dro. Con to­do, el mie­do ge­ne­ra­li­za­do es­tá en­fo­ca­do en lo fí­si­co a par­tir de las tres le­yes de la ro­bó­ti­ca que postuló Isaac Asi­mov: un ro­bot no ha­rá da­ño a un ser hu­mano o, por inac­ción, per­mi­ti­rá que un ser hu­mano su­fra da­ño; un ro­bot de­be cum­plir las ór­de­nes da­das por los se­res hu­ma­nos a ex­cep­ción de aque­llas que en­tra­sen en con­flic­to con la pri­me­ra ley; y un ro­bot de­be pro­te­ger su pro­pia exis­ten­cia en la medida en que es­ta pro­tec­ción no en­tre en con­flic­to con la pri­me­ra o con la se­gun­da ley. El ex­per­to agre­gó que, en reali­dad, no hay na­da que te­mer: “La in­te­li­gen­cia ar­ti­fi­cial apli­ca­da a la ro­bó­ti­ca es­tá atra­sa­da com­pa­ra­da con la ca­pa­ci­dad que lo­gró la in­te­li­gen­cia ar­ti­fi­cial en un compu­tado­ra, en una má­qui­na o en un ser­vi­dor”.

Newspapers in Spanish

Newspapers from Uruguay

© PressReader. All rights reserved.