¿ Por qué la in­te­li­gen­cia ar­ti­fi­cial da miedo?

Mu­chos creen que la in­te­li­gen­cia ar­ti­fi­cial se­rá el monstruo del fu­tu­ro; ¿a qué se le te­me?

El Observador Fin de Semana - Cromo - - PORTADA -

A lo des­co­no­ci­do­no­ci­do

En el área de in­te­li­gen­cia eli­gen­cia ar­ti­fi­cial, los téc­ni­cos exa­mi­nan mi­nan las úl­ti­mas in­ves­ti­ga­cio­nes en cien­cia cog­ni­ti­va, tra­du­cen eso en un al­go­rit­mo y lo aña­den a un sis­te­ma exis­ten­te. Se tra­ba­ja con n la in­te­li­gen­cia ar­ti­fi­cial sin en­ten­dern­der pri­me­ro a la in­te­li­gen­cia o la cog­ni­ción. Sis­te­mas co­mo Wat­son, de IBM, y Alp­ha­go, de Goo­gle,oo­gle, usan re­des neu­ro­na­les ar­ti­fi­cia­les cia­les con enor­me po­der de compu­tación ta­ción y lo­gran ha­za­ñas im­pre­sio­nan­tes. onan­tes. Pe­ro si es­tas má­qui­nas co­me­ten erro­res, no cam­bian el mun­do. un­do. Cla­ro que a me­di­da que los di­se­ños se vuel­van más com­ple­jos y los pro­ce­sa­do­res más rápidos, me­jo­ra­rán jo­ra­rán sus ha­bi­li­da­des. Eso les da­ráa­rá más res­pon­sa­bi­li­dad y au­men­ta­rán­ta­rá el ries­go de con­se­cuen­ciass im­pre­vis­tas. Co­mo se di­ce, “errar rrar es hu­mano” y es imposible crear ear un sis­te­ma ver­da­de­ra­men­te se­gu­ro.

Al mal uso

En úl­ti­ma ins­tan­cia, se es­pe­ra crear in­te­li­gen­cia ar­ti­fi­cial al mis­mo ni­vel que la hu­ma­na. Una po­si­bi­li­dad es que se use su evo­lu­ción pa­ra in­fluir en la éti­ca de los sis­te­mas de in­te­li­gen­cia ar­ti­fi­cial. Es pro­ba­ble que la éti­ca y la mo­ra­li­dad, co­mo la con­fian­za y el al­truis­mo, sean el re­sul­ta­do de la evo­lu­ción hu­ma­na. Po­dría­mos es­ta­ble­cer ven­ta­jas evo­lu­ti­vas a las má­qui­nas que de­mues­tran bon­dad, ho­nes­ti­dad y em­pa­tía, lo que po­dría ser una ma­ne­ra de ase­gu­rar ser­vi­do­res más obe­dien­tes y con­fia­bles y me­nos ro­bots des­pia­da­dos. Si bien la neu­ro­evo­lu­ción pue­de re­du­cir la pro­ba­bi­li­dad de con­se­cuen­cias no desea­das, no evi­ta el uso in­de­bi­do. Esa es una cues­tión mo­ral.

A las prio­ri­da­des so­cia­les erró­neas

Co­mo so­cie­dad, to­da­vía no he­mos lle­ga­do a te­ner una idea cla­ra de lo que que­re­mos que ha­ga la in­te­li­gen­cia ar­ti­fi­cial. Por su­pues­to, es­to es por­que to­da­vía no sabemos de qué es ca­paz. Los ro­bots ya es­tán ha­cien­do tra­ba­jos fí­si­cos co­mo sol­dar pie­zas de vehícu­los. Un día, tam­bién po­drán ha­cer ta­reas cog­ni­ti­vas que una vez pen­sa­mos que eran ex­clu­si­va­men­te hu­ma­nas. En la so­cie­dad ac­tual, la au­to­ma­ti­za­ción em­pu­ja a la gen­te fue­ra de los pues­tos de tra­ba­jo, ha­cien­do que las per­so­nas que po­seen las má­qui­nas sean más ri­cas y to­dos los de­más, más po­bres. Es­to es un pro­ble­ma so­cio­eco­nó­mi­co. La so­cie­dad de­be ser ca­paz de crear in­te­li­gen­cia ar­ti­fi­cial be­ne­fi­cio­sa en lu­gar de au­men­tar la dis­cre­pan­cia.

A un es­ce­na­rio de pe­sa­di­llas

H Hay un úl­ti­mo te­mor, en­car­na­do p por HAL 9000, Ter­mi­na­tor y cualq quier otras de las su­per­in­te­li­genc cias fic­ti­cias: si con­ti­núa me­jo­rand do has­ta su­pe­rar a la hu­ma­na, ¿ ¿po­dre­mos evitar ser bo­rra­dos de l la faz de la Tie­rra por las má­quin nas que ayu­da­mos a crear? La p pre­gun­ta cla­ve en es­te es­ce­na­rio e es: ¿por qué una su­per­in­te­li­gen­cia d de­be man­te­ner­nos? Afor­tu­na­dam men­te, to­da­vía no ne­ce­si­ta­mos j jus­ti­fi­car nues­tra exis­ten­cia. T Te­ne­mos cier­to tiem­po: en­tre

5 50 y 250 años, de­pen­dien­do de c có­mo avan­ce la tec­no­lo­gía. To­dos, i in­di­vi­dual­men­te y co­mo so­cie­dad, n ne­ce­si­ta­mos pre­pa­rar­nos pa­ra ese e es­ce­na­rio, usan­do el tiem­po que n nos que­da pa­ra de­mos­trar por q qué de­be­mos se­guir exis­tien­do. I In­de­pen­dien­te­men­te de las ame­na­zas fí­si­cas, una su­per­in­te­li­gen­cia tam­bién re­pre­sen­ta un pe­li­gro

po­lí­ti­co y eco­nó­mi­co.

Newspapers in Spanish

Newspapers from Uruguay

© PressReader. All rights reserved.