BOOK RUNNER

¿Las má­qui­nas di­gi­ta­les crean?

Que leer - - En Portada -

Des­de el mons­truo de Fran­kens­tein has­ta el mi­to clá­si­co de Pig­ma­lión, des­de el Go­lem has­ta el ro­bot de Ka­rel Ča­pek, quien acu­ñó el tér­mino, mu­cho se ha fan­ta­sea­do so­bre la po­si­bi­li­dad de cons­truir má­qui­nas in­te­li­gen­tes, an­droi­des con ca­rac­te­rís­ti­cas hu­ma­nas. Aho­ra ha lle­ga­do el mo­men­to de de­jar a un la­do las fan­ta­sías y re­co­no­cer que la in­te­li­gen­cia ar­ti­fi­cial es real. La in­te­li­gen­cia ar­ti­fi­cial per­mi­te que las má­qui­nas sean ca­pa­ces de mu­chas co­sas: el he­cho de que pue­dan apren­der a par­tir de un con­jun­to de da­tos en un es­ce­na­rio su­je­to a una se­rie de res­tric­cio­nes y re­glas cla­ras e in­mu­ta­bles, por ejem­plo, es al­go que lle­va a cien­tos de com­pa­ñías de to­do el mun­do a pa­gar por he­rra­mien­tas que per­mi­ten tal po­si­bi­li­dad. Las má­qui­nas in­te­li­gen­tes pue­den re­co­no­cer imá­ge­nes, par­ti­ci­par en con­ver­sa­cio­nes y, por su­pues­to, son ca­pa­ces de ga­nar a los hu­ma­nos en el aje­drez o en el pó­ker.

MIE­DO A TERMINATOR

En to­dos es­tos ca­sos se plan­tea lo mis­mo: la de­di­ca­ción de la má­qui­na a una ta­rea que se in­ten­ta li­mi­tar de to­das las ma­ne­ras po­si­bles a un es­ce­na­rio com­ple­ta­men­te cog­nos­ci­ble, a un con­jun­to de re­glas fi­jas y a un con­tex­to es­ta­ble en el que, ade­más, es po­si­ble acu­mu­lar y ana­li­zar una gran can­ti­dad de da­tos. Ex­tra­po­lar es­tos ca­sos pa­ra ima­gi­nar una in­te­li­gen­cia «com­ple­ta», un ro­bot ca­paz de tra­tar de ma­ne­ra in­te­li­gen­te una si­tua­ción ge­ne­ral, no li­mi­ta­da ni res­trin­gi­da por una se­rie de re­glas fi­jas, es al­go ten­ta­dor, cier­to, pe­ro no real. Pa­sar de ver al­go­rit­mos ca­pa­ces de cons­truir pro­ce­sos de apren­di­za­je en ta­reas es­pe­cí­fi­cas a ima­gi­nar­se a Sky­net, la red de or­de­na­do­res de Terminator con­ven­ci­da de que tie­ne que aca­bar con la ra­za hu­ma­na, es al­go fá­cil, pe­ro pa­ra con­si­de­rar­lo una reali­dad es pre­ci­so pa­sar por un sin­nú­me­ro de sal­tos con­cep­tua­les que to­da­vía es­tán muy le­jos, si es que en al­gún mo­men­to lle­gan a te­ner al­gún vi­so de reali­dad. Con to­do, el desa­rro­llo de la in­te­li­gen­cia ar­ti­fi­cial plan­tea una se­rie de re­tos ju­rí­di­cos en el ám­bi­to de la res­pon­sa­bi­li­dad. Cues­tio­nes pa­ra de­ba­tir co­mo, por ejem­plo, quién res­pon­de

por los fa­llos o de­li­tos co­me­ti­dos por una má­qui­na in­te­li­gen­te. No de­be re­sul­tar ex­tra­ño, pues, que tam­bién en el ám­bi­to de la pro­pie­dad in­te­lec­tual se plan­teen te­má­ti­cas no­ve­do­sas. Se in­cre­men­tan los pro­gra­mas ca­pa­ces de ge­ne­rar con­te­ni­dos, con­te­ni­dos que pue­den ir des­de una obra pic­tó­ri­ca a un ar­tícu­lo pe­rio­dís­ti­co, pa­san­do por una can­ción de to­na­li­dad pe­ga­di­za e in­clu­so un bes­tse­ller. Ta­les crea­cio­nes se ge­ne­ran a par­tir de al­go­rit­mos y con una selección de con­te­ni­dos en fun­ción de las «de­ci­sio­nes» del pro­gra­ma. Ca­da día au­men­ta su ni­vel de com­ple­ji­dad y ri­que­za, y pron­to re­sul­ta­rá di­fí­cil dis­tin­guir las obras «crea­das» por una má­qui­na in­te­li­gen­te de las rea­li­za­das por un ser hu­mano.

Se plan­tea en­ton­ces la pre­gun­ta so­bre la au­to­ría. En el ám­bi­to de la pro­pie­dad in­te­lec­tual se ha con­si­de­ra­do que so­lo una per­so­na pue­de ser au­to­ra, de mo­do que las obras ge­ne­ra­das por una má­qui­na se­rían «obras sin au­tor», es de­cir, sin res­tric­ción al­gu­na pa­ra su uso, di­fu­sión, trans­for­ma­ción o dis­fru­te por un ter­ce­ro. Na­die os­ten­ta­ría de­re­chos so­bre es­tas obras.

¿SE APUNTARÁN LOS ROBOTS A LA SGAE?

¿Có­mo afron­tar es­te asun­to? Una po­si­bi­li­dad es ne­gar que se ge­ne­ren de­re­chos de au­tor, con lo cual ten­dría­mos esa ex­tra­ña fi­gu­ra de «obras sin au­tor», obras crea­das de for­ma au­tó­no­ma al mar­gen del ser hu­mano, un ti­po de au­to­ría has­ta aho­ra re­ser­va­da a la na­tu­ra­le­za cuan­do «crea» un pai­sa­je. Otra po­si­bi­li­dad es en­ten­der que la pro­pie­dad in­te­lec­tual de una obra ge­ne­ra­da por una má­qui­na in­te­li­gen­te per­te­ne­ce al au­tor del soft­wa­re que, pre­ci­sa­men­te, per­mi­te a la má­qui­na «crear». Hay cier­tas le­gis­la­cio­nes que se de­can­tan por es­ta vía más prác­ti­ca, una vía que re­suel­ve bas­tan­tes pro­ble­mas, pe­ro que no es aje­na a la con­tro­ver­sia, pues el pro­gra­ma­dor es, sin lu­gar a du­da, el au­tor del pro­gra­ma, aun­que es más complejo lle­gar a la con­clu­sión de que es el au­tor de la obra ge­ne­ra­da con su al­go­rit­mo. Si se pien­sa en un es­ce­na­rio en el que el pro­gra­ma­dor crea un soft­wa­re ca­paz de ge­ne­rar una obra ar­tís­ti­ca, pe­ro en el que es el usua­rio (por ejem­plo, en una apli­ca­ción) quien de­be in­tro­du­cir cier­tos pa­rá­me­tros (la te­má­ti­ca o el es­ti­lo es­té­ti­co de la obra re­sul­tan­te), ¿a quién se de­be atri­buir la au­to­ría de la obra?

Las res­pues­tas es­tán en el ai­re. Es sa­bi­do que los cam­bios tec­no­ló­gi­cos afec­tan so­bre­ma­ne­ra a la pro­pie­dad in­te­lec­tual y obli­gan a los ju­ris­tas a afi­nar y pre­ci­sar los dis­tin­tos con­cep­tos ju­rí­di­cos en li­za. Es­ta ten­den­cia au­men­ta día a día y em­pie­za a ser ne­ce­sa­rio re­de­fi­nir los con­cep­tos de au­to­ría, un pri­mer pa­so que, en unas dé­ca­das, po­dría lle­var a con­ce­der «per­so­na­li­dad» a las má­qui­nas in­te­li­gen­tes.

Hay que plan­tear, pues, in­te­rro­gan­tes so­bre el fu­tu­ro y tra­tar de evi­tar con­se­cuen­cias po­ten­cial­men­te ne­ga­ti­vas o no desea­das. Per­se­guir fan­tas­mas y prohi­bir co­sas, por si en al­gu­na es­qui­na aparece Terminator en­tre res­plan­do­res y nu­bes de hu­mo, pue­de lle­var a tra­tar de fre­nar el pro­gre­so. Hay que avan­zar y te­ner cui­da­do con los mie­dos irra­cio­na­les, la des­in­for­ma­ción, la de­ma­go­gia y el po­pu­lis­mo.

El nuevo es­ce­na­rio tec­no­ló­gi­co obli­ga a re­pen­sar el con­cep­to de au­to­ría y a con­si­de­rar, por ejem­plo, que hay obras sin au­tor, pe­ro con un de­re­cho de di­fu­sión y ex­plo­ta­ción a fa­vor del pro­pie­ta­rio del soft­wa­re que las ge­ne­ró.

Es com­pli­ca­do re­gu­lar una tec­no­lo­gía o con­jun­to de tec­no­lo­gías an­tes de que se desa­rro­llen. Y es que to­da re­gu­la­ción par­te de una ba­se pro­ble­má­ti­ca: tien­de a ba­sar­se en la res­tric­ción de po­si­bi­li­da­des, una res­tric­ción que im­po­si­bi­li­ta la apli­ca­ción de di­cha re­gu­la­ción en un mun­do en el que, ca­si siem­pre, tie­ne un ám­bi­to es­tric­ta­men­te te­rri­to­rial. Los in­ten­tos de re­gu­la­ción a ni­vel glo­bal son po­cos y, por lo ge­ne­ral, con de­sigual ni­vel de cum­pli­mien­to. Aún así, hay que de­ba­tir y apos­tar pa­ra avan­zar.

Newspapers in Spanish

Newspapers from Spain

© PressReader. All rights reserved.