Ame­na­za in­te­li­gen­te

Ex­per­tos ad­vier­ten que los avan­ces de la IA se pue­den sa­lir de con­trol.

Milenio - Mercados Milenio - - AGENDA - RI­CHARD WA­TERS

Los rá­pi­dos avan­ces en la in­te­li­gen­cia ar­ti­fi­cial ( IA), si se sa­len de con­trol, pron­to po­drían lle­var a nue­vos bro­tes ma­lé­vo­los de no­ti­cias fal­sas, ata­ques ci­ber­né­ti­cos y a la in­fra­es­truc­tu­ra fí­si­ca del mun­do, ad­vier­te un gru­po de ex­per­tos.

Pe­ro mien­tras se­ña­la el ries­go de ame­na­zas in­mi­nen­tes, el gru­po, com­pues­to por in­ves­ti­ga­do­res de IA y aso­cia­cio­nes de li­ber­ta­des ci­vi­les, no pre­sen­ta su­ge­ren­cias só­li­das so­bre có­mo evi­tar el mal uso de una de las nue­vas tec­no­lo­gías más po­de­ro­sas del mun­do.

En un re­cien­te in­for­me, de nom­bre The

Ma­li­cious Use of Ar­ti­fi­cial In­te­lli­gen­ce, los au­to­res ad­vier­ten que si los avan­ces en la IA con­ti­núan a su rit­mo ac­tual, pron­to la tec­no­lo­gía se­rá tan po­de­ro­sa que po­dría su­pe­rar a mu­chos de los me­ca­nis­mos de de­fen­sa que se in­cor­po­ran en los sis­te­mas di­gi­ta­les y fí­si­cos ac­tua­les.

“Lo que nos sor­pren­de a mu­chos de no­so­tros es cuán­to ha ocu­rri­do en los últimos cin­co años. Si eso con­ti­nua, se ve­rá la po­si­bi­li­dad de crear co­sas real­men­te pe­li­gro­sas”, di­jo Jack Clark, di­rec­tor de po­lí­ti­cas de Ope­nAI, un gru­po de IA con se­de en San Francisco, Ca­li­for­nia, cu­yos pa­tro­ci­na­do­res in­clu­yen a Elon Musk y Pe­ter Thiel.

La in­te­li­gen­cia ar­ti­fi­cial fa­ci­li­ta­rá a los agre­so­res re­du­cir el cos­to pa­ra di­se­ñar nue­vas ar­mas ci­ber­né­ti­cas, al mis­mo tiem­po que per­mi­ti­rá crear ata­ques di­ri­gi­dos con una ma­yor pre­ci­sión, ad­vier­ten los ex­per­tos. En el cam­po de las ar­mas ci­ber­né­ti­cas, es­to po­dría con­du­cir a ata­ques mu­cho más efec­ti­vos de spear phis­hing, con ata­ques es­pe­cí­fi­cos por ca­da ob­je­ti­vo.

El in­for­me tam­bién ad­vier­te que se po­dría to­mar con­trol so­bre los dro­nes y los co­ches de au­to­con­duc­ción y uti­li­zar­los co­mo ar­mas, y que la IA ma­li­cio­sa po­dría usar­se pa­ra or­ga­ni­zar en­jam­bres de dro­nes.

Mien­tras tan­to, se po­drían hac­kear los sis­te­mas po­lí­ti­cos me­dian­te el uso de he­rra­mien­tas desa­rro­lla­das pa­ra la pu­bli­ci­dad y el co­mer­cio en lí­nea con la fi­na­li­dad de ma­ni­pu­lar a los elec­to­res de cual­quier país, apro­ve­chan­do una “me­jor ca­pa­ci­dad pa­ra ana­li­zar el com­por­ta­mien­to hu­mano, es­ta­dos de áni­mo y creen­cias so­bre la ba­se de los da­tos dis­po­ni­bles”.

Clark di­jo que los pri­me­ros de­ba­tes so­bre la edi­ción genética Crispr obli­gó al gru­po, que in­clu­ye in­ves­ti­ga­do­res de la Uni­ver­si­dad de Ox­ford y de la Elec­tro­nic Fron­tier Foun­da­tion, a con­vo­car a un de­ba­te pú­bli­co más ge­ne­ral so­bre las ame­na­zas que re­pre­sen­ta la IA. Sin em­bar­go, a pe­sar de ins­tar a los in­ves­ti­ga­do­res a pen­sar so­bre la naturaleza del “do­ble uso” de las tec­no­lo­gías en las que tra­ba­ja — y lla­mar a una ma­yor dis­cu­sión con los go­bier­nos so­bre esos te­mas— no pre­sen­ta re­co­men­da­cio­nes es­pe­cí­fi­cas pa­ra em­pren­der.

En un ejem­plo so­bre có­mo los in­ves­ti­ga­do­res pue­den co­men­zar a li­mi­tar su tra­ba­jo pa­ra te­ner en cuen­ta los ries­gos po­ten­cia­les, el año pa­sa­do Ope­nAI res­trin­gió el lan­za­mien­to de una neu­ro­na de sen­ti­mien­to sin su­per­vi­sión, un al­go­rit­mo al que se en­tre­nó pa­ra en­ten­der los sen­ti­mien­tos al leer las re­se­ñas en Ama­zon. El gru­po de­ci­dió man­te­ner pa­ra el sis­te­ma pri­va­do el mo­de­lo de len­gua­je que desa­rro­lló, pa­ra evi­tar un mal uso del al­go­rit­mo que po­dría ge­ne­rar una tor­men­ta en re­se­ñas fal­sas.

Los ries­gos. Los avan­ces tec­no­ló­gi­cos pue­den lle­gar a re­du­cir sus­tan­cial­men­te los cos­tos pa­ra pro­du­cir ar­mas ci­ber­né­ti­cas.

Newspapers in Spanish

Newspapers from Mexico

© PressReader. All rights reserved.