El ci­ber­cri­men en los tiem­pos de la In­te­li­gen­cia Ar­ti­fi­cial

Los ata­ques in­for­má­ti­cos cues­tan a las em­pre­sas cer­ca de US400.000 mi­llo­nes al año. ¿Qué al­ter­na­ti­vas tie­nen las com­pa­ñías pa­ra evi­tar la pér­di­da de clien­tes y con­ser­var su repu­tación?

Mercados & Tendencias El Salvador - - TECNOLOGÍA - Por Da­vid Cas­ta­ñe­da, vi­ce­pre­si­den­te de in­ves­ti­ga­ciòn y Desa­rro­llo de Easy So­lu­tion.

El uso de la In­te­li­gen­cia Ar­ti­fi­cial en­tre­ga in­du­da­bles bon­da­des a las em­pre­sas, pe­ro tam­bién pue­de ser una he­rra­mien­ta útil pa­ra el ci­ber­cri­men. Por es­ta ra­zón a me­di­da que cre­ce el uso de in­ter­net y la tec­no­lo­gía va evo­lu­cio­nan­do, así mis­mo de­be avan­zar la se­gu­ri­dad y las for­mas de com­ba­tir el frau­de elec­tró­ni­co.

Los em­pre­sa­rios de­ben te­ner cla­ro que hoy una so­lu­ción ade­cua­da pa­ra la pro­tec­ción con­tra las di­fe­ren­tes ame­na­zas es la im­ple­men­ta­ción de una pla­ta­for­ma con di­fe­ren­tes ni­ve­les de so­lu­cio­nes con­tra frau­de, pa­ra que las ame­na­zas que no sean de­te­ni­das por una ca­pa o en una ins­tan­cia sean de­tec­ta­das por otra.

Las mis­mas téc­ni­cas de IA que crean in­creí­ble con­ve­nien­cia pa­ra los usua­rios fi­na­les, tam­bién pue­den ser usa­das pa­ra crear caos y da­ñar a usua­rios y ne­go­cios. A me­di­da que los cri­mi­na­les ob­ten­gan me­jor en­ten­di­mien­to de có­mo fun­cio­na el ma­chi­ne lear­ning, em­pe­za­rán a mo­di­fi­car su soft­wa­re y téc­ni­cas de ata­que pa­ra ex­ce­der las ca­pa­ci­da­des de al­gu­nos al­go­rit­mos.

En es­te es­ce­na­rio Easy So­lu­tions la com­pa­ñía que aho­ra es par­te de Cyx­te­ra Tech­no­lo­gies, reali­zó un ex­pe­ri­men­to en el que su equi­po de in­ves­ti­ga­ción y desa­rro­llo, se plan­teó la si­guien­te hi­pó­te­sis: ¿ Qué tal si los es­ta­fa­do­res em­plean la In­te­li­gen­cia Ar­ti­fi­cial pa­ra crear URL o di­rec­cio­nes es­pe­cí­fi­cas en In­ter­net más efec­ti­vas que pue­dan eva­dir el soft­wa­re de de­tec­ción?

En el mar­co de es­te ejer­ci­cio, los ex­per­tos desa­rro­lla­ron un ge­ne­ra­dor de URL ba­sa­do en In­te­li­gen­cia Ar­ti­fi­cial. Con es­to se pu­do mo­de- lar lo que X ban­da de de­lin­cuen­tes muy pro­ba­ble­men­te ha­ría con la In­te­li­gen­cia Ar­ti­fi­cial: crear rá­pi­da­men­te una gran can­ti­dad de URL es­pe­cí­fi­ca­men­te di­se­ña­das pa­ra mi­ni­mi­zar la de­tec­ción de los sis­te­mas an­ti­frau­de y ma­xi­mi­zar el éxi­to de los ata­ques de phis­hing. Al au­to­ma­ti­zar la ge­ne­ra­ción de URL, la efi­cien­cia ope­ra­cio­nal me­jo­ra dra­má­ti­ca­men­te.

Pa­ra au­to­ma­ti­zar la ge­ne­ra­ción de URL, se uti­li­za­ron los da­tos de ata­ques pre­vios de XXXX, in­clu­yen­do URL, ins­ti­tu­ción afec­ta­da, do­mi­nio com­pro­me­ti­do, en­tre otros. ¿ Qué su­ce­dió cuan­do la ban­da em­pe­zó a em­plear IA ma­li­cio­sa? ¡ La ta­sa de éxi­to se in­cre­men­tó en 3000%!

En la úl­ti­ma fa­se del ex­pe­ri­men­to, los ex­per­tos uti­li­za­ron to­da la in­for­ma­ción re­ca­ba­da pa­ra me­jo­rar su sis­te­ma de In­te­li­gen­cia Ar­ti­fi­cial y así com­ba­tir a los ci­ber­de­lin­cuen­tes uti­li­zan­do las lec­cio­nes apren­di­das.

Con es­te ex­pe­ri­men­to que­da cla­ro que la ame­na­za es muy pe­li­gro­sa, sin em­bar­go, la so­lu­ción pa­ra la in­te­li­gen­cia ar­ti­fi­cial ma­li­cio­sa es­tá en sí mis­ma, es de­cir que la úni­ca al­ter­na­ti­va es com­ba­tir la IA con IA en­ten­dien­do sus ca­rac­te­rís­ti­cas.

Tres lec­cio­nes pa­ra la em­pre­sa 1

La In­te­li­gen­cia Ar­ti­fi­cial (IA) da la opor­tu­ni­dad de me­jo­rar los sis­te­mas de se­gu­ri­dad y en­tre­nar al al­go­rit­mo pa­ra que se an­ti­ci­pe al uso de IA ma­li­cio­sa ya que per­mi­te ana­li­zar la es­tra­te­gia de otros gru­pos ca­pa­ces de apro­ve­char la In­te­li­gen­cia Ar­ti­fi­cial. Al en­ten­der sus tác-

ti­cas, po­de­mos me­jo­rar más rá­pi­da­men­te nues­tros pro­pios sis­te­mas pa­ra de­rro­tar­los.

2

La In­te­li­gen­cia Ar­ti­fi­cial uti­li­za al­go­rit­mos in­te­li­gen­tes pa­ra iden­ti­fi­car pa­tro­nes nue­vos y co­no­ci­dos, por es­to en la ac­tua­li­dad la ta­sa de de­tec­ción de las URL de phis­hing es de has­ta un 98.7%.

3

In­clu­so si los ci­ber­cri­mi­na­les em­plean la IA pa­ra lan­zar ata­ques más ne­fas­tos, es­ta­mos pre­pa­ra­dos con tec­no­lo­gía más fuer­te y efi­caz. En la ba­ta­lla de IA con­tra IA, siem­pre es­ta­re­mos un pa­so ade­lan­te.

Im­pac­to mi­llo­na­rio

Se­gún el es­tu­dio Vi­sión de los Con­su­mi­do­res La­ti­noa­me­ri­ca­nos so­bre el Frau­de Elec­tró­ni­co 2015 el cre­ci­mien­to de la Ban­ca Mó­vil en Cen­tro Amé­ri­ca pa­só de un uso del 52% en el 2014 al 56% en el 2015. Es­to in­du­da­ble­men­te de­mues­tra que ca­da vez ve­re­mos más mo­da­li­da­des de frau­de que re­que­ri­rán una so­lu­ción proac­ti­va, fren­te a un mun­do ca­da vez más di­gi­tal y mó­vil.

De acuer­do con la com­pa­ñía de se­gu­ros ci­ber­né­ti­cos, Lloyds, los ci­ber­cri­me­nes les cues­tan a las em­pre­sas cer­ca de US400.000 mi­llo­nes al año y es­ta ci­fra va en au­men­to. Es más, el 83% de las or­ga­ni­za­cio­nes que su­frie­ron al­gún in­ci­den­te de frau­de ex­pe­ri­men­ta­ron pér­di­da de clien­tes, de repu­tación o de pro­duc­ti­vi­dad. Tam­bién se vie­ron in­mer­sos en va­rios pro­ble­mas re­gu­la­to­rios. Un so­fis­ti­ca­do ata­que de frau­de pue­de ser per­ju­di­cial pa­ra cual­quier or­ga­ni­za­ción, pe­ro pue­de ser ab­so­lu­ta­men­te abru­ma­dor pa­ra pe­que­ñas em­pre­sas que no tie­nen los me­dios pa­ra re­cu­pe­rar­se.

En el 11° In­for­me Anual de Ci­ber­se­gu­ri­dad de Cis­co® 2018, los pro­fe­sio­na­les de se­gu­ri­dad ci­ber­né­ti­ca di­je­ron que, pa­ra re­du­cir las po­si­bi­li­da­des de ata­ques, in­ver­ti­rían y apro­ve­cha­rían ca­da vez más las he­rra­mien­tas que usan In­te­li­gen­cia Ar­ti­fi­cial y el ma­chi­ne lear­ning. Ade­más, de acuer­do con los en­cues­ta­dos en el es­tu­dio, más de la mi­tad de to­dos los ata­ques re­sul­ta­ron en da­ños fi­nan­cie­ros de más de US $500,000 que in­clu­yen, en­tre otros, la pér­di­da de in­gre­sos, clien­tes, opor­tu­ni­da­des y cos­tos de des­em­bol­so di­rec­to.

La im­ple­men­ta­ción de sis­te­mas au­to­ma­ti­za­dos de mo­ni­to­reo ba­sa­dos en in­te­li­gen­cia ar­ti­fi­cial y tec­no­lo­gía de ma­chi­ne lear­ning pue­de de­te­ner ata­ques an­tes de que pue­dan ser com­ple­ta­dos. El mo­ni­to­reo de re­des so­cia­les, cam­pa­ñas de phis­hing, apli­ca­cio­nes fal­sas y malwa­re, com­ple­men­ta­do con una ágil es­tra­te­gia de des­ac­ti­va­ción, pue­de in­clu­so ayu­dar a pre­ve­nir el lan­za­mien­to de un ata­que.

De acuer­do con in­ves­ti­ga­cio­nes de la com­pa­ñía, pa­ra fi­na­les de 2020, las or­ga­ni­za­cio­nes que no apro­ve­chen las téc­ni­cas de ma­chi­ne lear­ning y de au­ten­ti­ca­ción mul­ti­fac­to­rial avan­za­da se­rán in­ca­pa­ces de es­tar al tan­to de las de­man­das del usua­rio fi­nal en la era di­gi­tal. Y las or­ga­ni­za­cio­nes que no im­ple­men­ten las más re­cien­tes es­tra­te­gias de pro­tec­ción con­tra frau­de pro­ba­ble­men­te des­cu­bri­rán que, en 2018 y los años si­guien­tes, les cos­ta- rá mu­cho tra­ba­jo man­te­ner su po­si­ción en el mer­ca­do y per­ma­ne­cer re­le­van­tes en su in­dus­tria.

Los ci­ber­cri­mi­na­les no son es­tú­pi­dos. Su me­ta fi­nal es ro­bar la ma­yor can­ti­dad de di­ne­ro con el mí­ni­mo es­fuer­zo. Al igual que un la­drón que pre­fie­re asal­tar ho­ga­res con puer­tas sin ce­rro­jo, los ci­ber­cri­mi­na­les op­tan por apun­tar sus mi­ras a sis­te­mas dé­bi­les. Las com­pa­ñías que tie­nen va­cíos en sus sis­te­mas de prevención del frau­de se vuel­ven blan­cos más gran­des pa­ra los ata­can­tes. Por eso, hoy to­das las em­pre­sas de­ben con­tar con un en­fo­que ho­lís­ti­co, mul­ti­ni­vel, mul­ti­ca­pas den­tro de una es­tra­te­gia de pro­tec­ción de ame­na­zas di­gi­ta­les, sien­do la tec­no­lo­gía de ma­chi­ne lear­ning y la in­te­li­gen­cia ar­ti­fi­cial ( IA) los com­po­nen­tes esen­cia­les de cual­quier es­tra­te­gia efec­ti­va de de­fen­sa an­ti­frau­de.

Newspapers in Spanish

Newspapers from El Salvador

© PressReader. All rights reserved.