¿CÓ­MO PRO­BAR UN ME­JOR EN­TORNO AGI­LE DE DA­TA WAREHOUSE?

Te­ner una só­li­da es­tra­te­gia de en­sa­yo y una he­rra­mien­ta de con­jun­to es una par­te fun­da­men­tal de per­mi­tir el desa­rro­llo de al­ma­ce­na­mien­to de da­tos agi­le.

IT Now Honduras - - MANAGEMENT - CIO

El da­ta warehouse o al­ma­cen de da­tos, se­rá un re­cur­so es­tra­té­gi­co de la em­pre­sa y una de las de­bi­li­da­des que te­ne­mos en la co­mu­ni­dad, lo que ayu­da a ex­pli­car los pro­ble­mas de ca­li­dad de la in­for­ma­ción que si­guen su­frien­do en los al­ma­ce­nes de da­tos de pro­duc­ción.

pre­di­ce que pa­ra el año 2017, el 33% de las com­pa­ñías ex­pe­ri­men­ta­rán una cri­sis de in­for­ma­ción de­bi­do a su in­ca­pa­ci­dad pa­ra pla­ni­fi­car ade­cua­da­men­te el va­lor, go­bierno y con­fian­za en su in­for­ma­ción de la em­pre­sa. Un en­fo­que de com­pro­ba­ción pue­de ayu­dar a evi­tar (o al me­nos mi­ni­mi­zar) una cri­sis así.

Desa­rro­llar un buen plan y eje­cu­tar prue­bas de pro­ce­so de al­ma­ce­na­mien­to end to end pue­de ayu­dar­lo a evi­tar gra­ves ries­gos re­la­cio­na­dos con los da­tos. Cuan­do se mue­ve con el desa­rro­llo agi­le, te­ne­mos la opor­tu­ni­dad de ha­cer sig­ni­fi­ca­ti­va­men­te más prue­bas que lo que ocu­rre tí­pi­ca­men­te en los pro­yec­tos tra­di­cio­na­les.

Pa­ra ello se pue­den ha­cer prue­bas en el desa­rro­llo pa­ra­le­lo, re­vi­sio­nes de có­di­go, prue­bas QA, prue­bas de re­gre­sión y man­te­ni­mien­to

A me­di­da que avan­za­mos en el desa­rro­llo agi­le de al­ma­ce­na­mien­to de da­tos, crea­mos un cier­to rit­mo de las ac­ti­vi­da­des. Las prio­ri­da­des de ne­go­cio de­be­rían guiar nues­tro sprint

Gart­ner

bac­klock , los desa­rro­lla­do­res tra­ba­ja­rán en se­ries de ca­sos de uso de es­ta car­te­ra prio­ri­za­da en 2 se­ma­nas (o lo que sea el tiem­po de ci­clo apro­pia­do), el desa­rro­llo QA in­de­pen­dien­te ocu­rri­rá du­ran­te el sprint en pa­ra­le­lo, la com­pro­ba­ción de los re­sul­ta­dos de desa­rro­llo y con­trol de ca­li­dad aña­di­rá un ma­yor ni­vel de con­fian­za en los re­sul­ta­dos.

Ade­más de la im­ple­men­ta­ción pa­ra el me­dio am­bien­te QA / UAT al fi­nal del ci­clo de desa­rro­llo es el si­guien­te, las prue­bas de con­trol de ca­li­dad in­te­gra­do y UAT pue­den ocu­rrir de­trás de sprint y el des­plie­gue de pro­duc­ción pue­de agru­par ca­rre­ras to­man­do lu­gar en los co­mu­ni­ca­dos, siem­pre y cuan­do pa­se to­das las prue­bas.

Las prue­bas de con­trol de ca­li­dad se crean en el desa­rro­llo, lue­go se mue­ven al me­dio am­bien­te QA/ UAT con­trol de ca­li­dad, y lue­go pa­san al en­torno de pro­duc­ción. Co­mo re­sul­ta­do, te­ne­mos una ca­pa­ci­dad de prue­bas de re­gre­sión ro­bus­ta au­to­ma­ti­za­da den­tro de ca­da en­torno. Los ca­sos de prue­ba tam­bién pue­den eje­cu­tar to­das las no­ches en la pro­duc­ción pa­ra el mo­ni­to­reo con­ti­nuo de la ca­li­dad. Es­to lue­go pue­de ali­men­tar en nues­tras ca­pa­ci­da­des de ca­li­dad de da­tos, ya que la prue­ba se pue­de eje­cu­tar de for­ma fre­cuen­te pa­ra ase­gu­rar una ca­li­dad cons­tan­te. Gart­ner pre­di­ce que pa­ra el año 2017, el 33% de las com­pa­ñías ex­pe­ri­men­ta­rán una cri­sis de in­for­ma­ción de­bi­do a su in­ca­pa­ci­dad pa­ra pla­ni­fi­car ade­cua­da­men­te el va­lor, go­bierno y con­fian­za en su in­for­ma­ción de la em­pre­sa.

Pa­ra ga­ran­ti­zar que se si­ga una fuer­te prác­ti­ca de prue­ba, po­dría­mos po­ner un con­jun­to es­tán­dar de ta­reas en la ma­yo­ría de los ca­sos de uso.

Pri­me­ro la he­rra­mien­ta de va­li­da­ción de da­tos au­to­ma­ti­za­da que im­ple­men­ta­mos pue­de uti­li­zar las mis­mas prue­bas pa­ra las prue­bas uni­ta­rias, prue­bas de in­te­gra­ción, prue­bas de re­gre­sión y el mo­ni­to­reo de la ca­li­dad de da­tos en cur­so de la pro­duc­ción.

Se­gun­do la prue­ba se desa­rro­lló du­ran­te el desa­rro­llo en pa­ra­le­lo fa­ci­li­tan­do el desa­rro­llo ágil, ya que el desa­rro­llo y la prue­ba se pue­den com­ple­tar en una so­la ca­rre­ra de ve­lo­ci­dad. Me­dian­te la eje­cu­ción de los dos ca­sos de prue­ba de ETL y de for­ma pa­ra­le­la, los des­ajus­tes en los re­sul­ta­dos pue­den apun­tar a un de­fec­to de có­di­go ETL, un de­fec­to de có­di­go de ca­so de prue­ba, o un de­fec­to en nues­tro ori­gen al des­tino es­pe­ci­fi­ca­cio­nes.

Ter­ce­ro, im­ple­men­tar una ca­pa­ci­dad ro­bus­ta de prue­ba fue una lec­ción apren­di­da pa­ra mi equi­po cuan­do em­pe­za­mos el desa­rro­llo de al­ma­ce­na­mien­to de da­tos. Ini­cial­men­te, nues­tro equi­po QA pro­bó ma­nual­men­te ca­da his­to­ria de usua­rio des­pués de las dos se­ma­nas sprint y des­pués del desa­rro­llo/ la uni­dad de prue­ba es­ta­ba com­ple­ta. Hu­bo va­rios re­tos con es­te en­fo­que.

Una vez que em­pe­za­mos el desa­rro­llo pa­ra­le­lo y las prue­bas en un úni­co es­print, fui­mos ca­pa­ces de con­cen­trar­nos en el mis­mo con­jun­to de ca­sos de uso, y tam­bién desa­rro­llar ca­pa­ci­da­des re­uti­li­za­bles de prue­ba.

Sin em­bar­go, nos lle­vó mu­cho tiem­po re­cu­pe­rar­nos de es­ta su­per­vi­sión. Tu­vi­mos una lar­ga lis­ta de his­to­rias de usua­rio que no te­nían prue­bas re­uti­li­za­bles desa­rro­lla­das. Nos to­ma­mos el tiem­po de desa­rro­llar és­tas en el trans­cur­so de va­rios me­ses. Tam­bién hi­ci­mos el com­pro­mi­so de desa­rro­llar en pa­ra­le­lo to­das las fu­tu­ras his­to­rias de usua­rio así no acu­mu­la­mos deu­das téc­ni­cas en es­ta área en el fu­tu­ro.

Newspapers in Spanish

Newspapers from Honduras

© PressReader. All rights reserved.