¿Es­cri­bir por da­tos?

Gi­lad Lo­tan es el vi­ce­pre­si­den­te de una com­pa­ñía de me­dios que usa el aná­li­sis de da­tos y la in­te­li­gen­cia ar­ti­fi­cial pa­ra ha­cer y mo­ni­to­rear su con­te­ni­do pe­rio­dís­ti­co. Ar­ca­dia ha­bló con él an­tes de su via­je a Me­de­llín, so­bre la re­vo­lu­cio­na­ria ma­ne­ra de ha

Arcadia - - ESPECIAL PERIODISMO - As­trid Har­ders* Nue­va York *Pe­rio­dis­ta y edi­to­ra. Ac­tual­men­te es­cri­be ar­tícu­los y guio­nes pa­ra Stu­dio@giz­mo­do (Uni­vi­sión)

“To­da in­for­ma­ción es im­por­tan­te si es­tá conectada a otra”. Um­ber­to Eco

Co­mo pe­rio­dis­ta uno tie­ne la res­pon­sa­bi­li­dad de in­for­mar, así la no­ti­cia sea bue­na o ma­la, así la no­ti­cia le gus­te a la gen­te o no. Pe­ro ¿qué pa­sa cuan­do la gen­te no con­su­me lo que no le gus­ta? Y si la gen­te pre­fie­re con­su­mir so­lo lo que le gus­ta, ¿de­be­ría­mos pu­bli­car más de eso? La res­pues­ta es mu­cho más com­ple­ja de lo que pa­re­ce.

Vi­vi­mos en un mun­do lleno de rui­do, con una abun­dan­cia de in­for­ma­ción sin pre­ce­den­tes. La pe­lea por cap­tar la aten­ción de una au­dien­cia es, en­ton­ces, ca­da día más agu­da. Por eso los me­dios de co­mu­ni­ca­ción han op­ta­do por es­tu­diar a sus au­dien­cias, detectar qué les gus­ta, có­mo les gus­ta, pa­ra así bus­car ase­gu­rar un diá­lo­go con ellas. Y lo es­tán ha­cien­do a tra­vés del aná­li­sis de da­tos, de las mé­tri­cas y, a ve­ces, de in­te­li­gen­cia ar­ti­fi­cial.

Aun­que la in­ten­ción es ló­gi­ca, es­ta di­ná­mi­ca abre di­le­mas fren­te al ofi­cio pe­rio­dís­ti­co. ¿Dón­de que­da el lí­mi­te en­tre sa­tis­fa­cer los gus­tos del pú­bli­co y re­por­tar co­sas que la gen­te de­be­ría sa­ber, pe­ro no ne­ce­sa­ria­men­te coin­ci­den con sus gus­tos? Em­pe­ce­mos por ver unos ejem­plos con­cre­tos.

En 1992,en una era prein­ter­net, el hu­ra­cán An­drew de­vas­tó las Baha­mas y el sur de Es­ta­dos Uni­dos, so­bre to­do la Flo­ri­da. Los da­ños es­ti­ma­dos fue­ron de 26.500 mi­llo­nes de dó­la­res. Step­hen Doig, un pe­rio­dis­ta y edi­tor que tra­ba­ja­ba pa­ra The Mia­mi He­rald, de­ci­dió ha­cer un aná­li­sis pro­fun­do de las ci­fras de las vi­vien­das y pro­pie­da­des afec­ta­das o des­trui­das, y las com­pa­ró con los re­gis­tros de pla­nea­ción y edi­fi­ca­ción del go­bierno.

Lo­gró con­cluir que las es­truc­tu­ras que ha­bían si­do cons­trui­das más re­cien­te­men­te ha­bían si­do las más afec­ta­das. Él y su equi­po ade­más hi­cie­ron un ex­ten­so reportaje en el que de­nun­cia­ban que los re­cor­tes del pre­su­pues­to gu­ber­na­men­tal y los des­cui­dos de pla­nea­ción y zo­ni­fi­ca­ción ha­bían con­tri­bui­do am­plia­men­te al da­ño que cau­só la tor­men­ta tro­pi­cal. The Mia­mi He­rald ga­nó un Pre­mio Pu­lit­zer por el reportaje y Doig se con­vir­tió en uno de los pio­ne­ros en el área de pe­rio­dis­mo ba­sa­do en aná­li­sis de da­tos.

Otro ejem­plo más ac­tual, es­pe­cí­fi­ca­men­te cen­tra­do en in­ter­net, y que pa­ra mu­chos va li­de­ran­do el pe­lo­tón me­diá­ti­co en­ru­ta­do ha­cia el fu­tu­ro, es el tra­ba­jo de la com­pa­ñía es­ta­dou­ni­den­se Buzzfeed. Con más de 30 he­rra­mien­tas desa­rro­lla­das ex­clu­si­va­men­te pa­ra el aná­li­sis de da­tos, en ape­nas on­ce años de exis­ten­cia, es­ta em­pre­sa es­tá re­de­fi­nien­do la crea­ción y distribución de con­te­ni­do. “Buzzfeed es una em­pre­sa pro-da­tos, muy da­da a cons­truir sus pro­pios sis­te­mas. Es muy ex­pe­ri­men­tal”, ex­pli­ca Gi­lad Lo­tan, vi­ce­pre­si­den­te del

equi­po de da­tos. “No es­ta­mos an­cla­dos a un mo­de­lo de ne­go­cio vie­jo. No es­ta­mos tra­tan­do de mantener una ba­se de sus­crip­to­res. Fui­mos uno de los pri­me­ros me­dios de co­mu­ni­ca­ción en vol­ver­se com­ple­ta­men­te dis­tri­bu­ti­vo: nues­tras páginas y apli­ca­cio­nes son im­por­tan­tes, pe­ro nues­tra au­dien­cia es­tá en Snap­chat, Fa­ce­book e Ins­ta­gram. Nues­tro con­te­ni­do pue­de vi­vir en to­das par­tes, e in­ver­ti­mos en ello. No ne­ce­sa­ria­men­te que­re­mos que la au­dien­cia úni­ca­men­te ven­ga a nues­tras páginas”.

Hoy en día el equi­po de Buzzfeed crea al­re­de­dor de 700 pie­zas dia­rias de con­te­ni­do, mo­ni­to­rea­do en su to­ta­li­dad a tra­vés del aná­li­sis de da­tos. Ape­nas se pu­bli­ca al­go, Buzzfeed ras­trea cuán­ta gen­te lo lee, qué edad tie­ne esa gen­te, dón­de vi­ve, si le­yó com­ple­to un tex­to, o si vio en­te­ro un vi­deo, si lo com­par­tió con sus se­gui­do­res y cuán­tos se­gui­do­res lo com­par­tie­ron, en­tre mu­chas otras con­si­de­ra­cio­nes. Si las mé­tri­cas evi­den­cian que la pie­za ha ro­to un ré­cord de au­dien­cia en Es­ta­dos Uni­dos, una tec­no­lo­gía con in­te­li­gen­cia ar­ti­fi­cial se lo no­ti­fi­ca a sus edi­to­res a ni­vel glo­bal y les su­gie­re tra­du­cir­la a su res­pec­ti­vo idio­ma.

La tec­no­lo­gía que la com­pa­ñía uti­li­za pa­ra es­tas no­ti­fi­ca­cio­nes es un bot. O sea, un pro­gra­ma in­for­má­ti­co o de in­te­li­gen­cia ar­ti­fi­cial que imi­ta el com­por­ta­mien­to hu­mano, to­do a tra­vés de un in­ter­cam­bio de da­tos. En el ca­so de un ser­vi­cio de men­sa­je­ría ins­tan­tá­nea, es una es­pe­cie de “usua­rio fan­tas­ma“al que se le pue­den ha­cer pre­gun­tas o que reac­cio­na acor­de con lo que se le ha­ya pro­gra­ma­do. Buzzfeed, en­ton­ces, usa un bot de la men­sa­je­ría in­tra­em­pre­sa­rial Slack, que au­to­má­ti­ca­men­te en­vía una no­ti­fi­ca­ción a los edi­to­res en ca­da país.

En es­te ca­so, el aná­li­sis y el in­ter­cam­bio de da­tos acor­tan la dis­tan­cia, re­fle­jan la ten­den­cia y po­si­bi­li­tan la di­vul­ga­ción fu­gaz de con­te­ni­do.

Buzzfeed ade­más se ha de­di­ca­do a de­mo­cra­ti­zar el ma­ne­jo de da­tos. Usual­men­te las com­pa­ñías de me­dios tie­nen un de­par­ta­men­to de aná­li­sis de da­tos pe­que­ño y en­fo­ca­do. Si un pe­rio­dis­ta ne­ce­si­ta ob­te­ner in­for­ma­ción, en­vía su pe­ti­ción a es­te equi­po, de­be es­pe­rar y lue­go le envían un in­for­me. A tra­vés de la he­rra­mien­ta Loo­ker, Buzzfeed ha acor­ta­do es­te pro­ce­so. Loo­ker es­tá di­se­ña­da pa­ra que los pe­rio­dis­tas mis­mos ac­ce­dan a in­for­ma­ción, sin ne­ce­si­dad de acu­dir a un equi­po ex­per­to, sin ne­ce­si­dad de ser ex­per­tos en có­di­gos o al­go­rit­mos.

Otra he­rra­mien­ta con la que es­tán ex­pe­ri­men­tan­do se lla­ma Be­yond the Bub­ble (más allá de la bur­bu­ja). Sir­ve pa­ra detectar có­mo se crean con­ver­sa­cio­nes so­bre te­mas es­pe­cí­fi­cos en di­ver­sos ám­bi­tos de la web. En otras pa­la­bras, pa­ra iden­ti­fi­car to­dos los dis­tin­tos gru­pos que es­tán ha­blan­do, ca­da uno a su ma­ne­ra y por sus pro­pias ra­zo­nes, so­bre un mis­mo te­ma.

Has­ta acá to­do sue­na po­si­ti­vo. Sin em­bar­go, los da­tos pue­den lle­gar más le­jos: pue­den in­fluir en la ma­ne­ra en la que se pro­du­ce pe­rio­dis­mo. Por ejem­plo, un pe­rio­dis­ta de Buzzfeed hoy en día de­be ana­li­zar el desem­pe­ño de sus ar­tícu­los. Al ana­li­zar las mé­tri­cas de sus pie­zas, ese pe­rio­dis­ta pue­de sa­ber qué ex­ten­sión de tex­to tu­vo ma­yor au­dien­cia, qué cla­se de fotos fue­ron las que atra­je­ron a más lec­to­res o qué cla­se de tí­tu­lo ge­ne­ró más vis­tas. El pe­rio­dis­ta en­ton­ces po­dría te­ner en cuen­ta esos apren­di­za­jes y con­fec­cio­nar su si­guien­te ar­tícu­lo acor­de a esas ten­den­cias: es­cri­bi­ría den­tro de cier­ta ex­ten­sión, ele­gi­ría cier­tas fotos y ti­tu­la­ría de cier­ta ma­ne­ra. Y es ahí don­de nos to­pa­mos con una del­ga­da y bo­rro­sa lí­nea en­tre guiar­se por las mé­tri­cas y es­cri­bir ne­ta­men­te pa­ra com­pla­cer. ¿No es­ta­rían los da­tos po­nién­do­le una co­rrea de pe­rro al pe­rio­dis­mo, en ca­sos co­mo el del pe­rio­dis­ta que con­fec­cio­na un ar­tícu­lo si­guien­do las ci­fras? ¿No es­ta­rían las ove­jas li­de­ran­do al pas­tor?

“¿Có­mo in­for­mas a la gen­te si no le es­tás lle­gan­do a la gen­te? Es un ar­te cui­da­do­so”, di­ce Lo­tan. Se­gún él, las he­rra­mien­tas y es­tra­te­gias pa­ra dis­tri­buir la in­for­ma­ción que pro­du­ce Buzzfeed es­tán en per­ma­nen­te evo­lu­ción. “Usual­men­te op­ti­mi­za­mos el con­te­ni­do pa­ra mantener un ba­lan­ce: que­re­mos la vi­si­bi­li­dad y que­re­mos que la gen­te lo com­par­ta”. Lo­tan mis­mo ha he­cho ex­pe­ri­men­tos pa­ra pu­lir sus es­tra­te­gias. Ha­ce unos años com­pró por 5 dó­la­res unos 8.000 se­gui­do­res pa­ra su pro­pia cuen­ta de Twit­ter. Di­ce que hu­bie­ra po­di­do com­prar aún más por ese mon­to, pe­ro que se sen­tía ra­ro ha­cién­do­lo. An­tes de com­prar se­gui­do­res fal­sos, ana­li­zó a sus se­gui­do­res reales: exa­mi­nó quié­nes eran, ca­da cuán­to pu­bli­ca­ban, qué con­te­ni­do pu­bli­ca­ban, a quié­nes se­guían y qué im­pac­to te­nían. Des­pués de la com­pra, hi­zo lo mis­mo y com­pa­ró los re­sul­ta­dos: “Era ab­so­lu­ta­men­te cla­ro quié­nes eran se­gui­do­res fal­sos y quié­nes eran reales. Even­tual­men­te, al ca­bo de unos me­ses, los fal­sos se ex­tin­guie­ron. Sin em­bar­go, lo in­tere­san­te fue ver el im­pac­to que ha­bían cau­sa­do”.

La com­pra ha­bía in­cre­men­ta­do la ci­fra que apa­re­cía en su per­fil. Una ci­fra más al­ta, así fue­ra fal­sa, atra­jo a más se­gui­do­res reales. Al ver un nú­me­ro más al­to, la gen­te asu­mió que Lo­tan era un tui­te­ro im­por­tan­te y lo em­pe­zó a se­guir. Sin em­bar­go, nin­guno de su nue­vos se­gui­do­res reales se mo­les­tó por re­vi­sar qué cla­se de gen­te se­guía a Lo­tan. Si lo hu­bie­ran he­cho, de in­me­dia­to se hu­bie­ran da­do cuen­ta de que era una ci­fra in­fla­da y que Lo­tan no es­ta­ba te­nien­do un im­pac­to or­gá­ni­co en la red so­cial. Las cuen­tas fal­sas usual­men­te pu­bli­can tuits pro­gra­ma­dos y es evi­den­te que el con­te­ni­do no es crea­do por un hu­mano.

Pa­ra com­ple­tar, uno de los al­go­rit­mos de Twit­ter fun­cio­na con ba­se en el nú­me­ro de se­gui­do­res, así que Twit­ter em­pe­zó a re­co­men­dar el per­fil de Lo­tan úni­ca­men­te por­que ha­bía subido su ci­fra. El efec­to do­mi­nó atra­jo a más usua­rios reales. “En con­clu­sión, la com­pra de se­gui­do­res cla­ra­men­te va­lió la pe­na. Pe­ro al ha­cer eso ma­ni­pu­lé a gen­te real. ¿Cuán mo­ral es eso?”, se pre­gun­ta Lo­tan.

El efec­to do­mi­nó en re­des so­cia­les es es­pe­cial­men­te pe­li­gro­so cuan­do la in­for­ma­ción que cir­cu­la es fal­sa. El 9 no­viem­bre de 2016, un día des­pués de que Do­nald Trump fue ele­gi­do pre­si­den­te, Eric Tuc­ker, un ciu­da­dano co­mún y co­rrien­te de 35 años, to­mó unas fotos de unos buses blan­cos es­ta­cio­na­dos cer­ca a una se­de de cam­pa­ña de Trump. Tuc­ker subió esas fotos a Twit­ter y las acom­pa­ñó con el si­guien­te tex­to: “Ma­ni­fes­tan­tes an­ti-trump en Aus­tin hoy no son tan or­gá­ni­cos co­mo pa­re­cen. He aquí los buses en los que lle­ga­ron. #pro­tes­tas­fal­sas #Trump2016 #aus­tin”. Tuc­ker posteó es­te tuit en el con­tex­to de las pro­tes­tas an­ti-trump que se es­ta­ban desatan­do en to­do Es­ta­dos Uni­dos. Al pu­bli­car su tuit, Tuc­ker te­nía al­re­de­dor de 40 se­gui­do­res. Dos días des­pués, el 11 de no­viem­bre, el tuit ha­bía si­do re­tui­tea­do 16.000 ve­ces y com­par­ti­do más de 350.000 ve­ces en Fa­ce­book. Has­ta el elec­to pre­si­den­te Trump tui­teó al res­pec­to: “Aca­bo de cul­mi­nar una elec­ción pre­si­den­cial muy abier­ta y exi­to­sa. Aho­ra ma­ni­fes­tan­tes pro­fe­sio­na­les in­ci­ta­dos por los me­dios es­tán pro­tes­tan­do. ¡Muy in­jus­to!”.

El pro­ble­ma: las fotos de Tuc­ker no eran de buses que ha­bían trans­por­ta­do a ma­ni­fes­tan­tes po­lí­ti­cos. Eran buses que lle­va­ban a 13.000 per­so­nas a una fies­ta lla­ma­da (iró­ni­ca­men­te) “Da­ta Night Out”, de la com­pa­ñía Ta­bleau. Era un even­to to­tal­men­te di­fe­ren­te, pe­ro el da­ño ya es­ta­ba he­cho.

Lo­tan ase­gu­ra que el aná­li­sis de da­tos pue­de ayu­dar a me­dios de co­mu­ni­ca­ción a detectar qué in­for­ma­ción y qué fuen­tes son fal­sas. Lo que ha­ce fal­ta es más edu­ca­ción de la au­dien­cia: “Nues­tro rol co­mo una or­ga­ni­za­ción de me­dios se­rá ayu­dar a la au­dien­cia a que en­tien­da y se edu­que so­bre lo que es con­fia­ble. Pa­ra los me­dios tam­bién ha­brá más opor­tu­ni­da­des de des­acre­di­tar fuen­tes”.

Con res­pec­to a la in­te­li­gen­cia ar­ti­fi­cial, hay más ejem­plos de esa tec­no­lo­gía que ya es­tán sien­do pues­tos en prác­ti­ca: “Con un sis­te­ma en­tre­na­do de ma­ne­ra ade­cua­da, hoy pue­des to­mar una ima­gen y una má­qui­na te des­cri­be qué apa­re­ce en la ima­gen, sin te­ner nin­gu­na in­for­ma­ción pre­via”, ex­pli­ca Lo­tan. “Tam­bién po­de­mos lo­grar que una má­qui­na o que un sis­te­ma de có­di­go de al­go­rit­mos apren­dan cuá­les son los atri­bu­tos de un ga­to. Y lue­go pue­den ge­ne­rar una nue­va ima­gen de un ga­to”. Un me­ca­nis­mo pa­re­ci­do se pue­de usar pa­ra la ge­ne­ra­ción de vo­ces y tex­tos.

Lo­tan di­ce que los me­dios ma­si­vos con mo­de­los más tra­di­cio­na­les igual­men­te de­ben en­fo­car­se en el uso y aná­li­sis de da­tos. “Es co­mo si fue­ras a cru­zar una ca­lle muy con­cu­rri­da: cuan­to más ob­ser­ves y en­tien­das so­bre el com­por­ta­mien­to de los ca­rros, me­jor se­rá la ac­ción que to­mes. Co­mo me­dio de co­mu­ni­ca­ción, mien­tras más in­for­ma­ción ten­gas, me­jo­res de­ci­sio­nes to­ma­rás”.

Eso sí: los me­dios ne­ce­si­tan cui­dar el ma­ne­jo de esa in­for­ma­ción. Se­gún Lo­tan, “hay que ser cau­te­lo­so, por­que hay un enor­me bom­bo so­bre la cien­cia de los da­tos. He vis­to mu­chos ca­sos de com­pa­ñías que han in­ver­ti­do en un de­par­ta­men­to de aná­li­sis de da­tos, pe­ro no sa­bían bien pa­ra qué. No se tra­ta sim­ple­men­te de re­co­lec­tar da­tos, siem­pre tie­ne que ha­ber una me­ta”.

Lo­tan di­ce que el aná­li­sis de da­tos ayu­da a los me­dios de co­mu­ni­ca­ción a detectar qué in­for­ma­ción y qué fuen­tes son fal­sas.

Gi­lad Lo­tan (Is­rael) di­ri­ge un equi­po de cien­tí­fi­cos de da­tos en Buzzfeed.

Newspapers in Spanish

Newspapers from Colombia

© PressReader. All rights reserved.