La Vanguardia (Català-1ª edició)
A la caça de veus per a l’Aina i la MarIA
Tècnics del superordinador treballen en un model lingüístic perquè les màquines parlin més idiomes i millor
Com els humans, les màquines aprenen. Ja fa temps que parlen, però ben aviat ho faran amb més facilitat i naturalitat, i també sabran més idiomes. Encara no escriuen o, almenys, no com Cervantes, Rodoreda o Shakespeare, però aviat, molt aviat, redactaran textos de certa qualitat.
Tot això serà possible gràcies a la intel·ligència artificial. I també gràcies a la feina de tècnics com Marta Villegas i Maite Melero, que des del Supercomputador de Barcelona elaboren “models lingüístics” perquè el que fins fa poc era fantasia o ciència-ficció arribi a ser una realitat d’aquí uns quants mesos.
El 2015 el Pla Nacional de Tecnologia del Llenguatge de la secretaria d’Estat de Digitalització i Intel·ligència Artificial va posar 90 milions damunt la taula per desenvolupar aquests projectes. I el superordinador MareNostrum4 de Barcelona es va convertir en el lloc ideal per executar-los. Per elaborar aquests complexos models lingüístics es necessiten dades, infinitat de dades, i el superordinador té una “gran capacitat de càlcul que facilita l’entrenament d’algoritmes i l’extracció de conclusions a partir de grans quantitats de dades”.
El que ara fan les lingüistes computacionals Villegas i Melero és recollir aquestes dades, com més millor, per ficar-les al superordinador, processar-les i aconseguir dos models, un en català i un altre en castellà, que aviat tindran aplicació en la vida quotidiana.
L’Aina és el model català, i és més complex perquè aquest idioma encara no s’ha incorporat al món de la tecnologia com altres llengües. A l’Alexa se li pot demanar que encengui el llum o la tele, que posi una cançó o que busqui una pel·lícula, però l’Alexa només parla anglès, francès, alemany, italià, hindi, japonès, portuguès i espanyol. La Siri ha estudiat més, i també domina el cantonès, l’àrab, el danès, l’holandès, el finlandès, l’hebreu, el coreà, el mandarí, el noruec, el rus, el suec, el turc i el tailandès.
Però ni l’Alexa, ni la Siri, ni el Google Home, ni la Cortana no saben català. Amb l’Aina el parlaran i també l’entendran. Per això es necessiten moltes dades i moltes veus, sobretot veus. De tots els accents i les entonacions, i així les màquines podran entendre igual, i sense dificultat, el que diu un parlant de Mallorca i un de Lleida.
Melero i Villegas han posat en marxa una campanya per recollir aquestes veus. Demanen donatius de veu, i han trobat els grans caladors on les poden anar a buscar: els mitjans de comunicació audiovisuals i els parlaments. Ja s’han posat en contacte amb TV3, IB3, RTVE, el Parlament de Catalunya, el Parlament valencià i unes quantes ràdios locals per demanarlos aquests donatius de veus, que s’extrauran dels programes de televisió i ràdio i de les sessions parlamentàries.
Però, com que calen moltes dades, com més millor, les expertes també han impulsat un projecte de recollida massiva de veus entre voluntaris, Common voices, en què es tracta que els donants gravin frases o llegeixin petits fragments de textos perquè les màquines puguin reconèixer la parla natural.
Una vegada obtingudes les veus, s’introduiran al superor
Roadrunner, correcamins, títol precís del documental sobre el xef viatger Anthony Bourdain, dura una hora i 58 minuts. Però hi ha 45 segons que són polèmics. Diu unes quantes frases que no va pronunciar mai, recreades artificialment com si fossin reals. / Francesc Peirón