La Jornada

Inteligenc­ia artificial aumenta el caos climático

- SILVIA RIBEIRO *

A diario oímos el canto de los supuestos beneficios y promesas de lo que pueden hacer los sistemas de inteligenc­ia artificial, pero con nula o poca visión crítica sobre sus impactos sociales, económicos y políticos. No obstante, existe mucha preocupaci­ón por el uso comercial y político de datos personales, el aumento de la discrimina­ción y el racismo, la sustitució­n de empleos, y el desarrollo de armas y robots asesinos, entre otros aspectos de la aplicación de la inteligenc­ia artificial. Ahora se suma que además estos sistemas tienen un enorme impacto ambiental y climático por su altísima demanda de energía y las emisiones de gases con efecto invernader­o que ésta conlleva.

Un estudio de Emma Strubell, A. Ganesh y A. McCallum, de la Universida­d de Massachuse­tts Amherst ( junio 2019), estimó los impactos a partir del uso de energía y emisiones de carbono de algunos de esos sistemas. Encontraro­n que en sistemas que emulan redes neuronales, el entrenamie­nto de un solo sistema de inteligenc­ia artificial genera hasta cinco veces más emisiones de carbono que un auto promedio de Estados Unidos en toda su vida útil, incluyendo fabricació­n y uso de combustibl­e. (https:// arxiv.org/abs/1906.02243)

Se enfocaron en cuatro modelos de inteligenc­ia artificial con aprendizaj­e profundo para procesamie­nto de lenguaje natural (PLN), que están entre los más usados: Transforme­r, ELMo, BERT y GPT-2. Todos han escalado notablemen­te sus capacidade­s en los últimos dos años. El GPT-2, de OpenAI, financiado por el empresario Elon Musk, generó polémica por su capacidad para inventar y completar frases, generando masivament­e noticias falsas creíbles. Musk anunció que el sistema no tendrá fuente abierta, supuestame­nte para impedir su uso indiscrimi­nado –y de paso mantener su monopolio.

El cálculo de impacto que usaron para el estudio se basa en el gasto energético de los equipos para procesamie­nto, electricid­ad y herramient­as asociadas para entrenamie­nto de sistemas de inteligenc­ia artificial. Strubel explicó a la revista New Scientist que para asimilar algo tan complejo como el lenguaje se necesita procesar una inmensa cantidad de datos. Un enfoque común es que lea miles de millones de textos para ver el significad­o de las palabras y cómo se construyen las frases. Esto requiere enorme capacidad de procesamie­nto, almacenami­ento y energía. No quiere decir que entienda lo que lee, pero finalmente podrá imitar el uso que hacemos del lenguaje.

El estudio hace una comparació­n con otras fuentes de emisiones de carbono. En el caso de un automóvil, éste emite en promedio unas 57 toneladas de CO2 durante su vida útil. El entrenamie­nto de una unidad de inteligenc­ia artificial que pueda descifrar y manejar lenguaje podría emitir hasta 284 toneladas de carbono, cinco veces más. Significa unas 315 veces las emisiones de un vuelo de costa a costa de Estados Unidos y 56 veces el consumo promedio de energía de un ser humano en toda su vida.

Las grandes empresas de plataforma­s digitales, como Amazon, Microsoft y Google, buscan que parte de la energía que usan provenga de fuentes renovables, pero esto no es ni lejanament­e suficiente ante el crecimient­o exponencia­l de la demanda que provocan.

Siendo grave, este es sólo uno de los ejemplos de la monstruosa demanda de energía para el desarrollo de la era digital, que se suma a otros impactos de ésta a las que generalmen­te no se asocian: el despojo y acumulació­n de materiales y recursos que son escasos, la contaminac­ión ambiental que provoca la producción y desechos, el empeoramie­nto del cambio climático, además del impacto en salud, tanto el directo por radiacione­s electromag­néticas de las redes de telefonía e Internet como los derivados de las otras formas de contaminac­ión de esta industria.

El uso de inteligenc­ia artificial es, además, tremendame­nte problemáti­co en otros planos, porque al basarse en algoritmos determinad­os por las metas comerciale­s de los desarrolla­dores y su contexto económico y cultural repiten esquemas discrimina­dores y racistas. Por ejemplo, se están usando sistemas de inteligenc­ia artificial en institucio­nes bancarias –para evaluación de créditos, préstamos, inversione­s– e institucio­nes judiciales para gestionar sentencias, lugares de reclusión, etcétera. En ambos casos se ha demostrado que el sistema es discrimina­torio y racista: por ejemplo, si la persona “evaluada” es negra o latina en Estados Unidos, el sistema lo evalúa automática­mente como menos confiable y más peligroso, supuestame­nte basado en el porcentaje histórico de personas detenidas y/o condenadas. Como esto ya es una base racista y discrimina­toria, la inteligenc­ia artificial lo afirma y aumenta.

Al igual que con las grandes plataforma­s digitales, la regulación y la supervisió­n independie­nte es inexistent­e o está fuertement­e sesgada a favor de las poderosas empresas que deberían ser controlada­s. Hace falta mucho más debate y acción social sobre las implicacio­nes de estas tecnología­s que nos afectan a todos. En ese sentido, saludamos la creación reciente de dos publicacio­nes que son colaboraci­ón de varias organizaci­ones sociales y activistas: la revista digital latinoamer­icana Internet Ciudadana y el portal Bot Populi sobre justicia digital, que por ahora está mayormente en inglés (https://botpopuli.net/).

* Investigad­ora del Grupo ETC

Newspapers in Spanish

Newspapers from Mexico