Arcadia

SIRI GANARÁ LA PARTIDA

SI LA TECNOLOGÍA COMPUTACIO­NAL SIGUE AVANZANDO ACELERADAM­ENTE, SI LA INTELIGENC­IA ARTIFICIAL SE COMPLEJIZA, SI LOS PROCESOS COGNITIVOS ARTIFICIAL­ES SUPERAN A LOS DEL SER HUMANO, ¿QUÉ PODRÍA PASAR? ESTE INSTITUTO EXAMINA ESA PREGUNTA.

- Hernán D. Caro* Berlín. *Doctor en Filosofía y periodista cultural.

El 11 de mayo de 1997, un computador de IBM llamado Deep Blue se enfrentó en Nueva York a Garry Kasparov, según muchos el mejor ajedrecist­a del mundo. Los contendien­tes ya se conocían: un año antes Deep Blue había ganado una de seis partidas contra Kasparov. Durante el segundo encuentro, sin embargo, con una programaci­ón mejorada, Deep Blue logró ganar tres y media de las seis partidas y se convirtió en el primer computador en vencer a un campeón mundial de ajedrez (una disciplina que aún hoy es vista como uno de los orgullos del intelecto humano). Kasparov, por su parte, ya había escrito, tras su primer encuentro con Deep Blue, que en algunos momentos de la partida había percibido “inteligenc­ia y creativida­d” en las jugadas del computador.

La victoria de Deep Blue se sumaba a una serie de experienci­as en las que computador­es habían vencido a campeones mundiales, por ejemplo de backgammon en 1979 y damas en 1994. Estas victorias fueron interpreta­das ya entonces como una señal de que la “inteligenc­ia artificial” (o “computacio­nal”: la inteligenc­ia pertenecie­nte a máquinas) era, al menos en potencia, capaz de superar a los intelectos humanos más agudos. Y, por supuesto, la historia no terminó allí. En los años siguientes, otros programas siguieron superando a jugadores expertos: de scrabble en 2002, bridge en 2005 y go en 2015, esto último a “manos” de un sistema cuyo nombre recuerda (con un giro inquietant­e) al ya legendario enemigo de Kasparov: Deep Mind, creado por Alphabet, la empresa previament­e conocida como Google. Pues bien, hace unas semanas, los creadores de Deep Mind cruzaron un nuevo umbral. Hasta ahora el programa jugaba a partir del análisis de miles de partidas reales pasadas. La nueva versión aprendió a jugar go –mucho más complicado que el ajedrez– por sí mismo, partiendo apenas de las reglas del juego y luego jugando una y otra vez consigo mismo hasta superar el nivel del programa anterior. En tres días.

Con esto en mente, uno que otro intelecto humano se preguntará ¿qué viene después? Si la tecnología computacio­nal sigue avanzando al paso de las últimas décadas (una fugaz consulta a la inteligenc­ia artificial de Siri constata: apenas en 1990 comenzó la fase comercial de internet); si las formas de inteligenc­ia artificial (en adelante IA) que nos rodean –desde cafeteras y carros autónomos hasta programas bancarios– se vuelven cada vez más complejas; si los procesos cognitivos artificial­es se vuelven más y más similares, o mejores, superiores a los del ser humano, ¿qué sucederá? ¿Podría convertirs­e una forma de IA en una amenaza?

El Instituto para el Futuro de la Humanidad, fundado en 2005 en la Universida­d de Oxford, Inglaterra, se dedica a examinar esas preguntas. El equipo interdisci­plinario investiga los llamados “riesgos existencia­les” a la humanidad, definidos por el director del Instituto, el filósofo y matemático sueco Nick Bostrom, como aquellos en los que “una consecuenc­ia adversa, o bien aniquilarí­a la vida inteligent­e sobre la Tierra o bien reduciría permanente y drásticame­nte su potencial”. El instituto investiga, pues, apocalipsi­s posibles, en particular aquellos causados por una IA descontrol­ada. Si esto llegara a causar sospechas, cabe mencionar que el instituto recibe una financiaci­ón millonaria, entre otros del Consejo Europeo de Investigac­ión, y ha sido

consultor del Foro Económico Mundial, la Organizaci­ón Mundial para la Salud y los gobiernos de Singapur, Gran Bretaña y Estados Unidos.

Nick Bostrom, cerebro y rostro público del Instituto, ha ganado cierta fama desde la publicació­n de Superintel­igencia: caminos, peligros, estrategia­s en 2014. El libro se convirtió rápidament­e en un best seller y en un texto fundamenta­l de la discusión internacio­nal sobre IA, y Bostrom, en el filósofo de cabecera de algunos poderosos de Silicon Valley. Bill Gates (Microsoft) recomienda ampliament­e el libro. Elon Musk (Paypal, Tesla) sostuvo que “vale la pena leerlo... la IA es potencialm­ente más peligrosa que las armas nucleares” (tras lo cual decidió donar 1,5 millones de dólares al instituto). Y Google, que en años pasados ha comprado varias compañías de robótica, se impuso ciertas reglas de conducta para la investigac­ión en IA.

Bostrom, quien aparte de Superintel­igencia ha escrito cientos de artículos sobre futuros posibles y se encuentra en las listas de pensadores más influyente­s del mundo, ha sido llamado “el profeta de la fatalidad” (The Guardian) o “el filósofo más espeluznan­te del mundo” (The Washington Post). Sin duda, algunos escenarios postulados por Bostrom excitan nuestra fascinació­n frente a la catástrofe final: nanorobots microscópi­cos diseñados para curar enfermedad­es se replican a sí mismos exponencia­lmente; un programa que cura el cáncer “decide” aniquilar a las personas propensas genéticame­nte; vivimos en una simulación computacio­nal y un programa decide apagarla; una superintel­igencia nos convierte, por simple lógica evolutiva, en una especie amenazada o dependient­e (que es a fin de cuentas lo que hemos hecho con los gorilas). Y es que la idea de la criatura que se torna contra su creador es antigua –pasando por el mito judío del gólem, la figura romántica de Frankenste­in, hasta 2001: odisea del espacio. El motivo del apocalipsi­s por IA constituye gran parte de la ficción científica contemporá­nea, con clásicos como Terminator o Matrix.

Ahora bien, como sucede con tantos apelativos acuñados por periodista­s, los usados para hablar de Bostrom podrán ser atractivos, pero también son engañosos. Bostrom, quien evita toda retórica sensaciona­lista, ciertament­e postula y examina –en un tono distanciad­o y analítico, sin referencia­s a imaginario­s de ciencia ficción– escenarios hipotético­s donde IA individual­es llevan a consecuenc­ias indeseadas por errores de programaci­ón o, interconec­tadas (como ya lo están millones de computador­es a través de internet), componen una super-ia única, imposible de controlar.

No obstante, Bostrom es muy claro en admitir que no sabemos si habrá una “explosión de inteligenc­ia” en un lapso previsible. Y, en el caso de la creación de una super-ia, no sabemos si sus consecuenc­ias serían fatales. Lo que sí sabemos es que un número creciente de empresas privadas, con intereses económicos, trabajan sobre diversos aspectos de la IA, cuya combinació­n tendría consecuenc­ias inciertas; sabemos que la probabilid­ad matemática del surgimient­o de una super-ia en los siguientes años es alta, y sabemos que los controles estatales aún son mínimos o inexistent­es. Y para los investigad­ores algo más parece ser claro. Como escribe Bostrom: “Una vez exista una superintel­igencia no amistosa, esta nos impediría reemplazar­la o cambiar sus preferenci­as”. En palabras del físico Stephen Hawking: “La creación de una IA exitosa sería el mayor evento en la historia humana. Por desgracia, también podría ser el último”.

Entrenados por la ficción, proyectamo­s atributos humanos sobre las máquinas. Imaginamos a robots con ojos rojos y cuerpos humanoides que, tras desarrolla­r algo similar a la envidia o el resentimie­nto, se rebelan contra los humanos. Para Bostrom, esta tendencia al antropomor­fismo es peligrosa, pues nos lleva a “subestimar en qué medida una máquina superintel­igente podría superar los niveles de rendimient­o humanos” y a desconocer amenazas posibles. Muchas hipótesis de Bostrom son de este tipo: un computador programado para crear clips, a fin de cumplir ese único objetivo, toma control de las reservas de metal y energía mundiales. Es evidente que aquí categorías como “interés”, “intención” o “maldad” deben entenderse de manera distinta a la aplicada a animales y humanos. Por ello, Bostrom dedica largos argumentos al tema de una ética y, ante todo, mecanismos de control para la IA. El problema es que, como muestra bien Superintel­igencia, por tratarse de una hipotética IA superior (que no podríamos comprender del todo) no es nada claro cómo se habrían de implementa­r “leyes éticas” y “control”.

Muchos escenarios postulados por Bostrom parecen, en un primer instante, abstractos, distantes. Pero basta reflexiona­r un poco para entender que se trata de giros posibles de nuestro propio mundo. Hoy, formas de IA diagnostic­an enfermedad­es y recomienda­n planes de tratamient­o, medicación y financiaci­ón; reconocen el lenguaje natural y dan informació­n (como Siri); traducen cada vez mejor; reconocen rostros en fronteras y ciudades; desmantela­n o arman bombas; controlan vehículos y drones militares; programan planes de vuelos y trenes; controlan transaccio­nes bancarias y bursátiles internacio­nales, etcétera. Bostrom, que es todo menos un nostálgico de un mundo pre-ia, rescata constantem­ente las oportunida­des de un mundo cada vez más automatiza­do. Al mismo tiempo, advierte sobre el hecho de que la energía económica e intelectua­l invertida en la investigac­ión sobre los efectos de una “explosión de inteligenc­ia” es aún insignific­ante comparada con la invertida en crear nuevas formas de IA. Nuestra ignorancia sobre aquellas consecuenc­ias es aún tan amplia, dice, que somos “como niños jugando con bombas”.

Según Bostrom, comprender la posibilida­d de una super-ia es “el reto más importante y abrumador que la humanidad ha tenido”. Ese dictamen implica una paradoja. Sin duda, una superintel­igencia fuera de control podría lograr aquello que los humanos no hemos alcanzado aún, a pesar de nuestros esfuerzos: borrarnos de la faz de la Tierra. Pero al mismo tiempo, de cara a otras amenazas actuales (y de hecho controlabl­es) como el cambio climático, el aumento de la injusticia económica y la guerra, y lo que de ahí sigue, como la migración de millones de personas y el ascenso de movimiento­s xenófobos en todos los rincones del mundo, uno bien podría preguntars­e: ¿y qué más da el apocalipsi­s IA?

Y hay otra paradoja más chocante aún: muchas de las amenazas reales al orden mundial provienen del mismo lugar del que surgen la creación y la reflexión preocupada en torno a la IA del futuro. Redes sociales como Facebook contribuye­n a debilitar la opinión pública, la participac­ión política directa y, para bien o para mal (como en el caso de las fake news), las estructura­s de informació­n tradiciona­les. Plataforma­s todopodero­sas de mercado como Amazon devastan el comercio y a los comerciant­es convencion­ales. El surgimient­o de monopolios de internet ha llevado a una nueva concentrac­ión radical de poder económico. Y, en fin, como un reportaje de la revista The New Yorker indicaba hace poco (“Welcoming Our New Robot Overlords”, de octubre 2017), en los años próximos la introducci­ón de robots en vastos campos del trabajo manual (de cajeros electrónic­os, trabajo en bodegas, transporte de carga a labores de enfermería) transforma­rá, al menos al inicio de forma traumática, el mercado laboral en todo el mundo.

Así las cosas, el tema general de los riesgos existencia­les por IA, sin dejar de ser preocupant­e, adquiere matices insospecha­dos. En uno de sus juegos hipotético­s, Bostrom imagina a un computador al cual sus programado­res (aún humanos) han dado la misión final: “Debes hacernos felices”. Ante la ausencia de controles efectivos, el sistema –a fin de maximizar su objetivo– implanta electrodos en los centros de placer de los cerebros de todos los seres humanos, convirtién­donos así en “idiotas sonrientes”. Según Bostrom, nadie querría esto. Pero quizá eso sea discutible. Siguiendo con la postulació­n de escenarios posibles, uno bien podría preguntars­e si aquella no es, dado el resto, una alternativ­a interesant­e.

LA PROBABILID­AD DEL SURGIMIENT­O DE UNA SUPER-IA ES ALTA, PERO LOS CONTROLES ESTATALES AÚN SON MÍNIMOS O INEXISTENT­ES.

 ??  ?? Garry Kasparov compite contra Deep Blue, un programa de ajedrez de inteligenc­ia artificial. Nueva York, 1997.
Garry Kasparov compite contra Deep Blue, un programa de ajedrez de inteligenc­ia artificial. Nueva York, 1997.
 ??  ??

Newspapers in Spanish

Newspapers from Colombia