SIRI GANARÁ LA PARTIDA
SI LA TECNOLOGÍA COMPUTACIONAL SIGUE AVANZANDO ACELERADAMENTE, SI LA INTELIGENCIA ARTIFICIAL SE COMPLEJIZA, SI LOS PROCESOS COGNITIVOS ARTIFICIALES SUPERAN A LOS DEL SER HUMANO, ¿QUÉ PODRÍA PASAR? ESTE INSTITUTO EXAMINA ESA PREGUNTA.
El 11 de mayo de 1997, un computador de IBM llamado Deep Blue se enfrentó en Nueva York a Garry Kasparov, según muchos el mejor ajedrecista del mundo. Los contendientes ya se conocían: un año antes Deep Blue había ganado una de seis partidas contra Kasparov. Durante el segundo encuentro, sin embargo, con una programación mejorada, Deep Blue logró ganar tres y media de las seis partidas y se convirtió en el primer computador en vencer a un campeón mundial de ajedrez (una disciplina que aún hoy es vista como uno de los orgullos del intelecto humano). Kasparov, por su parte, ya había escrito, tras su primer encuentro con Deep Blue, que en algunos momentos de la partida había percibido “inteligencia y creatividad” en las jugadas del computador.
La victoria de Deep Blue se sumaba a una serie de experiencias en las que computadores habían vencido a campeones mundiales, por ejemplo de backgammon en 1979 y damas en 1994. Estas victorias fueron interpretadas ya entonces como una señal de que la “inteligencia artificial” (o “computacional”: la inteligencia perteneciente a máquinas) era, al menos en potencia, capaz de superar a los intelectos humanos más agudos. Y, por supuesto, la historia no terminó allí. En los años siguientes, otros programas siguieron superando a jugadores expertos: de scrabble en 2002, bridge en 2005 y go en 2015, esto último a “manos” de un sistema cuyo nombre recuerda (con un giro inquietante) al ya legendario enemigo de Kasparov: Deep Mind, creado por Alphabet, la empresa previamente conocida como Google. Pues bien, hace unas semanas, los creadores de Deep Mind cruzaron un nuevo umbral. Hasta ahora el programa jugaba a partir del análisis de miles de partidas reales pasadas. La nueva versión aprendió a jugar go –mucho más complicado que el ajedrez– por sí mismo, partiendo apenas de las reglas del juego y luego jugando una y otra vez consigo mismo hasta superar el nivel del programa anterior. En tres días.
Con esto en mente, uno que otro intelecto humano se preguntará ¿qué viene después? Si la tecnología computacional sigue avanzando al paso de las últimas décadas (una fugaz consulta a la inteligencia artificial de Siri constata: apenas en 1990 comenzó la fase comercial de internet); si las formas de inteligencia artificial (en adelante IA) que nos rodean –desde cafeteras y carros autónomos hasta programas bancarios– se vuelven cada vez más complejas; si los procesos cognitivos artificiales se vuelven más y más similares, o mejores, superiores a los del ser humano, ¿qué sucederá? ¿Podría convertirse una forma de IA en una amenaza?
El Instituto para el Futuro de la Humanidad, fundado en 2005 en la Universidad de Oxford, Inglaterra, se dedica a examinar esas preguntas. El equipo interdisciplinario investiga los llamados “riesgos existenciales” a la humanidad, definidos por el director del Instituto, el filósofo y matemático sueco Nick Bostrom, como aquellos en los que “una consecuencia adversa, o bien aniquilaría la vida inteligente sobre la Tierra o bien reduciría permanente y drásticamente su potencial”. El instituto investiga, pues, apocalipsis posibles, en particular aquellos causados por una IA descontrolada. Si esto llegara a causar sospechas, cabe mencionar que el instituto recibe una financiación millonaria, entre otros del Consejo Europeo de Investigación, y ha sido
consultor del Foro Económico Mundial, la Organización Mundial para la Salud y los gobiernos de Singapur, Gran Bretaña y Estados Unidos.
Nick Bostrom, cerebro y rostro público del Instituto, ha ganado cierta fama desde la publicación de Superinteligencia: caminos, peligros, estrategias en 2014. El libro se convirtió rápidamente en un best seller y en un texto fundamental de la discusión internacional sobre IA, y Bostrom, en el filósofo de cabecera de algunos poderosos de Silicon Valley. Bill Gates (Microsoft) recomienda ampliamente el libro. Elon Musk (Paypal, Tesla) sostuvo que “vale la pena leerlo... la IA es potencialmente más peligrosa que las armas nucleares” (tras lo cual decidió donar 1,5 millones de dólares al instituto). Y Google, que en años pasados ha comprado varias compañías de robótica, se impuso ciertas reglas de conducta para la investigación en IA.
Bostrom, quien aparte de Superinteligencia ha escrito cientos de artículos sobre futuros posibles y se encuentra en las listas de pensadores más influyentes del mundo, ha sido llamado “el profeta de la fatalidad” (The Guardian) o “el filósofo más espeluznante del mundo” (The Washington Post). Sin duda, algunos escenarios postulados por Bostrom excitan nuestra fascinación frente a la catástrofe final: nanorobots microscópicos diseñados para curar enfermedades se replican a sí mismos exponencialmente; un programa que cura el cáncer “decide” aniquilar a las personas propensas genéticamente; vivimos en una simulación computacional y un programa decide apagarla; una superinteligencia nos convierte, por simple lógica evolutiva, en una especie amenazada o dependiente (que es a fin de cuentas lo que hemos hecho con los gorilas). Y es que la idea de la criatura que se torna contra su creador es antigua –pasando por el mito judío del gólem, la figura romántica de Frankenstein, hasta 2001: odisea del espacio. El motivo del apocalipsis por IA constituye gran parte de la ficción científica contemporánea, con clásicos como Terminator o Matrix.
Ahora bien, como sucede con tantos apelativos acuñados por periodistas, los usados para hablar de Bostrom podrán ser atractivos, pero también son engañosos. Bostrom, quien evita toda retórica sensacionalista, ciertamente postula y examina –en un tono distanciado y analítico, sin referencias a imaginarios de ciencia ficción– escenarios hipotéticos donde IA individuales llevan a consecuencias indeseadas por errores de programación o, interconectadas (como ya lo están millones de computadores a través de internet), componen una super-ia única, imposible de controlar.
No obstante, Bostrom es muy claro en admitir que no sabemos si habrá una “explosión de inteligencia” en un lapso previsible. Y, en el caso de la creación de una super-ia, no sabemos si sus consecuencias serían fatales. Lo que sí sabemos es que un número creciente de empresas privadas, con intereses económicos, trabajan sobre diversos aspectos de la IA, cuya combinación tendría consecuencias inciertas; sabemos que la probabilidad matemática del surgimiento de una super-ia en los siguientes años es alta, y sabemos que los controles estatales aún son mínimos o inexistentes. Y para los investigadores algo más parece ser claro. Como escribe Bostrom: “Una vez exista una superinteligencia no amistosa, esta nos impediría reemplazarla o cambiar sus preferencias”. En palabras del físico Stephen Hawking: “La creación de una IA exitosa sería el mayor evento en la historia humana. Por desgracia, también podría ser el último”.
Entrenados por la ficción, proyectamos atributos humanos sobre las máquinas. Imaginamos a robots con ojos rojos y cuerpos humanoides que, tras desarrollar algo similar a la envidia o el resentimiento, se rebelan contra los humanos. Para Bostrom, esta tendencia al antropomorfismo es peligrosa, pues nos lleva a “subestimar en qué medida una máquina superinteligente podría superar los niveles de rendimiento humanos” y a desconocer amenazas posibles. Muchas hipótesis de Bostrom son de este tipo: un computador programado para crear clips, a fin de cumplir ese único objetivo, toma control de las reservas de metal y energía mundiales. Es evidente que aquí categorías como “interés”, “intención” o “maldad” deben entenderse de manera distinta a la aplicada a animales y humanos. Por ello, Bostrom dedica largos argumentos al tema de una ética y, ante todo, mecanismos de control para la IA. El problema es que, como muestra bien Superinteligencia, por tratarse de una hipotética IA superior (que no podríamos comprender del todo) no es nada claro cómo se habrían de implementar “leyes éticas” y “control”.
Muchos escenarios postulados por Bostrom parecen, en un primer instante, abstractos, distantes. Pero basta reflexionar un poco para entender que se trata de giros posibles de nuestro propio mundo. Hoy, formas de IA diagnostican enfermedades y recomiendan planes de tratamiento, medicación y financiación; reconocen el lenguaje natural y dan información (como Siri); traducen cada vez mejor; reconocen rostros en fronteras y ciudades; desmantelan o arman bombas; controlan vehículos y drones militares; programan planes de vuelos y trenes; controlan transacciones bancarias y bursátiles internacionales, etcétera. Bostrom, que es todo menos un nostálgico de un mundo pre-ia, rescata constantemente las oportunidades de un mundo cada vez más automatizado. Al mismo tiempo, advierte sobre el hecho de que la energía económica e intelectual invertida en la investigación sobre los efectos de una “explosión de inteligencia” es aún insignificante comparada con la invertida en crear nuevas formas de IA. Nuestra ignorancia sobre aquellas consecuencias es aún tan amplia, dice, que somos “como niños jugando con bombas”.
Según Bostrom, comprender la posibilidad de una super-ia es “el reto más importante y abrumador que la humanidad ha tenido”. Ese dictamen implica una paradoja. Sin duda, una superinteligencia fuera de control podría lograr aquello que los humanos no hemos alcanzado aún, a pesar de nuestros esfuerzos: borrarnos de la faz de la Tierra. Pero al mismo tiempo, de cara a otras amenazas actuales (y de hecho controlables) como el cambio climático, el aumento de la injusticia económica y la guerra, y lo que de ahí sigue, como la migración de millones de personas y el ascenso de movimientos xenófobos en todos los rincones del mundo, uno bien podría preguntarse: ¿y qué más da el apocalipsis IA?
Y hay otra paradoja más chocante aún: muchas de las amenazas reales al orden mundial provienen del mismo lugar del que surgen la creación y la reflexión preocupada en torno a la IA del futuro. Redes sociales como Facebook contribuyen a debilitar la opinión pública, la participación política directa y, para bien o para mal (como en el caso de las fake news), las estructuras de información tradicionales. Plataformas todopoderosas de mercado como Amazon devastan el comercio y a los comerciantes convencionales. El surgimiento de monopolios de internet ha llevado a una nueva concentración radical de poder económico. Y, en fin, como un reportaje de la revista The New Yorker indicaba hace poco (“Welcoming Our New Robot Overlords”, de octubre 2017), en los años próximos la introducción de robots en vastos campos del trabajo manual (de cajeros electrónicos, trabajo en bodegas, transporte de carga a labores de enfermería) transformará, al menos al inicio de forma traumática, el mercado laboral en todo el mundo.
Así las cosas, el tema general de los riesgos existenciales por IA, sin dejar de ser preocupante, adquiere matices insospechados. En uno de sus juegos hipotéticos, Bostrom imagina a un computador al cual sus programadores (aún humanos) han dado la misión final: “Debes hacernos felices”. Ante la ausencia de controles efectivos, el sistema –a fin de maximizar su objetivo– implanta electrodos en los centros de placer de los cerebros de todos los seres humanos, convirtiéndonos así en “idiotas sonrientes”. Según Bostrom, nadie querría esto. Pero quizá eso sea discutible. Siguiendo con la postulación de escenarios posibles, uno bien podría preguntarse si aquella no es, dado el resto, una alternativa interesante.
LA PROBABILIDAD DEL SURGIMIENTO DE UNA SUPER-IA ES ALTA, PERO LOS CONTROLES ESTATALES AÚN SON MÍNIMOS O INEXISTENTES.