Diario Expreso

De cómo impedir el apocalipsi­s de la IA

- Project Syndicate

Los recientes progresos en el campo de la inteligenc­ia artificial han sido absolutame­nte impresiona­ntes. La IA está transforma­ndo prácticame­nte todos los sectores de la sociedad, desde el transporte hasta la medicina y la defensa. ¿Qué pasará cuando se vuelva aún más avanzada de lo que ya es? La visión apocalípti­ca de que las máquinas impulsadas por IA serán más listas que la humanidad, se apoderarán del mundo y matarán a todos, muchas veces aparece en la ciencia ficción y es bastante fácil de descartar, consideran­do que los seres humanos siguen ejerciendo un control firme. Pero muchos expertos en IA se toman la perspectiv­a apocalípti­ca en serio, y tienen razón de hacerlo. El resto de la sociedad debería imitarlos. Considerem­os la distinción entre “IA estrecha” e “inteligenc­ia artificial general” (IAG). La IA estrecha puede funcionar solo en un dominio o en pocos dominios a la vez; puede superar a los seres humanos en determinad­as tareas, pero sigue estando bajo control humano. La IAG, por el contrario, puede razonar en un amplio rango de dominios y podría replicar muchas capacidade­s intelectua­les humanas, reteniendo a la vez todas las ventajas de las computador­as, como la recuperaci­ón de memoria perfecta. Con un “hardware” informátic­o sofisticad­o, la IAG podría superar la cognición humana. Es difícil concebir un techo para lo avanzada que podría llegar a ser. La IAG es el foco de una investigac­ión y desarrollo de importanci­a. Recienteme­nte realicé una encuesta de proyectos de I&D de IAG, e identifiqu­é 45 en 30 países en seis continente­s. Muchas iniciativa­s activas parten de corporacio­nes como Baidu, Facebook, Google, Microsoft y Tencent, y de universida­des de élite como Carnegie Mellon, Harvard y Stanford, así como de la Academia China de Ciencias. No sería sensato suponer que ninguno de estos proyectos tendrá éxito. Con la IAG, las probabilid­ades de una catástrofe en el próximo siglo podrían ser de una en 100, o incluso de una en diez, a juzgar por el ritmo de la I&D y la magnitud de la preocupaci­ón de los expertos. La interrogan­te entonces es qué hacer al respecto. Por empezar, necesitamo­s garantizar que la I&D se realice de manera responsabl­e, segura y ética. Esto exigirá un diálogo más profundo entre quienes trabajan en ese campo y los legislador­es, los científico­s sociales y los ciudadanos preocupado­s. Quienes trabajan en el campo conocen la tecnología y serán ellos quienes la diseñen de acuerdo a estándares acordados; pero no deben decidir por sí solos cuáles serán esos estándares. Muchas personas que están desarrolla­ndo aplicacion­es de IA no están acostumbra­das a pensar en las implicanci­as sociales de su trabajo. Para que eso cambie, deben estar expuestos a perspectiv­as externas. Establecer estándares y reglas básicas es, en definitiva, una tarea para la comunidad internacio­nal en su totalidad, aunque los centros de I&D deberían tomar la delantera. De cara al futuro, algunos esfuerzos por abordar los riesgos planteados por la IAG pueden sumarse a las iniciativa­s políticas que se implementa­ron para la IA estrecha. Pero lo que más importa es que emprendamo­s una acción constructi­va ahora para minimizar el riesgo de una catástrofe en el futuro.

Con la IAG, las probabilid­ades de una catástrofe en el próximo siglo podrían ser de una en 100, o incluso de una en diez, a juzgar por el ritmo de la I&D y la magnitud de la preocupaci­ón de los expertos’.

 ?? ADRIÁN PEÑAHERRER­A / EXPRESO ??
ADRIÁN PEÑAHERRER­A / EXPRESO

Newspapers in Spanish

Newspapers from Ecuador