El hombre y las máquinas colaboran
Desde hace mucho tiempo, Elon Musk, el director de Tesla, y otros ejecutivos del Silicon Valley han prometido un automóvil que pueda hacer todo el recorrido, sin ayuda humana.
Pero Ben Shneiderman, científico computacional de la Universidad de Maryland, cree que los automóviles totalmente automatizados y la visión de la industria tecnológica para un futuro robótico es errónea. Incluso peligrosa. Cree que los robots deberían colaborar con los humanos, en lugar de reemplazarlos.
El año pasado, Shneiderman emprendió una cruzada para convencer al mundo de que la inteligencia artificial va en dirección equivocada. En lugar de tratar de crear robots autónomos, dijo, los diseñadores deberían enfocarse en diseñar máquinas que sean “seguras y confiables”.
Shneiderman, de 72 años, comenzó a difundir su mensaje hace décadas. Pionero en el campo de la interacción hombre-computadora, en 1982 cofundó lo que hoy es la Conferencia sobre Factores Humanos en los Sistemas Informáticos y acuñó el término “manipulación directa” para describir la forma en que los objetos se mueven en la pantalla de una computadora, con un ratón o, más recientemente, con un dedo.
En 1997, Shneiderman entabló un debate clarividente con Pattie Maes, una científica computacional del Laboratorio de Medios del Instituto Tecnológico de Massachusetts (MIT), sobre la idea de agentes inteligentes de software, diseñados para realizar tareas autónomas para los usuarios de computadoras, desde reordenar los comestibles, hasta hacer una reservación en un restaurante.
“Los diseñadores creen que están creando algo realista e inteligente; sin embargo, los usuarios se sienten ansiosos e incapaces de controlar estos sistemas”, argumentó.
Shneiderman ha afirmado que los diseñadores corren el riesgo de absolver a los humanos, de la responsabilidad ética de las acciones tomadas por los sistemas autónomos, que van desde automóviles hasta las armas.
El conflicto apareció por primera vez en dos laboratorios de ciencias de la computación que fueron creados en 1962 cerca de la Universidad Stanford, en California. John McCarthy, un científico computacional que había acuñado el término “inteligencia artificial”, estableció el Laboratorio de Inteligencia Artificial de Stanford, con el objetivo de crear una “máquina pensante” en una década.
Y Douglas Engelbart, que inventó el ratón de computadora, creó el Centro de Investigación de Aumento en el Centro de Investigación de Stanford y acuñó el término “inteligencia aumentada”.
En los últimos años, los investigadores han intentado volver a unir los dos campos, describiendo la disciplina resultante como inteligencia artificial “humanista” o “centrada en el ser humano”.
La autonomía de las máquinas se ha descrito como una escala unidimensional, que abarca desde máquinas que se controlan manualmente, hasta sistemas que funcionan sin intervención humana.
Shneiderman ha esbozado una alternativa bidimensional que permite tanto, niveles altos de automatización de máquinas, como control humano. Explica que el objetivo de los diseñadores computacionales debería ser los sistemas en los que la computación se use para extender las habilidades de los humanos.
Gill Pratt, director del Instituto de Investigación Toyota, aboga por mantener a los humanos “involucrados”. Su instituto ha desarrollado Guardian, una “asistencia al conductor súper avanzada”.
Robert O. Work, subsecretario de Defensa de los presidentes Donald J. Trump y Barack Obama, respaldó la idea de los llamados sistemas de armas centauro, que requerirían el control humano, en lugar de robots asesinos, basados en inteligencia artificial, ahora llamados armas letales autónomas.
Hay escépticos.
“La noción de Ben de que su modelo bidimensional es una nueva perspectiva simplemente no es verdad”, declaró Missy Cummings, directora del Laboratorio de Humanos y Autonomía de la Universidad Duke, en Carolina del Norte, quien afirmó que se apoyaba en las ideas de la interfaz humana de Shneiderman en las clases de diseño que imparte.
“El grado de colaboración debería estar impulsado por la cantidad de incertidumbre en el sistema y lo crítico de los resultados”, indicó. “Los reactores nucleares son altamente automatizados por una razón: los seres humanos a menudo no tienen tiempos de reacción, lo suficientemente rápidos para empujar las barras, si el reactor se vuelve crítico”.