Las muertes por accidente de tráfico son escasas: se calcula que hay una por cada 100 millones de kilómetros recorridos
mensajes de texto y personas que se quedan dormidas al volante.
Como colectivo, los conductores de autobuses escolares están implicados en un accidente mortal aproximadamente cada 500 millones de kilómetros. Mientras, los accidentes documentados sugieren que los coches autónomos se han visto implicados con más frecuencia que los conducidos por humanos, siendo especialmente frecuentes las colisiones por detrás.
«El problema es que no hay ninguna prueba para saber si un coche sin conductor es seguro», dice Ramsey, analista de Gartner. «La mayoría de las veces es algo anecdótico».
Waymo, líder del mercado, dijo el año pasado que había conducido más de 20 millones de kilómetros durante aproximadamente una década.
Eso significa que sus coches tendrían que conducir 25 veces más que el total antes de que pudiéramos decir, incluso con una vaga sensación de certeza, que causan menos muertes que los conductores de autobús. La comparación está probablemente más sesgada porque la empresa ha realizado gran parte de sus pruebas en las soleadas California y Arizona.
«Crees que el ordenador lo ve todo y puede entender lo que va a pasar después. Pero los ordenadores siguen siendo muy tontos».
Por ahora, esto es lo que sabemos: los ordenadores pueden realizar cálculos mucho más rápidos que nosotros, pero todavía no tienen ni idea de cómo procesar muchas variables comunes de la carretera.
Las personas que conducen por una calle de la ciudad con unas cuantas palomas picoteando cerca de la mediana saben (a) que las palomas saldrán volando cuando el coche se acerque y (b) que los conductores que vienen detrás también saben que las palomas se dispersarán. Los conductores saben, sin tener que pensarlo, que frenar de golpe no sólo sería innecesario, sino peligroso. Así que mantienen su velocidad.
En cambio, lo que «ve» el coche de autoconducción más inteligente es un pequeño obstáculo. No sabe de dónde viene el obstáculo ni a dónde puede ir, solo que se supone que el coche debe evitar los obstáculos de forma segura, por lo que podría responder frenando bruscamente.
En el mejor de los casos, se trata de un pequeño atasco, pero un frenazo repentino puede hacer que el siguiente coche que venga por la carretera choque por detrás.
Los ordenadores solucionan sus deficiencias mediante la repetición, lo que significa que, si se le muestra el mismo escenario de palomas a un coche autoconducido suficientes veces, podría averiguar cómo superarlo de forma fiable.
Pero es probable que no tenga ni idea de cómo superar a un grupo de palomas ligeramente diferentes que vuelan de forma ligeramente diferente.
La industria utiliza la frase «aprendizaje profundo» para describir este proceso, pero eso hace que suene más sofisticado de lo que es.
«Lo que hace el aprendizaje profundo es algo parecido a la memorización», dice Gary Marcus, profesor de psicología de la Universidad de Nueva York que estudia la inteligencia artificial y los límites de los vehículos de autoconducción. «Solo funciona si las situaciones son lo suficientemente parecidas».
Y la gama de estos «casos límite», como los llaman los expertos en IA, es prácticamente infinita.
Piensa en los coches que cruzan tres carriles de tráfico sin señalizar, en los ciclistas que hacen lo mismo,
2004, todas las empresas más avanzadas de coches sin conductor siguen realizando lo que equivale a demostraciones muy sofisticadas. Y las demostraciones, como bien sabe, son engañosas.
«Es una ilusión», dice: por cada demostración con éxito, puede haber docenas de demostraciones fallidas. Y mientras que basta con ver a una persona al volante durante unos minutos para juzgar si sabe conducir o no, los ordenadores no funcionan así. Si un coche autoconducido recorre con éxito una ruta, no hay garantía de que pueda hacerlo la vigésima vez, o incluso la segunda.
En 2008, Levandowski montó su primer Prius de conducción autónoma, que llevó a cabo lo que la industria reconoce ampliamente como la primera prueba con éxito de un vehículo autónomo en la vía pública.
Levandowski era consciente de lo controlado que estaba el entorno: el coche tuvo un margen de maniobra muy amplio en su camino desde el centro de San Francisco, a través del puente de la bahía y hasta Treasure Island, porque había una caravana de 16 vehículos que lo protegía de otros coches y viceversa.
El coche rozó un muro al salir del puente, pero dice que no pudo evitar sentirse asombrado de que todo hubiera funcionado básicamente. «Lo veías y decías: ‘Vale, es una demo y hay muchas cosas en las que trabajar’», recuerda.