Missy Cummings, la expiloto de caza que se ha convertido en la peor pesadilla de Elon Musk
Missy Cummings pilotó aviones de combate durante tres años y se define como “un Quijote en esteroides”, dispuesta a enfrentarse a cualquier molino de viento.
Tras colgar el traje de piloto, Cummings investiga sobre seguridad vial y coches autónomos; ha puesto en cuestión la asistencia a la conducción de los Tesla.
En 2021, una ingeniera llamada Missy Cummings provocó la ira de Elon Musk en X (antiguo Twitter). Profesora en la Universidad de Duke ( EEUU), Cummings dirigió una investigación sobre la seguridad de los coches autónomos, y sus hallazgos la llevaron a lanzar severas advertencias sobre la asistencia a la conducción de los Tesla. Sus vehículos, explicó entonces, tienen “comportamientos variables e inseguros” y requieren más pruebas “antes de que se permita que esta tecnología opere sin control humano”. Gracias a su investigación, Cummings logró un puesto en la institución estadounidense que vela por la seguridad en las carreteras, la NHTSA, para así ayudar en la regulación de los coches autónomos.
Los fans de Tesla reaccionaron con su habitual ecuanimidad y sentido de la perspectiva, es decir, enloquecieron. Comenzaron a insistir en que Cummings intentaba regular injustamente a su ídolo, Elon Musk, lo que provocó que el magnate se acabara uniendo a la conversación. “Objetivamente”, tuiteó entonces, “su carrera tiene un enorme sesgo contra Tesla”. Como respuesta, los fans de Musk desataron toda su furia contra Cummings, contra su trabajo, su apariencia o su motivación. La acusaron de conflictos de interés, firmaron campañas pidiendo su destitución y le enviaron amenazas de muerte al correo electrónico.
La cuestión es que esta masa enfurecida de fans de Musk se estaba metiendo con la ingeniera equivocada. Como una de las primeras mujeres piloto de la Armada estadounidense, Cummings solía volar los F/ A- 18s bajo el indicativo de Arpía. La actitud de unos cuantos usuarios en Twitter con avatar de anime no la amilanaron. Publicó las peores amenazas que había recibido en LinkedIn y contrató seguridad personal. “Pensé, ¿de verdad van a hacer esto?”, recuerda. “Me preparé. Salió el piloto que hay en mí. Me encanta una buena pelea”.
Cummings no ganó esa batalla. Las quejas de Tesla acabaron forzando a la la NHTSA a recusar a Cummings de cualquier decisión que tuviese que ver con la compañía. Pero ya se sabe lo que se dice: un aterrizaje es bueno si puedes salir caminando. La investigadora asumió un nuevo puesto en la Universidad George Mason y amplió sus investigaciones más allá de Tesla, hacia toda la industria de los vehículos autónomos.
Con compañías como Cruise o Waymo desplegando robotaxis en las calles de San Francisco y otras ciudades, el auge de estas máquinas acaba de comenzar... y Cummings está en la primera línea de la resistencia. En su nueva investigación, concluye que estos robotaxis tienen entre un 4 y un 8% más de probabilidades de sufrir un accidente que un coche conducido por un humano. Y eso sin contar los extraños atascos que provocan, cómo bloquean vehículos de emergencia o incluso cómo se detienen sobre una perso
na que ya ha sido golpeada por otro coche conducido por un humano.
“En la investigación que tanto mosqueó a los trolls de Tesla, lo que en realidad decía es que este no es un problema únicamente de
Tesla: solo que Tesla sería la primera en experimentarlos”, explica Cummings. “Llevo años advirtiendo de que esto iba a pasar, que estos problemas se verían en los vehículos autónomos y aquí están. Si alguien de la industria se sorprende ahora... es cosa suya”.
Resulta que servir en la Armada estadounidense es una forma muy eficaz de entrenarse para soportar este tipo de hordas iracundas. En sus memorias de 1999, ‘ El avispero’, Cummings recuerda lo mucho que le gustaba pilotar cazas, y rememora la emoción de ser catapultada despegando de un portaaviones. Pero el ambiente en la Armada estaba lejos de ser el ideal. El acoso sexual era lo habitual y sus compañeros no paraban de insistirle en que ella no estaba capacitada para volar los aviones de combate por el simple hecho de ser mujer. Cuando ella y otra compañera del ejército se presentaron a un torneo de golf en su base, les instaron a que se pusieran uniformes de animadoras y que condujeran los carritos por el campo. Se negó.
Precisamente pilotar esos armatostes generó a Cummings varias enseñanzas sobre los peligros de las máquinas, la automatización y las interfaces de usuario. En su primer día de entrenamiento, murieron dos pilotos. En su último día, la Armada estadounidense sufrió uno de sus peores accidentes de la historia. En los tres años en los que Cummings estuvo volando, fallecieron 36 personas en accidentes.
En 2011, mientras investigaba los helicópteros autónomos de la Armada, Cummings tuvo una epifanía. Aunque estos vehículos solo se rodean de aire, están lejos de ser perfectos y confían en los mismos sensores que utilizan los coches autónomos para operar, solo que estos lo hacen junto a otros vehículos y personas. “Cuando profundicé en las capacidades de aquellos sensores”, cuenta Cummings, “me di cuenta de que tenemos un enorme problema con los coches autónomos”.
Algunos de esos peligros son meramente técnicos. La gente se puede distraer o los sistemas de conducción autónoma pueden confundirse en entornos complejos, por ejemplo. Pero otros peligros, los que Cummings define como “sociotécnicos”, son mucho más invisibles. Son aquellos riesgos que nacen del cruce entre lo que ella denomina “la cultura hipermasculina de Silicon Valley” con el mantra de las grandes tecnológicas de “moverse rápido y romper cosas”. Cuando la cultura bro y esa mentalidad disruptiva coinciden, provoca que muchas empresas pasen por alto muchos peligros.
Todo eso hace que, cuando mujeres como Cummings alzan la voz, el nivel de las respuestas sea el que es. “Cuando Elon Musk me echó encima a todos sus acólitos, la misoginia que vi me pareció muy turbia”, reconoce. “Creo que se ha avanzado mucho en el ejército, pero lo que está sucediendo con las empresas de Silicon Valley es un aviso de que, como sociedad, no hemos llegado tan lejos como pensaba”.
Un ejemplo: hace unas semanas, el jefe de Seguridad de Waymo publicó un nuevo estudio de su compañía en LinkedIn. La investigación no había sido publicada ni había sido revisada por pares, pero Waymo ya la estaba usando para defender que sus coches autónomos son menos propensos a sufrir incidentes que los vehículos que conducen organismos biológicos, como tú mismo.
Cummings, por supuesto, no estaba de acuerdo. Ella también tenía su propio estudio, también en fase de preimpresión, en él concluía que los taxis autónomos son más propensos a accidentes. Así que fue a LinkedIn e hizo exactamente lo mismo que el ejecutivo de Waymo: contarlo.
Las respuestas que recibió le resultaron familiares, le recordaron a la época que vivió cuando estaba en la Armada. Kyle Vogt, CEO de Cruise, apareció entre los comentarios a su publicación en la red social. “Me encantaría ayudarte con estos análisis”, le dijo, cuestionando sus cálculos. “Sería genial que nos pusiéramos en contacto y debatiéramos sobre ellos un poquito más”. Cummings respondió en el mismo tono. “Me encantaría ayudarte a comprender estadística básica, los usos de la visión artificialklm
y lo que implica ser un CEO responsable y comprometido con la seguridad”, escribió. “Llámame cuándo quieras”.
La investigadora cree que las mujeres que la leyeron captaron su tono. “Para las que lo leyeron fue como: uhm, eso es”, explica. Pero los hombres, no. Pensaron que había sido muy maleducada con Vogt. “Solo estaba intentando ayudarte”, le reprocharon muchos.
“Muchos hombres que me leyeron pensaron: ¡ menuda arpía!”, reconoce la experta. Pero, como la piloto de combate que había sido, no se inmutó. “Así es como conseguí mi indicativo”, zanja. “Vivo con ello”.
Así que, ¿ quién tiene razón? ¿ Cummings o los hombres autónomos de Waymo, Cruise o Tesla? Es difícil llegar a alguna conclusión por una razón muy sencilla: los datos sobre la seguridad en los coches autónomos son malísimos.
Analicemos el enfoque de Cummings y su estudio. Primero, la investigadora tuvo que lidiar con los datos de accidentes no mortales de la NHTSA para extraer las cifras que podría comparar con California, el único estado de EEUU en el que estos coches autónomos circulan
LOS ROBOTAXIS DE WAYMO O CRUISE TIENEN ENTRE 4 Y 8% MÁS DE PROBABILIDAD DE SUFRIR UN ACCIDENTE
libremente. Después tuvo que indagar para encontrar estadísticas comparables sobre accidentes no mortales y kilómetros recorridos por los vehículos de Waymo o Cruise. Su conclusión: Cruise tiene ocho accidentes no mortales por cada accidente que tiene un ser humano. Los coches autónomos de Waymo, por su parte, tienen cuatro accidentes por cada accidente que sufre una persona que conduce. Son cifras similares a las que obtienen conductores cansados por estar demasiadas horas trabajando en la carretera, como los chóferes de compañías como Uber o Lyft.
Los defensores de los taxis autónomos creen que Cummings se equivoca por varios motivos. Dicen, fundamentalmente, que las cifras de accidentes humanos en realidad están subestimadas. Además, las cifras de accidentes en todo el país, o incluso solo en California, no se pueden comparar con los datos de San Francisco, cuyo término es más denso y montañoso. Visto así, Cruise defiende en un artículo publicado en su blog corporativo que sus taxis están un 54% menos involucrados en accidentes en comparación con los coches conducidos por personas. También defiende que los conductores de servicios de taxi tienen una media de un accidente no mortal cada 136.800 kilómetros recorridos, lo que supondría un 74% más de accidentes que los taxis autónomos de Cruise.
Cummings no compra este argumento. Un artículo en un blog no es ciencia, es un comunicado de prensa. “Todas las empresas tienen un interés financiero en publicar un artículo que les haga quedar bien y, en el caso de Cruise, el artículo encima hace quedar mal a los conductores de vehículos compartidos”, expone. “Eso es lo que están haciendo”. Ese es, de hecho, exactamente el tipo de cultura sociotécnica que critica Cummings: una crítica, de hecho, que expresa de forma cualificada.
Otros expertos también descartan las afirmaciones de Cruise por el sencillo motivo de que son afirmaciones que hacen quienes están decididos a darle la bienvenida a los nuevos señores, los robots. “Si tuviéramos que creer las cifras que publica Cruise sobre media de accidentes sufridos por conductores de vehículos compartidos, estaríamos hablando de que estas personas sufren una media de dos accidentes al año”, apunta Steven Shladover, ingeniero e investigador en el Instituto de Estudios del Transporte de la Universidad de Berkeley. “¿ Cuántos conductores tienen dos accidentes al año? Eso es bastante extremo”.
Pero Shladover también se muestra escéptico con los cálculos de Cummings. “Parte de una tasa de accidentes en los que han intervenido personas demasiado baja para San Francisco y Cruise parte de una tasa de accidentes humanos
SI HAY DUDAS SOBRE LA SEGURIDAD, LOS REGULADORES DEBEN APLICAR NORMAS QUE PROTEJAN A LOS CONSUMIDORES
demasiado alta”, opina. “La realidad estará, probablemente, en algún punto intermedio”.
Puede que Cummings tenga razón y que los coches autónomos sean una amenaza. O quizás no sean una amenaza tan grave como la que expone en su último estudio. Hasta que los coches autónomos no hayan recorrido cientos de millones de kilómetros no hay manera de llegar a conclusiones estadísticamente significativas e inequívocas.
Pero la cuestión es que... no importa. Cuando los datos sobre la seguridad de un producto o tecnología dan lugar a debates, los reguladores deben tomar cartas en el asunto y aplicar normas que protejan a los consumidores, como hacen en otras industrias. Si los datos sobre coches autónomos son discutibles o incompletos, entonces esas regulaciones debería mantenerlos fuera de las carreteras. Son las empresas como Waymo, Cruise o Tesla, en esos casos, las que deberán encargarse de demostrar que esos vehículos son seguros sin que haya lugar a ningún tipo de dudas. Y, si esas compañías quieren poner robots de dos toneladas en las calles, publicar artículos sobre análisis de datos no es la manera de demostrar que están preparados para ello.
“Una de las cosas en las que estoy trabajando ahora y que saco de mis años en el mundo de la aviación es la idea de que todas estas empresas necesitan un jefe para la inteligencia artificial”, apunta Cummings. “Necesitan tener a alguien, una persona, que se ponga en pie y diga: ‘ Yo soy el responsable’. Eso es lo que se hace en el mundo de la aviación, por eso rodaron tantas cabezas por los problemas de los Boeing 737 MAX. El sector se volvió complaciente: perdió su cultura de la seguridad”.
Cummings es una investigadora cuidadosa. También es, como dijo de forma anónima otro científico del mundo de la seguridad en el transporte, muy “provocadora”. Está más que dispuesta a atacar a Tesla, Waymo o Cruise y a defender que los tech bros necesitan un marco regulatorio mucho más estricto. En cierto sentido, se ha convertido en la peor pesadilla de Elon Musk. Ha arriesgado su vida en reiteradas ocasiones para probar las enormes capacidades — y los límites letales— de las interfaces humano- máquina. Y lo hizo en un ambiente mucho más adverso que los campos de batalla en los que se han convertido plataformas como X ( antigua Twitter) o LinkedIn. Para ella, la seguridad en el mundo de la conducción autónoma no es una cuestión abstracta. Es una cuestión de vida o muerte.
“Soy profesora titular. Mi trabajo habla por sí mismo. Intento salvarte la vida, ¿ no? Y una parte de mí es como un Don Quijote en esteroides. No hay molino de viento al que no quiera enfrentarme”. Palabra de Missy Cummings.