El exjefe de vehículos autónomos de Uber choca su Tesla con FSD y expone un problema de supervisión

-

spot_img

Raffi Krikorian, director de tecnología de Mozilla y exjefe de la división de vehículos autónomos de Uber, destrozó su Tesla Model X mientras utilizaba la “conducción totalmente autónoma” en una calle residencial. Sus hijos estaban en el asiento trasero.

En un nuevo ensayo publicado en The Atlantic, Krikorian analiza el accidente y ofrece lo que podría ser la crítica más informada hasta el momento del problema fundamental con el enfoque de Tesla hacia la autonomía “supervisada”, por parte de alguien que literalmente construyó sistemas de conducción autónoma para ganarse la vida.

el accidente

Krikorian describe un viaje dominical que había hecho cientos de veces: llevando a su hijo a una reunión de Boy Scouts por calles residenciales del Área de la Bahía. Su Tesla estaba en modo FSD y el sistema funcionaba sin problemas hasta que de repente dejó de estarlo.

Cuando el Model X entró en una curva, el FSD pareció perder el rumbo, Krikorian describe que la rueda se sacudía erráticamente y el automóvil desaceleraba sin previo aviso. Agarró el volante, pero no pudo recuperarse a tiempo. El auto chocó contra un muro de concreto y quedó destrozado. Krikorian sufrió una conmoción cerebral, rigidez en el cuello y días de dolores de cabeza. Sus hijos resultaron ilesos.

Anuncio: desplácese para ver más contenido

Lo que hace que este relato sea particularmente sorprendente son los antecedentes de Krikorian. En el Centro de Tecnologías Avanzadas de Uber, dirigió el equipo de construcción de vehículos autónomos y capacitó a conductores humanos de seguridad sobre exactamente cuándo y cómo intervenir cuando falla un sistema de conducción autónoma. Durante sus dos años al frente de la división, los primeros programas piloto de Uber no tuvieron lesiones.

A pesar de toda esa experiencia, la FSD todavía lo consiguió.

Escribe que comenzó a usar FSD en las autopistas, donde tenían sentido tener marcadores de carril claros y un tráfico predecible. Luego lo probó en carreteras locales, funcionó bien y se convirtió en costumbre. Antes del accidente, tenía las manos en el volante. Estaba haciendo lo que Tesla pide a los conductores: monitorear, no conducir. Pero como él mismo dice, el sistema lo había condicionado a confiar en él.

Después del accidente, su nombre apareció en el informe del seguro. No el de Tesla. Así es como funciona cada accidente FSD según el marco legal actual, el sistema de Tesla está clasificado como Nivel 2, lo que significa que el conductor es responsable en todo momento.

Krikorian también plantea un punto preocupante sobre las prácticas de datos de Tesla. El automóvil registra constantemente la posición de las manos del conductor, el tiempo de reacción y el seguimiento ocular, y Tesla ha utilizado estos datos después de accidentes para echarle la culpa a los conductores. Mientras tanto, los conductores que solicitan sus propios datos dicen que sólo han recibido fragmentos. En el histórico caso de muerte por negligencia de Florida que resultó en un veredicto de $243 millones, los demandantes tuvieron que contratar a un hacker para recuperar evidencia crítica del chip de computadora del vehículo accidentado porque Tesla afirmó que no se podían encontrar los datos.

El problema de la supervisión

La parte más valiosa del ensayo de Krikorian es su análisis de por qué la conducción autónoma “supervisada” no funciona fundamentalmente, un tema que hemos cubierto ampliamente en Electrek.

Su argumento central: Tesla está pidiendo a los humanos que supervisen un sistema que está diseñado específicamente para que la supervisión parezca inútil. Como él dice, una máquina poco confiable te mantiene alerta, y una máquina perfecta no necesita supervisión, sino que funciona. casi Crea perfectamente una trampa en la que los conductores confían en él lo suficiente como para dejar de prestar atención.

La investigación respalda esto. Los psicólogos lo llaman “disminución de la vigilancia”, monitorear un sistema casi perfecto es aburrido, el aburrimiento lleva a divagar y los conductores necesitan de 5 a 8 segundos para volver a conectarse mentalmente después de que un sistema automatizado les devuelve el control. Pero las emergencias se desarrollan más rápido que eso.

Krikorian cita un estudio del Instituto de Seguros para la Seguridad en las Carreteras que muestra que después de sólo un mes de usar el control de crucero adaptativo, los conductores tenían más de seis veces más probabilidades de mirar sus teléfonos. El propio sitio web de Tesla advierte a los usuarios de FSD que no se vuelvan complacientes, pero el buen funcionamiento del sistema entrena activamente esa complacencia.

Señala dos accidentes bien conocidos para ilustrar la matemática imposible. En el accidente de Mountain View de 2018 en el que murió el ingeniero de Apple, Walter Huang, el conductor tuvo seis segundos antes de que su Tesla se desviara hacia una mediana de concreto. Nunca tocó el volante. En el accidente de Uber de 2018 en Tempe, Arizona, los sensores detectaron a un peatón con 5,6 segundos de advertencia, pero el conductor de seguridad miró hacia arriba cuando quedaba menos de un segundo.

En el caso del propio Krikorian, sí tomó medidas, pero se le pidió que pasara de pasajero a piloto en una fracción de segundo, superando meses de acondicionamiento. Los registros muestran que hizo girar la rueda. No muestran las matemáticas imposibles de esa transición.

El patrón que describe Krikorian debería resultarle familiar a cualquiera que haya seguido las controversias sobre el FSD de Tesla: condicionar al conductor para que confíe en el sistema, erosionar su vigilancia durante meses de funcionamiento fluido, luego señalar los términos de servicio y culparlo cuando algo se rompe. Cuando FSD funciona, Tesla recibe crédito. Cuando no es así, se culpa al conductor.

Krikorian también contrasta el enfoque de Tesla con un ejemplo notable de responsabilidad de un competidor. En julio de 2025, BYD anunció que pagaría los daños causados ​​por accidentes que involucraran su función de estacionamiento autónomo: no se requiere reclamo de seguro ni impacto en el historial del conductor. Es un ejemplo limitado, pero demuestra que la responsabilidad compartida entre el fabricante de automóviles y el conductor es una elección, no una imposibilidad.

La opinión de Electrek

Llevamos años diciendo esto: el FSD de Tesla se vuelve más peligroso a medida que mejora. Cuanto más fluido se vuelve, más adormece a los conductores con una falsa sensación de seguridad, y más difícil se vuelve reaccionar cuando el sistema inevitablemente comete un error.

Lo que hace que el relato de Krikorian sea tan convincente es que no es un crítico cualquiera de Tesla. Construyó coches autónomos en Uber. Capacitó a conductores de seguridad sobre protocolos de intervención. Entendió el riesgo intelectualmente y aun así quedó condicionado a la complacencia. Si alguien con ese nivel de experiencia puede ser atrapado, el propietario promedio de un Tesla no tiene ninguna posibilidad.

La etiqueta “supervisado” es un escudo legal, no una solución de seguridad. Tesla sabe que los humanos no pueden supervisar de manera confiable un sistema que funciona el 99% del tiempo; la investigación es clara y Krikorian lo expone claramente. Sin embargo, la empresa continúa vendiendo “conducción totalmente autónoma” y señala la letra pequeña cuando las cosas van mal.

Con la NHTSA investigando actualmente más de 80 incidentes de FSD que cubren 2,88 millones de vehículos y una creciente avalancha de demandas tras el veredicto de 243 millones de dólares en Florida, la presión sobre Tesla para que realmente comparta la responsabilidad por las fallas de su sistema está aumentando. BYD demostró que es posible. La pregunta es si Tesla alguna vez optará por la rendición de cuentas en lugar de echar la culpa.

Agregue Electrek como fuente preferida en Google
Agregue Electrek como fuente preferida en Google

Leer  El Chevy Equinox EV se está vendiendo como Hotcakes
spot_img

LEAVE A REPLY

Please enter your comment!
Please enter your name here

spot_img

Recomendar noticias

Los más populares