El naciente programa de robotaxi de Tesla ha tenido un comienzo difícil. Los nuevos datos de accidentes de la NHTSA, combinados con la nueva divulgación de Tesla sobre el kilometraje de los robotaxi, revelan que los vehículos autónomos de Tesla están chocando a un ritmo mucho mayor que el de los conductores humanos, y eso con un monitor de seguridad en cada automóvil.
los datos
Según los informes de accidentes de la Orden General Permanente de la NHTSA, Tesla ha informado de 9 accidentes que involucraron a su flota de robotaxi en Austin, Texas, entre julio y noviembre de 2025:
- Noviembre de 2025: Colisión por giro a la derecha
- Octubre de 2025: Incidente a 18 mph
- Septiembre de 2025: Golpea a un animal a 27 mph
- Septiembre de 2025: Colisión con ciclista
- Septiembre de 2025: Colisión trasera al retroceder (6 mph)
- Septiembre de 2025: Golpea un objeto fijo en el estacionamiento.
- Julio de 2025: Colisión con SUV en zona de construcción
- Julio de 2025: Golpeó un objeto fijo, causando lesiones leves (8 mph)
- Julio de 2025: Colisión por giro a la derecha con SUV
Según un gráfico del informe de ganancias del cuarto trimestre de 2025 de Tesla que muestra las millas acumuladas de robotaxi, la flota ha viajado aproximadamente 500.000 millas hasta noviembre de 2025. Eso equivale aproximadamente a un accidente cada 55.000 millas.
A modo de comparación, los conductores humanos en Estados Unidos promedian aproximadamente un accidente reportado por la policía cada 500.000 millas, según datos de la NHTSA.
Eso significa que los robotaxis de Tesla se están estrellando a un ritmo 9 veces más alto que el conductor humano promedio.
Sin embargo, esa cifra no incluye incidentes no reportados por la policía. Al sumarlos, o más bien una estimación de ellos, los humanos están más cerca de 200.000 millas entre choques, lo que sigue siendo mucho mejor que el robotaxi de Tesla en Austin.
El problema del monitor de seguridad
Esto es lo que hace que estos datos sean particularmente condenatorios: cada robotaxi Tesla en el kilometraje reportado tenía un monitor de seguridad en el vehículo que puede intervenir en cualquier momento.
Estos no son vehículos totalmente autónomos que funcionan sin respaldo. Hay un humano sentado en el coche cuyo único trabajo es prevenir accidentes. Y, sin embargo, la tasa de accidentes de Tesla sigue siendo casi un orden de magnitud peor que la de los conductores humanos normales que operan solos.
Waymo, en comparación, opera una flota totalmente autónoma, sin monitor de seguridad, sin respaldo humano, y reporta cifras de seguridad significativamente mejores. Waymo ha recorrido más de 125 millones de millas autónomas y mantiene una tasa de accidentes muy por debajo del promedio humano.
La brecha de transparencia
Quizás más preocupante que la tasa de accidentes sea la total falta de transparencia de Tesla sobre lo sucedido.
Cada narrativa del accidente de Tesla en la base de datos de la NHTSA está redactada con la misma frase: “(ELIMINADO, PUEDE CONTENER INFORMACIÓN COMERCIAL CONFIDENCIAL)”
Sabemos que un robotaxi Tesla atropelló a un ciclista. No sabemos qué pasó.
Sabemos que uno causó una lesión menor. No sabemos qué pasó.
Sabemos que uno golpeó a un animal a 27 mph. No sabemos qué pasó.
Mientras tanto, Waymo, Zoox y otros operadores de AV proporcionan descripciones narrativas completas de cada incidente. Aquí hay un informe típico de Waymo del mismo conjunto de datos:
“El Waymo AV viajaba en dirección norte por N. 16th Street en el carril izquierdo cuando redujo la velocidad hasta detenerse para cederle el paso a un peatón que había comenzado a cruzar la calle. Mientras el peatón continuaba cruzando y el Waymo AV permanecía detenido, un automóvil de pasajeros que se acercaba por detrás hizo contacto con la parte trasera del Waymo AV parado”.
Eso es responsabilidad. Eso es transparencia. Tesla no proporciona nada de eso.
Está claro que Tesla no es responsable de algunos de estos accidentes, pero el hecho de que no lo sepamos se debe enteramente al secretismo de Tesla.
Un gran ejemplo es un incidente ocurrido la semana pasada en Santa Mónica, California, donde un Waymo atropelló a un niño en una zona escolar. Eso suena horrible, ¿no? Potencialmente se trató de un incidente que puso fin a la empresa, pero Waymo dio a conocer todos los detalles, lo que confirmó que el niño corrió hacia la calle mientras estaba escondido detrás de una camioneta. El vehículo Waymo detectó inmediatamente al niño y, aunque no tuvo tiempo de evitar el impacto, pudo aplicar los frenos y reducir la velocidad de 17 mph a menos de 6 mph antes de que se hiciera contacto.
Como resultado, el niño estaba bien. Waymo incluso afirma que sus modelos muestran que un conductor humano probablemente habría reaccionado más lentamente y habría golpeado al niño al doble de velocidad.
Es mejor estar enterado de estos incidentes que mantenerlo todo en secreto para evitar hacer públicos a sus responsables.
La opinión de Electrek
Hay cosas buenas y cosas malas en esto. Con sólo una caída en octubre y otra en noviembre, parece haber mejoras.
Pero los datos generales son aleccionadores.
Un accidente cada 55.000 millas, con un monitor de seguridad en el automóvil, no está preparado para un robotaxi. Ni siquiera está cerca. Y la total falta de transparencia sobre las causas de estos accidentes hace imposible tener confianza en que Tesla esté aprendiendo de ellos.
Waymo opera vehículos totalmente autónomos en varias ciudades y publica información detallada sobre cada incidente. Tesla opera vehículos supervisados en un área geocercada y redacta todo.
Si Tesla quiere que lo tomen en serio como operador de robotaxi, necesita hacer dos cosas: mejorar drásticamente su historial de seguridad y comenzar a ser honesto acerca de lo que sucede en las carreteras de Austin.
En este momento, está fallando en ambos.




