Elon Musk dice que Tesla FSD permitirá “enviar mensajes de texto y conducir” en “uno o dos meses”

-

spot_img

Elon Musk anunció hoy que Tesla permitirá a sus propietarios de vehículos eléctricos con conducción totalmente autónoma (FSD) (supervisada) “enviar mensajes de texto y conducir” en “uno o dos meses”, sin explicar cómo sortearán las leyes claras que lo prohíben.

Hace apenas unos meses, Musk volvió a afirmar que Tesla finalmente entregaría su tan prometida “conducción autónoma sin supervisión” a los vehículos de consumo para fin de año, algo que ha hecho todos los años durante los últimos 6 años y nunca ha cumplido.

Faltan menos de 2 meses para el último cronograma.

En la reunión de accionistas de Tesla de hoy, Musk actualizó su cronograma, diciendo ahora que Tesla está a “unos meses” de FSD no supervisado, lo que podría llevarlo hasta 2026.

Anuncio: desplácese para ver más contenido

También añadió que Tesla está “casi” lista para permitir “enviar mensajes de texto y conducir” con FSD y dijo que espera que Tesla lo habilite dentro de “uno o dos meses”.

Sin embargo, el CEO no dio más detalles sobre cómo planea Tesla lograrlo.

Enviar mensajes de texto y conducir es ilegal en la mayoría de las jurisdicciones, incluido Estados Unidos. Existen importantes multas y sanciones legales si se lo descubre. Para “permitir eso”, Tesla necesitaría asumir la responsabilidad de los vehículos de consumo cuando se conduce FSD, lo que significaría la “conducción autónoma sin supervisión” prometida anteriormente o la conducción autónoma de niveles 3 a 5 de SAE.

Hay varios pasos legales y regulatorios que Tesla debe tomar para que esto suceda y, hasta ahora, no hay evidencia de que el fabricante de automóviles se haya embarcado en ese viaje.

Hasta ahora, Tesla se ha limitado a proyectos piloto con flotas internas para ofrecer servicios de transporte con supervisores a bordo cuando las regulaciones lo permitan.

Musk dijo que Tesla “mirará los datos” antes de permitir enviar mensajes de texto y conducir.

Es sabido que Tesla nunca ha publicado datos relevantes sobre la seguridad de sus funciones de conducción autónoma.

El fabricante de automóviles publica un “informe de seguridad del piloto automático” trimestral, que consiste en que Tesla publica las millas recorridas entre accidentes para vehículos Tesla con funciones de piloto automático activadas y las compara con las millas recorridas por vehículos con tecnología de piloto automático con las funciones no activadas, así como el kilometraje promedio de EE. UU. entre accidentes.

Hay tres problemas principales con estos informes:

  • La metodología es autoinformada. Tesla sólo cuenta los accidentes que activan una bolsa de aire o un sistema de retención; Se excluyen los golpes menores y no se revelan los recuentos brutos de accidentes o VMT.
  • Sesgo del tipo de carretera. El piloto automático se utiliza principalmente en carreteras de acceso limitado (que ya son las más seguras), mientras que la línea de base federal combina todas las clases de carreteras. Lo que significa que hay más accidentes por milla en las calles de la ciudad que en las autopistas.
  • Combinación de conductores y antigüedad de la flota. Los conductores de Tesla se inclinan por los vehículos más nuevos, los de mayores ingresos y los entusiastas de la tecnología; Estos datos demográficos suelen colapsar menos.

Por primera vez hoy, Tesla parece haber separado el kilometraje del piloto automático y del FSD, lo que nos da un poco más de datos, pero todavía tiene muchos de los mismos problemas enumerados anteriormente:

El problema principal es que estos datos no prueban que el FSD se estrelle una vez cada 4,92 millones de millas, sino que el ser humano más el FSD se estrella cada 4,92 millones de millas según la propia definición de accidente de Tesla.

En comparación, tenemos datos oficiales del programa Robotaxi de Tesla en Austin, que supuestamente es más avanzado que el FSD y muestra un accidente cada 62.500 millas. Eso también incluye un supervisor de seguridad a bordo, lo que evita más accidentes.

La opinión de Electrek

Otra falsa promesa y falsa esperanza para mantener a los propietarios y accionistas de Tesla en funcionamiento durante unos meses más.

No se puede simplemente “permitir enviar mensajes de texto y conducir”. Las leyes lo impiden. Musk debe referirse a que Tesla haga oficialmente del FSD un sistema de conducción autónoma de nivel 3 a 4 y asuma la responsabilidad de él cuando esté activo.

Hasta el momento, en EE.UU., sólo Mercedes-Benz tiene esa capacidad para tramos de autopistas de California y Nevada bajo autonomía SAE nivel 3.

Siento que hay tantas cosas que deben suceder antes de eso.

En primer lugar, lógicamente, Tesla debería eliminar a sus supervisores a bordo de su servicio de robotaxi en Austin mucho antes. Entonces, debería poder demostrar que no chocan cada pocas decenas de miles de millas, como es el caso ahora con los supervisores que previenen más accidentes.

Lo único que veo que sucede aquí es que Tesla, literalmente, simplemente actualiza su sistema de monitoreo de conductores para dejar de buscar personas que usan sus teléfonos mientras usan FSD.

Si ese es el caso, es tan tonto como parece y expone a Tesla a una mayor responsabilidad.

Leer  Honda, Hyundai, Ford y Kia EV Sales sube en enero
spot_img

LEAVE A REPLY

Please enter your comment!
Please enter your name here

spot_img

Recomendar noticias

Los más populares