- Datos internos filtrados revelan que Tesla continuó las pruebas en vías públicas pese a conocer miles de reportes de accidentes graves y fallas relacionadas con sus funciones de conducción autónoma
- Se confirmaron más de 2,400 quejas por aceleración repentina y más de 1,000 accidentes relacionados con Autopilot, y muchos casos aparecían marcados como no resueltos
- Algunos vehículos mostraron aceleración y frenado bruscos sin motivo, y una interpretación errónea del entorno podría derivar en choques fatales a alta velocidad
- En una demanda por un accidente mortal, se recuperaron datos del vehículo que habían sido eliminados, y se confirmó que el auto detectó un obstáculo en el momento del choque, pero no realizó ninguna maniobra evasiva y solo emitió una alerta justo antes del impacto
- Un jurado en Estados Unidos ordenó a Tesla pagar más de 243 millones de dólares en indemnización, mientras continúan investigaciones del Departamento de Justicia y de las autoridades de seguridad vial, ampliando la controversia sobre la responsabilidad de probar conducción autónoma en vías públicas
Resumen
- Con base en una filtración de datos internos, se destaca que Tesla continuó probando en vías públicas mientras ocultaba miles de reportes de accidentes graves y fallas vinculadas con sus funciones de conducción autónoma
- Según los materiales filtrados, Tesla conocía desde hace años fallas fatales en su sistema
- En el primer veredicto de jurado, Tesla fue condenada a pagar más de 243 millones de dólares a las víctimas de un accidente mortal
- A diferencia de lo prometido por los vehículos autónomos, para algunos usuarios esto se convirtió en una pesadilla, y surgieron críticas de que los sistemas de conducción basados en IA fueron lanzados al mercado con demasiada prisa y sin validación suficiente
- Se menciona una investigación que señala que Elon Musk y Tesla utilizaron las carreteras como si fueran un campo de pruebas
- El daño de los accidentes graves no se limita a conductores y pasajeros, sino que también expone a otros usuarios de la vía a fallas del sistema sin su consentimiento
Puntos clave de los datos filtrados
- En una filtración masiva de documentos internos se confirmaron miles de quejas de clientes y numerosos registros de accidentes
- Más de 2,400 quejas relacionadas con aceleración repentina
- Más de 1,000 accidentes relacionados con Autopilot
- En muchos casos, el estado de resolución de los incidentes estaba marcado como "no resuelto"
- En los documentos se evidencia en general que Tesla conocía la magnitud de las fallas del sistema
Las “alucinaciones” mortales en la carretera
- Se mencionan casos de aceleración repentina y frenado brusco sin motivo en algunos vehículos Tesla
- El artículo describe estas fallas de IA como "alucinaciones"
- Se compara con el fenómeno en el que ChatGPT da respuestas completamente incorrectas
- El sistema de conducción autónoma puede interpretar mal el entorno, y a alta velocidad este tipo de error puede tener consecuencias fatales
- Las fallas de Autopilot no representan un riesgo solo para los usuarios de Tesla, sino para todos los que circulan por la vía
- Muchas personas nunca aceptaron ser parte de un experimento de Tesla, pero en la práctica quedaron expuestas a esas fallas
Respuesta legal de las víctimas
- Naibel Benavides murió en un accidente en el que estuvo involucrado un Tesla en modo Autopilot
- En ese momento era peatona
- Dillon Angulo sobrevivió al mismo accidente, pero sufrió heridas graves y sigue padeciendo secuelas
- Incluye una declaración en la que dice: "No sabía que existía Autopilot, y cuando me enteré, sentí que era como un conejillo de indias"
- Los familiares de la víctima presentaron una demanda contra Tesla
- Alegan que Tesla ocultó información importante
- Tesla ha sostenido de forma continua que la responsabilidad recae en el conductor
Los datos del accidente que supuestamente estaban dañados
- Durante la investigación del accidente era necesario asegurar los datos de caja negra del vehículo, pero Tesla afirmó que esos datos estaban dañados
- Los abogados de las víctimas recurrieron a expertos y lograron recuperar datos eliminados
- Según la información recuperada, Tesla ya conocía la falla desde la noche del día del accidente
- En el momento del choque, el vehículo sí detectó el obstáculo, pero no realizó ninguna maniobra para evitar la colisión
- Solo emitió una alerta sonora justo antes del impacto
Un fallo histórico
- Un jurado en Estados Unidos dictó un veredicto de indemnización contra Tesla por más de 243 millones de dólares
- Este fallo se presenta como la primera gran sentencia en un caso relacionado con Autopilot
- El jurado determinó que tanto Tesla como el conductor tenían responsabilidad
- El abogado de las víctimas lo calificó como un día histórico para la justicia
- Se menciona como un fallo que deja claro que no se pueden usar las vías públicas como si fueran el laboratorio de un fabricante
- Tesla intentó anular el veredicto, pero a finales de febrero un juez federal mantuvo la sanción
- La empresa aún puede apelar
Se amplían las investigaciones en Estados Unidos
- Tesla es objeto de múltiples investigaciones en Estados Unidos
- El Departamento de Justicia investiga si hubo engaño al consumidor
- Las autoridades de seguridad vial también llevan a cabo una investigación aparte
- Denunciantes internos declararon ante las autoridades que la empresa priorizó la velocidad sobre la seguridad
- También se incluye el testimonio de que una versión de prueba de la función de conducción autónoma fue lanzada al mercado de forma precipitada, y que varios empleados advirtieron a la dirección sobre los riesgos de Autopilot
- Expertos consideran que este primer veredicto podría derivar en más demandas
- Se menciona como un fallo que abre el camino a nuevos juicios contra Tesla
1 comentarios
Comentarios en Hacker News
Me pareció realmente impactante la posibilidad de que Tesla haya desactivado Autopilot unos segundos antes del choque para que no quedara registrado como activo en el momento del accidente. Vi algo relacionado en este artículo de Futurism
Creo que Tesla tiene un historial muy malo en cuanto a cumplimiento normativo y divulgación de información relacionada con accidentes de conducción autónoma
Este artículo también estaba disponible en alemán. Se puede consultar el artículo de SRF en alemán
Este reportaje trata del Autopilot antiguo, no de FSD, y tampoco parecía aportar nada realmente nuevo. Da la impresión de que se basó en la misma filtración de datos que ya era pública desde 2023. El título también me pareció impreciso, y no encontré en el artículo evidencia directa de que Tesla hubiera ocultado un accidente fatal
Quería agregar un poco de contexto sobre el video y el artículo. Este documental fue hecho por el medio público suizo RTS y, a diferencia de lo que a veces pasa en otros medios públicos europeos, me parece que tiene financiamiento relativamente estable y una calidad bastante alta. Su independencia editorial y neutralidad también suelen ser bastante buenas, y políticamente se siente apenas un poco inclinado hacia la izquierda. El motivo de que el video esté en francés es que los medios suizos están divididos por regiones lingüísticas, y que exista una versión traducida al alemán también se debe a esa estructura. Si alguien quisiera sugerir subtítulos en inglés, quizá valdría la pena contactar directamente a RTS
Me preguntaba si al final estos accidentes también fueron casos de descuido del conductor
A mí tampoco me gusta mucho Tesla y creo que hay mucha sobrevaloración y sobrepromoción, pero sinceramente este artículo se leía como un artículo flojo. El título dice “Cómo Tesla ocultó accidentes para probar Autopilot”, pero en el cuerpo nunca explica qué ocultó exactamente, cómo lo ocultó ni a quién se lo ocultó. Mezcla la filtración de datos de Tesla de 2022 con otra demanda aparte de 2026 y tampoco presenta el vínculo entre ambas. Sí creo que existe un patrón de promesas engañosas y divulgación deficiente por parte de Tesla, pero este artículo no logra demostrar bien esa tesis
Si quieren ver el video completo, está el video completo del reportaje de RTS
Si te acomodas más con el alemán, puedes ver el artículo en alemán con el mismo contenido