2 puntos por GN⁺ 9 일 전 | 1 comentarios | Compartir por WhatsApp
  • Datos internos filtrados revelan que Tesla continuó las pruebas en vías públicas pese a conocer miles de reportes de accidentes graves y fallas relacionadas con sus funciones de conducción autónoma
  • Se confirmaron más de 2,400 quejas por aceleración repentina y más de 1,000 accidentes relacionados con Autopilot, y muchos casos aparecían marcados como no resueltos
  • Algunos vehículos mostraron aceleración y frenado bruscos sin motivo, y una interpretación errónea del entorno podría derivar en choques fatales a alta velocidad
  • En una demanda por un accidente mortal, se recuperaron datos del vehículo que habían sido eliminados, y se confirmó que el auto detectó un obstáculo en el momento del choque, pero no realizó ninguna maniobra evasiva y solo emitió una alerta justo antes del impacto
  • Un jurado en Estados Unidos ordenó a Tesla pagar más de 243 millones de dólares en indemnización, mientras continúan investigaciones del Departamento de Justicia y de las autoridades de seguridad vial, ampliando la controversia sobre la responsabilidad de probar conducción autónoma en vías públicas

Resumen

  • Con base en una filtración de datos internos, se destaca que Tesla continuó probando en vías públicas mientras ocultaba miles de reportes de accidentes graves y fallas vinculadas con sus funciones de conducción autónoma
    • Según los materiales filtrados, Tesla conocía desde hace años fallas fatales en su sistema
    • En el primer veredicto de jurado, Tesla fue condenada a pagar más de 243 millones de dólares a las víctimas de un accidente mortal
  • A diferencia de lo prometido por los vehículos autónomos, para algunos usuarios esto se convirtió en una pesadilla, y surgieron críticas de que los sistemas de conducción basados en IA fueron lanzados al mercado con demasiada prisa y sin validación suficiente
    • Se menciona una investigación que señala que Elon Musk y Tesla utilizaron las carreteras como si fueran un campo de pruebas
  • El daño de los accidentes graves no se limita a conductores y pasajeros, sino que también expone a otros usuarios de la vía a fallas del sistema sin su consentimiento

Puntos clave de los datos filtrados

  • En una filtración masiva de documentos internos se confirmaron miles de quejas de clientes y numerosos registros de accidentes
    • Más de 2,400 quejas relacionadas con aceleración repentina
    • Más de 1,000 accidentes relacionados con Autopilot
  • En muchos casos, el estado de resolución de los incidentes estaba marcado como "no resuelto"
  • En los documentos se evidencia en general que Tesla conocía la magnitud de las fallas del sistema

Las “alucinaciones” mortales en la carretera

  • Se mencionan casos de aceleración repentina y frenado brusco sin motivo en algunos vehículos Tesla
    • El artículo describe estas fallas de IA como "alucinaciones"
    • Se compara con el fenómeno en el que ChatGPT da respuestas completamente incorrectas
  • El sistema de conducción autónoma puede interpretar mal el entorno, y a alta velocidad este tipo de error puede tener consecuencias fatales
  • Las fallas de Autopilot no representan un riesgo solo para los usuarios de Tesla, sino para todos los que circulan por la vía
    • Muchas personas nunca aceptaron ser parte de un experimento de Tesla, pero en la práctica quedaron expuestas a esas fallas

Respuesta legal de las víctimas

  • Naibel Benavides murió en un accidente en el que estuvo involucrado un Tesla en modo Autopilot
    • En ese momento era peatona
  • Dillon Angulo sobrevivió al mismo accidente, pero sufrió heridas graves y sigue padeciendo secuelas
    • Incluye una declaración en la que dice: "No sabía que existía Autopilot, y cuando me enteré, sentí que era como un conejillo de indias"
  • Los familiares de la víctima presentaron una demanda contra Tesla
    • Alegan que Tesla ocultó información importante
    • Tesla ha sostenido de forma continua que la responsabilidad recae en el conductor

Los datos del accidente que supuestamente estaban dañados

  • Durante la investigación del accidente era necesario asegurar los datos de caja negra del vehículo, pero Tesla afirmó que esos datos estaban dañados
  • Los abogados de las víctimas recurrieron a expertos y lograron recuperar datos eliminados
    • Según la información recuperada, Tesla ya conocía la falla desde la noche del día del accidente
  • En el momento del choque, el vehículo sí detectó el obstáculo, pero no realizó ninguna maniobra para evitar la colisión
    • Solo emitió una alerta sonora justo antes del impacto

Un fallo histórico

  • Un jurado en Estados Unidos dictó un veredicto de indemnización contra Tesla por más de 243 millones de dólares
  • Este fallo se presenta como la primera gran sentencia en un caso relacionado con Autopilot
    • El jurado determinó que tanto Tesla como el conductor tenían responsabilidad
  • El abogado de las víctimas lo calificó como un día histórico para la justicia
    • Se menciona como un fallo que deja claro que no se pueden usar las vías públicas como si fueran el laboratorio de un fabricante
  • Tesla intentó anular el veredicto, pero a finales de febrero un juez federal mantuvo la sanción
    • La empresa aún puede apelar

Se amplían las investigaciones en Estados Unidos

  • Tesla es objeto de múltiples investigaciones en Estados Unidos
    • El Departamento de Justicia investiga si hubo engaño al consumidor
    • Las autoridades de seguridad vial también llevan a cabo una investigación aparte
  • Denunciantes internos declararon ante las autoridades que la empresa priorizó la velocidad sobre la seguridad
  • También se incluye el testimonio de que una versión de prueba de la función de conducción autónoma fue lanzada al mercado de forma precipitada, y que varios empleados advirtieron a la dirección sobre los riesgos de Autopilot
  • Expertos consideran que este primer veredicto podría derivar en más demandas
    • Se menciona como un fallo que abre el camino a nuevos juicios contra Tesla

1 comentarios

 
GN⁺ 9 일 전
Comentarios en Hacker News
  • Me pareció realmente impactante la posibilidad de que Tesla haya desactivado Autopilot unos segundos antes del choque para que no quedara registrado como activo en el momento del accidente. Vi algo relacionado en este artículo de Futurism

    • Por eso a mí tampoco me dan ganas de usar fácilmente este tipo de sistemas de asistencia al conductor. Como no sabes cuándo de repente te tocará retomar el control, siento que es mejor manejar yo mismo de principio a fin
    • Si lo vemos con justicia, el reporte decía que la función de conducción autónoma dejó de controlar el vehículo menos de 1 segundo antes del primer impacto. A mí me parece natural que el sistema abandone el control de inmediato en una situación que no puede resolver. Eso sí, si aparece evidencia de que Tesla usó activamente eso como base para evadir responsabilidad por el accidente, estaría dispuesto a cambiar de opinión. Personalmente, me parecería más razonable tomar como referencia unos 5 segundos
    • Sí parece haber partes que chocan con la investigación de la NHTSA, pero Tesla explica en su propia página de seguridad de FSD que, si FSD estuvo activado dentro de los 5 segundos previos a una colisión, para calcular la tasa de accidentes se cuenta como un choque con intervención de FSD. En teoría, ese criterio parece cubrir con holgura el tiempo normal de percepción-reacción de 1 a 1.5 segundos, pero en la práctica creo que el propio proceso de disengagement en el que el sistema devuelve el control al conductor puede cambiar ese tiempo de reacción. Si el conductor se acostumbra a que el auto se encargue del frenado y la dirección, ya no se trata solo de reaccionar a un estímulo simple, sino de volver a concentrar la atención, pasar a control manual total y recién entonces responder, así que puede tardar más. Además, también dudo que pisar el freno o girar el volante sea realmente una señal consciente de recuperación del control. Podría ser una acción refleja
    • Esto se sabe desde hace tiempo, y más que un intento de evitar que quede registrado como activo, yo lo entiendo como un diseño de seguridad para que la computadora no siga controlando en un estado posiblemente dañado tras la colisión. Si el auto se vuelca o queda muy dañado, AP o FSD podrían no tener entrenamiento para una situación así, y si en ese estado las ruedas siguen girando podría ser más peligroso para los ocupantes o para los rescatistas. Hasta donde sé, AEB puede seguir ayudando a frenar, pero es más seguro que auto-steer y cruise control se desactiven. Si no recuerdo mal, el criterio de desconexión era de alrededor de 1 segundo
  • Creo que Tesla tiene un historial muy malo en cuanto a cumplimiento normativo y divulgación de información relacionada con accidentes de conducción autónoma

    • Aun así, el artículo en sí me pareció demasiado corto de cifras concretas para la magnitud de la acusación principal. Más allá de los casos individuales trágicos, la narración general era tan vaga que terminó debilitando la fuerza del argumento
  • Este artículo también estaba disponible en alemán. Se puede consultar el artículo de SRF en alemán

    • SRF es el servicio público suizo de radio y televisión, así que probablemente también ofrezca contenido parecido en 4 o más idiomas
  • Este reportaje trata del Autopilot antiguo, no de FSD, y tampoco parecía aportar nada realmente nuevo. Da la impresión de que se basó en la misma filtración de datos que ya era pública desde 2023. El título también me pareció impreciso, y no encontré en el artículo evidencia directa de que Tesla hubiera ocultado un accidente fatal

    • Otro caso más de un titular falso o exagerado tipo clickbait sobre Elon o una empresa propiedad de Elon, así que tampoco sorprende
  • Quería agregar un poco de contexto sobre el video y el artículo. Este documental fue hecho por el medio público suizo RTS y, a diferencia de lo que a veces pasa en otros medios públicos europeos, me parece que tiene financiamiento relativamente estable y una calidad bastante alta. Su independencia editorial y neutralidad también suelen ser bastante buenas, y políticamente se siente apenas un poco inclinado hacia la izquierda. El motivo de que el video esté en francés es que los medios suizos están divididos por regiones lingüísticas, y que exista una versión traducida al alemán también se debe a esa estructura. Si alguien quisiera sugerir subtítulos en inglés, quizá valdría la pena contactar directamente a RTS

    • Pero esa explicación sonó como si insinuara que los medios públicos europeos normalmente no fueran muy confiables. Me dio curiosidad saber por qué lo ves así. Pensé en países europeos con radiodifusión pública de alta calidad y la lista se me hizo larguísima, así que esa generalización más bien me pareció extraña
  • Me preguntaba si al final estos accidentes también fueron casos de descuido del conductor

    • Yo diría que sí. Pero el punto central, creo, es que la propia naturaleza de FSD puede hacer que el conductor baje la guardia
  • A mí tampoco me gusta mucho Tesla y creo que hay mucha sobrevaloración y sobrepromoción, pero sinceramente este artículo se leía como un artículo flojo. El título dice “Cómo Tesla ocultó accidentes para probar Autopilot”, pero en el cuerpo nunca explica qué ocultó exactamente, cómo lo ocultó ni a quién se lo ocultó. Mezcla la filtración de datos de Tesla de 2022 con otra demanda aparte de 2026 y tampoco presenta el vínculo entre ambas. Sí creo que existe un patrón de promesas engañosas y divulgación deficiente por parte de Tesla, pero este artículo no logra demostrar bien esa tesis

    • Yo sentí algo parecido. Sobre todo con temas relacionados con Musk, esto se veía más seguido. Hay material de sobra para criticar, pero si el periodismo de investigación quiere recuperar respeto, creo que ayudaría más a la confianza tanto del público como de la prensa presentar menos acusaciones pero más concretas y mejor sustentadas, en vez de lanzar sospechas vagas. Puede que las formas vagas sean más fáciles para mover la opinión pública, pero me parece un mecanismo peligroso porque no necesita ser consistente con la verdad
    • Vi este comentario y fui a leer el artículo por mi cuenta; yo también sentí que no decía gran cosa. Pero no entiendo muy bien por qué esta opinión recibió downvotes. Aclaro que yo tampoco soy fan de Tesla, y ese camión me parece malísimo
  • Si quieren ver el video completo, está el video completo del reportaje de RTS

  • Si te acomodas más con el alemán, puedes ver el artículo en alemán con el mismo contenido