Tesla ocultó datos y desvió a la policía y a los demandantes para evitar responsabilidad por accidente de Autopilot
(electrek.co)- Tesla intentó evitar la responsabilidad por un accidente relacionado con Autopilot mediante ocultamiento de datos importantes y declaraciones falsas.
- Tras el choque, ocultó los datos de 'snapshot de colisión' cargados desde el vehículo al servidor y sostuvo que no existían ante la policía y el demandante.
- Durante todo el proceso legal y de investigación, hubo un suministro intencional de información imprecisa y la distorsión de pruebas clave en respuesta a solicitudes de datos.
- Gracias al análisis de expertos forenses externos y a las medidas coercitivas del tribunal, los datos ocultos se hicieron públicos, y en el análisis interno de Tesla también se confirmó que el Autopilot estaba activo.
- El veredicto del jurado atribuyó un 33 % de la responsabilidad del accidente a Tesla, y se reveló que la falta de geofencing y monitoreo del conductor en Autopilot fue una de las causas del fracaso en la prevención.
Introducción
Los registros detallados del caso, en el que Tesla ocultó datos y durante años desvió a la policía, el tribunal y al demandante mediante mentiras e información confusa tras un accidente fatal relacionado con Tesla Autopilot en 2019, se hicieron públicos en los expedientes del juicio. Este resumen organiza de forma cronológica el proceso de ocultamiento y manipulación de pruebas por parte de la compañía y sus consecuencias.
Accidente y evolución del ocultamiento de datos
1 | 25 de abril de 2019 – Ocurrencia del accidente y carga inmediata de datos
- A los 3 minutos del accidente, los datos de video de sensores, CANbus, EDR y otros del vehículo se enviaron al servidor como archivo
snapshot_collision_airbag-deployment.tar. - Se eliminó la copia local del vehículo; en la práctica, esos datos solo eran accesibles para Tesla.
- Un ingeniero de forénsica confirmó mediante el análisis del computador integrado del vehículo la existencia de esos datos.
- Tesla presentó una respuesta falsa a las solicitudes legales afirmando que los datos no existían.
2 | 23 de mayo de 2019 – El abogado de Tesla indujo la redacción directa de la solicitud oficial de la policía
- El patrullero de autopistas de Florida (Riso) solicitó a Tesla los datos del choque.
- Al indicar directamente el contenido de los documentos oficiales, el abogado de Tesla excluyó los datos reales del choque y solo entregó datos secundarios como registros de entretenimiento.
- Aunque Tesla ya tenía esos datos, ocultó este hecho a la policía y al demandante.
3 | junio de 2019 – Un proceso de extracción de datos que levantó sospechas
- La policía confiscó directamente la Autopilot ECU y la MCU de ese vehículo.
- Al intentar extraer datos en un centro de servicio de Tesla, el técnico interno declaró que no conocía bien el procedimiento y alegó “daño de datos”.
- Un ingeniero forense logró luego acceder a los datos en la computadora, demostrando que realmente existían.
4 | 2019–2024 – Ocultamiento y negación de datos repetidos
- Aunque Tesla ya tenía esos datos desde hacía años, siguió alegando de forma consistente que no existían o estaban dañados ante las solicitudes de la policía y del tribunal.
- Se presentó como excusa la existencia de una función de borrado automático de datos.
- Solo reconoció su existencia parcialmente tras la confirmación forense o la fuerza coercitiva del tribunal.
5 | Segunda mitad de 2024 – Extracción forzada de datos por orden judicial
- Por orden del tribunal, el experto de la parte demandante realizó la imagen completa de la NAND flash de la Autopilot ECU.
- Una tarea que Tesla afirmó que no se podía hacer fue realizada con éxito por un experto externo, obteniendo los datos por completo.
6 | febrero–marzo de 2025 – Pruebas decisivas mediante análisis forense
- Se obtuvieron metadatos clave como el nombre del archivo
snapshot_collision_airbag-deployment.tar, la suma de comprobación y la ruta del servidor. - A diferencia de los datos que había proporcionado Tesla, incluía numerosos registros decisivos con la operación de Autopilot antes y después del choque, señales de advertencia, datos de mapa y de visión.
- Aunque el mapa indicaba que la zona aparecía como "restriced Autosteer zone", Autopilot siguió funcionando sin desactivarse ni emitir avisos.
7 | mayo de 2025 – Tesla acorralada tras la presentación de registros del servidor y evidencia
- La parte demandante confirmó mediante citación de logs de AWS que el archivo estuvo almacenado en el servidor desde el 25 de abril de 2019 a las 18:16 (PDT).
- El análisis interno de Tesla confirmó claramente el uso de ese archivo, el funcionamiento de Autopilot y que el conductor tenía las manos levantadas del volante.
- No proporcionó esos datos ni a la policía ni a la familia de la víctima.
8 | julio de 2025 – Revisión del veredicto del jurado
- El jurado confirmó la divulgación de los datos del accidente y el intento de ocultamiento organizado de Tesla.
- Contenido de datos reales: Autopilot/Autosteer operando por completo, sin intervención manual del conductor.
- No hubo avisos; el sistema respondió inadecuadamente al entrar en una zona restringida (Autopilot encendido en una carretera fuera del área diseñada exclusivamente para autopistas).
- La NTSB ya había recomendado a Tesla fortalecer geofencing y vigilancia del conductor para evitar el mal uso del sistema.
- La distracción del conductor fue la causa directa, pero se asignó a Tesla una porción mínima de responsabilidad (33 %).
Comentario de Electrek
- Algunos críticos desestimaron este caso como una exigencia indebida de compensación por parte de la parte de la víctima, pero desde la perspectiva de la familia se subrayó la normalidad de la voluntad de esclarecer la verdad y evitar que vuelva a ocurrir.
- Aunque la responsabilidad directa recae en el conductor, Tesla también presenta un problema grave por la insuficiencia de límites de uso de Autopilot, la falta de alertas de riesgo y el intento de eludir la responsabilidad.
- Tras revisar todas las pruebas, los 12 jurados asignaron a Tesla un 33 % de responsabilidad, lo que puede considerarse una decisión justa.
- Esta sentencia confirma la importancia de la confianza en los sistemas Autopilot, la transparencia de datos y la clarificación de responsabilidades.
Aún no hay comentarios.