En marzo de 2023, un estudiante de Carolina del Norte se bajaba de un autobús escolar cuando fue atropellado por un Tesla Model Y que viajaba a “velocidad de autopista”, según una investigación federal que se publicó hoy. El conductor de Tesla estaba usando Autopilot, la función avanzada de asistencia al conductor del fabricante de automóviles que, según Elon Musk, eventualmente conducirá a autos totalmente autónomos.
El estudiante de 17 años que resultó atropellado fue transportado en helicóptero a un hospital con heridas potencialmente mortales. Pero lo que la investigación encontró después de examinar cientos de accidentes similares fue un patrón de falta de atención del conductor, combinado con las deficiencias de la tecnología de Tesla, que resultó en cientos de heridos y docenas de muertes.
Los conductores que utilizaban el piloto automático o el hermano más avanzado del sistema, la conducción autónoma total, «no estaban lo suficientemente involucrados en la tarea de conducción» y la tecnología de Tesla «no garantizaba adecuadamente que los conductores mantuvieran su atención en la tarea de conducción», concluyó la NHTSA.
Los conductores que utilizan el piloto automático o el hermano más avanzado del sistema, la conducción autónoma total, «no estaban lo suficientemente involucrados en la tarea de conducción»
En total, la NHTSA investigó 956 accidentes, comenzando en enero de 2018 y extendiéndose hasta agosto de 2023. De esos accidentes, algunos de los cuales involucraron a otros vehículos que chocaron contra el vehículo Tesla, 29 personas murieron. También hubo 211 accidentes en los que “el plano frontal del Tesla chocó contra un vehículo u obstáculo en su camino”. Estos accidentes fueron a menudo los más graves: de ellos, 14 personas murieron y 49 resultaron heridas.
La NHTSA se vio obligada a iniciar su investigación después de varios incidentes en los que conductores de Tesla chocaron contra vehículos de emergencia parados estacionados al costado de la carretera. La mayoría de estos incidentes ocurrieron después del anochecer, y el software ignoró las medidas de control de la escena, incluidas luces de advertencia, bengalas, conos y un tablero de flechas iluminado.
En su informe, la agencia encontró que el piloto automático (y, en algunos casos, el FSD) no estaba diseñado para mantener al conductor involucrado en la tarea de conducir. Tesla dice que advierte a sus clientes que deben prestar atención mientras usan el piloto automático y el FSD, lo que incluye mantener las manos en el volante y la vista en la carretera. Pero la NHTSA dice que en muchos casos, los conductores se volverían demasiado complacientes y perderían la concentración. Y cuando llegaba el momento de reaccionar, a menudo ya era demasiado tarde.
En 59 accidentes examinados por la NHTSA, la agencia encontró que los conductores de Tesla tuvieron suficiente tiempo, “cinco o más segundos”, antes de chocar contra otro objeto para reaccionar. En 19 de esos choques, el peligro fue visible durante 10 segundos o más antes de la colisión. Al revisar los registros de accidentes y los datos proporcionados por Tesla, la NHTSA descubrió que los conductores no frenaron ni giraron para evitar el peligro en la mayoría de los accidentes analizados.
«Se encontraron accidentes sin acción evasiva o sin intento de evasión por parte del conductor en todas las versiones de hardware de Tesla y circunstancias de accidente», dijo la NHTSA.
La NHTSA también comparó las funciones de automatización de Nivel 2 (L2) de Tesla con productos disponibles en vehículos de otras empresas. A diferencia de otros sistemas, el piloto automático se desconectaría en lugar de permitir a los conductores ajustar la dirección. Esto «desalienta» a los conductores a seguir involucrados en la tarea de conducir, dijo la NHTSA.
«Se encontraron accidentes sin acción evasiva o tardía por parte del conductor en todas las versiones de hardware de Tesla y circunstancias de accidente».
Una comparación de las opciones de diseño de Tesla con las de sus pares L2 identificó a Tesla como un caso atípico en la industria en su enfoque hacia la tecnología L2 al no combinar un débil sistema de participación del conductor con las capacidades operativas permisivas del Autopilot.
Incluso la marca “Piloto automático” es engañosa, dijo la NHTSA, evocando la idea de que los conductores no tienen el control. Mientras que otras empresas utilizan alguna versión de «asistir», «sentir» o «equipo», los productos de Tesla inducen a los conductores a pensar que son más capaces de lo que son. El fiscal general de California y el Departamento de Vehículos Motorizados del estado están investigando a Tesla por marcas y marketing engañosos.
La NHTSA reconoce que su investigación puede estar incompleta debido a las «lagunas» en los datos de telemetría de Tesla. Eso podría significar que hay muchos más accidentes relacionados con el piloto automático y el FSD de los que la NHTSA pudo encontrar.
Incluso la marca «Autopilot» es engañosa, dijo la NHTSA
Tesla emitió un retiro voluntario a fines del año pasado en respuesta a la investigación, lanzando una actualización de software inalámbrica para agregar más advertencias al Autopilot. La NHTSA dijo hoy que estaba iniciando una nueva investigación sobre el retiro del mercado después de que varios expertos en seguridad dijeran que la actualización era inadecuada y aún permitía un uso indebido.
Los hallazgos van en contra de la insistencia de Musk de que Tesla es una empresa de inteligencia artificial que está a punto de lanzar un vehículo totalmente autónomo para uso personal. La compañía planea presentar un robotaxi a finales de este año que se supone marcará el comienzo de esta nueva era para Tesla. Durante la conferencia telefónica sobre resultados del primer trimestre de esta semana, Musk redobló la idea de que sus vehículos eran más seguros que los conducidos por humanos.
«Si tienes, a escala, una cantidad estadísticamente significativa de datos que muestran de manera concluyente que el automóvil autónomo tiene, digamos, la mitad de la tasa de accidentes que un automóvil conducido por humanos, creo que es difícil de ignorar», dijo Musk. “Porque en ese momento, detener la autonomía significa matar gente”.