Se han producido varios accidentes e investigaciones sobre las funciones Autopilot y Full Self-Driving Beta de Tesla, pero ¿quién tiene la culpa, la empresa o el conductor? La función Autopilot es un sistema de asistencia al conductor que puede dirigir, acelerar y frenar dentro de su carril. También permite a los conductores ajustar el control de crucero para seguir el ritmo del tráfico. También hay un Autopilot mejorado que puede hacer más cosas como cambiar de carril, aparcar y llevar el coche hacia ti, pero hay advertencias para todas estas características. Por último, el Full Self-Driving incluye todo esto y puede identificar señales de stop y semáforos. Pero, por supuesto, el conductor debe estar alerta mientras utiliza todas estas funciones.
En julio de 2022, la Administración Nacional de Seguridad del Tráfico en las Carreteras abrió investigaciones sobre choques que resultaron en muertes. Uno fue con un Model 3 de 2018 y otro con un Tesla de 2015. En el primero se cree que se estaba utilizando la tecnología de asistencia al conductor de Tesla, pero no está claro con el otro. La NHTSA está investigando otro incidente ocurrido durante el mismo mes. Un Tesla chocó contra una motocicleta, matando al conductor. Además, la rotura fantasma fue otro asunto que la organización empezó a investigar en febrero de 2022. Estas son sólo algunas de las investigaciones en curso.
La investigación del Departamento de Vehículos Motorizados de California sobre el sistema FSD de Tesla acaba de resurgir. Lleva en marcha desde 2021. La agencia alega que Tesla engañó a los consumidores sobre el funcionamiento de los sistemas. La organización afirma que el marketing de Tesla en su página web decía: «Todo lo que tendrás que hacer es subirte y decirle a tu coche a dónde ir… Tu Tesla averiguará la ruta óptima, navegando por calles urbanas, intersecciones complejas y autopistas.» Parece que el futuro ya está aquí. Aunque los anuncios pueden ser engañosos, las páginas de ayuda del sitio web de Tesla describen con mayor precisión el funcionamiento de estos sistemas. Por supuesto, debería ser el conductor quien leyera las instrucciones antes de manejar una tecnología como ésta. Pero no todo el mundo lee las instrucciones, así que ahí es donde la línea se vuelve confusa.
¿Quién debería ser responsable del mal manejo de la tecnología de asistencia al conductor?
Como se ha mencionado anteriormente, se han producido accidentes al utilizar la tecnología de autoconducción completa. El conductor suele ser responsable de una colisión dependiendo de las circunstancias. Algunos de estos conductores de Tesla ceden el control total a sus vehículos en lugar de mantenerse alerta, como indica el sitio web de asistencia de Tesla. Está claro que hay una desconexión entre lo que esta tecnología es capaz de hacer y lo que la gente cree que es capaz de hacer. Eso debería recaer en Tesla para explicar adecuadamente las características de sus vehículos eléctricos. Aunque la amenaza de que se prohíba a Tesla vender coches en California está ahí, lo más probable es que se obligue a la empresa a educar a sus clientes sobre estas funciones de conducción autónoma. Sin embargo, ya deberían haberlo hecho. Estas características son geniales para anunciarlas, pero su primera prioridad debería ser mantener a sus clientes seguros.
Si el mandato de educar adecuadamente sobre cómo utilizar estas características no funciona. El Departamento de Tráfico de California tendrá que decidir si prohíbe a Tesla la venta de vehículos en el estado o centra su atención en las personas que hacen un mal uso de la tecnología. Por supuesto, no todos los conductores de Tesla hacen un mal uso de las funciones Autopilot y FSD. Ha habido muchos informes de incidentes, pero en comparación con la cantidad de vehículos Tesla que hay, no es tan grave. Sin embargo, sigue siendo algo que debería abordarse por la seguridad de los conductores.
Fuente: CNBC vía Scribd