Actualmente, ya hay vehículos autónomos que circulan solos, sin que nadie los conduzca. De hecho, muchos de ellos ni siquiera tienen volante. Otros conservan la figura del conductor o conductora, pero incorporan la posibilidad de ponerlos en automático y funcionar sin la intervención humana. La tecnología avanza y la legislación, tratando de seguirle el ritmo, corre veloz tras ella, porque son muchos los dilemas éticos que plantea la posibilidad de que en las ciudades transiten vehículos autónomos.
Tenemos a nuestro alrededor más ejemplos de vehículos autónomos de los que somos conscientes. Un ejemplo de ello son los aviones. La gran mayoría de los trayectos que realizan los hacen en piloto automático: eso es un dron y un vehículo autónomo desde hace muchos años. Y nadie se plantea o pone en duda que está sobrevolando el Atlántico a 9 000 metros de altura presurizado y el piloto está durmiendo. O cuando vamos al aeropuerto de Barajas, el tren subterráneo que une la T4 con la T4 Satélite es un tren autónomo: no tiene conductor.
Y poco a poco van dando el salto a las carreteras. Los prototipos de coches autónomos ya existen. Por ejemplo, Google Car (ahora Waymo) tiene desde hace varios años un vehículo que es capaz de conducir solo. Ciertos modelos de Tesla ya son capaces de, en un momento determinado, circular solos mientras sus ocupantes, por ejemplo, se echan una siesta en la autopista. En Estados Unidos van más adelantados en este sentido porque su propia realidad comercial es diferente.
En caso de accidente, ¿quién es el responsable?
La tecnología ya permite que existan coches autónomos, pero todavía hay muchas cuestiones éticas que resolver. Los vehículos autónomos tienen múltiples sistemas que contribuyen en la labor de conducción como son los sensores, la captura de información del exterior para poder establecer rutas y un elemento decisor que ayuda a realizar diferentes operaciones como disminuir o aumentar la velocidad, girar o detenerse: es su propio razonador o inteligencia artificial.
La duda se plantea cuando el razonador debe tomar una decisión que puede poner en peligro la vida de los ocupantes del vehículo o de quienes se encuentren fuera de él. ¿Cómo toma esa decisión y, en caso de que haya un accidente, quién es el responsable subsidiario? Es la gran cuestión legal que ahora se plantea con la utilización del vehículo autónomo como tal y, probablemente, un reto mayor que el propio tecnológico.
Hoy, si usted tiene un accidente en su coche, está claro que puede ser el responsable dado que usted conduce. Pero si está montado en un coche que no tiene pedales ni volante y sufre un percance, ¿quién es el responsable? ¿El fabricante del vehículo? ¿El gestor de la infraestructura de telecomunicaciones? ¿La persona o equipo que ha integrado el razonador? Son temas candentes que no tienen una respuesta sencilla.
Teóricamente, el razonador debería ponderar todas las variables incluidas las de coste humano y adoptar como respuesta aquella que le dé un daño humano mínimo. Por ejemplo, si voy a atropellar a cinco personas y, a cambio, yo sufro un accidente si no las atropello, pues lo que debería hacer el razonador es esquivar a esas personas.
En China y en Estados Unidos nos llevan ventaja y, desde finales del 2020, ya está operativa la legislación que regula a los vehículos tipo 4, es decir, aquellos que son cuasiautónomos. En otras palabras, un coche normal que puede conducirse solo, pero en el que siempre su ocupante tiene la opción de tomar las riendas si lo desea.
En Europa, en breve, dispondremos de la normativa para los vehículos autónomos de categoría 4 y trabajan para que la legislación de los vehículos totalmente autónomos (los llamados de categoría 5) esté lista para el año 2030.
¿Una máquina conduce mejor que un ser humano?
Los coches autónomos son mejores en materia de seguridad que las personas. No tanto porque sea la máquina quien toma la decisión, sino porque su agilidad y capacidad de cálculo para ponderar variables es más rápida que la del ser humano. Ante un imprevisto, el tiempo de respuesta de un conductor en plenas facultades puede ser de 200 milisegundos que, traducidos en metros recorridos, son una distancia considerable.
En cambio, los últimos sistemas de comunicaciones 5G tienen un retardo objetivo de un milisegundo. Si a ello le suma que una máquina detecta la presencia de un peatón con cámaras y sensores mejores que el ángulo de visión del ser humano, está claro que va a frenar antes. De hecho, ya es posible comprar vehículos autónomos de categoría 2 que incorporan sistemas de frenado automático, capaces de detectar a un peatón y detenerse solos. ¿Y por qué lo hace el coche por usted? Porque está claro que lo va a hacer antes. Otra cuestión es que ese sistema pueda no valorar otros criterios que no sean matemáticos.
¿Hay accidentes de avión? Sí, los hay. ¿Hay muchos? Si los comparamos en porcentaje con vehículos rodados, hay muchos menos. Los vehículos autónomos, si van a ser puramente autónomos, deberán tener sistemas de seguridad redundantes para que los fallos ocurran lo menos posible. En el proceso de diseño habrá mucha seguridad duplicada o triplicada. Pero estamos en ese camino. Mientras tanto, habrá que apostar por vehículos más parecidos a los del tipo 4, es decir, que en el caso de que tengan un fallo, le permitan retomar el control. Y así, si no le funciona el guiado automático, deberá ser usted mismo quien guíe al coche.
En cuanto a los autobuses autónomos, llegarán, pero seguramente no será en el 2030 y, probablemente, tampoco en el 2040. Tardaremos en verlos precisamente por las salvaguardas que debemos tener. Pero llegarán. De hecho, ahora ya hay trenes donde no existen conductores. Lo que es indudable es que la tecnología va a tener que evolucionar y ser tan eficiente y segura que se le dé por hecho ese valor.