Los autos sin conductor descubren los límites de la autonomía

Sacar a los humanos del volante no necesariamente disminuirá los riesgos en el tránsito

Nosotros los humanos somos falibles, seres imperfectos propensos a cometer errores y a equivocarnos al momento de tomar decisiones básicas. Por lo tanto, creamos tecnologías que nos ayuden.

Pensemos en los planes de lanzar flotas de autos autónomos. La creencia acá es que la tecnología mejorará la seguridad. Pero esa es una suposición audaz en esta etapa de su desarrollo.

Por un lado, todavía no está la evidencia que respalde esa opinión. Los mejores datos que tenemos provienen de pruebas realizadas durante 2016 en California. Ese estado, hay que recordar, tiene un clima templado poco representativo de las condiciones de conducción globales.

Waymo de Google fue al que mejor le fue, con una intervención humana cada 8200 kilómetros conducidos. Eso era una mejora con respecto al año anterior, pero para nada cerca de ser perfecto. En total, los 60 autos de prueba que tiene Waymo recorrieron cerca de 17.000 kilómetros en 2016 -4200 km menos que el promedio anual norteamericano por vehículo -y dentro de ese periodo requirió al menos de dos intervenciones en cada uno.

Tesla tuvo un desempeño mucho peor. Los cuatro vehículos del fabricante de autos eléctricos se probaron un promedio de 220 km cada uno ese año, y fue necesaria la acción humana 45 veces por vehículo -uno prácticamente cada 4,4 km. Cada intervención representa un accidente que probablemente se haya evitado.

Dado que la mayoría de los observadores del sector cree que el público no tolerará error de ningún tipo, nada de esto es alentador. Definitivamente es cierto que la tecnología está mejorando. Pero también hay que decir que los autos sin conductor existen desde mediados de los noventa, e incluso en aquel entonces hubo un vehículo que logró un "porcentaje de conducción autónoma" de 98,2%.

Pero aunque los desafíos técnicos se puedan vencer, las externalidades negativas inesperadas probablemente no.

Un buen ejemplo es el último accidente que tuvo el vehículo autónomo de Uber en Arizona, donde la falla fue del conductor del otro auto, no del vehículo de Uber. En ese caso, el humano no cedió el paso, lo que puso de manifiesto uno de los mayores desafíos de la transición autónoma que se viene: un mundo donde los humanos y los autos sin conductor tendrán que interactuar de manera segura.

Sin embargo, lo que motiva a los humanos a actuar, es muy diferente a lo que motiva a los algoritmos. La mayoría de los conductores -salvo los que están borrachos, son suicidas o quieren provocar temor- tienden a la autopreservación o a preservar a los demás. Eso no se puede garantizar con los algoritmos complejos.

Hay excepciones, como el reciente ataque terrorista en Londres. Pero sacando a los humanos del volante no necesariamente disminuirán los riesgos. Los autos que se manejan solos podrían fácilmente ser convertidos en armas, dado que sólo se necesita un hacker.

Mientras tanto, el alcoholismo mató tres veces más norteamericanos que los choques fatales en 2014. Por lo tanto, si manejar fomenta la sobriedad, otra consecuencia no deseada podría ser el aumento del abuso de alcohol y drogas cuando los humanos se sientan liberados de esa responsabilidad.

También está la confianza que tenemos que depositar en los programadores. Normalmente en el mundo corporativo los empleadores idean complejos programas de recompensas y sanciones para incentivar a los trabajadores a esforzarse al máximo, incluso aunque les convenga tomar atajos. Se los hace responsables de sus actos. En sectores donde los descuidos de las personas pueden tener un impacto desproporcionadamente negativo sobre otros -por ejemplo en los bancos o en el control de tráfico aéreo- esos tipos de incentivos son aún más importantes.

Sin embargo, los autos autónomos serán programados y sostenidos por ejércitos de programadores que aprovechan la seguridad de ser números cuando se trata de responsabilidad. ¿Podemos estar seguros de que siempre estarán debidamente motivados?

Finalmente, si bien hay un buen argumento para afirmar que la tecnología para la conducción autónoma potencia la manera de conducir de los humanos, existe el riesgo de que pueda llevar a una degradación de esas habilidades. Y seguramente no querríamos arriesgarnos a descubrir que las hemos perdido cuando realmente las necesitamos.

Traducción: Mariana Inés Oriolo

Las más leídas de Financial Times

Destacadas de hoy

Noticias de tu interés