fbpx

Los vehículos autónomos entran en conflicto con la ética y moral

Algunas decisiones inconscientes de los conductores deben quedar programadas en el software de los vehículos autónomos

Hace poco mas de 5 años, pensar en un vehículo autónomo era un sueño traído de la ciencia ficción. Hoy ya hay algunos modelos comerciales en el mercado con capacidades de autonomía, como el Tesla.

Parece que ya la tecnología ha cubierto una buena parte de la complejidad que supone que un automóvil se conduzca a si mismo. Así, el vehículo es capaz de mantenerse en un carril, de sobrepasar otro vehículo y de calcular la velocidad necesaria para entrar a una autopista, entre otras decisiones que debe tomar como conductor. No obstante, quedan aún por programar algunas decisiones que un humano toma de manera casi inconsciente.


Esta semana se publicaron los resultados de un estudio muy interesante. Se planteó una situación hipotética en donde el pasajero de un vehículo autónomo detecta un posible accidente. El vehículo debe decidir si salva a sus pasajeros a costa de atropellar un grupo de personas o hace lo contrario. Es una situación posible de enfrentar como pasajero de uno de estos vehículos. Los encuestados, y esto no me parece sorpresivo, respondieron mayoritariamente que preferirían salvar al grupo de personas.


Lo que si fue sorprendente es que al preguntarles si compartían un vehículo autónomo con esta programación, mayoritariamente respondieron de manera negativa. Es decir que todos estamos de acuerdo mientras no sea nuestra situación. Cono este, hay una serie de conflictos éticos que la tecnología debe programar antes de masificar estos productos. No es una decisión fácil para nadie. Las implicaciones legales de estas decisiones pueden tener repercusiones muy grandes frente al futuro de la movilidad.

Y usted, ¿está listo para comprar un vehículo autónomo?

Deja un comentario