¿De quién es la responsabilidad si un coche autónomo mata a una persona?

Los accidentes ocurren, y los seres humanos buscamos culpables cuando suceden, sea por un sentimiento de hacer justicia -el cual a veces equivale a venganza-, o por saber qué falló ya quien reclamar la culpabilidad.

Hasta ahora, en un accidente de tráfico, el problema de quien tenía la culpa estaba bastante acotado: en caso de un error mecánico, podía ser el fabricante del vehículo que lo había provocado, o si era un error humano, uno o varios de los conductores implicados.

Sin embargo, si hablamos de los vehículos autónomos, entran en juego varios factores más, como el software, la inteligencia artificial. ¿Hay que culpar al desarrollador?

Esta pregunta ha sido respondida por Mark Geistfeld, experto en derecho civil de la Universidad de Nueva York (NYU), a través de un artículo firmado por Emily Rosenthal en el sitio web de la propia institución universitaria.

Geistfeld basa su argumentación en un caso real que saltó a las portadas de los medios en el 2019, cuando uno Tesla Model S se saltó un semáforo en rojo y fue a colisionar contra otro vehículo, matando a los dos ocupantes que iban en el coche embestido. El mal funcionamiento del Tesla se debió a un error de software, un error fatal que costó dos vidas.

A principios de este año 2022, la fiscalía de Los Ángeles presentó dos cargos de homicidio involuntario contra el conductor del Tesla que provocó el accidente, convirtiendo así este caso en el primero que irá a juicio que involucra a un sistema de asistencia al conductor. Este sistema no recibe la consideración de autónomo por parte de Tesla, sino que lo categoriza como un piloto automático similar al que tienen los aviones, y que no sustituye en ningún caso al piloto, pero le ayuda en tareas rutinarias.

Ahora, un tribunal tendrá que decidir si el propietario y conductor del Tesla cometió un error o confió en exceso del sistema de piloto automático, o bien la empresa fabricante del software – en este caso, la propia Tesla – tiene alguna responsabilidad en el accidente. La decisión del jurado podría generar jurisprudencia.

Según el análisis de Geistfeld, la fiscalía basa su tesis en que el conductor del Tesla debería haber asumido el control del vehículo antes de que el accidente se produjera, desactivando el piloto automático. Si la fiscalía gana el caso con este argumento, el pronóstico del experto de la NYU es que esto llevará a que se incremente el número de demandas interpuestas en accidentes de tráfico en los que estén involucrados sistemas de asistencia a la conducción (ADAS).

Sobre la responsabilidad de la compañía fabricante del vehículo que incorpora sistemas de automatización, el Geistfeld indica que ésta no debería simplemente limitarse a introducir avisos para que el conductor se mantenga alerta en todo momento, sino que debe incluir sistemas que obligan a este a estar alerta.

Así, una forma de evitar que un caso similar pueda acabar salpicándolos, es precisamente que las medidas que introduzcan fuerzan, y avisen activamente al conductor, incluso monitorizando su conducta, para que se centre en la vía y en el evolución del vehículo, ya que la responsabilidad legal recaerá sobre el conductor.

Pero la gran pregunta, sobre la responsabilidad de la compañía fabricante del coche o el software de conducción en el caso de un vehículo totalmente autónomo, la deja para el final, y carga parte de la responsabilidad en la administración pública, que a juicio de Geistfeld, debería marcar un estándar de seguridad que todos los fabricantes deberían pasar, aunque no da respuesta a cómo y en qué punto deben fijarse estos estándares.

En resumen, que todavía nos queda por dirimir sobre el tema. Esperamos que con los mínimos casos reales sobre la mesa, a poder ser, ninguno.