Actualizado el 28/09/2022

icon Facebook icon Twiiter icon RSS icon EMAIL
  1. Portada
  2. >
  3. Noticias
  4. >
  5. ¿De quién es la responsabilidad si un coche autónomo mata a una persona?

¿De quién es la responsabilidad si un coche autónomo mata a una persona?

Escrito por Guillem Alsina el 05/04/2022 a las 15:33:18
443

Los accidentes pasan, y los seres humanos buscamos culpables de que ocurran, sea por un sentimiento de hacer justicia -que a veces equivale a venganza-, o por saber qué falló y a quién reclamar la culpabilidad.


Hasta ahora, en un accidente de tráfico, el problema de quién tenía la culpa estaba bastante acotado: en caso de un fallo mecánico, podía ser el fabricante del vehículo que lo había provocado, o si era un error humano, uno o varios de los conductores implicados.


Pero, si hablamos de los vehículos autónomos, entran en liza diversos factores más, como el software, la inteligencia artificial. ¿Hay que culpar al desarrollador?


Esta pregunta ha sido respondida por Mark Geistfeld, experto en derecho civil de la Universidad de Nueva York (NYU), a través de un artículo firmado por Emily Rosenthal en el sitio web de la misma institución universitaria.


Geistfeld basa su argumentación en un caso real que saltó a las portadas de los medios en 2019, cuando un Tesla Model S se saltó un semáforo en rojo y fue a colisionar contra otro vehículo, matando a los dos ocupantes que iban en el coche embestido. El malfuncionamiento del Tesla fue debido a un error de software, un error fatal que costó dos vidas.


A principios de este año, la fiscalía de Los Angeles presentó dos cargos de homicidio involuntario contra el conductor del Tesla que provocó el accidente, convirtiendo así este caso en el primero que irá a juicio que involucra un sistema de asistencia al conductor. Dicho sistema no recibe la consideración de autónomo por parte de Tesla, sino que lo categoriza como un piloto automático similar al que tienen los aviones, y que no sustituye en ningún caso al piloto, pero lo ayuda en tareas rutinarias.


Ahora, un tribunal deberá decidir si el propietario y conductor del Tesla cometió un error o se fio en exceso del sistema de piloto automático, o bien la empresa fabricante del software (en este caso, la misma Tesla) tiene alguna responsabilidad en el accidente. La decisión del jurado podría generar jurisprudencia.


Según el análisis de Geistfeld, la fiscalía basa su tesis en qué el conductor del Tesla debió haber asumido el control del vehículo antes de que el accidente se produjera, desactivando el piloto automático. Si la fiscalía gana el caso con este argumento, el pronóstico del experto de la NYU es que ello llevará a que se incremente el número de demandas interpuestas en accidentes de tráfico en los que estén involucrados sistemas de asistencia a la conducción (ADAS).


Sobre la responsabilidad de la compañía fabricante del vehículo que incorpora sistemas de automatización, el Geistfeld indica que esta no debería simplemente limitarse a introducir avisos para que el conductor se mantenga alerta en todo momento, si no que debe incluir sistemas que obliguen a este a estar alerta.


Así, una forma de evitar que un caso similar pueda acabar salpicándolos, es precisamente que las medidas que introduzcan fuercen, y avisen activamente al conductor, incluso monitorizando su conducta, para que se centre en la vía y en la evolución del vehículo, ya que la responsabilidad legal recaerá sobre el conductor.


Pero la gran pregunta, sobre la responsabilidad de la compañía fabricante del coche y/o el software de conducción en el caso de un vehículo totalmente autónomo, la deja para el final, y carga parte de la responsabilidad en la administración pública, que a parecer de Geistfeld, debería marcar un estándar de seguridad que todos los fabricantes deberían pasar, aunque no da respuesta a cómo y en qué punto deben fijarse dichos estándares.


En resumen, que todavía nos queda por dirimir sobre el tema. Esperemos que con los mínimos casos reales sobre la mesa, a poder ser, ninguno.