La Responsabilidad Civil como consecuencia de daños causados por la Inteligencia Artificial
Se está hablando constantemente de la implementación de la inteligencia artificial en la Administración de Justicia y existe ya, la Propuesta de Directiva del Parlamento Europeo y del Consejo relativa a, la adaptación de las normas de responsabilidad civil extracontractual a la inteligencia artificial (Directiva sobre responsabilidad en materia de IA).
La relevancia del tema planteado está fuera de toda duda: la Inteligencia Artificial (IA) revoluciona el estado de las cosas y del conocimiento, al menos en las formas, pero puede pretender también hacerlo en cuanto al fondo.
Como suele ser habitual, esta revolución tecnológica va muy por delante de los medios jurídicos adecuados que deben regular, entre otros aspectos, las consecuencias que su uso pueda provocar, entre ellas los perjuicios de todo tipo a empresas, organismos y a particulares.
La cuestión es cómo disciplinar la posible responsabilidad civil que se pueda reclamar a la IA y a quién cuando exista un daño y un perjuicio objetivable y perjudicados.
¿A quién reclamar? En nuestro sistema de responsabilidad civil , presidido por la culpa, el art.1902 del Código Civil (CC) dispone que: “El que por acción u omisión causa daño a otro…”, lo que lo convierte en responsable del daño con la obligación de resarcirlo. Pero ¿en el caso de los daños producidos por la IA quien es el que lo causa? Está claro que para la complejidad de la IA los postulados genéricos del art.1902 son totalmente insuficientes. Avanzando, se podría seguir con lo dispuesto en el Texto Refundido de la Ley General para la Defensa de los Consumidores y Usuarios (LGDCU), que reproduce el patrón clásico de la responsabilidad por culpa, estableciendo que será responsable el productor o fabricante del producto; términos de “productor” o “fabricante” que también parecen estar lejos de la realidad que concierne a la IA.
Así, en este nuevo marco tecnológico, la Resolución del Parlamento Europeo de octubre de 2020 contiene recomendaciones a la Comisión sobre el régimen de responsabilidad civil en materia de IA, disponiendo que la persona que crea, mantenga, controla o explota el sistema de IA, ha de ser responsable del daño o perjuicio que cause el dispositivo o la actividad que lleva a cabo el mismo. Considera, además, que la Directiva 85/374 del Consejo sobre responsabilidad por los daños por productos defectuosos puede aplicarse en relación con las reclamaciones por responsabilidad civil formuladas frente al productor de un sistema de IA defectuoso.
¿Qué tipo de responsabilidad es? Se parte de una responsabilidad basada en la culpa, criterio predominante en los ordenamientos jurídicos de los países de la UE. En nuestro caso rige el criterio general del art.1902 CC. La LGDCU reproduce el patrón clásico de la responsabilidad por culpa. Pero, en nuestro sistema también existe una sólida tradición de objetivación de la responsabilidad cuando la actividad desarrollada crea un riesgo evidente que excede el actuar corriente.
En definitiva, se puede decir que, en el caso de un sistema de IA de alto riesgo (el que funciona de forma autónoma) se abogaría por un sistema de responsabilidad objetiva del operador, y, en cambio, cuando el sistema de IA no sea de alto riesgo la responsabilidad se basará en la culpa, por lo que operador no será responsable siempre y cuando pueda demostrar que no tuvo culpa o negligencia en el daño causado.
En principio el planteamiento más extendido es el que liga la responsabilidad de una IA a una responsabilidad similar a la de un producto defectuoso, donde coexisten tanto la responsabilidad del productor, en este caso la fabricante, pero también de la que se sirve del producto, el que la transmite al destinatario final, sin perjuicio de la facultad de repetición contra aquél. En todo caso estamos en el seno de una responsabilidad por hecho ajeno, en la medida en que la ausencia de un reconocimiento de capacidad para la IA se encuentra lejos de reconocerse.
El sistema de responsabilidad objetiva parece en aras del principio de protección al perjudicado como el sistema más conveniente, para evitar esa pluralidad de responsabilidades que pueden frustrar una acción de reclamación por parte de la víctima, pero claro ello dificultaría la implantación de las IAs, perdiendo capacidad de modernización e innovación tecnológica, y a la postre competividad.
¿Cómo se contempla en estos casos la distribución de la carga de la prueba? En los casos de daños causados por sistemas de IA de alto riesgo, las personas que soliciten una indemnización podrán instar la “exhibición de pruebas” para determinar las personas potencialmente responsables y las pruebas pertinentes de cara a una demanda, ¿a modo de diligencia preliminar del art.256 LEC?
Presunción de relación de causalidad en caso de culpa: es una presunción refutable de causalidad específica en relación con el nexo causal. Esta presunción es la medida menos gravosa para dar respuesta a la necesidad de una indemnización justa para la víctima. El demandante debe demostrar la culpa del demandado con arreglo a las normas nacionales o de la Unión aplicables.
En conclusión: La propuesta plantea un complemento de responsabilidad a la ya existente derivada de productos defectuosos. En base a este complemento cualquier perjudicado o víctima que sufra un daño derivado de la actuación de un sistema de inteligencia artificial puede demandar no solo a los productores o proveedores, sino a cualquier persona, lo que entiendo permite actuar contra los usuarios y titulares de los mismos o los encargados de su mantenimiento.
En esta responsabilidad cumulativa, si bien no se adopta un sistema de responsabilidad objetiva, sí se establecen mecanismos para igualar la situación entre el perjudicado y supuesto responsable, jugando el mecanismo de las presunciones iuris tantum de causalidad del daño y de la culpa del demandado de concurrir una serie de requisitos, que se van modificando en función de la actividad que desarrolle el demandado.