Como casi siempre que un nuevo campo de actuación surge en el seno de las relaciones humanas y el Derecho civil se asoma para regularla, dos son las materias sobre las que inicialmente se incide: la propiedad y la responsabilidad civil. El campo de la IA no es excepción. Ya en el albor de su creación, ASIMOV elaboró la famosa trilogía de reglas por las que todo robot debía de regirse: -1 Un robot no debe hacer daño a un ser humano ni, por inacción, dejar que este sufra un daño. 2 Un robot debe obedecer las órdenes que recibe de un ser humano, excepto cuando tales órdenes entran en conflicto con la primera ley. 3 Un robot debe proteger su propia existencia siempre que dicha protección no entre en conflicto ni con la primera ni con la segunda ley, y finalmente un añadido, la 0 Un robot no puede dañar a la humanidad, o por inacción, permitir que la humanidad sufra daño.
nn
El 16 de Febrero de 2017 el Parlamento Europeo emitió Resolución con recomendaciones destinadas a la Comisión sobre normas de derecho civil sobre robótica asumiendo buena parte de las recomendaciones de la Comisión, entre ellas la necesidad de una definición y clasificación de la IA -o robot autónomo inteligentes con la obligatoriedad de su inscripción en un registro especial.
nn
La Comisión Europea emitió sobre este ámbito Comunicación al Parlamento Europeo, al Consejo de Europa, al Consejo y al Comité Europeo Económico y Social Europeo y al Comité de las Regiones el 25 de abril de 2018. En ella ya parece adelantar una definición de IA -sistema que manifiesta un comportamiento inteligente, pues es capaz de analizar su entorno y pasar a la acción, con cierto grado de autonomía, con el fin de alcanzar objetivos específicos y prevé la necesidad de elaborar un proyecto inmediato sobre las directrices éticas en relación con la IA.
nn
En el fondo la actuación del Parlamento y de la Comisión va eminentemente dirigida a una clarificación de las consecuencias de la actuación de las IA, esto es a su impacto en la industria, en el empleo, en el desarrollo económico y en la distribución de las responsabilidades derivadas de su utilización, pero también, y esto es lo que apenas se ha incidido ulteriormente, al reconocimiento de una incipiente capacidad, denominada electrónica, que entre otras cosas serviría a juicio del Parlamento, para hacer responder a la IA del daño originado por la actividad que ella ha desarrollado.
nn
En principio el planteamiento más extendido es el que liga la responsabilidad de una IA a una responsabilidad similar a la de un producto defectuoso, donde coexisten tanto la responsabilidad del productor, en este caso la fabricante, pero también de la que se sirve del producto, el que la transmite al destinatario final, sin perjuicio de la facultad de repetición contra aquél. En todo caso estamos en el seno de una responsabilidad por hecho ajeno, en la medida en que la ausencia de un reconocimiento de capacidad para la IA se encuentra lejos de reconocerse.
nn
Ello genera un problema, pues por lo general se van a dar una serie de actividades concurrentes en este fenómeno. No hay que olvidar que estamos hablando de un ente creado y programado por terceros, con un mantenimiento que normalmente va ser de cargo de terceros, y con una formación inicial que le va a proporcionar alguien ajeno, generalmente quien se sirve de él, pero no necesariamente.
nn
Si el daño se produce como consecuencia de un defectuoso funcionamiento de los elementos de ingeniería ensamblados en su estructura, estaremos ante una responsabilidad en una última instancia del fabricante o del diseñador. Si el problema ha versado sobre defecto de mantenimiento de elementos del sistema, como sensores, intercomunicadores&hellip podemos estar ante una responsabilidad del propietario, siempre y cuando tal mantenimiento no sea posible que lo realice la propia IA, lo cual vuelve a incidir sobre la responsabilidad del primero. Cuando estemos ante un problema por defecto de formación inicial, no la de auto refuerzo, propia de la IA, habrá una responsabilidad del formador encargado, que por lo general vendrá integrado dentro de la esfera de producción del fabricante, pero puede no estarlo, y mantener una autonomía en su labor. Y cabría añadir incluso un error en la codificación, esto es en la confección de los algoritmos empleados por la IA, que sería responsabilidad del codificador, lo que remite otra vez a lo expuesto con anterioridad.
nn
Claro está que aun así estaríamos un tanto simplificando el problema. Y ello en la medida en que si, como muchos científicos piensan, una IA tiene capacidad autónoma de aprendizaje a partir de su propia experiencia y desarrolla rasgos cognitivos propios, como quiera que la finalidad de una IA es alcanzar un resultado predeterminado, realizar la tarea para la que se ha programado, y para ello se sirve de unos caminos trazados por parte del programador o formador, gracias a la inteligencia puede aprender y tomar caminos más directos y eficientes, al margen aquéllos, incluso desconocidos para el ser humano, y en esa transición provocar un daño. En estos casos estrictamente, la culpa no es atribuible al fabricante, al mantenedor o titular, al codificador o al formador. Habrá sido el propio mecanismo de raciocinio de la IA el causante directo del daño. -Es lo que vulgarmente se conoce como problemas relacionados con el efecto caja negra-
nn
Por todo ello el sistema de responsabilidad objetiva parece en aras del principio de protección al perjudicado como el sistema más conveniente, para evitar esa pluralidad de responsabilidades que pueden frustrar una acción de reclamación por parte de la víctima, pero claro ello dificultaría la implantación de las IAs, perdiendo capacidad de modernización e innovación tecnológica, y a la postre competividad.
nn
Buen parte de todas estas cuestiones vienen a latir en la propuesta de Directiva de adaptación de las reglas de la responsabilidad civil extracontractual a las IAS de septiembre de 2022.
nn
La propuesta ya parte de una realidad constatable, cual es la imposibilidad de trasladar a las IAs las reglas de responsabilidad civil basadas en la culpa. Cabría pensar que cómo se va a trasladar si no se les reconoce a aquéllas capacidad alguna. Por la complejidad que la concreta atribución del real responsable, y sobre todo el alto coste económico -la prueba pericial en muchas ocasiones devendría compleja parecería, como se ha expuesto la lógica de una responsabilidad cuasi objetiva. Pero la propia resolución habla de la problemática que ello generaría de cara a la adaptación e implantación de las IAs en las empresas, si éstas se ven atemorizadas por las posibles demandas que tengan que enfrentar derivadas del uso de aquéllas con un sistema de responsabilidad objetiva.
nn
La propuesta opta por una complementación de la responsabilidad civil derivada de productos defectuosos. Si en el mecanismo descrito, cabe entender que, dentro del proceso previo a la implantación de la IA, se da la concurrencia de los esfuerzos del productor, diseñador, formador y codificador, en todos ellos se dará la responsabilidad objetiva por productos defectuosos, que dará lugar a una indemnización por determinados tipos de daños, principalmente sufridos por particulares. Cumulativamente la propuesta incide en una responsabilidad que cubre las demandas nacionales de responsabilidad fundamentadas principalmente en la culpa de cualquier persona con el fin de indemnizar por cualquier tipo de daño y a cualquier tipo de víctima. Lo cual cubre además de los daños por culpa de fabricantes y demás intervinientes en el proceso, los daños que sean imputables a los titulares o encargados de mantenimiento de las IAs, pero el empleo del término personas me genera la duda de la responsabilidad cumulativa en los supuestos de responsabilidad causal exclusivamente atribuible a la IA -el efecto caja negra que entiendo sólo será cubiertos por la responsabilidad objetiva en los casos que prevé la regulación de productos defectuosos. Junto a ello lo que se prevé es una estricta regulación de los procesos de producción y fabricación que reduzcan las posibilidades de originar daño con carácter preventivo.
nn
Finalmente, para garantizar una igualdad de armas, que haga más factible la tutela jurisdiccional de la víctima se pretende una regulación de la carga de la prueba del modo menos invasivo. ¿Cómo? Mediante el mecanismo de exhibición de pruebas por parte del proveedor y a través de las deducciones, presunciones iuris tantum, a través de un sistema, en mi opinión bastante complejo, con variadas excepciones, y que esencialmente vienen a diferenciar las demandas que se dirigen contra proveedores de IAs de alto riesgo o contra el usuario o titular de tales, y aún se diferencia en mayor medida si se hace un uso de aquéllas profesional o industrial, o meramente privado o particular -arts.3 y 4-.
nn
Y así se dará esta presunción de causalidad de que el daño proviene de un sistema de IA siempre y cuando se cumplan todas las condiciones siguientes: a-, b y c-: que el demandante haya demostrado o el órgano jurisdiccional haya supuesto, de conformidad con el art.3, apado.5, la culpa del demandado o de una persona de cuyo comportamiento sea responsable el demandado, consistente en el incumplimiento de un deber de diligencia establecido por el Derecho de la Unión o nacional destinado directamente a proteger frente a los daños que se hayan producido que pueda considerarse razonablemente probable, basándose en las circunstancias del caso, que la culpa ha influido en los resultados producidos por el sistema de IA o en la no producción de resultados por parte del sistema de IA que el demandante haya demostrado que la información de salida producida por el sistema de IA o la no producción de una información de salida por parte del sistema de IA causó los daños.
nn
Y esta presunción puede excluirse con mayor o menor probabilidad en función de si el demandado es proveedor de sistema de alto riesgo, de menos riesgo o un usuario que actúe privadamente
nn
Y en todo caso el demandado puede probar y refutar la presunción de causalidad del daño, y que éste no se ha debido a la intervención del sistema de IA.
nn
En conclusión: La propuesta plantea un complemento de responsabilidad a la ya existente derivada de productos defectuosos. En base a este complemento cualquier perjudicado o víctima que sufra un daño derivado de la actuación de un sistema de inteligencia artificial puede demandar no solo a los productores o proveedores, sino a cualquier persona, lo que entiendo permite actuar contra los usuarios y titulares de los mismos o los encargados de su mantenimiento.
nn
En esta responsabilidad cumulativa, si bien no se adopta un sistema de responsabilidad objetiva, sí se establecen mecanismos para igualar la situación entre el perjudicado y supuesto responsable, jugando el mecanismo de las presunciones iuris tantum de causalidad del daño y de la culpa del demandado de concurrir una serie de requisitos, que se van modificando en función de la actividad que desarrolle el demandado.
n