César García
Abogado. Doctor en Derecho de Seguros.
3 junio, 2021

Hasta no hace mucho, grandes capas de la población vivíamos felices en un mundo analógico. Y llegó la COVID-19. Donde los abuelos para ver a sus nietos tenían que tirar de móvil… empresas “deslocalizar” a sus trabajadores a sus casas o al campo… etc.

El mundo digital no avanzó, sino que avasalló en tres meses lo que no hubiera soñado hacer en cinco años.

Todo ese proceso de digitalización no se puede entender sin la Inteligencia Artificial, la cual entraña muchos peligros, y no solo ciberataques de Corea del Norte, RussiaGate, etc., sino de otros peligros, como pueden ser los daños que produzca un sistema de inteligencia artificial por fallos operativos… no previstos.

Las sociedades, ante los desafíos producidos por la irrupción de nuevas técnicas, descubrimientos, avances en tecnología, nuevos paradigmas sociales, etc., siempre se ha dividido entre quienes apostaban por el cambio y quienes se anclaban en la situación previa.

Lo mismo pasa con el uso de los sistemas de IA. Por ello, desde la Unión Europea se ha venido trabajando en la adopción de medidas que venzan las reticencias de la sociedad en su avance al mundo Matrix. No vamos discutir aquí si es mejor un email o una carta hecha por un amanuense, pero tampoco si es mejor escuchar rock en un iPod o en un concierto. Cada cosa, tiene su espacio.

Ante el desafío que supone para la sociedad el uso de la IA, desde la Comisión se ha elaborado una propuesta de Reglamento en Materia de Responsabilidad Civil por el uso de Inteligencia Artificial, del Parlamento Europeo, la cual analizaremos someramente.

Propuesta de Reglamento en Materia de Responsabilidad Civil por el uso de Inteligencia Artificial
Esta propuesta de Reglamento definirá que habremos de entender por sistemas de IA, proponiendo una modificación de la Directiva 85/374/CEE de Responsabilidad Civil por los daños causados por productos defectuosos, para entre otras cuestiones, adaptar conceptos como “daño”, “defecto” y “productor” a la realidad de la Inteligencia Artificial.

Pero, ojo, no plantea modificar la normativa europea relativa a la prestación de servicios de las comunicaciones electrónicas.

Algo que debemos destacar es que establecerá dos perímetros de responsabilidad civil a los “productores” de sistemas de IA. Perímetro de responsabilidad que se establece en función del grado de autonomía que tenga el sistema de IA en la toma de decisiones….¡ahí es nada….!

En una visión analógica de las cosas, entendemos que cabe preguntarse si en materia de RC por los sistemas de IA estamos ante una responsabilidad civil del 1903 párrafos segundo y tercero CC (el padre o tutor respecto del hijo o del tutelado) o ante un escenario del 1905 CC (el poseedor de un animal).

Sistemas de IA de alto riesgo
Sin perjuicio de que el sistema tenga un mayor o menor grado de autonomía, también el Reglamento propuesto recoge que habrá que determinar el número de potenciales perjudicados, su cuantificación económica y su afectación a derechos fundamentales.

Estos sistemas serán un numerus clausus que se detallarán en el futurible Anexo.

A estos sistemas se les imputa una responsabilidad objetiva, por lo que no podrán eludir su responsabilidad alegando o incluso probando, que se usó la diligencia debida, o más de ella, tanto para evitar el daño, como para minimizar sus consecuencias.

Las sumas indemnizables recogidas son máximos. Estableciendo dos millones de euros por fallecimiento, y un millón de euros para el daño moral o cualquier pérdida económica verificable.

Amén de lo anterior, se recoge que cuando haya varios perjudicados, el porcentaje a recibir de los importes indicados serán proporcionales al perjuicio.

Es decir, se establecen topes que limitan la indemnización por el perjuicio generado en la creación de riesgos objetivos por mal funcionamiento de la IA- ahí es nada-, quedando incluso excluidos los perjuicios de menos de quinientos euros.

Otros sistemas de IA (de no Alto Riesgo)
Ahora hablamos de “los otros”, es decir, de todos aquellos que no aparezcan en el futurible Anexo del Reglamento.

En estos supuestos se estará ante un sistema de culpa cuasi objetiva, donde se impone la obligación de minimizar las consecuencias del fallo en el sistema de IA, e indemnizar aunque el daño haya sido producido por una modificación en la IA producida por un tercero, y ese tercero sea insolvente o no esté localizable. Eso si, no sé si se refiere el Reglamento a que no esté localizable en el mundo analógico o en el mundo Matrix.

Respecto de los plazos de prescripción y cuantificación económica se remite en este caso, a la normativa de cada Estado.

Es de sobra conocido que en casi todos los ámbitos se aplica por analogía en los daños personales el baremo de circulación de vehículos a motor, por lo que la indemnización en caso de daños personales, podrá ser superior a la recogida para los fallos en los sistemas de alto riesgo de IA, pues entre otras cosas, no se establecen repartos proporcionales en cantidades tan exiguas, y sí tienen cabida las reclamaciones de menos de quinientos euros.

Y tampoco hay límites para los daños no personales.

Es decir, en la situación de mayor riesgo, el sistema estará mucho más encorsetado, mientras que en las situaciones de menos riesgo, la delimitación no existe.

En ambos casos, en las situaciones de Alto Riesgo y la de No Alto Riesgo, siempre el perjudicado deberá acreditar la pérdida económica de una “forma verificable”.

Ahí es nada, teniendo en cuenta que la IA acaba de empezar y se desarrollará por los laberintos ignotos de un mundo de ceros y unos (“0” y “1”). La cuantificación económica verificable no es una cuestión baladí.

¿Cómo se cuantifica el “fraude” de reseñas falsas -los famosos “me gusta”- en distintas RRSS a todos los miembros de una comunidad o de plataformas, cuyo retorno se ve afectado por esas valoraciones realizadas por bots?

Entendiendo que debería aplicarse, al menos en los sistemas de alto riesgo, un sistema de indemnizaciones parejo al de las aerolíneas.

¿Se produce un fallo? Si.

Se me indemniza en una cantidad X.

En cualquier caso, creo que si con este futurible Reglamento se pretende dar “confianza” a la ciudadanía garantizando una indemnización a los perjudicados por los sistemas de IA… quizá a los que estamos más en un mundo analógico no nos convenza mucho, tal y como está planteada la RC en los sistemas de IA.