La responsabilidad civil derivada del uso de la inteligencia artificial y su aseguramiento - Núm. 54, Enero 2021 - Revista Ibero-Latinoamericana de Seguros - Libros y Revistas - VLEX 869956867

La responsabilidad civil derivada del uso de la inteligencia artificial y su aseguramiento

AutorAlberto J. Tapia Hermida
CargoLicenciado en Derecho por la Universidad Autónoma de Madrid. Doctor en Derecho por la Universidad Complutense de Madrid

Presentación [arriba]

Una vez más me veo gratamente obligado a comenzar este estudio -en un hábito que comienza a convertirse en costumbre gozosa- con unas brevísimas palabras de agradecimiento -en la persona del prestigioso profesor y muy querido amigo de quien suscribe, Carlos Ignacio Jaramillo- la hospitalidad editorial que me brinda, una vez más, esta Revista Iberolatinoamericana de Seguros, en cuyos números previos he tenido el honor de publicar algunos estudios. Una vez más, regreso al abrigo de la Pontificia Universidad Javeriana de Colombia para ofrecer este nuevo estudio sobre “La responsabilidad civil derivada del uso de la inteligencia artificial y su aseguramiento” elaborado sobre la base de la regulación en la Unión Europea y en España con la seguridad y con el deseo de que resulte útil a los países hermanos de Iberoamérica y compense, de este modo, a este nuevo y manifiesto abuso de la amistad de Carlos Ignacio Jaramillo que públicamente confieso.

  1. Introducción: Del incremento recíproco de la Responsabilidad Civil derivada del uso de la Inteligencia Artificial y su Aseguramiento [arriba]

    1. La interferencia recíproca de la Evolución de la Responsabilidad Civil por el uso de la Inteligencia Artificial y su Aseguramiento

      La Inteligencia Artificial (IA) fue definida genéricamente, en 1956, por J. McCarthy, como “la ciencia e ingeniería de hacer máquinas que se comporten de una forma que llamaríamos inteligente si el humano tuviese ese comportamiento”[1]. En fechas recientes, la Comisión Europea ha precisado la definición de la Inteligencia Artificial como “un sistema basado en programas informáticos o incorporado en dispositivos físicos que manifiesta un comportamiento inteligente al ser capaz, entre otras cosas, de recopilar y tratar datos, analizar e interpretar su entorno y pasar a la acción, con cierto grado de autonomía, con el fin de alcanzar objetivos específicos”[2]. La noción europea más precisa es la alcanzada por el Grupo de expertos de alto nivel de la Comisión Europea que define los sistemas de inteligencia artificial (IA) como “programas informáticos (y posiblemente también equipos informáticos) diseñados por seres humanos que, dado un objetivo complejo, actúan en la dimensión física o digital mediante la percepción de su entorno mediante la adquisición de datos, la interpretación de los datos estructurados o no estructurados, el razonamiento sobre el conocimiento o el tratamiento de la información, fruto de estos datos y la decisión de las mejores acciones que se llevarán a cabo para alcanzar el objetivo fijado”[3].

      De lo anterior podemos inferir que las definiciones de la IA son futo de la acumulación -mas o menos desordenada- de los siguientes factores lógicos, físicos y matemáticos: los sistemas, los programas, los algoritmos, los objetivos definidos y las capacidades de corrección o autoaprendizaje; amén de una semejanza inicial con la inteligencia natural del ser humano.

      Una vez establecida la noción europea de la Inteligencia Artificial, conviene dar comienzo a este Estudio constatando que, en el ámbito de la responsabilidad civil derivada del uso de la inteligencia artificial y de su seguro, se observa una tendencia que –como una auténtica “ley de hierro”- afecta a la generalidad de los seguros de responsabilidad civil comunes y, en particular, a los que cubren la responsabilidad civil empresarial y profesional. Así, en términos generales, vemos como, en las sociedades desarrolladas, se extiende, día tras día, una suerte de “cultura de la reclamación” que se manifiesta, entre otras formas, mediante un incremento sostenido de las reclamaciones de responsabilidad civil a los operadores de instrumentos algorítmicos que sirven de base a los procesos de utilización de la inteligencia artificial y ello tanto en sentido cuantitativo, porque cada vez es mayor el número de tales reclamaciones y su cuantía; como en sentido cualitativo, porque la responsabilidad civil tanto empresarial como profesional tiende a objetivarse como consecuencia de la mera explotación de dichas actividades empresariales y profesionales basadas en la inteligencia artificial.

      Podemos apreciar, en la actualidad, un cierto subdesarrollo de la “cultura de la reclamación” en el mundo de la inteligencia artificial. Ello contrasta con el desarrollo notable de los usos de dicha inteligencia artificial. Pues bien, de este contraste o paradoja nos permite aventurar un crecimiento exponencial de las reclamaciones de responsabilidad civil -en sede judicial y extrajudicial- de los consumidores frente a los operadores de sistemas de inteligencia artificial en un futuro próximo.

      En este momento, procede recordar el entusiasmo generalizado que produce la inteligencia artificial como una especie de “maná” providencial que desterrará automáticamente la pobreza, la ignorancia y la enfermedad de la faz de la Tierra. Ello nos llevó a advertir, hace ya algunos años, sobre una suerte de “mito de los algoritmos neutrales”, que acompañaba la “paradoja de la trasparencia digital”[4]. Con la expresión del “mito de los algoritmos neutrales” nos hemos referido al contraste entre: Por una parte, la afirmación generalizada de que el uso de algoritmos -especialmente, en las finanzas- tenía un impacto neutral en el sentido de que no afectaba a los riesgos para el consumidor porque, por ejemplo, generaban registros desconcentrados e interconectados imposibles de manipular (por ejemplo, en el caso del blokchain). Y, por otra parte, la realidad siempre tozuda y constatable -por ejemplo. cuando se examina la jurisprudencia sobre delincuencia financiera digital- de que los algoritmos pueden mentir, engañar y manipular (y ser manipulados) mediante, por ejemplo, prácticas en el mercado de valores de multiplicación patológica de órdenes (“quote stuffing”), de indicios falsos (“spoofing”), de órdenes contradictorias prácticamente simultáneas (“churning”) y de anticipación parasitaria (“sniffers”)[5].

      Esta consciencia de la falibilidad de los sistemas de inteligencia artificial y su potencialidad dañina se ha constatado, recientemente, durante la pandemia del COVID 19, cuando los algoritmos han sido instrumentos decisivos para las estrategias inversoras “bajistas” que han atacado -dentro del IBEX 35- las cotizaciones de ACS, CIE, AUTOMOTIVE, MELIA, NATURGY, etc. Es más, en los últimos meses, la CNMV ha publicado sucesivas advertencias sobre la ciberdelincuencia florecida al calor de la pandemia del COVID 19[6].

      Observamos, por lo tanto, que en este ámbito se da la “interferencia recíproca de la evolución de la responsabilidad civil y su seguro” que se ocupó de destacar el maestro Fernando Sánchez Calero[7] y, conforme a la cual podemos anticipar un desarrollo de los seguros de responsabilidad civil derivada del uso de la inteligencia artificial conforme a la dinámica creciente de lo que podríamos denominar “la espiral de la responsabilidad civil y su aseguramiento” porque, en el ámbito en el que operan estos seguros, veremos cómo, día tras día, se incrementarán las exigencias de responsabilidad civil de los distintos operadores implicados. Y ello causará que estos operadores suscriban sus respectivos seguros de responsabilidad civil cada vez con mayor frecuencia y por sumas aseguradas crecientes. Y, a su vez, estas mayores coberturas incentivan que los terceros perjudicados por los actos u omisiones de aquellos operadores con ocasión de los diferentes usos de la inteligencia artificial presenten reclamaciones con mayor frecuencia y por sumas más elevadas. Reclamaciones facilitadas por la consciencia de que disponen de acciones directas contra los aseguradores de aquella responsabilidad civil. Lo que, a la postre, genera la espiral creciente que hemos señalado porque se genera un incremento del riesgo de responsabilidad civil y de la necesidad de asegurarlo[8].

      La interferencia anterior produce dos tipos de efectos:

      1. Efectos voluntarios en forma de contratación creciente de este tipo de seguros de responsabilidad civil profesional de “motu proprio” por los operadores económicos que generan, explotan o utilizan sistemas de inteligencia artificial.

      2. Efectos obligatorios cuando se obliga legalmente a suscribir un seguro de responsabilidad civil profesional de los operadores económicos profesionales que originan riesgos notables con su actividad. Veremos cómo la regulación proyectada en la UE prevé exigir la contratación de este tipo de seguros a los operadores económicos que generan, explotan o utilizan sistemas de inteligencia artificial de alto riesgo. En estos casos, el régimen legal de los seguros obligatorios de responsabilidad civil se establece, dentro de nuestro Derecho, en la Disposición Adicional Segunda de la LOSSEAR que –a diferencia del antiguo art. 75 de la LCS que deroga‒ exige el rango legal para la creación de este tipo de seguros cuando dice que “la obligación de suscripción de seguros deberá establecerse mediante normas con rango de Ley”, que deberán contar con informe preceptivo de la DGSFP o del órgano competente de las Comunidades Autónomas, «con objeto de que puedan formular observaciones en materia de técnica aseguradora»[9].

    2. Los riesgos patrimoniales típicos derivados del uso de la Inteligencia Artificial

      Siendo cierto que los sistemas de inteligencia artificial proyectan sus riesgos sobre gran parte de los ámbitos en los que se desarrolla la existencia humana[10]; debemos aclarar que, en este Estudio, centraremos nuestra atención sobre los daños patrimoniales típicos que aquellos sistemas pueden ocasionar. E identificaremos estos riesgos típicos sobre la base de algunos de los documentos publicados recientemente producidos por las Instituciones de la UE que interesan a la responsabilidad derivada del uso de la inteligencia artificial en el mercado financiero, como han sido la Comunicación de la Comisión Europea de 8 de abril de 2019 y el Informe del Grupo de Expertos de la Comisión Europea de 2019[11].

      En...

Para continuar leyendo

Solicita tu prueba

VLEX utiliza cookies de inicio de sesión para aportarte una mejor experiencia de navegación. Si haces click en 'Aceptar' o continúas navegando por esta web consideramos que aceptas nuestra política de cookies. ACEPTAR