BLOG-OPINAN LOS ESTUDIANTES
18 de julio de 2024
Responsabilidad civil en la era digital: Daños causados por inteligencia artificial
Por: María Antonia Ortiz Figueroa[1] y Juan Sebastián Ortiz Flórez[2]
El avance vertiginoso de la Inteligencia Artificial (en adelante IA) en el panorama contemporáneo es innegable. Según el informe del McKinsey Global Institute, su progresión supera en velocidad y magnitud a la Revolución Industrial en una proporción impresionante: diez veces más rápida y con una escala 300 veces mayor[3]. Desde la creación de música y arte hasta la producción de contenido multimedia, la inteligencia artificial ha demostrado su capacidad para innovar y transformar la manera en que concebimos y consumimos la cultura.
No obstante, este panorama no está exento de desafíos. Recientemente, a través de internet, se han viralizado imágenes generadas por IA, que muestran a figuras famosas en escenarios denigrantes (con contenido sexual explícito), lo que ha puesto de manifiesto varios de los dilemas éticos que acompañan el uso de esta tecnología. Estas imágenes, que se han vuelto mercancía en plataformas de venta en línea como eBay, alcanzando precios exorbitantes, plantean preguntas fundamentales sobre la responsabilidad y la necesidad de imposición de límites para el uso de la IA.
La creación y comercialización de estos “productos” por medios digitales ha suscitado un debate sobre a quién se le debe atribuir responsabilidad por la vulneración de derechos fundamentales como la privacidad, el buen nombre y la dignidad de las personas afectadas por estas prácticas. ¿Son los propietarios de la empresa de IA utilizada los responsables directos, o la responsabilidad recae sobre los usuarios que directamente crean estas imágenes? ¿procede algún tipo de atribución de responsabilidad para los programadores de las aplicaciones utilizadas para estos fines?
Inicialmente, es necesario definir qué entendemos por inteligencia artificial. Se define como “un sistema basado en máquinas (..)diseñado para funcionar con diversos niveles de autonomía, con capacidad de adaptación y que, para objetivos implícitos, infiere a partir de la entrada, y genera predicciones, contenidos, recomendaciones o decisiones que pueden influir en entornos físicos o virtuales”[4]. Partiendo del hecho de que la IA no es sujeto de derechos, y que por tanto no puede contraer obligaciones, tampoco es posible atribuirle responsabilidad, lo que nos adentra en un terreno ético y legal complejo al momento de pensar en una regulación para este escenario, pues abre la puerta a debates sobre la subsunción de varias instituciones de la responsabilidad civil -como el hecho generador, la imputación, el nexo causal y el daño- para la resolución de los casos mencionados.
Cabe resaltar que en el proceso de desarrollo y ejecución de una IA intervienen varios actores, pero para este análisis en particular, es importante resaltar tres: primero, la empresa que ostenta los derechos sobre el software que permite su funcionamiento (OpenAI, Gemini by Google, etc.); segundo, los programadores de dicho software, contratados por la empresa; y tercero, los usuarios, que entre otras cosas, se encargan de “entrenar” a la inteligencia artificial, en caso de que esta sea generativa, sobre las funciones que debe ejecutar, y lo que debe considerar correcto o incorrecto[5].
Teniendo en cuenta esto, no cabe duda de que un hecho generador del daño -entendido como una acción u omisión antijurídica-[6] para estos casos, no es la mera existencia de la IA o la existencia de las funciones para las cuales esta fue desarrollada (como la creación de imágenes), sino algunos de los tantos usos específicos que los millones de usuarios le dan. Por esa razón es difícil establecer cuál de todas las conductas que estas partes actoras desarrollan puede constituir realmente, más que una condición sine qua non, una causa adecuada de aquel daño patrimonial o extrapatrimonial.
A pesar de que, generalmente, las grandes empresas de datos cuentan con robustas políticas de contenido y regulación para su uso ético, hoy existen bastantes casos de uso de inteligencias artificiales generativas para producción de contenidos denigrantes e ilegales por parte de empresas clandestinas. En estos casos, ¿la omisión de los programadores y de las empresas de IA al momento de establecer límites, prohibiciones e instrucciones de buen uso a los usuarios, podría constituir un hecho generador del daño? ¿o, tal vez debería analizarse desde el punto de vista de la culpa, como una violación al deber objetivo de cuidado, con el fin de determinar si es posible realizar la imputación?
De entrada, se descarta la posibilidad de aplicar un régimen de responsabilidad objetiva por el hecho de las cosas, pues en estos escenarios es posible que el origen del daño sea una causa extraña exonerativa de responsabilidad.[7] Pero entonces, si el régimen de responsabilidad es subjetivo ¿cómo operan la imputación y el análisis de la culpa en estos casos, para determinar las conductas que constituyen causa adecuada del daño? Para este punto específico es fundamental acudir a la teoría de la causalidad adecuada (a través de la cual se supera la teoría de la equivalencia de las condiciones), para hacer un análisis completo sobre el nexo causal para cada caso en específico y, de esta forma, determinar a cuál de todas las partes involucradas le es realmente atribuible el daño ocasionado, entendiendo que, si bien todos estos sujetos participan y sus conductas pueden ser condición del daño, no son necesariamente su causa.
Lo anterior, abarca un tema que vale la pena someter a debate ante una eventual regulación, pues si bien es necesario establecer en qué casos los sujetos involucrados deben responder por los daños ocasionados, también se hace necesario limitar dicha adjudicación de responsabilidad (prohibición de regreso) con el fin de no reprochar injustificadamente cualquier conducta involucrada.
Sería incorrecto llegar a pensar que se configura un hecho de la víctima como causal de exclusión de la responsabilidad por rompimiento del nexo causal como consecuencia de la cesión de datos personales y biométricos por parte de los usuarios, pues, si bien es natural que otras personas autorizadas (miembros de la compañía) puedan acceder a estos, los fines dañosos no están contemplados en ninguna política de privacidad -ni debería estarlo-. Además, la simple provisión de datos no es causa adecuada del daño que pueda resultar, pues esto equivaldría a condonar el dolo futuro.
También se excluye la posibilidad de que opere el hecho de un tercero como causal de exclusión de la responsabilidad en estos casos, pues las empresas de IA tienen un deber de custodia sobre los datos provistos por parte de sus usuarios. Incluso, sería pertinente señalar que, en un escenario en que se presente una filtración de los datos personales y biométricos voluntariamente cedidos por los usuarios y que estos sean usados para fines indebidos, sin que estos hubieren sido notificados de la existencia de ese supuesto, se podría imputar responsabilidad al prestador del servicio en virtud de la doctrina de responsabilidad objetiva por vicios indetectables por el hecho de la cosa.
En virtud de lo expuesto, ¿resulta necesario elaborar un régimen especial de responsabilidad para el funcionamiento de inteligencia artificial? Evidentemente no. Pero es necesario aplicar un análisis minucioso de todos los elementos de la responsabilidad al estudiar cada caso en concreto para atribuir responsabilidad, teniendo en cuenta la complejidad de este panorama sin precedentes, en donde queda la puerta abierta a que se debata la implementación de ambos regímenes de responsabilidad y de diversos títulos de imputación, dependiendo de la situación. Encontrar un criterio definitivo para atribuir responsabilidad en casos donde la inteligencia artificial genera daños derivados de vulneraciones a diversos derechos de las personas, que además derivan en perjuicios inmateriales, seguirá siendo un escenario de discusión novedoso y constante.
REFERENCIAS
- TAPIA HERMIDA, Alberto J. La Responsabilidad Civil Derivada Del Uso De La Inteligencia Artificial Y Su Aseguramiento. 2021. Revista Ibero-Latinoamericana De Seguros 30 (54). Disponible en; https://doi.org/10.11144/Javeriana.ris54.rcdu.
- PARDO, Santiago. Esquema de responsabilidad civil para aquel daño producido por un artefacto de inteligencia artificial. 2022. Universidad del Rosario. Disponible en: https://repository.urosario.edu.co/handle/10336/36010
- Rashi Shrivastava. Desnudos con IA de celebridades como Margot Robbie y Selena Gómez están a la venta en eBay. Forbes México. 2024. Disponible en: https://www.forbes.com.mx/desnudos-con-ia-de-celebridades-como-margot-robbie-y-selena-gomez-estan-a-la-venta-en-ebay/
- MILKES SÁNCHEZ, Sarah. De la función preventiva de la responsabilidad civil y la distribución del riesgo en la sociedad moderna. 2021. Revista Estudiantil de Derecho Privado. Bogotá D.C. Universidad Externado de Colombia. Disponible en: https://red.uexternado.edu.co/de-la-funcion-preventiva-de-la-responsabilidad-civil-y-la-distribucion-del-riesgo-en-la-sociedad-moderna-2
- HENAO PÉREZ, Juan Carlos. Le dommage. Analyse à partir de la responsabilité civile extracontractuelle de l’État en droit colombien et en droit français. París: Université Paris Pantheon-Assas.
- PATIÑO, Héctor. Responsabilidad extracontractual y causales de exoneración. Aproximación a la jurisprudencia del Consejo de Estado colombiano. Revista de Derecho Privado No. 14. Bogotá D.C. Universidad Externado de Colombia. 2008.
- PATIÑO, Héctor. Las causales exonerativas de la responsabilidad extracontractual ¿Por qué y cómo impiden la declaratoria de responsabilidad? Aproximación a la jurisprudencia del Consejo de Estado. Revista de Derecho Privado No. 20. Bogotá D.C. Universidad Externado de Colombia. 20011. P.10.
- FRUHLINGER, Josh. ¿Qué es y cómo funciona la IA generativa? IDG Communications, Inc.
- European Parliament. European Commission. Artificial Intelligence Act. 13 de marzo de 2024. P. 2.
[1]Monitora del Centro de Estudios sobre Genética y Derecho de la Universidad Externado de Colombia.
[2]Monitor del Departamento de Derecho de los Negocios de la Universidad Externado de Colombia.
[3] VEGA IRACELAY, Jorge Javier. 2018. P. 18.
[4] European Parliament. European Commission. Artificial Intelligence Act. 13 de marzo de 2024. P. 2.
[5] FRUHLINGER, Josh. ¿Qué es y cómo funciona la IA generativa? IDG Communications, Inc. P. 1.
[6] PATIÑO, Hector. Responsabilidad extracontractual y causales de exoneración. Aproximación a la jurisprudencia del Consejo de Estado colombiano. Revista de Derecho Privado No. 14. Bogotá D.C. Universidad Externado de Colombia. 2008. P.4.
[7] PATIÑO, Héctor. Las causales exonerativas de la responsabilidad extracontractual ¿Por qué y cómo impiden la declaratoria de responsabilidad? Aproximación a la jurisprudencia del Consejo de Estado. Revista de Derecho Privado No. 20. Bogotá D.C. Universidad Externado de Colombia. 20011. P.10.