Universidad de Palermo Facultad de Derecho Posgrado en Derecho Informático Avanzado, RegTech & FinTech “Las implicancias del uso de la Inteligencia Artificial en la prevención de riesgos en el sector FinTech y su regulación” Autor: Franco A. Lovotti Tutores: Dra. Johanna C. Faliero PhD – Cons. Francisco Faliero Julio de 2024 Abstract This thesis explores the implementation of artificial intelligence (AI) and machine learning (ML) techniques in the detection of financial fraud. As technological advancements continue to reshape various sectors, the financial industry faces growing challenges in safeguarding transactions from increasingly sophisticated fraudulent activities. Traditional rule-based methods and manual oversight have proven insufficient. This research examines the application of AI and ML models to analyze large datasets and identify anomalous patterns with higher precision. The study highlights the effectiveness of these models in reducing fraud and false positives while addressing concerns related to data privacy, legal responsibilities, and algorithm transparency. The findings underscore the potential of AI and ML technologies to enhance the security and reliability of financial transactions, contributing to the development of more robust fraud detection systems. Traducción del resumen Esta tesis explora la implementación de técnicas de inteligencia artificial (IA) y aprendizaje automático (AA) en la detección de fraude financiero. A medida que los avances tecnológicos continúan transformando diversos sectores, la industria financiera enfrenta desafíos crecientes para proteger las transacciones de actividades fraudulentas cada vez más sofisticadas. Los métodos tradicionales basados en reglas y la supervisión manual han demostrado ser insuficientes. Esta investigación examina la aplicación de modelos de IA y AA para analizar grandes conjuntos de datos e identificar patrones anómalos con mayor precisión. El estudio destaca la efectividad de estos modelos en la reducción del fraude y falsos positivos, abordando a la vez preocupaciones relacionadas con la privacidad de los datos, las responsabilidades legales y la transparencia de los algoritmos. Los hallazgos subrayan el potencial de las tecnologías de IA y AA para mejorar la seguridad y confiabilidad de las transacciones financieras, contribuyendo al desarrollo de sistemas de detección de fraude más robustos. Keywords: Artificial Intelligence (AI), Machine Learning (ML), Financial Fraud Detection, Data Privacy, Algorithm Transparency, Fraud Prevention, Anomalous Pattern Recognition, Financial Security, Technology in Finance Índice ABSTRACT .................................................................................................................... 5 TRADUCCIÓN DEL RESUMEN ......................................................................................... 5 CAPÍTULO 1 ................................................................................................................ 10 1. INTRODUCCIÓN ....................................................................................................... 10 1.1 Planteo de la problemática de trabajo ......................................................... 10 1.2 Hipótesis de trabajo propuesta ..................................................................... 11 1.3 Objetivos de la tesis ..................................................................................... 12 1.3.1 Objetivos Generales:.......................................................................................... 12 1.3.2 Objetivos Específicos: ........................................................................................ 12 1.4 Resumen del estado actual de la materia ...................................................... 13 CAPÍTULO 2 ................................................................................................................ 13 2. MARCO TEÓRICO .................................................................................................... 13 2.1 2.1.1 2.2 Inteligencia Artificial – Definición y clasificacióm ...................................... 13 Clases de inteligencia artificial: ......................................................................... 15 El Sector FinTech ........................................................................................ 18 2.2.1 Definición y su aplicación .................................................................................. 18 2.2.2 Características Distintivas de las Fintech........................................................... 20 CAPÍTULO 3 ................................................................................................................ 22 3. IMPACTO DE LA IMPLEMENTACIÓN DE LA IA EN LA INDUSTRIA FINTECH ................................................................................................................................... 22 3.1 Prevención de Riesgos en el Sector FinTech ................................................ 22 3.1.1 Principios de la Prevención de Riesgos con IA ................................................... 23 3.1.2 Tipos de algoritmos de aprendizaje automático .................................................. 24 3.1.3 Aplicaciones en la detección de fraude ............................................................... 26 4. DESAFÍOS ÉTICOS Y REGULATORIOS EN EL USO DE IA EN FINTECH.................... 26 4.1 Transparencia y Explicabilidad .................................................................... 26 4.2 Equidad y No Discriminación ...................................................................... 27 5. MARCO NORMOLÓGICO Y LEGISLATIVO EN EL ÁMBITO DE LA IA ....................... 28 5.1 Legislación Europea Relevante (Reglamento de la IA, RGPD) .................... 29 5.1.1 Propuesta de Reglamento de IA de la UE ........................................................... 30 5.1.2 Supervisión del SEPD ........................................................................................ 31 5.2 Marco regulatorio de la Inteligencia Artificial en Argentina:........................ 33 5.3 Responsabilidad Civil .................................................................................. 35 5.3.1 Responsabilidades determinadas para los agentes de la cadena de valor de la IA de Alto Riesgo ..................................................................................................................... 35 5.3.2 Abordaje de la Responsabilidad Civil derivada de la Implementación de la IA en la industria FinTech desde un enfoque comparativo entre el el ordenamiento europeo y la Ley de Defensa del Consumidor (Argentina). ........................................................................ 38 5.3.3 Responsabilidd objetiva vs. Subjetiva ................................................................. 39 8 5.3.4 Deber de Información y Transparencia .............................................................. 40 5.3.5 Responsabilidad por defectos y fallos ................................................................. 40 5.3.6 Reparación de Daños y Mecanismos de Reclamo ............................................... 40 6. EJEMPLOS DE CASOS EN EL CONTEXTO FINTECH: FALSOS POSITIVOS, FALSOS NEGATIVOS, PROBLEMAS DE SESGOS Y FILTRACIÓN DE DATOS PERSONALES ..... 41 6.1 Reflexión sobre la Responsabilidad Civil derivada del uso de la IA en el Sistema FinTech...................................................................................................... 45 7. CASUISITICA Y JURISPRUDENCIA RELEVANTE....................................................... 47 7.1 La Sanción de la AEPD a Openbank: Un Análisis Jurídico y sus Implicancias 47 7.2 Sanción de la AEPD a CaixaBank Payment & Consumer por Infracción en el Consentimiento para Obtener Perfiles ..................................................................... 49 8. MARCO E IMPACTOS SOCIOECONÓMICOS DE LA INTELIGENCIA ARTIFICIAL EN LA INDUSTRIA FINTECH Y EL SISTEMA FINANCIERO ................................................. 52 8.1 Implementación de IA en Empresas Financieras .......................................... 53 8.2 Impactos Socioeconómicos .......................................................................... 54 9. COMPROBACIÓN DE HIPÓTESIS DE TRABAJO ................................................................................................................................... 56 10. PROPUESTA........................................................................................................... 57 CAPITULO 4 ................................................................................................................ 59 11. CONCLUSIONES Y REFLEXIONES FINALES............................................................. 59 BLIBIOGRAFÍA ........................................................... ERROR! BOOKMARK NOT DEFINED. 9 Capítulo 1 1. Introducción 1.1 Planteo de la problemática de trabajo En los últimos años, el crecimeinto tecnológico en el ámbito digital ha transformado e impactado en todos los ecosistemas, desde los ámbitos y formas de trabajo hasta la industria, el comercio, los servicios, las comunicaciones y los medios de intercambio. Todo ello ha generado importantes innovaciones como, por ejemplo, en los métodos de pago, las forma de trasmitir el dinero, las formas de almacenarlo, entre otras. Estos avances han provocado una fuerte demanda de transacciones ejecutadas a través de diversos dispositivos electrónicos como: computadoras de escritorio y portátiles, teléfonos inteligentes (smartphones), cajeros automáticos, terminales de punto de venta, dispositivos wearables, etcétera. Resultando, a consecuencia de esta expansión de transacciones digitales, la necesidad inmediata de ampliar los volúmenes de almacenamiento de datos, realizar mayores inversiones en hardware, mejorar la infraestructura del sistema y poner un especial énfasis en las medidas de seguridad. Además, se ha incrementado la atención en las vulnerabilidades de los sistemas ya que datos relevantes para las empresas y sus consumidores pueden estar en riesgo de infiltraciones. Tal es así que son incontables los casos de entidades financieras - Tradicionales, Neo bancas y Fintech- que son hackeadas diariamente a través de diversos mecanismos de como el phishing, filtraciones de claves de accesos internas, malware, ransomware, entre otros mecanismos de ingeniería social, donde el hacker busca acceder a los datos de los clientes obteniendo como recompensa el dinero que se encuentra en las cuentas. De ese modo los ciberdelincuentes obtienen créditos personales inmediatos, acceden a los datos de tarjeta de créditos, roban datos biométricos de las bases de datos, etc. Como solución a estos problemas a los que se encuentran expuestas diariamente estas instituciones, la inteligencia artificial (IA) ha emergido como una herramienta 10 fundamental para la transformación del sector financiero, especialmente en el área de Ciberseguridad, siendo implementada para la detección y prevención de actividades ilícitas. La capacidad de la IA para analizar grandes volúmenes de datos y detectar patrones complejos en tiempo real permitiría a las empresas mejorar significativamente la prevención de riesgos. Sin embargo, la implementación de estas tecnologías también presentaría desafíos considerables. Entre estos se encuentran la necesidad de aportar datos de alta calidad, la interpretación de los resultados generados por los algoritmos y la gestión de los sesgos inherentes a los modelos de IA. La aplicación de algoritmos de aprendizaje automático en la detección de fraude en la industria fintech plantea varias problemáticas jurídicas. Entre ellas, la protección de datos personales, la responsabilidad en caso de errores y la transparencia y explicabilidad de los modelos de IA. La recolección y análisis de datos transaccionales deben cumplir con regulaciones de privacidad, como el Reglamento General de Protección de Datos (RGPD) en Europa o la Ley de Protección de Datos Personales en varios países de América Latina. Además, es crucial determinar quién es legalmente responsable si el modelo de IA falla en detectar fraude o si genera falsos positivos que afectan a clientes legítimos. Finalmente, los modelos de IA deben ser lo suficientemente transparentes y explicables para cumplir con requisitos regulatorios y evitar problemas legales. 1.2 Hipótesis de trabajo propuesta El fraude financiero es una preocupación significativa para la industria fintech, que maneja un volumen creciente de transacciones electrónicas cada día. Los métodos tradicionales de detección de fraude, como las reglas basadas en heurísticas y la supervisión manual, han demostrado ser ineficaces a medida que los esquemas de fraude se vuelven más sofisticados y los volúmenes de transacciones aumentan. La IA, en particular los algoritmos de aprendizaje automático, ofrece una solución prometedora para este problema. La capacidad de la IA para analizar grandes conjuntos de datos, identificar patrones y aprender de los comportamientos históricos puede mejorar significativamente la detección de actividades fraudulentas. La implementación de 11 algoritmos de IA incrementaría la capacidad de análisis de operaciones bancarias, aumentaría la precisión a la hora de reputar transacciones como fraudulentas y reduciría los falsos positivos. Entre otros beneficios, con la implementación de la IA, no sería necesaria la intervención humana, lo que se vería reflejado en la baja de los costos operativos de las entidades financieras, habría una reducción de las perdidas por fraude y con ello generaría una mejora del servicio y aumento de confianza del usuario. Si los resultados del análisis y la implementación del modelo de IA muestran una mejora en la precisión a la hora de la detección o prevención de fraudes y una reducción en los falsos positivos, se podrá confirmar la hipótesis de que la implementación de algoritmos de IA mejoraría significativamente la ciberseguridad en la industria fintech. Además, se proporcionarán recomendaciones sobre cómo las empresas fintech pueden adoptar estas tecnologías de manera efectiva y legalmente segura, abordando las problemáticas jurídicas y operativas identificadas. 1.3 Objetivos de la tesis 1.3.1 Objetivos Generales: Desarrollar y evaluar un sistema de detección de fraude basado en inteligencia artificial en la industria fintech. Identificar y abordar los desafíos éticos y regulatorios asociados con su uso. 1.3.2 Objetivos Específicos: Evaluar los riesgos relacionados con la protección de datos personales. Analizar la responsabilidad en caso de errores de falsos positivos. Garantizar la transparencia y explicabilidad de los modelos de IA. Asegurar que la recolección y análisis de datos transaccionales cumplan con regulaciones de privacidad, como el GDPR en Europa y la Ley de Protección de Datos Personales en Argentina Determinar la responsabilidad legal si el modelo de IA falla en detectar fraude o genera falsos positivos que afectan a clientes legítimos. 12 Cumplir con los requisitos regulatorios y evitar problemas legales mediante la transparencia y explicabilidad de los modelos de IA. 1.4 Resumen del estado actual de la materia La detección de fraude en la industria financiera tradicionalmente ha dependido de métodos basados en reglas y supervisión manual. Sin embargo, con el aumento en el volumen y complejidad de las transacciones, estos métodos se han vuelto insuficientes. Los avances en inteligencia artificial y aprendizaje automático han permitido el desarrollo de modelos que pueden analizar grandes volúmenes de datos y detectar patrones anómalos con mayor precisión. Diversas investigaciones y aplicaciones en el campo han demostrado la eficacia de estos modelos en la reducción de fraudes y falsos positivos. Sin embargo, la implementación de estas tecnologías también ha generado preocupaciones en cuanto a la privacidad de los datos, la responsabilidad legal y la necesidad de transparencia en los algoritmos utilizados. Capítulo 2 2. Marco teórico 2.1 Inteligencia Artificial – Definición y clasificación Antes del abordaje del presente tema en busca de un concepto especifico de qué es IA, resulta importante aclarar que no hay una definición clara y concreta de lo que es IA en lo respecta una definición técnica legal. Como se sabe, la IA forma parte de esta “nueva revolución industrial”, que algunos denominan 4.0 y, como tal, es una ciencia nueva que está en continua evolución. Se podría decir que, si bien Alan Turing tiene gran parte de protagonismo en esta definición, ya que fue unos de los pioneros en investigar esta temática desarrollando estudios informáticos. Alan creo un dispositivo al que llamo “máquina universal”, capaz de resolver todos los problemas matemáticos que pueden expresarse mediante un algoritmo. En 1950 desarrolló su “Test de Turing”, donde el objetivo de esta prueba era 13 enfrentar a un ser humano y a una IA por medio de un desafío de preguntas realizadas por un interrogador – quien no podía observar quien era el que respondía-; si luego de la pregunta éste no podía distinguir de quién provenía la respuesta, entonces la IA sería inteligente.1 Sin embargo, en la realidad de los hechos, el término fue acuñado y utilizado por primera vez en 1936, en Dartumouth College (Estados Unidos) por John McCarthy, Newell y Marvin Minsky en lo que fue el “Proyecto de Investigación de Verano sobre Inteligencia Artificial”. Si bien fue la primera vez que se usó el término inteligencia artificial, no se realizó una definición exacta. Entonces, para dar una definición técnica, podemos citar la definición propuesta por el parlamento europeo donde considera a la IA “como un sistema basado en máquinas que está diseñado para funcionar con diversos niveles de autonomía y que puede mostrar capacidad de adaptación tras su despliegue, y que, para objetivos explícitos o implícitos, infiere, a partir de la entrada que recibe, cómo generar salidas tales como predicciones, contenidos, recomendaciones o decisiones que pueden influir en entornos físicos o virtuales2. En otras palabras, la IA es el concepto según el cual “las máquinas piensan como seres humanos”3. Es relevante distinguir el programa informático de aquel algoritmo del que hace referencia la inteligencia artificial. Esto es porque un programa informático es solo una lista de ordenes que informa a la computadora lo que tiene que hacer. Funciona bajo el protocolo de que “si sucede esto, haz esto” “y si sucede esto otro, haz esto otro”. En otros términos, en un software tradicional existen instrucciones específicas que abarcan todas 1 El test de Turing ocurrió por primera vez en 2014, cuando el programa de chat «Eugene Goostman», desarrollado por los investigadores Vladimir Veselov y Eugene Demchenko, logró superar el test 2 Parte del Capítulo I: Disposiciones Generales, Artículo 3: Definiciones - enero de 2025. Recuperado de https://artificialintelligenceact.eu/es/article/3/ 3 Recuperado de: https://www.ceupe.mx/blog/conoce-la-inteligencia- artificial.html#:~:text=Inteligencia%20Artificial%20(IA)%20es%20la,pueden%20mostrar%20comporta mientos%20considerados%20inteligentes. 14 las probabilidades de alternativas, incluyendo la previsión de errores potenciales. Por el contrario, en la inteligencia artificial, ésta no recibe instrucciones de manera convencional; en su lugar, procesa (piensa) de forma autónoma e intenta replicar el razonamiento humano. Como lo hacemos los las personas, la IA aprende a partir de errores y registra la información sobre los caminos correctos para evitar repetir los mismos errores en el futuro. Esta capacidad de aprendizaje y adaptación es lo que distingue sustancialmente a la IA del software tradicional. 2.1.1 Clases de inteligencia artificial: Que en consonancia con lo narrado más arriba, respecto a la dificultad que se presenta a al momento de definir la IA, lo mismo ha ocurrido con su clasificación. En primer lugar, se analizará la clasificación efectuada por los informáticos Stuart J. Russell y Peter Norvig 4, donde establecieron cuatro tipos de IA, disponiéndolas de este modo: Sistemas que piensan como humanos: son redes neuronales artificiales que se enfocan en la emulación de la inteligencia humana, tanto en términos de comportamiento como de pensamiento. Buscan imitar la forma en que los humanos piensan y resuelven problemas. Sistemas que actúan como humanos: se enfocan en la emulación de la inteligencia humana, pero en términos de comportamiento. Buscan imitar la forma en que los humanos se comportan y actúan en el mundo. Sistemas que piensan racionalmente: se enfocan en tratar de replicar las capacidades de percibir, razonar y actuar al igual que el pensamiento lógico racional de un ser humano. Buscan maximizar la eficiencia y la precisión de sus decisiones, sin considerar necesariamente el comportamiento humano. 4 Russell, S. J., & Norvig, P. (2004). Inteligencia artificial. Un enfoque moderno (2ª ed.). Madrid: PEARSON EDUCACIÓN, S.A. 15 Sistemas que actúan racionalmente: se enfocan en la toma de decisiones y la acción en el mundo, buscando siempre tomar la mejor decisión posible basada en la información disponible. Otra forma posible de diferenciar a las inteligencias artificiales, es según su “potencia”, diferenciándose entre: • IA Estrecha/Débil: también conocida como IA estrecha, son sistemas diseñados para realizar tareas específicas y limitadas, como el reconocimiento de voz, la identificación de imágenes o la traducción de idiomas. No tienen capacidad de aprendizaje o adaptación por sí mismos y requieren ser programados para realizar una tarea determinada. Su alcance es limitado y no pueden realizar tareas fuera de su campo de especialización. Son los casos de aplicaciones que poseen asistentes virtuales como Alexa y Siri, sistemas de recomendaciones en plataformas como Netflix y Amazon, y algoritmos de fraude de instituciones financieras. Estos sistemas, si bien son altamente especializados, no poseen capacidades generales de razonamiento o comprensión. • IA Amplia/Fuerte: está diseñada para tener una amplia gama de habilidades cognitivas y capacidad de aprendizaje autónomo. Estos sistemas pueden realizar múltiples tareas y aprenden de forma autónoma a medida que interactúan con el entorno. La IA fuerte debe tener la capacidad de razonar, planificar y tomar decisiones complejas en un amplio espectro de situaciones. A pesar de los avances en la investigación, la IA fuerte sigue siendo un objetivo a largo plazo y no se ha logrado aún. • IA General/Superinteligente: es un tipo de IA que superaría la inteligencia humana en todos los aspectos. Este nivel de IA sería capaz de comprender el mundo de una manera que está más allá de la capacidad humana y resolver problemas complejos a una velocidad y eficiencia que los seres humanos no pueden alcanzar. Es una forma teórica de IA que aún no ha sido desarrollada en la práctica. Por último, éstas se pueden clasificar según la “técnica aplicada”. Pudiendo identificar varias subcategorías, entre las cuales el aprendizaje automático (machine learning) ocupa un lugar destacado: 16 a) Aprendizaje Automático (“Machine Learning”): Es un subcampo de la IA que se enfoca en el desarrollo de algoritmos y técnicas que permiten a las máquinas aprender de los datos (números, palabras, imágenes, estadísticas, etc.) y mejorar su desempeño con el tiempo sin ser explícitamente programadas para cada tarea. Todo lo que pueda ser almacenado digitalmente puede ser relevante para la retroalimentación de la Machine Learning. Esto es, tiene la capacidad de analizar los datos detectando patrones y desarrollando nuevos algoritmos que aprenden y mejoran el rendimiento en la ejecución de una tarea especifica. Ejemplo: Algoritmos de clasificación (Netflix, Spotify, etc.) Aprendizaje supervisado: El objetivo principal del aprendizaje supervisado es desarrollar un modelo a partir de un conjunto de datos de entrenamiento, que le permitirá al algoritmo hacer predicciones sobre datos futuros. El término "supervisado" indica que las salidas esperadas del conjunto de entrenamiento ya se conocen. Algunos ejemplos de este tipo de aprendizaje son la clasificación, la predicción y el ranking. Aprendizaje no supervisado: En el aprendizaje no supervisado, el objetivo es identificar patrones en los datos de entrada sin contar con un conjunto de entrenamiento etiquetado. Algunos ejemplos de técnicas de aprendizaje no supervisado son el clustering y la asociación. b) Aprendizaje Profundo (“Deep Learning”): Es un Subcampo del aprendizaje automático que utiliza redes neuronales artificiales con muchas capas (redes neuronales profundas) para modelar y entender patrones complejos en grandes volúmenes de datos. Estas redes neuronales profundas se inspiran en la estructura del Cerebro humano. Toda la información es procesada a través de la red de algoritmos que se encuentran interconectadas de forma no lineal, muy similar a como lo procesa la información nuestro cerebro. Por ejemplo, cuando se aplica el reconocimiento de imágenes para el diagnóstico temprano de enfermedades. 17 2.2 El Sector FinTech 2.2.1 Definición y su aplicación La aparición de nuevas tecnologías y lo que llamamos la Revolución 4.0 han producido grandes cambios. Asimismo, la masificación de internet junto con la digitalización, las crisis económicas que afectaron el desarrollo de los sistemas tradicionales y, por último, el contexto de la pandemia, en el que diversos gobiernos implementaron aislamientos obligatorios restringiendo, total o parcialmente, el traslado de las personas y la realización de operaciones comerciales normales, ha provocado que el sistema financiero se transforme hacia nuevos horizontes con nuevos servicios y metodologías de pago. En este contexto, comenzaron a surgir las primeras empresas fintech. Cuando hablamos de Fintech, nos referimos al conjunto de empresas innovadoras que, mediante la utilización de tecnología, ofrecen soluciones financieras con el soporte de las nuevas tecnologías, a personas individuales y empresas que centran su actividad en un área particular del mercado financiero 5. Siguiendo el pensamiento de los Dres. Santiago J. Mora y Pablo Palazzi, podemos decir que, empresas fintech son “aquellas empresas que comienzan a competir con las entidades financieras tradicionales en distintos verticales del negocio financiero 6”. Por otro costado, el BCRA en un comunicado estableció que “se denominan Fintech aquellas empresas que prestan servicios financieros a partir de aplicaciones móviles o sitios web7”. 5 Wilson, J. (2017). Creating strategic value through financial technology. New Jersey: John Wiley & Sons, Inc. 6 “Primeras reflexiones sobre el derecho fintech” Marina Bericua, Pablo Palazzi y Santiago J. Mora- Legaltech 1!- Thomson Reuters. 7 Banco Central de la República Argentina (BCRA). (2023, 29 de noviembre). Las fintech y la oferta de créditos online: una aproximación a sus aspectos jurídicos. Ideas de Peso. https://www.bcra.gob.ar/. 18 Estas empresas, que atienden tanto a individuos como a otras empresas, desarrollan actividades Fintech tanto en entidades financieras ya instaladas en el mercado como las nuevas empresas que se acoplan, de algún modo, en algún punto de la cadena del sistema financiero, contribuyendo con innovación, mejor experiencia y más fluidez. También se puede ver con frecuencia que las nuevas empresas colaboren con entidades financieras tradicionales, donde las primeras aportan la estructura y la innovación y las segundas – entidades tradicionales- aportan la capacidad crediticia y la experiencia en el mercado; incluso, en muchos casos terminan siendo adquiridas por ellas. Dentro de la industria fintech, se destaca una amplia variedad de operaciones, entre las cuales podemos mencionar: a. Pagos y Transferencias: Cuando hablamos de pagos y transferencias, hablamos de sistemas electrónicos de pagos. “Estos sistemas tienen la finalidad de “facilitar transferencias de valores monetarios mediante un conjunto complejo y o ambiguo de pasos, los cuales establecen un protocolo de pago electrónico8”. Las plataformas como PayPal, Moneybookers (ahora Skrill), Braintree (ahora parte de PayPal), entre otros9, han transformado cómo se realizan los pagos y las transferencias, ofreciendo soluciones rápidas y seguras que son accesibles tanto para individuos como para empresas. Esto ha simplificado enormemente las transacciones comerciales y personales a nivel global. b. Préstamos y Financiación Peer to Peer (P2P): Cuando los bancos tradicionales dejaron de otorgar financiación a las empresas, autónomos y pequeños consumidores, estos usuarios tuvieron que salir en busca de nuevas alternativas para poder cumplir con sus expectativas de negocio. Aquí aparece la modalidad P2P, es decir, a través de un 8 9 PASTOR SEMPERE, Maria del Carmen. Dinero Electrónico. Edersa, Madrid, 2003 p. 43. Extraído de https://www.arsys.es/blog/de-la-evolucion-de-las-transacciones-electronicas-a-la- revolucion-de-los-medios-de-pago-online-i-de-ii 19 intermediario de confianza (Fintech) se ponen en contacto el solicitante del préstamo o crédito con los inversores que buscan sacarle rentabilidad a sus ahorros. Todo bajo el amparo de las organizaciones o empresas (intermediarias) que se encargan de valorar el caso y los riesgos en particular. Empresas como LendingClub y Funding Circle permiten préstamos peer-to-peer (P2P), conectando directamente a prestatarios con inversores, eliminando intermediarios bancarios. Esto ofrece tasas de interés competitivas y mayores opciones de financiamiento para pequeñas empresas y personas individuales. c. Gestión de Inversiones y Robo-Advisors: Un Robo advisor es una plataforma de inversión en tipo automatizada que a través de un algoritmo y tecnología avanzada proporcionan asesoramiento financiero, gestionando la cartera de inversiones acordada en base a parámetros prestablecidos -perfil financiero- por el cliente. Por ejemplo, las empresas Betterment y Wealthfront utilizan algoritmos para proporcionar asesoramiento financiero y gestión de inversiones automatizada. Esto democratiza el acceso a servicios de gestión de patrimonios que anteriormente estaban reservados para grandes inversores. d. Insurtech: Es un término que surge de la unión de dos palabras en inglés “insure” (aseguradora) y “technology” (tecnología). Empresas como Lemonade y Root utilizan tecnología para ofrecer seguros personalizados y basados en el uso de algoritmos y de IA, mejorando la experiencia del cliente y reduciendo costos operativos. Esto está revolucionando la industria aseguradora al hacerla más transparente y centrada en el cliente. e. Criptomonedas y Blockchain: Bitcoin, Ethereum y otras criptomonedas han introducido nuevas formas de moneda y métodos de transacción. Las aplicaciones de blockchain también están transformando la seguridad y la transparencia en diversas áreas financieras, desde pagos hasta contratos inteligentes. 2.2.2 Características Distintivas de las Fintech Innovación Tecnológica: Las fintech destacan por utilizar tecnología avanzada como inteligencia artificial, aprendizaje automático, blockchain y análisis de big data para desarrollar productos financieros innovadores que mejoran la eficiencia y reducen costos. 20 Orientación al Cliente: Las fintech suelen enfocarse en mejorar la experiencia del cliente mediante interfaces intuitivas, procesos simplificados y servicios personalizados. Esto contrasta con la burocracia y complejidad a menudo asociadas con los servicios financieros tradicionales. Accesibilidad: Las soluciones fintech están diseñadas para ser accesibles a una amplia gama de usuarios, incluyendo individuos y pequeñas empresas que podrían haber sido excluidas por instituciones financieras tradicionales debido a requisitos estrictos. Agilidad y Flexibilidad: En comparación con los bancos tradicionales, las fintech son más ágiles y flexibles. Pueden adaptarse rápidamente a las demandas cambiantes del mercado y a las necesidades específicas de los clientes, lo que les permite innovar más rápidamente 2.2.3. Desafíos de la Industria Fintech: Regulación y Cumplimiento: Las fintech enfrentan desafíos significativos debido a las regulaciones financieras que buscan proteger a los consumidores y garantizar la estabilidad del sistema financiero. Adaptarse a estas regulaciones puede ser costoso y limitar la capacidad de innovación de las fintech. Seguridad y Privacidad: Manejar grandes volúmenes de datos personales y financieros hace que las fintech sean vulnerables a ciberataques. La seguridad y la protección de la privacidad son preocupaciones críticas que deben abordarse con tecnologías avanzadas y prácticas de seguridad robustas. Competencia con Bancos Tradicionales: Aunque las fintech ofrecen ventajas en términos de agilidad y accesibilidad, enfrentan una competencia feroz de los bancos tradicionales que están adoptando tecnologías similares para mejorar sus propios servicios y retener clientes. Adopción del Usuario: Convencer a los usuarios para que adopten soluciones fintech puede ser un desafío, especialmente entre aquellos que son menos tecnológicos o desconfían de las nuevas tecnologías. La educación y la creación de confianza son clave para superar esta barrera. 21 Estos puntos destacan tanto los beneficios disruptivos como los desafíos inherentes que enfrenta la industria fintech en su búsqueda por transformar el panorama financiero global. Capítulo 3 3. Impacto de la implementación de la IA en la Industria Fintech Acompañado del gran avance que tuvo el sistema financiero, la IA ha sido adoptada e impulsada como una solución a la encrucijada marcada por desafíos significativos: desde la creciente demanda de servicios personalizados, hasta la necesidad imperante de tomar decisiones rápidas basadas en millones de datos complejos. La eficacia operativa y la seguridad de los datos se vuelven más críticas que nunca en un panorama donde las expectativas de los clientes y las regulaciones están en constante cambio. Inicialmente, las aplicaciones de IA en finanzas tecnológicas se centraron en el análisis de datos y la automatización de procesos. Con el tiempo, la IA ha avanzado y se ha consolidado como una herramienta óptima para analizar y predecir tendencias del mercado, optimizar servicios, la gestión de carteras y principalmente para fortalecer la seguridad financiera mediante la detección de fraudes. 3.1 Prevención de Riesgos en el Sector FinTech Las FinTech, así como otros actores financieros, se enfrentan a numerosas amenazas cibernéticas, lo que las obliga a implementar estrategias eficaces y soluciones innovadoras para proteger los datos y activos financieros. Para ello, la prevención de riesgos en el sector FinTech implica una combinación de medidas para la identificación o detección temprana, evaluación y mitigación de riesgos financieros y operativos que puedan afectar a las organizaciones. Estos riesgos incluyen fraudes, riesgos crediticios, riesgos de mercado, riesgos operacionales y riesgos de liquidez. La adopción de tecnologías avanzadas, como la IA, ha permitido enfrentar desafíos de ciberseguridad y garantizar la integridad y confidencialidad de los datos financieros de los usuarios. Lo mismo ocurre con la prevención de riesgos, ya que es crucial para mantener la estabilidad financiera y la confianza del cliente, pudiendo identificar y 22 mitigar riesgos de manera eficiente, mediante la detección temprana de anomalías y patrones de comportamiento sospechoso, lo que puede significar en el ámbito económico la diferencia entre el éxito y el fracaso; siendo reconocido el sector FinTech por ser altamente competitivo y regulado. 3.1.1 Principios de la Prevención de Riesgos con IA La IA aplicada a la prevención de riesgos en el sector FinTech se basa en varios principios fundamentales que permiten identificar y mitigar riesgos de manera eficaz: 1. Análisis Predictivo: Los algoritmos de IA utilizan datos históricos para predecir futuros eventos. En el contexto de la prevención de riesgos, esto significa analizar patrones de transacciones pasadas para identificar posibles fraudes o comportamientos anómalos futuros. Los modelos predictivos pueden prever la probabilidad de que ocurra un evento específico, lo que permite a las empresas tomar medidas preventivas. 2. Detección de Anomalías: La detección de anomalías es una técnica clave en la prevención de riesgos. Los sistemas de IA analizan grandes volúmenes de datos para identificar patrones que se desvían de lo normal. Estas desviaciones pueden indicar fraudes, errores o actividades sospechosas. Los algoritmos de detección de anomalías se basan en técnicas estadísticas y de aprendizaje automático para identificar y evaluar estas discrepancias. 3. Automatización de Procesos: La IA permite la automatización de tareas rutinarias en la gestión de riesgos, lo que reduce la carga de trabajo manual y aumenta la eficiencia. Los sistemas de IA pueden procesar y analizar grandes volúmenes de datos en tiempo real, permitiendo una respuesta rápida a posibles riesgos. Además, la automatización reduce la posibilidad de errores humanos y asegura una vigilancia continua. 4. Aprendizaje Adaptativo: Los algoritmos de IA tienen la capacidad de aprender y mejorar con el tiempo. A medida que se procesan más datos y se identifican más patrones, los modelos de IA pueden ajustar sus predicciones y mejorar su precisión. Este aprendizaje adaptativo es crucial en un entorno financiero dinámico donde los patrones de fraude y riesgo pueden evolucionar rápidamente. 23 3.1.2 Tipos de algoritmos de aprendizaje automático La inteligencia artificial y el aprendizaje automático se han convertido en herramientas cruciales para la detección de fraude en la industria fintech. El aprendizaje automático, en particular, permite a los sistemas aprender de los datos históricos y mejorar con el paso del tiempo su capacidad para identificar transacciones o patrones que sean de actividades de tipo fraudulentas. Existen diversos enfoques y algoritmos utilizados en la detección de fraude, incluyendo algoritmos supervisados como la regresión logística y los árboles de decisión, y algoritmos no supervisados como el clustering y el análisis de anomalías. La efectividad de estos algoritmos depende de la calidad y cantidad de datos disponibles, así como de la capacidad para preprocesar y limpiar los datos adecuadamente. Algoritmos Supervisados Los algoritmos supervisados se entrenan utilizando un conjunto de datos etiquetados, donde cada ejemplo de entrenamiento incluye tanto las características de entrada como la etiqueta de salida correspondiente. En el contexto de la detección de fraude, esto significa que el modelo se entrena con transacciones marcadas como legítimas o fraudulentas. a) Regresión Logística: Utilizada para modelar la probabilidad de que una transacción sea fraudulenta. Este modelo actúa como una calculadora tomando varios factores, como por ejemplo el monto de la transacción y la ubicación, estimando la probabilidad de que esa operación sea cierta o fraudulenta. Si la probabilidad es alta, decimos que la transacción es probablemente fraudulenta. Si es baja, probablemente no lo es. b) Árboles de Decisión: Estos algoritmos crean un modelo de decisiones basado en las características de las transacciones. Este método toma decisiones al dividir las características en preguntas “sí/no”, creando un "árbol" de decisiones. Cada rama del árbol representa una decisión basada en una característica, y las hojas del árbol representan la decisión final (fraude o no fraude). Imagina un juego de 20 preguntas donde cada pregunta te lleva más cerca de adivinar el objeto. Cada pregunta divide las posibilidades hasta llegar a la respuesta final. 24 c) Máquinas de Soporte Vectorial (SVM): Utilizadas para clasificar las transacciones al encontrar el hiperplano que mejor separa las clases fraudulentas y legítimas. Este método intenta encontrar una línea o frontera que divida las transacciones “fraudulentas” de las “no fraudulentas” en un gráfico de características. La línea se coloca de manera que maximice la distancia entre los dos grupos (fraude y no fraude). Ejemplo: Piensa en un maestro que divide a sus estudiantes en dos grupos basándose en sus calificaciones y comportamiento. El maestro coloca una cuerda en el suelo que separa claramente a los buenos estudiantes de los malos estudiantes. Las SVM son efectivas en espacios de alta dimensionalidad, pero pueden ser difíciles de interpretar. Algoritmos No Supervisados Los algoritmos no supervisados no utilizan etiquetas o resultados conocidos para aprender que es fraude o que no es fraude. En su lugar, intentan encontrar patrones o agrupaciones en los datos que puedan indicar comportamiento anómalo. a) Clustering (Agrupamiento): Algoritmos que agrupan transacciones similares. Las transacciones que no pertenecen a ningún grupo pueden considerarse anómalas o sospechosas. b) Análisis de Componentes Principales (PCA): Reduce la dimensionalidad de los datos para identificar las principales variaciones. Las transacciones que se desvían significativamente del comportamiento normal pueden ser marcadas como sospechosas. c) Autoencoders: Redes neuronales utilizadas para aprender una representación comprimida de los datos. Las transacciones que no se pueden reconstruir adecuadamente, es una señal de que es diferente de las transacciones normales y podría ser fraudulenta. Aprendizaje por refuerzo: En este enfoque, un agente aprende a tomar decisiones mediante la interacción con su entorno, recibiendo recompensas o castigos en función de sus acciones. El agente no recibe instrucciones explícitas sobre qué hacer, sino que descubre qué acciones son mejores a través de prueba y error. Si el agente marca correctamente una transacción como fraudulenta, recibe una recompensa (valor positivo) o un castigo, si el agente marca incorrectamente una transacción, recibe un castigo (valor negativo). 25 3.1.3 Aplicaciones en la detección de fraude En la detección de fraude financiero, los algoritmos de aprendizaje supervisado son los más utilizados debido a la disponibilidad de datos históricos etiquetados con transacciones fraudulentas y legítimas. Los pasos típicos para desarrollar un modelo de detección de fraude incluyen: a. Recolección de datos: Obtener un conjunto de datos significativo y representativo que contenga transacciones etiquetadas como fraudulentas y no fraudulentas. b. Preprocesamiento de datos: Limpiar y transformar los datos para que sean adecuados para el entrenamiento del modelo. Esto puede incluir la normalización de los datos, el manejo de valores perdidos y la ingeniería de características. c. Entrenamiento del modelo: Seleccionar un algoritmo de aprendizaje automático y entrenarlo utilizando el conjunto de datos preprocesados. d. Evaluación del modelo: La evaluación del modelo es el proceso de validar y constatar si está funcionando bien nuestro modelo de detección de fraudes. Se utilizan diversas técnicas y métricas para asegurarnos de que el modelo no solo funciona bien en los datos de entrenamiento, sino que también se desempeña adecuadamente en datos nuevos o no vistos. e. Implementación del modelo: Desplegar el modelo en un entorno real donde pueda procesar transacciones en tiempo real y detectar posibles fraudes. 4. Desafíos Éticos y Regulatorios en el Uso de IA en FinTech 4.1 Transparencia y Explicabilidad Uno de los principales desafíos éticos en el uso de IA en FinTech es la necesidad de garantizar la transparencia y la explicabilidad de los algoritmos. Los modelos de IA, especialmente los más complejos, como las redes neuronales profundas, pueden ser vistos como "cajas negras" que producen resultados sin una explicación clara de cómo se llegó a ellos. Esto puede dificultar la confianza de los usuarios y la rendición de cuentas. 26 La transparencia implica que las empresas deben ser claras sobre cómo se recopilan, utilizan y procesan los datos. En cuanto a la explicabilidad, se hace referencia a la capacidad de los sistemas de IA para proporcionar razones comprensibles para sus decisiones y acciones. Según un informe de la European Commission (2020), “la falta de transparencia en los modelos de IA puede erosionar la confianza del público y generar problemas de equidad”. 4.2 Equidad y No Discriminación Otro desafío ético significativo es asegurar que los sistemas de IA no perpetúen o amplifiquen sesgos existentes. Los datos utilizados para entrenar los algoritmos pueden contener sesgos inherentes que, si no se gestionan adecuadamente, pueden llevar a decisiones discriminatorias. Esto es particularmente crítico en el sector financiero, donde las decisiones automatizadas pueden afectar el acceso al crédito y otros servicios financieros. El RGPD establece que los individuos tienen derecho a no ser objeto de decisiones basadas únicamente en el procesamiento automatizado, lo que incluye medidas para proteger a los ciudadanos contra la discriminación y garantizar la equidad. La European Union Agency for Fundamental Rights (FRA) ha destacado la importancia de desarrollar sistemas de IA que sean justos y no discriminatorios, señalando que “los algoritmos deben ser diseñados y entrenados de manera que minimicen el riesgo de sesgo y discriminación”. No obstante ello, el sesgo no es un problema exclusivo de un sistema de IA, sino que puede aparecer en cualquier sistema de proceso “automático” o “no automático” que toma decisiones o que realiza elaboración de perfiles. Existen técnicas conocidas como Algorithmic Impact Assessment 10 (AIA), orientadas a examinar y determinar la posible 10 Los Algorithmic Impact Assessment son herramientas para permitir evaluar a los interesados que los componentes de IA cumplen con determinados parámetros de calidad y que son adecuados para la tarea encomendada. Referencias sobre los mismos se pueden encontrar, por ejemplo, en https://ainowinstitute.org/aiareport2018.pdf 27 existencia de sesgos en los algoritmos utilizados en las soluciones de IA y a garantizar la equidad en la implementación del modelo. Estas métricas han de analizar la lógica implementada, para que la misma no produzca inexactitudes por diseño, y emplear modelos maduros de pruebas y test de la lógica para detectar errores de diseño 11. 5. Marco Normológico y Legislativo en el ámbito de la IA El constante desarrollo tecnológico que se ha venido gestando en diversos ámbitos de la vida cotidiana, acompañado del incremento del uso de sistemas de IA han impulsado la necesidad de un ordenamiento jurídico específico que venga a regular y a delimitar los usos que se hagan con dicha herramienta, siendo la Unión Europea en ser la que, de alguna forma, ha venido a poner un poco de claridad y limites a estos avances tecnológicos. El Reglamento (UE) 2024/... del Parlamento Europeo y del Consejo, conocido como el Reglamento de Inteligencia Artificial, surge como una respuesta para establecer normas armonizadas en materia de IA. Este marco legislativo se diseñó para mejorar el funcionamiento del mercado interior, fomentar una IA centrada en el ser humano y garantizar un alto nivel de protección de la salud, la seguridad y los derechos fundamentales consagrados en la Carta de los Derechos Fundamentales de la Unión Europea, incluida la democracia, el Estado de Derecho y la protección del medio ambiente, frente a los efectos perjudiciales de los sistemas de la IA. 12 11 Trabajos recientes han planteado preocupaciones sobre el riesgo de sesgos no intencionales en estos modelos, que afectan negativamente a individuos de ciertos grupos. Si bien se han propuesto muchas métricas de sesgo y definiciones de equidad, no hay consenso sobre qué definiciones y métricas deberían usarse en la práctica para evaluar y auditar estos sistemas. No obstante, se han desarrollado diferentes métricas orientadas a evaluar la discriminación algorítmica como Aequitas, un kit de herramientas de auditoría de sesgos de código abierto desarrollado por el Center for Data Science and Public Policy. 12 Parlamento Europeo. (2024). Ley de Inteligencia Artificial. Reglamento del Parlamento Europeo y del Consejo por el que se establecen normas armonizadas en materia de inteligencia artificial (Ley de Inteligencia Artificial) y se modifican determinados actos legislativos de la Unión (COM (2021)0206 – C90146/2021 – 2021/0106 (COD)) [Resolución legislativa del Parlamento Europeo de 13 de marzo de 2024 28 El Reglamento pretende abordar los desafíos y oportunidades que presenta la IA, proporcionando un entorno jurídico claro y coherente que promueva la innovación y la adopción de sistemas de IA seguros y confiables en toda la UE. Se busca evitar la fragmentación del mercado interior debido a la existencia de normas nacionales divergentes y garantizar un nivel uniforme de protección y confianza en la IA. Por otro costado, la implementación de la inteligencia artificial en el sector FinTech está sujeta a un marco normativo y legislativo que busca equilibrar la innovación tecnológica con la protección de los derechos de los consumidores. Como se ha dicho, la UE ha sido pionera en la creación de regulaciones que abordan tanto la utilización de IA como la protección de datos personales, siendo el Reglamento General de Protección de Datos (RGPD) uno de los más relevantes en este contexto. La propuesta de Reglamento de IA de la UE introduce un conjunto de normas, directrice, y una clasificación taxativa de los sistemas de IA en función de su nivel de riesgo y establecer requisitos específicos para su desarrollo y uso. 5.1 Legislación Europea Relevante (Reglamento de la IA, RGPD) La motivación detrás de la nueva legislación sobre IA en la UE se basa en varios factores clave: Protección de Derechos Fundamentales: La creciente utilización de IA en diversas áreas, incluida la financiera, ha planteado preocupaciones sobre la privacidad, la equidad y la transparencia. La legislación busca proteger los derechos fundamentales de los individuos y asegurar que la IA se utilice de manera ética. Promoción de la Innovación Responsable: Al establecer normas claras, la legislación pretende fomentar la innovación tecnológica de manera responsable, asegurando que las empresas puedan desarrollar y utilizar IA sin comprometer la seguridad o la privacidad de los usuarios. Competencia Global: La UE busca posicionarse como líder en la regulación de la IA, estableciendo un marco que pueda servir de modelo para otras jurisdicciones y asegurando una competencia justa y equitativa en el mercado global. 29 5.1.1 Propuesta de Reglamento de IA de la UE La propuesta de Reglamento de IA de la UE introduce un marco jurídico robusto para regular el uso de sistemas de IA. Este reglamento clasifica los sistemas de IA en función de su nivel de riesgo y establece requisitos específicos para cada categoría: Clasificación de Sistemas de IA: Los sistemas de IA se clasifican en función de su nivel de riesgo, siendo considerado como “Mínimo o Nulo” la mayoría de sistemas usados en la actualidad en la UE, como los filtros Spam o videos juegos con inteligencia artificial. Son de riesgo Limitado las asociadas a la falta de transparencia, como los temas informativos de interés público redactados con IA o los Chatbots. Serán reputados de Alto riesgo las IA utilizadas en infraestructura crítica, formación, empleo, servicios esenciales, procesos judiciales y democráticos, controles fronterizos, etc. Por último, se encuentran los que son denominados de Riesgo Inaceptable, que son los sistemas de IA considerados como una amenaza para la seguridad, de los medios de vida o los derechos de las personas, como la puntuación social, gubernamental o juguetes que usan asistencia por voz que fomente el comportamiento peligroso. En cuanto a los sistemas de IA que son encuadrados bajo la órbita de Alto riesgo, el reglamento prevé un tratamiento especial debiendo cumplir las siguientes exigencias: Evaluación de Conformidad: Los sistemas de IA de alto riesgo deben someterse a evaluaciones de conformidad antes de ser desplegados, asegurando que cumplan con los estándares de seguridad y transparencia. Transparencia y Explicabilidad: Se exige que los sistemas de IA sean transparentes y explicables, de manera que los usuarios puedan entender cómo se toman las decisiones, proporcionando certeza y confianza de sus resultados. Supervisión y Cumplimiento: Se establecen mecanismos de supervisión cumplimiento para asegurar que las empresas cumplan con las regulaciones. En particular a sus funciones relacionados con la supervisión prudencial de las Entidades de crédito que, como sabemos, se verán impactadas al encontrarse los sistemas destinados a evaluar 30 la solvencia de las personas físicas o a establecer su calificación crediticia entre los sistemas de IA de alto riesgo. Los sistemas de IA de alto riesgo, como aquellos utilizados para evaluar la solvencia crediticia, deben cumplir con estrictas normas de transparencia, seguridad y equidad. De esta forma el Banco Central Europeo (BCE) ha solicitado clarificación de sus competencias en el marco de la propuesta de Reglamento de IA en tres aspectos clave: La Autoridad de Vigilancia de los Mercados: el BCE busca asegurar que tenga la autoridad necesaria para supervisar los sistemas de IA utilizados en el sector financiero. La Evaluación de la Conformidad Requerida a los Sistemas de IA: es esencial que los sistemas de IA de alto riesgo sean evaluados y certificados antes de su despliegue. Las Competencias de Supervisión Prudencial en General: el BCE desea garantizar que pueda supervisar adecuadamente la implementación y el uso de sistemas de IA en las entidades de crédito. 5.1.2 Supervisión del SEPD La SEPD (Supervisor Europeo de Protección de Datos) desempeña un papel crucial en el marco de las regulaciones acordadas por el Parlamento Europeo para el control de la IA. Su misión principal es asegurar que las aplicaciones de IA cumplan con el Reglamento General de Protección de Datos (GDPR), garantizando así la protección de los datos personales dentro de la Unión Europea. Esto incluye la verificación de que se respeten los derechos de los individuos y que se implementen medidas adecuadas para proteger los datos personales. Una de las funciones esenciales de la SEPD es proporcionar asesoramiento sobre cuestiones de protección de datos y privacidad en relación con las tecnologías de IA. Este asesoramiento implica la evaluación del impacto de las nuevas regulaciones y la supervisión del cumplimiento de las mismas. Además, la SEPD juega un papel importante en la evaluación de impacto de la protección de datos (DPIA), que debe realizarse antes de implementar sistemas de IA que puedan tener un alto riesgo para los derechos y libertades de las personas. Esta evaluación asegura que se identifiquen y mitiguen 31 adecuadamente los riesgos asociados con el procesamiento de datos personales por sistemas de IA. La SEPD también colabora con otras autoridades de protección de datos dentro de la UE y a nivel internacional para asegurar un enfoque coherente y coordinado en la regulación de la IA. Esta colaboración incluye la participación en el Comité Europeo de Protección de Datos (EDPB), donde se discuten y se desarrollan políticas comunes. Además, la SEPD desarrolla directrices y recomendaciones para el uso ético y responsable de la IA, ayudando a las organizaciones a comprender y cumplir con los requisitos legales y éticos relacionados con estas tecnologías. Otra función vital de la SEPD es monitorear y controlar el uso de tecnologías de IA para garantizar que se utilicen de manera transparente, justa y segura. Esto incluye la revisión de algoritmos y modelos de IA para asegurar que no se produzcan decisiones discriminatorias o injustas. En tanto a la aplicación de la IA en el sistema financiero, el Banco Central Europeo admite la necesaria supervisión del SEPD en relación con el uso de dichos sistemas por parte de los supervisores bancarios. Sin embargo, hace una llamada a no considerar IA los sistemas que “aprovechan el uso independiente de la regresión lineal o logística o los diagramas de decisiones bajo supervisión humana siempre que el efecto de dichos enfoques aplicados a la evaluación de la solvencia o la calificación crediticia de las personas físicas no sea significativo”. La mención específica de la regresión lineal y logística tiene como objetivo diferenciar entre métodos analíticos tradicionales, que son más simples, transparentes y supervisados por humanos, y los sistemas de IA más avanzados que pueden tener un impacto más significativo y menos transparente en las decisiones críticas como la solvencia y la calificación crediticia. En síntesis, la finalidad de a SEPD es garantizar que las personas que se vean afectadas por el uso de la IA, tengan un nivel adecuado de protección y seguridad jurídica. A su vez, está facultado para imponer multas a las instituciones, los órganos y los organismos de la Unión que están incluidos en el Reglamento. 32 5.2 Marco regulatorio de la Inteligencia Artificial en Argentina: En Argentina, si bien el nuevo gobierno ha tenido como objetivo ser un polo enfocado al progreso de la Inteligencia Artificial, poniéndose a disposición de los lideres tecnológicos a nivel mundial y buscando inversión que acompañe el desarrollo del sistema, el avance en materia legislativa no se realizado en el mismo ritmo en estos últimos meses, pero ha sido continua la búsqueda de fortalecer y robustecer la legislación vigente mediante resoluciones y disposiciones complementarias. A continuación, se presenta un resumen de las principales normas: a) Ley 25.326 de Protección de Datos Personales La Ley 25.326, sancionada en Argentina en el año 2000, regula la recolección, tratamiento, almacenamiento y difusión de datos personales. Esta normativa establece principios esenciales como el consentimiento informado, el derecho de acceso a los datos, la rectificación, actualización y supresión de la información personal. La ley también crea la Dirección Nacional de Protección de Datos Personales, encargada de supervisar el cumplimiento de la normativa y proteger los derechos de los ciudadanos13. b) Disposición Nº 2/2023 La Disposición Nº 2/2023, emitida por la autoridad de protección de datos, introduce medidas adicionales para fortalecer la seguridad y privacidad de los datos personales. Esta disposición establece requisitos específicos para el procesamiento de datos sensibles y obliga a las organizaciones a implementar protocolos de seguridad más estrictos. Además, se enfatiza la necesidad de notificar a los usuarios en caso de violaciones de datos y de obtener su consentimiento explícito para el tratamiento de información sensible 14. Estas 13 Ley de Protección de los Datos Personales, Ley 25.326 (2000). 14 Jefatura de Gabinete de ministros. (2023). Disposición 2/2023. Ciudad de Buenos Aires 33 recomendaciones no son vinculantes, pero brindan pautas u objetivos para el desarrollo y uso responsable de la IA en el sector público. 15 c) Resolución 161/2023 La Resolución 161/2023, la Agencia de Acceso a la Información Pública (AAIP), creó el "Programa de Transparencia y Protección de Datos Personales en el uso de la Inteligencia Artificial". El objetivo del mismo es establecer directrices claras sobre el uso y manejo de datos personales los sectores públicos como privados para el desarrollo y uso de la inteligencia artificial, garantizando la protección de datos y transparencia de los ciudadanos. d) Proyecto de ley de reforma de la Ley 25.326 El proyecto de ley de reforma de la Ley 25.326 propone actualizaciones significativas para adaptar la normativa a los avances tecnológicos y las nuevas realidades del entorno digital. Entre las principales reformas se incluyen la ampliación de los derechos de los individuos sobre sus datos, el fortalecimiento de las medidas de seguridad y la creación de nuevas obligaciones para los responsables del tratamiento de datos. Además, el proyecto busca armonizar la legislación argentina con los estándares internacionales en materia de protección de datos.16 e) Ley de Regulación y Uso de la Inteligencia Artificial en la Educación Esta ley establece un marco regulatorio para el uso de la IA en el ámbito educativo, con el objetivo de garantizar un uso ético y responsable de la tecnología. La ley promueve la transparencia en el desarrollo y la implementación de sistemas de IA, así como la protección de los datos personales de estudiantes y docentes. También se enfatiza la necesidad de formar a los educadores y estudiantes en el uso de estas tecnologías, 15 Agencia de Acceso a la Información Pública. (2023). Resolución 161/2023. Ciudad de Buenos Aires 16 Ministerio de Justicia y Derechos Humanos de la Nación. (2023). Proyecto de Ley de Protección de Datos Personales 2023. https://www.argentina.gob.ar/sites/default/files/mensajeyproyecto_leypdp2023.pdf 34 asegurando que se respeten los derechos fundamentales y se fomente un entorno educativo inclusivo y seguro17. 5.3 Responsabilidad Civil 5.3.1 Responsabilidades determinadas para los agentes de la cadena de valor de la IA de Alto Riesgo El Reglamento Europeo de Inteligencia Artificial (EU AI Act) establece un marco regulatorio integral para la IA de alto riesgo, definiendo una serie de requisitos que deben cumplirse a lo largo de la cadena de valor. Estos requisitos tienen como objetivo garantizar la seguridad y el cumplimiento normativo de los sistemas de IA, protegiendo a los usuarios y la sociedad en general. El EU AI Act identifica los siguientes actores clave en la cadena de valor de la IA de alto riesgo y los requisitos específicos que deben cumplir: Fabricantes: - Cumplir con los requisitos de seguridad establecidos en el reglamento. Esto incluye aspectos como la gestión de riesgos, la seguridad de los datos, la resistencia a los ciberataques y la transparencia. - Llevar a cabo una evaluación exhaustiva de riesgos y realizar pruebas adecuadas antes de poner el sistema en el mercado. La evaluación de riesgos debe identificar y analizar los posibles daños que podría causar el sistema de IA, y las pruebas deben verificar que el sistema cumple con los requisitos de seguridad y funciona como se espera. - Proporcionar documentación técnica completa y precisa que describa el diseño, el funcionamiento y las características del sistema de IA. La documentación técnica debe 17 Decreto 2504/2023 - Reglamentación de la Ley N° 27.637 de Regulación de la Inteligencia Artificial en el Ámbito Educativo. 35 ser accesible a las autoridades competentes y a los organismos de evaluación de la conformidad. - Etiquetar el sistema de IA claramente para indicar que es un sistema de alto riesgo y proporcionar información sobre el uso seguro y las limitaciones. Esta información debe ser clara, concisa y comprensible para los usuarios. - Establecer mecanismos adecuados para la detección y gestión de eventos adversos y para la notificación de incidentes a las autoridades competentes. Los fabricantes deben tener un plan para identificar, investigar y responder a los eventos adversos que puedan ocurrir durante el uso del sistema de IA. Importadores y Distribuidores: -Asegurar que los sistemas de IA que ponen en el mercado cumplan con los requisitos del reglamento. Esto incluye verificar que los fabricantes hayan realizado la evaluación de riesgos adecuada y proporcionen la documentación técnica requerida. -Mantener registros de los sistemas de IA que importan o distribuyen y garantizar que estén disponibles para las autoridades competentes cuando sea necesario. Estos registros deben incluir información sobre el origen del sistema de IA, su destino y cualquier modificación que se haya realizado. -Informar a las autoridades competentes sobre cualquier sistema de IA de alto riesgo que consideren que no cumple con los requisitos del reglamento. Usuarios: -Utilizar los sistemas de IA de manera adecuada, siguiendo las instrucciones del fabricante y cumpliendo con las limitaciones y advertencias indicadas. Esto incluye leer atentamente la documentación del usuario y seguir las instrucciones de seguridad. -Informar a los fabricantes sobre cualquier evento adverso o incidente que ocurra durante el uso del sistema de IA. Esto ayudará a los fabricantes a identificar y solucionar problemas potenciales. 36 -Cooperar con los fabricantes y proveedores en la aplicación de las medidas de mitigación de riesgos y en la implementación de las acciones correctivas necesarias. Esto puede incluir proporcionar información adicional, realizar pruebas o instalar actualizaciones de software. En base a los lineamientos (EU AI Act), y adentrando al objeto de estudio en cuestión, la cadena de valor de la IA de alto riesgo en el sector FinTech incluye varios agentes que tienen diferentes grados de participación en la cadena operativa, por lo que pueden ser responsables en caso de daños causados por el sistema de IA. Estos agentes intervinientes pueden ser desarrolladores de software, proveedores de datos, integradores de sistemas, operadores y usuarios finales. Desarrolladores de software Los desarrolladores de software son responsables del diseño y la programación de los algoritmos de IA. Su responsabilidad civil puede derivarse de errores en el código, fallos en la implementación de medidas de seguridad y la presencia de sesgos en los algoritmos que pueden resultar en decisiones discriminatorias. Proveedores de Datos Los proveedores de datos suministran los datos necesarios para entrenar y operar los sistemas de IA. La calidad y la integridad de estos datos son cruciales, y cualquier inexactitud o sesgo en los datos puede llevar a decisiones erróneas por parte del sistema de IA. Los proveedores de datos pueden ser responsables por proporcionar datos inexactos o no representativos. Integradores de Sistemas Los integradores de sistemas son responsables de combinar diferentes componentes de software y hardware para crear un sistema de IA funcional. Su responsabilidad incluye asegurarse de que todos los componentes funcionen correctamente juntos y que el sistema completo cumpla con las especificaciones y regulaciones aplicables. Operadores 37 Los operadores son los encargados de supervisar y controlar el sistema de IA en su uso diario. Son responsables de monitorear el rendimiento del sistema, tomar decisiones sobre su operación y responder a cualquier fallo o comportamiento inesperado. Los operadores pueden ser responsables si no toman las medidas adecuadas para prevenir o mitigar daños causados por el sistema de IA. Usuarios finales Los usuarios finales son los destinatarios de los servicios o productos ofrecidos por el sistema de IA. Aunque su responsabilidad es limitada, pueden tener un papel en la configuración y el uso adecuado del sistema, y su comportamiento puede influir en los resultados del sistema de IA. 5.3.2 Abordaje de la Responsabilidad Civil derivada de la Implementación de la IA en la industria FinTech desde un enfoque comparativo entre el ordenamiento europeo y la Ley de Defensa del Consumidor (Argentina). Como bien se explicó en el marco regulatorio, Argentina actualmente no cuenta con una ley que regule específicamente las formas en que se deben desarrollar o implementar la IA, y cuáles son los limites o las responsabilidades que le corresponden a cada uno de los actores intervinientes de la cadena de valor (fabricante, importadores, distribuidores y usuarios), como lo hace el Reglamento IA de la Unión Europea. Pero en nuestro ordenamiento jurídico la Ley de Defensa del Consumidor 24.240 establece un marco legal para proteger a los consumidores y regular la responsabilidad civil de los proveedores de bienes y servicios. Esta ley tiene como objetivo garantizar que los consumidores reciban productos seguros y de calidad, estableciendo derechos y mecanismos determinados para reclamar en caso de daños. La ley establece varios principios clave, incluyendo: Responsabilidad Objetiva: Los proveedores son responsables por los daños causados por los productos o servicios defectuosos, independientemente de su culpa. Deber de Información: Los proveedores deben proporcionar información clara y completa sobre los productos y servicios ofrecidos. 38 Garantía Legal: Los consumidores tienen derecho a productos y servicios que cumplan con las expectativas razonables de calidad y seguridad. Asimismo, la ley otorga varios derechos a los consumidores, incluyendo: Derecho a la Seguridad: Los productos y servicios deben ser seguros para el uso previsto. Derecho a la Información: Los consumidores deben recibir información adecuada sobre los productos y servicios. Derecho a la Reparación: Los consumidores tienen derecho a la reparación, reemplazo o reembolso en caso de productos defectuosos. 5.3.3 Responsabilidad objetiva vs. Subjetiva La responsabilidad civil en la cadena de valor de la IA de alto riesgo en FinTech puede ser tanto objetiva como subjetiva, dependiendo de la naturaleza del daño y del agente involucrado. Por ejemplo, los desarrolladores de software y los proveedores de datos pueden ser responsables subjetivamente por negligencia en el diseño del software o en la provisión de datos, mientras que los operadores pueden tener una responsabilidad más objetiva basada en el resultado del funcionamiento del sistema. En contraste, la Ley 24.240 establece una responsabilidad objetiva para los proveedores de bienes y servicios, lo que significa que son responsables por los daños causados por productos defectuosos independientemente de su culpa. Esta diferencia fundamental implica que, en el contexto de la IA de alto riesgo en FinTech, puede ser más difícil para los afectados demostrar la responsabilidad de ciertos agentes. Cuestiones a considerar son los casos de Algoritmos opacos y falta de transparencia ya que se dificulta la comprensión del funcionamiento interno de los sistemas de IA y cómo se tomaron las decisiones que causaron el daño. Lo mismo sucede cuando hay múltiples actores, entidades pueden ser responsables solidariamente, como el desarrollador de la IA, el proveedor del servicio FinTech, el emisor de la tarjeta, el regulador, etc. 39 5.3.4 Deber de Información y Transparencia Ambos marcos destacan la importancia del deber de información. En la cadena de valor de la IA en FinTech, este deber se traduce en la necesidad de que todos los agentes proporcionen información clara y precisa sobre el funcionamiento del sistema y los riesgos asociados. La transparencia es crucial para que los operadores y usuarios finales entiendan cómo funciona el sistema y puedan tomar decisiones informadas. La Ley 24.240 también impone un fuerte deber de información, exigiendo que los proveedores ofrezcan detalles completos sobre los productos y servicios, lo que incluye advertencias sobre posibles riesgos. La falta de cumplimiento de este deber puede resultar en responsabilidad civil por los daños causados. 5.3.5 Responsabilidad por defectos y fallos En la cadena de valor de la IA en FinTech, los defectos en los algoritmos, datos o integración del sistema pueden resultar en responsabilidad civil para los agentes correspondientes. Los desarrolladores de software, proveedores de datos e integradores de sistemas deben asegurarse de que sus contribuciones al sistema sean precisas y seguras. Bajo la Ley 24.240, los productos defectuosos que causan daños dan lugar a una responsabilidad objetiva para los proveedores, quienes deben reparar, reemplazar o reembolsar el producto defectuoso. Este principio se aplica también a los servicios, donde cualquier falla en la prestación del servicio puede resultar en responsabilidad civil. 5.3.6 Reparación de Daños y Mecanismos de Reclamo La cadena de valor de la IA y la Ley 24.240 establecen mecanismos para la reparación de daños. En la IA, esto puede incluir medidas técnicas para corregir errores en los algoritmos o ajustes en los sistemas de datos. Los consumidores afectados pueden reclamar compensación por los daños sufridos. La Ley 24.240 proporciona un marco claro para que los consumidores reclamen reparaciones, reemplazos o reembolsos, y establece procedimientos para la resolución de 40 disputas. Los consumidores pueden presentar quejas ante organismos de protección al consumidor y, en caso de no recibir una respuesta adecuada, recurrir a la vía judicial. 6. Ejemplos de Casos en el Contexto FinTech: Falsos Positivos, Falsos Negativos, Problemas de Sesgos y Filtración de Datos Personales a) Deber de Información y Transparencia Falsos Positivos Un falso positivo ocurre cuando un sistema de IA identifica incorrectamente una actividad legítima como fraudulenta. Esto puede tener consecuencias graves para los individuos y las empresas afectadas. Por ejemplo, un cliente puede ver bloqueada su cuenta bancaria o rechazado su préstamo basándose en una evaluación incorrecta de riesgo. Desde la perspectiva de la responsabilidad civil, los proveedores de IA y las entidades financieras pueden enfrentar reclamos por daños y perjuicios resultantes de falsos positivos. Según el Reglamento General de Protección de Datos (RGPD), los individuos tienen derecho a una evaluación humana significativa de las decisiones automatizadas, lo cual implica que las organizaciones deben contar con mecanismos para revisar y corregir decisiones erróneas de la IA. Ejemplo: Un cliente de un banco realiza una transacción legítima y rutinaria, pero el sistema de IA del banco, diseñado para detectar fraudes, marca esta transacción como sospechosa. Como resultado, la cuenta del cliente se bloquea automáticamente, impidiéndole acceder a sus fondos y realizar pagos importantes. Consecuencias: Para el Cliente: Bloqueo de la cuenta, inconvenientes financieros, y posibles daños a su reputación crediticia si el problema no se resuelve rápidamente. 41 Para el Banco: Potencial pérdida de confianza del cliente, demandas de daños y perjuicios, y la obligación de revisar y corregir las decisiones automatizadas conforme al RGPD, que establece el derecho a una evaluación humana significativa de las decisiones automatizadas (Art. 22 del RGPD). Responsabilidad Civil: los proveedores de IA y las entidades financieras pueden enfrentar reclamamos por daños y perjuicios si no implementan mecanismos adecuados para revisar y corregir falsos positivos. Según el RGPD, las organizaciones deben contar con procesos para permitir la intervención humana en las decisiones automatizadas. Deber de Información en la Ley 24.240 La Ley 24.240 impone un fuerte deber de información, exigiendo que los proveedores ofrezcan detalles completos sobre los productos y servicios, lo que incluye advertencias sobre posibles riesgos. Ejemplo: una entidad financiera introduce un nuevo servicio de evaluación crediticia basado en IA sin proporcionar suficiente información a los clientes sobre cómo se utilizan sus datos y cómo funciona el sistema. Consecuencias: Para los Clientes: Desinformación sobre el uso de sus datos y decisiones automatizadas, potencial negativo a los servicios sin fundamento alguno. Para la Entidad Financiera: Multas y sanciones por no cumplir con el deber de información establecido en la Ley 24.240. Responsabilidad Civil: La falta de cumplimiento del deber de información puede resultar en responsabilidad civil por los daños causados, obligando a los proveedores a ofrecer detalles completos sobre los productos y servicios, incluyendo advertencias sobre posibles riesgos. b) Defectos y Fallos Falsos Negativos 42 Un falso negativo ocurre cuando el sistema de IA no detecta una actividad fraudulenta real. Esto puede llevar a pérdidas financieras significativas para las entidades financieras y sus clientes. La responsabilidad civil en este caso recae en la medida en que los desarrolladores de IA y los operadores no tomaron las precauciones necesarias para minimizar estos errores. Los afectados pueden argumentar que los proveedores de IA y las entidades financieras fueron negligentes al no implementar medidas adecuadas para detectar y prevenir fraudes. Esto podría derivar en litigios por compensación de las pérdidas sufridas debido a la ineficacia del sistema de IA. Ejemplo: un sistema de detección de fraude en un banco no detecta una transacción o varias transacciones fraudulenta, realizadas en un breve lapso de tiempo desde la cuenta de un cliente, permitiendo que los delincuentes roben una suma significativa de dinero. Consecuencias: Para el Cliente: Pérdida financiera directa, reporte al registro de deudores (bcra, veraz, nosis), estrés y posibles dificultades financieras. Para el Banco: Pérdida de reputación, responsabilidades legales por no haber protegido adecuadamente los fondos de los clientes, y posibles sanciones regulatorias. Responsabilidad Civil: los desarrolladores de IA y las entidades financieras pueden ser considerados responsables por daño moral y daño punitivo si se demuestra que no tomaron las precauciones necesarias para minimizar los errores. Los afectados pueden argumentar negligencia y buscar compensación por las pérdidas sufridas debido a la ineficacia del sistema de IA. Problemas de Sesgos Los algoritmos de IA pueden presentar sesgos inherentes debido a los datos con los que fueron entrenados o las decisiones tomadas durante su desarrollo. En el contexto FinTech, estos sesgos pueden resultar en prácticas discriminatorias, afectando negativamente a ciertos grupos de personas. 43 Ejemplo: Un sistema de IA utilizado por una entidad financiera para evaluar la solvencia crediticia muestra un sesgo contra ciertos grupos demográficos, como minorías étnicas. Como resultado, estas personas ven denegadas sus solicitudes de préstamos de manera injusta y discriminatoria. Consecuencias: Para los Individuos Afectados: Denegación injusta de servicios financieros, impacto negativo en su vida económica y social, y posibles daños emocionales. Para la Entidad Financiera: Demandas por discriminación, sanciones regulatorias y daño a la reputación. Responsabilidad Civil: Las entidades que implementan sistemas de IA sesgados pueden enfrentar demandas por discriminación. En Argentina, la Ley de Defensa del Consumidor 24.240 y otras leyes de protección del consumidor y derechos civiles proporcionan vías para que los afectados busquen reparación. Las organizaciones deben demostrar que han tomado medidas para identificar y mitigar sesgos en sus algoritmos. Filtración de Datos Personales El uso de IA en FinTech a menudo implica el procesamiento de grandes volúmenes de datos personales. La protección de estos datos es crucial, y cualquier filtración puede tener consecuencias graves tanto para las entidades financieras como para los individuos afectados. Ejemplo: Una brecha de seguridad en una plataforma FinTech permite que hackers accedan a los datos personales y financieros de miles de clientes, incluyendo números de cuentas bancarias y datos de tarjetas de crédito. Consecuencias: Para los Clientes: Exposición a fraudes, robo de identidad, y otros delitos cibernéticos. 44 Para la Entidad Financiera: Pérdida de confianza, sanciones regulatorias, y demandas por daños y perjuicios. Responsabilidad Civil: Las organizaciones que no protejan adecuadamente los datos personales pueden enfrentar sanciones bajo el RGPD, que impone multas significativas por incumplimiento. Los individuos afectados pueden presentar demandas por daños y perjuicios, alegando que la organización no cumplió con su deber de proteger sus datos personales. Las entidades financieras deben implementar medidas de seguridad adecuadas y cumplir con las normativas de protección de datos para evitar tales incidentes. 6.1 Reflexión sobre la Responsabilidad Civil derivada del uso de la IA en el Sistema FinTech Teniendo en consideración los posibles escenarios prácticos que se pueden presentar durante la implementación de la IA en el sistema FinTech y las consecuencias derivadas de su mal uso o deficiencia, se puede arribar a una conclusión relevante en términos de responsabilidad civil. Tanto la normativa acordada por la Unión Europea para la cadena de valor de la IA de alto riesgo, como lo establecido por la Ley de Defensa del Consumidor 24.240 en Argentina, presentan similitudes y diferencias significativas. Ambos marcos legales comparten el objetivo común de proteger a los usuarios y consumidores, garantizando la seguridad y la calidad de los productos y servicios ofrecidos. Sin embargo, presentan enfoques distintos respecto a la responsabilidad civil. La Ley 24.240 se fundamenta en un principio de responsabilidad objetiva, donde el proveedor del producto o servicio es responsable por los daños causados independientemente de su culpa o negligencia. Esto significa que los consumidores tienen derecho a ser indemnizados por los daños sufridos como resultado de productos defectuosos o servicios inadecuados sin necesidad de probar la culpa del proveedor. Por otro lado, la responsabilidad en la cadena de valor de la IA de alto riesgo según la normativa de la Unión Europea puede variar entre responsabilidad objetiva y subjetiva, dependiendo del agente involucrado y la naturaleza del daño causado. En algunos casos, se aplica la responsabilidad objetiva similar a la Ley 24.240, especialmente cuando se 45 trata de productos defectuosos. Sin embargo, en otros casos, como cuando se evalúa la conducta de los desarrolladores o implementadores de sistemas de IA, puede requerirse la prueba de negligencia o culpa para establecer la responsabilidad. Este enfoque dual en la normativa europea resalta la necesidad de un análisis detallado de cada caso para determinar la aplicabilidad del tipo de responsabilidad. Los agentes en la cadena de valor de la IA deben adoptar prácticas rigurosas de transparencia, información y gestión de riesgos para cumplir con sus obligaciones legales y evitar daños a los usuarios. Esto implica no solo la implementación de medidas técnicas y organizativas adecuadas para asegurar el correcto funcionamiento de los sistemas de IA, sino también la obligación de informar claramente a los usuarios sobre los riesgos y limitaciones asociados. Además, es crucial que los consumidores estén plenamente conscientes de sus derechos y de los mecanismos de reclamo disponibles bajo la Ley 24.240 para asegurar una protección adecuada frente a productos y servicios defectuosos. Los consumidores deben ser proactivos en el ejercicio de sus derechos y buscar información sobre cómo proceder en caso de sufrir daños. Las entidades financieras y los desarrolladores de IA deben fomentar esta conciencia mediante la provisión de información clara y accesible sobre los derechos del consumidor y los procedimientos de reclamo. En conclusión, la integración de la IA en el sector FinTech presenta desafíos significativos en términos de responsabilidad civil. La combinación de marcos normativos como el de la Unión Europea y la Ley de Defensa del Consumidor 24.240 ofrece una estructura robusta para proteger a los consumidores, pero también requiere un compromiso activo de todos los agentes involucrados para garantizar la seguridad y calidad de los productos y servicios ofrecidos. La adopción de prácticas de transparencia, información y gestión de riesgos, junto con la educación y empoderamiento de los consumidores, son fundamentales para minimizar los riesgos y asegurar una implementación ética y responsable de la IA en el sector FinTech. 46 7. Casuística y jurisprudencia relevante 7.1 La Sanción de la AEPD a Openbank: Un Análisis Jurídico y sus Implicancias El 31 de agosto de 2023, la Agencia Española de Protección de Datos (AEPD) impuso una multa significativa de 2,5 millones de euros a Openbank, una entidad financiera, por no haber implementado medidas de protección adecuadas para la gestión segura de documentación financiera relacionada con la prevención del blanqueo de capitales. Esta sanción se desglosa en dos partes: una multa de 1,5 millones de euros por la infracción del artículo 25 del Reglamento General de Protección de Datos y otra de 1 millón de euros por la infracción del artículo 32 del mismo reglamento. Este caso proporciona un estudio profundo de la aplicación de las normativas de protección de datos en el sector financiero y subraya la importancia de las medidas de seguridad adecuadas para la protección de los datos personales18. Contexto del Caso El origen de la reclamación se remonta a una denuncia presentada ante la autoridad de protección de datos de Baviera, que posteriormente fue transferida a la AEPD, dado que Openbank tiene su sede social y establecimiento principal en España. El reclamante solicitó al banco que proporcionara un mecanismo seguro para enviar documentación financiera, específicamente relacionada con el origen de ciertos ingresos en su cuenta bancaria, conforme a la normativa de prevención de blanqueo de capitales y financiación del terrorismo (PBCyFT). Openbank, sin embargo, respondió que el único medio disponible para enviar dicha documentación era el correo electrónico, un método que el reclamante consideraba inseguro. A pesar de las preocupaciones expresadas, el banco no ofreció una alternativa 18 Agencia Española de Protección de Datos (AEPD). (2023, 31 de agosto). La AEPD sanciona con 2,5 millones de euros por falta de medidas reforzadas en envíos de documentos sobre operaciones financieras. AR/2023/105. https://www.finreg360.com/es/noticias/la-aepd-sanciona-con-25-millones-de-euros-por- falta-de-medidas-reforzadas-en-envios-de-documentos-sobre-operaciones-financieras/ 47 más segura, forzando al cliente a utilizar el correo electrónico para enviar información sensible. Análisis de la Infracción del Artículo 25 del RGPD El artículo 25 del RGPD establece la obligación de la privacidad desde el diseño y por defecto. La AEPD encontró que Openbank no había incluido la actividad de recogida de datos de los clientes en su ciclo de vida del tratamiento de datos ni en la evaluación de impacto de protección de datos. Esto significa que no se habían tomado medidas técnicas y organizativas adecuadas para garantizar los principios de protección de datos, incluyendo la confidencialidad. En el proceso de evaluación, se presentaron dos evaluaciones de impacto, una en agosto de 2021 y otra en octubre de 2022. Sin embargo, hasta octubre de 2022, los clientes no podían aportar la documentación en el área privada de la web, lo que evidencia una falta de implementación de los protocolos establecidos. Análisis de la Infracción del Artículo 32 del RGPD El artículo 32 del RGPD requiere que las organizaciones implementen medidas técnicas y organizativas adecuadas para garantizar un nivel de seguridad acorde con el riesgo, particularmente cuando se trata de datos personales que pueden revelar la situación financiera de una persona. La AEPD concluyó que el correo electrónico no es un medio adecuado ni seguro para enviar información financiera sensible, especialmente ante la falta de alternativas más seguras. A pesar de las advertencias y preocupaciones del reclamante, Openbank no proporcionó otro método seguro, obligando al cliente a utilizar el correo electrónico. Esta negligencia en la implementación de medidas de seguridad adecuadas representa una clara violación del artículo 32 del RGPD. Principios Jurídicos y Resolución del Caso Openbank alegó la existencia de concurso medial y la vulneración del principio de non bis in ídem, que protege contra ser procesado o sancionado dos veces por los mismos 48 hechos. No obstante, la AEPD determinó que las infracciones de los artículos 25 y 32 del RGPD estaban tipificadas de manera diferenciada, afectando bienes jurídicos distintos. La infracción del artículo 25 se debió a la falta de una adecuada gestión del cumplimiento normativo, mientras que la del artículo 32 resultó de la ausencia y deficiencia de las medidas de seguridad. Por lo tanto, se consideraron como dos infracciones distintas, justificando la imposición de dos sanciones separadas. Este caso subraya la importancia crucial de implementar medidas de seguridad adecuadas y de privacidad desde el diseño en la gestión de datos personales, especialmente en el sector financiero. La significativa sanción impuesta a Openbank refleja la seriedad con la que la AEPD aborda las violaciones del RGPD y sirve como un recordatorio para todas las entidades financieras de la necesidad de adherirse estrictamente a las normativas de protección de datos. En un contexto donde la información financiera es extremadamente sensible y está sujeta a riesgos elevados, las entidades deben asegurarse de que los clientes puedan enviar documentación de manera segura y confidencial. La falta de medidas adecuadas no solo pone en riesgo la privacidad de los individuos, sino que también expone a las organizaciones a sanciones legales y daños reputacionales. Este caso también ilustra la necesidad de que los consumidores estén informados y sean proactivos en la protección de sus datos personales, insistiendo en el uso de métodos seguros para la transferencia de información sensible. La colaboración entre entidades financieras y reguladores es esencial para fortalecer la protección de datos y garantizar la confianza del público en el sistema financiero. 7.2 Sanción de la AEPD a CaixaBank Payment & Consumer por Infracción en el Consentimiento para Obtener Perfiles La Agencia Española de Protección de Datos (AEPD) ha impuesto una multa de 3 millones de euros a CaixaBank Payment & Consumer, filial de medios de pago y financiación al consumo del grupo CaixaBank, por extraer y utilizar perfiles de clientes sin el consentimiento adecuado y compartirlos entre las empresas del grupo. Esta sanción 49 no solo destaca la importancia del consentimiento informado en el tratamiento de datos personales, sino que también arroja luz sobre las prácticas y las normativas que rigen la protección de datos en el sector financiero19. Contexto y Hechos del Caso La resolución, identificada como PS/00500/2020, se centra en las prácticas de CaixaBank Payment & Consumer para obtener y utilizar datos personales de sus clientes. En particular, la entidad utilizaba información de los ficheros de solvencia patrimonial y de la Central de Riesgos del Banco de España para crear perfiles con fines comerciales, sin haber obtenido un consentimiento explícito y específico de los clientes para este propósito. El reclamo que originó esta investigación se basó en que la entidad no proporcionaba suficiente información a los interesados sobre cómo se utilizarían sus datos personales. La información proporcionada era genérica y no especificaba los tipos de datos que se recogerían ni los fines concretos del tratamiento, lo que impedía a los clientes tomar una decisión informada sobre el consentimiento que otorgaban. Fundamentos de la Resolución La AEPD encontró que CaixaBank Payment & Consumer no cumplía con los requisitos establecidos por el Reglamento General de Protección de Datos (RGPD) en relación con el consentimiento. La resolución subraya varios puntos clave: 1. Insuficiencia de Información: La información proporcionada a los clientes era demasiado general y no permitía comprender el alcance total de los tratamientos de datos. La AEPD destacó que los interesados deben estar plenamente informados sobre el uso de 19 Agencia Española de Protección de Datos (AEPD). (2021, 28 de octubre). Nueva sanción de la AEPD a un banco por infracción en el consentimiento para obtener perfiles. AR/2021/143. https://finreg360.com/alerta/nueva-sancion-de-la-aepd-a-un-banco-por-infraccion-en-el-consentimientopara-obtener-perfiles/ 50 sus datos y las consecuencias de dicho uso para que su consentimiento sea considerado válido. 2. Consentimiento Específico y Diferenciado: La entidad solicitaba el consentimiento en nombre de todas las empresas del grupo CaixaBank, lo cual implicaba la comunicación de datos entre estas. La AEPD determinó que este tipo de tratamiento constituye una finalidad diferenciada que requiere un consentimiento específico del interesado, algo que no se estaba obteniendo de manera adecuada. 3. Invalidez del Consentimiento: La AEPD concluyó que el consentimiento otorgado por los clientes no era válido debido a la falta de información detallada y específica. Como resultado, el tratamiento de los datos personales basado en ese consentimiento fue considerado ilícito. 4. Rechazo de Alegaciones sobre Corresponsabilidad: CaixaBank Payment & Consumer argumentó que el tratamiento de los datos se realizaba bajo un régimen de corresponsabilidad, o también llamada responsabilidad solidaria, entre las entidades del grupo. Sin embargo, la AEPD rechazó esta alegación, insistiendo en la necesidad de un consentimiento específico y claro para cada tratamiento de datos. Implicaciones y Repercusiones La sanción impuesta por la AEPD tiene varias implicaciones importantes para el sector financiero y para todas las entidades que tratan datos personales: 1. Reforzamiento del Principio de Transparencia: Las entidades deben asegurarse de que los interesados comprendan completamente cómo se utilizarán sus datos personales. Esto incluye proporcionar información detallada y clara sobre los fines del tratamiento y los tipos de datos que se recopilarán. 2. Necesidad de Consentimiento Específico: Para cualquier tratamiento de datos que implique la comunicación de datos entre diferentes entidades, es necesario obtener un consentimiento específico y explícito de los interesados. Las prácticas genéricas y ambiguas no cumplen con los estándares del RGPD. 3. Validez del Consentimiento: La validez del consentimiento depende de que los interesados reciban suficiente información para tomar una decisión informada. Las 51 entidades deben revisar sus procedimientos para garantizar que el consentimiento se obtenga de manera conforme a la normativa. 4. Impacto en la Reputación y Cumplimiento Normativo: Las sanciones de este tipo no solo tienen un impacto financiero significativo, sino que también afectan la reputación de las entidades involucradas. Además, subrayan la importancia de mantener un cumplimiento riguroso de las normativas de protección de datos para evitar infracciones y sanciones futuras. Reflexiones del caso La sanción impuesta a CaixaBank Payment & Consumer por la AEPD pone de relieve la importancia de cumplir con los principios del RGPD, especialmente en lo que respecta al consentimiento informado y específico. Este caso sirve como un recordatorio crucial para todas las entidades financieras sobre la necesidad de adoptar prácticas transparentes y detalladas en el tratamiento de datos personales. La protección de los derechos de los interesados debe ser una prioridad y las entidades deben esforzarse por garantizar que todas las operaciones de tratamiento de datos se realicen conforme a la normativa vigente. En última instancia, el cumplimiento de estas normativas no solo protege a los consumidores, sino que también fortalece la confianza en el sistema financiero y en las entidades que lo componen, promoviendo un entorno más seguro y transparente para todos. 8. Marco e Impactos Socioeconómicos de la Inteligencia Artificial en la Industria Fintech y el Sistema Financiero Este capítulo explora la implementación de inteligencia artificial (IA) en varias empresas reconocidas del sector financiero y FinTech, analizando tanto sus resultados como el impacto socioeconómico resultante. Este análisis se centrará en casos de estudio específicos y experiencias de implementación que servirán como base para una conclusión sólida que respalde la hipótesis del presente estudio. 52 8.1 Implementación de IA en Empresas Financieras El banco BBVA de España, ha sido pionera en la implementación de IA para mejorar la seguridad de sus servicios. En 2018, BBVA introdujo alertas de seguridad en tiempo real sobre la actividad de las tarjetas de sus clientes. Esta tecnología permite a los usuarios recibir notificaciones instantáneas de transacciones sospechosas, inhabilitándolas de forma preventiva, lo que mejora la capacidad de los clientes para tomar medidas preventivas rápidas. En dicha implementación se utilizan técnicas de ‘machine learning’, es decir, a través de variables comportamentales del cliente, del comercio e, incluso de la casuística del país donde se realice el acceso a la sesión o la operación, se establecen patrones que indican cuáles podrían ser posibles fraudes y la máquina va aprendiendo de esos patrones. De esta manera, el cliente conoce siempre lo que está sucediendo en sus finanzas. Según BBVA, esta iniciativa ha reducido significativamente los casos de fraude y ha aumentado la confianza del cliente en sus servicios digitales 20. Lo mismo sucedió con N26, un banco digital europeo, que ha integrado la IA y la automatización en su sistema de detección de fraudes. Kyle Ferdolage, un ejecutivo de N26, ha destacado que estas tecnologías son "aliados clave" para identificar patrones de fraude en tiempo real. N26 utiliza algoritmos de aprendizaje automático para analizar transacciones y comportamientos sospechosos, lo que ha llevado a una reducción notable en las actividades fraudulentas y una mejora en la seguridad de las transacciones 21. 20 Varela, M. (2018, 5 de marzo). BBVA ofrece a sus clientes alertas de seguridad sobre la actividad de sus tarjetas en tiempo real. BBVA (Tecnología). Recuperado de https://www.bbva.com/es/bbva-ofrececlientes-alertas-seguridad-actividad-tarjetas-tiempo-real/ 21 Viña, S. (2024, 16 de enero). Kyle Ferdolage (N26): la inteligencia artificial o la automatización son "aliados clave" para detectar el fraude. Invertia. Recuperado de https://www.futurespace.es/analiticaavanzada-e-ia-para-la-prevencion-y-deteccion-de-fraude/ 53 En América Latina, varias iniciativas han demostrado el potencial de la IA en el sector bancario. Por ejemplo, Banco Santander ha implementado asistentes virtuales basados en IA para mejorar la atención al cliente. Estos asistentes pueden manejar consultas comunes de manera eficiente, permitiendo que los empleados se concentren en tareas más complejas. Como resultado, la satisfacción del cliente ha aumentado en un 20%, y los tiempos de resolución de consultas se han reducido en un 30% 22. 8.2 Impactos Socioeconómicos Detección y Prevención del Fraude La detección y prevención de fraude es uno de los principales beneficios de la IA generativa en el sector financiero. Mastercard, ha acelerado la detección de fraudes en tarjetas mediante la tecnología de IA generativa. Esta tecnología permite duplicar la velocidad en la que procesa las transacciones, identificando las operaciones sospechosas con una precisión sin precedentes, lo que ha resultado en una reducción del 50% en las actividades fraudulentas. La IA analiza patrones de comportamiento y transacciones en tiempo real, permitiendo una respuesta rápida y eficaz ante posibles fraudes. La aplicación de esta nueva tecnología permite escanear los datos de operaciones efectuadas por miles de millones de tarjetas y millones de comercios a un ritmo más rápido de lo que se concebía en estos últimos tiempos. Como resultado, esta IA generativa genera alertas a MasterCard de nuevos y complejos patrones de fraude, siendo capaz de crear protección a futuras transacciones frente a amenazas emergentes. Explico Joham Gerber de Mastercard que duplicaron la tasa de detección de tarjetas de créditos que habían sido comprometidas, redujeron hasta un 200% los falsos positivos en la detección de transacciones fraudulentas con tarjetas potencialmente comprometidas y aumentaron en 22 Santander. (2023, 28 de abril). ¿Qué es la inteligencia artificial y cómo afecta a la banca?. https://www.santander.com/es/stories/inteligencia-artificial 54 un 300% la velocidad de identificación de los comercios en peligro o comprometidos por estafadores. 23. Inclusión Financiera y Accesibilidad La IA también está jugando un papel crucial en la inclusión financiera. Las plataformas de microcréditos utilizan algoritmos de IA para evaluar el riesgo crediticio de personas sin historial bancario tradicional. Esto permite a las instituciones financieras ofrecer productos financieros a un segmento más amplio de la población. Por ejemplo, Kreditech, una empresa fintech, utiliza IA para analizar datos no tradicionales (como el comportamiento en redes sociales) para determinar la solvencia de los solicitantes de crédito. Esto ha permitido a Kreditech otorgar créditos a personas que tradicionalmente no habrían calificado para un préstamo 24. Resultados y Estadísticas El impacto de la IA en el sector financiero es cuantificable y significativo. Un informe de McKinsey sugiere que la IA podría generar un aumento del 20% en la productividad de las instituciones financieras para 2030. Además, se espera que la adopción de IA reduzca 23 Mastercard. (2024, 22 de mayo). Mastercard acelera la detección del fraude en tarjetas gracias a la tecnología IA Generativa. https://www.mastercard.com/news/latinamerica/es/sala-de-prensa/comunicados-de-prensa/pr-es/2024/mayo/mastercard-acelerala-deteccion-del-fraude-en-tarjetas-gracias-a-la-tecnologia-ia-generativa/ 24 Fintech Americas. (2023, 27 de septiembre). 5 INICIATIVAS EXITOSAS DE INTELIGENCIA ARTIFICIAL EN BANCOS DE AMÉRICA LATINA. https://blog.fintechamericas.co/casos-realesinteligencia-artificial-bancos-latam 55 los costos operativos en un 22% al automatizar procesos repetitivos y mejorar la eficiencia operativa. En términos de detección de fraude, las estadísticas de Techopedia muestran que las tecnologías de IA han reducido los incidentes de phishing y fraudes relacionados en un 40%. Esta reducción no solo protege a las instituciones financieras, sino que también mejora la confianza de los consumidores en el uso de servicios digitales 25. La IA está redefiniendo la industria fintech y el sistema financiero, ofreciendo soluciones que mejoran la seguridad, eficiencia operativa e inclusión financiera. Las experiencias de empresas como BBVA, N26, MasterCard, Santander, entre otras, demuestran el potencial transformador de la IA en este sector. Sin embargo, es esencial que las instituciones financieras continúen innovando y colaborando con reguladores para garantizar un desarrollo ético y sostenible de estas tecnologías, maximizando sus beneficios socioeconómicos y minimizando posibles riesgos. La colaboración entre el sector privado, los gobiernos y las instituciones educativas será clave para maximizar los beneficios de la IA y mitigar sus impactos negativos, asegurando así un entorno digital más seguro y resiliente para el futuro. La ciberseguridad no es solo una preocupación tecnológica, sino un pilar fundamental para el desarrollo y estabilidad económica en la era digital. 9. Comprobación de Hipótesis de Trabajo En la tesis presentada, la hipótesis de trabajo en primer momento sostuvo que la implementación de algoritmos de inteligencia artificial (IA) pueden mejorar significativamente la detección de fraude en el sector fintech, reduciendo falsos positivos y aumentando la precisión de las detecciones. Para comprobar la hipótesis de trabajo, se 25 Rushton, J. (2024, 19 de junio). +50 estadísticas de phishing que debes conocer: quién es el objetivo. Techopedia. https://www.techopedia.com/es/estadisticas-sobre-phishing 56 centró en el estudio y en el desarrolló modelo de aprendizaje automático utilizando como referencia los reportes emitidos por diversas entidades financieras que se encuentran en la actualidad aplicando la IA a sus sistemas, como así también se basó la presente conclusión en estadísticas de consultoras, cámaras FinTech entre otros organismos avocados al estudio y a la prevención de los ciberdelitos a nivel mundial. Los resultados, efectivamente mostraron que el modelo de IA incrementó la precisión en la detección de transacciones fraudulentas y redujo los falsos positivos en comparación con los métodos tradicionales de detección de fraude. Estos resultados apoyan la hipótesis de que la implementación de algoritmos de IA mejora la detección de fraude en la industria fintech. 10. Propuesta Basándose en los resultados obtenidos, se propone la implementación de un sistema de detección de fraude basado en IA en la industria fintech. Esta propuesta incluye varias recomendaciones específicas: a. Desarrollo de un Sistema de Detección de Fraude Basado en IA: Utilización de algoritmos avanzados de aprendizaje automático para mejorar la precisión en la detección de fraude. Implementación de técnicas de validación cruzada para garantizar la robustez del modelo. b. Capacitación y Reconversión Laboral: Programas de capacitación para empleados afectados por la implementación de IA donde se tome conciencia de las responsabilidades que ocupa cada uno en la implementación. Reconversión laboral para que los empleados puedan asumir nuevos roles en el contexto de la IA. c. Medidas de Seguridad Adicionales: Implementación de medidas de seguridad para proteger los datos de los clientes. 57 Asegurarse de que los algoritmos de IA sean justos y no discriminen a ningún grupo de usuarios. d. Colaboración Multisectorial: Colaboración entre reguladores, empresas fintech y expertos en IA y ciberseguridad para desarrollar políticas y prácticas que maximicen los beneficios de la IA mientras se mitigan los riesgos asociados 58 Capítulo 4 11. Conclusiones y Reflexiones finales La implementación de IA en la detección de fraude y lavado de dinero en el sector fintech presenta un avance significativo en términos de seguridad y eficiencia operativa. A lo largo de esta tesis, hemos analizado cómo la IA puede mejorar la precisión en la identificación de actividades fraudulentas, reducir la incidencia de falsos positivos y optimizar la gestión de riesgos en tiempo real. Estos beneficios son cruciales en un sector donde la rapidez y precisión en la detección de fraudes pueden evitar pérdidas financieras sustanciales y proteger la reputación de las instituciones financieras. Sin embargo, esta implementación no está exenta de desafíos. La integración de algoritmos de IA debe cumplir estrictamente con las regulaciones de privacidad y protección de datos establecidas por marcos legales como el Reglamento General de Protección de Datos (RGPD) en Europa. Los modelos de IA deben ser diseñados con principios de privacidad desde el diseño (privacy by design) y por defecto (privacy by default), asegurando que los datos de los clientes estén protegidos en todas las etapas del procesamiento. Un aspecto crítico en la implementación de IA es la transparencia y la explicabilidad de los modelos. Los sistemas de IA deben ser auditables, permitiendo a las instituciones financieras y a los reguladores comprender cómo se toman las decisiones automatizadas. Esto no solo facilita el cumplimiento normativo, sino que también incrementa la confianza de los clientes en las tecnologías empleadas por las entidades financieras. Además, es imperativo establecer un marco de responsabilidad legal claro. La asignación de responsabilidades en caso de fallos del sistema o decisiones erróneas debe estar claramente definida. Las instituciones financieras deben asegurarse de que sus empleados estén adecuadamente capacitados para gestionar y supervisar los sistemas de IA, y deben establecer protocolos para la intervención humana en caso de detecciones críticas. 59 La colaboración entre reguladores, empresas fintech y expertos en IA y ciberseguridad es fundamental. Solo a través de un enfoque colaborativo se pueden desarrollar políticas y prácticas que Bibliografía Libros y Artículos de Doctrina: - Álvarez, F. (2020). Machine Learning en la detección de fraudes de comercio electrónico aplicado a los servicios bancarios. Ciencia y tecnología, 20, 81-95. ISSN 1850-0870, ISSN-e 2344-9217. - Asociación Española de Directivos. (2019). Machine learning, inteligencia artificial y big data: Lo que todo directivo debe saber (AED Basics No. 4). Recuperado de https://asociaciondedirectivos.org/ - Requerimientos para Auditorías de Tratamientos que incluyan IA (2021). Agencia Española de Protección de Datos. Recuperado de https://www.aepd.es/sites/default/files/2021_11/guia_auditorias_ia.pdf - Rivero Ortega, R. (2023). Derecho e Inteligencia Artificial. Editorial Usal. https://derecho.usal.es/tag/inteligencia-artificial/ - Juan Corvalan (2023). Propuestas de regulación y recomendaciones de IA en el mundo. Recuperado de https://ialab.com.ar/wp-content/uploads/2023/08/Propuestas-deregulacion-y-recomendaciones-de-IA-en-el-mundo-1.pdf - Observatorio de Crimen y Evidencia Digital. (2024). Ciberfraudes y Criptoactivos. LawCedic. https://ocedic.com/ - Comunidad del SUMMIT. (2020). Inteligencia Artificial para América Latina [AI for Latin America]. ialab UBA. Recuperado de [https://ialab.com.ar/wp- content/uploads/2023/03/AI-Latam-Book-2020.pdf] - Ismsforum. (2020). Ética y compliance en el uso de la tecnología. Recuperado de aquí https://www.ismsforum.es/ficheros/descargas/8203etica-y-compliance-en-el-uso- de-la.pdf - Mirkouski, D. O. (2022, noviembre). La responsabilidad civil en el Código Civil y Comercial de la Nación. Revista Pensamiento Penal, (446). Recuperado de https://www.pensamientopenal.com.ar/system/files/Documento_Editado764.pdf 60 - Agencia Española de Protección de Datos (AEPD). (2021). Expediente N.º: EXP202101565. https://www.aepd.es/documento/ps-00331-2022.pdf - Agencia Española de Protección de Datos (AEPD). (2018). Procedimiento Nº: PS/00500/2020 https://www.aepd.es/documento/ps-00479-2023.pdf - Carlos E. Camps y Gabriel H. Quadri (2020). DERECHO, INNOVACIÓN Y TECNOLOGÍA – Suplemento Especial. ERREIUS. - Bielli, G. E., Mora, S. J., & Fernández, D. (2019). #LEGALTECH II: El Derecho ante la Tecnología. Ciudad Autónoma de Buenos Aires: La Ley. - Wilson, J. (2017). Creating strategic value through financial technology. New Jersey: John Wiley & Sons, Inc. Bericua, M., Palazzi, P., & Mora, S. J. (2023). Primeras reflexiones sobre el derecho fintech. Legaltech II- Thomson Reuters. Recuperado de https://www.thomsonreuters.com/en/press-releases/2023/november/thomson-reuterslaunches-generative-ai-powered-solutions-to-transform-how-legal-professionalswork.html - Banco Central de la República Argentina (BCRA). (2023, 29 de noviembre). Las fintech y la oferta de créditos online: una aproximación a sus aspectos jurídicos. Ideas de Peso. https://www.bcra.gob.ar/ Legislación: o Comisión Europea. (2023). Reglamento General de Protección de Datos (GDPR). o Agencia Española de Protección de Datos (AEPD). (2023). Guía para la Protección de Datos en la Inteligencia Artificial. - Ley de Inteligencia Artificial de la UE (2024). Artículo 6: Normas de clasificación de los sistemas de IA de alto riesgo. https://eur-lex.europa.eu/legal- content/ES/TXT/?uri=celex%3A52021PC0206 - República Argentina. Congreso de la Nación. (2023). Proyecto de Ley de Regulación y Uso de la Inteligencia Artificial en la Educación. [Expediente TP 2504-D2023]. Recuperado de https://www4.hcdn.gob.ar/dependencias/dsecretaria/Periodo2023/PDF2023/TP2023/250 4-D-2023.pdf 61 - Adéquation au RGPD de traitements qui incorporent l'Intelligence Artificielle [Adecuación al RGPD de tratamientos que incorporan Inteligencia Artificial]. (2020). Agencia Española de Protección de Datos.Recuperado de https://www.aepd.es/sites/default/files/publicaciones/guia_adecuacion_rgpd_ia.pdf - Parlamento Europeo. (2024, 8 de marzo). Propuesta de Reglamento del Parlamento Europeo y del Consejo por el que se establecen normas sobre la inteligencia artificial y se modifican determinados actos legislativos de la Unión, y por el que se derogan el Reglamento (UE) 2016/679 y la Directiva 2002/65/CE (Reglamento de Inteligencia Artificial) [Documento de trabajo del PE 9-2024/0138]. - Argentina. Congreso de la Nación. (1993, 22 de septiembre). Ley Nº 24.240 de Defensa del Consumidor. Infoleg: Ministerio de Justicia y Derechos Humanos. Sitios Web: - ¿Qué es el aprendizaje no supervisado? (s.f.). IBM. Recuperado de https://www.ibm.com/es-es/topics/unsupervised-learning - Varela, M. (2018, 5 de marzo). BBVA ofrece a sus clientes alertas de seguridad sobre la actividad de sus tarjetas en tiempo real. BBVA (Tecnología). Recuperado de https://www.bbva.com/es/bbva-ofrece-clientes-alertas-seguridad-actividad-tarjetastiempo-real/ - Viña, S. (2024, 16 de enero). Kyle Ferdolage (N26): la inteligencia artificial o la automatización son "aliados clave" para detectar el fraude. Invertia. Recuperado de https://www.futurespace.es/analitica-avanzada-e-ia-para-la-prevencion-y-deteccion-defraude/ - Fintech Americas. (2023, 27 de septiembre). 5 INICIATIVAS EXITOSAS DE INTELIGENCIA ARTIFICIAL EN BANCOS DE AMÉRICA LATINA. https://blog.fintechamericas.co/casos-reales-inteligencia-artificial-bancos-latam - Rushton, J. (2024, 19 de junio). +50 estadísticas de phishing que debes conocer: quién es el objetivo. Techopedia. https://www.techopedia.com/es/estadisticas-sobrephishing - Mastercard. (2024, 22 de mayo). Mastercard acelera la detección del fraude en tarjetas gracias a la tecnología IA Generativa. https://www.mastercard.com/news/latin62 america/es/sala-de-prensa/comunicados-de-prensa/pr-es/2024/mayo/mastercard-acelerala-deteccion-del-fraude-en-tarjetas-gracias-a-la-tecnologia-ia-generativa/ -"El estado de la IA en 2023: el año clave de la IA generativa"- Recuperado de: www.mckinsey.com/featured-insights/destacados/el-estado-de-la-ia-en-2023-el-anoclave-de-la-ia-generativa/es 63