Subido por Gorila Argento

IA en prevención de riesgos FinTech y su regulación

Anuncio
Universidad de Palermo
Facultad de Derecho
Posgrado en Derecho Informático Avanzado, RegTech & FinTech
“Las implicancias del uso de la Inteligencia Artificial en la prevención de riesgos en
el sector FinTech y su regulación”
Autor:
Franco A. Lovotti
Tutores:
Dra. Johanna C. Faliero PhD – Cons. Francisco Faliero
Julio de 2024
Abstract
This thesis explores the implementation of artificial intelligence (AI) and machine
learning (ML) techniques in the detection of financial fraud. As technological
advancements continue to reshape various sectors, the financial industry faces growing
challenges in safeguarding transactions from increasingly sophisticated fraudulent
activities. Traditional rule-based methods and manual oversight have proven insufficient.
This research examines the application of AI and ML models to analyze large datasets
and identify anomalous patterns with higher precision. The study highlights the
effectiveness of these models in reducing fraud and false positives while addressing
concerns related to data privacy, legal responsibilities, and algorithm transparency. The
findings underscore the potential of AI and ML technologies to enhance the security and
reliability of financial transactions, contributing to the development of more robust fraud
detection systems.
Traducción del resumen
Esta tesis explora la implementación de técnicas de inteligencia artificial (IA) y
aprendizaje automático (AA) en la detección de fraude financiero. A medida que los
avances tecnológicos continúan transformando diversos sectores, la industria financiera
enfrenta desafíos crecientes para proteger las transacciones de actividades fraudulentas
cada vez más sofisticadas. Los métodos tradicionales basados en reglas y la supervisión
manual han demostrado ser insuficientes. Esta investigación examina la aplicación de
modelos de IA y AA para analizar grandes conjuntos de datos e identificar patrones
anómalos con mayor precisión. El estudio destaca la efectividad de estos modelos en la
reducción del fraude y falsos positivos, abordando a la vez preocupaciones relacionadas
con la privacidad de los datos, las responsabilidades legales y la transparencia de los
algoritmos. Los hallazgos subrayan el potencial de las tecnologías de IA y AA para
mejorar la seguridad y confiabilidad de las transacciones financieras, contribuyendo al
desarrollo de sistemas de detección de fraude más robustos.
Keywords: Artificial Intelligence (AI), Machine Learning (ML), Financial Fraud
Detection, Data Privacy, Algorithm Transparency, Fraud Prevention, Anomalous Pattern
Recognition, Financial Security, Technology in Finance
Índice
ABSTRACT .................................................................................................................... 5
TRADUCCIÓN DEL RESUMEN ......................................................................................... 5
CAPÍTULO 1 ................................................................................................................ 10
1. INTRODUCCIÓN ....................................................................................................... 10
1.1
Planteo de la problemática de trabajo ......................................................... 10
1.2
Hipótesis de trabajo propuesta ..................................................................... 11
1.3
Objetivos de la tesis ..................................................................................... 12
1.3.1
Objetivos Generales:.......................................................................................... 12
1.3.2
Objetivos Específicos: ........................................................................................ 12
1.4
Resumen del estado actual de la materia ...................................................... 13
CAPÍTULO 2 ................................................................................................................ 13
2. MARCO TEÓRICO .................................................................................................... 13
2.1
2.1.1
2.2
Inteligencia Artificial – Definición y clasificacióm ...................................... 13
Clases de inteligencia artificial: ......................................................................... 15
El Sector FinTech ........................................................................................ 18
2.2.1
Definición y su aplicación .................................................................................. 18
2.2.2
Características Distintivas de las Fintech........................................................... 20
CAPÍTULO 3 ................................................................................................................ 22
3. IMPACTO DE LA IMPLEMENTACIÓN DE LA IA EN
LA
INDUSTRIA FINTECH
................................................................................................................................... 22
3.1
Prevención de Riesgos en el Sector FinTech ................................................ 22
3.1.1
Principios de la Prevención de Riesgos con IA ................................................... 23
3.1.2
Tipos de algoritmos de aprendizaje automático .................................................. 24
3.1.3
Aplicaciones en la detección de fraude ............................................................... 26
4. DESAFÍOS ÉTICOS Y REGULATORIOS EN EL USO DE IA EN FINTECH.................... 26
4.1
Transparencia y Explicabilidad .................................................................... 26
4.2
Equidad y No Discriminación ...................................................................... 27
5. MARCO NORMOLÓGICO Y LEGISLATIVO EN EL ÁMBITO DE LA IA ....................... 28
5.1
Legislación Europea Relevante (Reglamento de la IA, RGPD) .................... 29
5.1.1
Propuesta de Reglamento de IA de la UE ........................................................... 30
5.1.2
Supervisión del SEPD ........................................................................................ 31
5.2
Marco regulatorio de la Inteligencia Artificial en Argentina:........................ 33
5.3
Responsabilidad Civil .................................................................................. 35
5.3.1
Responsabilidades determinadas para los agentes de la cadena de valor de la IA de
Alto Riesgo ..................................................................................................................... 35
5.3.2
Abordaje de la Responsabilidad Civil derivada de la Implementación de la IA en la
industria FinTech desde un enfoque comparativo entre el el ordenamiento europeo y la Ley
de Defensa del Consumidor (Argentina). ........................................................................ 38
5.3.3
Responsabilidd objetiva vs. Subjetiva ................................................................. 39
8
5.3.4
Deber de Información y Transparencia .............................................................. 40
5.3.5
Responsabilidad por defectos y fallos ................................................................. 40
5.3.6
Reparación de Daños y Mecanismos de Reclamo ............................................... 40
6. EJEMPLOS DE CASOS EN EL CONTEXTO FINTECH: FALSOS POSITIVOS, FALSOS
NEGATIVOS, PROBLEMAS DE SESGOS Y FILTRACIÓN DE DATOS PERSONALES ..... 41
6.1
Reflexión sobre la Responsabilidad Civil derivada del uso de la IA en el
Sistema FinTech...................................................................................................... 45
7. CASUISITICA Y JURISPRUDENCIA RELEVANTE....................................................... 47
7.1
La Sanción de la AEPD a Openbank: Un Análisis Jurídico y sus Implicancias
47
7.2
Sanción de la AEPD a CaixaBank Payment & Consumer por Infracción en el
Consentimiento para Obtener Perfiles ..................................................................... 49
8. MARCO E IMPACTOS SOCIOECONÓMICOS DE LA INTELIGENCIA ARTIFICIAL EN LA
INDUSTRIA FINTECH Y EL SISTEMA FINANCIERO ................................................. 52
8.1
Implementación de IA en Empresas Financieras .......................................... 53
8.2
Impactos Socioeconómicos .......................................................................... 54
9. COMPROBACIÓN
DE
HIPÓTESIS
DE
TRABAJO
................................................................................................................................... 56
10. PROPUESTA........................................................................................................... 57
CAPITULO 4 ................................................................................................................ 59
11. CONCLUSIONES Y REFLEXIONES FINALES............................................................. 59
BLIBIOGRAFÍA ........................................................... ERROR! BOOKMARK NOT DEFINED.
9
Capítulo 1
1. Introducción
1.1
Planteo de la problemática de trabajo
En los últimos años, el crecimeinto tecnológico en el ámbito digital ha transformado e
impactado en todos los ecosistemas, desde los ámbitos y formas de trabajo hasta la
industria, el comercio, los servicios, las comunicaciones y los medios de intercambio.
Todo ello ha generado importantes innovaciones como, por ejemplo, en los métodos de
pago, las forma de trasmitir el dinero, las formas de almacenarlo, entre otras. Estos
avances han provocado una fuerte demanda de transacciones ejecutadas a través de
diversos dispositivos electrónicos como: computadoras de escritorio y portátiles,
teléfonos inteligentes (smartphones), cajeros automáticos, terminales de punto de venta,
dispositivos wearables, etcétera. Resultando, a consecuencia de esta expansión de
transacciones digitales, la necesidad inmediata de ampliar los volúmenes de
almacenamiento de datos, realizar mayores inversiones en hardware, mejorar la
infraestructura del sistema y poner un especial énfasis en las medidas de seguridad.
Además, se ha incrementado la atención en las vulnerabilidades de los sistemas ya que
datos relevantes para las empresas y sus consumidores pueden estar en riesgo de
infiltraciones.
Tal es así que son incontables los casos de entidades financieras - Tradicionales, Neo
bancas y Fintech- que son hackeadas diariamente a través de diversos mecanismos de
como el phishing, filtraciones de claves de accesos internas, malware, ransomware, entre
otros mecanismos de ingeniería social, donde el hacker busca acceder a los datos de los
clientes obteniendo como recompensa el dinero que se encuentra en las cuentas. De ese
modo los ciberdelincuentes obtienen créditos personales inmediatos, acceden a los datos
de tarjeta de créditos, roban datos biométricos de las bases de datos, etc.
Como solución a estos problemas a los que se encuentran expuestas diariamente estas
instituciones, la inteligencia artificial (IA) ha emergido como una herramienta
10
fundamental para la transformación del sector financiero, especialmente en el área de
Ciberseguridad, siendo implementada para la detección y prevención de actividades
ilícitas.
La capacidad de la IA para analizar grandes volúmenes de datos y detectar patrones
complejos en tiempo real permitiría a las empresas mejorar significativamente la
prevención de riesgos. Sin embargo, la implementación de estas tecnologías también
presentaría desafíos considerables. Entre estos se encuentran la necesidad de aportar datos
de alta calidad, la interpretación de los resultados generados por los algoritmos y la
gestión de los sesgos inherentes a los modelos de IA.
La aplicación de algoritmos de aprendizaje automático en la detección de fraude en la
industria fintech plantea varias problemáticas jurídicas. Entre ellas, la protección de datos
personales, la responsabilidad en caso de errores y la transparencia y explicabilidad de
los modelos de IA. La recolección y análisis de datos transaccionales deben cumplir con
regulaciones de privacidad, como el Reglamento General de Protección de Datos (RGPD)
en Europa o la Ley de Protección de Datos Personales en varios países de América Latina.
Además, es crucial determinar quién es legalmente responsable si el modelo de IA falla
en detectar fraude o si genera falsos positivos que afectan a clientes legítimos. Finalmente,
los modelos de IA deben ser lo suficientemente transparentes y explicables para cumplir
con requisitos regulatorios y evitar problemas legales.
1.2
Hipótesis de trabajo propuesta
El fraude financiero es una preocupación significativa para la industria fintech, que
maneja un volumen creciente de transacciones electrónicas cada día. Los métodos
tradicionales de detección de fraude, como las reglas basadas en heurísticas y la
supervisión manual, han demostrado ser ineficaces a medida que los esquemas de fraude
se vuelven más sofisticados y los volúmenes de transacciones aumentan. La IA, en
particular los algoritmos de aprendizaje automático, ofrece una solución prometedora
para este problema. La capacidad de la IA para analizar grandes conjuntos de datos,
identificar patrones y aprender de los comportamientos históricos puede mejorar
significativamente la detección de actividades fraudulentas. La implementación de
11
algoritmos de IA incrementaría la capacidad de análisis de operaciones bancarias,
aumentaría la precisión a la hora de reputar transacciones como fraudulentas y reduciría
los falsos positivos. Entre otros beneficios, con la implementación de la IA, no sería
necesaria la intervención humana, lo que se vería reflejado en la baja de los costos
operativos de las entidades financieras, habría una reducción de las perdidas por fraude y
con ello generaría una mejora del servicio y aumento de confianza del usuario.
Si los resultados del análisis y la implementación del modelo de IA muestran una mejora
en la precisión a la hora de la detección o prevención de fraudes y una reducción en los
falsos positivos, se podrá confirmar la hipótesis de que la implementación de algoritmos
de IA mejoraría significativamente la ciberseguridad en la industria fintech. Además, se
proporcionarán recomendaciones sobre cómo las empresas fintech pueden adoptar estas
tecnologías de manera efectiva y legalmente segura, abordando las problemáticas
jurídicas y operativas identificadas.
1.3
Objetivos de la tesis
1.3.1 Objetivos Generales:

Desarrollar y evaluar un sistema de detección de fraude basado en inteligencia
artificial en la industria fintech.

Identificar y abordar los desafíos éticos y regulatorios asociados con su uso.
1.3.2 Objetivos Específicos:

Evaluar los riesgos relacionados con la protección de datos personales.

Analizar la responsabilidad en caso de errores de falsos positivos.

Garantizar la transparencia y explicabilidad de los modelos de IA.

Asegurar que la recolección y análisis de datos transaccionales cumplan con
regulaciones de privacidad, como el GDPR en Europa y la Ley de Protección de Datos
Personales en Argentina

Determinar la responsabilidad legal si el modelo de IA falla en detectar fraude o
genera falsos positivos que afectan a clientes legítimos.
12

Cumplir con los requisitos regulatorios y evitar problemas legales mediante la
transparencia y explicabilidad de los modelos de IA.
1.4
Resumen del estado actual de la materia
La detección de fraude en la industria financiera tradicionalmente ha dependido de
métodos basados en reglas y supervisión manual. Sin embargo, con el aumento en el
volumen y complejidad de las transacciones, estos métodos se han vuelto insuficientes.
Los avances en inteligencia artificial y aprendizaje automático han permitido el desarrollo
de modelos que pueden analizar grandes volúmenes de datos y detectar patrones
anómalos con mayor precisión. Diversas investigaciones y aplicaciones en el campo han
demostrado la eficacia de estos modelos en la reducción de fraudes y falsos positivos. Sin
embargo, la implementación de estas tecnologías también ha generado preocupaciones en
cuanto a la privacidad de los datos, la responsabilidad legal y la necesidad de
transparencia en los algoritmos utilizados.
Capítulo 2
2. Marco teórico
2.1
Inteligencia Artificial – Definición y clasificación
Antes del abordaje del presente tema en busca de un concepto especifico de qué es IA,
resulta importante aclarar que no hay una definición clara y concreta de lo que es IA en
lo respecta una definición técnica legal. Como se sabe, la IA forma parte de esta “nueva
revolución industrial”, que algunos denominan 4.0 y, como tal, es una ciencia nueva que
está en continua evolución.
Se podría decir que, si bien Alan Turing tiene gran parte de protagonismo en esta
definición, ya que fue unos de los pioneros en investigar esta temática desarrollando
estudios informáticos. Alan creo un dispositivo al que llamo “máquina universal”, capaz
de resolver todos los problemas matemáticos que pueden expresarse mediante un
algoritmo. En 1950 desarrolló su “Test de Turing”, donde el objetivo de esta prueba era
13
enfrentar a un ser humano y a una IA por medio de un desafío de preguntas realizadas por
un interrogador – quien no podía observar quien era el que respondía-; si luego de la
pregunta éste no podía distinguir de quién provenía la respuesta, entonces la IA sería
inteligente.1
Sin embargo, en la realidad de los hechos, el término fue acuñado y utilizado por primera
vez en 1936, en Dartumouth College (Estados Unidos) por John McCarthy, Newell y
Marvin Minsky en lo que fue el “Proyecto de Investigación de Verano sobre Inteligencia
Artificial”. Si bien fue la primera vez que se usó el término inteligencia artificial, no se
realizó una definición exacta. Entonces, para dar una definición técnica, podemos citar la
definición propuesta por el parlamento europeo donde considera a la IA “como un sistema
basado en máquinas que está diseñado para funcionar con diversos niveles de autonomía
y que puede mostrar capacidad de adaptación tras su despliegue, y que, para objetivos
explícitos o implícitos, infiere, a partir de la entrada que recibe, cómo generar salidas
tales como predicciones, contenidos, recomendaciones o decisiones que pueden influir
en entornos físicos o virtuales2. En otras palabras, la IA es el concepto según el cual “las
máquinas piensan como seres humanos”3.
Es relevante distinguir el programa informático de aquel algoritmo del que hace
referencia la inteligencia artificial. Esto es porque un programa informático es solo una
lista de ordenes que informa a la computadora lo que tiene que hacer. Funciona bajo el
protocolo de que “si sucede esto, haz esto” “y si sucede esto otro, haz esto otro”. En otros
términos, en un software tradicional existen instrucciones específicas que abarcan todas
1
El test de Turing ocurrió por primera vez en 2014, cuando el programa de chat «Eugene Goostman»,
desarrollado por los investigadores Vladimir Veselov y Eugene Demchenko, logró superar el test
2
Parte del Capítulo I: Disposiciones Generales, Artículo 3: Definiciones - enero de 2025. Recuperado de
https://artificialintelligenceact.eu/es/article/3/
3
Recuperado
de:
https://www.ceupe.mx/blog/conoce-la-inteligencia-
artificial.html#:~:text=Inteligencia%20Artificial%20(IA)%20es%20la,pueden%20mostrar%20comporta
mientos%20considerados%20inteligentes.
14
las probabilidades de alternativas, incluyendo la previsión de errores potenciales. Por el
contrario, en la inteligencia artificial, ésta no recibe instrucciones de manera
convencional; en su lugar, procesa (piensa) de forma autónoma e intenta replicar el
razonamiento humano. Como lo hacemos los las personas, la IA aprende a partir de
errores y registra la información sobre los caminos correctos para evitar repetir los
mismos errores en el futuro. Esta capacidad de aprendizaje y adaptación es lo que
distingue sustancialmente a la IA del software tradicional.
2.1.1 Clases de inteligencia artificial:
Que en consonancia con lo narrado más arriba, respecto a la dificultad que se presenta a
al momento de definir la IA, lo mismo ha ocurrido con su clasificación.
En primer lugar, se analizará la clasificación efectuada por los informáticos Stuart J.
Russell y Peter Norvig 4, donde establecieron cuatro tipos de IA, disponiéndolas de este
modo:

Sistemas que piensan como humanos: son redes neuronales artificiales que se
enfocan en la emulación de la inteligencia humana, tanto en términos de comportamiento
como de pensamiento. Buscan imitar la forma en que los humanos piensan y resuelven
problemas.

Sistemas que actúan como humanos: se enfocan en la emulación de la
inteligencia humana, pero en términos de comportamiento. Buscan imitar la forma en que
los humanos se comportan y actúan en el mundo.

Sistemas que piensan racionalmente: se enfocan en tratar de replicar las
capacidades de percibir, razonar y actuar al igual que el pensamiento lógico racional de
un ser humano. Buscan maximizar la eficiencia y la precisión de sus decisiones, sin
considerar necesariamente el comportamiento humano.
4
Russell, S. J., & Norvig, P. (2004). Inteligencia artificial. Un enfoque moderno (2ª ed.). Madrid:
PEARSON EDUCACIÓN, S.A.
15

Sistemas que actúan racionalmente: se enfocan en la toma de decisiones y la
acción en el mundo, buscando siempre tomar la mejor decisión posible basada en la
información disponible.
Otra forma posible de diferenciar a las inteligencias artificiales, es según su “potencia”,
diferenciándose entre:
• IA Estrecha/Débil: también conocida como IA estrecha, son sistemas diseñados para
realizar tareas específicas y limitadas, como el reconocimiento de voz, la identificación
de imágenes o la traducción de idiomas. No tienen capacidad de aprendizaje o adaptación
por sí mismos y requieren ser programados para realizar una tarea determinada. Su
alcance es limitado y no pueden realizar tareas fuera de su campo de especialización. Son
los casos de aplicaciones que poseen asistentes virtuales como Alexa y Siri, sistemas de
recomendaciones en plataformas como Netflix y Amazon, y algoritmos de fraude de
instituciones financieras. Estos sistemas, si bien son altamente especializados, no poseen
capacidades generales de razonamiento o comprensión.
• IA Amplia/Fuerte: está diseñada para tener una amplia gama de habilidades cognitivas
y capacidad de aprendizaje autónomo. Estos sistemas pueden realizar múltiples tareas y
aprenden de forma autónoma a medida que interactúan con el entorno. La IA fuerte debe
tener la capacidad de razonar, planificar y tomar decisiones complejas en un amplio
espectro de situaciones. A pesar de los avances en la investigación, la IA fuerte sigue
siendo un objetivo a largo plazo y no se ha logrado aún.
• IA General/Superinteligente: es un tipo de IA que superaría la inteligencia humana en
todos los aspectos. Este nivel de IA sería capaz de comprender el mundo de una manera
que está más allá de la capacidad humana y resolver problemas complejos a una velocidad
y eficiencia que los seres humanos no pueden alcanzar. Es una forma teórica de IA que
aún no ha sido desarrollada en la práctica.
Por último, éstas se pueden clasificar según la “técnica aplicada”. Pudiendo identificar
varias subcategorías, entre las cuales el aprendizaje automático (machine learning) ocupa
un lugar destacado:
16
a)
Aprendizaje Automático (“Machine Learning”):
Es un subcampo de la IA que se enfoca en el desarrollo de algoritmos y técnicas que
permiten a las máquinas aprender de los datos (números, palabras, imágenes, estadísticas,
etc.) y mejorar su desempeño con el tiempo sin ser explícitamente programadas para cada
tarea. Todo lo que pueda ser almacenado digitalmente puede ser relevante para la
retroalimentación de la Machine Learning. Esto es, tiene la capacidad de analizar los datos
detectando patrones y desarrollando nuevos algoritmos que aprenden y mejoran el
rendimiento en la ejecución de una tarea especifica. Ejemplo: Algoritmos de clasificación
(Netflix, Spotify, etc.)
Aprendizaje supervisado: El objetivo principal del aprendizaje supervisado es desarrollar
un modelo a partir de un conjunto de datos de entrenamiento, que le permitirá al algoritmo
hacer predicciones sobre datos futuros. El término "supervisado" indica que las salidas
esperadas del conjunto de entrenamiento ya se conocen. Algunos ejemplos de este tipo
de aprendizaje son la clasificación, la predicción y el ranking.
Aprendizaje no supervisado: En el aprendizaje no supervisado, el objetivo es identificar
patrones en los datos de entrada sin contar con un conjunto de entrenamiento etiquetado.
Algunos ejemplos de técnicas de aprendizaje no supervisado son el clustering y la
asociación.
b)
Aprendizaje Profundo (“Deep Learning”):
Es un Subcampo del aprendizaje automático que utiliza redes neuronales artificiales con
muchas capas (redes neuronales profundas) para modelar y entender patrones complejos
en grandes volúmenes de datos. Estas redes neuronales profundas se inspiran en la
estructura del Cerebro humano. Toda la información es procesada a través de la red de
algoritmos que se encuentran interconectadas de forma no lineal, muy similar a como lo
procesa la información nuestro cerebro. Por ejemplo, cuando se aplica el reconocimiento
de imágenes para el diagnóstico temprano de enfermedades.
17
2.2
El Sector FinTech
2.2.1 Definición y su aplicación
La aparición de nuevas tecnologías y lo que llamamos la Revolución 4.0 han producido
grandes cambios. Asimismo, la masificación de internet junto con la digitalización, las
crisis económicas que afectaron el desarrollo de los sistemas tradicionales y, por último,
el contexto de la pandemia, en el que diversos gobiernos implementaron aislamientos
obligatorios restringiendo, total o parcialmente, el traslado de las personas y la realización
de operaciones comerciales normales, ha provocado que el sistema financiero se
transforme hacia nuevos horizontes con nuevos servicios y metodologías de pago. En este
contexto, comenzaron a surgir las primeras empresas fintech.
Cuando hablamos de Fintech, nos referimos al conjunto de empresas innovadoras que,
mediante la utilización de tecnología, ofrecen soluciones financieras con el soporte de las
nuevas tecnologías, a personas individuales y empresas que centran su actividad en un
área particular del mercado financiero 5.
Siguiendo el pensamiento de los Dres. Santiago J. Mora y Pablo Palazzi, podemos decir
que, empresas fintech son “aquellas empresas que comienzan a competir con las entidades
financieras tradicionales en distintos verticales del negocio financiero 6”.
Por otro costado, el BCRA en un comunicado estableció que “se denominan Fintech
aquellas empresas que prestan servicios financieros a partir de aplicaciones móviles o
sitios web7”.
5
Wilson, J. (2017). Creating strategic value through financial technology. New Jersey: John Wiley & Sons,
Inc.
6
“Primeras reflexiones sobre el derecho fintech” Marina Bericua, Pablo Palazzi y Santiago J. Mora-
Legaltech 1!- Thomson Reuters.
7
Banco Central de la República Argentina (BCRA). (2023, 29 de noviembre). Las fintech y la oferta de
créditos online: una aproximación a sus aspectos jurídicos. Ideas de Peso. https://www.bcra.gob.ar/.
18
Estas empresas, que atienden tanto a individuos como a otras empresas, desarrollan
actividades Fintech tanto en entidades financieras ya instaladas en el mercado como las
nuevas empresas que se acoplan, de algún modo, en algún punto de la cadena del sistema
financiero, contribuyendo con innovación, mejor experiencia y más fluidez. También se
puede ver con frecuencia que las nuevas empresas colaboren con entidades financieras
tradicionales, donde las primeras aportan la estructura y la innovación y las segundas –
entidades tradicionales- aportan la capacidad crediticia y la experiencia en el mercado;
incluso, en muchos casos terminan siendo adquiridas por ellas.
Dentro de la industria fintech, se destaca una amplia variedad de operaciones, entre las
cuales podemos mencionar:
a. Pagos y Transferencias: Cuando hablamos de pagos y transferencias, hablamos de
sistemas electrónicos de pagos. “Estos sistemas tienen la finalidad de “facilitar
transferencias de valores monetarios mediante un conjunto complejo y o ambiguo de
pasos, los cuales establecen un protocolo de pago electrónico8”.
Las plataformas como PayPal, Moneybookers (ahora Skrill), Braintree (ahora parte de
PayPal), entre otros9, han transformado cómo se realizan los pagos y las transferencias,
ofreciendo soluciones rápidas y seguras que son accesibles tanto para individuos como
para empresas. Esto ha simplificado enormemente las transacciones comerciales y
personales a nivel global.
b. Préstamos y Financiación Peer to Peer (P2P): Cuando los bancos tradicionales
dejaron de otorgar financiación a las empresas, autónomos y pequeños consumidores,
estos usuarios tuvieron que salir en busca de nuevas alternativas para poder cumplir con
sus expectativas de negocio. Aquí aparece la modalidad P2P, es decir, a través de un
8
9
PASTOR SEMPERE, Maria del Carmen. Dinero Electrónico. Edersa, Madrid, 2003 p. 43.
Extraído
de
https://www.arsys.es/blog/de-la-evolucion-de-las-transacciones-electronicas-a-la-
revolucion-de-los-medios-de-pago-online-i-de-ii
19
intermediario de confianza (Fintech) se ponen en contacto el solicitante del préstamo o
crédito con los inversores que buscan sacarle rentabilidad a sus ahorros. Todo bajo el
amparo de las organizaciones o empresas (intermediarias) que se encargan de valorar el
caso y los riesgos en particular. Empresas como LendingClub y Funding Circle permiten
préstamos peer-to-peer (P2P), conectando directamente a prestatarios con inversores,
eliminando intermediarios bancarios. Esto ofrece tasas de interés competitivas y mayores
opciones de financiamiento para pequeñas empresas y personas individuales.
c. Gestión de Inversiones y Robo-Advisors: Un Robo advisor es una plataforma de
inversión en tipo automatizada que a través de un algoritmo y tecnología avanzada
proporcionan asesoramiento financiero, gestionando la cartera de inversiones acordada
en base a parámetros prestablecidos -perfil financiero- por el cliente. Por ejemplo, las
empresas Betterment y Wealthfront utilizan algoritmos para proporcionar asesoramiento
financiero y gestión de inversiones automatizada. Esto democratiza el acceso a servicios
de gestión de patrimonios que anteriormente estaban reservados para grandes inversores.
d. Insurtech: Es un término que surge de la unión de dos palabras en inglés “insure”
(aseguradora) y “technology” (tecnología). Empresas como Lemonade y Root utilizan
tecnología para ofrecer seguros personalizados y basados en el uso de algoritmos y de IA,
mejorando la experiencia del cliente y reduciendo costos operativos. Esto está
revolucionando la industria aseguradora al hacerla más transparente y centrada en el
cliente.
e. Criptomonedas y Blockchain: Bitcoin, Ethereum y otras criptomonedas han
introducido nuevas formas de moneda y métodos de transacción. Las aplicaciones de
blockchain también están transformando la seguridad y la transparencia en diversas áreas
financieras, desde pagos hasta contratos inteligentes.
2.2.2 Características Distintivas de las Fintech
Innovación Tecnológica: Las fintech destacan por utilizar tecnología avanzada como
inteligencia artificial, aprendizaje automático, blockchain y análisis de big data para
desarrollar productos financieros innovadores que mejoran la eficiencia y reducen costos.
20
Orientación al Cliente: Las fintech suelen enfocarse en mejorar la experiencia del cliente
mediante interfaces intuitivas, procesos simplificados y servicios personalizados. Esto
contrasta con la burocracia y complejidad a menudo asociadas con los servicios
financieros tradicionales.
Accesibilidad: Las soluciones fintech están diseñadas para ser accesibles a una amplia
gama de usuarios, incluyendo individuos y pequeñas empresas que podrían haber sido
excluidas por instituciones financieras tradicionales debido a requisitos estrictos.
Agilidad y Flexibilidad: En comparación con los bancos tradicionales, las fintech son
más ágiles y flexibles. Pueden adaptarse rápidamente a las demandas cambiantes del
mercado y a las necesidades específicas de los clientes, lo que les permite innovar más
rápidamente
2.2.3. Desafíos de la Industria Fintech:
Regulación y Cumplimiento: Las fintech enfrentan desafíos significativos debido a las
regulaciones financieras que buscan proteger a los consumidores y garantizar la
estabilidad del sistema financiero. Adaptarse a estas regulaciones puede ser costoso y
limitar la capacidad de innovación de las fintech.
Seguridad y Privacidad: Manejar grandes volúmenes de datos personales y financieros
hace que las fintech sean vulnerables a ciberataques. La seguridad y la protección de la
privacidad son preocupaciones críticas que deben abordarse con tecnologías avanzadas y
prácticas de seguridad robustas.
Competencia con Bancos Tradicionales: Aunque las fintech ofrecen ventajas en
términos de agilidad y accesibilidad, enfrentan una competencia feroz de los bancos
tradicionales que están adoptando tecnologías similares para mejorar sus propios
servicios y retener clientes.
Adopción del Usuario: Convencer a los usuarios para que adopten soluciones fintech
puede ser un desafío, especialmente entre aquellos que son menos tecnológicos o
desconfían de las nuevas tecnologías. La educación y la creación de confianza son clave
para superar esta barrera.
21
Estos puntos destacan tanto los beneficios disruptivos como los desafíos inherentes que
enfrenta la industria fintech en su búsqueda por transformar el panorama financiero
global.
Capítulo 3
3. Impacto de la implementación de la IA en la Industria Fintech
Acompañado del gran avance que tuvo el sistema financiero, la IA ha sido adoptada e
impulsada como una solución a la encrucijada marcada por desafíos significativos: desde
la creciente demanda de servicios personalizados, hasta la necesidad imperante de tomar
decisiones rápidas basadas en millones de datos complejos. La eficacia operativa y la
seguridad de los datos se vuelven más críticas que nunca en un panorama donde las
expectativas de los clientes y las regulaciones están en constante cambio. Inicialmente,
las aplicaciones de IA en finanzas tecnológicas se centraron en el análisis de datos y la
automatización de procesos. Con el tiempo, la IA ha avanzado y se ha consolidado como
una herramienta óptima para analizar y predecir tendencias del mercado, optimizar
servicios, la gestión de carteras y principalmente para fortalecer la seguridad financiera
mediante la detección de fraudes.
3.1
Prevención de Riesgos en el Sector FinTech
Las FinTech, así como otros actores financieros, se enfrentan a numerosas amenazas
cibernéticas, lo que las obliga a implementar estrategias eficaces y soluciones
innovadoras para proteger los datos y activos financieros. Para ello, la prevención de
riesgos en el sector FinTech implica una combinación de medidas para la identificación
o detección temprana, evaluación y mitigación de riesgos financieros y operativos que
puedan afectar a las organizaciones. Estos riesgos incluyen fraudes, riesgos crediticios,
riesgos de mercado, riesgos operacionales y riesgos de liquidez.
La adopción de tecnologías avanzadas, como la IA, ha permitido enfrentar desafíos de
ciberseguridad y garantizar la integridad y confidencialidad de los datos financieros de
los usuarios. Lo mismo ocurre con la prevención de riesgos, ya que es crucial para
mantener la estabilidad financiera y la confianza del cliente, pudiendo identificar y
22
mitigar riesgos de manera eficiente, mediante la detección temprana de anomalías y
patrones de comportamiento sospechoso, lo que puede significar en el ámbito económico
la diferencia entre el éxito y el fracaso; siendo reconocido el sector FinTech por ser
altamente competitivo y regulado.
3.1.1 Principios de la Prevención de Riesgos con IA
La IA aplicada a la prevención de riesgos en el sector FinTech se basa en varios principios
fundamentales que permiten identificar y mitigar riesgos de manera eficaz:
1.
Análisis Predictivo: Los algoritmos de IA utilizan datos históricos para predecir
futuros eventos. En el contexto de la prevención de riesgos, esto significa analizar
patrones de transacciones pasadas para identificar posibles fraudes o comportamientos
anómalos futuros. Los modelos predictivos pueden prever la probabilidad de que ocurra
un evento específico, lo que permite a las empresas tomar medidas preventivas.
2.
Detección de Anomalías: La detección de anomalías es una técnica clave en la
prevención de riesgos. Los sistemas de IA analizan grandes volúmenes de datos para
identificar patrones que se desvían de lo normal. Estas desviaciones pueden indicar
fraudes, errores o actividades sospechosas. Los algoritmos de detección de anomalías se
basan en técnicas estadísticas y de aprendizaje automático para identificar y evaluar estas
discrepancias.
3.
Automatización de Procesos: La IA permite la automatización de tareas rutinarias
en la gestión de riesgos, lo que reduce la carga de trabajo manual y aumenta la eficiencia.
Los sistemas de IA pueden procesar y analizar grandes volúmenes de datos en tiempo
real, permitiendo una respuesta rápida a posibles riesgos. Además, la automatización
reduce la posibilidad de errores humanos y asegura una vigilancia continua.
4.
Aprendizaje Adaptativo: Los algoritmos de IA tienen la capacidad de aprender y
mejorar con el tiempo. A medida que se procesan más datos y se identifican más patrones,
los modelos de IA pueden ajustar sus predicciones y mejorar su precisión. Este
aprendizaje adaptativo es crucial en un entorno financiero dinámico donde los patrones
de fraude y riesgo pueden evolucionar rápidamente.
23
3.1.2 Tipos de algoritmos de aprendizaje automático
La inteligencia artificial y el aprendizaje automático se han convertido en herramientas
cruciales para la detección de fraude en la industria fintech. El aprendizaje automático,
en particular, permite a los sistemas aprender de los datos históricos y mejorar con el paso
del tiempo su capacidad para identificar transacciones o patrones que sean de actividades
de tipo fraudulentas.
Existen diversos enfoques y algoritmos utilizados en la detección de fraude, incluyendo
algoritmos supervisados como la regresión logística y los árboles de decisión, y
algoritmos no supervisados como el clustering y el análisis de anomalías. La efectividad
de estos algoritmos depende de la calidad y cantidad de datos disponibles, así como de la
capacidad para preprocesar y limpiar los datos adecuadamente.

Algoritmos Supervisados
Los algoritmos supervisados se entrenan utilizando un conjunto de datos etiquetados,
donde cada ejemplo de entrenamiento incluye tanto las características de entrada como la
etiqueta de salida correspondiente. En el contexto de la detección de fraude, esto significa
que el modelo se entrena con transacciones marcadas como legítimas o fraudulentas.
a) Regresión Logística: Utilizada para modelar la probabilidad de que una transacción sea
fraudulenta. Este modelo actúa como una calculadora tomando varios factores, como por
ejemplo el monto de la transacción y la ubicación, estimando la probabilidad de que esa
operación sea cierta o fraudulenta. Si la probabilidad es alta, decimos que la transacción
es probablemente fraudulenta. Si es baja, probablemente no lo es.
b) Árboles de Decisión: Estos algoritmos crean un modelo de decisiones basado en las
características de las transacciones. Este método toma decisiones al dividir las
características en preguntas “sí/no”, creando un "árbol" de decisiones. Cada rama del
árbol representa una decisión basada en una característica, y las hojas del árbol
representan la decisión final (fraude o no fraude). Imagina un juego de 20 preguntas
donde cada pregunta te lleva más cerca de adivinar el objeto. Cada pregunta divide las
posibilidades hasta llegar a la respuesta final.
24
c) Máquinas de Soporte Vectorial (SVM): Utilizadas para clasificar las transacciones al
encontrar el hiperplano que mejor separa las clases fraudulentas y legítimas. Este método
intenta encontrar una línea o frontera que divida las transacciones “fraudulentas” de las
“no fraudulentas” en un gráfico de características. La línea se coloca de manera que
maximice la distancia entre los dos grupos (fraude y no fraude). Ejemplo: Piensa en un
maestro que divide a sus estudiantes en dos grupos basándose en sus calificaciones y
comportamiento. El maestro coloca una cuerda en el suelo que separa claramente a los
buenos estudiantes de los malos estudiantes. Las SVM son efectivas en espacios de alta
dimensionalidad, pero pueden ser difíciles de interpretar.

Algoritmos No Supervisados
Los algoritmos no supervisados no utilizan etiquetas o resultados conocidos para aprender
que es fraude o que no es fraude. En su lugar, intentan encontrar patrones o agrupaciones
en los datos que puedan indicar comportamiento anómalo.
a)
Clustering (Agrupamiento): Algoritmos que agrupan transacciones similares. Las
transacciones que no pertenecen a ningún grupo pueden considerarse anómalas o
sospechosas.
b)
Análisis de Componentes Principales (PCA): Reduce la dimensionalidad de los
datos para identificar las principales variaciones. Las transacciones que se desvían
significativamente del comportamiento normal pueden ser marcadas como sospechosas.
c)
Autoencoders: Redes neuronales utilizadas para aprender una representación
comprimida de los datos. Las transacciones que no se pueden reconstruir adecuadamente,
es una señal de que es diferente de las transacciones normales y podría ser fraudulenta.

Aprendizaje por refuerzo: En este enfoque, un agente aprende a tomar decisiones
mediante la interacción con su entorno, recibiendo recompensas o castigos en función de
sus acciones. El agente no recibe instrucciones explícitas sobre qué hacer, sino que
descubre qué acciones son mejores a través de prueba y error. Si el agente marca
correctamente una transacción como fraudulenta, recibe una recompensa (valor positivo)
o un castigo, si el agente marca incorrectamente una transacción, recibe un castigo (valor
negativo).
25
3.1.3 Aplicaciones en la detección de fraude
En la detección de fraude financiero, los algoritmos de aprendizaje supervisado son los
más utilizados debido a la disponibilidad de datos históricos etiquetados con
transacciones fraudulentas y legítimas. Los pasos típicos para desarrollar un modelo de
detección de fraude incluyen:
a. Recolección de datos: Obtener un conjunto de datos significativo y
representativo que contenga transacciones etiquetadas como fraudulentas y no
fraudulentas.
b. Preprocesamiento de datos: Limpiar y transformar los datos para que sean
adecuados para el entrenamiento del modelo. Esto puede incluir la normalización
de los datos, el manejo de valores perdidos y la ingeniería de características.
c. Entrenamiento del modelo: Seleccionar un algoritmo de aprendizaje automático
y entrenarlo utilizando el conjunto de datos preprocesados.
d. Evaluación del modelo: La evaluación del modelo es el proceso de validar y
constatar si está funcionando bien nuestro modelo de detección de fraudes. Se
utilizan diversas técnicas y métricas para asegurarnos de que el modelo no solo
funciona bien en los datos de entrenamiento, sino que también se desempeña
adecuadamente en datos nuevos o no vistos.
e. Implementación del modelo: Desplegar el modelo en un entorno real donde
pueda procesar transacciones en tiempo real y detectar posibles fraudes.
4. Desafíos Éticos y Regulatorios en el Uso de IA en FinTech
4.1
Transparencia y Explicabilidad
Uno de los principales desafíos éticos en el uso de IA en FinTech es la necesidad de
garantizar la transparencia y la explicabilidad de los algoritmos. Los modelos de IA,
especialmente los más complejos, como las redes neuronales profundas, pueden ser vistos
como "cajas negras" que producen resultados sin una explicación clara de cómo se llegó
a ellos. Esto puede dificultar la confianza de los usuarios y la rendición de cuentas.
26
La transparencia implica que las empresas deben ser claras sobre cómo se recopilan,
utilizan y procesan los datos. En cuanto a la explicabilidad, se hace referencia a la
capacidad de los sistemas de IA para proporcionar razones comprensibles para sus
decisiones y acciones. Según un informe de la European Commission (2020), “la falta de
transparencia en los modelos de IA puede erosionar la confianza del público y generar
problemas de equidad”.
4.2
Equidad y No Discriminación
Otro desafío ético significativo es asegurar que los sistemas de IA no perpetúen o
amplifiquen sesgos existentes. Los datos utilizados para entrenar los algoritmos pueden
contener sesgos inherentes que, si no se gestionan adecuadamente, pueden llevar a
decisiones discriminatorias. Esto es particularmente crítico en el sector financiero, donde
las decisiones automatizadas pueden afectar el acceso al crédito y otros servicios
financieros.
El RGPD establece que los individuos tienen derecho a no ser objeto de decisiones
basadas únicamente en el procesamiento automatizado, lo que incluye medidas para
proteger a los ciudadanos contra la discriminación y garantizar la equidad.
La European Union Agency for Fundamental Rights (FRA) ha destacado la importancia
de desarrollar sistemas de IA que sean justos y no discriminatorios, señalando que “los
algoritmos deben ser diseñados y entrenados de manera que minimicen el riesgo de sesgo
y
discriminación”.
No obstante ello, el sesgo no es un problema exclusivo de un sistema de IA, sino que
puede aparecer en cualquier sistema de proceso “automático” o “no automático” que toma
decisiones o que realiza elaboración de perfiles. Existen técnicas conocidas como
Algorithmic Impact Assessment 10 (AIA), orientadas a examinar y determinar la posible
10
Los Algorithmic Impact Assessment son herramientas para permitir evaluar a los interesados que los
componentes de IA cumplen con determinados parámetros de calidad y que son adecuados para la tarea
encomendada.
Referencias
sobre
los
mismos
se
pueden
encontrar,
por
ejemplo,
en
https://ainowinstitute.org/aiareport2018.pdf
27
existencia de sesgos en los algoritmos utilizados en las soluciones de IA y a garantizar la
equidad en la implementación del modelo. Estas métricas han de analizar la lógica
implementada, para que la misma no produzca inexactitudes por diseño, y emplear
modelos maduros de pruebas y test de la lógica para detectar errores de diseño 11.
5. Marco Normológico y Legislativo en el ámbito de la IA
El constante desarrollo tecnológico que se ha venido gestando en diversos ámbitos de la
vida cotidiana, acompañado del incremento del uso de sistemas de IA han impulsado la
necesidad de un ordenamiento jurídico específico que venga a regular y a delimitar los
usos que se hagan con dicha herramienta, siendo la Unión Europea en ser la que, de alguna
forma, ha venido a poner un poco de claridad y limites a estos avances tecnológicos. El
Reglamento (UE) 2024/... del Parlamento Europeo y del Consejo, conocido como el
Reglamento de Inteligencia Artificial, surge como una respuesta para establecer normas
armonizadas en materia de IA. Este marco legislativo se diseñó para mejorar el
funcionamiento del mercado interior, fomentar una IA centrada en el ser humano y
garantizar un alto nivel de protección de la salud, la seguridad y los derechos
fundamentales consagrados en la Carta de los Derechos Fundamentales de la Unión
Europea, incluida la democracia, el Estado de Derecho y la protección del medio
ambiente, frente a los efectos perjudiciales de los sistemas de la IA. 12
11
Trabajos recientes han planteado preocupaciones sobre el riesgo de sesgos no intencionales en estos
modelos, que afectan negativamente a individuos de ciertos grupos. Si bien se han propuesto muchas
métricas de sesgo y definiciones de equidad, no hay consenso sobre qué definiciones y métricas deberían
usarse en la práctica para evaluar y auditar estos sistemas. No obstante, se han desarrollado diferentes
métricas orientadas a evaluar la discriminación algorítmica como Aequitas, un kit de herramientas de
auditoría de sesgos de código abierto desarrollado por el Center for Data Science and Public Policy.
12
Parlamento Europeo. (2024). Ley de Inteligencia Artificial. Reglamento del Parlamento Europeo y del
Consejo por el que se establecen normas armonizadas en materia de inteligencia artificial (Ley de
Inteligencia Artificial) y se modifican determinados actos legislativos de la Unión (COM (2021)0206 – C90146/2021 – 2021/0106 (COD)) [Resolución legislativa del Parlamento Europeo de 13 de marzo de 2024
28
El Reglamento pretende abordar los desafíos y oportunidades que presenta la IA,
proporcionando un entorno jurídico claro y coherente que promueva la innovación y la
adopción de sistemas de IA seguros y confiables en toda la UE. Se busca evitar la
fragmentación del mercado interior debido a la existencia de normas nacionales
divergentes y garantizar un nivel uniforme de protección y confianza en la IA.
Por otro costado, la implementación de la inteligencia artificial en el sector FinTech está
sujeta a un marco normativo y legislativo que busca equilibrar la innovación tecnológica
con la protección de los derechos de los consumidores. Como se ha dicho, la UE ha sido
pionera en la creación de regulaciones que abordan tanto la utilización de IA como la
protección de datos personales, siendo el Reglamento General de Protección de Datos
(RGPD) uno de los más relevantes en este contexto.
La propuesta de Reglamento de IA de la UE introduce un conjunto de normas, directrice,
y una clasificación taxativa de los sistemas de IA en función de su nivel de riesgo y
establecer requisitos específicos para su desarrollo y uso.
5.1
Legislación Europea Relevante (Reglamento de la IA, RGPD)
La motivación detrás de la nueva legislación sobre IA en la UE se basa en varios factores
clave:

Protección de Derechos Fundamentales: La creciente utilización de IA en
diversas áreas, incluida la financiera, ha planteado preocupaciones sobre la privacidad, la
equidad y la transparencia. La legislación busca proteger los derechos fundamentales de
los individuos y asegurar que la IA se utilice de manera ética.

Promoción de la Innovación Responsable: Al establecer normas claras, la
legislación pretende fomentar la innovación tecnológica de manera responsable,
asegurando que las empresas puedan desarrollar y utilizar IA sin comprometer la
seguridad o la privacidad de los usuarios.

Competencia Global: La UE busca posicionarse como líder en la regulación de
la IA, estableciendo un marco que pueda servir de modelo para otras jurisdicciones y
asegurando una competencia justa y equitativa en el mercado global.
29
5.1.1 Propuesta de Reglamento de IA de la UE
La propuesta de Reglamento de IA de la UE introduce un marco jurídico robusto para
regular el uso de sistemas de IA. Este reglamento clasifica los sistemas de IA en función
de su nivel de riesgo y establece requisitos específicos para cada categoría:
Clasificación de Sistemas de IA:
Los sistemas de IA se clasifican en función de su nivel de riesgo, siendo considerado
como “Mínimo o Nulo” la mayoría de sistemas usados en la actualidad en la UE, como
los filtros Spam o videos juegos con inteligencia artificial. Son de riesgo Limitado las
asociadas a la falta de transparencia, como los temas informativos de interés público
redactados con IA o los Chatbots. Serán reputados de Alto riesgo las IA utilizadas en
infraestructura crítica, formación, empleo, servicios esenciales, procesos judiciales y
democráticos, controles fronterizos, etc. Por último, se encuentran los que son
denominados de Riesgo Inaceptable, que son los sistemas de IA considerados como una
amenaza para la seguridad, de los medios de vida o los derechos de las personas, como la
puntuación social, gubernamental o juguetes que usan asistencia por voz que fomente el
comportamiento peligroso.
En cuanto a los sistemas de IA que son encuadrados bajo la órbita de Alto riesgo, el
reglamento prevé un tratamiento especial debiendo cumplir las siguientes exigencias:

Evaluación de Conformidad: Los sistemas de IA de alto riesgo deben someterse
a evaluaciones de conformidad antes de ser desplegados, asegurando que cumplan con
los estándares de seguridad y transparencia.

Transparencia y Explicabilidad: Se exige que los sistemas de IA sean
transparentes y explicables, de manera que los usuarios puedan entender cómo se toman
las decisiones, proporcionando certeza y confianza de sus resultados.

Supervisión y Cumplimiento: Se establecen mecanismos de supervisión
cumplimiento para asegurar que las empresas cumplan con las regulaciones. En particular
a sus funciones relacionados con la supervisión prudencial de las Entidades de crédito
que, como sabemos, se verán impactadas al encontrarse los sistemas destinados a evaluar
30
la solvencia de las personas físicas o a establecer su calificación crediticia entre los
sistemas de IA de alto riesgo.
Los sistemas de IA de alto riesgo, como aquellos utilizados para evaluar la solvencia
crediticia, deben cumplir con estrictas normas de transparencia, seguridad y equidad. De
esta forma el Banco Central Europeo (BCE) ha solicitado clarificación de sus
competencias en el marco de la propuesta de Reglamento de IA en tres aspectos clave:

La Autoridad de Vigilancia de los Mercados: el BCE busca asegurar que tenga
la autoridad necesaria para supervisar los sistemas de IA utilizados en el sector financiero.

La Evaluación de la Conformidad Requerida a los Sistemas de IA: es esencial
que los sistemas de IA de alto riesgo sean evaluados y certificados antes de su despliegue.

Las Competencias de Supervisión Prudencial en General: el BCE desea
garantizar que pueda supervisar adecuadamente la implementación y el uso de sistemas
de IA en las entidades de crédito.
5.1.2 Supervisión del SEPD
La SEPD (Supervisor Europeo de Protección de Datos) desempeña un papel crucial en el
marco de las regulaciones acordadas por el Parlamento Europeo para el control de la IA.
Su misión principal es asegurar que las aplicaciones de IA cumplan con el Reglamento
General de Protección de Datos (GDPR), garantizando así la protección de los datos
personales dentro de la Unión Europea. Esto incluye la verificación de que se respeten
los derechos de los individuos y que se implementen medidas adecuadas para proteger
los datos personales.
Una de las funciones esenciales de la SEPD es proporcionar asesoramiento sobre
cuestiones de protección de datos y privacidad en relación con las tecnologías de IA. Este
asesoramiento implica la evaluación del impacto de las nuevas regulaciones y la
supervisión del cumplimiento de las mismas. Además, la SEPD juega un papel importante
en la evaluación de impacto de la protección de datos (DPIA), que debe realizarse antes
de implementar sistemas de IA que puedan tener un alto riesgo para los derechos y
libertades de las personas. Esta evaluación asegura que se identifiquen y mitiguen
31
adecuadamente los riesgos asociados con el procesamiento de datos personales por
sistemas de IA.
La SEPD también colabora con otras autoridades de protección de datos dentro de la UE
y a nivel internacional para asegurar un enfoque coherente y coordinado en la regulación
de la IA. Esta colaboración incluye la participación en el Comité Europeo de Protección
de Datos (EDPB), donde se discuten y se desarrollan políticas comunes. Además, la
SEPD desarrolla directrices y recomendaciones para el uso ético y responsable de la IA,
ayudando a las organizaciones a comprender y cumplir con los requisitos legales y éticos
relacionados con estas tecnologías.
Otra función vital de la SEPD es monitorear y controlar el uso de tecnologías de IA para
garantizar que se utilicen de manera transparente, justa y segura. Esto incluye la revisión
de algoritmos y modelos de IA para asegurar que no se produzcan decisiones
discriminatorias o injustas.
En tanto a la aplicación de la IA en el sistema financiero, el Banco Central Europeo admite
la necesaria supervisión del SEPD en relación con el uso de dichos sistemas por parte de
los supervisores bancarios. Sin embargo, hace una llamada a no considerar IA los sistemas
que “aprovechan el uso independiente de la regresión lineal o logística o los diagramas
de decisiones bajo supervisión humana siempre que el efecto de dichos enfoques
aplicados a la evaluación de la solvencia o la calificación crediticia de las personas físicas
no sea significativo”. La mención específica de la regresión lineal y logística tiene como
objetivo diferenciar entre métodos analíticos tradicionales, que son más simples,
transparentes y supervisados por humanos, y los sistemas de IA más avanzados que
pueden tener un impacto más significativo y menos transparente en las decisiones críticas
como la solvencia y la calificación crediticia.
En síntesis, la finalidad de a SEPD es garantizar que las personas que se vean afectadas
por el uso de la IA, tengan un nivel adecuado de protección y seguridad jurídica. A su
vez, está facultado para imponer multas a las instituciones, los órganos y los organismos
de la Unión que están incluidos en el Reglamento.
32
5.2
Marco regulatorio de la Inteligencia Artificial en Argentina:
En Argentina, si bien el nuevo gobierno ha tenido como objetivo ser un polo enfocado al
progreso de la Inteligencia Artificial, poniéndose a disposición de los lideres tecnológicos
a nivel mundial y buscando inversión que acompañe el desarrollo del sistema, el avance
en materia legislativa no se realizado en el mismo ritmo en estos últimos meses, pero ha
sido continua la búsqueda de fortalecer y robustecer la legislación vigente mediante
resoluciones y disposiciones complementarias.
A continuación, se presenta un resumen de las principales normas:
a) Ley 25.326 de Protección de Datos Personales
La Ley 25.326, sancionada en Argentina en el año 2000, regula la recolección,
tratamiento, almacenamiento y difusión de datos personales. Esta normativa establece
principios esenciales como el consentimiento informado, el derecho de acceso a los datos,
la rectificación, actualización y supresión de la información personal. La ley también crea
la Dirección Nacional de Protección de Datos Personales, encargada de supervisar el
cumplimiento de la normativa y proteger los derechos de los ciudadanos13.
b) Disposición Nº 2/2023
La Disposición Nº 2/2023, emitida por la autoridad de protección de datos, introduce
medidas adicionales para fortalecer la seguridad y privacidad de los datos personales. Esta
disposición establece requisitos específicos para el procesamiento de datos sensibles y
obliga a las organizaciones a implementar protocolos de seguridad más estrictos. Además,
se enfatiza la necesidad de notificar a los usuarios en caso de violaciones de datos y de
obtener su consentimiento explícito para el tratamiento de información sensible 14. Estas
13
Ley de Protección de los Datos Personales, Ley 25.326 (2000).
14
Jefatura de Gabinete de ministros. (2023). Disposición 2/2023. Ciudad de Buenos Aires
33
recomendaciones no son vinculantes, pero brindan pautas u objetivos para el desarrollo y
uso responsable de la IA en el sector público. 15
c)
Resolución 161/2023
La Resolución 161/2023, la Agencia de Acceso a la Información Pública (AAIP), creó el
"Programa de Transparencia y Protección de Datos Personales en el uso de la Inteligencia
Artificial". El objetivo del mismo es establecer directrices claras sobre el uso y manejo
de datos personales los sectores públicos como privados para el desarrollo y uso de la
inteligencia artificial, garantizando la protección de datos y transparencia de los
ciudadanos.
d)
Proyecto de ley de reforma de la Ley 25.326
El proyecto de ley de reforma de la Ley 25.326 propone actualizaciones significativas
para adaptar la normativa a los avances tecnológicos y las nuevas realidades del entorno
digital. Entre las principales reformas se incluyen la ampliación de los derechos de los
individuos sobre sus datos, el fortalecimiento de las medidas de seguridad y la creación
de nuevas obligaciones para los responsables del tratamiento de datos. Además, el
proyecto busca armonizar la legislación argentina con los estándares internacionales en
materia de protección de datos.16
e)
Ley de Regulación y Uso de la Inteligencia Artificial en la Educación
Esta ley establece un marco regulatorio para el uso de la IA en el ámbito educativo, con
el objetivo de garantizar un uso ético y responsable de la tecnología. La ley promueve la
transparencia en el desarrollo y la implementación de sistemas de IA, así como la
protección de los datos personales de estudiantes y docentes. También se enfatiza la
necesidad de formar a los educadores y estudiantes en el uso de estas tecnologías,
15
Agencia de Acceso a la Información Pública. (2023). Resolución 161/2023. Ciudad de Buenos Aires
16
Ministerio de Justicia y Derechos Humanos de la Nación. (2023). Proyecto de Ley de Protección de Datos
Personales 2023. https://www.argentina.gob.ar/sites/default/files/mensajeyproyecto_leypdp2023.pdf
34
asegurando que se respeten los derechos fundamentales y se fomente un entorno
educativo inclusivo y seguro17.
5.3
Responsabilidad Civil
5.3.1 Responsabilidades determinadas para los agentes de la cadena de valor de la
IA de Alto Riesgo
El Reglamento Europeo de Inteligencia Artificial (EU AI Act) establece un marco
regulatorio integral para la IA de alto riesgo, definiendo una serie de requisitos que deben
cumplirse a lo largo de la cadena de valor. Estos requisitos tienen como objetivo
garantizar la seguridad y el cumplimiento normativo de los sistemas de IA, protegiendo
a los usuarios y la sociedad en general. El EU AI Act identifica los siguientes actores
clave en la cadena de valor de la IA de alto riesgo y los requisitos específicos que deben
cumplir:
Fabricantes:
- Cumplir con los requisitos de seguridad establecidos en el reglamento. Esto incluye
aspectos como la gestión de riesgos, la seguridad de los datos, la resistencia a los
ciberataques y la transparencia.
- Llevar a cabo una evaluación exhaustiva de riesgos y realizar pruebas adecuadas antes
de poner el sistema en el mercado. La evaluación de riesgos debe identificar y analizar
los posibles daños que podría causar el sistema de IA, y las pruebas deben verificar que
el sistema cumple con los requisitos de seguridad y funciona como se espera.
- Proporcionar documentación técnica completa y precisa que describa el diseño, el
funcionamiento y las características del sistema de IA. La documentación técnica debe
17
Decreto 2504/2023 - Reglamentación de la Ley N° 27.637 de Regulación de la Inteligencia Artificial en
el Ámbito Educativo.
35
ser accesible a las autoridades competentes y a los organismos de evaluación de la
conformidad.
- Etiquetar el sistema de IA claramente para indicar que es un sistema de alto riesgo y
proporcionar información sobre el uso seguro y las limitaciones. Esta información debe
ser clara, concisa y comprensible para los usuarios.
- Establecer mecanismos adecuados para la detección y gestión de eventos adversos y
para la notificación de incidentes a las autoridades competentes. Los fabricantes deben
tener un plan para identificar, investigar y responder a los eventos adversos que puedan
ocurrir durante el uso del sistema de IA.
Importadores y Distribuidores:
-Asegurar que los sistemas de IA que ponen en el mercado cumplan con los requisitos del
reglamento. Esto incluye verificar que los fabricantes hayan realizado la evaluación de
riesgos adecuada y proporcionen la documentación técnica requerida.
-Mantener registros de los sistemas de IA que importan o distribuyen y garantizar que
estén disponibles para las autoridades competentes cuando sea necesario. Estos registros
deben incluir información sobre el origen del sistema de IA, su destino y cualquier
modificación que se haya realizado.
-Informar a las autoridades competentes sobre cualquier sistema de IA de alto riesgo que
consideren que no cumple con los requisitos del reglamento.
Usuarios:
-Utilizar los sistemas de IA de manera adecuada, siguiendo las instrucciones del
fabricante y cumpliendo con las limitaciones y advertencias indicadas. Esto incluye leer
atentamente la documentación del usuario y seguir las instrucciones de seguridad.
-Informar a los fabricantes sobre cualquier evento adverso o incidente que ocurra durante
el uso del sistema de IA. Esto ayudará a los fabricantes a identificar y solucionar
problemas potenciales.
36
-Cooperar con los fabricantes y proveedores en la aplicación de las medidas de mitigación
de riesgos y en la implementación de las acciones correctivas necesarias. Esto puede
incluir proporcionar información adicional, realizar pruebas o instalar actualizaciones de
software.
En base a los lineamientos (EU AI Act), y adentrando al objeto de estudio en cuestión, la
cadena de valor de la IA de alto riesgo en el sector FinTech incluye varios agentes que
tienen diferentes grados de participación en la cadena operativa, por lo que pueden ser
responsables en caso de daños causados por el sistema de IA. Estos agentes intervinientes
pueden ser desarrolladores de software, proveedores de datos, integradores de sistemas,
operadores y usuarios finales.
Desarrolladores de software
Los desarrolladores de software son responsables del diseño y la programación de los
algoritmos de IA. Su responsabilidad civil puede derivarse de errores en el código, fallos
en la implementación de medidas de seguridad y la presencia de sesgos en los algoritmos
que pueden resultar en decisiones discriminatorias.
Proveedores de Datos
Los proveedores de datos suministran los datos necesarios para entrenar y operar los
sistemas de IA. La calidad y la integridad de estos datos son cruciales, y cualquier
inexactitud o sesgo en los datos puede llevar a decisiones erróneas por parte del sistema
de IA. Los proveedores de datos pueden ser responsables por proporcionar datos
inexactos o no representativos.
Integradores de Sistemas
Los integradores de sistemas son responsables de combinar diferentes componentes de
software y hardware para crear un sistema de IA funcional. Su responsabilidad incluye
asegurarse de que todos los componentes funcionen correctamente juntos y que el sistema
completo cumpla con las especificaciones y regulaciones aplicables.
Operadores
37
Los operadores son los encargados de supervisar y controlar el sistema de IA en su uso
diario. Son responsables de monitorear el rendimiento del sistema, tomar decisiones sobre
su operación y responder a cualquier fallo o comportamiento inesperado. Los operadores
pueden ser responsables si no toman las medidas adecuadas para prevenir o mitigar daños
causados por el sistema de IA.
Usuarios finales
Los usuarios finales son los destinatarios de los servicios o productos ofrecidos por el
sistema de IA. Aunque su responsabilidad es limitada, pueden tener un papel en la
configuración y el uso adecuado del sistema, y su comportamiento puede influir en los
resultados del sistema de IA.
5.3.2 Abordaje de la Responsabilidad Civil derivada de la Implementación de la
IA en la industria FinTech desde un enfoque comparativo entre el
ordenamiento europeo y la Ley de Defensa del Consumidor (Argentina).
Como bien se explicó en el marco regulatorio, Argentina actualmente no cuenta con una
ley que regule específicamente las formas en que se deben desarrollar o implementar la
IA, y cuáles son los limites o las responsabilidades que le corresponden a cada uno de los
actores intervinientes de la cadena de valor (fabricante, importadores, distribuidores y
usuarios), como lo hace el Reglamento IA de la Unión Europea. Pero en nuestro
ordenamiento jurídico la Ley de Defensa del Consumidor 24.240 establece un marco legal
para proteger a los consumidores y regular la responsabilidad civil de los proveedores de
bienes y servicios. Esta ley tiene como objetivo garantizar que los consumidores reciban
productos seguros y de calidad, estableciendo derechos y mecanismos determinados para
reclamar en caso de daños.
La ley establece varios principios clave, incluyendo:

Responsabilidad Objetiva: Los proveedores son responsables por los daños
causados por los productos o servicios defectuosos, independientemente de su culpa.

Deber de Información: Los proveedores deben proporcionar información clara
y completa sobre los productos y servicios ofrecidos.
38

Garantía Legal: Los consumidores tienen derecho a productos y servicios que
cumplan con las expectativas razonables de calidad y seguridad.
Asimismo, la ley otorga varios derechos a los consumidores, incluyendo:

Derecho a la Seguridad: Los productos y servicios deben ser seguros para el uso
previsto.

Derecho a la Información: Los consumidores deben recibir información
adecuada sobre los productos y servicios.

Derecho a la Reparación: Los consumidores tienen derecho a la reparación,
reemplazo o reembolso en caso de productos defectuosos.
5.3.3 Responsabilidad objetiva vs. Subjetiva
La responsabilidad civil en la cadena de valor de la IA de alto riesgo en FinTech puede
ser tanto objetiva como subjetiva, dependiendo de la naturaleza del daño y del agente
involucrado. Por ejemplo, los desarrolladores de software y los proveedores de datos
pueden ser responsables subjetivamente por negligencia en el diseño del software o en la
provisión de datos, mientras que los operadores pueden tener una responsabilidad más
objetiva basada en el resultado del funcionamiento del sistema.
En contraste, la Ley 24.240 establece una responsabilidad objetiva para los proveedores
de bienes y servicios, lo que significa que son responsables por los daños causados por
productos defectuosos independientemente de su culpa. Esta diferencia fundamental
implica que, en el contexto de la IA de alto riesgo en FinTech, puede ser más difícil para
los afectados demostrar la responsabilidad de ciertos agentes. Cuestiones a considerar son
los casos de Algoritmos opacos y falta de transparencia ya que se dificulta la comprensión
del funcionamiento interno de los sistemas de IA y cómo se tomaron las decisiones que
causaron el daño. Lo mismo sucede cuando hay múltiples actores, entidades pueden ser
responsables solidariamente, como el desarrollador de la IA, el proveedor del servicio
FinTech, el emisor de la tarjeta, el regulador, etc.
39
5.3.4 Deber de Información y Transparencia
Ambos marcos destacan la importancia del deber de información. En la cadena de valor
de la IA en FinTech, este deber se traduce en la necesidad de que todos los agentes
proporcionen información clara y precisa sobre el funcionamiento del sistema y los
riesgos asociados. La transparencia es crucial para que los operadores y usuarios finales
entiendan cómo funciona el sistema y puedan tomar decisiones informadas.
La Ley 24.240 también impone un fuerte deber de información, exigiendo que los
proveedores ofrezcan detalles completos sobre los productos y servicios, lo que incluye
advertencias sobre posibles riesgos. La falta de cumplimiento de este deber puede resultar
en responsabilidad civil por los daños causados.
5.3.5 Responsabilidad por defectos y fallos
En la cadena de valor de la IA en FinTech, los defectos en los algoritmos, datos o
integración del sistema pueden resultar en responsabilidad civil para los agentes
correspondientes. Los desarrolladores de software, proveedores de datos e integradores
de sistemas deben asegurarse de que sus contribuciones al sistema sean precisas y seguras.
Bajo la Ley 24.240, los productos defectuosos que causan daños dan lugar a una
responsabilidad objetiva para los proveedores, quienes deben reparar, reemplazar o
reembolsar el producto defectuoso. Este principio se aplica también a los servicios, donde
cualquier falla en la prestación del servicio puede resultar en responsabilidad civil.
5.3.6 Reparación de Daños y Mecanismos de Reclamo
La cadena de valor de la IA y la Ley 24.240 establecen mecanismos para la reparación de
daños. En la IA, esto puede incluir medidas técnicas para corregir errores en los
algoritmos o ajustes en los sistemas de datos. Los consumidores afectados pueden
reclamar compensación por los daños sufridos.
La Ley 24.240 proporciona un marco claro para que los consumidores reclamen
reparaciones, reemplazos o reembolsos, y establece procedimientos para la resolución de
40
disputas. Los consumidores pueden presentar quejas ante organismos de protección al
consumidor y, en caso de no recibir una respuesta adecuada, recurrir a la vía judicial.
6. Ejemplos de Casos en el Contexto FinTech: Falsos Positivos, Falsos
Negativos, Problemas de Sesgos y Filtración de Datos Personales
a) Deber de Información y Transparencia

Falsos Positivos
Un falso positivo ocurre cuando un sistema de IA identifica incorrectamente una actividad
legítima como fraudulenta. Esto puede tener consecuencias graves para los individuos y
las empresas afectadas. Por ejemplo, un cliente puede ver bloqueada su cuenta bancaria
o rechazado su préstamo basándose en una evaluación incorrecta de riesgo. Desde la
perspectiva de la responsabilidad civil, los proveedores de IA y las entidades financieras
pueden enfrentar reclamos por daños y perjuicios resultantes de falsos positivos.
Según el Reglamento General de Protección de Datos (RGPD), los individuos tienen
derecho a una evaluación humana significativa de las decisiones automatizadas, lo cual
implica que las organizaciones deben contar con mecanismos para revisar y corregir
decisiones erróneas de la IA.
Ejemplo: Un cliente de un banco realiza una transacción legítima y rutinaria, pero el
sistema de IA del banco, diseñado para detectar fraudes, marca esta transacción como
sospechosa. Como resultado, la cuenta del cliente se bloquea automáticamente,
impidiéndole acceder a sus fondos y realizar pagos importantes.
Consecuencias:

Para el Cliente: Bloqueo de la cuenta, inconvenientes financieros, y posibles
daños a su reputación crediticia si el problema no se resuelve rápidamente.
41

Para el Banco: Potencial pérdida de confianza del cliente, demandas de daños y
perjuicios, y la obligación de revisar y corregir las decisiones automatizadas conforme al
RGPD, que establece el derecho a una evaluación humana significativa de las decisiones
automatizadas (Art. 22 del RGPD).
Responsabilidad Civil: los proveedores de IA y las entidades financieras pueden
enfrentar reclamamos por daños y perjuicios si no implementan mecanismos adecuados
para revisar y corregir falsos positivos. Según el RGPD, las organizaciones deben contar
con procesos para permitir la intervención humana en las decisiones automatizadas.

Deber de Información en la Ley 24.240
La Ley 24.240 impone un fuerte deber de información, exigiendo que los proveedores
ofrezcan detalles completos sobre los productos y servicios, lo que incluye advertencias
sobre posibles riesgos.
Ejemplo: una entidad financiera introduce un nuevo servicio de evaluación crediticia
basado en IA sin proporcionar suficiente información a los clientes sobre cómo se utilizan
sus datos y cómo funciona el sistema.
Consecuencias:

Para los Clientes: Desinformación sobre el uso de sus datos y decisiones
automatizadas, potencial negativo a los servicios sin fundamento alguno.

Para la Entidad Financiera: Multas y sanciones por no cumplir con el deber de
información establecido en la Ley 24.240.
Responsabilidad Civil: La falta de cumplimiento del deber de información puede
resultar en responsabilidad civil por los daños causados, obligando a los proveedores a
ofrecer detalles completos sobre los productos y servicios, incluyendo advertencias sobre
posibles riesgos.
b) Defectos y Fallos

Falsos Negativos
42
Un falso negativo ocurre cuando el sistema de IA no detecta una actividad fraudulenta
real. Esto puede llevar a pérdidas financieras significativas para las entidades financieras
y sus clientes. La responsabilidad civil en este caso recae en la medida en que los
desarrolladores de IA y los operadores no tomaron las precauciones necesarias para
minimizar estos errores.
Los afectados pueden argumentar que los proveedores de IA y las entidades financieras
fueron negligentes al no implementar medidas adecuadas para detectar y prevenir fraudes.
Esto podría derivar en litigios por compensación de las pérdidas sufridas debido a la
ineficacia del sistema de IA.
Ejemplo: un sistema de detección de fraude en un banco no detecta una transacción o
varias transacciones fraudulenta, realizadas en un breve lapso de tiempo desde la cuenta
de un cliente, permitiendo que los delincuentes roben una suma significativa de dinero.
Consecuencias:

Para el Cliente: Pérdida financiera directa, reporte al registro de deudores (bcra,
veraz, nosis), estrés y posibles dificultades financieras.

Para el Banco: Pérdida de reputación, responsabilidades legales por no haber
protegido adecuadamente los fondos de los clientes, y posibles sanciones regulatorias.
Responsabilidad Civil: los desarrolladores de IA y las entidades financieras pueden ser
considerados responsables por daño moral y daño punitivo si se demuestra que no
tomaron las precauciones necesarias para minimizar los errores. Los afectados pueden
argumentar negligencia y buscar compensación por las pérdidas sufridas debido a la
ineficacia del sistema de IA.

Problemas de Sesgos
Los algoritmos de IA pueden presentar sesgos inherentes debido a los datos con los que
fueron entrenados o las decisiones tomadas durante su desarrollo. En el contexto FinTech,
estos sesgos pueden resultar en prácticas discriminatorias, afectando negativamente a
ciertos grupos de personas.
43
Ejemplo: Un sistema de IA utilizado por una entidad financiera para evaluar la solvencia
crediticia muestra un sesgo contra ciertos grupos demográficos, como minorías étnicas.
Como resultado, estas personas ven denegadas sus solicitudes de préstamos de manera
injusta y discriminatoria.
Consecuencias:

Para los Individuos Afectados: Denegación injusta de servicios financieros,
impacto negativo en su vida económica y social, y posibles daños emocionales.

Para la Entidad Financiera: Demandas por discriminación, sanciones
regulatorias y daño a la reputación.
Responsabilidad Civil: Las entidades que implementan sistemas de IA sesgados pueden
enfrentar demandas por discriminación. En Argentina, la Ley de Defensa del Consumidor
24.240 y otras leyes de protección del consumidor y derechos civiles proporcionan vías
para que los afectados busquen reparación. Las organizaciones deben demostrar que han
tomado medidas para identificar y mitigar sesgos en sus algoritmos.

Filtración de Datos Personales
El uso de IA en FinTech a menudo implica el procesamiento de grandes volúmenes de
datos personales. La protección de estos datos es crucial, y cualquier filtración puede
tener consecuencias graves tanto para las entidades financieras como para los individuos
afectados.
Ejemplo: Una brecha de seguridad en una plataforma FinTech permite que hackers
accedan a los datos personales y financieros de miles de clientes, incluyendo números de
cuentas bancarias y datos de tarjetas de crédito.
Consecuencias:

Para los Clientes: Exposición a fraudes, robo de identidad, y otros delitos
cibernéticos.
44

Para la Entidad Financiera: Pérdida de confianza, sanciones regulatorias, y
demandas por daños y perjuicios.
Responsabilidad Civil: Las organizaciones que no protejan adecuadamente los datos
personales pueden enfrentar sanciones bajo el RGPD, que impone multas significativas
por incumplimiento. Los individuos afectados pueden presentar demandas por daños y
perjuicios, alegando que la organización no cumplió con su deber de proteger sus datos
personales. Las entidades financieras deben implementar medidas de seguridad
adecuadas y cumplir con las normativas de protección de datos para evitar tales
incidentes.
6.1
Reflexión sobre la Responsabilidad Civil derivada del uso de la IA en el
Sistema FinTech
Teniendo en consideración los posibles escenarios prácticos que se pueden presentar
durante la implementación de la IA en el sistema FinTech y las consecuencias derivadas
de su mal uso o deficiencia, se puede arribar a una conclusión relevante en términos de
responsabilidad civil. Tanto la normativa acordada por la Unión Europea para la cadena
de valor de la IA de alto riesgo, como lo establecido por la Ley de Defensa del
Consumidor 24.240 en Argentina, presentan similitudes y diferencias significativas.
Ambos marcos legales comparten el objetivo común de proteger a los usuarios y
consumidores, garantizando la seguridad y la calidad de los productos y servicios
ofrecidos. Sin embargo, presentan enfoques distintos respecto a la responsabilidad civil.
La Ley 24.240 se fundamenta en un principio de responsabilidad objetiva, donde el
proveedor del producto o servicio es responsable por los daños causados
independientemente de su culpa o negligencia. Esto significa que los consumidores tienen
derecho a ser indemnizados por los daños sufridos como resultado de productos
defectuosos o servicios inadecuados sin necesidad de probar la culpa del proveedor.
Por otro lado, la responsabilidad en la cadena de valor de la IA de alto riesgo según la
normativa de la Unión Europea puede variar entre responsabilidad objetiva y subjetiva,
dependiendo del agente involucrado y la naturaleza del daño causado. En algunos casos,
se aplica la responsabilidad objetiva similar a la Ley 24.240, especialmente cuando se
45
trata de productos defectuosos. Sin embargo, en otros casos, como cuando se evalúa la
conducta de los desarrolladores o implementadores de sistemas de IA, puede requerirse
la prueba de negligencia o culpa para establecer la responsabilidad.
Este enfoque dual en la normativa europea resalta la necesidad de un análisis detallado
de cada caso para determinar la aplicabilidad del tipo de responsabilidad. Los agentes en
la cadena de valor de la IA deben adoptar prácticas rigurosas de transparencia,
información y gestión de riesgos para cumplir con sus obligaciones legales y evitar daños
a los usuarios. Esto implica no solo la implementación de medidas técnicas y
organizativas adecuadas para asegurar el correcto funcionamiento de los sistemas de IA,
sino también la obligación de informar claramente a los usuarios sobre los riesgos y
limitaciones asociados.
Además, es crucial que los consumidores estén plenamente conscientes de sus derechos
y de los mecanismos de reclamo disponibles bajo la Ley 24.240 para asegurar una
protección adecuada frente a productos y servicios defectuosos. Los consumidores deben
ser proactivos en el ejercicio de sus derechos y buscar información sobre cómo proceder
en caso de sufrir daños. Las entidades financieras y los desarrolladores de IA deben
fomentar esta conciencia mediante la provisión de información clara y accesible sobre los
derechos del consumidor y los procedimientos de reclamo.
En conclusión, la integración de la IA en el sector FinTech presenta desafíos
significativos en términos de responsabilidad civil. La combinación de marcos
normativos como el de la Unión Europea y la Ley de Defensa del Consumidor 24.240
ofrece una estructura robusta para proteger a los consumidores, pero también requiere un
compromiso activo de todos los agentes involucrados para garantizar la seguridad y
calidad de los productos y servicios ofrecidos. La adopción de prácticas de transparencia,
información y gestión de riesgos, junto con la educación y empoderamiento de los
consumidores, son fundamentales para minimizar los riesgos y asegurar una
implementación ética y responsable de la IA en el sector FinTech.
46
7. Casuística y jurisprudencia relevante
7.1
La Sanción de la AEPD a Openbank: Un Análisis Jurídico y sus Implicancias
El 31 de agosto de 2023, la Agencia Española de Protección de Datos (AEPD) impuso
una multa significativa de 2,5 millones de euros a Openbank, una entidad financiera, por
no haber implementado medidas de protección adecuadas para la gestión segura de
documentación financiera relacionada con la prevención del blanqueo de capitales. Esta
sanción se desglosa en dos partes: una multa de 1,5 millones de euros por la infracción
del artículo 25 del Reglamento General de Protección de Datos y otra de 1 millón de euros
por la infracción del artículo 32 del mismo reglamento. Este caso proporciona un estudio
profundo de la aplicación de las normativas de protección de datos en el sector financiero
y subraya la importancia de las medidas de seguridad adecuadas para la protección de los
datos personales18.
Contexto del Caso
El origen de la reclamación se remonta a una denuncia presentada ante la autoridad de
protección de datos de Baviera, que posteriormente fue transferida a la AEPD, dado que
Openbank tiene su sede social y establecimiento principal en España. El reclamante
solicitó al banco que proporcionara un mecanismo seguro para enviar documentación
financiera, específicamente relacionada con el origen de ciertos ingresos en su cuenta
bancaria, conforme a la normativa de prevención de blanqueo de capitales y financiación
del terrorismo (PBCyFT).
Openbank, sin embargo, respondió que el único medio disponible para enviar dicha
documentación era el correo electrónico, un método que el reclamante consideraba
inseguro. A pesar de las preocupaciones expresadas, el banco no ofreció una alternativa
18
Agencia Española de Protección de Datos (AEPD). (2023, 31 de agosto). La AEPD sanciona con 2,5
millones de euros por falta de medidas reforzadas en envíos de documentos sobre operaciones financieras.
AR/2023/105.
https://www.finreg360.com/es/noticias/la-aepd-sanciona-con-25-millones-de-euros-por-
falta-de-medidas-reforzadas-en-envios-de-documentos-sobre-operaciones-financieras/
47
más segura, forzando al cliente a utilizar el correo electrónico para enviar información
sensible.
Análisis de la Infracción del Artículo 25 del RGPD
El artículo 25 del RGPD establece la obligación de la privacidad desde el diseño y por
defecto. La AEPD encontró que Openbank no había incluido la actividad de recogida de
datos de los clientes en su ciclo de vida del tratamiento de datos ni en la evaluación de
impacto de protección de datos. Esto significa que no se habían tomado medidas técnicas
y organizativas adecuadas para garantizar los principios de protección de datos,
incluyendo la confidencialidad.
En el proceso de evaluación, se presentaron dos evaluaciones de impacto, una en agosto
de 2021 y otra en octubre de 2022. Sin embargo, hasta octubre de 2022, los clientes no
podían aportar la documentación en el área privada de la web, lo que evidencia una falta
de implementación de los protocolos establecidos.
Análisis de la Infracción del Artículo 32 del RGPD
El artículo 32 del RGPD requiere que las organizaciones implementen medidas técnicas
y organizativas adecuadas para garantizar un nivel de seguridad acorde con el riesgo,
particularmente cuando se trata de datos personales que pueden revelar la situación
financiera de una persona. La AEPD concluyó que el correo electrónico no es un medio
adecuado ni seguro para enviar información financiera sensible, especialmente ante la
falta de alternativas más seguras.
A pesar de las advertencias y preocupaciones del reclamante, Openbank no proporcionó
otro método seguro, obligando al cliente a utilizar el correo electrónico. Esta negligencia
en la implementación de medidas de seguridad adecuadas representa una clara violación
del artículo 32 del RGPD.
Principios Jurídicos y Resolución del Caso
Openbank alegó la existencia de concurso medial y la vulneración del principio de non
bis in ídem, que protege contra ser procesado o sancionado dos veces por los mismos
48
hechos. No obstante, la AEPD determinó que las infracciones de los artículos 25 y 32 del
RGPD estaban tipificadas de manera diferenciada, afectando bienes jurídicos distintos.
La infracción del artículo 25 se debió a la falta de una adecuada gestión del cumplimiento
normativo, mientras que la del artículo 32 resultó de la ausencia y deficiencia de las
medidas de seguridad. Por lo tanto, se consideraron como dos infracciones distintas,
justificando la imposición de dos sanciones separadas.
Este caso subraya la importancia crucial de implementar medidas de seguridad adecuadas
y de privacidad desde el diseño en la gestión de datos personales, especialmente en el
sector financiero. La significativa sanción impuesta a Openbank refleja la seriedad con la
que la AEPD aborda las violaciones del RGPD y sirve como un recordatorio para todas
las entidades financieras de la necesidad de adherirse estrictamente a las normativas de
protección de datos.
En un contexto donde la información financiera es extremadamente sensible y está sujeta
a riesgos elevados, las entidades deben asegurarse de que los clientes puedan enviar
documentación de manera segura y confidencial. La falta de medidas adecuadas no solo
pone en riesgo la privacidad de los individuos, sino que también expone a las
organizaciones a sanciones legales y daños reputacionales.
Este caso también ilustra la necesidad de que los consumidores estén informados y sean
proactivos en la protección de sus datos personales, insistiendo en el uso de métodos
seguros para la transferencia de información sensible. La colaboración entre entidades
financieras y reguladores es esencial para fortalecer la protección de datos y garantizar la
confianza del público en el sistema financiero.
7.2
Sanción de la AEPD a CaixaBank Payment & Consumer por Infracción en el
Consentimiento para Obtener Perfiles
La Agencia Española de Protección de Datos (AEPD) ha impuesto una multa de 3
millones de euros a CaixaBank Payment & Consumer, filial de medios de pago y
financiación al consumo del grupo CaixaBank, por extraer y utilizar perfiles de clientes
sin el consentimiento adecuado y compartirlos entre las empresas del grupo. Esta sanción
49
no solo destaca la importancia del consentimiento informado en el tratamiento de datos
personales, sino que también arroja luz sobre las prácticas y las normativas que rigen la
protección de datos en el sector financiero19.
Contexto y Hechos del Caso
La resolución, identificada como PS/00500/2020, se centra en las prácticas de CaixaBank
Payment & Consumer para obtener y utilizar datos personales de sus clientes. En
particular, la entidad utilizaba información de los ficheros de solvencia patrimonial y de
la Central de Riesgos del Banco de España para crear perfiles con fines comerciales, sin
haber obtenido un consentimiento explícito y específico de los clientes para este
propósito.
El reclamo que originó esta investigación se basó en que la entidad no proporcionaba
suficiente información a los interesados sobre cómo se utilizarían sus datos personales.
La información proporcionada era genérica y no especificaba los tipos de datos que se
recogerían ni los fines concretos del tratamiento, lo que impedía a los clientes tomar una
decisión informada sobre el consentimiento que otorgaban.
Fundamentos de la Resolución
La AEPD encontró que CaixaBank Payment & Consumer no cumplía con los requisitos
establecidos por el Reglamento General de Protección de Datos (RGPD) en relación con
el consentimiento. La resolución subraya varios puntos clave:
1.
Insuficiencia de Información: La información proporcionada a los clientes era
demasiado general y no permitía comprender el alcance total de los tratamientos de datos.
La AEPD destacó que los interesados deben estar plenamente informados sobre el uso de
19
Agencia Española de Protección de Datos (AEPD). (2021, 28 de octubre). Nueva sanción de la AEPD a
un
banco
por
infracción
en
el
consentimiento
para
obtener
perfiles.
AR/2021/143.
https://finreg360.com/alerta/nueva-sancion-de-la-aepd-a-un-banco-por-infraccion-en-el-consentimientopara-obtener-perfiles/
50
sus datos y las consecuencias de dicho uso para que su consentimiento sea considerado
válido.
2.
Consentimiento Específico y Diferenciado: La entidad solicitaba el
consentimiento en nombre de todas las empresas del grupo CaixaBank, lo cual implicaba
la comunicación de datos entre estas. La AEPD determinó que este tipo de tratamiento
constituye una finalidad diferenciada que requiere un consentimiento específico del
interesado, algo que no se estaba obteniendo de manera adecuada.
3.
Invalidez del Consentimiento: La AEPD concluyó que el consentimiento
otorgado por los clientes no era válido debido a la falta de información detallada y
específica. Como resultado, el tratamiento de los datos personales basado en ese
consentimiento fue considerado ilícito.
4.
Rechazo de Alegaciones sobre Corresponsabilidad: CaixaBank Payment &
Consumer argumentó que el tratamiento de los datos se realizaba bajo un régimen de
corresponsabilidad, o también llamada responsabilidad solidaria, entre las entidades del
grupo. Sin embargo, la AEPD rechazó esta alegación, insistiendo en la necesidad de un
consentimiento específico y claro para cada tratamiento de datos.
Implicaciones y Repercusiones
La sanción impuesta por la AEPD tiene varias implicaciones importantes para el sector
financiero y para todas las entidades que tratan datos personales:
1.
Reforzamiento del Principio de Transparencia: Las entidades deben
asegurarse de que los interesados comprendan completamente cómo se utilizarán sus
datos personales. Esto incluye proporcionar información detallada y clara sobre los fines
del tratamiento y los tipos de datos que se recopilarán.
2.
Necesidad de Consentimiento Específico: Para cualquier tratamiento de datos
que implique la comunicación de datos entre diferentes entidades, es necesario obtener
un consentimiento específico y explícito de los interesados. Las prácticas genéricas y
ambiguas no cumplen con los estándares del RGPD.
3.
Validez del Consentimiento: La validez del consentimiento depende de que los
interesados reciban suficiente información para tomar una decisión informada. Las
51
entidades deben revisar sus procedimientos para garantizar que el consentimiento se
obtenga de manera conforme a la normativa.
4.
Impacto en la Reputación y Cumplimiento Normativo: Las sanciones de este
tipo no solo tienen un impacto financiero significativo, sino que también afectan la
reputación de las entidades involucradas. Además, subrayan la importancia de mantener
un cumplimiento riguroso de las normativas de protección de datos para evitar
infracciones y sanciones futuras.
Reflexiones del caso
La sanción impuesta a CaixaBank Payment & Consumer por la AEPD pone de relieve la
importancia de cumplir con los principios del RGPD, especialmente en lo que respecta al
consentimiento informado y específico. Este caso sirve como un recordatorio crucial para
todas las entidades financieras sobre la necesidad de adoptar prácticas transparentes y
detalladas en el tratamiento de datos personales. La protección de los derechos de los
interesados debe ser una prioridad y las entidades deben esforzarse por garantizar que
todas las operaciones de tratamiento de datos se realicen conforme a la normativa vigente.
En última instancia, el cumplimiento de estas normativas no solo protege a los
consumidores, sino que también fortalece la confianza en el sistema financiero y en las
entidades que lo componen, promoviendo un entorno más seguro y transparente para
todos.
8. Marco e Impactos Socioeconómicos de la Inteligencia Artificial en la
Industria Fintech y el Sistema Financiero
Este capítulo explora la implementación de inteligencia artificial (IA) en varias empresas
reconocidas del sector financiero y FinTech, analizando tanto sus resultados como el
impacto socioeconómico resultante. Este análisis se centrará en casos de estudio
específicos y experiencias de implementación que servirán como base para una
conclusión sólida que respalde la hipótesis del presente estudio.
52
8.1
Implementación de IA en Empresas Financieras
El banco BBVA de España, ha sido pionera en la implementación de IA para mejorar la
seguridad de sus servicios. En 2018, BBVA introdujo alertas de seguridad en tiempo real
sobre la actividad de las tarjetas de sus clientes. Esta tecnología permite a los usuarios
recibir notificaciones instantáneas de transacciones sospechosas, inhabilitándolas de
forma preventiva, lo que mejora la capacidad de los clientes para tomar medidas
preventivas rápidas. En dicha implementación se utilizan técnicas de ‘machine learning’,
es decir, a través de variables comportamentales del cliente, del comercio e, incluso de la
casuística del país donde se realice el acceso a la sesión o la operación, se establecen
patrones que indican cuáles podrían ser posibles fraudes y la máquina va aprendiendo de
esos patrones. De esta manera, el cliente conoce siempre lo que está sucediendo en sus
finanzas. Según BBVA, esta iniciativa ha reducido significativamente los casos de fraude
y ha aumentado la confianza del cliente en sus servicios digitales 20.
Lo mismo sucedió con N26, un banco digital europeo, que ha integrado la IA y la
automatización en su sistema de detección de fraudes. Kyle Ferdolage, un ejecutivo de
N26, ha destacado que estas tecnologías son "aliados clave" para identificar patrones de
fraude en tiempo real. N26 utiliza algoritmos de aprendizaje automático para analizar
transacciones y comportamientos sospechosos, lo que ha llevado a una reducción notable
en las actividades fraudulentas y una mejora en la seguridad de las transacciones 21.
20
Varela, M. (2018, 5 de marzo). BBVA ofrece a sus clientes alertas de seguridad sobre la actividad de sus
tarjetas en tiempo real. BBVA (Tecnología). Recuperado de https://www.bbva.com/es/bbva-ofrececlientes-alertas-seguridad-actividad-tarjetas-tiempo-real/
21
Viña, S. (2024, 16 de enero). Kyle Ferdolage (N26): la inteligencia artificial o la automatización son
"aliados clave" para detectar el fraude. Invertia. Recuperado de https://www.futurespace.es/analiticaavanzada-e-ia-para-la-prevencion-y-deteccion-de-fraude/
53
En América Latina, varias iniciativas han demostrado el potencial de la IA en el sector
bancario. Por ejemplo, Banco Santander ha implementado asistentes virtuales basados
en IA para mejorar la atención al cliente. Estos asistentes pueden manejar consultas
comunes de manera eficiente, permitiendo que los empleados se concentren en tareas más
complejas. Como resultado, la satisfacción del cliente ha aumentado en un 20%, y los
tiempos de resolución de consultas se han reducido en un 30% 22.
8.2
Impactos Socioeconómicos
Detección y Prevención del Fraude
La detección y prevención de fraude es uno de los principales beneficios de la IA
generativa en el sector financiero. Mastercard, ha acelerado la detección de fraudes en
tarjetas mediante la tecnología de IA generativa. Esta tecnología permite duplicar la
velocidad en la que procesa las transacciones, identificando las operaciones sospechosas
con una precisión sin precedentes, lo que ha resultado en una reducción del 50% en las
actividades fraudulentas. La IA analiza patrones de comportamiento y transacciones en
tiempo real, permitiendo una respuesta rápida y eficaz ante posibles fraudes. La
aplicación de esta nueva tecnología permite escanear los datos de operaciones efectuadas
por miles de millones de tarjetas y millones de comercios a un ritmo más rápido de lo que
se concebía en estos últimos tiempos. Como resultado, esta IA generativa genera alertas
a MasterCard de nuevos y complejos patrones de fraude, siendo capaz de crear protección
a futuras transacciones frente a amenazas emergentes. Explico Joham Gerber de
Mastercard que duplicaron la tasa de detección de tarjetas de créditos que habían sido
comprometidas, redujeron hasta un 200% los falsos positivos en la detección de
transacciones fraudulentas con tarjetas potencialmente comprometidas y aumentaron en
22
Santander. (2023, 28 de abril). ¿Qué es la inteligencia artificial y cómo afecta a la banca?.
https://www.santander.com/es/stories/inteligencia-artificial
54
un 300% la velocidad de identificación de los comercios en peligro o comprometidos por
estafadores. 23.
Inclusión Financiera y Accesibilidad
La IA también está jugando un papel crucial en la inclusión financiera. Las plataformas
de microcréditos utilizan algoritmos de IA para evaluar el riesgo crediticio de personas
sin historial bancario tradicional. Esto permite a las instituciones financieras ofrecer
productos financieros a un segmento más amplio de la población. Por ejemplo,
Kreditech, una empresa fintech, utiliza IA para analizar datos no tradicionales (como el
comportamiento en redes sociales) para determinar la solvencia de los solicitantes de
crédito. Esto ha permitido a Kreditech otorgar créditos a personas que tradicionalmente
no habrían calificado para un préstamo 24.
Resultados y Estadísticas
El impacto de la IA en el sector financiero es cuantificable y significativo. Un informe de
McKinsey sugiere que la IA podría generar un aumento del 20% en la productividad de
las instituciones financieras para 2030. Además, se espera que la adopción de IA reduzca
23
Mastercard. (2024, 22 de mayo). Mastercard acelera la detección del fraude en tarjetas
gracias a la tecnología IA Generativa. https://www.mastercard.com/news/latinamerica/es/sala-de-prensa/comunicados-de-prensa/pr-es/2024/mayo/mastercard-acelerala-deteccion-del-fraude-en-tarjetas-gracias-a-la-tecnologia-ia-generativa/
24
Fintech Americas. (2023, 27 de septiembre). 5 INICIATIVAS EXITOSAS DE INTELIGENCIA
ARTIFICIAL EN BANCOS DE AMÉRICA LATINA. https://blog.fintechamericas.co/casos-realesinteligencia-artificial-bancos-latam
55
los costos operativos en un 22% al automatizar procesos repetitivos y mejorar la eficiencia
operativa.
En términos de detección de fraude, las estadísticas de Techopedia muestran que las
tecnologías de IA han reducido los incidentes de phishing y fraudes relacionados en un
40%. Esta reducción no solo protege a las instituciones financieras, sino que también
mejora la confianza de los consumidores en el uso de servicios digitales 25.
La IA está redefiniendo la industria fintech y el sistema financiero, ofreciendo soluciones
que mejoran la seguridad, eficiencia operativa e inclusión financiera. Las experiencias de
empresas como BBVA, N26, MasterCard, Santander, entre otras, demuestran el potencial
transformador de la IA en este sector. Sin embargo, es esencial que las instituciones
financieras continúen innovando y colaborando con reguladores para garantizar un
desarrollo ético y sostenible de estas tecnologías, maximizando sus beneficios
socioeconómicos y minimizando posibles riesgos.
La colaboración entre el sector privado, los gobiernos y las instituciones educativas será
clave para maximizar los beneficios de la IA y mitigar sus impactos negativos,
asegurando así un entorno digital más seguro y resiliente para el futuro. La ciberseguridad
no es solo una preocupación tecnológica, sino un pilar fundamental para el desarrollo y
estabilidad económica en la era digital.
9. Comprobación de Hipótesis de Trabajo
En la tesis presentada, la hipótesis de trabajo en primer momento sostuvo que la
implementación de algoritmos de inteligencia artificial (IA) pueden mejorar
significativamente la detección de fraude en el sector fintech, reduciendo falsos positivos
y aumentando la precisión de las detecciones. Para comprobar la hipótesis de trabajo, se
25
Rushton, J. (2024, 19 de junio). +50 estadísticas de phishing que debes conocer: quién es el objetivo.
Techopedia. https://www.techopedia.com/es/estadisticas-sobre-phishing
56
centró en el estudio y en el desarrolló modelo de aprendizaje automático utilizando como
referencia los reportes emitidos por diversas entidades financieras que se encuentran en
la actualidad aplicando la IA a sus sistemas, como así también se basó la presente
conclusión en estadísticas de consultoras, cámaras FinTech entre otros organismos
avocados al estudio y a la prevención de los ciberdelitos a nivel mundial.
Los resultados, efectivamente mostraron que el modelo de IA incrementó la precisión en
la detección de transacciones fraudulentas y redujo los falsos positivos en comparación
con los métodos tradicionales de detección de fraude. Estos resultados apoyan la hipótesis
de que la implementación de algoritmos de IA mejora la detección de fraude en la
industria fintech.
10. Propuesta
Basándose en los resultados obtenidos, se propone la implementación de un sistema de
detección de fraude basado en IA en la industria fintech. Esta propuesta incluye varias
recomendaciones específicas:
a.
Desarrollo de un Sistema de Detección de Fraude Basado en IA:

Utilización de algoritmos avanzados de aprendizaje automático para
mejorar la precisión en la detección de fraude.

Implementación de técnicas de validación cruzada para garantizar la
robustez del modelo.
b.
Capacitación y Reconversión Laboral:

Programas
de
capacitación
para
empleados
afectados
por
la
implementación de IA donde se tome conciencia de las responsabilidades que ocupa cada
uno en la implementación.

Reconversión laboral para que los empleados puedan asumir nuevos roles
en el contexto de la IA.
c.
Medidas de Seguridad Adicionales:

Implementación de medidas de seguridad para proteger los datos de los
clientes.
57

Asegurarse de que los algoritmos de IA sean justos y no discriminen a
ningún grupo de usuarios.
d.

Colaboración Multisectorial:
Colaboración entre reguladores, empresas fintech y expertos en IA y
ciberseguridad para desarrollar políticas y prácticas que maximicen los beneficios de la
IA mientras se mitigan los riesgos asociados
58
Capítulo 4
11. Conclusiones y Reflexiones finales
La implementación de IA en la detección de fraude y lavado de dinero en el sector fintech
presenta un avance significativo en términos de seguridad y eficiencia operativa. A lo
largo de esta tesis, hemos analizado cómo la IA puede mejorar la precisión en la
identificación de actividades fraudulentas, reducir la incidencia de falsos positivos y
optimizar la gestión de riesgos en tiempo real. Estos beneficios son cruciales en un sector
donde la rapidez y precisión en la detección de fraudes pueden evitar pérdidas financieras
sustanciales y proteger la reputación de las instituciones financieras.
Sin embargo, esta implementación no está exenta de desafíos. La integración de
algoritmos de IA debe cumplir estrictamente con las regulaciones de privacidad y
protección de datos establecidas por marcos legales como el Reglamento General de
Protección de Datos (RGPD) en Europa. Los modelos de IA deben ser diseñados con
principios de privacidad desde el diseño (privacy by design) y por defecto (privacy by
default), asegurando que los datos de los clientes estén protegidos en todas las etapas del
procesamiento.
Un aspecto crítico en la implementación de IA es la transparencia y la explicabilidad de
los modelos. Los sistemas de IA deben ser auditables, permitiendo a las instituciones
financieras y a los reguladores comprender cómo se toman las decisiones automatizadas.
Esto no solo facilita el cumplimiento normativo, sino que también incrementa la
confianza de los clientes en las tecnologías empleadas por las entidades financieras.
Además, es imperativo establecer un marco de responsabilidad legal claro. La asignación
de responsabilidades en caso de fallos del sistema o decisiones erróneas debe estar
claramente definida. Las instituciones financieras deben asegurarse de que sus empleados
estén adecuadamente capacitados para gestionar y supervisar los sistemas de IA, y deben
establecer protocolos para la intervención humana en caso de detecciones críticas.
59
La colaboración entre reguladores, empresas fintech y expertos en IA y ciberseguridad es
fundamental. Solo a través de un enfoque colaborativo se pueden desarrollar políticas y
prácticas que
Bibliografía
Libros y Artículos de Doctrina:
-
Álvarez, F. (2020). Machine Learning en la detección de fraudes de comercio
electrónico aplicado a los servicios bancarios. Ciencia y tecnología, 20, 81-95. ISSN
1850-0870, ISSN-e 2344-9217.
-
Asociación Española de Directivos. (2019). Machine learning, inteligencia
artificial y big data: Lo que todo directivo debe saber (AED Basics No. 4). Recuperado
de https://asociaciondedirectivos.org/
-
Requerimientos para Auditorías de Tratamientos que incluyan IA (2021). Agencia
Española
de
Protección
de
Datos.
Recuperado
de
https://www.aepd.es/sites/default/files/2021_11/guia_auditorias_ia.pdf
-
Rivero Ortega, R. (2023). Derecho e Inteligencia Artificial. Editorial Usal.
https://derecho.usal.es/tag/inteligencia-artificial/
-
Juan Corvalan (2023). Propuestas de regulación y recomendaciones de IA en el
mundo. Recuperado de https://ialab.com.ar/wp-content/uploads/2023/08/Propuestas-deregulacion-y-recomendaciones-de-IA-en-el-mundo-1.pdf
-
Observatorio de Crimen y Evidencia Digital. (2024). Ciberfraudes y
Criptoactivos. LawCedic. https://ocedic.com/
-
Comunidad del SUMMIT. (2020). Inteligencia Artificial para América Latina [AI
for
Latin
America].
ialab
UBA.
Recuperado
de
[https://ialab.com.ar/wp-
content/uploads/2023/03/AI-Latam-Book-2020.pdf]
-
Ismsforum. (2020). Ética y compliance en el uso de la tecnología. Recuperado de
aquí
https://www.ismsforum.es/ficheros/descargas/8203etica-y-compliance-en-el-uso-
de-la.pdf
-
Mirkouski, D. O. (2022, noviembre). La responsabilidad civil en el Código Civil
y Comercial de la Nación. Revista Pensamiento Penal, (446). Recuperado de
https://www.pensamientopenal.com.ar/system/files/Documento_Editado764.pdf
60
-
Agencia Española de Protección de Datos (AEPD). (2021). Expediente N.º:
EXP202101565. https://www.aepd.es/documento/ps-00331-2022.pdf
-
Agencia Española de Protección de Datos (AEPD). (2018). Procedimiento Nº:
PS/00500/2020 https://www.aepd.es/documento/ps-00479-2023.pdf
-
Carlos E. Camps y Gabriel H. Quadri (2020). DERECHO, INNOVACIÓN Y
TECNOLOGÍA – Suplemento Especial. ERREIUS.
-
Bielli, G. E., Mora, S. J., & Fernández, D. (2019). #LEGALTECH II: El Derecho
ante la Tecnología. Ciudad Autónoma de Buenos Aires: La Ley.
-
Wilson, J. (2017). Creating strategic value through financial technology. New
Jersey: John Wiley & Sons, Inc.
Bericua, M., Palazzi, P., & Mora, S. J. (2023). Primeras reflexiones sobre el derecho
fintech.
Legaltech
II-
Thomson
Reuters.
Recuperado
de
https://www.thomsonreuters.com/en/press-releases/2023/november/thomson-reuterslaunches-generative-ai-powered-solutions-to-transform-how-legal-professionalswork.html
- Banco Central de la República Argentina (BCRA). (2023, 29 de noviembre). Las fintech
y la oferta de créditos online: una aproximación a sus aspectos jurídicos. Ideas de Peso.
https://www.bcra.gob.ar/
Legislación:
o
Comisión Europea. (2023). Reglamento General de Protección de Datos (GDPR).
o
Agencia Española de Protección de Datos (AEPD). (2023). Guía para la
Protección de Datos en la Inteligencia Artificial.
-
Ley de Inteligencia Artificial de la UE (2024). Artículo 6: Normas de clasificación
de
los
sistemas
de
IA
de
alto
riesgo.
https://eur-lex.europa.eu/legal-
content/ES/TXT/?uri=celex%3A52021PC0206
-
República Argentina. Congreso de la Nación. (2023). Proyecto de Ley de
Regulación y Uso de la Inteligencia Artificial en la Educación. [Expediente TP 2504-D2023].
Recuperado
de
https://www4.hcdn.gob.ar/dependencias/dsecretaria/Periodo2023/PDF2023/TP2023/250
4-D-2023.pdf
61
-
Adéquation au RGPD de traitements qui incorporent l'Intelligence Artificielle
[Adecuación al RGPD de tratamientos que incorporan Inteligencia Artificial]. (2020).
Agencia
Española
de
Protección
de
Datos.Recuperado
de
https://www.aepd.es/sites/default/files/publicaciones/guia_adecuacion_rgpd_ia.pdf
-
Parlamento Europeo. (2024, 8 de marzo). Propuesta de Reglamento del
Parlamento Europeo y del Consejo por el que se establecen normas sobre la inteligencia
artificial y se modifican determinados actos legislativos de la Unión, y por el que se
derogan el Reglamento (UE) 2016/679 y la Directiva 2002/65/CE (Reglamento de
Inteligencia Artificial) [Documento de trabajo del PE 9-2024/0138].
-
Argentina. Congreso de la Nación. (1993, 22 de septiembre). Ley Nº 24.240 de
Defensa del Consumidor. Infoleg: Ministerio de Justicia y Derechos Humanos.
Sitios Web:
-
¿Qué es el aprendizaje no supervisado? (s.f.). IBM. Recuperado de
https://www.ibm.com/es-es/topics/unsupervised-learning
-
Varela, M. (2018, 5 de marzo). BBVA ofrece a sus clientes alertas de seguridad
sobre la actividad de sus tarjetas en tiempo real. BBVA (Tecnología). Recuperado de
https://www.bbva.com/es/bbva-ofrece-clientes-alertas-seguridad-actividad-tarjetastiempo-real/
-
Viña, S. (2024, 16 de enero). Kyle Ferdolage (N26): la inteligencia artificial o la
automatización son "aliados clave" para detectar el fraude. Invertia. Recuperado de
https://www.futurespace.es/analitica-avanzada-e-ia-para-la-prevencion-y-deteccion-defraude/
-
Fintech Americas. (2023, 27 de septiembre). 5 INICIATIVAS EXITOSAS DE
INTELIGENCIA
ARTIFICIAL
EN
BANCOS
DE
AMÉRICA
LATINA.
https://blog.fintechamericas.co/casos-reales-inteligencia-artificial-bancos-latam
-
Rushton, J. (2024, 19 de junio). +50 estadísticas de phishing que debes conocer:
quién es el objetivo. Techopedia. https://www.techopedia.com/es/estadisticas-sobrephishing
-
Mastercard. (2024, 22 de mayo). Mastercard acelera la detección del fraude en
tarjetas gracias a la tecnología IA Generativa. https://www.mastercard.com/news/latin62
america/es/sala-de-prensa/comunicados-de-prensa/pr-es/2024/mayo/mastercard-acelerala-deteccion-del-fraude-en-tarjetas-gracias-a-la-tecnologia-ia-generativa/
-"El estado de la IA en 2023: el año clave de la IA generativa"- Recuperado de:
www.mckinsey.com/featured-insights/destacados/el-estado-de-la-ia-en-2023-el-anoclave-de-la-ia-generativa/es
63
Descargar