Subido por airgiova

TÉCNICAS DE DETECCIÓN DE FRAUDES

Anuncio
TÉCNICAS DE DETECCIÓN DE FRAUDES
Técnicas de Detección de Fraudes
Las técnicas de detección de fraudes utilizadas por el FRAUDITOR (Auditor
Investigador de Fraudes) son variadas y muchas de ellas no tan nuevas, algunas son
bastante simples y otras algo complicadas, la complicación de estas técnicas se
sobrelleva con la gran cantidad de programas que tenemos disponibles en el mercado
desde una hoja de cálculo (Microsoft Excel), programas de base de datos (Access,
MySQL, Informix, SQL Server, Oracle), programas estadísticos (SPSS, Minitab),
programas de mineria de datos (Clementina, Darwin, Enterprise Miner, Intelligent
Miner), programas de extracción, análisis de datos y detección - prevención de fraudes
(IDEA, ACL, Gestor AUDISIS, DATAS), otros ( TOAD, Sistema de Auditoria
Seguridad y Control - SAS).
Dentro de estas técnicas podemos mencionar las siguientes:
Análisis Estadístico: Análisis de regresión, análisis de correlación, análisis de
dispersión, La Ley de Benford – Análisis de Frecuencia digital.
Patrones: Secuencias, investigación de faltantes y duplicados, análisis histórico de
tendencias, análisis de ratios.
Técnicas de análisis visual: Análisis de relaciones, análisis de líneas de tiempo,
gráficos de agrupamiento (clustering)
Procedimientos analíticos de auditoria: Análisis vertical y horizontal de las cuentas de
balance y de resultados; Análisis de indices/ratios historicos.
Los resultados de estas técnicas no necesariamente indican que existe fraude en un
grupo de datos analizados, simplemente nos dan indicaciones donde poner mayor
atención en el análisis, los resultados los tendremos que valorar de acuerdo a las
particularidades de nuestro negocio, por ejemplo puede ser que existan transacciones en
Depósitos a Plazo Fijo que las realiza el “Administrador de Base de Datos” (ABD),
entonces una vez detectadas estas transacciones de carácter operativo debemos
investigarlas mas a fondo, es decir determinar que tipo de operaciones son, en que
fechas se realizan y creo que lo mas importante si existe autorización formal para que el
ABD las realice y la revisión de la normativa interna relacionada.
En el presente articulo nos centraremos en el Análisis de Frecuencia Digital y La Ley de
Benford
Para los ejemplos que se plantearan, nos referiremos a la siguiente estructura de datos
de una tabla que almacena los transacciones en ventanilla (caja) de una entidad
financiera del segundo semestre de la gestión 2007:
ANÁLISIS DE FRECUENCIA DIGITAL
Consiste en agrupar los datos en función a una variable para luego realizar operaciones
de totalización como: contar, sumar, promediar, encontrar el máximo o mínimo,
calcular la desviación estándar o la varianza.
Ejemplo: La variable elegida será “Usuario” y la operación de totalización será un
simple conteo, es decir iremos contando cuantas transacciones realizo cada usuario en el
segundo semestre del 2007, obtenemos los siguientes resultados:
De este resultado podemos comenzar ya una investigación tomando en cuenta los
valores extremos el mínimo y el máximo, o solamente comparar los usuarios que
tenemos en el resultado con la planilla de sueldos del segundo semestre 2007. Esta
misma información la podemos hacer mes por mes e ir acumulando un histórico por
usuario para determinar tendencias de cantidad de transacciones por cada usuario y
realizar su grafico respectivo:
Del anterior grafico podemos determinar la evolución en cantidad de transacciones por
cada usuario y verificamos que los usuarios admin, dvargas y hrosales no son usuarios
habituales en caja en ninguno de los meses analizados respecto de los usuarios rrivero,
mmarco, froca y lvaca; otra revisión adicional podría consistir en revisar los perfiles de
estos 3 usuarios y poner especial énfasis en la autorización para realizar las 2
transacciones que realiza el usuario genérico “admin” y que funcionario lo utiliza,
asimismo se deberá realizar una revisión de las Políticas, Normas y Procedimientos
(PNPs) sobre el ciclo de vida de los identificadores de usuarios.
De acuerdo al criterio del FRAUDITOR, este podrá combinar los otros operadores de
totalización, analizarlos y concluir sobre la base de sus resultados. Asimismo como en
este caso no solamente elegimos una técnica y nos centramos únicamente en la elegida,
sino que mas bien la integramos con otras técnicas, tal es el caso del Análisis de
Frecuencia Digital que se puede combinar con las técnicas de Análisis de Correlacion,
Análisis de dispersión y Generar información histórica para realizar Análisis de
Tendencias, Análisis de Ratios, Análisis de Regresión.
Como mencionamos líneas arriba, este tipo de técnicas las podemos realizar con
diversas herramientas, entre ellas podemos citar:
En Excel a través de las Tablas y Gráficos Dinámicos con las limitaciones que tiene
esta herramienta de 65.536 registros hasta la versión 2003 y 1.048.576 registros en la
versión Vista.
En Access mediante las Consultas de Tablas de Referencias Cruzadas.
En IDEA y ACL se puede calcular a través de opciones de Totalización de campos.
LEY DE BENFORD
De esta técnica podemos comentar que no es nada nueva, puesto que tiene su origen el
año 1881 enunciada por Simon Newcomb y posteriormente el año 1930 por Frank
Benford quien era un físico de la General Electric. En 1994 Mark Nigrini utiliza esta
Ley para detectar posibles fraudes e irregularidades en datos fiscales y para detectar
contabilidades contaminadas.
La Ley de Benford en términos sencillos dice que aquellos números de la vida real que
empiezan por el dígito 1 ocurren con mucha más frecuencia que el resto de números.
Esta Ley plantea que la ocurrencia de los dígitos en una serie de datos pueden
predecirse. Ningrini define la Ley de Benford como aquella que predice la frecuencia
esperada de aparición de los dígitos en series de numeros. Otra forma de enunciarla es:
los primeros dígitos de los números no se distribuyen de manera equiprobable. Los
resultados que arroja esta Ley respecto a la probabilidad de ocurrencia de los dígitos es
la siguiente:
Como toda Ley, para que sea aplicable deben cumplirse ciertas condiciones:
El conjunto de datos debe estar formado por magnitudes medibles de un mismo
fenómeno, es decir las transacciones de caja de una entidad, importes de gastos
familiares, los votos obtenidos por un candidato en las diferentes mesas de sufragio.
No debe existir una limitación de máximo y mínimo, es decir debe ser una variable
cuantitativa sin restricciones. En el caso de “Moneda”, los resultados de nuestro análisis
no tendrían sentido, puesto que este campo solo puede asumir dos valores 1 o 2.
Los datos no deben ser números asignados por ejemplo los números de teléfono de
Santa Cruz comienzan siempre con 3, los de Cochabamba con 4, estos conjuntos de
datos no se ajustan a la Ley de Benford.
Debe haber un mayor numero de valores pequeños que grandes, es decir el
cumplimiento de “La Ley de Pareto” que dice que generalmente el 80% del importe
total se encuentra en el 20%
Recomendaciones:
El tamaño del conjunto de datos debe ser mayor a 1.000 elementos para establecer
conclusiones de auditoria para la prueba del primer digito y para la prueba de los 3
primeros dígitos se recomienda al menos 10.000 datos.
El valor máximo entre el mínimo (diferente de cero) debe ser por lo menos 100.
Preferiblemente analizar datos generados en periodos largos de tiempo (una o varias
gestiones fiscales por ejemplo) que sobre cortos (un dia por ejemplo).
Lo ideal es trabajar con datos que registren 4 o mas dígitos, aunque con 3 dígitos se
pueden obtener excelentes resultados.
La Ley de Benford es de escala invariante, se puede utilizar esta Ley
independientemente de su escala de medida, es decir si trabajamos en metros o millas
tendríamos el mismo resultado, en términos financieros es independiente de la moneda
en la cual expresemos los importes.
Utiliza programas que incluyen esta Ley dentro de sus opciones como son el IDEA,
ACL, DATAS, Auriga, aunque si uno no dispone de estas, con una planilla Excel podría
ser suficiente con las limitaciones inherentes del Excel.
Ejemplo: La variable analizada será “Importe” considerando que todas las transacciones
están en una misma moneda. Los resultados del ejemplo tomado versus la Ley de
Benford se expresan en la siguiente tabla y luego se realiza su grafica correspondiente:
Para el primer digito de un conjunto de datos se toma la probabilidad de ocurrencia del
primer digito según La Ley de Benford, de tal manera que si esta cantidad esperada y la
real muestran una diferencia significativa es un indicador de que los datos son
posiblemente inventados, errados o fraudulentos. Con el ejemplo de transacciones de
caja, para el primer digito significa que existirán mas transacciones que comiencen con
el numero 1 que transacciones que comiencen con el numero 9, realizando los cálculos
tenemos que 15.430 transacciones tienen como primer digito 1 y solamente 1.230
transacciones tienen como primer digito 9.
De los resultados anteriores tenemos para el primer digito 5 una probabilidad de
ocurrencia según la Ley de Benford de 7.92 % y tenemos que con los datos actuales
tenemos un 11.76 %, esta diferencia es una alerta de un posible fraude o irregularidad
en las operaciones que comienzan con el digito 5 en su importe. Las diferencias que
indican posibles fraudes pueden ser diferencias en más o en menos respecto la Ley de
Benford. Para confirmar o afinar los resultados podemos realizar análisis adicionales
como son la prueba del segundo digito, tercer digito, primeros 2 dígitos, primeros 3
digitos y la prueba de los 2 ultimos digitos.
La Ley de Benford y los numeros aleatorios
Si aplicamos La Ley de Benford a una serie de números generados aleatoriamente, la
Ley no se cumple, puesto que todos los dígitos tendrán la misma probabilidad de
ocurrencia (equiprobables).
Ejemplo: Se generaron datos aleatorios (la misma cantidad que los analizados en el
ejemplo anterior 47.634) con Excel teniendo como resultado el siguiente grafico cuyos
primeros dígitos tienen una probabilidad de ocurrencia de entre 10% y 11%, verificando
que la Ley no se cumple para estos datos, algunos llaman a esto el grado de
Benforicidad, es decir cuan aplicable es La Ley de Benford a un conjunto de datos.
Aplicaciones de esta Ley se hicieron en procesos eleccionarios: Elecciones de Ecuador
(Noboa, Correa, Roldos, Viteri, Rosero, Villacis), Elecciones de Presidente de los
EEUU (2004), Referéndum de Venezuela (2004), Presidente de México (Julio 2006)
Finalmente concluir que las herramientas son solo eso, herramientas y no reemplazan la
experiencia y criterio del FRAUDITOR. Parafraseando el dicho “El genio es 10%
inspiración y 90% de trabajo” decimos “El Frauditor utiliza 10 % de técnicas y
herramientas y 90 % de criterio profesional”. Para las investigaciones forenses
(informática y auditoria) no solamente se deben considerar los resultados de las técnicas
y herramientas, también y quizás lo mas importante es considerar la validez de los
resultados obtenidos y su debido respaldo para fines legales, considerar por ejemplo
garantizar la cadena de custodia de la evidencia, diferenciar la evidencia persuasiva
(auditoria) de la evidencia conclusiva (legal).
Descargar