ministerio de defensa

Anuncio
MINISTERIO DE DEFENSA
CD&E CIBERDEFENSA
DOCUMENTO DE DISEÑO DEL
EXPERIMENTO
01/12/2012
Este documento sirve de guía para el desarrollo del proyecto de experimentación del Concepto
de Ciberdefensa Inicial. Describe cada uno de los objetivos perseguidos, los elementos de
análisis, el escenario y los recursos que serán necesarios. Parte de los EXCLUSIVO PARA EL
EQUIPO DE CONTROL, ya que su conocimiento por parte del equipo de participantes puede
afectar al resultado del experimento.
Página | 1
DDE V 0.4
10/10/2012
MINISTERIO DE DEFENSA
INDICE
Contenido
1.
INTRODUCCIÓN. .................................................................................................................... 4
2.
PROPÓSITO DE LA EXPERIMENTACIÓN. ................................................................................ 4
3.
PLANTEAMIENTO DEL PROBLEMA Y SOLUCIONES................................................................ 4
3.1.
Enunciado del Problema. .................................................................................................. 4
3.2.
Descripción del Problema. ................................................................................................ 4
3.3.
Solución propuesta............................................................................................................ 5
3.4.
Hipótesis General del Proyecto ......................................................................................... 5
4.
OBJETIVOS DEL EXPERIMENTO. ............................................................................................ 5
4.1.
Generalidades sobre los Objetivos.................................................................................... 6
4.2.
Desarrollo de los Elementos Esenciales de Análisis (EEA)................................................. 6
4.3.
Objetivos del Evento. ........................................................................................................ 8
5.
METODOLOGÍAS. ................................................................................................................. 12
5.1.
6.
Metodología del Evento. ................................................................................................. 12
ESCENARIO .......................................................................................................................... 14
6.1.
Generalidades ................................................................................................................. 14
6.2.
Consideraciones sobre el escenario ................................................................................ 15
7.
EVALUACIÓN DE RIESGOS. .................................................................................................. 17
7.1.
Generalidades. ................................................................................................................ 17
7.2.
Riesgos del evento. ......................................................................................................... 17
8.
PLAN DE RECOGIDA Y ANÁLISISDE DATOS. ......................................................................... 18
8.1.
Relación entre el Plan de Análisis y el Plan de Recogida de Datos. ................................ 18
8.2.
Plan de Análisis de Datos. ............................................................................................... 19
8.3.
Plan de Recolección de Datos ......................................................................................... 19
9.
ANEXO A: ARQUITECTURA DEL EVENTO. DIAGRAMAS. ...................................................... 21
10.
ANEXO B: ORGANIZACIÓN Y RECURSOS NECESARIOS. ................................................... 26
11.
ANEXO C: PLANIFICACIÓN. .............................................................................................. 29
12.
ANEXO D: ANALISIS RIESGOS............................................................................................. 1
13.
ANEXO E: PLAN DE ANÁLISIS Y RECOLECCIÓN DE DATOS ................................................. 1
13.1.
Introducción .................................................................................................................. 1
13.2.
Procedimiento de análisis ............................................................................................. 1
Página | 2
DDE V 3.2
28/11/2012
MINISTERIO DE DEFENSA
13.3.
Informes de resultados ................................................................................................. 1
13.4.
Recolección de Datos. ................................................................................................... 1
14.
ANEXO F: SECUENCIA DE VERIFICACIÓN DEL EXPERIMENTO DESDE EL PUNTO DE VISTA
DE SISTEMAS. .............................................................................................................................. 15
14.1.
Servicios considerados a nivel de sistemas. ................................................................ 15
14.2.
Caracterización de los objetivos a realizar por cada sistema participante. ................ 15
14.3.
Proceso de secuenciación del experimento a nivel de sistemas. ............................... 32
14.4.
Fases de ataque desde el punto de vista de sistemas. ............................................... 33
Página | 3
DDE V 3.2
28/11/2012
MINISTERIO DE DEFENSA
CONCEPTO CIBERDEFENSA
DOCUMENTO DISEÑO EXPERIMENT0 DEL PROYECTO CD&E.
(DDE CIBERDEF)
1. INTRODUCCIÓN.
El Documento de Descripción del Proyecto (DDP) del Concepto de Ciberdefensa es el
documento guía para el desarrollo del proyecto de experimentación del Concepto
Ciberdefensa del Ejército. El DDP describe los objetivos perseguidos, los productos a
desarrollar, el plan de actividades, los eventos de los que consta el Proyecto y los recursos
que previsiblemente serán necesarios.
Además, el DDP anticipa la necesidad de experimentar el concepto a través de un evento:
Evento #1: Realización de un Experimento de Objetivo Limitado (LOE)de
Ciberdefensa en el marco de un escenario virtual que simule un posible despliegue de
una Brigada con apoyos de guerra electrónica, con todos los sistemas CIS desplegables
del Ejército, como pueden ser el SIMACET, TALOS, GESTA, FFT, etc. Tiene por
objetoevaluar las soluciones de seguridad propuestas en el DDPy obtener aspectos
derivados del problema a incluir en el Concepto de Ciberdefensa a desarrollar.
Así mismo, el DDP identifica la necesidad de redactar un Documento de Diseño del
Experimento (DDE), que contenga toda la información necesaria para la preparación
deesteevento y su posterior ejecución.
2. PROPÓSITO DE LA EXPERIMENTACIÓN.
El presente proyecto de experimentación tiene por objeto determinar la validez de las
soluciones contenidas en el presente documento derivadas del DDP, así como extraer las
lecciones aprendidas que pudieran servir para depurar estas y futuras
soluciones,elaborandorecomendaciones para su posible implantación.
3. PLANTEAMIENTO DEL PROBLEMA Y SOLUCIONES.
3.1. Enunciado del Problema.
No existe variación respecto al problema enunciado en el DDP.
Incrementar el nivel de eficacia en el uso del ciberespacio en las operaciones militares
proponiendo mecanismos de mejora, lecciones aprendidas y buenas prácticas basándose
en el análisis del estado de seguridad de los sistemas CIS desplegables del Ejército.
3.2. Descripción del Problema.
En la actualidad la mayoría de los sistemas de mando y control e información militar, así
como determinados sistemas de combate y de control de plataformas y armas, están
conectados a través de redes militares de comunicaciones que, en mayor o menor medida,
también están expuestos a las diferentes amenazas que existen en el ciberespacio:
Página | 4
DDE V 3.2
28/11/2012
MINISTERIO DE DEFENSA
disponen de interconexiones a otros sistemas, ya sean OTAN, UE o de países aliados;
forman parte de una federación de redes en el ámbito operativo; o sus enlaces se realizan
en ciertas ocasiones a través de infraestructuras civiles, lo que complica el establecimiento
y mantenimiento de la seguridad.
Además, la futura adaptación de estos sistemas al concepto NEC incrementará la
capacidad de mando y control de los Ejércitos. Las nuevas plataformas aéreas ya disponen
de sistemas de comunicaciones para recibir y transmitir información constantemente; los
sistemas de defensa aérea son teleoperados por ordenador; los sistemas de inteligencia,
vigilancia y reconocimiento (ISR) recogen tanta información que el desafío está en obtener
los datos críticos; las unidades de infantería disponen de sistemas de comunicación de
banda ancha, sistemas de posicionamiento (FFT) y dispositivos de visión nocturna, en
todos ellos existen dispositivos de proceso que representan una fortaleza pues
incrementan la capacidad de combate, pero que también podrían convertirse en una
debilidad pues presentan vulnerabilidades, lo que exige la adopción de medidas para su
protección, con la consecuente y necesaria puesta en marcha de capacidades de
ciberdefensa.
3.3. Solución propuesta.
La solución propuesta consiste en:
 Realización de un Experimento de Objetivo Limitado (LOE) de ciberdefensa en el
marco de un escenario virtual que simule un posible despliegue de una Brigada con
apoyos de guerra electrónica, con todos los sistemas CIS desplegables del Ejército,
como pueden ser el SIMACET, TALOS, GESTA, FFT, etc.
Para la realización del experimento se proponen dos fases:
 Fase 1: Realización de actividades de Ciberdefensa en un escenario virtual que simule
el despliegue de una Brigada con los sistemas CIS tácticos normalmente utilizados. En
esta fase se llevarán a cabo las actividades necesarias para realizar los procesos de
ataque sobre los nodos objetivo de la red.
 Fase 2: Realización de actividades de Ciberdefensa en el escenario anterior
implementando las siguientes medidas de seguridad en cada uno de los nodos:
 Implantación de un firewall.
 Implantación de un IDS.
 Implantación de un sistema de gestión de log’s y correlador de eventos.
 Implantación de un CERT para responder a los incidentes de seguridad que
ocurran en la red.
En esta fase se realizarán las mismas actividades anteriormente realizadas en la fase 1.
3.4. Hipótesis General del Proyecto
La hipótesis general del experimento, que se depurará durante la fase de diseño, es:
“La consecución de los objetivos de experimentación y, por tanto, la aplicación de la
solución propuesta, mejorará el nivel de seguridad en los sistemas CIS tácticos del Ejército”.
4. OBJETIVOS DEL EXPERIMENTO.
Página | 5
DDE V 3.2
28/11/2012
MINISTERIO DE DEFENSA
4.1. Generalidades sobre los Objetivos.
El conjunto de los Objetivospersigue la comprobación de la validez de los componentes de
la solución propuesta a la vez que se extraen lecciones aprendidas que sirvan para depurar
las soluciones. Cada uno de ellos se centra por lo general en una de las componentes de la
solución.
Para el logro de cada objetivo, se plantea una serie de pruebas para obtener una visión del
problema. Por medio del análisissebuscaráconocer el estado actual de la seguridad de los
sistemas CIS tácticos del Ejército y cómo influye la implantación de las medidas de
seguridad propuestas en el estado de seguridad.
A su vez, cada Objetivosecorresponde con varios Elementos Esenciales de Análisis (EEA).
Los EEAs son los diferentes aspectos de cada Objetivo que sirven como elementos
principales del foco analítico y permiten evaluar la bondad de la solución propuesta.
4.2. Desarrollo de los Elementos Esenciales de Análisis (EEA).
Los EEAs están orientados a alcanzar los Objetivos mediante la determinación del grado de
cumplimiento de las Medidas de Efectividad que se determinan en el Plan de Análisis y
Recolección de Datos (DCAP).
Se ha determinado que existen Elementos Esenciales de Análisis que dependen de
métricas proporcionadas por los elementos atacantes del experimento (señalizados con el
color rojo), otros dependen de medidas de efectividad obtenidas en los sistemas atacados
(color verde) y por último es necesario obtener datos de atacantes y atacados para
conseguir analizar los restantes (color naranja).
Para soportar estos Elementos Esenciales de Análisis serán necesarios obtener una serie de
datos por cada sistema.
Al comienzo de cada fase (I, II) y hasta el paso Análisis de Vulnerabilidades se recopilará la
siguiente información:
Número de puertos/servicios abiertos.
Códigos CVSS (Common Vulnerability Scoring) en estos servicios.
Número de vulnerabilidades detectadas por cada máquina virtual que componen
un nodo de nivel ALTO, MEDIO y BAJO.
Se deberán apoyar estos datos con los ficheros proporcionados por las herramientas
Nessus y Nmap.
Posteriormente, ya en el paso de “Proceso de ataque” se ejecutarán sucesivos ataques
basados en la información recopilada por las herramientas ejecutadas en los pasos previos.
Para cada ataque se deberá registrar el momento del tiempo en el que se produce el
ataque, contra quién se produce y de qué tipo es. Ello proporcionará al final la siguiente
información desde el punto de vista del atacante:
Número de ataques realizados
Número de ataques lanzados por los atacantes a un determinado ordenador de la
red objetivo.
Número de ataques exitosos
Número de ataques que finalmente han conseguido llegar a su destino final.
Página | 6
DDE V 3.2
28/11/2012
MINISTERIO DE DEFENSA
Número de ataques parcialmente exitosos
Número de ataques que, por unas causas u otras, se han quedado a mitad del
camino.
Tiempo consumido por ataque  Tiempo consumido por tipo de ataque
Tiempo que ha llevado el llevar a cabo ese ataque concreto. Sumando los tiempos
de todos los ataques del mismo tipo se podrá concluir los tiempos consumidos por
tipo de ataque.
Tiempo consumido en cada fase
En base a este número se podrán obtener el tiempo por cada tipo de ataque, los
tiempos consumidos en cada fase del ejercicio y los tiempos acumulados hasta una
determinada fase.
Tiempo que ha llevado conseguir el éxito
Tiempo que le ha llevado al atacante tener éxito en su ataque.
Por otra parte, desde la plataforma de sistemas atacados, se deberá proporcionar el
ataque detectado, en qué momento del tiempo se produce, el evento que provoca la
sospecha y qué tipo de medidas defensivas se ejecutan para abortar el ataque. Estos
datos, al final, proporcionarán la siguiente información:
Número de ataques detectados
Serán los ataques que, desde el punto de vista de los sistemas atacados, se
consideren detectados.
Número de acciones defensivas tomadas por cada ataque
Debido a esa detección se pondrán en marcha mecanismos de defensa que
intentarán neutralizar esos ataques
Tiempo de inactividad de un servicio
Proporciona la inactividad de un servicio concreto y no de todo el sistema en su
conjunto.
Tiempo de inactividad del sistema atacado  Tiempo de recuperación
Como posibles efectos de un ataque se pueden producir la caída total o parcial del
sistema atacado o la pérdida de información. El tiempo de inactividad del sistema
es una medida de referencia de la magnitud del ataque, así como el tiempo en el
que todos los datos son restaurados para continuar con el normal funcionamiento
del sistema.
Con todos estos datos será posible calcular las Medidas de Efectividad que se definen
como:
Eficiencia defensiva
Es la medida de como de frecuente un ataque es interrumpido frente a lo
frecuente que la acción defensiva es tomada.
Se calcula como: ((Número total de ataques observados - número de ataques con
éxito observados) / número de acciones defensivas tomadas ) * 100%
Página | 7
DDE V 3.2
28/11/2012
MINISTERIO DE DEFENSA
Cuando todos los ataques tienen éxito la eficiencia defensiva es cero. Para
defensas de prioridad, la eficiencia varía desde el 0% hasta el 100%. Para las
reactivas la eficiencia tiene de a ser mayor o igual al 100% (el mínimo ocurre si la
probabilidad de prevención de ataque es del 100%)
Factor de Defensa
Relación entre el intervalo de defensa prioritaria a la duración nominal de un tipo
particular de ataque. Proporciona una medida de la velocidad relativa de ejecución
entre defensa y ataque.
Se calcula como la razón entre la Duración de un ataque nominal y el intervalo de
defensa prioritaria.
Cuando las acciones de defensa prioritaria se aceleran (su intervalo se acorta), la
probabilidad de que un ataque triunfe disminuye.
De esta forma, se pueden entender las medidas de efectividad como elementos
comparativos de unos sistemas a otros y dentro de los mismos sistemas a cuando se
aplican medidas defensivas (Fase II) con respecto a lo ocurrido en la fase sin securizar
(Fase I).
Una representación de todos los datos y cálculos que con ellos se realizan se puede ver
en la siguiente figura:
Figura 1. Métricas y Medidas de Efectividad.
4.3. Objetivos del Evento.
OBJ 1.
Comprobar el estado de seguridad de los sistemas en cuanto al número de
vulnerabilidades detectadas.
Página | 8
DDE V 3.2
28/11/2012
MINISTERIO DE DEFENSA
Este objetivo se articula en los siguientes EEAs:
EEA#1.1.
Superficie efectiva de ataque.
EEA#1.2
Tipos de puertos abiertos.
EEA# 1.3
Vulnerabilidades detectadas de nivel ALTO por cada máquina virtual que
compone un nodo mediante la herramienta Nessus.
EEA#1.4
EEA#1.5
Vulnerabilidades detectadas de nivel MEDIO por cada máquina virtual que
compone un nodo mediante la herramienta Nessus.
Vulnerabilidades detectadas de nivel BAJO por cada máquina virtual que
compone un nodo mediante la Herramienta Nessus.
Tabla 1 Elementos Esenciales de Análisis del Objetivo 1.
EEA#1.1 Se define la superficie efectiva de ataque para cada nodo como el número
de puertos y, por lo tanto, servicios detectados en comparación con el
total.
Se calculará como la razón entre el número de puertos abiertos y el
número de puertos disponibles total en cada nodo. Lo deseable, desde el
punto de vista de la defensa es que este parámetro sea lo más bajo posible
con lo cual se debería intentar que el número de puertos abiertos sea el
menor posible.
EEA#1.2 Será la tipología de los puertos detectados. Para ello se obtendrá los
códigos asignados en CVSS (Common Vulnerability Scoring System) a las
vulnerabilidades conocidas en estos servicios.
EEA#1.3 | EEA#1.4 | EEA#1.5 serán las vulnerabilidades detectadas para cada tipo
respectivamente ALTO, MEDIO y BAJO.
La criticidad de las vulnerabilidades es importantísima. Es mucho más
grave disponer de una vulnerabilidad de tipo ALTO que de muchas
vulnerabilidades de tipo BAJO.
OBJ 2.
Evaluar la capacidad de monitorización del estado de seguridad de los sistemas.
Este objetivo se articula en el siguiente EEA:
EEA # 2.1
Detección de ataques.
Tabla 2 Elemento Esencial de Análisis del Objetivo 2.
EEA#2.1 Será la relación del número de ataques detectados frente al número total
de ataques realizados en cada uno de los sistemas atacados.
Desde el punto de vista de la Defensa cuanto más alto sea este número
mejor.
OBJ 3.
Realización de ataques a los sistemas aplicando las fases de escaneo,
enumeración y ataque.
Página | 9
DDE V 3.2
28/11/2012
MINISTERIO DE DEFENSA
Este objetivo se articula en los siguientes EEAs:
EEA # 3.1
Efectividad de los ataques
Tabla 3 Elemento Esencial de Análisis del Objetivo 3.
EEA#3.1 Para cada uno de los nodos habrá que estudiar:
cuántos de los ataques han tenido éxito. Es decir, han pasado por todas las
fases y han logrado su objetivo final. Se calcula como el número de ataques
con éxito entre el número total de ataques.
cuántos de ellos han tenido un éxito parcial. Se entiende por éxito parcial
cuando nose llega a la última fase pero se ha transitado por las fases
previas. Se calcula como el número de ataques con éxito parcial entre el
número total de ataques. Caracteriza la presencia de un ataque en un
sistema. Si el número de ataques con éxito parcial es mayor o igual que el
número de ataques con éxito entonces la probabilidad de los parciales es
también mayor.
cuánto tiempo han empleado los atacantes en cada una de las
fases.Teniendo los tiempos empleados en las fases T1 a Tn. El tiempo
acumulativo hasta cada fase será la suma de todos los tiempos desde la
primera a la correspondiente fase. La media será ese número dividido por
el tiempo total que se ha dedicado a esa fase. Incrementar el tiempo que
un ataque emplea en sus fases preparatorias así como el cambio de tiempo
gastado en las fases tempranas.
Cuánto ha durado un ataque exitoso. Se corresponde con el tiempo que ha
sido consumido para ejecutar desde la primera fase hasta la última. El
tiempo medio de tiempo de ejecución de un ataque es igual a la suma de
los distintos ataques dentro de cada fase dentro de los que han sido
exitosos. El efecto de las defensas puede ser observado mediante la
comprensión o expansión de este tiempo frente a una línea de tiempos
nominal de un ataque.
OBJ 4.
Evaluar la capacidad de manejo de incidentes/respuesta.
Este objetivo se articula en el siguiente EEA:
EEA # 4.1
Evaluación de la capacidad de recuperación del sistema frente a desastres y
perturbaciones.
Tabla 4 Elemento Esencial de Análisis del Objetivo 4.
EEA#4.1 Habrá que medir el impacto del ataque en el sistema atacado. Cuánto
tiempo de inactividad le ha provocado y, por otra parte, el tiempo que ha
empleado en atacante para producir ese desastre.
OBJ 5.
Realizar análisis de registros y análisis forense.
Página | 10
DDE V 3.2
28/11/2012
MINISTERIO DE DEFENSA
Este objetivo se articula en el siguiente EEA:
EEA # 5.1
Número de ataques identificados por sistema para conseguir un registro
válido y un análisis forense significativo.
Tabla 5 Elemento Esencial de Análisis del Objetivo 5.
EEA#5.1 Vendrá representado por el número de ataques identificados suficientes
como para considerar una muestra significativa.
OBJ 6.
Implantación de puertas traseras en los sistemas.
Este objetivo se articula en el siguiente EEA:
EEA # 6.1
Efectividad de los ataques - Número de accesos exitosos en los sistemas de
destino desde el comienzo hasta el final del ejercicio.
Tabla 6 Elemento Esencial de Análisis del Objetivo 6.
EEA#6.1Para cada uno de los nodos habrá que estudiar después de la implantación
de las puertas traseras:
cuántos de los ataques han tenido éxito. Es decir, han pasado por todas las
fases y han logrado su objetivo final. Se calcula como el número de ataques
con éxito entre el número total de ataques.
cuántos de ellos han tenido un éxito parcial. Se entiende por éxito parcial
cuando no se llega a la última fase pero se ha transitado por las fases
previas. Se calcula como el número de ataques con éxito parcial entre el
número total de ataques. Caracteriza la presencia de un ataque en un
sistema. Si el número de ataques con éxito parcial es mayor o igual que el
número de ataques con éxito entonces la probabilidad de los parciales es
también mayor.
cuánto tiempo han empleado los atacantes en cada una de las
fases.Teniendo los tiempos empleados en las fases T1 a Tn. El tiempo
acumulativo hasta cada fase será la suma de todos los tiempos desde la
primera a la correspondiente fase. La media será ese número dividido por
el tiempo total que se ha dedicado a esa fase. Incrementar el tiempo que
un ataque emplea en sus fases preparatorias así como el cambio de tiempo
gastado en las fases tempranas.
Cuánto ha durado un ataque exitoso. Se corresponde con el tiempo que ha
sido consumido para ejecutar desde la primera fase hasta la última. El
tiempo medio de tiempo de ejecución de un ataque es igual a la suma de
los distintos ataques dentro de cada fase dentro de los que han sido
exitosos. El efecto de las defensas puede ser observado mediante la
comprensión o expansión de este tiempo frente a una línea de tiempos
nominal de un ataque.
Página | 11
DDE V 3.2
28/11/2012
MINISTERIO DE DEFENSA
OBJ 7.
Evaluar el comportamiento de los sistemas CIS tácticos del Ejército frente a
ataques DDoS.
Este objetivo se articula en el siguiente EEA:
EEA # 7.1
Evaluación de la capacidad de recuperación del sistema frente a desastres y
perturbaciones después de ataques DDoS.
Tabla 7 Elemento Esencial de Análisis del Objetivo 7.
EEA#7.1 Habrá que medir el impacto del ataque en el sistema atacado. Cuánto
tiempo de inactividad le ha provocado y, por otra parte, el tiempo que ha
empleado en atacante para producir ese desastre.
OBJ 8.
Comprobar el incremento del nivel de seguridad tras la implantación de medidas
de seguridad en los sistemas.
Este objetivo se articula en el siguiente EEAs:
EEA # 8.1
Superficie efectiva de ataque.
EEA # 8.2
Tipos de puertos abiertos.
EEA # 8.3
Vulnerabilidades detectadas de nivel ALTO por cada máquina virtual que
compone un nodo mediante la herramienta Nessus.
EEA # 8.6
Vulnerabilidades detectadas de nivel MEDIO por cada máquina virtual
que compone un nodo mediante la herramienta Nessus.
Vulnerabilidades detectadas de nivel BAJO por cada máquina virtual que
compone un nodo mediante la Herramienta Nessus.
Detección de ataques.
EEA # 8.7
Efectividad de los ataques
EEA # 8.4
EEA # 8.5
EEA # 8.8
EEA # 8.9
EEA # 8.10
EEA # 8.11
Evaluación de la capacidad de recuperación del sistema frente a desastres
y perturbaciones.
Número de ataques identificados por sistema para conseguir un registro
válido y un análisis forense significativo.
Efectividad de los ataques - Número de accesos exitosos en los sistemas
de destino desde el comienzo hasta el final del ejercicio.
Evaluación de la capacidad de recuperación del sistema frente a desastres
y perturbaciones después de ataques DDoS.
Tabla 8 Elemento Esencial de Análisis del Objetivo 8.
5. METODOLOGÍAS.
5.1. Metodología del Evento.
La metodología que se seguirá en el evento constará para cada una de las fases definidas
en el apartado de los siguientes pasos:
 Reconocimiento. Recopilación de información de todos los nodos objetivo de la red.
Esta fase dado que se estáen un entorno conocidose dará por realizada.
 Mapeo de RED. Descubrimiento de red e identificación de Servicios y Sistemas
Operativos. Herramientas a emplear:
Página | 12
DDE V 3.2
28/11/2012
MINISTERIO DE DEFENSA
 Znmap.
 Análisis de vulnerabilidades. Obtener vulnerabilidades explotables de cada uno de
los nodos de la red.
 Nessus.
 OpenVas.
 Proceso de Ataque.Ejecutar los exploits adecuados para hacerse con el control de las
máquinas con vulnerabilidades explotables. Si es necesario realizar escalada de
privilegios, mediante herramientas de craqueo de contraseñas.
 Backtrack: armitage, canvas.
 CoreImpact.
 Appliance de S21SEC.
 Herramienta de craqueo de contraseñas.
 Instalación de puestas traseras en las máquinas comprometidas. Esta fase se
considera como objetivo, dependiente de la viabilidad de obtener un malware de
este tipo.
 Ataques DDoS.

Herramienta IS LOIC o similar.
Reconocimiento
Mapeo
de RED
Análisis de
Vulnerabilidades
Proceso
de
Ataque
Instalación
de puertas
traseras
Ataques
DDoS
Figura 2. Metodología.
Al final de cada fase del evento se realizará un experimento tipo discusión dirigidadebido a
que son especialmente útiles tanto para explorar nuevos matices o aspectos derivados de
una solución, como para analizarla y descomponerla. Unadiscusióndirigidanoes más que
un intercambio de ideas, en el que los participantes exponen sus puntos de vista dirigidos
por unmoderadorconelfindedescubrir en grupo nuevas soluciones o analizar las existentes,
dentro del problema planteado.
La discusión es observada por elEquipo de Control que, de acuerdo a un Plan establecido
de Análisis y Recolección de Datos (DCAP), captura los datos pertinentes.
Página | 13
DDE V 3.2
28/11/2012
MINISTERIO DE DEFENSA
NODO-7
PLATAFORMA ATAQUE
INNOTEC
AMPLIANCE
(192.168.7.6-7)
ITM
CORE IMPACT
ATCVM-44
(192.168.7.4)
S21SEC
AMPLIANCE
(192.168.7.5)
IS LOIC
ATCVM-43
(192.168.7.3)
UNIVERSIDAD
GRANADA
TUNEL VPN
Router Virtual
ROUVM-7
(192.168.7.1)
ITM
BACKTRACK 5.2
ATCVM-42
(192.168.7.2)
Figura 3. Plataforma de ataque.
En el Anexo A se detalla la Arquitectura delEvento y el detalle de los escenarios
para las distintas fases del experimento.
En el Anexo B se especifican la organización y los recursos necesarios para la
celebración del Evento.
En el Anexo C se encuentra planificada la agenda del Evento.
6. ESCENARIO
6.1. Generalidades
El término Escenario se define como una descripción del área, entorno, medios, objetivos y
acontecimientos relacionados con el conflicto o crisis, durante un periodo de tiempo
adecuado para el estudio satisfactorio de los objetivos a alcanzar. Conforme a lo anterior
se definen dos tipos de escenario:
Escenario lógico de pruebas. Se define de forma detallada el escenario CIS en el
que se va a realizar el experimento en cada una de las dos fases.
Este escenario estará compuesto por la descripción de los distintos sistemas y
nodos dispuestos para entrar en acción. En la Figura 4 y Figura 5 se pueden
visualizar estos escenarios.
Además se dispone de una “puesta en escena” de este despliegue de sistemas que
queda apoyado por la Figura 3 y la siguiente descripción.
“Ante la situación de crisis extrema en el país de RWENZORILAND, con una sangrienta
guerra civil donde se suceden continuas violaciones de los derechos humanos, la
comunidad internacional reacciona y acuerda intervenir. Pese al bloqueo inicial de toda
iniciativa por parte de uno de los países con derecho a veto, BIASLAND, finalmente éste
acepta y el Consejo de Seguridad de las Naciones Unidas emite una resolución
autorizando el envío y despliegue de una fuerza multinacional RWESAF bajo paraguas
de la OTAN, que detenga la extrema violencia y el incontable número diario de
muertes. Esta fuerza multinacional, deberá actuar en todo el espectro de las
operaciones para lo cual se considera clave su cohesión e interoperabilidad para
Página | 14
DDE V 3.2
28/11/2012
MINISTERIO DE DEFENSA
alcanzar la situación final deseada, -detenida la violencia y acuerdos de paz y transición
política alcanzados-.
Una de las agrupaciones tácticas de entidad Brigada, es liderada por España. A ella se
subordinan, entre otras, un batallón del país LAZYLAND desplegado al SW de la base
principal de la provincia de responsabilidad española -PSB-, que además destaca un
combat outpost –COP East- al SE.
RWESAF acuerda desplegar una red federada de misión donde interoperen todas las
partes interesadas; naciones que contribuyen con tropas, tanto pertenecientes a la
OTAN como no, la nación anfitriona, y algunas agencias y organizaciones no
gubernamentales, que permita establecer y mantener una visión común sobre el
entorno operativo accediendo a un intercambio de información eficaz. Esta red se basa
en el compromiso, la confianza mutua y la voluntad de las naciones para asegurar el
ejercicio del mando y control C2.
En este escenario, BIASLAND permanece poco a favor del despliegue aliado y decide
lanzar una campaña encubierta de actividades en el ciberespacio contra RWESAF. Para
ello, BIASLAND aprovecha dos elementos fundamentales; en primer lugar, sus
tradicionales influencias político-estratégicas sobre LAZYLAND , y en segundo lugar, el
desinterés para cumplimentar las directivas sobre ciberdefensa que ha dictado
COMRWESAF, por parte de LAZYLAND.
Así, fuentes de inteligencia de RWESAF aseguran disponer de información certera de
que LAZYLAND está descuidando totalmente la seguridad en sus enlaces con una de las
ONGs presentes en ZO procedente de BIASLAND, y de que en la red interna de la COPEast, los CIS se están empleando, compartiendo conexiones de banda ancha a Internet
mediante un proveedor comercial externo, para descargas masivas de archivos,
videoconferencias particulares e incluso acciones fraudulentas de algunos de sus
miembros relacionadas con el tráfico ilegal de drogas y armas.”
Figura 4. Escenario de Contexto.
Área de pruebas. Distribución en los diversos locales del Área de los equipos que
van a participar en el experimento. Se plantean tres áreas:
 Área Seguridad. Albergará al equipo de Análisis y Ataque.
 Área Discusiones. Sala para realizar los experimentos tipo discusión dirigida.
 Área Participantes. Albergará al equipo de Participantes.
6.2. Consideraciones sobre el escenario
Página | 15
DDE V 3.2
28/11/2012
MINISTERIO DE DEFENSA
Previamente al inicio de cada fase del evento se ha de comprobar el funcionamiento
conjunto de todos los sistemas CIS tácticos desplegados en el evento.
Los sistemas CIS tácticos seguirán la secuencia de ejecución que se describe en el Anexo F.
Los escenarios deben cumplir dos requisitos: validez y credibilidad. La validez se refiere a
la habilidad del escenario para representar correctamente todos los factores, ambiente
(red táctica) y relaciones que sustentan el modelo conceptual del experimento. La
credibilidad se relaciona con la aceptación del mismo por la comunidad de profesionales
involucrados en el experimento: actores, investigadores y mandos responsables apoyados.
Se ha diseñado un escenario para cada una de las fases del experimento. Su diagrama
lógico se representa en las siguientes figuras.
Figura 5. Escenario lógico de la Fase 1.
Página | 16
DDE V 3.2
28/11/2012
MINISTERIO DE DEFENSA
Figura 6. Escenario lógico de la Fase 2.
En el Anexo A se detallan los escenarios anteriormente mostrados para cada una de las
fases.
7. EVALUACIÓN DE RIESGOS.
7.1. Generalidades.
Durante todas las fases del experimento, desde su planeamiento hasta su análisis, existen
una serie de riesgos que pueden poner en peligro la validez del experimento. La presencia
de estos riesgos debe ser siempre tenida en cuenta y, por tanto, es fundamental planear
medidas orientadas a mitigarlos.
Para cada uno de los riesgos se debe valorar cuál es su relevancia en el experimento y el
nivel de riesgo que representa.
En el Anexo D se establece la matriz de evaluación de riesgos para el evento, en la que se
detalla la relevancia o impacto correspondiente, su nivel y las medidas a adoptar para
mitigar el riesgo pertinente (Plan de Mitigación de Riesgos).
7.2. Riesgos del evento.
Los principales riesgos del evento son:
Falta de conocimiento del Concepto por parte de los participantes.
Los participantes provienen de diferentes organizaciones y tendrán diferente
formación y experiencia en Ciberdefensa. Para mitigar este riesgo durante la MPC
se efectuará un repaso/conferencia sobre el Concepto de Ciberdefensa.
Página | 17
DDE V 3.2
28/11/2012
MINISTERIO DE DEFENSA
Diferente motivación o ideas preconcebidas por parte de los participantes.
Los participantes provienen de diferentes organizaciones y no solamente tendrán
diferente formación y experiencia en Ciberdefensa, sino que presentarán diferente
motivación a la hora de participar. Para mitigar este riesgo el Equipo de Análisis
deberá de tener presente en todo momento la motivación e ideas preconcebidas
de los diferentes participantes.
Disponibilidad de los sistemas C2.
Para minimizar este riesgo se realizará con una antelación del más de un mes a la
fecha de celebración del evento la petición de los diferentes sistemas alos
organismos responsables.
Disponibilidad del sistema Gesta.
Para minimizar este riesgo se pedirá apoyo al Regimiento de Guerra Electrónica 31
para realizar la instalación del mismo en una plataforma virtual.
Interoperabilidad entre los diferentes sistemas C2.
Sistemas no interoperables a través del COE por cambios de versiones. Se utilizará
la herramienta Integra desarrollada en el Área TICS del ITM.
Los indicadores no son representativos.
En las pruebas previstas, que los indicadores escogidos no sirvan para dar
respuesta a los EEA. Se mitigará a través del análisis exhaustivo de los datos
guardados automáticamente.
Plazos de montaje del experimento.
No alcanzar las fechas previstas para el experimento con los escenarios propuestos
montados. Implicar a más personal del Área TICS del ITM en su montaje.
8. PLAN DE RECOGIDA Y ANÁLISISDE DATOS.
Además de las métricas y los escenarios hay que elaborar los Planes de captura o
recolección de datos y el de análisis de los mismos.
Estas dos tareas están fuertemente ligadas puesto que el análisis está siempre limitado a
los datos que se hayan recopilado.
Por otra parte debe tenerse en cuenta la instrucción de los recolectores de datos que se
deben asegurar que los datos para el experimento sean aquellos que los analistas esperan
y que las diferencias no previstas (anomalías) deben ser identificadas y registradas para
que, o bien el proceso de análisis pueda compensarlas, o bien los datos contaminados
puedan ser borrados.
Estos dos planes son vitales porque se encuentran en el corazón de la experimentación.
Asegurando que se capturan datos fiables y válidos y que el análisis acomete los asuntos
clave del experimento así como que los datos estén disponibles y la información sea
entendida y explotada por completo no sea desaprovechada.
En el Anexo E se encuentra detallado el Plan de Recogida y Análisis de Datos.
8.1. Relación entre el Plan de Análisis y el Plan de Recogida de Datos.
Página | 18
DDE V 3.2
28/11/2012
MINISTERIO DE DEFENSA
El propósito fundamental del Plan de Recolección de datos es alimentar el Plan de Análisis.
El proceso de trabajo debe comenzar con un Plan de Análisis de los Datos para determinar
cómo los asuntos a estudiar van a ser abordados con los datos generados para el
experimento. Por tanto, se puede entender que el Plan de Recogida de Datos actúa como
suministrador del Plan de Análisis que actúa como consumidor de los mismos.
Una vez asumida la necesidad de considerar los requisitos del análisis primero, la realidad
es que los factores prácticos (acceso, minimizar la interferencia, clasificación,...) pueden
limitar lo que puede ser realmente recopilado en un experimento. Por lo tanto, aunque el
análisis debe ser posicionado en primer lugar, el desarrollo de los dos planes debe ser
iterativo y continuo.
El propósito del plan de recolección de datos debe ser proporcionar lo que se necesita en
el Plan de Análisis. Perder de vista este principio siempre conlleva al mismo problema que
consiste en recopilar los datos que son fáciles de conseguir en lugar de los que son
necesarios para un experimento válido que contribuya al crecimiento del conocimiento.
Finalmente, el equipo de experimentación necesita recordar que ninguno de estos planes
es un fin en sí mismo. Ambos son instrumentos para la consecución de los objetivos
globales del experimento. Como tales, están sujetos y deben ceñirse al resto del Plan de
Experimentación.
El Plan de Recolección de datos debe estar coordinado con los escenarios, las pre-pruebas,
el plan de formación para los recolectores y los sistemas usados para archivar los datos y la
información.
El Plan de Análisis debe estar organizado desde el principio hasta el final, desde la
depuración en las pre-pruebas hasta el análisis y modelado post-experimento.
8.2. Plan de Análisis de Datos.
El Análisis es el proceso de aprender lo que se quiere saber desde lo que ya se sabe o se
tiene la posibilidad de conocer. Es una parte crucial de cualquier experimento. Organizar
los resultados de la experimentación e integrarlos con el conocimiento existente para
generar conocimiento nuevo y válido es el reto analítico.
El Plan de Análisis toma su forma del modelo conceptual subyacente del experimento.
Las medidas específicas son importantes porque proporcionan información acerca del
nivel de medida (nominal, ordinal, intervalo o ratio) disponible para cada variable de
interés. Estos niveles de medida, en su momento, ayudarán a determinar la técnica
analítica adecuada a ser aplicada. Los otros factores clave necesarios para seleccionar la
técnica más adecuada son el número de observaciones o puntos de datos independientes
para cada variable.
El Análisis normalmente se organiza en tres fases:
Análisis descriptivo de las variables individuales
Análisis bivariable de relaciones
Análisis multivariable de patrones mayores.
8.3. Plan de Recolección de Datos
Página | 19
DDE V 3.2
28/11/2012
MINISTERIO DE DEFENSA
El Plan de Recolección de datos incluye todas las variables a ser recopiladas, todos los
lugares donde han de ser capturadas, todos los medios de captura de los datos y todos los
sitios donde los datos serán almacenados para su proceso. Esto requerirá ser recogido en
un documento principal donde se incorporará tanto la filosofía general a ser usada como
los detalles necesarios para la implementación.
Un plan de recolección de datos de alta calidad también especifica el soporte requerido, la
formación necesaria, los estándares competentes a los que alinearse, el enfoque al control
de la calidad, cómo los datos serán archivados para asegurar su integridad y el proceso por
el cual los conjuntos de datos serán reducidos de su estado más tosco para crear conjuntos
de variables ideadas desde el Plan de Análisis y ensambladas para un análisis eficiente.
Este plan tampoco es un fin en sí mismo sino más bien un medio para asegurar que el
proceso de recolección de datos está organizado para conseguir el éxito y entendimiento
de todos aquellos que necesitan apoyar el esfuerzo.
La creación del plan de recolección de datos puede ser ideado como una tarea secuencial,
aunque se probará que realmente es iterativa porque está muy fuertemente ligada con los
objetivos del experimento, el escenario, los espacios físicos disponibles para el
experimento, los sistemas a ser empleados para soportar el experimento, y otros factores
que probablemente cambiarán desde la fase inicial del concepto a través de la fase de prepruebas.
Los pasos clave en este proceso serán:
Especificación de las variables a ser recopiladas.
Identificación de los mecanismos de recolección para cada variable.
Aseguramiento del acceso para recolectar cada variable.
Especificación del número de observaciones necesarias para cada variable y
comprobación de que efectivamente son generadas.
Identificación de la formación para asegurar la calidad de la recolección de los
datos.
Especificación de los mecanismos para capturar y archivar los datos.
Definición de los procesos necesarios para la reducción de los datos y su posterior
ensamblado.
Los tipos de mecanismos de recolección usados en los experimentos normalmente son:
Recolección automática
Registro para una posterior reducción
Encuestas
Pruebas de Conceptos
Observación humana
Cada una de ellas tiene su uso particular, fortalezas, debilidades y factores que necesitan
ser considerados cuando sean empleadas.
Página | 20
DDE V 3.2
28/11/2012
MINISTERIO DE DEFENSA
9. ANEXO A: ARQUITECTURA DEL EVENTO. DIAGRAMAS.
La arquitectura técnica es la combinación global de los siguientes elementos usados para
soportar el experimento: sistemas de comunicación, sistemas de información de soporte,
redes, plan de trabajo, bases de datos, modelos y simulaciones.
Los dos retos más importantes para el equipo técnico son definir los requisitos para los
desarrolladores del concepto y para los diseñadores del experimento y después integrar
los distintos sistemas en un entorno de trabajo del experimento. El concepto del
experimento requerirá frecuentemente un sistema que emule la futura capacidad.
Los diseñadores pueden identificar o desarrollar una simulación o herramienta que
proporcione esta capacidad. Normalmente, el equipo técnico también será el
implementador de un conjunto de sistemas o herramientas que proporcionen una
maqueta para la operación de unos cuarteles generales. Herramientas como JSAF pueden
ser también utilizadas para simular las fuerzas aliadas, enemigas o neutrales y esta
información podría ser suministrada a las herramientas que soportan los cuarteles
generales a través de los interfaces C4I. El equipo técnico tendrá normalmente la mayor
carga de trabajo en el experimento. Además, este equipo requiere de los diseñadores del
experimento un plan y unos objetivos claros lo antes posible.Tal y como se ha discutido
previamente, el asunto a estudiar debe ser establecido de forma temprana y en un nivel
suficientemente detallado. Por tanto, los Expertos en la Materia deben trabajar
estrechamente con los desarrolladores técnicos para compartir su visión detallada del
asunto a estudiar y que de esa forma puedan representarlo adecuadamente. El equipo
técnico debería identificar áreas de riesgo en sus programas pronto y comunicar las fechas
límite a los diseñadores, moviendo herramientas u otros componentes al experimento
después de la MPC.
Finalmente para cada experimento, debe existir un proceso bien construido de
integración, pruebas y verificación de los componentes de la arquitectura técnica. Este
proceso debe ser bien gestionado usando un enfoque gradual construyendo desde las
pruebas de los elementos individuales a través de la realización del sistema completo en
viñetas del escenario.
Los desarrolladores del concepto y otros expertos en la materia deben participar en el
proceso de pruebas para verificar que los resultados generados dentro de la arquitectura
técnica representan adecuadamente el estado actual del asunto bajo investigación. Esto
debe ser realizado y documentado adecuadamente de tal forma que los analistas
entiendan las fortalezas y debilidades de la arquitectura técnica y puedan delimitar sus
análisis adecuadamente.
A continuación se muestran los distintos diagramas que representan la arquitectura
técnica del experimento. En primer lugar, una visión global de toda la infraestructura a
desplegar. Seguidamente el detalle de cada nodo representado en el diagrama general
tanto en la Fase 1 como en la Fase 2.
Página | 21
DDE V 3.2
28/11/2012
MINISTERIO DE DEFENSA
Red WAN
NODO-4
PC GRUPO ART.
CD&E CIBERDEFENSA
RED WAN v2.01
Router
Virtual
ROUVM-4
Router
Virtual
ROUVM-3
192.168.50.5/30
192.168.4.0/24
192.168.50.6/30
NODO-3
PC BRIGADA
SIMACET GU
EDC GESTA
192.168.3.0/24
192.168.51.5/30
192.168.50.65/30
192.168.51.1/30
NODO-1
NODO TACOMS
RRC
Simulador WAN
WANVM-1
Router
FISICO
ROUFIS-1
192.168.51.6/30
192.168.51.9/30
192.168.51.2/30
192.168.51.10/30
192.168.51.14/30
192.168.51.26/30
NODO-7
PLATAFORMA
ATAQUE
192.168.50.58/30
192.168.50.30/30
192.168.51.30/30
Router Virtual
ROUVM-7
(192.168.7.1)
ROUTER
CENTRAL
ROUVM-12
192.168.51.13/30
192.168.51.18/30
192.168.50.57/30
192.168.50.61/30
192.168.51.22/30
192.168.51.25/30
Router
Virtual
ROUVM-2
192.168.7.0/24
NODO-2
PC BON
SIMACET PU
192.168.2.0/24
192.168.51.29/30
NODO-8
Monitorización
Gestión
Router Virtual
ROUVM-8
(192.168.8.1)
192.168.8.0/24
RED WAN
MAQUINAS VIRTUALES
Símbolo
192.168.51.21/30
Total
Descripción
4
WANEM
1
ROUTER WAN
7
ROUTER
NODO
192.168.50.29/30
NODO-6
PC CIA
FFT
Router
Virtual
ROUVM-6
192.168.6.0/24
192.168.51.17/30
192.168.50.66/30
Router
Virtual
ROUVM-5
NODO-5
PC CIA
COMFUT
192.168.5.0/24
Figura 7. Red WAN.
Nodo 1: PC brigada
 Fase1
NODO-1 PC BRIGADA
12.12.12.X/24
QUORUM
Monitorización
Gestión
28.28.28.X/24
FAILOVER
TCPDUMP/NFSEM
WIRWSARK
MONVM-19
192.168.1.8
COE
PC BON EW
(SERVIDOR EDC)
GESVM-14
192.168.1.3
SIMACET GU
SERVIDOR-2
SIMVM-13
192.168.1.2
SIMACET GU
QUORUM
192.168.1.3
SERVIDOR LOG
(OSSIM)
MONVM-18
192.168.1.7
SIMACET GU
SERVIDOR-1
SIMVM-13
192.168.1.1
INTEGRA-1
(INTERFAZ NFFI)
INTVM-15
192.168.1.105
SWITCH
SWVM-18
INTEGRA-2
(INTERFAZ NFFI)
INTVM-15
192.168.1.106
SIMACET GU
COE
(192.168.1.101)
SIMACET GU
DC2
192.168.1.29
SIMACET GU
DC1
192.168.1.28
SIMACET GU
NAS
192.168.1.30
CLIENTE EDC
GESTA
GESVM-16
DHCP
CLIENTE SIMACET
(ESCORPIO)
SIMVM-17
DHCP
Router Virtual
ROUVM-1
192.168.1.50
PC BRIGADA
MAQUINAS VIRTUALES
Símbolo
Total
Descripción
2
PC
6
Servidor
1
Switch
3
Servidor
Monitorización
1
Servidor de
archivos
2
Servidor de
directorios
Figura 8. Nodo 1 PC Brigada Fase 1.
Página | 22
DDE V 3.2
28/11/2012
MINISTERIO DE DEFENSA
 Fase 2
NODO-3 PC BRIGADA (SECURIZADO)
12.12.12.X/24
QUORUM
pliance®
orkA
etw
N
28.28.28.X/24
FAILOVER
Monitorizacion
CERT-ET DESPLEGABLE
COE
PC BON EW
(SERVIDOR EDC)
GESVM-14
192.168.1.3
SIMACET GU
SERVIDOR-2
SIMVM-13
192.168.1.2
SIMACET GU
QUORUM
192.168.1.3
Monitorización
Gestión
TCPDUMP/NFSEM
WIRWSARK
MONVM-19
192.168.1.8
SERVIDOR LOG
(OSSIM)
MONVM-18
192.168.1.7
SIMACET GU
SERVIDOR-1
SIMVM-13
192.168.1.1
INTEGRA-1
(INTERFAZ NFFI)
INTVM-15
192.168.1.105
SWITCH
SWVM-18
PC BRIGADA
MAQUINAS VIRTUALES
INTEGRA-2
(INTERFAZ NFFI)
INTVM-15
192.168.1.106
SIMACET GU
COE
(192.168.1.101)
Símbolo
IPS
SIMACET GU
DC2
192.168.1.29
SIMACET GU
DC1
192.168.1.28
SIMACET GU
NAS
192.168.1.30
CLIENTE EDC
GESTA
GESVM-16
DHCP
Router Virtual
ROUVM-1
192.168.1.50
CLIENTE SIMACET
(ESCORPIO)
SIMVM-17
DHCP
Total
Descripción
2
PC
6
Servidor
1
Switch
3
Servidor
Monitorización
1
Servidor de
archivos
2
Servidor de
directorios
Figura 9. Nodo 1 PC Brigada Fase 2.
Nodos 2-4-5-6
 Fase1
NODO-2 PC BON
NODO-4
PC GRUPO ART.
CLIENTE TALOS
TALVM-24
(192.168.4.3)
TALOS
12.12.12.X/24
QUORUM
Monitorización
TCPDUMP/NFSEM
WIRWSARK
MONVM-33
192.168.4.4
Cliente NFFI
COE
Monitorización
Gestión
Gestión
SERVIDOR LOG
(OSSIM)
MONVM-34
192.168.4.5
SIMACET GU
SERVIDOR-2
SIMVM-13
192.168.2.2
SIMACET GU
QUORUM
192.168.2.3
SWITCH
SWVM-26
FSE TALOS
TALVM-25
(192.168.4.2)
SEC. MORTEROS
TALVM-25
(192.168.4.2)
FDC
(192.168.4.6)
SIMACET GU
DC2
192.168.2.29
OAV
(192.168.4.7)
NODO-6 CIA
FFT
FFTVM-30
(192.168.6.3)
FFT
FFTVM-31
(192.168.6.2)
SWITCH
SWVM-18
SERVIDOR LOG
(OSSIM)
MONVM-18
192.168.1.7
SIMACET GU
DC1
192.168.2.28
SIMACET GU
NAS
192.168.2.30
CLIENTE EDC
GESTA
GESVM-16
DHCP
NODO-5 CIA
Monitorización
Gestión
TCPDUMP/NFSEM
WIRWSARK
MONVM-40
192.168.6.4
FFT
SWITCH
SWVM-32
TCPDUMP/NFSEM
WIRWSARK
MONVM-19
192.168.1.8
SIMACET GU
SERVIDOR-1
SIMVM-13
192.168.2.1
SIMACET GU
COE
(192.168.2.101)
Router Virtual
ROUVM-2
(192.168.4.1)
CO
(192.168.4.4)
28.28.28.X/24
FAILOVER
Monitorización
Gestión
TCPDUMP/NFSEM
WIRWSARK
MONVM-37
192.168.5.4
SERVIDOR LOG
(OSSIM)
MONVM-41
192.168.6.5
SERVIDOR LOG
(OSSIM)
MONVM-38
192.168.5.5
Figura 10.
Router Virtual
ROUVM-1
192.168.2.50
COMFUT
COMFUT
CONVM-27
(192.168.5.2)
SWITCH
SWVM-29
Router Virtual
ROUVM-5
(192.168.5.1)
Router Virtual
ROUVM-6
(192.168.6.1)
CLIENTE SIMACET
(ESCORPIO)
SIMVM-17
DHCP
COMFUT
CONVM-28
(192.168.5.3)
Nodos 2-4-5-6 Fase 1.
Página | 23
DDE V 3.2
28/11/2012
MINISTERIO DE DEFENSA
 Fase 2
NODO-2 PC BON
NODO-4
PC GRUPO ART.
CLIENTE TALOS
TALVM-24
(192.168.4.3)
TALOS
12.12.12.X/24
QUORUM
Monitorización
Cliente NFFI
COE
Monitorización
Gestión
Gestión
SERVIDOR LOG
(OSSIM)
MONVM-34
192.168.4.5
SIMACET GU
SERVIDOR-2
SIMVM-13
192.168.2.2
SIMACET GU
QUORUM
192.168.2.3
SWITCH
SWVM-26
FSE TALOS
TALVM-25
(192.168.4.2)
IPS
TCPDUMP/NFSEM
WIRWSARK
MONVM-19
192.168.1.8
SIMACET GU
SERVIDOR-1
SIMVM-13
192.168.2.1
SWITCH
SWVM-18
SERVIDOR LOG
(OSSIM)
MONVM-18
192.168.1.7
SIMACET GU
COE
(192.168.2.101)
Router Virtual
ROUVM-2
(192.168.4.1)
IPS
SEC. MORTEROS
TALVM-25
(192.168.4.2)
CO
(192.168.4.4)
FDC
(192.168.4.6)
SIMACET GU
DC2
192.168.2.29
OAV
(192.168.4.7)
NODO-6 CIA
SIMACET GU
NAS
192.168.2.30
NODO-5 CIA
SWITCH
SWVM-32
FFT
FFTVM-31
(192.168.6.2)
SIMACET GU
DC1
192.168.2.28
Monitorización
Gestión
TCPDUMP/NFSEM
Monitorización
Gestión
TCPDUMP/NFSEM
WIRWSARK
MONVM-40
192.168.6.4
FFT
FFT
FFTVM-30
(192.168.6.3)
28.28.28.X/24
FAILOVER
TCPDUMP/NFSEM
WIRWSARK
MONVM-33
192.168.4.4
WIRWSARK
MONVM-37
192.168.5.4
SERVIDOR LOG
(OSSIM)
MONVM-38
192.168.5.5
SERVIDOR LOG
(OSSIM)
MONVM-41
192.168.6.5
Router Virtual
ROUVM-6
(192.168.6.1)
CLIENTE EDC
GESTA
GESVM-16
DHCP
Figura 11.
Router Virtual
ROUVM-1
192.168.2.50
COMFUT
COMFUT
CONVM-27
(192.168.5.2)
SWITCH
SWVM-29
Router Virtual
ROUVM-5
IPS (192.168.5.1)
IPS
CLIENTE SIMACET
(ESCORPIO)
SIMVM-17
DHCP
COMFUT
CONVM-28
(192.168.5.3)
Nodos 2-4-5-6 Fase 2.
Nodo 7-8
Página | 24
DDE V 3.2
28/11/2012
MINISTERIO DE DEFENSA
NODO-7
PLATAFORMA ATAQUE
INNOTEC
AMPLIANCE
(192.168.7.6-7)
ITM
CORE IMPACT
ATCVM-44
(192.168.7.4)
S21SEC
AMPLIANCE
(192.168.7.5)
IS LOIC
ATCVM-43
(192.168.7.3)
UNIVERSIDAD
GRANADA
TUNEL VPN
Router Virtual
ROUVM-7
(192.168.7.1)
ITM
BACKTRACK 5.2
ATCVM-42
(192.168.7.2)
Leyenda
Subtítulo de leyenda
Símbolo
NODO-8
Monitorización Gestión
TCPDUMP/NFSEM
WIRWSARK
192.168.8.2
Total
Descripción
5
PC
4
Servidor de
base de datos
2
Switch
1
Nube
Almacenamiento
SERVIDOR LOG
(OSSIM)
192.168.8.3
NETFLOW
192.168.8.3
Router Virtual
ROUVM-9
(192.168.800.1)
Figura 12.
Página | 25
Nodos 7-8.
DDE V 3.2
28/11/2012
MINISTERIO DE DEFENSA
10. ANEXO B: ORGANIZACIÓN Y RECURSOS NECESARIOS.
Organización Del Evento
El personal asistente a las pruebas se organizará en los siguientes equipos o grupos de
trabajo:
 Dirección: tendrá como misión la verificación y comprobación del correcto desarrollo y
realización de las pruebas del evento. Estará formado por un representante del
MADOC y dos del ITM.
 Equipo de Control: tendrá como misión la de llevar el control y dirección de las
pruebas, la comprobación y verificación de su correcta superación y control de los
medios de apoyo asignados. De este equipo dependerán todos los equipos que
integran las pruebas. El control y dirección de las pruebas será ejercido por personal de
ITM y MADOC.
 Equipo de participantes: tendrá como misión la operación y control de los sistemas CIS
involucrados en las pruebas. Dispondrá de tres equipos: sistemas C2, administración
de seguridad y CERT.
 Equipo de Seguridad: tendrá como misión la operación y control de los sistemas de
seguridad. Dispondrá de dos equipos, uno de análisis y otro de ejecución.
 Equipo de Observadores: su misión será participar en la discusión dirigida en base a lo
observado durante la realización de las pruebas.
DISEÑ0
DIRECCION
CONTROL
SEGURIDAD
OBSERVADORES
ANALISIS
PARTICIPANTES
SISTEMAS C2
ADMON
EJECUCION
SEGURIDAD
CERT
Figura 13.
Organización del evento.
Página | 26
DDE V 3.2
28/11/2012
MINISTERIO DE DEFENSA
Recursos Humanos
UNIDAD/ORGANISMO
MADOC
EME DIVOPE / SEC. CIS
JCISAT
FUTER / BRITRANS
DIMA / PCMHS
ITM
Centro de Investigación
de Tecnologías de la
Información
yComunicaciones (CITIC)
de la Universidad de
Granada
S21SEC
PARTICIPACIÓN
Oficiales (2) realización dirección y control del
experimento.
Oficial (1) representante del Grupo de Trabajo
en el Plande Obtención de la Capacidad de
Ciberdefensa Militar (PACDM)como asesor del
programa.
Oficial representante del ET (1) en el Ejercicio
Multinacional CYBERENDEAVOR para ofrecer
una conferencia sobre el mismo el 19SEP12 en
el Centro Mediterráneo de la Universidad de
Granada y como asesor en el LOE.
Un (1) representante de ARTIC (MC3) como
asesor en el LOE.
Un (1) representante CERT-ET (SEGINFOSIT)
comoasesor en el LOE.
Un (1) Operador del Nodo TACOMS.
Dos(2) operadores de SIMACET.
Un (1) representante del CG BRITRANS -área de
INFOSEC- como asesor del programa.
Un (1) representante del REW-31 como asesor
delprograma.
Un (1) representante del Área de Securización y
Calidadde software para C2 como asesor del
programa
Trece (13) personas para el diseño, control y
ejecución del experimento.
Colaboración en el LOE como parte del
escenario, representando a una hipotética
organización civildesplegada en ZO.
Colaboración en la plataforma de ataque del
escenario.
EQUIPO
Un (1) Dirección
Un (1) Control
Un (1) Observador
Tres (3) Observadores
Tres (3) Participantes
Un (1) Observador
Un (1) __________
Un (1) Observador
Dos (2) Dirección
Un (1) Control
Cinco (5) Seguridad
Cinco (5) Participantes
Participantes
Un (1) Seguridad
Tabla 9 Recursos Humanos
Recursos Materiales
UNIDAD/ORGANISMO
ITM
JCISAT
MATERIAL
Plataforma virtual del Centro Experimentación en
Ciberdefensa.
Nodo TACOMS.
Sistemas Talos, FFT, COMFUT.
Plataforma de ataques.
Equipos virtuales de securización FIREWALL, IPS.
Router y simulador WAN virtuales.
Sistemas de Monitorización.
Nodo TACOMS.
Sistema SIMACET.
CERT.
Página | 27
DDE V 3.2
28/11/2012
MINISTERIO DE DEFENSA
UNIDAD/ORGANISMO
MATERIAL
REWE 31
Sistema GESTA.
S21SEC
Plataforma de Ataque
Universidad Granada
Plataforma civil
Tabla 10 Recursos Materiales.
Página | 28
DDE V 3.2
28/11/2012
MINISTERIO DE DEFENSA
11. ANEXO C: PLANIFICACIÓN.
La planificación para el evento será la mostrada en la siguiente tabla:
FECHA
HORARIO
09:00 - 09:30
MARTES
11 DICIEMBRE
SEGURIDAD
SEGURIDAD/PARTICIPANTES
SEGURIDAD/PARTICIPANTES
TODOS
09:00 - 10:00
PROCESO ATAQUE
SEGURIDAD/PARTICIPANTES
10:00 - 11:00
INSTALACION PUERTAS TRASERAS
SEGURIDAD/PARTICIPANTES
11:00 - 13:00
ATAQUES DDoS
13:00 - 13:45
DISCUSION DIRIGIDA FIN EXPERIMENTO FASE 1
13:45 – 14:00
PUNTO DE CONTROL
09:00 - 13:45
PREPARACION FASE 2 DEL EXPERIMENTO
10:00 - 10:30
VIERNES
14 DICIEMBRE
TODOS
DIRECCION/CONTROL/OBSERVADORES
TODOS
RECEPCIÓN DE VIPS – ENTREGA DOSSIER BIENVENIDA
(BLOQUE 1 - SALA G100)
TEMAS ADMINISTRATIVOS y EXPLICACIÓN DE
ESCENARIO
CAFÉ Y TRASLADO AL BLOQUE 10 – TICS
11:00 - 13:00
EJERCICIO TABLE TOP
13:00 - 13:45
VISITA ÁREAS ITM
13:00 - 13:45
TODOS
SEGURIDAD/PARTICIPANTES
10:30 - 11:00
9:30 - 10:00
JUEVES
13 DICIEMBRE
TICS-ITM
10:30 - 11:30
11:30 - 12:30
12:30 - 13:45
13:45 - 14:00
10:00 - 10:30
09:30 - 10:00
MIÉRCOLES
12 DICIEMBRE
BIENVENIDA GRAL. ITM (SALA G30, EDIFICIO 1)
UNIDAD/EQUIPO
DATOS ADMINISTRATIVOS/
TRASLADO LABORATORIO CIBERDEFENSA (EDIFICIO 10)
PRESENTACION MEDIOS MONITORIZACION Y
PRESENTACION A LOS PARTICIPANTES
COMIENZO EXPERIMENTOFASE 1: MAPEO DE RED
ANALISIS VULNERABILIDADES
PROCESO ATAQUE
PUNTO DE CONTROL
09:30 - 10:00
LUNES
10 DICIEMBRE
ACTIVIDAD
PERSONAL SEGURIDAD ITM
PERSONAL ITM – INVITADOS
PERSONAL ITM – INVITADOS
PERSONAL ITM – INVITADOS
INVITADOS
PERSONAL ITM – INVITADOS
RELLENADO DE CUESTIONARIOS POR PARTE DE LOS
EXPERTOS
SMEs
13:45 – 14:00
PUNTO DE CONTROL
09:00 - 10:00
COMIENZO EXPERIMENTO FASE 2: MAPEO DE RED
10:00 - 12:00
ANALISIS VULNERABILIDADES
SEGURIDAD/PARTICIPANTES
SEGURIDAD/PARTICIPANTES
TODOS
SEGURIDAD
12:00 - 13:45
PROCESO ATAQUE
13:45 – 14:00
PUNTO DE CONTROL
09:00 - 10:00
10:00 - 11:00
11:00 - 13:00
13:00 - 13:50
INSTALACION PUERTAS TRASERAS
SEGURIDAD/PARTICIPANTES
ATAQUES DDoS
SEGURIDAD/PARTICIPANTES
DISCUSION DIRIGIDA FIN EXPERIMENTO FASE 2
DIRECCION/CONTROL/OBSERVADORES
PUNTO DE CONTROL, CONCLUSIONES Y DESPEDIDA
TODOS
Tabla 11 Planificación del Evento
TODOS
Página | 29
DDE V 3.2
28/11/2012
MINISTERIO DE DEFENSA
12. ANEXO D: ANALISIS RIESGOS.
Id. Riesgo
Título
Estado
Descripción
Probabilidad Impacto Criticidad
Fecha
Seguimiento
Acciones de Mitigación
RSK-001
Falta de conocimiento del
Concepto por parte de los
participantes
Abierto Los participantes provienen de diferentes
organizaciones y tendrán diferente formación
y experiencia en Ciberdefensa.
ALTA
BAJO
BAJA
Apertura
04/10/2012
RSK-002
Diferente motivación o
Abierto Los participantes provienen de diferentes
ideas preconcebidas por
organizaciones y no solamente tendrán
parte de los participantes.
diferente formación y experiencia en
Ciberdefensa, sino que presentarán diferente
motivación a la hora de participar
ALTA
BAJO
BAJA
04/10/2012
Equipo de Análisis deberá de
tener presente en todo
momento la motivación e
ideas preconcebidas de los
diferentes participantes
RSK-003
Disponibilidad de los
sistemas C2
Abierto Disponibilidad de todos los sistemas CIS
tácticos del Ejército previstos en el
ejercicio
MEDIA
ALTO
ALTA
04/10/2012
se realizará con una
antelación del más de un
mes a la fecha de
celebración del evento la
petición de los diferentes
sistemas a los organismos
responsables.
RSK-004
Disponibilidad del
sistema Gesta
Interoperabilidad entre
los diferentes sistemas
C2
Los indicadores no son
representativos
Abierto Disponibilidad del Sistema GESTA
MEDIA
ALTO
MEDIA
04/10/2012
Abierto Sistemas no interoperables a través del
COE por cambios de versiones
ALTA
MEDIO
MEDIA
04/10/2012
Abierto En las pruebas previstas, no sirvan para dar
respuesta a los EEA
BAJA
BAJO
BAJA
04/10/2012
Plazos de montaje del
experimento
Cerrado No alcanzar las fechas previstas para el
experimento con los. escenarios propuestos
montadospropuestos montados
BAJA
ALTO
MEDIA
04/10/2012
Perición de apoyo al rewe
31
ITM relizará integración de
sistemas a través de la
herranienta Integra
Se mitigará a través del
análisis exhaustivo de los
datos guardados
automáticamente.
Implicar a mas personal el
Area TICS del ITM en su
montaje
RSK-005
RSK-006
RSK-007
Cierre
Durante la MPC se efectuará
un repaso/conferencia sobre
el Concepto de
Ciberdefensa.
Tabla 12 Matriz de Riesgos.
Página | 1
DDE V 3.2
28/11/2012
MINISTERIO DE DEFENSA
13. ANEXO E: PLAN DE ANÁLISIS Y RECOLECCIÓN DE DATOS
13.1.
Introducción
El plan de análisis y recolección de datos del eventoha sido elaborado a partir de los
objetivos de experimentación definidos en el apartado 4 del cuerpo de este documento.
13.2.
Procedimiento de análisis
En el grupo de seguridad se ha constituido un equipo de análisis y de recogida de datos,
cuya misión será el comprobar el correcto almacenaje de los mismos realizado por las
herramientas de recolección automáticas instaladas en el nodo 8 y en cada uno de los
nodos de los participantes 2-4-5-6 y recoger los informes generados por la diversas
herramientas de análisis de vulnerabilidades, escaneo, etc. Su composición y funciones
específicas se detallan en este documento.
Los análisis a posteriori de los datos almacenados por las herramientas de recolección de
datos serán realizados por la unidad de Seguridad al completo dado el volumen que se
estima de losmismos.
En la discusión dirigida se realizará un análisis de eventos del tipo descubrimiento que
tiene una naturaleza cualitativa y donde se tratan de capturar opiniones e ideas de
expertos en la materia. Ésta es la misión principal del analista supervisor del grupo junto
con los analistas colaboradores.
13.3.
Informes de resultados
Está previsto elevar un informe con las primeras impresiones en la semana siguiente a la
ejecución del evento.
El informe final con las conclusiones del análisis deberá estar entregadofebrerode 2013.
13.4.
Recolección de Datos.
Equipo de análisis
Estará formado por el personal de la Unidad de Seguridad y un miembro de la unidad de
CD&E, pertenecientes al ITM.
Analista supervisor de grupo (1)
Analistas de grupo (3)
Recolectores de datos (1)
A continuación se describe las tareas asignadas a cada miembro del grupo.
Jefe de análisis. Es el encargado de supervisar que las discusiones dirigidas están
encaminadas a recoger los elementos de análisis diseñados y que los métodos de
recogida de datos están funcionando correctamente. El perfil de esta figura es un
analista que haya participado en el diseño del experimento y que conozca bien los
objetivos de análisis.
Analistas. Supervisan la obtención de datos y recomiendan al facilitador/jefe de
análisis cuándo se debe volver a incidir sobre algún objetivo de análisis por falta de
Página | 1
DDE V 0.4
10/10/2012
MINISTERIO DE DEFENSA
datos. Pueden intervenir en las discusiones para solicitar a la audiencia volver a tratar
ideas o soluciones que no hayan quedado suficientemente claras.
Recolectores de datos. Son los encargados de repartiry recoger los cuestionarios en las
discusiones dirigidas.Además durante las discusiones dirigidas tienen que tomar nota
de los datos relevantes que se manifiesten por parte de los participantes expertos en
la materia y que puede servir para arrojar conclusiones importantes del experimento.
Sistema de recolección automática
Para la recolección de datos se tiene previsto el montaje de una infraestructura a nivel
central y local a cada nodo con la suficiente capacidad de almacenamiento en una unidad
de red para que recopile los siguientes tipos de datos:
Tráfico de red. Herramientas Wiresark y TcpDump/Nfsem.
Tráfico de enrutamiento. Netflow.
Eventos de los diferentes sistemas. OSSIM
Así mismo para la realización de análisis forense se haninstalado dos herramientas por
cada nodo:
EnCase.
Autopsy
En las figuras siguientes se muestra la infraestructura local a cada nodo y central:
NODO-8
Monitorización Gestión
TCPDUMP/NFSEM
WIRWSARK
ENCASE
AUTOPSY
192.168.8.2
Almacenamiento
SERVIDOR LOG
(OSSIM)
192.168.8.3
NETFLOW
Router Virtual
ROUVM-9
(192.168.800.1)
192.168.8.3
Figura 14.
Nodo Central de Almacenamiento.
Página | 2
DDE V 3.2
28/11/2012
MINISTERIO DE DEFENSA
Monitorización
TCPDUMP/NFSEM
Gestión
WIRWSARK
ENCASE
AUTOPSY
MONVM-33
192.168.2.4
SERVIDOR LOG
(OSSIM)
MONVM-34
192.168.2.5
Figura 15.
Nodo Local de Almacenamiento.
Sistema de recolección manual
Cuestionarios
El cuestionario se rellenará al finalizar la primera fase del experimento (fase I) y servirá
para obtener datos relevantes acerca de las medidas de seguridad que se están
implementando por parte de los asistentes en sus respectivos destinos.
Este cuestionario tendrá una primera parte demográfica en la que se pretende analizar la
representatividad de la muestra.
Este cuestionario tiene por objetivo recopilar datos estadísticos de los participantes en el
experimento de Ciberdefensa. Esencialmente está diseñado para capturar la experiencia adquirida
en destinos relacionados con seguridad y servirá para proporcionar una valoración cualitativa de la
audiencia del experimento. El cuestionario es anónimo y será tratado como confidencial una vez
completado. Su uso únicamente está autorizado dentro de las actividades relacionadas con el
análisis del evento.
Cuestionario Demográfico
Por favor indique su empleo
1.
2.
3.
a.
b.
c.
d.
e.
f.
g.
CORONEL
TENIENTE CORONEL
COMANDANTE
CAPITÁN
TENIENTE
CIVIL
OTROS
Si la respuesta anterior fue OTROS, indique cual:
¿Cuál es su edad?
Página | 3
DDE V 3.2
28/11/2012
MINISTERIO DE DEFENSA
¿Cuántos años tiene de servicio en las Fuerzas Armadas?
4.
a.
b.
c.
d.
e.
f.
1-5
6-10
11-15
16-20
21-25
Más de 25
¿Cuántos años de experiencia acumula en destinos relacionados con seguridad?
5.
a.
b.
c.
d.
1-3
4-6
7-9
10 ó más
Por favor, indique su destino actual
6.
Indique por favor las redes tácticas y sistemas CIS de la que dispone su organización
7.
La segunda parte se corresponderá con preguntas de tipo Escala de Likert o de texto libre.
Con ellas se pretende recoger un estado de las acciones de ciberseguridad que se están
llevando a cabo en los distintos organismos y por parte de los representantes de éstos en el
experimento y están basadas en una serie de veinte controles críticos definidos por CSIS
(Center forStrategic& Internacional Studies)1.
Este cuestionario tiene por objetivo recoger su opinión con respecto los temas de discusión tratados para
cada escenario que se le presenta. En ellos, normalmente se propondrá una modalidad de apoyo
logístico sobre la que se basan las siguientes preguntas. El cuestionario es anónimo y será tratado como
confidencial una vez completado. Su uso únicamente está autorizado dentro de las actividades
relacionadas con el análisis del evento.
Unas preguntas son de texto libre y otras de elección con múltiples respuestas. Por favor lea atentamente
las preguntas y conteste la opción que considera más ajustada según su experiencia y criterio, de
acuerdo con la escala de graduación que se incluye más abajo. Recuerde que no todos los “1” tienen
connotaciones negativas ni todos los “6” positivas.
1
http://www.sans.org/critical-security-controls/
Página | 4
DDE V 3.2
28/11/2012
MINISTERIO DE DEFENSA
Este cuestionario se circunscribe al plano Táctico y a su interactuación con Redes de Sistemas Tácticos
de Mando y Control y a la red de Propósito General cuando fuese necesario para el desarrollo de
operaciones tanto en Zona de Operaciones como en territorio nacional.
La “organización” en este cuestionario se entiende como aquella que facilita el acceso a los medios
técnicos para interactuar con esos sistemas y, por tanto, la responsable de la relación de usted con
dichos sistemas tácticos C2.
Muy en
desacuerdo
En
desacuerdo
Ligeramente en
desacuerdo
Ligeramente
de acuerdo
De acuerdo
Totalmente de
acuerdo
1
2
3
4
5
6
C
Cuestionario Controles- Capacidades
Realizar un control de los dispositivos disponibles en la
1. red es un primer paso en la seguridad de su
1
2
3
4
5
6
NS/NC
1
2.
Existe un inventario de los dispositivos autorizados para
estar conectados a su red y cuáles no lo deben estar.
1
2
3
4
5
6
NS/NC
1
3.
Se dispone de mecanismos de bloqueo y detección para
los no autorizados.
1
2
3
4
5
6
NS/NC
1
4. nuevos equipos que se pretendan conectar a la red que
1
2
3
4
5
6
NS/NC
1
Existen herramientas en su infraestructura de red que
monitoricen y detecten esta circunstancia.
1
2
3
4
5
6
NS/NC
1
6.
Se debe disponer de un inventario del software
autorizado e instalado en los equipos pertenecientes a
su red
1
2
3
4
5
6
NS/NC
2
7.
Facilitaría las labores de gestión, administración y
mantenimiento de los programas instalados
1
2
3
4
5
6
NS/NC
2
infraestructura TICs
Existen procedimientos de seguridad con respecto a
se pretende controlar.
5.
Página | 5
DDE V 3.2
28/11/2012
MINISTERIO DE DEFENSA
8.
Puede provocar un gran inconveniente para los usuarios
al no poder instalar por su cuenta ninguna aplicación.
1
2
3
4
5
6
NS/NC
2
9.
Existen implementadas herramientas
centralizado de software en su entorno.
1
2
3
4
5
6
NS/NC
2
Su organización tiene implementada una gestión de
configuración
formal
que
permita
detectar
10. vulnerabilidades debidas a software instalado en
portátiles, dispositivos móviles, estaciones de trabajo o
servidores.
1
2
3
4
5
6
NS/NC
3
11.
Tiene implementado un proceso de control de cambios
del software.
1
2
3
4
5
6
NS/NC
3
12.
Se mantiene una relación de vulnerabilidades de
seguridad actualizada en su organización.
1
2
3
4
5
6
NS/NC
4
13. mitigaciones disponibles para ser utilizadas en caso
1
2
3
4
5
6
NS/NC
4
14. organización
Existen procesos y herramientas utilizados en su
para detectar prevenir y corregir
aplicaciones maliciosas (malware).
1
2
3
4
5
6
NS/NC
5
Se contemplan en su organización la realización de
auditorías de seguridad de código (a realizar por la
15. organización o algún órgano técnico del Ministerio de
Defensa), que detecten defectos de seguridad en el
desarrollo o adquisición de aplicaciones software.
1
2
3
4
5
6
NS/NC
6
Se realiza algún tipo de análisis de riesgo en el
desarrollo de software utilizando “casos de abuso”2
1
2
3
4
5
6
NS/NC
6
de
control
Existe para estas vulnerabilidades una relación de
necesario.
16.
2
Mecanismo similar a los casos de uso que describen el comportamiento del sistema abajo ataque. Es
una forma de entrar en la mente de los atacantes. Se debe conocer lo que se quiere proteger,de quién y
por cuánto tiempo.
Página | 6
DDE V 3.2
28/11/2012
MINISTERIO DE DEFENSA
Se lleva a cabo el análisis de la seguridad del código
17. fuente desarrollado como mecanismo de verificación y
1
2
3
4
5
6
NS/NC
6
1
2
3
4
5
6
NS/NC
6
1
2
3
4
5
6
NS/NC
7
1
2
3
4
5
6
NS/NC
8
1
2
3
4
5
6
NS/NC
9
22. un plan integrado de formación y evaluación a los
1
2
3
4
5
6
NS/NC
9
Se realiza el control de configuración y control de
cambios de las posibles debilidades de seguridad en
23.
dispositivos de red tales como firewalls, routers y
switches.
1
2
3
4
5
6
NS/NC 10
Se tienen en cuenta en la seguridad los puertos,
protocolos y servicios de los equipos conectados en red.
1
2
3
4
5
6
NS/NC 11
1
2
3
4
5
6
NS/NC 11
validación estático
Se realizan pruebas de seguridad basadas en el riesgo y
18. tests de penetración de las aplicaciones (“Hackeo ético”)
dinámicamente, es decir, en tiempo de ejecución
Se tienen en cuenta y controlan los dispositivos
19. conectados a redes inalámbricas y sus puntos de
acceso.
Existe una metodología probada y unos procedimientos
20. de actuación para la recuperación en un tiempo
razonable de los datos críticos en su organización
Cree que su organización está preocupada por la
21. concienciación de toda la plantilla en temas de
seguridad, realizándose cursos al efecto.
Considera que dentro de su organización se proporciona
responsables técnicos de la seguridad.
24.
Se restringen los puertos y servicios del dispositivo a
25. aquellos que sean estrictamente necesarios para
desempeñar la función que tiene encomendada.
Página | 7
DDE V 3.2
28/11/2012
MINISTERIO DE DEFENSA
Se configuran, asignan, controlan y usan correctamente
26. los privilegios de administrador de los dispositivos, las
1
2
3
4
5
6
NS/NC 12
27. perimetral mediante proxys, redes DMZ 3 , sistemas de
1
2
3
4
5
6
NS/NC 13
Se controla el flujo de información entre redes a distintos
niveles de confianza
1
2
3
4
5
6
NS/NC 13
Se mantienen, monitorizan y analizan regularmente los
registros de auditoría de los eventos considerados
29.
significativos o que puedan afectar a la seguridad de la
organización.
1
2
3
4
5
6
NS/NC 14
Se establecen los accesos a la información siguiendo el
criterio de qué personas, equipos y/o aplicaciones tienen
30.
la “necesidad de conocer” basándose en la clasificación
aprobada de la información.
1
2
3
4
5
6
NS/NC 15
Considera que los procesos de creación, mantenimiento
y borrado de cuentas de usuario de su organización
31. garantiza el correcto uso de estas por parte de los
usuarios (cuentas inactivas, creación de cuentas con
perfil por defecto, …)
1
2
3
4
5
6
NS/NC 16
1
2
3
4
5
6
NS/NC 17
33. Prevention) para monitorizar la información sensible de la
1
2
3
4
5
6
NS/NC 17
Tiene su organización un plan de respuesta ante eventos
adversos, amenazas o incidentes, evaluado y con los
34.
recursos que lo tienen que ejecutar suficientemente
formado y entrenado.
1
2
3
4
5
6
NS/NC 18
redes y las aplicaciones.
Se encuentra bien definida y establecida una seguridad
prevención de intrusiones, firewalls,…
28.
Existe un control basado en el contenido de los datos
32. sobre la información que los usuarios comparten o
transmiten desde sus dispositivos.
Se dispone de herramientas del tipo DLP (Data Loss
organización.
3
Desmilitarizedzone – Red local que se ubica entre la red interna de una organización y una red externa.
Página | 8
DDE V 3.2
28/11/2012
MINISTERIO DE DEFENSA
Considera que la infraestructura de red ha sido diseñada,
35. construida, actualizada y validada para resistir ataques
1
2
3
4
5
6
NS/NC 19
Se ha diseñado su red con un arquitectura mínima de
tres capas (DMZ, middleware y red privada)
1
2
3
4
5
6
NS/NC 19
Se ha definido una correcta y adecuada segmentación
en Redes de área Local Virtuales (VLANs) en la
37. arquitectura de red basada tanto en la organización
como en la seguridad como medida preventiva de las
Amenazas Persistente Avanzadas (APT)
1
2
3
4
5
6
NS/NC 19
1
2
3
4
5
6
NS/NC 20
1
2
3
4
5
6
NS/NC 20
de amenazas complejas.
36.
Se han efectuado pruebas de penetración y ejercicios de
38. simulación de ataques más allá de los de análisis de
vulnerabilidades.
En caso afirmativo, los ha llevado a cabo una entidad
39. externa a su organización, con una perspectiva diferente
y objetiva en cuanto a los resultados obtenidos.
De esta forma, se evaluarán las capacidades que hoy en día se están proporcionando en
materia de ciberseguridad en base a dichos controles.
Figura 1. Matriz de análisis de Capacidades de Ciberdefensa.
Página | 9
DDE V 3.2
28/11/2012
MINISTERIO DE DEFENSA
Por último, se le pedirá a los distintos asistentes que rellenen un cuestionario para recabar su
opinión al respecto de la metodología CD&E y otros aspectos organizativos con el objeto de
refinar y mejorar todo lo posible el método de cara a posibles futuros eventos.
Este cuestionario tiene por objetivo recoger su opinión con respecto los temas de discusión tratados para
cada escenario que se le presenta. En ellos, normalmente se propondrá una modalidad de apoyo
logístico sobre la que se basan las siguientes preguntas. El cuestionario es anónimo y será tratado como
confidencial una vez completado. Su uso únicamente está autorizado dentro de las actividades
relacionadas con el análisis del evento.
Unas preguntas son de texto libre y otras de elección con múltiples respuestas. Por favor lea atentamente
las preguntas y conteste la opción que considera más ajustada según su experiencia y criterio, de
acuerdo con la escala de graduación que se incluye más abajo. Recuerde que no todos los “1” tienen
connotaciones negativas ni todos los “6” positivas.
Este cuestionario se circunscribe al plano Táctico y a su interactuación con Redes de Sistemas Tácticos
de Mando y Control y a la red de Propósito General cuando fuese necesario para el desarrollo de
operaciones tanto en Zona de Operaciones como en territorio nacional.
La “organización” en este cuestionario se entiende como aquella que facilita el acceso a los medios
técnicos para interactuar con esos sistemas y, por tanto, la responsable de la relación de usted con
dichos sistemas tácticos C2.
Muy en
desacuerdo
En
desacuerdo
Ligeramente en
desacuerdo
Ligeramente
de acuerdo
De acuerdo
Totalmente de
acuerdo
1
2
3
4
5
6
Cuestionario Final - Dinámica de Grupo
1.
Mi experiencia previa en la materia a tratar me han
permitido aportar ideas valiosas que enriquecieron las
discusiones dirigidas
1
2
3
4
5
6
NS/NC
2.
La composición de los grupos fue adecuada (no
excesivamente numerosa) para facilitar la expresión de
ideas de todos los participantes
1
2
3
4
5
6
NS/NC
3.
La composición del grupo fue suficientemente
heterogénea para abarcar diversas posiciones y puntos
de vista
1
2
3
4
5
6
NS/NC
4.
En la dinámica del grupo, evalúe la participación de
todos los representantes (1- fue similar, 6- una
persona impuso su criterio y acaparó la voz la mayor
parte del tiempo)
1
2
3
4
5
6
NS/NC
Cuestionario Final – Desarrollo de las Sesiones
Página | 10
DDE V 3.2
28/11/2012
MINISTERIO DE DEFENSA
5.
6.
Las herramientas puestas a mi disposición, permitieron
expresar mis opiniones de forma clara y completa.
Los cuestionarios presentados fueron adecuados para
completar y capturar mi opinión sobre los temas
tratados
1
2
3
4
5
6
NS/NC
1
2
3
4
5
6
NS/NC
7.
Evalúe la duración de las sesiones para tratar todos los
objetivos de análisis. (1- sesiones muy cortas, 6sesiones muy largas)
1
2
3
4
5
6
NS/NC
8.
La estructuración de las sesiones fue adecuada para
tratar todos los objetivos de análisis.
1
2
3
4
5
6
NS/NC
9.
Los escenarios presentados fueron de gran ayuda para
situar en contexto el concepto de logística conjunta
1
2
3
4
5
6
NS/NC
1
2
3
4
5
6
NS/NC
Evalúe el número de sesiones totales del experimento
10. (1- pocas sesiones, no permitió abordar todos los
temas; 6-excesivas sesiones, muy cansado y repetitivo)
Cuestionario Final – Infraestructura del Experimento
11.
Las salas de experimentación proporcionadas por el
ITM fueron muy adecuadas para la ejecución del
experimento
1
2
3
4
5
6
NS/NC
12.
Los sistemas CIS utilizados funcionaron correctamente
1
2
3
4
5
6
NS/NC
Por favor comente sobre los servicios adicionales
13. proporcionadas por el ITM: comida, instalaciones,
mobiliario, acceso, etc.
NS/NC
Matriz de recolección de datos
Página | 11
DDE V 3.2
28/11/2012
MINISTERIO DE DEFENSA
En cada una de las fases (I y II) se ejecutará la secuencia reflejada en la metodología:
Reconocimiento, Mapeo de Red, Análisis de Vulnerabilidades, Proceso de Ataque, Instalación
de puertas traseras y ataques DDoS.
Al comienzo, es decir, durante las tres primeras fases se obtendrán para cada una de las
máquinas, los siguientes datos:
ESCENARIO FASE 1
Maquina i4
Dir. IP
FASE j5
COMIENZO
Número de puertos/servicios abiertos
6
7
Códigos CVSS asociados a las vulnerabilidades conocidas en estos servicios .
Vulnerabilidades nivel alto
8
Vulnerabilidades nivel medio
Vulnerabilidades nivel bajo
9
10
INTERMEDIO – ATACANTE
TIEMPO11 TIPO DE ATAQUE
EVENTO
INTERMEDIO – ATACADO
TIEMPO
TIPO DE DEFENSA
EVENTO
4
Para cada uno de los nodos i habrá que recoger esta información.
[NODO1 – SIMACET GU]
[NODO2 – TALOS]
[NODO 3 – TACOMS]
[NODO4 – SIMACET PU]
[NODO5 – COMFUT]
[NODO6 – FFT]
5
Para cada fase j de las siguientes: Análisis de Vulnerabilidades, Proceso Ataque, Instalación de Puertas
Traseras y Ataques DDoS
6
Incluir informe de herramienta Nessus y Nmap
7
Incluir informe de herramienta Nessus y Nmap
8
Incluir informe de herramienta Nessus y Nmap
9
Incluir informe de herramienta Nessus y Nmap
10
Incluir informe de herramienta Nessus y Nmap
11
Proporcionará el tiempo consumido en cada ataque
Página | 12
DDE V 3.2
28/11/2012
MINISTERIO DE DEFENSA
FINAL
Número de ataques realizados
Número de ataques exitosos
Número de ataques parcialmente exitosos
Tiempo consumido en cada ataque
Tiempo empleado en cada fase
Tiempo que ha llevado conseguir el éxito
Número de ataques detectados
Número de acciones defensivas tomadas
por cada ataque
Tiempo inactividad servicio
Tiempo de inactividad del sistema atacado
Tiempo de recuperación
Tabla 13
Tabla de datos EEA Fase 1
ESCENARIO FASE 2
Maquina i12
Dir. IP
FASE j13
COMIENZO
Número de puertos/servicios abiertos
14
15
Códigos CVSS asociados a las vulnerabilidades conocidas en estos servicios .
12
Para cada uno de los nodos i habrá que recoger esta información.
[NODO1 – SIMACET GU]
[NODO2 – TALOS]
[NODO 3 – TACOMS]
[NODO4 – SIMACET PU]
[NODO5 – COMFUT]
[NODO6 – FFT]
13
Para cada fase j de las siguientes: Análisis de Vulnerabilidades, Proceso Ataque, Instalación de Puertas
Traseras y Ataques DDoS
14
Incluir informe de herramienta Nessus y Nmap
Página | 13
DDE V 3.2
28/11/2012
MINISTERIO DE DEFENSA
Vulnerabilidades nivel alto
16
Vulnerabilidades nivel medio
Vulnerabilidades nivel bajo
17
18
INTERMEDIO – ATACANTE
TIEMPO19 TIPO DE ATAQUE
EVENTO
INTERMEDIO – ATACADO
TIEMPO
TIPO DE DEFENSA
EVENTO
FINAL
Número de ataques realizados
Número de ataques exitosos
Número de ataques parcialmente exitosos
Tiempo consumido en cada ataque
Tiempo empleado en cada fase
Tiempo que ha llevado conseguir el éxito
Número de ataques detectados
Número de acciones defensivas tomadas
por cada ataque
Tiempo inactividad servicio
Tiempo de inactividad del sistema atacado
Tiempo de recuperación
Tabla 14
Tabla de datos EEA Fase 2.
15
Incluir informe de herramienta Nessus y Nmap
Incluir informe de herramienta Nessus y Nmap
17
Incluir informe de herramienta Nessus y Nmap
18
Incluir informe de herramienta Nessus y Nmap
19
Proporcionará el tiempo consumido en cada ataque
16
Página | 14
DDE V 3.2
28/11/2012
MINISTERIO DE DEFENSA
14. ANEXO F: SECUENCIA DE VERIFICACIÓN DEL EXPERIMENTO DESDE EL PUNTO DE
VISTA DE SISTEMAS.
14.1.
Servicios considerados a nivel de sistemas.
Los servicios considerados, desde el punto de vista sistémico, a efectos de determinar una
secuenciación en el proceso operativo de los sistemas participantes en el experimento, son
los siguientes:
Servicio de Inicialización caracterizado desde el punto de vista operativo por la
generación y posicionamiento de las entidades asociadas a cada sistema participante.
Este servicio determinará el Objetivo 1 a realizar por el operador de cada sistema.
Servicio de Cambios de Posicionamiento de Entidades caracterizado desde el punto de
vista operativo por la realización de forma manual o automática del movimiento o
cambio de posición de las entidades asociadas a cada sistema. Este servicio
determinará el Objetivo 2 a realizar por el operador de cada sistema.
Servicio de Mensajería caracterizado desde el punto de vista operativo por la
generación automática o manual de mensajes entre sistemas. Este servicio
determinará el Objetivo 3 a realizar por el operador de cada sistema.
A nivel de sistema otros servicios podrán ser considerados, sin embargo las actuales
limitaciones en la interoperabilidad con otros sistemas del sistema SIMACET restringe su
aplicación.
14.2.
Caracterización de los objetivos a realizar por cada sistema participante.
Página | 15
DDE V 3.2
28/11/2012
MINISTERIO DE DEFENSA
Compañía COMFUT
La Compañía COMFUT verificará los siguientes objetivos:
Objetivos
Objetivo 1
Objetivo 2
Descripción
Generación, posicionamiento y representación en
SIMACET
Cambios de posición y representación en SIMACET
Objetivo 1:
Verificar la generación y posicionamiento de la compañía COMFUT y su
representación en SIMACET PU (Batallón) y SIMACET GU (Brigada). Utilización del
protocolo NFFI.
Acción 1
Generación y
posicionamiento
de COMFUT 1.
Acción 2
Generación y
posicionamiento
de COMFUT 2.
Acción 3
Generación y
posicionamiento
de COMFUT 3.
Resultado
esperado
Generación y
posición de
COMFUT 1.
Inspección de su
representación en
SIMACET PU.
Inspección de su
representación en
SIMACET GU.
Verificación /
Comentario
Resultado
esperado
Generación y
posición de
COMFUT 2.
Inspección de su
representación en
SIMACET PU.
Inspección de su
representación en
SIMACET GU.
Verificación /
Comentario
Resultado
esperado
Generación y
posición de
COMFUT 3.
Inspección de su
Verificación /
Comentario
Página | 16
DDE V 3.2
28/11/2012
MINISTERIO DE DEFENSA
representación en
SIMACET PU.
Inspección de su
representación en
SIMACET GU.
Forma de ejecución:
Manual por parte del operador de la compañía COMFUT.
Repetición de las acciones:
Una sola vez al inicio.
Incidencia en otros sistemas:
Ninguna
Objetivo 2:
Verificar los cambios de posición de la compañía COMFUT y su incidencia en
SIMACET PU (Batallón) y SIMACET GU (Brigada). Utilización del protocolo NFFI.
Acción 1
Cambio de
posición en
COMFUT 1,
según el avance
del Batallón.
Acción 2
Cambio de
posición en
COMFUT 2,
según el avance
del Batallón.
Resultado
esperado
Cambio de la
posición de
COMFUT 1.
Inspección del
cambio de
posición en
SIMACET PU.
Inspección del
cambio de
posición en
SIMACET GU.
Verificación /
Comentario
Resultado
esperado
Cambio de la
posición de
COMFUT 2.
Inspección del
cambio de
posición en
SIMACET PU.
Inspección del
Verificación /
Comentario
Página | 17
DDE V 3.2
28/11/2012
MINISTERIO DE DEFENSA
cambio de
posición en
SIMACET GU.
Acción 3
Resultado
esperado
Cambio de la
posición de
COMFUT 3.
Inspección del
cambio de
posición en
SIMACET PU.
Inspección del
cambio de
posición en
SIMACET GU.
Cambio de
posición en
COMFUT 3,
según el avance
del Batallón.
Verificación /
Comentario
Forma de ejecución:
Manual por parte del operador de la compañía COMFUT.
Repetición de las acciones:
TBD
Incidencia en otros sistemas:
Ninguna
Objetivo 3: No considerado.
Grupo de Artillería de Campaña TALOS.
El Grupo de Artillería de Campaña TALOS verificará los siguientes objetivos:
Objetivos
Objetivo 1
Objetivo 2
Descripción
Generación, posicionamiento y representación en
SIMACET
Cambios de posición y representación en SIMACET
Objetivo 1:
Verificar la generación y posicionamiento de elementos del Grupo de Artillería de
Campaña TALOS y su representación en SIMACET GU (Brigada). Utilización del
protocolo NFFI.
Página | 18
DDE V 3.2
28/11/2012
MINISTERIO DE DEFENSA
Acción 1
Generación y
posicionamiento
del Observador
Avanzado (OAV)
de TALOS.
Acción 2
Generación y
posicionamiento
del Grupo de
Artillería TALOS.
Resultado esperado
Verificación /
Comentario
Generación y posición
del OAV de TALOS.
Inspección de la
representación en
SIMACET GU.
Resultado esperado
Verificación /
Comentario
Generación y posición
del Grupo de Artillería
TALOS.
Inspección de la
representación en
SIMACET GU.
Forma de ejecución:
Manual por parte del operador de TALOS.
Repetición de las acciones:
Una sola vez al inicio.
Incidencia en otros sistemas:
Ninguna
Objetivo 2:
Verificar los cambios de posición de elementos del Grupo de Artillería de Campaña
TALOS y su incidencia en SIMACET GU (Brigada). Utilización del protocolo NFFI.
Acción 1
Resultado esperado
Cambio de posición
en el Observador
Avanzado (OAV) de
TALOS, según el
avance de la
Brigada.
Cambio de la
posición del OAV en
TALOS.
Inspección del
cambio de posición
en SIMACET GU.
Acción 2
Resultado esperado
Cambio de posición
en el Grupo de
Verificación /
Comentario
Verificación /
Comentario
Cambio de la
posición del Grupo
Página | 19
DDE V 3.2
28/11/2012
MINISTERIO DE DEFENSA
Artillería TALOS,
según el avance de
la Brigada.
de Artillería TALOS.
Inspección del
cambio de posición
en SIMACET GU.
Forma de ejecución:
Manual por parte del operador de TALOS.
Repetición de las acciones:
TBD
Incidencia en otros sistemas:
Ninguna
Objetivo 3:
No considerado
Página | 20
DDE V 3.2
28/11/2012
MINISTERIO DE DEFENSA
Compañía FFT.
La Compañía FFT verificará los siguientes objetivos:
Objetivos
Objetivo 1
Objetivo 2
Descripción
Generación, posicionamiento y representación en
SIMACET
Cambios de posición y representación en SIMACET
Objetivo 1:
Verificar la generación y posicionamiento de la compañía FFT y su representación en
SIMACET PU (Batallón) y SIMACET GU (Brigada). Utilización del protocolo NFFI.
Acción 1
Resultado esperado
Generación y
posicionamiento
de la Compañía
FFT.
Generación y posición de
la Compañía FFT.
Inspección de la
representación en
SIMACET PU.
Inspección de la
representación en
SIMACET GU.
Verificación /
Comentario
Forma de ejecución:
Manual por parte del operador de la Compañía FFT.
Repetición de la acción:
Una sola vez al inicio.
Incidencia en otros sistemas:
Ninguna
Objetivo 2:
Verificar los cambios de posición de la compañía FFT y su incidencia en SIMACET PU
(Batallón) y SIMACET GU (Brigada). Utilización del protocolo NFFI.
Acción 1
Cambio de posición
en Compañía FFT,
según el avance del
Resultado esperado
Verificación /
Comentario
Cambio de la
posición de la
Compañía FFT.
Página | 21
DDE V 3.2
28/11/2012
MINISTERIO DE DEFENSA
Batallón.
Inspección del
cambio de posición
en SIMACET PU.
Inspección del
cambio de posición
en SIMACET GU.
Forma de ejecución:


Manual por parte del operador de la Compañía FFT.
Automática, generándose un desplazamiento circular de la compañía, de radio
predeterminado.
Repetición de la acción:


Manual: TBD
Automática: Continuada.
Incidencia en otros sistemas:
Ninguna
Objetivo 3:
No considerado
Página | 22
DDE V 3.2
28/11/2012
MINISTERIO DE DEFENSA
Grupo de Inteligencia GESTA.
El Grupo de Inteligencia GESTA verificará los siguientes objetivos:
Objetivos
Objetivo 1
Objetivo 2
Objetivo 3
Descripción
Generación, posicionamiento y representación en
SIMACET
Cambios de posición y representación en SIMACET
Generación de mensajería y representación en SIMACET
Objetivo 1:
Verificar la generación y posicionamiento de elementos del Grupo de Inteligencia
GESTA y su representación en SIMACET GU (Brigada).
Acción 1
Resultado esperado
Generación y
posicionamiento
de entidades
GESTA.
Generación y posición de
entidades GESTA.
Inspección de la
representación en
SIMACET GU.
Acción 2
Resultado esperado
Verificación /
Comentario
Verificación /
Comentario
Forma de ejecución:
Manual por parte del operador de GESTA.
Repetición de las acciones:
Una sola vez al inicio.
Incidencia en otros sistemas:
Ninguna
Objetivo 2:
Verificar los cambios de posición de elementos del Grupo de Inteligencia GESTA y su
incidencia en SIMACET GU (Brigada).
Acción 1
Resultado esperado
Página | 23
Verificación /
DDE V 3.2
28/11/2012
MINISTERIO DE DEFENSA
Comentario
Cambio de posición
en entidades
GESTA, según el
avance de la
Brigada.
Acción 2
Cambio de la
posición de
entidades GESTA.
Inspección del
cambio de posición
en SIMACET GU.
Resultado esperado
Verificación /
Comentario
Forma de ejecución:
Manual por parte del operador de GESTA.
Repetición de las acciones:
TBD
Incidencia en otros sistemas:
Ninguna
Objetivo 3:
Verificar la generación de mensajería de forma manual o automática asociada a las
entidades GESTA y su incidencia en SIMACET GU (Brigada).
Acción 1
Generación de
mensajería de
entidades GESTA.
Resultado esperado
Verificación /
Comentario
Mensajes GESTA
generados.
Inspección de la
presentación de la
mensajería en
SIMACET GU.
Forma de ejecución:


Manual por parte del operador de GESTA.
Automáticamente por parte del sistema.
Repetición de las acciones:
TBD
Página | 24
DDE V 3.2
28/11/2012
MINISTERIO DE DEFENSA
Incidencia en otros sistemas:
Interoperabilidad con SIMACET.
Página | 25
DDE V 3.2
28/11/2012
MINISTERIO DE DEFENSA
Brigada SIMACET GU.
La Brigada SIMACET GU verificará los siguientes objetivos:
Objetivos
Objetivo 1
Objetivo 2
Objetivo 3
Descripción
Generación, posicionamiento y representación en otros
sistemas
Cambios de posición y representación en otros sistemas
Generación de mensajería y representación en otros
sistemas
Objetivo 1:
Verificar la generación y posicionamiento de la Brigada SIMACET GU y su
representación en SIMACET PU (Batallón) y Grupo de Inteligencia GESTA.
Acción 1
Resultado esperado
Generación y
posicionamiento
de la Brigada
SIMACET GU.
Generación y posición de
la Brigada.
Inspección de la
representación en
SIMACET PU y GESTA.
Acción 2
Resultado esperado
Verificación /
Comentario
Verificación /
Comentario
Forma de ejecución:
Manual por parte del operador de SIMACET GU.
Repetición de las acciones:
Una sola vez al inicio.
Incidencia en otros sistemas:
Ninguna
Objetivo 2:
Verificar los cambios de posición de la Brigada SIMACET GU y su incidencia en SIMACET
PU (Batallón) y Grupo de Inteligencia GESTA.
Página | 26
DDE V 3.2
28/11/2012
MINISTERIO DE DEFENSA
Acción 1
Resultado esperado
Cambio de posición
en la Brigada
SIMACET GU.
Cambio de la
posición de Brigada.
Inspección del
cambio de posición
en SIMACET PU y
GESTA.
Acción 2
Resultado esperado
Verificación /
Comentario
Verificación /
Comentario
Forma de ejecución:
Manual por parte del operador de SIMACET GU.
Repetición de las acciones:
TBD
Incidencia en otros sistemas:
Ninguna
Objetivo 3:
Verificar la generación de mensajería de forma manual o automática asociada a la
Brigada SIMACET GU y su incidencia en SIMACET PU (Batallón) y Grupo de Inteligencia
GESTA.
Acción 1
Generación de
mensajería de
entidades de
Brigada.
Resultado esperado
Verificación /
Comentario
Mensajes SIMACET
GU generados.
Inspección de la
presentación de la
mensajería en
SIMACET PU y
GESTA.
Forma de ejecución:


Manual por parte del operador de SIMACET GU.
Automáticamente por parte del sistema.
Página | 27
DDE V 3.2
28/11/2012
MINISTERIO DE DEFENSA
Repetición de las acciones:
TBD
Incidencia en otros sistemas:
Interoperabilidad con SIMACET PU y GESTA.
Página | 28
DDE V 3.2
28/11/2012
MINISTERIO DE DEFENSA
Batallón SIMACET PU.
El JBON SIMACET PU verificará los siguientes objetivos:
Objetivos
Objetivo 1
Objetivo 2
Objetivo 3
Descripción
Generación, posicionamiento y representación en otros
sistemas
Cambios de posición y representación en otros sistemas
Generación de mensajería y representación en otros
sistemas
Objetivo 1:
Verificar la generación y posicionamiento del JBON SIMACET PU y su representación en
SIMACET GU (Brigada) y Grupo de Inteligencia GESTA.
Acción 1
Generación y
posicionamiento
del JBON
SIMACET PU.
Acción 2
Resultado esperado
Verificación /
Comentario
Generación y posición
del JBON.
Inspección de la
representación en
SIMACET GU y GESTA.
Resultado esperado
Verificación /
Comentario
Forma de ejecución:
Manual por parte del operador de SIMACET PU.
Repetición de las acciones:
Una sola vez al inicio.
Incidencia en otros sistemas:
Ninguna
Objetivo 2:
Verificar los cambios de posición del JBON SIMACET PU y su incidencia en SIMACET GU
(Brigada) y Grupo de Inteligencia GESTA.
Página | 29
DDE V 3.2
28/11/2012
MINISTERIO DE DEFENSA
Acción 1
Cambio de posición
en el JBON SIMACET
PU.
Acción 2
Resultado esperado
Verificación /
Comentario
Cambio de la
posición del JBON.
Inspección del
cambio de posición
en SIMACET GU y
GESTA.
Resultado esperado
Verificación /
Comentario
Forma de ejecución:
Manual por parte del operador de SIMACET PU.
Repetición de las acciones:
TBD
Incidencia en otros sistemas:
Ninguna
Objetivo 3:
Verificar la generación de mensajería de forma manual o automática asociada al JBON
SIMACET PU y su incidencia en SIMACET GU (Brigada) y Grupo de Inteligencia GESTA.
Acción 1
Generación de
mensajería de
entidades JBON.
Resultado esperado
Verificación /
Comentario
Mensajes SIMACET
PU generados.
Inspección de la
presentación de la
mensajería en
SIMACET GU y
GESTA.
Forma de ejecución:


Manual por parte del operador de SIMACET PU.
Automáticamente por parte del sistema.
Repetición de las acciones:
Página | 30
DDE V 3.2
28/11/2012
MINISTERIO DE DEFENSA
TBD
Incidencia en otros sistemas:
Interoperabilidad con SIMACET GU y GESTA.
Sistema de Comunicaciones Tácticas TACOM.
Por definir.
Página | 31
DDE V 3.2
28/11/2012
MINISTERIO DE DEFENSA
14.3.
Proceso de secuenciación del experimento a nivel de sistemas.
Con independencia del escenario considerado en el que operaran los sistemas
participantes en el experimento, la realización de los objetivos indicados mantendrán el
siguiente proceso de secuenciación operativa.
El proceso mantendrá la siguiente secuencia:
Inicialización.
La secuencia de inicialización será la siguiente:
1
Entidades
Brigada
2
Batallón
3
4
Grupo de Inteligencia
Grupo de Artillería de
Campaña
Compañía FFT
Compañía COMFUT
5
6
7
Sistemas
SIMACET
GU
SIMACET
PU
GESTA
TALOS
Verificación
Objetivo 1
FFT
COMFUT
TACOM
Objetivo 1
Objetivo 1
Objetivo 1
Objetivo 1
Objetivo 1
Iteración.
La secuencia de iteración será la contraria a la de inicialización:
Entidades
Página | 32
Sistemas
Verificación
DDE V 3.2
28/11/2012
MINISTERIO DE DEFENSA
Sistemas
COMFUT
FFT
TALOS
Verificación
Objetivo 2
Objetivo 2
Objetivo 2
4
Entidades
Compañía COMFUT
Compañía FFT
Grupo de Artillería de
Campaña
Grupo de Inteligencia
GESTA
5
Batallón
6
Brigada
SIMACET
PU
SIMACET
GU
TACOM
Objetivos 2
y3
Objetivos 2
y3
Objetivos 2
y3
1
2
3
7
Estas secuenciaciones serán llevadas a cabo mediante las acciones indicadas en el
apartado anterior para cada sistema participante.
14.4.
Fases de ataque desde el punto de vista de sistemas.
Desde el punto de vista de la secuenciación planteada a nivel de sistemas las fases de
ataque irán asociadas a la inicialización e iteración dentro del proceso de secuenciación
operativa como se muestra a continuación.
Página | 33
DDE V 3.2
28/11/2012
Descargar