IBM Operations Analytics - Log Analysis: Guía de instalación

Anuncio
IBM Operations Analytics - Log Analysis
Versión 1.3.3
Guía de instalación, configuración y
administración
IBM
IBM Operations Analytics - Log Analysis
Versión 1.3.3
Guía de instalación, configuración y
administración
IBM
Nota
Antes de utilizar esta información y el producto al que da soporte, lea la información de “Avisos” en la página 379.
Nota de edición
Esta edición se aplica a IBM Operations Analytics - Log Analysis y a todos los releases y modificaciones
subsiguientes hasta que se indique lo contrario en nuevas ediciones.
Las referencias hechas en el contenido a productos, software, programas, servicios o tecnologías asociadas de IBM
no implican que estén disponibles en todos los países en los que IBM opera. El contenido, incluidos los planes del
contenido, puede cambiar en cualquier momento según el criterio exclusivo de IBM, en función de las
oportunidades de mercado o de otros factores, y no implica en modo alguno ningún compromiso respecto al
contenido futuro, incluida la disponibilidad de productos o funciones. Las declaraciones relacionadas con futuros
planes o intenciones de IBM están sujetas a cambio o se pueden retirar sin previo aviso y sólo constituyen metas y
objetivos. Consulte los Términos de uso de developerWorks para obtener más información.
© Copyright IBM Corporation 2015.
Contenido
Acerca de esta publicación . . . . . . 1
A quién va dirigido este manual . . . . .
Publicaciones . . . . . . . . . . .
Acceso a la terminología en línea . . .
Accesibilidad . . . . . . . . . . .
Formación técnica de Tivoli . . . . . .
Envío de comentarios . . . . . . . .
Convenciones utilizadas en esta publicación .
Convenios de tipo de letra. . . . . .
Instalación
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
1
1
1
1
2
2
2
2
. . . . . . . . . . . . . 3
Requisitos de hardware y software . . . . . . . 3
Descarga de Log Analysis . . . . . . . . . . 3
Requisitos previos . . . . . . . . . . . . 4
IBM Prerequisite Scanner . . . . . . . . . 4
Crear un usuario no root . . . . . . . . . 5
Instaladores de biblioteca recomendados . . . . 5
Verificación de la versión del sistema operativo . . 5
Verificación del requisito de biblioteca de 64 bits . 6
Inhabilitación de Linux de seguridad mejorada
(SELinux) . . . . . . . . . . . . . . 6
Verificación de la biblioteca KornShell . . . . . 6
Verificación de la versión de Python . . . . . 7
Instale el paquete python-simplejson para Python 7
Instalación del programa de utilidad unzip . . . 7
Verificación de la dirección IP y los nombres del
servidor host . . . . . . . . . . . . . 8
Número de archivos abiertos y límites de memoria
virtual . . . . . . . . . . . . . . . 8
Verificación de las configuraciones de dirección
IP y nombre de host . . . . . . . . . . 10
Servidor de horas . . . . . . . . . . . 10
Instalación en servidores IBM Power8 . . . . . 11
Instalación en servidores basados en Linux on
System z y Linux on System x . . . . . . . . 11
Instalación. . . . . . . . . . . . . . . 13
Instalación con la interfaz de usuario de IBM
Installation Manager . . . . . . . . . . 14
Instalación con la interfaz de mandatos de IBM
Installation Manager . . . . . . . . . . 16
Instalación silenciosa de Log Analysis . . . . 18
Instalación y configuración de IBM Tivoli
Monitoring Log File Agent . . . . . . . . 21
Verificación de la información de versión . . . . 22
Eliminación de IBM Operations Analytics - Log
Analysis . . . . . . . . . . . . . . . 22
Eliminación de IBM Operations Analytics - Log
Analysis . . . . . . . . . . . . . . 22
Utilización de la consola para eliminar IBM
Operations Analytics - Log Analysis . . . . . 23
Eliminación silenciosa de IBM Operations
Analytics - Log Analysis . . . . . . . . . 24
Referencia de la instalación . . . . . . . . . 25
Archivo de propiedades de configuración . . . 25
Puertos predeterminados . . . . . . . . . 26
© Copyright IBM Corp. 2015
Mandato install.sh . . . .
El script backup_restore.sh .
.
.
.
.
.
.
.
.
.
.
.
.
. 27
. 28
Actualización, copia de seguridad y
migración de datos . . . . . . . . . 29
Limitación de la copia de seguridad y de la
migración . . . . . . . . . . . . . . . 31
Copia de seguridad de los datos . . . . . . . 32
Restauración de datos . . . . . . . . . . . 32
Actualización de instalaciones de logstash remotas
33
Configuración. . . . . . . . . . . . 35
Configuración posterior a la instalación . . . . . 35
Configuración de la comunicación y
autenticación seguras . . . . . . . . . . 35
Usuarios y roles . . . . . . . . . . . . 58
Sistema . . . . . . . . . . . . . . . 65
Configuración del huso horario para la
indexación. . . . . . . . . . . . . . 75
Gestión de alertas . . . . . . . . . . . . 77
Creación de alertas . . . . . . . . . . . 77
Interfaz de usuario Gestionar alertas . . . . . 80
Configuración de alertas para sucesos SNMP y
EIF . . . . . . . . . . . . . . . . 83
Configuración de acciones de alerta de correo
electrónico. . . . . . . . . . . . . . 89
Configuración de las funciones de auditoría . . . 91
Parámetros de auditoría . . . . . . . . . 91
Visualización del archivo de auditoría . . . . 92
Configuración de la Panel de control de búsqueda
personalizada Consejo experto . . . . . . . . 92
Personalización de la Panel de control de
búsqueda personalizada Consejo experto
predeterminada . . . . . . . . . . . . 93
Configuración de una aplicación Consejo experto
personalizada. . . . . . . . . . . . . 95
Configuración del inicio en contexto . . . . . . 98
Inicio en contexto de la IU de búsqueda . . . . 98
Inicio contextual de Panel de control de
búsqueda personalizada . . . . . . . . . 99
Configuración del kit de herramientas DSV . . . 100
Novedades . . . . . . . . . . . . . 100
Creación de un Paquete Insight con el kit de
herramientas DSV . . . . . . . . . . . 101
Especificación de propiedades para un tipo de
archivo de registro . . . . . . . . . . 101
Generar un archivo de propiedades . . . . . 106
Genere un Paquete Insight . . . . . . . . 107
Resolución de problemas . . . . . . . . 108
Formatos soportados . . . . . . . . . . 109
Formatos DSV . . . . . . . . . . . . 110
Configuración de alias . . . . . . . . . . 110
Configuración de un alias . . . . . . . . 111
Referencia de configuración . . . . . . . . 112
ldapRegistryHelper.properties . . . . . . 112
iii
Mandato ldapRegistryHelper.sh . . . .
Mandato unity . . . . . . . . . .
Parámetros del archivo de configuración de
Mandato eifutil.sh . . . . . . . .
Mandato lfautil.sh . . . . . . . .
Propiedades del recopilador de datos . .
Mandato unity_securityUtility.sh . . .
Programa de utilidad securityUtility.sh .
Archivo eif.conf . . . . . . . . .
Archivo unity.conf . . . . . . . . .
Mandato install.sh . . . . . . . . .
ssh_config.properties . . . . . . . .
Parámetros de auditoría . . . . . . .
Programa de utilidad de versiones . . .
Nombres de huso horario soportados . .
Idiomas soportados . . . . . . . .
. .
. .
LFA
. .
. .
. .
. .
. .
. .
. .
. .
. .
. .
. .
. .
. .
Niveles de datos y almacenamiento
145
Configuración del archivado de datos . . . . .
Configuración de almacenamiento de datos a largo
plazo . . . . . . . . . . . . . . . .
Versiones soportadas de Hadoop . . . . . .
Tareas de requisito previo . . . . . . . .
Configuración automática de almacenamiento
de datos a largo plazo . . . . . . . . .
Configuración manual de almacenamiento de
datos a largo plazo . . . . . . . . . .
Prueba de la integración de Hadoop. . . . .
Pestaña Integración de Hadoop . . . . . . .
Gestión del servidor de Log Analysisr . . . .
Mantenimiento de conexiones configuradas
automáticamente . . . . . . . . . . . .
Edición de una conexión de servidor de
NameNode . . . . . . . . . . . . .
Edición de una conexión de servidor de
DataNode . . . . . . . . . . . . .
Supresión de una conexión de servidor de
NameNode . . . . . . . . . . . . .
Supresión de una conexión de servidor de
DataNode . . . . . . . . . . . . .
Mantenimiento manual de conexiones de
DataNode configuradas . . . . . . . . . .
Compartición de un clúster de Hadoop entre varias
instancias de Log Analysis . . . . . . . . .
Referencia de editor de conexión de servidor de
DataNode . . . . . . . . . . . . . .
Referencia de editor de conexión de servidor de
NameNode . . . . . . . . . . . . . .
Carga y modalidad continua de datos
145
146
147
148
148
151
154
155
156
156
156
157
157
157
158
158
159
160
161
Herramientas de recopilación de datos . . . . .
Sistemas operativos soportados para la recopilación
de datos . . . . . . . . . . . . . . .
Carga de procesos por lotes de datos . . . . .
Cliente del recopilador de datos . . . . . .
Receptor genérico . . . . . . . . . . .
Carga por lotes de datos históricos con IBM
Tivoli Monitoring Log File Agent . . . . . .
Carga de un lote de archivos de registro con el
LFA . . . . . . . . . . . . . . .
iv
112
113
114
116
117
118
119
119
120
121
122
123
124
124
130
144
161
163
163
163
167
170
170
Datos en modalidad continua con IBM Tivoli
Monitoring Log File Agent . . . . . . . . .
Consideraciones al utilizar el LFA . . . . .
Configuración de LFA . . . . . . . . .
Soporte de expresión regular para el LFA . . .
Resolución de problemas de la carga de datos
Modalidad continua de datos de varios orígenes
remotos a través de una red . . . . . . . .
Configuración de la comunicación de Secure
Shell (SSH) para varios hosts remotos . . . .
Despliegue del LFA o EIF en servidores remotos
Datos en modalidad continua con logstash . . .
Dependencias . . . . . . . . . . . .
Eliminar logstash 1.5.3 . . . . . . . . .
Actualización a logstash 2.2.1 . . . . . . .
Instalación de logstash en un nodo remoto . .
Configuración de logstash . . . . . . . .
Instalación de logstash en servidores basados en
Windows . . . . . . . . . . . . . .
Referencia de archivo de configuración de
logstash . . . . . . . . . . . . . .
Operaciones de logstash . . . . . . . . .
Métodos recomendados de logstash . . . . .
Referencias . . . . . . . . . . . . .
Problemas conocidos . . . . . . . . . .
Configuración del receptor EIF . . . . . . .
Configuración del tamaño del almacenamiento
intermedio y del tiempo de espera del receptor .
Configuración de la cuenta de usuario del
receptor EIF . . . . . . . . . . . . .
Configuración del número de sucesos del
receptor EIF . . . . . . . . . . . . .
Configuración del intervalo de limpieza de la
memoria del receptor EIF . . . . . . . .
Cambio de la contraseña predeterminada del
recopilador de datos y del receptor EIF. . . . .
Cambio de la contraseña predeterminada del
receptor EIF o de Recopilador de datos
password . . . . . . . . . . . . . .
Mandato unity_securityUtility.sh. . . . .
Ingestión de archivos de registro en un idioma
distinto del inglés . . . . . . . . . . . .
Ingestión de archivos de registro en un idioma
distinto del inglés con el IBM Tivoli Monitoring
Log File Agent interno . . . . . . . . .
Modalidad continua de archivos de registro en
un idioma distinto del inglés desde un IBM
Tivoli Monitoring Log File Agent interno remoto
Ingestión de archivos de registro en un idioma
distinto del inglés desde un IBM Tivoli
Monitoring Log File Agent externo . . . . .
Ingestión de archivos de registro en un idioma
distinto del inglés con el recopilador de datos .
174
174
175
200
201
203
203
205
208
209
209
210
211
212
219
221
223
223
223
224
226
226
227
228
229
230
230
231
232
232
233
234
235
Gestión de Paquetes Insight . . . . . 237
Software soportado . . . . . . . .
Descarga de un Paquete Insight . . . .
Instalación de Paquetes Insight . . . .
Actualización de un Paquete Insight. . .
Clonación de tipos de origen para Paquetes
Paquetes Insight listos para usar . . . .
IBM Operations Analytics - Log Analysis: Guía de instalación, configuración y administración
. . .
. . .
. . .
. . .
Insight
. . .
238
238
239
239
240
240
Paquete Insight de DB2 . . . . . . . . .
Paquete Insight de Generic Annotation . . . .
Paquete Insight Javacore. . . . . . . . .
Paquete Insight de Syslog . . . . . . . .
Paquete Insight de registros de acceso web . .
WebSphere Application Server Paquete Insight
Paquete Insight de sucesos de sistema operativo
Windows . . . . . . . . . . . . . .
Paquetes Insight personalizados . . . . . . .
241
252
265
270
279
291
331
Supervisión y configuración de las estadísticas de
ingestión de datos . . . . . . . . . . .
Configuración del límite de datos para las
versiones empaquetadas . . . . . . . .
Espacio de trabajo de Estadísticas de servidor
Mandato export_statistics . . . . . .
Supresión de datos . . . . . . . . . .
Limitaciones y requisitos previos para la
supresión de datos . . . . . . . . .
Supresión de datos . . . . . . . . .
Referencia de administración . . . . . . .
Mandato export_statistics . . . . . .
delete.properties . . . . . . . . . .
Guía de la API . . . . . . . . . . . .
Configuración manual de la autenticación para
la API REST . . . . . . . . . . . .
Utilización del cliente del recopilador de datos
para autenticar e invocar la API REST . . .
Visión general de la API REST de búsqueda .
API de consulta de búsqueda . . . . . .
Utilización de la API REST para administrar el
modelo de datos de Log Analysis . . . .
API REST para búsquedas asíncronas . . .
331
Avisos . . . . . . . . . . . . . . 379
299
306
Administración. . . . . . . . . . . 309
Iniciación a Log Analysis . . . . . . . . .
Inicio de sesión en IBM Operations Analytics Log Analysis . . . . . . . . . . . .
Instalación de archivos de ejemplo . . . . .
Habilitación del historial de búsqueda de GUI
Definición de una búsqueda predeterminada
Creación y actualización del modelo de datos . .
Espacio de trabajo de Orígenes de datos . . .
Espacio de trabajo de Tipos de datos . . . .
Tareas administrativas . . . . . . . . . .
Configuración de renovaciones automáticas para
paneles de control nuevos . . . . . . . .
Configuración de renovaciones automáticas para
paneles de control existentes . . . . . . .
Configuración del tiempo de espera para el
servidor de Log Analysis . . . . . . . .
Añadir o eliminar IBM Tivoli Monitoring Log
File Agent desde una instalación existente . . .
Cambiar la dirección IP de Log Analysis . . .
309
309
310
310
311
311
311
316
330
332
333
333
Marcas registradas. . . .
Términos y condiciones de la
producto . . . . . . .
Declaración de privacidad en
Marcas registradas. . . .
. . . . . . .
documentación del
. . . . . . .
línea de IBM . .
. . . . . . .
. 333
. 334
335
. 336
. 338
.
.
.
.
.
.
339
339
341
342
344
345
. 345
. 346
. 348
. 358
. 361
. 373
. 381
. 381
. 382
383
. 383
Contenido
v
vi
IBM Operations Analytics - Log Analysis: Guía de instalación, configuración y administración
Acerca de esta publicación
Esta guía contiene información sobre cómo utilizar IBM® Operations Analytics Log Analysis.
A quién va dirigido este manual
Esta publicación es para los usuarios del producto IBM Operations Analytics - Log
Analysis.
Publicaciones
Esta sección proporciona información acerca de las publicaciones de IBM
Operations Analytics - Log Analysis. Describe cómo acceder a las publicaciones y
solicitarlas.
Acceso a la terminología en línea
El sitio web de terminología de IBM agrupa la terminología de las bibliotecas de
productos IBM en una única ubicación para comodidad del usuario. Puede acceder
al sitio web de terminología en la siguiente dirección web:
http://www.ibm.com/software/globalization/terminology.
Accesibilidad
Las funciones de accesibilidad ayudan a los usuarios con alguna discapacidad
física, como movilidad restringida o visión limitada, a utilizar correctamente los
productos de software. En este release, la interfaz de usuario de IBM Operations
Analytics - Log Analysis no cumple todos los requisitos de accesibilidad.
Funciones de accesibilidad
Este Information Center y las publicaciones relacionadas están habilitados para la
accesibilidad. Para cumplir este requisito la documentación de usuario en este
Information Center se proporciona en formato HTML y PDF y se ofrece texto
descriptivo para todas las imágenes de la documentación.
Información relacionada sobre accesibilidad
Puede ver las publicaciones de IBM Operations Analytics - Log Analysis en
formato PDF (Portable Document Format) de Adobe utilizando Adobe Reader.
IBM y accesibilidad
Para obtener más información sobre el compromiso que IBM tiene con la
accesibilidad, consulte IBM Human Ability and Accessibility Center. IBM Human
Ability and Accessibility Center se encuentra en la siguiente dirección web:
http://www.ibm.com/able (se abre en una ventana o pestaña de navegador
nueva)
© Copyright IBM Corp. 2015
1
Formación técnica de Tivoli
Para obtener información sobre la formación técnica de Tivoli, consulte el siguiente
sitio web de IBM Tivoli Education en http://www.ibm.com/software/tivoli/
education.
Envío de comentarios
Agradecemos su opinión y le pedimos que envíe sus comentarios a la comunidad
de IBM Operations Analytics - Log Analysis.
Convenciones utilizadas en esta publicación
Esta publicación utiliza distintas convenciones para términos y acciones especiales,
mandatos y vías de acceso dependientes del sistema operativo y gráficos de
márgenes.
Convenios de tipo de letra
En esta publicación se utilizan los siguientes convenios de tipo de letra:
Negrita
v Mandatos en minúsculas y mandatos en mayúsculas y minúsculas que
de otro modo son difíciles de distinguir del resto del texto
v Controles de interfaz (recuadros de selección, pulsadores, botones de
selección, selectores cíclicos, campos, carpetas, iconos, recuadros de lista,
elementos dentro de recuadros de lista, listas de varias columnas,
contenedores, opciones de menú, nombres de menú, pestañas, hojas de
propiedades), etiquetas (por ejemplo Consejo: y Consideraciones de
sistema operativo:)
v Palabras clave y parámetros en el texto
Cursiva
v Citas (ejemplos: títulos de publicaciones, disquetes y CD)
v Palabras definidas en el texto (por ejemplo: una línea no conmutada se
denomina línea punto a punto)
v Énfasis en palabras y letras (palabras como ejemplo de palabras: "Utilice
la palabra that para incorporar una cláusula restrictiva."; letras como
ejemplo de letras: "La dirección LUN debe comenzar con la letra L.")
v Términos nuevos en el texto (excepto en una lista de definiciones): una
vista es un marco en un espacio de trabajo que contiene datos.
v Variables y valores que debe especificar el usuario : ... donde minombre
representa ....
Monoespaciado
v Ejemplos y código de ejemplo
v Nombres de archivo, palabras clave de programación y otros elementos
que son difíciles de distinguir del resto del texto
v Texto de mensaje y solicitudes dirigidas al usuario
v Texto que el usuario debe escribir
v Valores para argumentos u opciones de mandato
2
IBM Operations Analytics - Log Analysis: Guía de instalación, configuración y administración
Instalación
Esta sección indica el procedimiento que debe seguir para instalar IBM Operations
Analytics - Log Analysis. En esta sección se especifican los detalles de requisito
previo, el procedimiento de instalación y las tareas posteriores a la instalación.
Nota: No se puede instalar IBM Operations Analytics - Log Analysis en un recurso
basado en NFS (Network File System), compartido.
Nota:
Si desea instalar IBM Operations Analytics - Log Analysis en un sistema en el que
el entorno local no es inglés de Estados Unidos, debe establecer el entorno local del
shell de mandatos en export LANG=en_US.UTF-8 antes de ejecutar cualquier script
de IBM Operations Analytics - Log Analysis. Por ejemplo, cuando instale IBM
Operations Analytics - Log Analysis debe ejecutar el siguiente mandato para
cambiar el entorno local antes de ejecutar el script unity.sh:
export LANG=en_US.UTF-8
Requisitos de hardware y software
Antes de instalar IBM Operations Analytics - Log Analysis, asegúrese de que el
entorno cumpla con los requisitos de hardware y software.
Los requisitos de hardware y software exactos dependen del tipo de entorno que
desee crear, es decir, entorno de producción o de prueba, y el sistema operativo
que elija. Para obtener información detallada, consulte:
https://developer.ibm.com/itoa/docs/log-analysis/documentation/hardwaresoftware-requirements/
Descarga de Log Analysis
Lea este documento para obtener una visión general sobre cómo descargar Log
Analysis desde Passport Advantage.
1. Planifique la instalación. Para obtener más información, consulte Acerca de IBM
Operations Analytics - Log Analysis
2. Revise los requisitos previos, incluidos los requisitos de hardware y software.
Para obtener más información, consulte “Requisitos previos” en la página 4.
3. Vaya a Passport Advantage en https://www.ibm.com/developerworks/
servicemanagement/ioa/log/downloads.html.
4. Elija el tipo de instalación.
IBM Operations Analytics - Log Analysis para Linux en un sistema x86_64 o
Linux on System z. Para obtener más información, consulte “Instalación en
servidores basados en Linux on System z y Linux on System x” en la página 11.
Para instalar IBM Operations Analytics - Log Analysis en Linux on System
x86_64, descargue el paquete de IBM Operations Analytics - Log Analysis
Linux de 64 bits (CN8IIEN).
Para instalar IBM Operations Analytics - Log Analysis en Linux on System z,
descargue el paquete de IBM Operations Analytics - Log Analysis Linux on
System z de 64 bits (CN8IJEN).
© Copyright IBM Corp. 2015
3
Para instalar IBM Operations Analytics - Log Analysis en servidores basados en
IBM Power8 Little Endian for Linux, descargue el paquete de IBM Operations
Analytics - Log Analysis 1.3.3 Power8 ppc64le, TODAS las ediciones,
(CN8K9EN) desde https://www.ibm.com/developerworks/
servicemanagement/ioa/log/downloads.html.
Para obtener más información sobre cómo instalar el producto, consulte
“Instalación” en la página 3.
5. Complete la configuración posterior a la instalación. Para obtener más
información, consulte “Configuración posterior a la instalación” en la página
35.
6. Después de instalar IBM Operations Analytics - Log Analysis, puede
configurarlo para adaptarlo a sus necesidades. Para obtener más información,
consulte “Configuración” en la página 35.
Requisitos previos
Antes de instalar IBM Operations Analytics - Log Analysis, asegúrese de que el
sistema cumple los requisitos de hardware y software, y lleve a cabo las tareas de
requisito previo.
IBM Prerequisite Scanner
IBM Prerequisite Scanner es una herramienta de comprobación de requisitos
previos que analiza los entornos del sistema antes de instalar o actualizar IBM
Operations Analytics - Log Analysis.
El archivo comprimido de IBM Prerequisite Scanner está empaquetado con IBM
Operations Analytics - Log Analysis.
Ejecute IBM Prerequisite Scanner como parte de su plan de instalación antes de
instalar IBM Operations Analytics - Log Analysis.
Instalación de IBM Prerequisite Scanner
1. Para instalar el IBM Prerequisite Scanner, seleccione una de las opciones
siguientes:
v Localice el archivo comprimido de IBM Prerequisite Scanner en el paquete de
IBM Operations Analytics - Log Analysis.
v Descargue la versión más reciente del escáner para su sistema operativo
desde IBM Fix Central: http://www-933.ibm.com/support/fixcentral/swg/
selectFixes?parent=ibm~Tivoli&product=ibm/Tivoli/Prerequisite+Scanner
&release=All&platform=All&function=all
2. Extraiga el contenido del archivo comprimido de IBM Prerequisite Scanner en
una ubicación preferida tal como se especifica en ips_root en cada sistema de
destino que intente instalar IBM Operations Analytics - Log Analysis.
Nota: Debe tener permisos de escritura para el directorio raíz en el que desee
extraer el contenido del archivo comprimido.
Ejecución del IBM Prerequisite Scanner
1. Abra la ventana de mandatos.
2. Cambie el directorio ips_root por el directorio donde se expande el escáner.
3. Establezca el valor para la variable de entorno relevante en True. Por ejemplo:
export ENV_NAME=True
4
IBM Operations Analytics - Log Analysis: Guía de instalación, configuración y administración
4. Ejecute el archivo de script de IBM Prerequisite Scanner, prereq_checker. Por
ejemplo:
prereq_checker.sh "ILA 01320000" detail outputDir=<output_directory>
5. Compruebe los resultados de salida del escáner y resuelva cualquier
comprobación que haya fallado.
Para obtener más información sobre el IBM Prerequisite Scanner, consulte la página
de wiki IBM Prerequisite Scanner: https://www.ibm.com/developerworks/
community/wikis/home?lang=en#!/wiki/Tivoli%20Documentation%20Central/
page/IBM%20Prerequisite%20Scanner
Crear un usuario no root
Debe usar un usuario que no sea root para instalar IBM Operations Analytics - Log
Analysis.
Procedimiento
Si no tiene definido en su sistema un usuario que no sea root, debe crear uno. Para
crear este usuario, inicie sesión como un usuario root y ejecute el mandato:
useradd -m -d /home/<nombre_usuario> <nombre_usuario>
donde -m crea un directorio de inicio para su usuario si no hay ya uno, -d es la vía
de acceso al directorio de inicio, y <nombre_usuario> es el nombre de usuario que
desea crear.
Asegúrese de tener los derechos de acceso necesarios para poder añadir archivos a
la ubicación en la que desee instalar IBM Operations Analytics - Log Analysis.
Instaladores de biblioteca recomendados
Se recomiendas las siguientes bibliotecas para su uso con IBM Operations Analytics
- Log Analysis.
El gestor de paquetes YUM (Yellow dog update, modified) está recomendado para
instalar las bibliotecas obligatorias en Red Hat Enterprise Linux (RHEL).
La herramienta YaST (Yet another Setup Tool) está recomendada para instalar las
bibliotecas obligatorias en SUSE Linux Enterprise Server (SLES).
Verificación de la versión del sistema operativo
IBM Operations Analytics - Log Analysis requiere Red Hat Enterprise (RHEL) para
Linux versión 5, 6 o 7 o SUSE Linux Enterprise Server (SLES) versión 11.
Procedimiento
v Para comprobar que esté instalada la versión correcta de RHEL, inicie sesión
como usuario root e indique el mandato siguiente:
cat /etc/redhat-release
Nota: Se da soporte a las versiones 5, 6, 7 y 7.1 de Red Hat Enterprise (RHEL).
Si la versión no está soportada, debe actualizar a una de las versiones
soportadas.
v Para comprobar que esté instalada la versión correcta de SLES, inicie sesión
como usuario root e indique el mandato siguiente:
cat /etc/SuSE-release
Instalación
5
Si la versión no es la 11, debe actualizar a esa versión.
Verificación del requisito de biblioteca de 64 bits
Para Red Hat Enterprise Linux, IBM Operations Analytics - Log Analysis requiere
que la biblioteca compat-libstdc++ de 64 bits:
Procedimiento
1. Determine si están instaladas las bibliotecas obligatorias. Ejecute el mandato: :
sudo /usr/bin/yum --noplugins list installed "libstdc++"
Si este mandato indica que se han instalado las bibliotecas necesarias, no es
necesaria ninguna acción adicional. Por ejemplo:
libstdc++.x86_64
2. Si no están instaladas las bibliotecas obligatorias, busque el repositorio de Red
Hat Network para mostrar las bibliotecas disponibles para su sistema
operativo:
sudo /usr/bin/yum --noplugins search libstdc++
3. Para instalar las bibliotecas necesarias, ejecute este mandato:
sudo /usr/bin/yum --noplugins install libstdc++.x86_64
Inhabilitación de Linux de seguridad mejorada (SELinux)
Si SELinux está en modalidad de imposición, se produce una excepción durante la
instalación de IBM Operations Analytics - Log Analysis. Asegúrese de que la
política de SELinux está establecida en un estado permisivo o inhabilitado. Para
inhabilitar SELinux:
Procedimiento
1. Inicie la sesión como un usuario root.
2. Edite el archivo config que se encuentra en el directorio /etc/selinux/.
3. Cambie el valor de SELINUXTYPE a un estado permisivo o inhabilitado. Los
valores posibles son:
permissive
SELinux imprime avisos en lugar de imponerles.
disabled
SELinux está totalmente inhabilitado.
Por ejemplo, para inhabilitar el kernel, cambie el valor a disabled:
SELINUX=disabled
4. Guarde los cambios.
5. Reinicie el sistema operativo.
Verificación de la biblioteca KornShell
Verifique que la biblioteca KornShell forme parte de su sistema operativo.
Procedimiento
1. Para verificar que KornShell forma parte del sistema operativo, entre uno de
los mandatos siguientes:
usr/bin/ksh
o bien
6
IBM Operations Analytics - Log Analysis: Guía de instalación, configuración y administración
/bin/ksh
2. Si estos mandatos no funcionan, entre el mandato siguiente para confirmar que
KornShell está instalado:
rpm -qa | grep ksh
ksh-20100202-1.el5
3. Si KornShell no está instalado, descárguelo y utilice el mandato siguiente para
instalarlo:
rpm -ivh ksh-<version>.rpm
donde <versión> es la versión que ha descargado.
Verificación de la versión de Python
Python Versión 2.4.3 y de la 2.6.6 a la 2.6.8 son soportados por IBM Operations
Analytics - Log Analysis.
Si no ha utilizado un paquete rpm para instalar Python, es posible que el
instalador IBM Operations Analytics - Log Analysis no lo reconozca y que aparezca
un mensaje de advertencia. Este aviso se puede ignorar y la instalación continúa.
Para verificar que está utilizando la versión correcta de Python, especifique este
mandato:
rpm -qa | grep "^python-2"
Si se ejecuta correctamente, el mandato devuelve la versión de Python. Por
ejemplo:
python-2.4.3-27.el5
Si no está usando la versión correcta de Python, descárguela e instálela.
Instale el paquete python-simplejson para Python
IBM Operations Analytics - Log Analysis necesita Python Versión 2.4.3 incluyendo
el rpm python-simplejson o Python Versión 2.6.6 a 2.6.8. Si utiliza Python Versión
2.4.3, debe instalar también el rpm JSON simple, python-simplejson. Python
Versión 2.6.6 a 2.6.8 incluyen el rpm necesario.
Procedimiento
1. Descargue el paquete python-simplejson de http://pkgs.org/centos-5-rhel-5/
centos-rhel-x86_64/python-simplejson-2.0.9-8.el5.x86_64.rpm/download/.
2. Inicie la sesión en el servidor de IBM Operations Analytics - Log Analysis como
usuario root.
3. Cambie al directorio de la carpeta que contiene el paquete.
4. Ejecute el mandato siguiente:
rpm -i python-simplejson-2.0.9-8.el5.x86_64.rpm
Instalación del programa de utilidad unzip
Debe instalar el programa de utilidad de descompresión de archivos en los
servidores en los que instale IBM Operations Analytics - Log Analysis o Motor de
indexación remoto.
Procedimiento
v Para instalar el programa de utilidad en Red Hat Enterprise Linux (RHEL),
inicie sesión como usuario root y ejecute el mandato siguiente:
Instalación
7
yum install unzip
v Para instalar el programa de utilidad en SUSE Enterprise Linux Server (SELS),
inicie sesión como usuario root y ejecute este mandato:
zypper install unzip
Verificación de la dirección IP y los nombres del servidor host
Antes de instalar IBM Operations Analytics - Log Analysis, debe asegurarse de que
los detalles de cada servidor de host se mantienen correctamente en el directorio
etc/hosts del sistema de destino.
Acerca de esta tarea
Si no completa esta tarea, pueden surgir problemas al iniciar la sesión o al ejecutar
una Panel de control de búsqueda personalizada. Para obtener más información
consulte No se pueden ejecutar Paneles de control de búsqueda personalizada después del
cambio de dirección IP en la Guía de resolución de problemas.
Procedimiento
v En el caso de un servidor que utilice una dirección IP estática, defina la
dirección IP estática y los valores necesarios en el formato siguiente:
IP
LONG-HOSTNAME
SHORT-HOSTNAME
Por ejemplo:
9.124.111.162
scaserver1.example.com
scaserver1
v Para un servidor Dynamic Host Configuration Protocol (DHCP) que utiliza una
dirección IP de bucle de retorno, defina la dirección IP de bucle de retorno y los
valores necesarios en el formato siguiente:
LOOPBACK-IP
LONG-HOSTNAME
SHORT-HOSTNAME
Por ejemplo:
127.0.0.1
ibmscala.example.com
ibmscala
Número de archivos abiertos y límites de memoria virtual
Actualice los límites de archivos abiertos y de memoria virtual para que coincidan
con los valores recomendados.
El valor recomendado de ulimit -n, que controla el número de archivos abiertos
que están permitidos para un proceso, es 4096.
El valor recomendado de ulimit -v, que controla el límite de memoria virtual de
un proceso, es unlimited.
Para obtener más información, consulte la Guía de rendimiento y ajuste en:
https://www.ibm.com/developerworks/community/wikis/home?lang=en#!/
wiki/IBMLogAnalyticsBeta/page/PerformanceandTuningGuide
Cambio del número predeterminado del límite de archivos
abiertos
El valor recomendado de ulimit -n, que controla el número de archivos abiertos
que se permiten para un proceso, es 4096 en cada uno de los servidores donde está
instalado un nodo de Motor de indexación. Para modificar el número del límite de
archivos abiertos, efectúe los pasos siguientes:
8
IBM Operations Analytics - Log Analysis: Guía de instalación, configuración y administración
Procedimiento
1. Inicie sesión en el servidor en el que haya instalado un nodo Motor de
indexación utilizando el id de usuario de Motor de indexación para ese
servidor.
2. Ejecute el mandato siguiente en una ventana de terminal:
ulimit -n
Si el valor devuelto es menor que 4096, continúe en el paso 3. Si el valor
devuelto es mayor que 4096, continúe en el paso 7.
3. Inicie la sesión en el servidor como usuario root.
4. Abra el archivo /etc/security/limits.conf.
5.
Modifique o añada las líneas siguientes:
<user-id> hard nofile 4096
<user-id> soft nofile 4096
donde <user-id> es el user-id utilizado para instalar el Motor de indexación
en el servidor.
Para modificar el valor para todos los usuarios en este servidor, modifique o
añada las líneas siguientes:
* hard nofile 4096
* soft nofile 4096
6. Guarde los cambios.
7. Repítalo para cada instancia de Motor de indexación.
Qué hacer a continuación
Para asegurarse de que los cambios se actualicen, reinicie IBM Operations
Analytics - Log Analysis.
Cambio de límite de memoria virtual
El valor ulimit -v recomendado, que limita la memoria virtual para procesos, es
unlimited en cada uno de los servidores donde está instalado un nodo de Motor
de indexación. Para modificar el límite, efectúe los pasos siguientes:
Procedimiento
1. Inicie la sesión en el servidor donde está instalado un nodo de Motor de
indexación utilizando el ID de usuario de Motor de indexación para ese
servidor.
2. Ejecute el mandato siguiente en una ventana de terminal:
ulimit -v
Si el valor devuelto no es unlimited, continúe en el paso 3. Si el valor devuelto
es unlimited, continúe en el paso 7.
3. Inicie la sesión en el servidor como usuario root.
4. Abra el archivo /etc/security/limits.conf.
5. Modifique o añada las líneas siguientes:
<user-id> hard as unlimited
<user-id> soft as unlimited
donde <user-id> es el user-id utilizado para instalar el Motor de indexación
en el servidor.
Instalación
9
Para modificar el valor para todos los usuarios en este servidor, modifique o
añada las líneas siguientes:
* hard as unlimited
* soft as unlimited
6. Guarde los cambios.
7. Repítalo para cada instancia de Motor de indexación.
Qué hacer a continuación
Para asegurarse de que los cambios se actualicen, reinicie IBM Operations
Analytics - Log Analysis.
Verificación de las configuraciones de dirección IP y nombre
de host
Debe verificar que los valores de nombre de host y dirección IP se hayan
configurado correctamente.
Procedimiento
1. Para verificar que el nombre de host se ha configurado correctamente, escriba
el mandato siguiente:
hostname
Si está configurado correctamente, el mandato devuelve el nombre de host. Por
ejemplo:
example
2. Para verificar que el nombre de host utiliza el nombre de host completo, entre
el mandato siguiente:
hostname -f
Si la operación es correcta, el mandato devuelve el nombre de host completo.
Por ejemplo:
example.ibm.com
3. Para confirmar que la dirección IP se ha configurado correctamente, haga ping
en el nombre de host:
ping example
Si la operación es correcta, se devuelve la dirección IP.
Servidor de horas
Para asegurarse de que algunas de las características de IBM Operations Analytics
- Log Analysis funcionan correctamente, debe configurar un servidor que
mantenga la hora.
Algunas características de IBM Operations Analytics - Log Analysis utilizan el
tiempo relativo como días, semanas o meses. Este tiempo se calcula a partir de la
hora del servidor en el que IBM Operations Analytics - Log Analysis está instalado.
Para asegurarse de que estas funciones generan resultados correctos, debe
asegurarse de que la hora en el servidor de IBM Operations Analytics - Log
Analysis es correcta. Puede utilizar un servidor de horas para sincronizar la hora
del servidor de IBM Operations Analytics - Log Analysis con la hora correcta. Debe
hacerlo antes de instalar IBM Operations Analytics - Log Analysis.
10
IBM Operations Analytics - Log Analysis: Guía de instalación, configuración y administración
Instalación en servidores IBM Power8
Antes de instalar Log Analysis en un servidor basado en IBM Power8, lea y
complete los siguientes requisitos previos.
La versión soportada es IBM Power8 Little Endian for Linux (ppc64le). En esta
documentación, se denominará IBM Power8.
Requisitos previos
v Antes de instalar Log Analysis, asegúrese de instalar al menos un paquete de
fonts. Puede consultar el directorio /usr/share/fonts para ver qué paquetes se
han instalado. Un paquete de fonts que puede utilizar se denomina
gnu-free-fonts-common-20120503-8.ael7b.noarch.
v Debe utilizar Red Hat Enterprise for Linux 7.1 como sistema operativo.
Características soportadas
Si instala Log Analysis en un hardware basado en IBM Power8, no puede utilizar
el IBM Tivoli Monitoring Log File Agent interno que se instala con otras versiones
de Log Analysis. No se instala como parte de la instalación en los servidores
basados en IBM Power8.
No obstante, puede configurar un IBM Tivoli Monitoring Log File Agent externo
para transmitir datos desde un origen remoto a su instalación de Log Analysis.
Para obtener más información, consulte “Carga y modalidad continua de datos” en
la página 161.
Las demás características de Log Analysis están disponibles.
Instalación en servidores basados en Linux on System z y Linux on
System x
Antes de instalar IBM Operations Analytics - Log Analysis en un sistema operativo
basado en Linux on System z o Linux on System x, lea y complete los requisitos
previos.
Requisitos de hardware
Linux on System z se ejecuta en hardware basado en System z. Linux on System x
se ejecuta en hardware basado en Intel o AMD. Se admiten ambos tipos de
hardware pero hay pequeñas diferencias en los requisitos de software.
Nota: Si instala IBM Operations Analytics - Log Analysis en hardware basado en
Intel o AMD, debe instalar los componentes de IBM Operations Analytics - Log
Analysis como el servidor Motor de indexación en hardware basado en Intel o
AMD. No se pueden instalar los componentes de IBM Operations Analytics - Log
Analysis en hardware basado en Linux on System z. Del mismo modo, si instala
IBM Operations Analytics - Log Analysis en hardware basado en Linux on System
z, debe instalar los componentes de IBM Operations Analytics - Log Analysis como
el servidor Motor de indexación en hardware basado en System z.
Para obtener más información sobre los requisitos de hardware, consulte
“Requisitos de hardware y software” en la página 3.
Instalación
11
Requisitos previos
Para obtener más información sobre las tareas de requisito previo que debe
completar, consulte “Requisitos previos” en la página 4.
Sistemas operativos soportados para la ingestión de datos entre
plataformas
Puede elegir uno de los siguientes métodos para cargar datos en IBM Operations
Analytics - Log Analysis:
1. Utilizar el empaquetado de IBM Tivoli Monitoring Log File Agent con IBM
Operations Analytics - Log Analysis para transmitir datos.
2. Utilizar un IBM Tivoli Monitoring Log File Agent externo que se instala aparte
para transmitir datos.
3. Utilizar Log Forwarder de z/OS empaquetado con los paquetes Insight de
z/OS.
4. Utilizando el cliente de recopilador de datos o el FTP para cargar un lote de
datos.
Cada uno de estos escenarios ofrece un soporte distinto entre plataformas, tal como
se indica en la tabla siguiente:
Tabla 1. Sistemas operativos soportados para los escenarios de carga de datos
Escenario de carga de datos
Sistemas operativos soportados
1
Consulte la sección Sistemas operativos
soportados en “Carga y modalidad continua
de datos” en la página 161
2
Consulte la documentación sobre el tema
Requisitos para el agente de supervisión para su
versión de IBM Tivoli Monitoring
en:https://www.ibm.com/developerworks/
community/wikis/home?lang=en#!/wiki/
Tivoli%20Documentation%20Central/page/
Tivoli%20Monitoring
3
Consulte el tema Requisitos del sistema para
z/OS Log Forwarder en la documentación del
producto que se enlaza en la sección
Paquetes Insight
4
Consulte la sección Sistemas operativos
soportados en “Carga y modalidad continua
de datos” en la página 161
Nota:
El instalador remoto que utiliza para instalar instancias de IBM Tivoli Monitoring
Log File Agent y Tivoli Event Integration Facility no soporta la integración entre
sistemas operativos. Debe utilizar los instaladores remotos para instalar instancias
remotas en servidores que utilizan el mismo sistema operativo. Por ejemplo, si
instala IBM Operations Analytics - Log Analysis en Linux on System z, debe
instalar las instancias remotas en Linux on System z. En este ejemplo, no puede
instalar instancias remotas en Linux on System x.
12
IBM Operations Analytics - Log Analysis: Guía de instalación, configuración y administración
Paquetes Insight para z/OS
Las perspectivas de dominio para subsistemas z/OS están disponibles por
separado. Puede instalar los paquetes z/OS Insight en servidores basados en Linux
on System z y en Linux on System x. Para obtener más información, consulte
Documentación para IBM Operations Analytics for z Systems.
Soporte de Linux on System z logstash
logstash 1.5.3 se empaqueta con el paquete de instalación de IBM Operations
Analytics - Log Analysis Linux on System z de 64 bits. No obstante, logstash no
está soportado en Linux on System z. Sólo puede utilizar logstash para facilitar la
agregación de registro en hardware basado en Linux x86.
No se da soporte a la instalación entre plataformas de logstash. Por ejemplo, no
puede instalar logstash de forma remota desde un servidor Linux on System z en
otro servidor basado en Linux on System z o Linux on System x.
Instalación en sistemas con idiomas distintos del inglés
Si desea instalar IBM Operations Analytics - Log Analysis en un sistema en el que
el entorno local no es inglés de Estados Unidos, debe establecer el entorno local del
shell de mandatos en export LANG=en_US.UTF-8 antes de ejecutar cualquier script
de IBM Operations Analytics - Log Analysis. Por ejemplo, cuando instale IBM
Operations Analytics - Log Analysis debe ejecutar el siguiente mandato para
cambiar el entorno local antes de ejecutar el script unity.sh:
export LANG=en_US.UTF-8
Ajuste del sistema operativo
Para ajustar el sistema operativo Linux, asegúrese de que se haya realizado la
configuración siguiente de recursos:
Número de archivos simultáneos: 4096
Utilice el mandato ulimit -n para cambiar este valor por 4096.
Memoria virtual: Unlimited
Utilice el mandato ulimit -v para cambiar este valor por unlimited.
Instalación
Antes de utilizar la interfaz de línea de mandatos, la interfaz de usuario de
Installation Manager o una instalación silenciosa para instalar IBM Operations
Analytics - Log Analysis, lea los requisitos previos.
Log Analysis incluye IBM Installation Manager Versión 1.8.2. Puede utilizar esta
versión para instalar Log Analysis inmediatamente. También puede utilizar una
versión existente de IBM Installation Manager para instalar Log Analysis. Para
obtener más información, consulte la documentación del producto en
http://www-01.ibm.com/support/knowledgecenter/SSDV2W/
im_family_welcome.html.
Requisitos previos
v Asegúrese de haber completado todos los requisitos previos. Para obtener más
información, consulte “Requisitos previos” en la página 4.
Instalación
13
v Asegúrese de que el usuario tenga los derechos de acceso necesarios para añadir
archivos a la ubicación donde desea instalar IBM Operations Analytics - Log
Analysis.
v Si ha instalado previamente IBM Tivoli Monitoring Log File Agent 6.3 o inferior,
la instalación no podrá realizarse. Para solucionar este problema, detenga la
instalación de IBM Tivoli Monitoring Log File Agent existente o cambie el
nombre de la carpeta que se creó cuando se instaló. Para obtener información
detallada, consulte el tema acerca del error de instalación si se ha instalado IBM
Tivoli Monitoring Log File Agent en la guía Solución de problemas de IBM
Operations Analytics - Log Analysis.
v Antes de instalar IBM Operations Analytics - Log Analysis, debe asegurarse de
que los detalles de cada servidor de host se mantengan correctamente en el
directorio /etc/hosts en el sistema de destino. Si no se completa esta tarea
podrían producirse errores Oauth cuando se ejecute una Panel de control de
búsqueda personalizada. Para obtener más información, consulte “Verificación
de las configuraciones de dirección IP y nombre de host” en la página 10.
v Asegúrese de que IBM Installation Manager no está configurado para buscar en
los repositorios de servicio. Si el servidor no está conectado a Internet, este valor
puede hacer que la instalación falle o se detenga.
v Para obtener más información sobre IBM Installation Manager, consulte IBM
Knowledge Center en https://www-01.ibm.com/support/knowledgecenter/
SSDV2W/im_family_welcome.html.
Instalación con la interfaz de usuario de IBM Installation
Manager
Debe completar los pasos siguientes para instalar Log Analysis utilizando la
interfaz de usuario de IBM Installation Manager.
Antes de empezar
v Asegúrese de que el recuadro de selección Buscar en repositorios de servicio
durante la instalación y las actualizaciones no esté seleccionado. Si selecciona
este recuadro de selección y el servidor no está conectado a Internet, la
instalación puede fallar o detenerse.
Acerca de esta tarea
Cuando se ejecuta el script de instalación, se instalanLog Analysis y IBM
Installation Manager. IBM Installation Manager Versión 1.8.2 se instala al instalar
Log Analysis. En caso necesario, Log Analysis actualiza la versión instalada
actualmente de IBM Installation Manager.
Nota: La vía de acceso de instalación sólo acepta caracteres ASCII. Otros
caracteres, tales como los caracteres de idioma nativo no están soportados.
Procedimiento
1. Copie y extraiga el archivador de instalación en una ubicación de su servidor.
2. Desde el directorio en el que haya extraído los archivos de instalación, ejecute
el mandato:
./install.sh
Nota: Añada un parámetro -c para iniciar la instalación en el modo de solo
consola.Para obtener más información, consulte “Instalación con la interfaz de
mandatos de IBM Installation Manager” en la página 16.
14
IBM Operations Analytics - Log Analysis: Guía de instalación, configuración y administración
Nota: Para instalar Log Analysis en un servidor remoto utilizando la
modalidad de GUI, asegúrese de que el software de escritorio virtual esté
instalado en el servidor en el que desee instalar Log Analysis.
3. Aparece la pantalla Instalar paquetes.
4. Para instalar Log Analysis en el directorio por omisión, pulse Siguiente. Para
instalar Log Analysis en una ubicación distinta, pulse Examinar, seleccione
una ubicación alternativa, y pulse Siguiente.
5. Para continuar, acepte el acuerdo de licencia y pulse Siguiente.
6. Para aceptar las opciones de IBM Tivoli Monitoring Log File Agent, Motor de
indexación y Log Analysis predeterminadas, pulse Siguiente.
Nota: Si no puede instalar el IBM Tivoli Monitoring Log File Agent o el
recuadro de selección está sombreado, faltan algunos de los requisitos previos
o el IBM Tivoli Monitoring Log File Agent ya está instalado en el mismo
servidor. Debe realizar una de las acciones siguientes:
v Compruebe que se cumplen todos los requisitos previos necesarios.
v Si no desea utilizar el IBM Tivoli Monitoring Log File Agent existente,
puede detener la instalación y eliminarlo.
v Si desea utilizar el IBM Tivoli Monitoring Log File Agent para cargar datos
en Log Analysis, puede continuar con la instalación y, después de
completarla, debe configurar el IBM Tivoli Monitoring Log File Agent.
7. Se visualizan los puertos predeterminados utilizados por Log Analysis. Acepte
la opción predeterminada si ninguna aplicación está usando estos puertos o
cámbielos en caso necesario. Pulse Siguiente.
8. Si desea instalar una instancia de local de Motor de indexación, asegúrese de
que se haya seleccionado el recuadro de selección Apache Solr. El recuadro de
selección está marcado de forma predeterminada. Si desea utilizar una
instalación local de Motor de indexación, debe instalarla ahora. No se puede
instalar después de instalar Motor de indexación. Sin embargo, puede instalar
instancias de Motores de indexación en servidores remotos cuando la
instalación se ha completado. Para habilitar la búsqueda e indexación, debe
instalar al menos una instancia de Motor de indexación de forma local o
remota.
9. Revise la información de resumen que se proporciona para la instalación y
pulse Instalar.
10. Para completar la instalación, pulse Finalizar.
Qué hacer a continuación
Descargue una licencia para IBM Operations Analytics - Log Analysis de Passport
Advantage en http://www-01.ibm.com/software/lotus/passportadvantage/ y
realice los pasos que se describen en el archivo léame.
Para verificar que la instalación se haya completado, inicie una sesión en Log
Analysis.
Para instalar motores de indexación en servidores remotos, puede crearlos después
de instalar Log Analysis.
Si no verifica los detalles del servidor, tal como se describe en el tema Requisitos
previos, aparece el siguiente mensaje de error cuando se intenta ejecutar una Panel
de control de búsqueda personalizada:
No se ha podido iniciar. No se ha podido recuperar la señal de acceso OAuth.
Instalación
15
Para corregir este error debe asegurarse de que los detalles del servidor sean
correcto y volver a iniciar la instalación. Para obtener más información, consulte No
se ha podido recuperar la señal de acceso OAuth en la sección Resolución de problemas.
Conceptos relacionados:
“Requisitos previos” en la página 4
Antes de instalar IBM Operations Analytics - Log Analysis, asegúrese de que el
sistema cumple los requisitos de hardware y software, y lleve a cabo las tareas de
requisito previo.
“Instalación y configuración de IBM Tivoli Monitoring Log File Agent” en la
página 21
Cuando instala IBM Operations Analytics - Log Analysis, también puede elegir
instalar el IBM Tivoli Monitoring Log File Agent (LFA) que se proporciona junto
con el producto.
“Inicio de sesión en IBM Operations Analytics - Log Analysis” en la página 309
Este tema describe cómo iniciar la sesión en IBM Operations Analytics - Log
Analysis y cómo cambiar el nombre de usuario y la contraseña predeterminados.
Tareas relacionadas:
“Instalación de Apache Solr en máquinas remotas” en la página 65
Tras instalar IBM Operations Analytics - Log Analysis, puede utilizar el instalador
remoto de Apache Solr para instalar Apache Solr en una máquina remota.
Instalación con la interfaz de mandatos de IBM Installation
Manager
Puede utilizar la interfaz de mandatos de IBM Installation Manager para instalar
Log Analysis.
Antes de empezar
v No especifique Control -C para cancelar la instalación porque esto puede
provocar que el instalador se comporte de forma incoherente. En su lugar, para
cancelar la instalación especifique c cuando se le solicite.
Acerca de esta tarea
Cuando se ejecuta el script de instalación, se instalanLog Analysis y IBM
Installation Manager. IBM Installation Manager Versión 1.8.2 se instala al instalar
Log Analysis. En caso necesario, Log Analysis actualiza la versión instalada
actualmente de IBM Installation Manager.
Nota: La vía de acceso de instalación sólo acepta caracteres ASCII. Otros
caracteres, tales como los caracteres de idioma nativo no están soportados.
Procedimiento
1. Copie y extraiga el archivador de instalación en una ubicación de su servidor.
2. Para instalar Log Analysis:
a. Desde la ubicación de directorio de los archivos de instalación extraídos,
ejecute en mandato:
./install.sh -c
b. Seleccione los paquetes predeterminados de IBM Log File Agent, Motor de
indexación y de Log Analysis.
Nota: Si no puede instalar el IBM Tivoli Monitoring Log File Agent o el
recuadro de selección está sombreado, faltan algunos de los requisitos
16
IBM Operations Analytics - Log Analysis: Guía de instalación, configuración y administración
previos o el IBM Tivoli Monitoring Log File Agent ya está instalado en el
mismo servidor. Debe realizar una de las acciones siguientes:
v Compruebe que se cumplen todos los requisitos previos necesarios.
v Si no desea utilizar el IBM Tivoli Monitoring Log File Agent existente,
puede detener la instalación y eliminarlo.
v Si desea utilizar el IBM Tivoli Monitoring Log File Agent para cargar
datos en Log Analysis, puede continuar con la instalación y, después de
completarla, debe configurar el IBM Tivoli Monitoring Log File Agent.
c. Acepte el contrato de licencia.
d. Si es necesario, cambie la ubicación de la instalación. De lo contrario, acepte
la ubicación predeterminada.
e. Elija la característica Log Analysis y, en caso necesario, la característica IBM
Tivoli Monitoring Log File Agent.
f. Si es necesario, cambie los números de puerto predeterminados. De lo
contrario, acepte los puertos predeterminados.
g. Para instalar una instancia de local de Motor de indexación, asegúrese de
seleccionar Apache Solr. Apache Solr está seleccionado por omisión. Para
utilizar una instalación local de Motor de indexación, debe instalarla ahora.
No se puede instalar después de instalar IBM Operations Analytics - Log
Analysis. Sin embargo, puede instalar instancias de Motor de indexación en
máquinas remotas cuando la instalación se haya completado. Para habilitar
la búsqueda e indexación, debe instalar al menos una instancia de Motor de
indexación de forma local o remota.
h. Si desea generar un archivo de respuestas de instalación para futuras
instalaciones silenciosas, seleccione Generar un archivo de respuestas de
instalación.
i. Cuando la instalación haya finalizado, seleccione Finalizar.
3. Para comprobar los detalles de la instalación, seleccione Ver paquetes
instalados.
Qué hacer a continuación
Descargue una licencia para IBM Operations Analytics - Log Analysis de Passport
Advantage en http://www-01.ibm.com/software/lotus/passportadvantage/ y
realice los pasos que se describen en el archivo léame.
Para verificar que la instalación se haya completado, inicie una sesión en Log
Analysis.
Para instalar motores de indexación en servidores remotos, puede crearlos después
de instalar Log Analysis.
Si no verifica los detalles del servidor, tal como se describe en el tema Requisitos
previos, aparece el siguiente mensaje de error cuando se intenta ejecutar una Panel
de control de búsqueda personalizada:
No se ha podido iniciar. No se ha podido recuperar la señal de acceso OAuth.
Para corregir este error debe asegurarse de que los detalles del servidor sean
correcto y volver a iniciar la instalación. Para obtener más información, consulte No
se ha podido recuperar la señal de acceso OAuth en la sección Resolución de problemas.
Conceptos relacionados:
Instalación
17
“Requisitos previos” en la página 4
Antes de instalar IBM Operations Analytics - Log Analysis, asegúrese de que el
sistema cumple los requisitos de hardware y software, y lleve a cabo las tareas de
requisito previo.
“Instalación y configuración de IBM Tivoli Monitoring Log File Agent” en la
página 21
Cuando instala IBM Operations Analytics - Log Analysis, también puede elegir
instalar el IBM Tivoli Monitoring Log File Agent (LFA) que se proporciona junto
con el producto.
“Inicio de sesión en IBM Operations Analytics - Log Analysis” en la página 309
Este tema describe cómo iniciar la sesión en IBM Operations Analytics - Log
Analysis y cómo cambiar el nombre de usuario y la contraseña predeterminados.
Tareas relacionadas:
“Instalación de Apache Solr en máquinas remotas” en la página 65
Tras instalar IBM Operations Analytics - Log Analysis, puede utilizar el instalador
remoto de Apache Solr para instalar Apache Solr en una máquina remota.
Instalación silenciosa de Log Analysis
Puede instalar Log Analysis silenciosamente utilizando el archivo de respuestas de
ejemplo que se proporciona con el producto. Esto automatiza el procedimiento de
instalación.
Antes de empezar
v Descargue y extraiga el archivo de instalación de Log Analysis. El archivado
contiene los archivos del producto y un archivo de respuestas de ejemplo,
sample_smcl_silent_install.xml, que es necesario para la instalación silenciosa.
Nota: Una instalación silenciosa puede fallar si el repositorio de IBM Installation
Manager ha cambiado desde la última instalación o desinstalación. Este problema
se puede producir incluso cuando se actualiza el archivo de respuestas con la
ubicación de repositorio correcta. Si está instalando desde un repositorio nuevo,
elimine o cierre las conexiones de repositorio antiguas.
Nota: Si no puede instalar el IBM Tivoli Monitoring Log File Agent o el recuadro
de selección está sombreado, faltan algunos de los requisitos previos o el IBM
Tivoli Monitoring Log File Agent ya está instalado en el mismo servidor. Debe
realizar una de las acciones siguientes:
v Compruebe que se cumplen todos los requisitos previos necesarios.
v Si no desea utilizar el IBM Tivoli Monitoring Log File Agent existente, puede
detener la instalación y eliminarlo.
v Si desea utilizar el IBM Tivoli Monitoring Log File Agent para cargar datos en
Log Analysis, puede continuar con la instalación y, después de completarla, debe
configurar el IBM Tivoli Monitoring Log File Agent.
Acerca de esta tarea
Cuando se ejecuta el script de instalación, se instalanLog Analysis y IBM
Installation Manager. IBM Installation Manager Versión 1.8.2 se instala al instalar
Log Analysis. En caso necesario, Log Analysis actualiza la versión instalada
actualmente de IBM Installation Manager.
Nota: La vía de acceso de instalación sólo acepta caracteres ASCII. Otros
caracteres, tales como los caracteres de idioma nativo no están soportados.
18
IBM Operations Analytics - Log Analysis: Guía de instalación, configuración y administración
Instalar silenciosamente Log Analysis implica modificar el archivo de respuesta de
ejemplo y luego llamar a IBM Installation Manager desde la línea de mandatos o
desde un script para instalar el producto. IBM Installation Manager obtiene los
ajustes de instalación del archivo de respuestas.
Procedimiento
Para instalar Log Analysis silenciosamente:
1.
Copie el archivo de respuestas de ejemplo en un directorio local adecuado (por
ejemplo, el directorio inicial). Utilice un nombre adecuado para el archivo de
respuestas local, por ejemplo: smcl_silent_install.xml
2. Modificar el archivo de respuestas para que se adapte a su entorno:
a. Localice la línea y edítela para que refleje el directorio de inicio:
<preference name=’com.ibm.cic.common.core.preferences.eclipseCache’
value=’/home/MYUSERID/IBM/IBMIMShared’/>
donde /home/MYUSERID es la ubicación del directorio home.
b. Localice y edite estas líneas para especificar el directorio donde ha extraído
la imagen de instalación:
<repository location=’/home/MYUSERID/IMAGEDIRECTORY/im.linux.x86’/>
<repository location=’/home/MYUSERID/IMAGEDIRECTORY’/>
donde /home/MYUSERID es el directorio de inicio y IMAGEDIRECTORY es el
nombre del directorio en el que se ha extraído el paquete de instalación.
Nota: Para las vías de acceso proporcionadas se presupone que el paquete
de instalación se ha extraído en el directorio inicial.
c. Localice y edite estas líneas para que reflejen el directorio home:
<profile id=’IBM Installation Manager’ installLocation=
’/home/MYUSERID/IBM/InstallationManager/eclipse’ kind=’self’>
<data key=’eclipseLocation’ value=’/home/MYSERUSERID/IBM/
InstallationManager/eclipse’/>
y
<profile id=’IBM Log Analytics’
installLocation=’/home/MYUSERID/IBM/LogAnalysis’>
y
<data key=’eclipseLocation’ value=’/home/MYUSERID/IBM/
LogAnalysis’/>
donde /home/MYUSERID es la ubicación del directorio home.
d. Opcional: Si es necesario, cambie los números de puerto predeterminados
siguientes:
Nota: Log Analysis utiliza los números de puerto predeterminados; sólo
modifique los valores si es necesario.
<!-- Puerto de consola web de aplicación -->
<data key=’user.unity.port.number,com.ibm.tivoli.scloganalytics’
value=’9988’/>
<!-- Application WebConsole Secure Port -->
<data key=’user.unity.secureport.number,com.ibm.tivoli.scloganalytics’
value=’9987’/>
<!-- Database Server Port -->
<data key=’user.database.port.number,com.ibm.tivoli.scloganalytics’
value=’1627’/>
<!-- Data Collection Server Port -->
<data key=’user.eif.port.number,com.ibm.tivoli.scloganalytics’
Instalación
19
value=’5529’/>
<!-- ZooKeeper Port -->
<data key=’user.zookeeper.port.number,com.ibm.tivoli.scloganalytics’
value=’12181’/>
<!-- Apache Solr Search Port -->
<data key=’user.searchengine.port.number,com.ibm.tivoli.scloganalytics’
value=’9983’/>
<!-- Apache Solr Stop Port -->
<data key=’user.searchengineQS.port.number,com.ibm.tivoli.scloganalytics’
value=’7205’/>
e. Guarde los cambios.
3. Opcional: Para excluir IBM Tivoli Monitoring Log File Agent de la instalación,
elimine el parámetro LOG_FILE_AGENT del elemento offering id.
Por ejemplo, cambie la entrada predeterminada siguiente:
<offering id=’com.ibm.tivoli.scloganalytics’
profile=’IBM Log Analytics’
features=’IBM Log Analytics,LOG_FILE_AGENT’
installFixes=’none’/>
Para:
<offering id=’com.ibm.tivoli.scloganalytics’
profile=’IBM Log Analytics’
features=’IBM Log Analytics’
installFixes=’none’/>
4. Opcional: Para excluir Motor de indexación, elimine el parámetro Data
Explorer Application del elemento offering id.
Por ejemplo, cambie la entrada predeterminada siguiente:
<offering id=’com.ibm.tivoli.scloganalytics’
profile=’IBM Log Analytics’
features=’IBM Log Analytics,LOG_FILE_AGENT,
Data Explorer Application’
installFixes=’none’/>
Para:
<offering id=’com.ibm.tivoli.scloganalytics’
profile=’IBM Log Analytics’
features=’IBM Log Analytics, LOG_FILE_AGENT,’
installFixes=’none’/>
5. Si ya tiene instalado IBM Installation Manager, utilice este mandato para iniciar
la instalación silenciosa:
~/IBM/InstallationManager/eclipse/tools/imcl -s -input
<HOME_DIR>/smcl_silent_install.xml -sVP -acceptLicense
Donde <HOME_DIR> es el directorio en el que ha almacenado el archivo de
respuestas.
Si no tiene instalado IBM Installation Manager, utilice el mandato install.sh
para instalar tanto IBM Installation Manager como Log Analysis. Desde el
directorio en el que haya extraído el archivado de instalación, ejecute el
mandato:
./install.sh -s <HOME_DIR>/smcl_silent_install.xml
donde <HOME_DIR> es el directorio de inicio. Este mandato instala de forma
silenciosa Log Analysis y también IBM Installation Manager Versión 1.8.2, si no
hay ninguna otra versión de IBM Installation Manager instalada.
20
IBM Operations Analytics - Log Analysis: Guía de instalación, configuración y administración
Resultados
El progreso de la instalación se visualiza en una consola de IBM Installation
Manager. Para instalar sin visualizar la consola, omita la opción -sVP (que muestra
el progreso detallado).
Qué hacer a continuación
Descargue una licencia para IBM Operations Analytics - Log Analysis de Passport
Advantage en http://www-01.ibm.com/software/lotus/passportadvantage/ y
realice los pasos que se describen en el archivo léame.
Para verificar que la instalación se haya completado, inicie una sesión en Log
Analysis.
Para instalar motores de indexación en servidores remotos, puede crearlos después
de instalar Log Analysis.
Si no verifica los detalles del servidor, tal como se describe en el tema Requisitos
previos, aparece el siguiente mensaje de error cuando se intenta ejecutar una Panel
de control de búsqueda personalizada:
No se ha podido iniciar. No se ha podido recuperar la señal de acceso OAuth.
Para corregir este error debe asegurarse de que los detalles del servidor sean
correcto y volver a iniciar la instalación. Para obtener más información, consulte No
se ha podido recuperar la señal de acceso OAuth en la sección Resolución de problemas.
Conceptos relacionados:
“Requisitos previos” en la página 4
Antes de instalar IBM Operations Analytics - Log Analysis, asegúrese de que el
sistema cumple los requisitos de hardware y software, y lleve a cabo las tareas de
requisito previo.
“Instalación y configuración de IBM Tivoli Monitoring Log File Agent”
Cuando instala IBM Operations Analytics - Log Analysis, también puede elegir
instalar el IBM Tivoli Monitoring Log File Agent (LFA) que se proporciona junto
con el producto.
“Inicio de sesión en IBM Operations Analytics - Log Analysis” en la página 309
Este tema describe cómo iniciar la sesión en IBM Operations Analytics - Log
Analysis y cómo cambiar el nombre de usuario y la contraseña predeterminados.
Tareas relacionadas:
“Instalación de Apache Solr en máquinas remotas” en la página 65
Tras instalar IBM Operations Analytics - Log Analysis, puede utilizar el instalador
remoto de Apache Solr para instalar Apache Solr en una máquina remota.
Instalación y configuración de IBM Tivoli Monitoring Log File
Agent
Cuando instala IBM Operations Analytics - Log Analysis, también puede elegir
instalar el IBM Tivoli Monitoring Log File Agent (LFA) que se proporciona junto
con el producto.
Después de instalar el LFA durante la instalación de Log Analysis, debe
configurarlo. Este tipo de LFA se conoce como LFA interno.
Instalación
21
Si elige no instalar el LFA durante la instalación de Log Analysis porque desea
utilizar un LFA existente para cargar datos en Log Analysis, necesita configurar el
LFA para que funcione con Log Analysis. Este tipo de LFA se conoce como LFA
externo.
Para obtener más información sobre cómo configurar LFA, consulte “Datos en
modalidad continua con IBM Tivoli Monitoring Log File Agent” en la página 174.
Conceptos relacionados:
“Escenarios de configuración de IBM Tivoli Monitoring Log File Agent” en la
página 176
Puede utilizar el IBM Tivoli Monitoring Log File Agent interno que instalado con
IBM Operations Analytics - Log Analysis o puede utilizar el IBM Tivoli Monitoring
Log File Agent externo para transmitir datos de servidores locales o remotos.
Verificación de la información de versión
Para visualizar la información de versión de la instalación, ejecute el programa de
utilidad unity_VersionInfoUtility.sh.
Procedimiento
Ejecute el mandato siguiente:
<HOME>/IBM/LogAnalysis/utilities/unity_VersionInfoUtility.sh
Resultados
La información de versión se visualiza junto con otra información útil sobre la
instalación.
Eliminación de IBM Operations Analytics - Log Analysis
Puede utilizar la línea de mandatos, la interfaz de usuario de IBM Installation
Manager o un proceso de eliminación silenciosa para eliminar IBM Operations
Analytics - Log Analysis.
Eliminación de IBM Operations Analytics - Log Analysis
Este tema describe los pasos que debe completar para eliminar IBM Operations
Analytics - Log Analysis.
Acerca de esta tarea
En este procedimiento se describe cómo eliminar IBM Operations Analytics - Log
Analysis y IBM Installation Manager desde su entorno. Estos dos componentes se
instalan cuando se instala IBM Operations Analytics - Log Analysis. Para
completar la desinstalación, elimine IBM Operations Analytics - Log Analysis y, a
continuación, si es necesario, realice el procedimiento para eliminar IBM
Installation Manager.
Nota: Si tiene instalaciones remotas de Motores de indexación, debe eliminarlas
antes de eliminar IBM Operations Analytics - Log Analysis. Para obtener más
información sobre cómo eliminar Apache Solr Motores de indexación, consulte
“Eliminación de instancias de Apache Solr” en la página 67
22
IBM Operations Analytics - Log Analysis: Guía de instalación, configuración y administración
Procedimiento
1. Para eliminar IBM Operations Analytics - Log Analysis:
a. Vaya al directorio <HOME>/IBM/InstallationManager/eclipse/launcher y
ejecute el mandato.
./launcher
Nota: Si accede al entorno de instalación remota, asegúrese de que el
software de escritorio virtual esté configurado para que pueda ver la
interfaz gráfica de usuario de IBM Installation Manager.
b. Pulse Siguiente.
c. Seleccione el paquete de IBM Operations Analytics - Log Analysis y pulse
Siguiente.
d. Pulse Desinstalar. Deje que continúe la eliminación y cuando haya
finalizado, pulse Finalizar.
2. (Opcional) Para eliminar IBM Installation Manager:
a. Desde el directorio <HOME>/var/ibm/InstallationManager/uninstall, ejecute
el mandato:
./uninstall
donde <HOME> es el directorio en el que ha instalado IBM Operations
Analytics - Log Analysis
b. Complete los pasos de desinstalación y pulse Finalizar.
Utilización de la consola para eliminar IBM Operations
Analytics - Log Analysis
Este tema describe los pasos que debe completar para eliminar IBM Operations
Analytics - Log Analysis utilizando la consola.
Acerca de esta tarea
En este procedimiento se describe cómo eliminar IBM Operations Analytics - Log
Analysis y IBM Installation Manager desde su entorno utilizando la consola. Estos
dos componentes se instalan cuando se instala IBM Operations Analytics - Log
Analysis. Para completar la desinstalación, elimine IBM Operations Analytics - Log
Analysis y, a continuación, si es necesario, realice el procedimiento para eliminar
IBM Installation Manager.
Nota: Si tiene instalaciones remotas de Motores de indexación, debe eliminarlas
antes de eliminar IBM Operations Analytics - Log Analysis. Para obtener más
información sobre cómo eliminar Apache SolrMotores de indexación, consulte
“Eliminación de instancias de Apache Solr” en la página 67.
Procedimiento
1. Para eliminar IBM Operations Analytics - Log Analysis:
a. Vaya al directorio <HOME>/InstallationManager/eclipse/tools y ejecute el
mandato.
./imcl -c
b. Escriba 5 y pulse Intro.
c. Escriba 1 para seleccionar el paquete de IBM Operations Analytics - Log
Analysis y pulse N para continuar.
Instalación
23
d. Escriba 1 para seleccionar el paquete IBM Operations Analytics - Log
Analysis y pulse Intro.
e. Escriba N para continuar.
f. Escriba U para iniciar la desinstalación.
g. Cuando la desinstalación se haya completado, especifique F para finalizar la
desinstalación.
h. Escriba X para cerrar el IBM Installation Manager.
2. (Opcional) Para eliminar IBM Installation Manager:
a. Desde el directorio <HOME>/var/ibm/InstallationManager/uninstall, ejecute
el mandato:
./uninstallc
b. La desinstalación continúa y finaliza.
Eliminación silenciosa de IBM Operations Analytics - Log
Analysis
Puede eliminar IBM Operations Analytics - Log Analysis silenciosamente
utilizando el archivo de respuestas de ejemplo que se proporciona con el producto.
Antes de empezar
Necesita el archivo de ejemplo de respuestas <HOME>/IBM/LogAnalysis/work_files/
removal/sample_silent_loganalytics_removal.xml.
Nota: Una eliminación silenciosa puede fallar si el repositorio de IBM Installation
Manager ha cambiado desde la última instalación o eliminación. Este problema se
puede producir incluso cuando se actualiza el archivo de respuestas con la
ubicación de repositorio correcta. Si el repositorio ha cambiado, elimine o cierre el
antiguo depósito de conexiones antes de extraer el producto.
Nota: Si tiene instalaciones remotas de Apache Solr, elimínelas antes de eliminar
IBM Operations Analytics - Log Analysis. Para obtener más información sobre
cómo hacerlo, consulte “Eliminación de instancias de Apache Solr” en la página 67.
Acerca de esta tarea
Eliminar silenciosamente IBM Operations Analytics - Log Analysis implica
modificar el archivo de respuesta de ejemplo y luego llamar a IBM Installation
Manager desde la línea de mandatos o desde un script para eliminar el producto.
IBM Installation Manager obtiene los ajustes necesarios del archivo de respuestas.
Procedimiento
Para eliminar silenciosamente el producto:
1.
Copie el archivo de respuestas de ejemplo en un directorio local adecuado (por
ejemplo, el directorio inicial). Utilice un nombre adecuado para el archivo de
respuestas local, por ejemplo: smcl_removal.xml
2. Modificar el archivo de respuestas para que se adapte a su entorno:
a. Especifique la ubicación del repositorio de IBM Installation Manager para
su entorno. Por ejemplo: repository location=’/home/smcl/smcl_build/’
b. Si ha cambiado los números de puertos de IBM Operations Analytics - Log
Analysis predeterminados durante o después de la instalación, actualice las
entradas siguientes con los nuevos números de puertos:
24
IBM Operations Analytics - Log Analysis: Guía de instalación, configuración y administración
<!-- IBM Log Analytics WebConsole Port Number -->
<data key=’user.unity.port.number,com.ibm.tivoli.scloganalytics’
value=’9988’/>
<!-- IBM Log Analytics WebConsole Secure Port Number -->
<data key=’user.unity.secureport.number,com.ibm.tivoli.scloganalytics’
value=’9987’/>
<!-- IBM Log Analytics Database Port Number -->
<data key=’user.database.port.number,com.ibm.tivoli.scloganalytics’
value=’1627’/>
<!-- IBM Log Analytics DataCollection (EIF) Server Port Number -->
<data key=’user.eif.port.number,com.ibm.tivoli.scloganalytics’
value=’5529’/>
<!-- IBM Log Analytics Search Engine WebConsole Server Port Number -->
<data key=’user.searchengine.port.number,com.ibm.tivoli.scloganalytics’
value=’9989’/>
<!-- IBM Log Analytics Distributed Application Management Server
Port Number -->
<data key=’user.zookeeper.port.number,com.ibm.tivoli.scloganalytics’
value=’12181’/>
c. Guarde los cambios.
3. Use el mandato siguiente para eliminar el producto:
~/IBM/InstallationManager/eclipse/tools/imcl -s -input
<HOME_DIR>/smcl_removal.xml -sVP -acceptLicense
Donde <HOME_DIR> es el directorio en el que ha almacenado el archivo de
respuestas.
Resultados
El progreso de la eliminación se visualiza en una consola de IBM Installation
Manager. Para ejecutar el script de eliminación que muestra la consola, omita la
opción -sVP (que muestra el progreso detallado).
Referencia de la instalación
Consulte la información sobre los scripts y propiedades que puede configurar al
instalar Log Analysis.
Archivo de propiedades de configuración
Después de completar la instalación, para modificar las propiedades de
configuración edite el archivo unitysetup.properties.
Modifique sólo las propiedades que figuran en la tabla.
Nota: No se puede cambiar ninguno de los otros parámetros del archivo. Estos
parámetros se identifican como tales en el archivo. Si cambia uno de estos
parámetros, IBM Operations Analytics - Log Analysis puede no funcionar
correctamente o no hacerlo en absoluto.
Tabla 2. Parámetros de unitysetup.properties
Parámetro
Descripción
MAX_SEARCH_RESULTS=1000
El número máximo de resultados de
búsqueda que puede devolver la consulta de
la búsqueda.
Instalación
25
Tabla 2. Parámetros de unitysetup.properties (continuación)
Parámetro
Descripción
MAX_DATA_FACETS_IN_CHART=1000
El número máximo de facetas o puntos de
datos que se pueden incluir en los
resultados de la búsqueda devueltos.
#SEARCH_QUERY_FOR_DEFAULT_SEARCH=*
Quite el comentario de este parámetro para
habilitar la búsqueda por omisión.
MAX_WORK_QUEUE_SIZE=100000
Determine el tamaño máximo de la cola de
documentos que se retienen para anotación
y la indexación.
NUM_DOCUMENT_PROCESSOR_THREADS=30
Determina la agrupación de hebras que se
utiliza para seleccionar, anotar e indizar un
documento.
batchsize=500000
Determina el número máximo de registros
que puede cargar el receptor genérico en un
solo lote.
UNITY_APP_TIME_OUT=180
Determina el valor de tiempo de espera por
omisión en segundos para las aplicaciones.
El valor por omisión es 180 segundos.
ENABLE_SOLR_FACET_CACHE=false
Para habilitar la memoria caché de faceta
para búsquedas con comodín, establezca este
parámetro en true. Utilice este valor si se
ejecutan búsquedas con comodín en datos
cuya antigüedad sea mayor a 1 día. Cuando
está habilitado, se realiza un recuento de las
facetas antes de que Log Analysis las indexe.
MAX_NON_INCREMENTAL_WINDOWS
Determina el número de consultas
asíncronas que se pueden ejecutar
simultáneamente para una consulta de
solicitud de faceta de percentil. El valor
predeterminado es 2.
COLLECTION_ASYNC_WINDOW
Determina el tamaño de la ventana de
colección asíncrona. El valor predeterminado
es 1 día, 1d. No cambie este valor a no ser
que esté seguro de que su instalación puede
garantizar que el rendimiento de Log
Analysis no se vea afectado.
Puertos predeterminados
IBM Operations Analytics Log Analysis utiliza diversos puertos predeterminados
durante el proceso de instalación.
Puertos predeterminados
Tabla 3. Los puertos predeterminados para IBM Operations Analytics Log Analysis son los
siguientes:
26
Puertos
Valor predeterminado
Descripción
Puerto de consola web de
aplicación
9988
Utilice este puerto para la
comunicación http no segura
con la aplicación web de IBM
Operations Analytics Log
Analysis.
IBM Operations Analytics - Log Analysis: Guía de instalación, configuración y administración
Tabla 3. Los puertos predeterminados para IBM Operations Analytics Log Analysis son los
siguientes: (continuación)
Puertos
Valor predeterminado
Descripción
Puerto seguro de consola
web de aplicación
9987
Utilice este puerto para la
comunicación http segura
con la aplicación web de IBM
Operations Analytics Log
Analysis.
Puerto del servidor de la
base de datos
1627
Este puerto es utilizado
porIBM Operations Analytics
Log Analysis para la base de
datos interna.
Puerto del servidor de
recopilación de datos
5529
Este puerto es utilizado por
IBM Operations AnalyticsLog
Analysis para recopilar
datos.
Número de puerto de
ZooKeeper.
12181
El servicio ZooKeeper de
IBM Operations AnalyticsLog
Analysis utiliza este puerto
para gestionar sus nodos de
Apache Solr
Puerto de búsqueda de
Apache Solr
8983
Este puerto lo utiliza el
servidor Apache Solr para
escuchar las consultas de
búsqueda.
Puerto de parada de Apache
Solr
7205
Este puerto lo utiliza IBM
Operations AnalyticsLog
Analysis para detener el
servidor de Apache Solr.
Nota: Los puertos predeterminados de la Tabla 1 se aplican a instalaciones locales
de IBM Operations AnalyticsLog Analysis. Las instalaciones remotas de IBM
Operations AnalyticsLog Analysis pueden requerir varios números de puerto.
Mandato install.sh
Utilice el mandato install.sh para instalar IBM Operations Analytics - Log
Analysis.
El mandato install.sh se encuentra en el directorio de <HOME>/IBM/
LogAnalysis/remote_install_tool/ en la instalación local de IBM Operations
Analytics - Log Analysis.
Parámetros del mandato install.sh
Para instalar IBM Operations Analytics - Log Analysis con IBM Installation
Manager, ejecute el mandato:
./install.sh
Este mandato instala IBM Operations Analytics - Log Analysis, e instala o actualiza
IBM Installation Manager si no hay otra versión instalada. Para obtener más
información, consulte “Instalación con la interfaz de usuario de IBM Installation
Manager” en la página 14.
Instalación
27
Para instalarIBM Operations Analytics - Log Analysis con la consola, ejecute el
mandato:
./install.sh -c
Este mandato instala IBM Operations Analytics - Log Analysis e instala o actualiza
IBM Installation Manager, si no hay ninguna otra versión de IBM Installation
Manager instalada. Para obtener más información, consulte “Instalación con la
interfaz de mandatos de IBM Installation Manager” en la página 16.
Para instalar silenciosamente IBM Operations Analytics - Log Analysis, ejecute el
mandato:
./install.sh -s <HOME_DIR>/smcl_silent_install.xml
donde <HOME_DIR> es el directorio de inicio. Este mandato instala de forma
silenciosa IBM Operations Analytics - Log Analysis e instala o actualiza IBM
Installation Manager Versión 1.8.2. Para obtener más información, consulte
“Instalación silenciosa de Log Analysis” en la página 18.
Para instalar el receptor de Tivoli Event Integration Facility o IBM Tivoli
Monitoring Log File Agent en un servidor remoto, ejecute el script
remote_deploy.sh. Para obtener más información, consulte “Instalación de Apache
Solr en máquinas remotas” en la página 65.
El script backup_restore.sh
Para hacer una copia de seguridad o una restauración de datos, utilice el script
backup_restore.sh.
Sintaxis
backup_restore.sh <directorio_copia_seguridad> -backup| -restore
donde <directorio_copia_seguridad> es la vía de acceso del directorio que se crea
para almacenar la copia de seguridad de los archivos.
Parámetros
<directorio_copia_seguridad>
La vía de acceso para el directorio que se crea para almacenar la copia de
seguridad de archivos
backup Realiza una copia de seguridad de los datos actuales en el directorio de
respaldo.
restore
Restaura los datos almacenados en el directorio de respaldo.
28
IBM Operations Analytics - Log Analysis: Guía de instalación, configuración y administración
Actualización, copia de seguridad y migración de datos
Se utiliza el mismo script para realizar una copia de seguridad, restaurar y migrar
datos durante una actualización.
Antes de empezar
v Lea acerca de las limitaciones que se aplican a este procedimiento. Para obtener
más información, consulte “Limitación de la copia de seguridad y de la
migración” en la página 31
v Si no configura la autenticación de Secure Shell basada en claves (SSH) como
parte de la instalación, se le solicitará la contraseña durante la restauración. Para
obtener más información sobre cómo configurar SSH, consulte Configuración de
Secure Shell para utilizar la autenticación basada en claves.
v
Fixpack 1
Antes de migrar a Log Analysis 1.3.3 FP001, realice los pasos
siguientes para cada búsqueda guardada con un filtro de tiempo absoluto.
1. Para visualizar una lista de las búsquedas guardadas, pulse el icono
Búsquedas guardadas.
2. Seleccione la búsqueda guardada que desee actualizar.
3. Pulse la búsqueda guardada con el botón derecho y seleccione Editar.
4. Edite el filtro de tiempo en Coordinated Universal Time.
5. Para guardar el filtro de la búsqueda guardada, pulse Buscar
Acerca de esta tarea
Nota: Fixpack 1 Para migrar desde Log Analysis 1.3.2 a Log Analysis 1.3.3 FP001,
en primer lugar, migre a Log Analysis 1.3.3. Después de migrar a Log Analysis
1.3.3, puede instalar Log Analysis 1.3.3 FP001.
Se realiza una copia de seguridad de estos elementos y se migran mediante este
proceso:
v Las búsquedas, etiquetas y Orígenes de datos guardados
v Tipos de datos incluidos Tipos de origen, Conjuntos de reglas, Conjuntos de
archivos y Colecciones.
v Los archivos de configuración de topologías
v Las estadísticas de uso
v Los archivos de configuración LDAP
v Paneles de control de búsqueda personalizada
v Paquetes Insight
v Los archivos de configuración de Log File Agent (LFA)
v Los archivos de configuración de licencia
v Todas las especificaciones del gráfico, incluyendo las especificaciones de gráfico
personalizadas
Además de estos archivos, se realizan copias de seguridad de varios archivos que
no son necesarios para una nueva instalación y se mantienen como referencia.
Estos archivos incluyen:
v Los archivos de registro generados por IBM Operations Analytics - Log Analysis
© Copyright IBM Corp. 2015
29
v Los archivos de registro que se han cargado en modalidad por lotes
De los datos distintos de los arriba mencionados no se efectúan copias de
seguridad ni restauraciones. Cualquier personalización realizada fuera de los
archivos que aparecen listados aquí se deberá migrar manualmente. Por ejemplo, la
información de usuario y los cambios en las contraseñas de los usuarios por
omisión no se migran al servidor de destino.
La información de LDAP para un servidor LDAP se migra automáticamente. Si
tiene más de un servidor DAP, debe migrar y configurar manualmente la
información desde el otro servidor LDAP. La información migrada se almacena en
el archivo ldapRegistry.xml.
Procedimiento
Para realizar una copia de seguridad de los datos y restaurarlos en IBM Operations
Analytics - Log Analysis 1.3.3:
1. Efectúe una copia de seguridad de los datos. Para obtener más información,
consulte Copia de seguridad de los datos.
2. Restaure los datos. Para obtener más información, consulte Restauración de datos.
Para migrar los datos de IBM Operations Analytics - Log Analysis 1.3.2 a 1.3.3:
1. Efectúe una copia de seguridad de los datos en la versión 1.3.2.
2. Mueva los archivos comprimidos de los que ha hecho la copia de seguridad a
<dir_copia_seguridad> en el servidor de la versión 1.3.3.
3. Restaure los datos en el servidor de la versión 1.3.3.
Qué hacer a continuación
Debe actualizar los plug-ins de logstash existentes para IBM Operations Analytics Log Analysis 1.3.2 después de migrar a IBM Operations Analytics - Log Analysis
1.3.3 para asegurarse de que las instalaciones de logstash funcionan correctamente.
Para obtener más información sobre cómo actualizar logstash, consulte el tema
Actualización del plug-in de logstash tras la migración en la sección Actualización, copia
de seguridad y migración de datos.
Si ha configurado manualmente Hadoop en IBM Operations Analytics - Log
Analysis 1.3.2, debe ejecutar el mandato siguiente para migrar a IBM Operations
Analytics - Log Analysis 1.3.3.
<HOME>/IBM/LogAnalysis/utilities/migration/hadoop_config_migration.sh
Envíe los detalles de nodo de nombre y nodo de datos para asegurarse de que los
detalles de configuración y estado se actualizan y están visibles en la pantalla de
Integración de Hadoop.
Nota: La migración de la configuración de Hadoop de 1.3.2 a 1.3.3 solo se soporta
para instalaciones de IBM Open Platform Hadoop. La migración de configuración
de Hadoop es necesaria para ver detalles en la pantalla de Integración de Hadoop.
Otras configuraciones de Hadoop continúan funcionando sin esta característica.
Nota: Debe utilizar el mismo usuario de Log Analysis para la copia de seguridad
y la restauración. Es un requisito de configuración de Hadoop.
Si migra datos a un servidor de destino nuevo, debe completar los pasos siguientes
para actualizar el origen de datos con la información relevante para el servidor:
30
IBM Operations Analytics - Log Analysis: Guía de instalación, configuración y administración
1. Inicie sesión en IBM Operations Analytics - Log Analysis y abra el espacio de
trabajo Orígenes de datos.
2. Identifique los orígenes de datos que utilicen archivo local como la ubicación
en su configuración. Para cada uno de estos orígenes de datos, abra el origen
de datos y complete los pasos del asistente sin cambiar ningún dato. Con esta
acción se actualizan los orígenes de datos con la información relevante para el
nuevo servidor.
3. Identifique los orígenes de datos que utilicen Personalizado como la ubicación
en su configuración. Para cada uno de estos orígenes de datos, abra el origen
de datos y complete los pasos del asistente, actualizando el nombre de host
para que coincida con el nuevo.
Tareas relacionadas:
“Configuración de Secure Shell para utilizar la autenticación basada en claves” en
la página 52
Secure Shell (SSH) es un protocolo de red de cifrado para las comunicaciones de
datos seguras entre sistemas diferentes. Establezca una autenticación basada en
claves entre los servidores de IBM Operations Analytics - Log Analysis y los
sistemas remotos con los que se conectan.
“Copia de seguridad de los datos” en la página 32
Para realizar una copia de seguridad de los datos, complete el procedimiento.
“Restauración de datos” en la página 32
Para restaurar copias de seguridad de datos, complete el procedimiento siguiente.
“Actualización de instalaciones de logstash remotas” en la página 33
Después de migrar a IBM Operations Analytics - Log Analysis 1.3.3, debe
actualizar las instalaciones remotas de logstash que ha creado con IBM Operations
Analytics - Log Analysis 1.3.2.
Limitación de la copia de seguridad y de la migración
Antes de realizar una copia de seguridad, de restaurar o de migrar datos entre la
misma versión o distintas, lea las limitaciones.
Se aplican las restricciones siguientes:
v Para restaurar la copia de seguridad de los datos de Motores de indexación,
debe configurar al menos el mismo número de Motores de indexación en el
sistema de destino que el que existía anteriormente en el sistema de origen.
v Durante la restauración de datos, los datos en copias de seguridad no se
fusionan con los datos existentes en el servidor. Las copias de seguridad de los
datos se deben restaurar en un sistema de destino justo después de que se haya
instalado IBM Operations Analytics - Log Analysis.
v La restauración de la copia de seguridad de los datos no debe completarse más
de una vez en un servidor de destino. Si se producen errores al restaurar la
copia de seguridad de los datos, debe intentar la recuperación después de
extraer e instalar IBM Operations Analytics - Log Analysis.
v Sólo se hacen copias de seguridad y restauraciones de los datos que están
contenidos en los directorios de IBM Operations Analytics - Log Analysis por
omisión. No se efectúan copias de seguridad ni restauraciones de las
personalizaciones ni las modificaciones realizadas fuera de estos directorios.
v Si crea una Panel de control de búsqueda personalizada que apunta a la base de
datos Derby y que tiene ID de usuario y contraseña cifrados, debe actualizar la
aplicación para que refleje los cambios en el cifrado de ID de usuario y
contraseña de la base de datos Derby cuando migre a una versión nueva. La
Actualización, copia de seguridad y migración de datos
31
Panel de control de búsqueda personalizada no puede ejecutarse hasta que la
aplicación se edite para reflejar el cifrado que utiliza el instalación actualizado.
v Cuando se restaura un sistema ampliado con paquetes Insight extra (por
ejemplo, paquetes Insight creados con el kit de herramientas DSV), los
directorios de los archivos de registro y las fuentes de datos no se restauran.
Para resolver este problema, debe añadir manualmente estos directorios,
utilizando el archivo de configuración de LFA adecuado como referencia.
v Para migrar IBM Operations Analytics - Log Analysis 1.3.0, o versiones
anteriores, a IBM Operations Analytics - Log Analysis 1.3.3, primero debe migrar
a IBM Operations Analytics - Log Analysis 1.3.2.
Copia de seguridad de los datos
Para realizar una copia de seguridad de los datos, complete el procedimiento.
Procedimiento
1. Para detener IBM Operations Analytics - Log Analysis, utilice el script unity.sh
que se encuentra en el directorio <HOME>/IBM/LogAnalysis/utilities:
./unity.sh -stop
2. Cree un directorio de copia de seguridad donde se almacenen los archivos de
copia de seguridad. No cree este directorio en el mismo directorio en el que se
haya instalado IBM Operations Analytics - Log Analysis. Este directorio se
denomina directorio de copia de seguridad o <backup_dir> en este
procedimiento.
3. Desde el directorio <HOME>/IBM/LogAnalysis/utilities/migration, ejecute el
mandato siguiente:
./backup_restore.sh <backup_dir> backup
donde <backup_dir> es el directorio que creó en el paso 2. El directorio de
copia de seguridad que especifique debe estar vacío.
El mandato backup crea un conjunto de archivos de archivado en el directorio
de copia de seguridad.
Resultados
Cuando ejecuta el mandato backup, IBM Operations Analytics - Log Analysis crea
un archivo comprimido que contiene los datos archivados.
Los archivos comprimidos tienen la palabra restore en el nombre de archivo y se
numeran en secuencia. Por ejemplo, LogAnalytics_30Jul2014_Restore_001.zip.
Estos son los archivos que puede utilizar más adelante para restaurar los datos.
El mandato también genera archivos de referencia. Estos archivos están
almacenados en un archivo de archivado por separado. El nombre de archivo
contiene las palabras BackupOnly, por ejemplo
LogAnalytics_30Jul2014_BackupOnly_001.zip. No es necesario restaurarlos.
Restauración de datos
Para restaurar copias de seguridad de datos, complete el procedimiento siguiente.
Procedimiento
1. Para detener IBM Operations Analytics - Log Analysis, utilice el script unity.sh
que se encuentra en el directorio <HOME>/IBM/LogAnalysis/utilities:
32
IBM Operations Analytics - Log Analysis: Guía de instalación, configuración y administración
unity.sh -stop
2. Desde el directorio <HOME>/IBM/LogAnalysis/utilities/migration, ejecute el
mandato:
./backup_restore.sh <Backup_dir> restore
donde <Backup_dir> es la vía de acceso del directorio que contiene la copia de
seguridad de los archivos.
Si migra datos de Motor de indexación, debe crear el mismo número de
Motores de indexación en el sistema de destino Si ha especificado una
contraseña al crear los nodos, se le solicita la contraseña.
3.
Si LDAP está configurado en su servidor de origen de IBM Operations
Analytics - Log Analysis, se le solicita la contraseña de enlace LDAP durante la
restauración de los datos en el servidor de destino.
4.
Si hay un archivo de registro LDAP en la copia de seguridad Log
Analysis1.3.3 FP001, seleccione una de las opciones siguientes.
Fixpack 1
Utilice el archivo ldapRegistry.xml existente de la copia de seguridad
Utilice el archivo ldapRegistry.xml existente de la copia de seguridad
de Log Analysis.
Genere un nuevo ldapRegistry.xml utilizando ldapRegistryHelper.properties
Cree un nuevo ldapRegistry.xml. Para obtener más información acerca
de cómo crear ldapRegistry.xml, consulte
“ldapRegistryHelper.properties” en la página 38
5. Si ha configurado IBM Operations Analytics - Log Analysis para transmitir
datos desde el mismo servidor en el que se ha instalado y se han migrado IBM
Operations Analytics - Log Analysis en un servidor de destino nuevo, revise y
actualice el nombre de host en los orígenes de datos para que refleje el nombre
de host del servidor de destino.
6. Para iniciar IBM Operations Analytics - Log Analysis, utilice el script unity.sh
que se encuentra en el directorio <HOME>/IBM/LogAnalysis/utilities:
unity.sh -start
Qué hacer a continuación
Verifique que la migración y la restauración de datos haya sido satisfactoria.
Confirme que todos los artefactos y los datos se hayan restaurado antes de
suprimir la copia de seguridad del archivado. La información de progreso y los
errores almacenados durante la realización de la copia de seguridad y la
restauración se guarda en el directorio <HOME>/IBM/LogAnalysis/utilities/
migration/logs.
Actualización de instalaciones de logstash remotas
Después de migrar a IBM Operations Analytics - Log Analysis 1.3.3, debe
actualizar las instalaciones remotas de logstash que ha creado con IBM Operations
Analytics - Log Analysis 1.3.2.
Procedimiento
Para importar el archivo client.crt de <HOME>/IBM/LogAnalysis/wlp/usr/servers/
Unity/resources/security en el servidor de IBM Operations Analytics - Log
Analysis 1.3.3. a <JAVA_HOME> en la máquina remota, utilice el mandato siguiente.
<JAVA_HOME>/jre/bin/keytool -import -file <vía_acceso> -keystore <JAVA_HOME>/jre/
lib/security/ cacerts -storepass changeit
Actualización, copia de seguridad y migración de datos
33
Donde
v <JAVA_HOME> es el directorio donde está instalado Java en la máquina remota,
<logstash_install_dir>/LogAnalysis/ibm-java/
v <vía_acceso> es la ubicación de client.crt.
34
IBM Operations Analytics - Log Analysis: Guía de instalación, configuración y administración
Configuración
Puede configurar IBM Operations Analytics - Log Analysis mediante la interfaz de
usuario y las interfaces de línea de mandatos. También puede administrar y
gestionar la seguridad de la aplicación y el inicio de sesión único. Esta sección
describe cómo configurar IBM Operations Analytics - Log Analysis.
Configuración posterior a la instalación
Tras instalar IBM Operations Analytics - Log Analysis, debe completar las tareas
posteriores a la instalación necesarias.
La configuración posterior a la instalación incluye las tareas siguientes:
v Instalación de los datos de muestra. Esto es opcional.
v Creación de usuarios y asignación de roles
Después de completar la configuración posterior a la instalación, puede escalar la
instalación. Para obtener más información, consulte “Modalidad continua de datos
de varios orígenes remotos a través de una red” en la página 203.
Si desea instalar Motores de indexación en servidores remotos, puede crearlos
después de instalarIBM Operations Analytics - Log Analysis. Para obtener más
información, consulte “Instalación de Apache Solr en máquinas remotas” en la
página 65.
Si no instala una instancia local de un Motor de indexación, debe instalar un
Motor de indexación en uno de los servidores conectados de forma remota. Si no
instala al menos una instancia de Motor de indexación localmente o en un servidor
remoto, las funciones de búsqueda e indexación no funcionan.
Configuración de la comunicación y autenticación seguras
Después de instalar Log Analysis, puede configurar las comunicaciones seguras y
la autenticación de usuarios.
Puede configurar LDAP (Lightweight Directory Access Protocol) para la
autenticación de usuarios. También puede configurar los protocolos SSL (Secure
Sockets Layer) y SSH (Secure Shell), y configurar SSO (Single Sign-On) con Tivoli
Integrated Portal o Jazz for Service Management.
Consideraciones sobre seguridad
Varios archivos del entorno de IBM Operations Analytics - Log Analysis contienen
contraseñas codificadas o cifradas. El acceso a estos archivos debe ser controlado
ya sea mediante el control de acceso al sistema de archivos o bien mediante
derechos de acceso o los permisos de archivo. Esto puede lograrse limitando los
grupos y los usuarios que tienen acceso a estos archivos. Los archivos que
contienen esta información son:
v <HOME>/IBM/LogAnalysis/UnityEIFReceiver/config/unity.conf
v <HOME>/IBM/LogAnalysis/wlp/usr/servers/Unity/ldapRegistry.xml
v <HOME>/IBM/LogAnalysis/wlp/usr/servers/Unity/unityUserRegistry.xml
v <HOME>/IBM/LogAnalysis/wlp/usr/servers/Unity/keystore/unity.ks
v <HOME>/IBM/LogAnalysis/wlp/usr/servers/Unity/keystore/unity_statistics.ks
© Copyright IBM Corp. 2015
35
v <HOME>/IBM/LogAnalysis/wlp/usr/servers/Unity/apps/Unity.war/WEB-INF/
unitysetup.properties
v <HOME>/IBM/LogAnalysis/eif_remote_install_tool/config/rest-api.properties
v <HOME>/IBM/LogAnalysis/solr_install_tool/scripts/register_solr_instance
v <HOME>/IBM/LogAnalysis/utilities/pkg_mgmt.sh
v <HOME>/IBM/LogAnalysis/utilities/alerts/alerts.properties
Configuración de LDAP
Puede implementar un registro de usuarios LDAP en lugar del registro de usuarios
personalizado gestionado mediante base de datos que se proporciona en Log
Analysis.
Log Analysis utiliza un registro de usuarios personalizado gestionado mediante
base de datos como valor predeterminado para la autenticación de usuario.
Después de configurar LDAP, no se puede regresar al registro de usuarios
personalizado gestionado por la base de datos.
Configure LDAP inmediatamente después de instalar Log Analysis.
El registro de usuarios de Log Analysis distingue entre mayúsculas y minúsculas.
No obstante, el registro de usuarios LDAP no.
Para ver un ejemplo comprobado sobre cómo configurar la autenticación LDAP y
SSL, consulte “Ejemplo de configuración de LDAP y SSL” en la página 45.
Log Analysis soporta los servidores LDAP de Tivoli Directory Server (TDS) y
Microsoft Active Directory (AD).
Para configurar la autenticación LDAP, siga estos pasos:
1. Configure Log Analysis. Seleccione una de las configuraciones siguientes:
v Utilice el programa de utilidad ldapRegistryHelper.sh como ayuda para
configurar y habilitar la autenticación de LDAP. Para obtener más
información, consulte “Configuración de la autenticación LDAP con el script
ldapRegistryhelper.sh” en la página 37.
v De forma alternativa, puede crear el archivo ldapRegistry.xml necesario y
habilitar la autenticación LDAP manualmente. Para obtener más información,
consulte “Configuración manual de la autenticación LDAP” en la página 40
v Si desea utilizar varios servidores LDAP, debe crear el archivo
ldapRegistry.xml y configurar LDAP manualmente. No puede utilizar el
programa de utilidad ldapRegistryHelper.sh. Para obtener más información,
consulte “Configuración de varios servidores LDAP” en la página 42.
2. Correlacione cualquier grupo personalizado de LDAP con los roles de
seguridad de Log Analysis y añada los grupos personalizados al rol de
seguridad Oauth. Si utiliza los nombres de grupo personalizados, UnityAdmins y
UnityUsers, puede omitir este paso.
Los nombres de grupos personalizados se correlacionan con los roles de
seguridad en el archivo <HOME>/IBM/LogAnalysis/wlp/usr/servers/Unity/
unityConfig.xml de Log Analysis. Si no utiliza estos grupos predeterminados,
por ejemplo, si no puede crear estos grupos en el repositorio LDAP, puede
añadir grupos personalizados a Log Analysis.
Para obtener más información, consulte “Correlación de grupos LDAP con el
rol de seguridad” en la página 43
36
IBM Operations Analytics - Log Analysis: Guía de instalación, configuración y administración
3. Correlacione sus usuarios LDAP en Log Analysis. Para obtener más
información, consulte “Correlación de usuarios LDAP en Log Analysis” en la
página 44.
4. Actualice las contraseñas en los archivos de configuración. Para obtener más
información, consulte Actualización de contraseñas de los archivos de
configuración.
Si el entorno de LDAP está configurado para interactuar con otro software de
seguridad, Log Analysis puede tener que interactuar con este software para
completar la autenticación. Debe tener en cuenta las restricciones de ID de usuario
o contraseña impuestas por este otro software de seguridad. Por ejemplo, si una de
las demás aplicaciones LDAP necesita una contraseña de ocho caracteres, la
contraseña que especifique en Log Analysis debe cumplir ese requisito.
Configuración de la autenticación LDAP con el script ldapRegistryhelper.sh:
Puede utilizar el mandato ldapRegistryHelper.sh como ayuda para crear y
habilitar la autenticación LDAP con IBM Tivoli Directory Server o con Microsoft
Active Directory Server.
Acerca de esta tarea
No puede configurar directamente varios servidores LDAP con este programa de
utilidad. Sin embargo, puede utilizarlo para crear los archivos ldapRegistry.xml
necesarios. Para obtener más información, consulte “Configuración de varios
servidores LDAP” en la página 42.
Procedimiento
1. Para detener el servidor de Log Analysis, utilice el mandato siguiente:
./ unity.sh -stop
2. Para especificar los detalles del servidor LDAP, edite el archivo
ldapRegistryHelper.properties que se encuentra en el directorio
<HOME>/IBM/LogAnalysis/utilities/. Para obtener más información sobre las
propiedades de ldapRegistryHelper, consulte el tema
“ldapRegistryHelper.properties” en la página 38 en la guía Configuración.
3. Vaya al directorio <HOME>/IBM/LogAnalysis/utilities y ejecute el mandato
siguiente:
./ldapRegistryHelper.sh config
4. Ejecute el mandato siguiente:
./ldapRegistryHelper.sh enable
5. Si no puede utilizar los grupos predeterminados, por ejemplo, si no puede
crear estos grupos en su repositorio LDAP, puede correlacionar los grupos
personalizados del registro LDAP con los roles de seguridad de Log Analysis.
Para obtener más información, consulte “Correlación de grupos LDAP con el
rol de seguridad” en la página 43.
6. Cree los usuarios y roles necesarios. Para obtener más información, consulte
“Correlación de usuarios LDAP en Log Analysis” en la página 44
7. Para iniciar el servidor de Log Analysis, utilice el mandato siguiente:
./ unity.sh -start
Configuración
37
Resultados
Se habilita la autenticación LDAP básica entre Log Analysis y IBM Tivoli Directory
Server o el servidor de Microsoft Active Directory.
Qué hacer a continuación
Después de configurar LDAP, debe actualizar la contraseña en los archivos de
configuración. Para obtener más información, consulte Actualización de
contraseñas de los archivos de configuración.
ldapRegistryHelper.properties:
Puede editar ldapRegistryHelper.properties para especificar los detalles del
servidor LDA.
Las propiedades siguientes son necesarias y definen la información de conexión
para el servidor LDAP de destino.
Tabla 4. Propiedades de información de conexión de servidor LDAP
Propiedad
Descripción
ldap_hostname_property=
Nombre de host de LDAP.
ldap_port_property=
Puerto de LDAP.
ldap_baseDN_property=
baseDN de LDAP. Por ejemplo, "dc=com"
para usuarios de TDS y
"CN=Users,DC=sflab,DC=local" para
usuarios de AD.
Las propiedades siguientes son opcionales y definen la información de conexión
para el servidor LDAP de destino. Si es aplicable, se asignan valores
predeterminados.
El valor bindPassword para usuarios de AD está cifrado en
ldapRegistryHelper_config.xml.
Tabla 5. Propiedades opcionales de información de conexión del servidor LDAP
Propiedad
Descripción
ldap_bindDN_property=
bindDN de LDAP. Por ejemplo,
"CN=Administrator,CN=Users,DC=sflab,
DC=local" for AD users.
ldap_bindPassword_property=
Contraseña de enlace LDAP.
ldap_realm_property=
Dominio de LDAP. El valor predeterminado
es LdapRegistryRealm.
ldap_id_property=
ID de LDAP. El valor predeterminado es
LdapRegistryId.
ldap_ignoreCase_property=
Caso de ignorar LDAP. El valor
predeterminado es true.
Fixpack 1
38
recursiveSearch=
Fixpack 1
Habilitar la búsqueda recursiva.
El valor predeterminado es true. Solo está
disponible en IBM Operations Analytics Log Analysis 1.3.3 Fixpack 1.
IBM Operations Analytics - Log Analysis: Guía de instalación, configuración y administración
Mandato ldapRegistryHelper.sh:
Puede utilizar el mandato ldapRegistryHelper.sh para habilitar una conexión
básica para la autenticación de usuarios en IBM Operations Analytics - Log
Analysis.
Para obtener más información sobre cómo usar el mandato para configurar la
autenticación de LDAP con IBM Tivoli Directory Server o Microsoft Active
Directory, consulte “Configuración de la autenticación LDAP con el script
ldapRegistryhelper.sh” en la página 37.
Integraciones soportadas
Este mandato actualmente da soporte a las conexiones con el servidor de IBM
Tivoli Directory Server y Microsoft Active Directory.
Requisitos previos
Antes de utilizar este mandato debe actualizar el archivo
ldapRegistryHelper.properties en el directorio <HOME>/IBM/LogAnalysis/
utilities/ con la información de conexión y configuración para el servidor LDAP
de destino.
Sintaxis
El mandato ldapRegistryHelper.sh se encuentra en el directorio
<HOME>/IBM/LogAnalysis/utilities y tiene la sintaxis siguiente:
ldapRegistryHelper.sh
config | enable
Nota:
Para ejecutar el script, debe establecerse correctamente la variable JAVA_HOME para
debe establecerse correctamente IBM Operations Analytics - Log Analysis. Si el
script falla, ejecute el mandato siguiente para establecer la variable JAVA_HOME:
JAVA_HOME=$<HOME>/IBM-java
Parámetros
El mandato ldapRegistryHelper.sh tiene los parámetros siguientes:
config Utilice el parámetro config para crear un archivo XML que se llama
ldapRegistry.xml en el directorio <HOME>/IBM/LogAnalysis/wlp/usr/
servers/Unity. Este archivo utiliza la conexión y la información de
configuración definida en el archivo ldapRegistryHelper.properties.
enable
Utilice el parámetro habilitar para habilitar la autenticación de LDAP que
utiliza la información que se especifica en el archivo ldapRegistry.xml.
Este parámetro también inhabilita la referencia al registro de usuarios
personalizado gestionado mediante base de datos.
Configuración
39
Configuración manual de la autenticación LDAP:
Si desea configurar la autenticación LDAP manualmente, puede configurar
manualmente los valores en su propio archivo XML o puede modificar el
ldapRegistry.xml que vaya al mandato ldapRegistryHelper.sh para cumplir con
los requisitos.
Acerca de esta tarea
El procedimiento siguiente describe algunos de los pasos que están automatizados
mediante el mandato ldapRegistryHelper.sh. Lea este procedimiento para
ayudarle a entender los pasos necesarios para configurar la autenticación de LDAP.
Para obtener más información, consulte Configuración de un registro de usuarios
de LDAP con el perfil de Liberty.
Procedimiento
1. Para detener el servidor de Log Analysis, utilice el mandato siguiente:
./ unity.sh -stop
2. Cree manualmente un archivo de configuración LDAP denominado
ldapRegistry.xml y guárdelo en el directorio <HOME>/IBM/LogAnalysis/wlp/
usr/servers/Unity o modifique ldapRegistry.xml, que es la salida del
mandato ldapRegistryHelper.sh.
3. Actualice ldapRegistry.xml con la información de configuración adecuada:
v Para IBM Tivoli Directory Server, añada el texto:
<ldapRegistry id="IBMDirectoryServerLDAP" realm="SampleLdapIDSRealm"
host="host.domain.com" port="389" ignoreCase="true"
baseDN="o=domain,c=us"
bindDN="cn=root"
bindPassword="password"
ldapType="IBM Tivoli Directory Server">
<idsFilters
userFilter="(&(uid=%v)(objectclass=ePerson))"
groupFilter="(&(cn=%v)(|(objectclass=groupOfNames)
(objectclass=groupOfUniqueNames)(objectclass=groupOfURLs)))"
userIdMap="*:uid"
groupIdMap="*:cn"
groupMemberIdMap="ibm-allGroups:member;ibm-allGroups:
uniqueMember;groupOfNames:member;groupOfUniqueNames:uniqueMember" />
</ldapRegistry>
v Para Microsoft Active Directory, añada este texto:
<ldapRegistry id="ActiveDirectoryLDAP" realm="SampleLdapADRealm"
host="host.domain.com" port="389" ignoreCase="true"
baseDN="cn=users,dc=domain,dc=com"
bindDN="cn=myuser,cn=users,dc=domain,dc=com"
bindPassword="password"
ldapType="Microsoft Active Directory" />
4. Actualice estos atributos para que reflejen la configuración del servidor LDAP:
v ID
v realm
v host
v port
v baseDN
v bindDN
5. Los usuarios de AD deben ejecutar el mandato securityUtility que se
encuentra en el directorio <HOME>/IBM/LogAnalysis/bin para codificar la
40
IBM Operations Analytics - Log Analysis: Guía de instalación, configuración y administración
contraseña bindPassword. Este paso es opcional para los usuarios de TDS
porque no necesitan la contraseña bindPassword.
Después de ejecutar el mandato, copie el valor cifrado que el mandato
extraiga a la propiedad bindPassword.
Por ejemplo, puede ejecutar el siguiente mandato para cifrar la contraseña:
./securityUtility encode myPassw0rd
La contraseña cifrada aparece como el valor {xor}. Debe añadir este valor a su
archivo de configuración.
{xor}MiYPPiwsKG8tOw==
Para obtener más información acerca de este comando, consulte la publicación
“Programa de utilidad securityUtility.sh” en la página 119.
6. (Opcional) Si la implementación utiliza un LDAP Microsoft Active Directory
que utiliza clases de objeto diferentes para definir usuarios y grupos, actualice
los atributos userFilter y groupFilter según sea necesario.
7. (Opcional) Si su implementación utiliza Microsoft Active Directory, actualice
los atributos de correlación de usuarios, grupos y miembros de grupo, según
sea necesario para su entorno de LDAP.
8. Abra el archivo server.xml del directorio <HOME>/IBM/LogAnalysis/wlp/usr/
servers/Unity y añada estas líneas:
a. Sólo se puede configurar un tipo de registro de usuarios para la
autenticación, por lo que debe inhabilitar el registro de usuarios
personalizado gestionado mediante base de datos para habilitar LDAP.
Elimine los comentarios de las líneas siguientes en el archivo server.xml
que hagan referencia al registro de usuarios personalizado gestionado
mediante base de datos:
<!-- Include the basic registry predefined with default users
and groups -->
<!-<include optional="true" location="${server.config.dir}/
unityUserRegistry.xml"/>
-->
Si no elimina esta referencia aparecerá un mensaje de error.
b. Añada una etiqueta include para sustituir el registro de usuarios
personalizado con una referencia al archivo ldapRegistry.xml. Por
ejemplo:
<!-- Include the LDAP registry for user and groups -->
<include optional="true" location="${server.config.dir}/
ldapRegistry.xml"/>
9. Si no puede utilizar los grupos predeterminados, por ejemplo, si no puede
crear estos grupos en su repositorio LDAP, puede correlacionar los grupos
personalizados del registro LDAP con los roles de seguridad de Log Analysis.
Para obtener más información, consulte “Correlación de grupos LDAP con el
rol de seguridad” en la página 43.
10. Cree los usuarios y roles necesarios. Para obtener más información, consulte
“Correlación de usuarios LDAP en Log Analysis” en la página 44
11. Para iniciar el servidor de Log Analysis, utilice el mandato siguiente:
./ unity.sh -start
Qué hacer a continuación
Después de configurar el registro de usuarios de LDAP, debe actualizar la
contraseña unityadmin en los archivos de configuración de IBM Operations
Analytics - Log Analysis. Para obtener más información, consulte Actualización de
Configuración
41
contraseñas de los archivos de configuración.
Configuración de varios servidores LDAP:
Si utiliza varios servidores en su implementación de LDAP, puede configurar los
servidores para que se integren con Log Analysis.
Antes de empezar
Los nombres de usuario de LDAP deben ser exclusivos en todos los servidores.
Procedimiento
1. Para detener el servidor de Log Analysis, utilice el mandato siguiente:
./ unity.sh -stop
2. Para especificar los detalles del servidor LDAP, siga estos pasos. Puede utilizar
el programa de utilidad ldapRegistryHelper para crear el archivo
ldapRegistry.xml o puede crear el archivo ldapRegistry.xml manualmente.
a. Para utilizar el programa de utilidad ldapRegistryHelper para crear el
archivo ldapRegistry.xml:
1) Edite el archivo ldapRegistryHelper.properties que se encuentra en el
directorio <HOME>/IBM/LogAnalysis/utilities/. Para obtener más
información acerca de las propiedades de ldapRegistryHelper, consulte
“ldapRegistryHelper.properties” en la página 38.
2) Para asegurarse de que los servidores son diferentes, edite las
propiedades realm e id del archivo ldapRegistryHelper.properties que
se encuentra en el directorio <HOME>/IBM/LogAnalysis/utilities/. Para
obtener más información acerca de las propiedades de
ldapRegistryHelper, consulte “ldapRegistryHelper.properties” en la
página 38.
3) Vaya al directorio <HOME>/IBM/LogAnalysis/utilities. Utilice el
mandato ldapRegistryHelper.sh para generar el archivo
ldapRegistry.xml y ejecute el mandato siguiente para generar el archivo
<HOME>/IBM/LogAnalysis/wlp/usr/servers/Unity/ldapRegistry.xml:
./ldapRegistryHelper.sh config
b. De forma alternativa, puede crear el archivo ldapRegistry.xml
manualmente. Para asegurarse de que los servidores sean diferentes, edite
las propiedades realm y id en el archivo.
3. Realice la copia de seguridad del archivo ldapRegistry.xml.
4. Repita los pasos 2 y 3 para cada servidor LDAP.
5. Fusione los archivos ldapRegistry.xml en un solo archivo. Asegúrese de que
solo utiliza un elemento <server><server> en el archivo fusionado.
6. Si no puede utilizar los grupos predeterminados, por ejemplo, si no puede
crear estos grupos en su repositorio LDAP, puede correlacionar los grupos
personalizados del registro LDAP con los roles de seguridad de Log Analysis.
Para obtener más información, consulte “Correlación de grupos LDAP con el
rol de seguridad” en la página 43.
7. Cree los usuarios y roles necesarios. Para obtener más información, consulte
“Correlación de usuarios LDAP en Log Analysis” en la página 44
8. Para iniciar el servidor de Log Analysis, utilice el mandato siguiente:
./ unity.sh -start
42
IBM Operations Analytics - Log Analysis: Guía de instalación, configuración y administración
Correlación de grupos LDAP con el rol de seguridad:
Para habilitar la autenticación LDAP para los grupos LDAP personalizados, debe
correlacionar los grupos personalizados con los roles de seguridad necesarios en
Log Analysis.
Acerca de esta tarea
El acceso a Log Analysis se controla mediante los dos roles de seguridad en Log
Analysis:
UnityUser
Este rol otorga acceso a la IU de Búsqueda.
UnityAdmin
Este rol otorga acceso a la IU de Búsqueda y de Administración.
De forma predeterminada, estos roles están correlacionados con los grupos
UnityUsers y UnityAdmins en Log Analysis.
Si no puede utilizar los grupos UnityUsers y UnityAdmins, por ejemplo, si no
puede crearlo en su aplicación LDAP o si utiliza grupos personalizados en su
directorio LDAP, debe añadir sus grupos LDAP a los roles de seguridad.
También debe añadir estos grupos personalizados al rol de seguridad OAuth para
habilitar el acceso a Log Analysis.
Procedimiento
1. Abra el archivo <HOME>/IBM/LogAnalysis/wlp/usr/servers/Unity/
UnityConfig.xml.
2. Si su implementación lo requiere, puede correlacionar otros grupos del registro
LDAP con los roles de seguridad en Log Analysis. Para correlacionar grupos
con roles de seguridad, sustituya <Group_name> por los nombres de grupo. Por
ejemplo:
<security-role name="UnityUser">
<group name="UnityUsers" />
<group name="UnityAdmins" />
<group name="<Group_name1>"/>
<group name="<Group_name2>"/>
</security-role>
<security-role name="UnityAdmin">
<group name="<Group_name1>" />
<group name="TestLAAdmin"/>
</security-role>
donde <Group_name> son los nombres de los grupos personalizados que utiliza.
3. Para habilitar el rol de seguridad oauth que permite a los usuarios acceder a
Log Analysis, especifique los nombres de grupos personalizados.
Por ejemplo:
<oauth-roles>
<authenticated>
<group name="UnityUsers" />
<group name="UnityAdmins" />
<group name="<Group_name1>/>"
<group name="<Group_name2>/>"
</authenticated>
</oauth-roles>
Configuración
43
donde <Group_name> son los nombres de los grupos personalizados que utiliza.
El rol UnityUsers se añade de forma predeterminada.
4. Si no utiliza los grupos predeterminados UnityUsers y UnityAdmins en su
implementación, puede eliminar estos grupos.
5. Guarde los cambios.
6. Utilice este mandato para iniciar IBM Operations Analytics - Log Analysis
Server:
<HOME>/IBM/LogAnalysis/utilities/unity.sh -start
Correlación de usuarios LDAP en Log Analysis:
Para habilitar la autenticación LDAP, cree los usuarios, grupos y roles adecuados
en Log Analysis y en su directorio LDAP.
Acerca de esta tarea
Para obtener más información acerca de cómo crear usuarios y roles en Log
Analysis, consulte “Usuarios y roles” en la página 58.
Para correlacionar sus usuarios LDAP en Log Analysis, siga estos pasos:
Procedimiento
1. Cree los grupos denominados UnityAdmin y UnityUsers en su repositorio LDAP.
Si no puede crear estos grupos, correlacione los grupos LDAP existentes en Log
Analysis. Para obtener más información, consulte “Correlación de grupos
LDAP con el rol de seguridad” en la página 43.
2. Cree un usuario denominado unityadmin en su directorio LDAP. El usuario
unityadmin puede acceder a Log Analysis.
3. Si desea utilizar cualquier usuario que no sea unityadmin para acceder a Log
Analysis, realice los pasos siguientes:
a. Utilice el usuario unityadmin para iniciar sesión en Log Analysis.
b. Cree los usuarios de Log Analysis con el mismo nombre que los usuarios
definidos en su repositorio LDAP.
c. Cree roles en Log Analysis y asigne estos roles a los usuarios que ha creado
en el paso anterior.
Resultados
Después de completar esta tarea, puede actualizar estas contraseñas en los archivos
de configuración. Para obtener más información, consulte Actualización de
contraseñas de los archivos de configuración.
Cambiar el usuario administrativo predeterminado:
Fixpack 1
El usuario administrativo predeterminado es unityadmin para Log Analysis. Si no
puede crear un usuario con el nombre unityadmin en su repositorio LDAP, puede
cambiar el usuario predeterminado en Log Analysis de modo que coincida con el
usuario especificado en el directorio LDAP.
Antes de empezar
Debe utilizar IBM Operations Analytics - Log Analysis 1.3.3 Fixpack 1 o posterior.
44
IBM Operations Analytics - Log Analysis: Guía de instalación, configuración y administración
Acerca de esta tarea
Solo debe cambiar este usuario si no puede crear unityadmin en su repositorio
LDAP.
Procedimiento
1. Vaya al directorio <HOME>/IBM/LogAnalysis/utilities/authorization/.
2. Edite el archivo admin.properties. Añada valores para los siguientes
parámetros, añadiendo el nombre del nuevo usuario en el parámetro
LDAP_USER_NAME=:
LDAP_USER_NAME=
DISPLAY_NAME=
DESCRIPTION=
Por ejemplo:
LDAP_USER_NAME=ldap_admin
DISPLAY_NAME=Administrador LA
DESCRIPTION=Administrador para LA y LDAP
3. Guarde el archivo.
4. Para actualizar el nombre, ejecute el script. Escriba el mandato siguiente:
./makeLAadmin.sh admin.properties
Qué hacer a continuación
El nuevo usuario que especifique debe ser miembro del grupo LDAP. Para obtener
más información, consulte “Correlación de usuarios LDAP en Log Analysis” en la
página 44.
El rol de seguridad UnityAdmin se debe asignar al grupo LDAP. Para obtener más
información, consulte “Correlación de grupos LDAP con el rol de seguridad” en la
página 43.
Ahora puede utilizar el nuevo usuario para iniciar sesión en Log Analysis.
Ejemplo de configuración de LDAP y SSL:
Utilice este ejemplo completo como ayuda para configurar LDAP (Lightweight
Directory Access Protocol) y SSL (Secure Sockets Layer - Capa de sockets seguros)
para Log Analysis.
Aquí los pasos son para el ejemplo para ayudarle a aprender a configurar la
autenticación de LDAP con SSL. Los pasos exactos necesarios para configurar su
propia implementación serán diferentes.
Requisitos previos
Asegúrese de que la variable de inicio de Java se establece en JAVA_HOME=
/opt/IBM/SCALA/LogAnalysis/ibm-java/jre. Por ejemplo, para establecer esta
variable, especifique el mandato siguiente:
export JAVA_HOME= /opt/IBM/SCALA/LogAnalysis/ibm-java/jre
Configurar las propiedades de ayudante de registro LDAP
Configure las propiedades del script de ayudante de registro LDAP:
Configuración
45
1. Edite el archivo <HOME>/IBM/LogAnalysis/utilitiesldapRegistryHelper.properties.
2. Asegúrese de que no cambie la propiedad de tipo LDAP predeterminada:
ldap_type_property=IBM Tivoli Directory Server
3. Especifique la información de conexión obligatoria:
ldap_hostname_property=123.example.com
ldap_port_property=636
ldap_baseDN_property=o=example.com
4. Especifique las propiedades de conexión opcionales para el servidor LDAP de
destino. Las siguientes propiedades son opcionales. El parámetro
ldap_bindPassword_property se cifra posteriormente mediante el script
ldapRegistryHelper_config.xml y la versión cifrada se graba en el archivo
ldapRegistry.xml. La contraseña se elimina automáticamente del archivo
ldapRegistryHelp-er.properties después de que se ejecute el script
ldapRegistryHelper_config.xml. El ejemplo siguiente incluye algunos valores
predeterminados:
ldap_bindDN_property=
ldap_bindPassword_property=
ldap_realm_property=LdapRegistryRealm
ldap_id_property=example
ldap_ignoreCase_property=true
5. Especifique los filtros de LDAP predeterminados para cada proveedor. Las
propiedades de filtro utilizadas por el script ldapRegistryHelper_config.xml.
Estas propiedades las determina el tipo de LDAP que se especifica en el
parámetro ldap_type_property en el paso 1.
# IBM Tivoli Directory Server
ldap_TDS_userFilter_property=(&(emailAddress=%v)(objectclass=person))
ldap_TDS_groupFilter_property=(&(cn=%v)(|(objectclass=groupOfNames)
(objectclass=groupOfUniqueNames)(objectclass=groupOfURLs)))
ldap_TDS_userIdMap_property=*:emailAddress
ldap_TDS_groupIdMap_property=*:cn
ldap_TDS_groupMemberIdMap_property=ibm-allGroups:member;
ibm-allGroups:uniqueMember;groupOfNames:member;groupOfUniqueNames:
uniqueMember
Ejecutar el script de ayuda de registro LDAP
Para ejecutar el script de ayuda de registro LDAP, especifique el mandato
siguiente:
<HOME>/IBM/LogAnalysis/utilities/
ldapRegistryHelper.sh config
El script genera el ldapRegistry.xml basándose en las propiedades que se
especifican en el archivo <HOME>/IBM/LogAnalysis/utilitiesldapRegistryHelper.properties.
Editar el archivo ldapRegistry.xml
A continuación, debe editar <HOME>/IBM/LogAnalysis/wlp/usr/servers/Unity/
ldapREgistry.xml.
1. Edite <HOME>/IBM/LogAnalysis/wlp/usr/servers/Unity/ldapREgistry.xml
2. Añada las propiedades siguientes:
sslEnabled=“true”
sslRef=“LDAPSSLSettings”>
Por ejemplo:
46
IBM Operations Analytics - Log Analysis: Guía de instalación, configuración y administración
<server>
<ldapRegistry
host=“123.example.com”
port=“636”
baseDN=“o=example.com”
realm=“LdapRegistryRealm”
id="“example”
ignoreCase=“true”
ldapType=“IBM Tivoli Directory Server”
sslEnabled=“true”
sslRef=“LDAPSSLSettings”>
<idsFilters
userFilter=“(&(emailAddress=%v)(objectclass=person))”
groupFil-ter=“(&(cn=%v)(|(objectclass=groupOfNames)
(objectclass=groupOfUniqueNames)(objectclass=groupOfURLs)))”
userIdMap=“*:emailAddress”
groupIdMap=“*:cn”
groupMemberIdMap=“ibm-allGroups:member;ibm-allGroups:uniqueMember;
groupOfNames:member;groupOfUniqueNames:uniqueMember”/>
</ldapRegistry>
</server>
Edite el archivo unityConfig.xml
A continuación, debe añadir la información de usuario de Log Analysis a la
información de configuración LDAP en Log Analysis:
1. Edite <HOME>/IBM/LogAnalysis/wlp/usr/servers/Unity/unityConfig.xml.
2. Especifique los atributos siguientes:
<server>
<application type=“war” id=“Unity” name=“Unity”
location=“${server.config.dir}/apps/Unity.war”>
<application-bnd>
<security-role name=“UnityUser”>
<group name=“UnityUsers” />
<group name=“UnityAdmins” />
<group name=“IGA_SCALA_ADMIN” />
<group name=“IGA_SCALA_USER” />
</security-role>
<security-role name=“UnityAdmin”>
<group name=“UnityAdmins” />
<group name=“IGA_SCALA_ADMIN” />
</security-role>
</application-bnd>
</application>
<oauth-roles>
<authenticated>
<group name=“UnityUsers” />
</authenticated>
</oauth-roles>
</server>
Crear el almacén de claves JKS
Para crear el archivo de almacén de claves JKS:
1. Vaya al directorio <HOME>/IBM/LogAnalysis/wlp/usr/servers/Unity.
2. Ejecute keytool. Por ejemplo:
[scala@c25x0012 bin]$ /opt/IBM/SCALA/LogAnalysis/ibm-java/jre/bin/keytool
-genkeypair -alias scala -keyalg RSA -keystore LdapSSLKeyStore.jks
-keysize 2048 -validity 7300
Escriba la contraseña del almacén de claves:
La contraseña de almacén de claves es demasiado corta - debe tener al menos 6 caracteres
Escriba la contraseña del almacén de claves:
Configuración
47
La contraseña de almacén de claves es demasiado corta - debe tener al menos 6 caracteres
Escriba la contraseña del almacén de claves:
Vuelva a entrar la contraseña nueva:
¿Cuál es su nombre y su apellido?
[Desconocido]: <SCALA_SERVER_FQDN>
¿Cuál es el nombre de su unidad organizativa (OU)?
[Desconocido]: IGA
¿Cuál es el nombre de su organización?
[Desconocido]: IGA
¿Cuál es el nombre de su ciudad o localidad?
[Desconocido]: US
¿Cuál es el nombre de su estado o provincia?
[Desconocido]: US
¿Cuál es el código de dos letras de esta unidad?
[Desconocido]: US
¿Es CN=IGA, OU=IGA, O=IGA, L=US, ST=US, C=US correcto? (escriba "sí" o "no")
[no]: sí
Entre la contraseña de clave para <scala>:
(Retorno si es igual que la contraseña de palabra clave):
[unity@nc9042037056 Unity]$ /home/unity/IBM/LogAnalysis/ibm-java/jre/bin/
keytool -genkeypair -alias scala -keyalg RSA -keystore LdapSSLKeyStore.jks
-keysize 2048 -validity 7300
Escriba la contraseña del almacén de claves:
Vuelva a entrar la contraseña nueva:
¿Cuál es su nombre y su apellido?
[Desconocido]: nc9042037056.tivlab.raleigh.ibm.com
¿Cuál es el nombre de su unidad organizativa (OU)?
[Desconocido]: IGA
¿Cuál es el nombre de su organización?
[Desconocido]: IGA
¿Cuál es el nombre de su ciudad o localidad?
[Desconocido]: US
¿Cuál es el nombre de su estado o provincia?
[Desconocido]: US
¿Cuál es el código de dos letras de esta unidad?
[Desconocido]: US
¿Es CN=nc9042037056.tivlab.raleigh.ibm.com, OU=IGA, O=IGA, L=US, ST=US,
C=US correcto? (escriba "sí" o "no")
[no]:
Crear el almacén de confianza JKS
Para crear el almacén de confianza JKS:
1. Vaya al directorio <HOME>/IBM/LogAnalysis/wlp/usr/servers/Unity.
2. Ejecute keytool. Por ejemplo:
[scala@c25x0012 ~]$ /opt/IBM/SCALA/LogAnalysis/ibm-java/jre/bin/
keytool -genkeypair -alias scala -keyalg RSA -keystore
LdapSSLTrustStore.jks -keysize 2048 -validity 7300
Escriba la contraseña del almacén de claves:
Vuelva a entrar la contraseña nueva:
¿Cuál es su nombre y su apellido?
[Desconocido]: <SCALA_SERVER_FQDN>
¿Cuál es el nombre de su unidad organizativa (OU)?
[Desconocido]: IGA
¿Cuál es el nombre de su organización?
[Desconocido]: IGA
¿Cuál es el nombre de su ciudad o localidad?
[Desconocido]: US
¿Cuál es el nombre de su estado o provincia?
[Desconocido]: US
¿Cuál es el código de dos letras de esta unidad?
[Desconocido]: US
¿Es CN=IGA, OU=IGA, O=IGA, L=US, ST=US, C=US correcto?
48
IBM Operations Analytics - Log Analysis: Guía de instalación, configuración y administración
(escriba "sí" o "no")
[no]: sí
Entre la contraseña de clave para <scala>:
(Retorno si es igual que la contraseña de palabra clave):
Añadir el certificado raíz de ejemplo al almacén de confianza
Para añadir el certificado raíz al almacén de confianza, ejecute keytool:
[scala@c25x0012 Unity]$ /opt/IBM/SCALA/LogAnalysis/ibm-java/jre/bin/keytool
-import -trustcacerts -alias root -file bluepages.crt
-keystore LdapSSLTrustStore.jks
Escriba la contraseña del almacén de claves:
El certificado ya existe en el almacén de claves de CA de todo el sistema
bajo el alias de <equifaxsecureca>
¿Todavía desea añadirlo a su propio almacén de claves?
[no]: sí
Se ha añadido el certificado al almacén de claves
Codificar las contraseñas de confianza y de almacén de claves
1. Vaya a <HOME>/IBM/LogAnalysis/wlp/bin/.
2. Ejecute la herramienta de programa de utilidad de seguridad. Por ejemplo, la
contraseña que se utiliza aquí, t1v011, es la misma que la que se utiliza para
crear los almacenes de claves y de confianza en el paso anterior:
[scala@c25x0012 bin]$ ./securityUtility encode t1v0l1
{xor}K24pbzNu
Editar el archivo server.xml
Para añadir los detalles de confianza y de almacén de claves al archivo server.xml:
1. Vaya al directorio <HOME>/IBM/LogAnalysis/wlp/usr/servers/Unity.
2. Edite el archivo server.xml.
3. Añada los valores de seguridad antes de la etiqueta defaultKeystore. Por
ejemplo:
<sslDefault sslRef=“LDAPSSLSettings” />
<ssl id=“LDAPSSLSettings” keyStoreRef=“LDAPKeyStore”
trustStoreRef=“LDAPTrustStore” />
<keyStore id=“LDAPKeyStore” location=
“${server.config.dir}/LdapSSLKeyStore.jks”
type=“JKS” password=“{xor}K24pbzNu” />
<keyStore id=“LDAPTrustStore” location=
“${server.config.dir}/LdapSSLTrustStore.jks”
type= “JKS” password=“{xor}K24pbzNu” />
<!-- almacén de claves predeterminado para certificados situado en
<inicio instalación>/wlp/usr/servers/Unity/resources/security -->
<!-- el nombre de archivo es key.jks . Si no existe en el arranque
se creará automáticamente. -->
<keyStore id=“defaultKeyStore”
password=“{xor}MzA4PjE+MyYrNjws” />
Configurar el ID de aplicación de recopilador de datos de ejemplo
1. Vaya al directorio <HOME>/IBM/LogAnalysis/UnityEIFReceiver/config/.
2. Edite el archivo unity.conf. Especifique el ID y la contraseña de recopilador de
datos. Por ejemplo:
Configuración
49
[email protected]
unity.data.collector.password=pkhb67dg
donde [email protected] es el ID de aplicación que el gestor ha
solicitado en la aplicación DRMS.
3. Vaya al directorio <HOME>/IBM/LogAnalysis/utilities/datacollector-client.
4. Edite el archivo javaDatacollector.properties, especificando el ID de usuario
y la contraseña de recopilador de datos.
#El ID de usuario a utilizar para acceder al servicio rest de unidad
[email protected]
#Contraseña a utilizar para acceder al servicio REST de unidad
password=pkhb67dg
Habilitar la configuración de LDAP
Para habilitar la configuración de LDAP, vaya al directorio <HOME>/IBM/
LogAnalysis/utilities y ejecute el mandato siguiente:
ldapRegistryHelper.sh enbale
Importar certificados del almacén de claves LDAP a Log Analysis
Por último, debe importar los certificados del almacén de claves LDAP a Log
Analysis
1. Utilice el programa de utilidad iKeyman en el directorio <HOME>/IBM/
LogAnalysis/ibm-java/jre/bin para extraer el certificado del archivo
LDAPSSLKeyStore.jks.
2. Utilice el mandato siguiente para importar el archivo de certificado
ldap-clientcert.crt:
IBM/LogAnalysis/ibm-java/bin/keytool -import -file
/home/unity/IBM/LogAnalysis/wlp/usr/servers/Unity/ldap-clientcert.crt
-keystore ../jre/lib/security/cacerts -alias scala
Configuración de SSL (Secure Sockets Layer)
Para asegurarse de que puede comunicarse de forma segura, puede configurar SSL.
Configuración de certificados de autoridad emisora de certificados para SSL:
Utilice este ejemplo para ayudarle a desplegar sus certificados de autorización
(CA) como parte de su implementación de SSL.
Supuestos y requisitos previos
En este ejemplo se presupone que ha adquirido un certificado CA de un proveedor
de terceros. Su objetivo es ayudarle con la configuración. Los pasos exactos pueden
diferir en función de su instalación y configuración.
Si ha desplegado un certificado de almacén de claves, necesita suprimir el archivo
de almacén de claves antiguo, el archivo <HOME>/IBM/LogAnalysis/wlp/usr/
servers/Unity/resources/security/key.js.
Despliegue del certificado
Para desplegar este certificado, debe completar los pasos siguientes:
1. Generar la clave
50
IBM Operations Analytics - Log Analysis: Guía de instalación, configuración y administración
El primer paso no es necesario para todas las instalaciones. Log Analysis
genera una clave cuando se instala. No obstante, algunos CA requieren un
valor específico, por ejemplo para -dname.
Para generar esta clave, ejecute el mandato siguiente:
./keytool -genkey -keystore ~/IBM/LogAnalysis/wlp/usr/
servers/Unity/resources/security/key.jks
-storepass loganalytics -keypass loganalytics -validity 365
-dname "CN=abc12345678.in.example.com, OU=IT, O=EXAMPLE LTD,
L=Bangalore,S=Karnataka, C=IN" -alias default -keyalg RSA
-sigalg SHA1withRSA –keysize 2048
-ext san=dns:localhost.localdomain,dns:abc12345678,
dns:abc12345678.example.com,dns:localhost,ip:1.234.56.78
El archivo de almacén de claves para Log Analysis es <HOME>/IBM/
LogAnalysis//wlp/usr/servers/Unity/resources/security/key.jks.
El valor para el parámetro -dname es el dominio con el que está
identificado su servidor. Los detalles que se especifican aquí se utilizan
para identificar el servidor. Por ejemplo, este parámetro se especifica tal
como se muestra en el siguiente ejemplo:
-dname "CN=abc12345678.in.example.com, OU=IT, O=EXAMPLE LTD,
L=Bangalore,S=Karnataka, C=IN"
donde CN es el nombre común. OU es la unidad organizativa. O es la
organización. L es la ubicación. S es el estado o provincia. C es el país.
2. Exportar el certificado autofirmado a un archivo
Después de generar el almacén de claves en el primer paso, se genera de
forma predeterminada un certificado firmado automáticamente con un
alias denominado default. Debe exportar este certificado a un archivo.
Después de realizar este paso, puede importar el archivo a la carpeta
<HOME>/IBM/LogAnalysis/ibm-java que forma parte de las carpetas creadas
por Log Analysis cuando se instala. Si completa este paso se garantiza que
todos los componentes de Log Analysis utilizan el mismo certificado.
Este paso es necesario porque está generando un almacén de claves nuevo
y para ello es necesario que actualice los certificados públicos de los
clientes.
Si no suprime su certificado de almacén de claves antiguo antes de generar
el nuevo, y el certificado antiguo utilizaba el mismo alias, esto es default,
se genera un error. Para evitarlo puede suprimir el certificado antiguo o
puede cambiar el valor del alias.
Para exportar el certificado a un archivo, ejecute el mandato siguiente:
./keytool -exportcert -keystore ~/IBM/LogAnalysis/
wlp/usr/servers/Unity/resources/security/key.jks
-alias default -file client.crt keystore
password - loganalytics
3. Importar el certificado autofirmado
Para importar este certificado a un almacén de claves del entorno de
tiempo de ejecución Java, escriba el mandato siguiente:
./keytool -import -keystore ~/IBM/LogAnalysis/ibm-java/
jre/lib/security/cacerts -alias default -file client.crt
keystore password - changeit
Configuración
51
Si ha instalado instancias remotas de los componentes de Log Analysis
como el receptor EIF, IBM Tivoli Monitoring Log File Agent o logstash,
debe importar el certificado en el entorno de tiempo de ejecución de Java
en los servidores remotos.
4. Generar la solicitud de firma de certificado (CSR) y enviarla para firma
Para generar la CSR, ejecute el mandato siguiente:
./keytool -keystore ~/IBM/LogAnalysis/wlp/usr/servers/Unity/
resources/security/key.jks -certreq -alias default
-keyalg rsa -file csr-req.txt
Envíe la CSR que ha generado a su CA para que se firme. El CA envía tres
archivos, un archivo raíz, un certificado intermedio y un certificado
primario.
5. Importar el archivo raíz
Para importar el archivo raíz, escriba el mandato siguiente:
./keytool -import -trustcacerts -keystore ~/IBM/LogAnalysis/wlp/usr
/servers/Unity/resources/
security/key.jks -alias theCARoot -file root.cer.txt
Escriba la contraseña del almacén de claves:
El certificado ya existe en el almacén de claves de CA a nivel de sistema bajo el alias
verisignclass3g5ca
¿Todavía desea añadirlo a su propio almacén de claves? [no]:
Se ha añadido el certificado al almacén de claves
sí
6. Importar el certificado intermedio
Para importar el certificado intermedio, ejecute el mandato siguiente:
[yogesh@scm91135985 bin]$ ./keytool -import -trustcacerts -keystore
~/IBM/LogAnalysis/wlp/usr/servers/Unity/resources/security/key.jks
-alias theIntermediate
-file intermediate.cer.txt
Escriba la contraseña del almacén de claves:
Se ha añadido el certificado al almacén de claves
7. Importar el certificado primario
Para importar el certificado primario, ejecute el mandato siguiente:
[yogesh@scm91135985 bin]$ ./keytool -import -trustcacerts -keystore
~/IBM/LogAnalysis/wlp/usr/servers/Unity/resources/security/key.jks
-alias primaryCert
-file scm91135985.in.ibm.com.crt.txt
Escriba la contraseña del almacén de claves:
La respuesta del certificado se ha instalado en el almacén de claves
Configuración de Secure Shell para utilizar la autenticación
basada en claves
Secure Shell (SSH) es un protocolo de red de cifrado para las comunicaciones de
datos seguras entre sistemas diferentes. Establezca una autenticación basada en
claves entre los servidores de IBM Operations Analytics - Log Analysis y los
sistemas remotos con los que se conectan.
Acerca de esta tarea
Ventajas de utilizar la autenticación basada en claves:
v Los datos se transfieren a través de un canal seguro.
v El administrador ya no está preocupado acerca de los cambios de contraseña
para los servidores remotos.
52
IBM Operations Analytics - Log Analysis: Guía de instalación, configuración y administración
v La frase de contraseña es independiente de la política de contraseñas del
servidor individual.
v Se utiliza una frase de contraseña para varios servidores. Solo debe copiarse el
archivo de claves públicas al servidor cliente.
Para obtener más información puede consultar las páginas principales para
ssh-keygen ejecutando este mandato:
man ssh-keygen
Procedimiento
1. Para genera claves públicas y privadas, escriba el mandato siguiente:
ssh-keygen -t rsa
o cualquiera de los mandatos siguientes:
ssh-keygen
(Este mandato genera los mismos resultados que ssh-keygen -t rsa.)
ssh-keygen -t dsa
(Si especifica dsa, las claves generadas incluyen _dsa en sus nombres de archivos.)
El ejemplo siguiente muestra un posible aspecto de una pantalla válida:
bash-3.2$
bash-3.2$ ssh-keygen -t rsa
Generating public/private rsa key pair.
Enter file in which you want to save the key (/home/unity/.ssh/id_rsa):
Enter passphrase (empty for no passphrase):
Enter same passphrase again:
Your identification has been saved in /home/unity/.ssh/id_rsa.
Your public key has been saved in /home/unity/.ssh/id_rsa.pub.
The key fingerprint is:
4a:ef:d5:7a:d8:55:b3:98:a1:1f:62:be:dd:c4:60:6e unity@<variable>.example.com
The key’s randomart image is:
+--[ RSA 2048]----+
|
|
|
|
|
|
|
. ..|
|
. S
.o+.o|
|
. o =o++. |
|
. . +o+E.o |
|
. ..o=.o |
|
. .o.. . |
+-----------------+
bash-3.2$
Escriba la frase de contraseña. (El campo Enter passphrase puede quedar en
blanco para indicar una frase de contraseña vacía.)
2. Para ver el contenido del archivo de clave pública, ejecute los mandatos
siguientes:
cd ~/.ssh
ls -l id_rsa*
cat id_rsa.pub
El resultado del mandato es:
bash-3.2$
bash-3.2$ cat .ssh/id_rsa.pub
ssh-rsa AAAAB3NzaC1yc2EAAAADAQABAAABAQDg0/GGoxGzyC7Awjbwnp0hCaeztIRt6yhAg
GKdwM7nb7Iiv0RgwT4/48E26K1Ur9HrI1W/j0K0JHQw
vaAFibqeLmqLdK9ctCE901ywTOPFcYeBYPUF9vp/MgaypgGxVwDbW/e0SNPb7YAtZpjRoqeUq
oYoKzFXXspQkxdhcQfpx0RYMbQdGGg03hDCM2wr2KP
VuTVniF2IvDu1C4fcRkUPr8aQNMiuEcJgV3VHhlau/0Uo0YpH53NXKhn/sx8xdyTVsKQ1rhW8
g07HIVc2Tf9ZF2gYXn/HbjE509xK/APu2nztt0h+Air
JyT5jYMi/IvSI0zbPyc0p9WijPeG8r/v unity@<variable>.in.ibm.com
bash-3.2$
Configuración
53
3. Cree un directorio denominado .ssh en el servidor remoto. Use esto para
almacenar la clave pública.
4. Copie el archivo de la clave pública (id_rsa.pub) en el directorio .ssh del
cliente remoto:
scp /home/unity/.ssh/id_rsa.pub
<username>@<remotehostname>:/
<HOME>/.ssh/id_rsa.pub
donde <nombrehost> es el nombre del sistema principal y <nombreusuario> es el
nombre de usuario del sistema.
5. Añadir el contenido de la clave pública al archivo authorized_keys en el
sistema principal remoto.
bash-3.2$
bash-3.2$
bash-3.2$
bash-3.2$
bash-3.2$
ssh <username>@<remotehostname>
cd ~/.ssh
cat id_rsa.pub >> authorized_keys
rm id_rsa.pub
exit
6. Asegúrese de que no haya claves duplicadas para el mismo cliente en el
archivo authorized_keys.
7. Inicie sesión en el sistema remoto para asegurarse de que el SSH basado en
claves funcione:
ssh <username>@<hostname>
Escriba la frase de contraseña, si se le solicita.
bash-3.2$ bash-3.2$ ssh <username>@<remotehostname>
Enter passphrase for key ’/home/unity/.ssh/id_rsa’:
Last unsuccessful login: Mon Jul 15 14:22:37 2013 on ssh from <variable>.example.com
Last login: Mon Jul 15 14:26:54 2013 on ssh from <variable>.example.com
$
La configuración de la autenticación basada en claves ha finalizado.
Resultados
Es posible que los pasos no funcionen debido a que hay diferentes versiones de
SSH soportados por los sistemas operativos que utilizan los servidores remotos.
Para obtener más información sobre cómo resolver este problema, consulte el tema
La configuración de Secure Shell (SSH) no funciona en la guía Resolución de problemas
de IBM Operations Analytics - Log Analysis.
Configuración del inicio de sesión único (SSO) con Tivoli
Integrated Portal
Puede configurar la autenticación de SSO entre Tivoli Integrated Portal y IBM
Operations Analytics - Log Analysis.
Antes de empezar
v El servidor de Tivoli Integrated Portal y el servidor de IBM Operations Analytics
- Log Analysis deben usar el mismo servidor LDAP para la autenticación.
v El servidor de Tivoli Integrated Portal debe utilizar un servidor de Lightweight
Directory Access Protocol (LDAP) para la autenticación.
v Debe configurar el SSO para Tivoli Integrated Portal. Para configurar el SSO:
1. Inicie sesión en el servidor de Tivoli Integrated Portal
2. En el área Seguridad, pulse Seguridad global.
3. En el área Autenticación, pulse Inicio de sesión único (SSO).
4. Asegúrese de que la casilla de verificación Habilitado esté seleccionada.
54
IBM Operations Analytics - Log Analysis: Guía de instalación, configuración y administración
5. El valor de dominio que debe tener para completar el paso 4 aparece en el
campo Nombre de dominio. Si este campo está en blanco, especifique el
nombre de dominio y pulse Aplicar.
Procedimiento
1. Para exportar los archivos clave de Lightweight Third-Party Authentication
(LTPA) de Tivoli Integrated Portal, complete los pasos siguientes:
a. Inicie sesión en Tivoli Integrated Portal como administrador.
b. En el área Seguridad, pulse Seguridad global.
c. En el área Autenticación, pulse LTPA.
d. En el área Inicio de sesión en varias casillas, especifique una contraseña
para el archivo de claves en el campo Contraseña. Confirme la contraseña.
e. Cree un archivo de texto sin formato en blanco para utilizarlo como archivo
de claves. Tenga en cuenta el directorio en el que se almacena el archivo.
f. Especifique la ubicación en la que se almacenará el archivo de claves que ha
creado en el paso anterior en el campo Nombre de archivo de claves
totalmente calificado. El valor debe apuntar al archivo de propiedades que
contiene las claves que desea exportar. Por ejemplo, para un sistema
operativo Windows, escriba C:\keys.properties. En el caso de un sistema
operativo basado en Unix, especifique <tip_home_dir>/profiles/TIPProfile.
g. Haga clic en Exportar claves.
2. Añada el dominio de Tivoli Integrated Portal LDAP a la configuración LDAP
de IBM Operations Analytics - Log Analysis. Asegúrese de que el dominio de
LDAP que se especifica aquí sea el mismo que el utilizado por Tivoli Integrated
Portal. Para especificar el dominio, edite la propiedad ldap_realm_property en
el archivo ldapRegistryHelper.properties:
ldap_realm_property=<LdapRegistryRealm>
donde <LdapRegistryRealm> es el dominio que se utiliza en Tivoli Integrated
Portal. Para encontrar este valor:
a. Inicie sesión en Tivoli Integrated Portal.
b. En el área Seguridad, pulse Seguridad global.
c. En el área Repositorio de cuentas de usuarios, pulse Configurar.
d. El valor de dominio LDAP se visualiza en el campo Nombre de dominio.
Debe especificar este mismo valor en el archivo
ldapRegistryHelper.properties.
3. Para añadir el dominio actualizado en la configuración de LDAP para IBM
Operations Analytics - Log Analysis y para habilitar la autenticación de LDAP,
ejecute el script ldapRegistryHelper.sh. Para obtener más información, consulte
“Mandato ldapRegistryHelper.sh” en la página 39.
4. Configure LTPA en Liberty Profile para WebSphere Application Server:
a. Copie el archivo de claves de LTPA que ha exportado del servidor de Tivoli
Integrated Portal en el paso 1 en el directorio <HOME>/IBM/LogAnalysis/wlp/
usr/servers/Unity/resources/security del servidor de IBM Operations
Analytics - Log Analysis. La carpeta contiene un archivo de claves por
omisión. No cambie este archivo. Utilice un nombre distinto para su propio
archivo de claves.
b. Vaya al directorio <HOME>/IBM/LogAnalysis/wlp/usr/servers/Unity.
c. Para añadir la etiqueta de inicio de sesión único en el servidor de IBM
Operations Analytics - Log Analysis, añada la línea siguiente al archivo
server.xml antes de la etiqueta servidor final:
Configuración
55
<webAppSecurity ssoDomainNames="<SSO_domain>" />
donde <SSO_domain> es el dominio de inicio de sesión único, por ejemplo
example.com. Este valor debe coincidir con el dominio de inicio de sesión
único que se utiliza en el servidor de Tivoli Integrated Portal. Especifique el
mismo valor que se indica en el campo Nombre de dominio de la IU de
Tivoli Integrated Portal.
d. Para añadir la etiqueta de LTPA en el servidor de IBM Operations Analytics
- Log Analysis, añada la línea siguiente al archivo server.xml antes de la
etiqueta servidor final:
<ltpa keysFileName="${server.output.dir}/resources/security/<ltpa_key_file>"
keysPassword="<keysPassword>" expiration="120" />
v donde <ltpa_key_file> es el archivo de claves LTPA, por ejemplo
example_ltpa.keys.
v <keysPassword> es la contraseña LTPA que se ha especificado en el paso 1
al crear el archivo de claves LTPA en el servidor de Tivoli Integrated
Portal.
(Opcional) Puede utilizar el mandato unity_securityUtility que se
encuentra en el directorio <HOME>/IBM/LogAnalysis/wlp/bin/ para generar
una contraseña cifrada. Después de generar la contraseña cifrada,
especifíquela como valor para el parámetro keysPassword.
5. Reinicie el servidor de IBM Operations Analytics - Log Analysis y verifique que
la conexión de inicio de sesión único entre los dos servidores funcione.
Resultados
Para verificar que la conexión SSO está correctamente configurada, inicie una
sesión en el servidor de Tivoli Integrated Portal. Abra una nueva ficha en el
navegador e inicie sesión en IBM Operations Analytics - Log Analysis. Si no se le
solicite el nombre de usuario y la contraseña, la conexión SSO está configurada
correctamente. Si se le solicitan los detalles de inicio de sesión, la conexión de
inicio de sesión único no está configurada correctamente.
Configuración del inicio de sesión único (SSO) con Jazz for
Service Management
Si desea integrar datos de IBM Operations Analytics - Log Analysis con el
componente de Dashboard Application Services Hub component de Jazz for
Service Management, debe configurar el SSO entre IBM Operations Analytics - Log
Analysis y Jazz for Service Management.
Antes de empezar
v El servidor de Jazz for Service Management debe utilizar un servidor LDAP
(Lightweight Directory Access Protocol) para la autenticación.
v El servidor de Jazz for Service Management y el servidor de IBM Operations
Analytics - Log Analysis deben utilizar el mismo servidor LDAP para la
autenticación.
v Debe configurar el SSO para el servidor de Jazz for Service Management. Para
obtener más información, consulte el tema Configuración del inicio de sesión
único (SSO) en el servidor de aplicaciones en el Knowledge Center de Jazz for
Service Management en http://www-01.ibm.com/support/knowledgecenter/
SSEKCU/welcome?lang=en.
56
IBM Operations Analytics - Log Analysis: Guía de instalación, configuración y administración
Procedimiento
1. Exporte el archivo de claves Lightweight Third-Party Authentication (LTPA) del
servidor de Jazz for Service Management. Para obtener más información,
consulte el tema Exportación de claves LTPA en el Knowledge Center de Jazz
for Service Management en http://www-01.ibm.com/support/
knowledgecenter/SSEKCU/welcome?lang=en.
2. Añada el dominio LDAP de Jazz for Service Management en la configuración
LDAP de IBM Operations Analytics - Log Analysis. Asegúrese de que el
dominio de LDAP que está especificado aquí es el mismo que el que utiliza
Jazz for Service Management. Para especificar el dominio, edite la propiedad
ldap_realm_property en el archivo ldapRegistryHelper.properties:
ldap_realm_property=<LdapRegistryRealm>
donde <LdapRegistryRealm> es el dominio que utiliza Jazz for Service
Management.
3. Para añadir el dominio actualizado en la configuración de LDAP para IBM
Operations Analytics - Log Analysis y para habilitar la autenticación de LDAP,
ejecute el script ldapRegistryHelper.sh. Para obtener más información, consulte
“Mandato ldapRegistryHelper.sh” en la página 39.
4. Configure LTPA en Liberty Profile para WebSphere Application Server:
a. Copie el archivo de claves LTPA que ha exportado del servidor de Jazz for
Service Management en el paso 1 al directorio <HOME>/IBM/LogAnalysis/
wlp/usr/servers/Unity/resources/security del servidor IBM Operations
Analytics - Log Analysis. La carpeta contiene un archivo de claves por
omisión. No cambie este archivo. Utilice un nombre distinto para su propio
archivo de claves.
b. Vaya al directorio <HOME>/IBM/LogAnalysis/wlp/usr/servers/Unity.
c. Para añadir la etiqueta de inicio de sesión único en el servidor de IBM
Operations Analytics - Log Analysis, añada la línea siguiente al archivo
server.xml antes de la etiqueta servidor final:
<webAppSecurity ssoDomainNames="<SSO_domain>" />
donde <SSO_domain> es el dominio de inicio de sesión único, por ejemplo
example.com. Este valor debe coincidir con el dominio de inicio de sesión
único (SSO) que utiliza el servidor de Jazz for Service Management.
Especifique el mismo valor que el que ha especificado en el campo Nombre
de dominio en la IU de Jazz for Service Management.
d. Para añadir la etiqueta de LTPA en el servidor de IBM Operations Analytics
- Log Analysis, añada la línea siguiente al archivo server.xml antes de la
etiqueta servidor final:
<ltpa keysFileName="${server.output.dir}/resources/security/<ltpa_key_file>"
keysPassword="<keysPassword>" expiration="120" />
v donde <ltpa_key_file> es el archivo de claves LTPA, por ejemplo
example_ltpa.keys.
v <keysPassword> es la contraseña LTPA que se ha especificado en el paso 1
al crear el archivo de claves LTPA en el servidor de Tivoli Integrated
Portal.
(Opcional) Puede utilizar el mandato unity_securityUtility que se
encuentra en el directorio <HOME>/IBM/LogAnalysis/wlp/bin/ para generar
una contraseña cifrada. Después de generar la contraseña cifrada,
especifíquela como valor para el parámetro keysPassword.
5. Reinicie el servidor de IBM Operations Analytics - Log Analysis y verifique que
la conexión de inicio de sesión único entre los dos servidores funcione.
Configuración
57
Resultados
Para verificar que la conexión SSO esté correctamente configurada, inicie sesión en
el servidor de Jazz for Service Management. Abra una nueva ficha en el navegador
e inicie sesión en IBM Operations Analytics - Log Analysis. Si no se le solicite el
nombre de usuario y la contraseña, la conexión SSO está configurada
correctamente. Si se le solicitan los detalles de inicio de sesión, la conexión de
inicio de sesión único no está configurada correctamente.
Usuarios y roles
Puede crear y modificar usuarios y roles en la interfaz de usuario de IBM
Operations Analytics - Log Analysis para asignar control de acceso basado en roles
a usuarios individuales.
Puede utilizar la interfaz de usuario de IBM Operations Analytics - Log Analysis
para crear y modificar usuarios y roles de usuario para proporcionar cuentas y
roles individuales a los usuarios. Este control de acceso basado en roles permite al
administrador asignar acceso individual y no da soporte a grupos de usuarios u
objetos.
IBM Operations Analytics - Log Analysis incluye los siguientes usuarios y roles
predeterminados.
unityuser
Este usuario predeterminado está asignado al rol unityusers
predeterminado. De forma predeterminada todos los usuarios se asignan al
rol unityusers.
unityadmin
Este usuario predeterminado se asigna al rol unityadmins predeterminado.
Este usuario tiene acceso a todos los datos de IBM Operations Analytics Log Analysis. No es necesario establecer ningún permiso explícito para este
usuario.
El registro de usuarios de Log Analysis distingue entre mayúsculas y minúsculas.
El directorio de usuarios de LDAP no distingue.
Puede utilizar los usuarios y roles predeterminados tal como se describe en la
Tabla 1, o bien crear nuevos usuarios y roles. Para obtener más información sobre
cómo crear usuarios y roles, consulte Crear y modificar usuarios y Crear y modificar
roles en la sección Configuración posterior a la instalación de la guía Configuración de
IBM Operations Analytics - Log Analysis.
Tabla 6. Usuarios y roles predeterminados
Usuario
predeterminado
Rol predeterminado
unityuser
unityusers
unityadmin
unityadmins, unityusers
Los usuarios con el rol unityuser pueden acceder al espacio de trabajo de
búsqueda. Los usuarios con el rol unityadmin pueden acceder a los espacios de
trabajo de búsqueda y administración.
De forma predeterminada, todos los usuarios se asignan al rol unityuser.
58
IBM Operations Analytics - Log Analysis: Guía de instalación, configuración y administración
El usuario unityadmin tiene acceso a todos los datos. Solo un usuario unityadmin
con el rol unityadmins está soportado en IBM Operations Analytics - Log Analysis.
Nota: Para crear o modificar usuarios o roles, debe tener acceso al espacio de
trabajo de administración.
Creación de un usuario
Puede utilizar la interfaz de usuario de IBM Operations Analytics - Log Analysis
para crear un usuario.
Antes de empezar
Para crear nuevas cuentas de usuario, debe tener acceso administrativo.
Procedimiento
Para crear una nueva cuenta de usuario, realice los pasos siguientes.
1. Abra la interfaz de usuario de IBM Operations Analytics - Log Analysis y pulse
Ajustes administrativos.
2. Seleccione el separador Usuarios.
3. Pulse el icono de adición
para abrir un nuevo panel Añadir usuario.
4. Complete los detalles del nuevo usuario en el panel Añadir usuario.
5. Para añadir un rol al usuario, pulse el icono de adición
usuario. Seleccione el rol necesario y pulse Aceptar.
en el panel Añadir
6. Para guardar el nuevo usuario, pulse Aceptar.
Adición o supresión de roles de usuario:
Para crear un usuario, puede añadir o suprimir roles de usuario en la interfaz de
usuario de IBM Operations Analytics - Log Analysis.
Acerca de esta tarea
La adición o supresión de roles de usuario en la interfaz de usuario de IBM
Operations Analytics - Log Analysis permite la gestión de perfiles individuales de
usuarios distintos.
Procedimiento
Para añadir o suprimir roles de usuario, realice los pasos siguiente.
1. Abra la interfaz de usuario de IBM Operations Analytics - Log Analysis y pulse
Ajustes administrativos.
2. Seleccione el separador Usuarios.
3. Seleccione el separador que desee editar.
4. Pulse el icono de edición
<nombre_usuario>.
. Esto abre el nuevo panel Editar
5. Para añadir un rol de usuario al usuario seleccionado, pulse el icono de adición
en el panel Editar <nombre_usuario>.
Configuración
59
6. Para suprimir un rol de usuario del usuario seleccionado, pulse el icono de
supresión
en el panel Editar <nombre_usuario>.
7. Seleccione el rol necesario y pulse Aceptar
8. Para guardar los cambios, pulse Aceptar.
Edición de un usuario
Puede utilizar la interfaz de usuario de IBM Operations Analytics - Log Analysis
para editar un usuario.
Antes de empezar
Para editar las cuentas de usuario, debe tener acceso administrativo.
Procedimiento
Para editar una cuenta de usuario, realice los pasos siguientes.
1. Abra la interfaz de usuario de IBM Operations Analytics - Log Analysis y pulse
Ajustes administrativos.
2. Seleccione el separador Usuarios.
3. Pulse el icono de edición
<nombre_usuario>.
. Esto abre el nuevo panel Editar
4. Edite los detalles de usuario en el panel Editar <nombre_usuario>.
5. Para guardar los cambios, pulse Aceptar.
Cambio de una contraseña de usuario
Las contraseñas de usuario se cambian utilizando la interfaz de usuario de IBM
Operations Analytics - Log Analysis.
Los usuarios pueden elegir cambiar sus propias contraseñas o el usuario
unityadmin puede cambiar la contraseña de un usuario existente.
Cambio de la contraseña:
Puede utilizar la interfaz de usuario de IBM Operations Analytics - Log Analysis
para cambiar la contraseña.
Procedimiento
Para editar la contraseña, realice los pasos siguientes.
1. Abra la interfaz de usuario de IBM Operations Analytics - Log Analysis.
2. En la página Cómo empezar, expanda nombre de usuario.
3. Seleccione Cambiar contraseña.
4. Complete los campos del panel Editar contraseña.
5. Pulse Aceptar.
Cambio de una contraseña de usuario:
Puede utilizar la interfaz de usuario de IBM Operations Analytics - Log Analysis
para cambiar la contraseña de un usuario existente.
60
IBM Operations Analytics - Log Analysis: Guía de instalación, configuración y administración
Antes de empezar
Para cambiar la contraseña de un usuario existente, debe tener acceso
administrativo.
Procedimiento
1. Para editar una contraseña de usuario, efectúe los pasos siguientes:
a. Abra la interfaz de usuario de IBM Operations Analytics - Log Analysis y
pulse Ajustes administrativos.
b. Seleccione el separador Usuarios.
c. Pulse el icono de edición
. Esto abre el nuevo panel Editar
<nombre_usuario>.
d. Cambie los detalles de contraseña de usuario en el panel Editar
<nombre_usuario>.
a. Para guardar los cambios, pulse Aceptar.
2. Si desea cambiar la contraseña unityadmin, debe actualizar la contraseña cifrada
en los siguientes archivos para que coincida con la contraseña actualizada.
a. Para generar la contraseña cifrada utilice el programa de utilidad
unity_securityUtility.sh en el directorio <HOME>/IBM/LogAnalysis/
utilities. Por ejemplo:
unity_securityUtility.sh encode password
v <HOME>/IBM/LogAnalysis/utilities/datacollector-client/
javaDatacollector.properties. Por ejemplo:
#The password to use to access the unity rest service
password={aes}EF712133E0677FEBB30624BA5EE62BC2
v <HOME>/IBM/LogAnalysis/remote_install_tool/config/restapi.properties. Por ejemplo:
ibm.scala.rest.password={aes}EF712133E0677FEBB30624BA5EE62BC2
v <HOME>/IBM/LogAnalysis/UnityEIFReceiver/config/unity.conf. Por
ejemplo:
unity.data.collector.password={aes}
EF712133E0677FEBB30624BA5EE62BC2
v <HOME>/IBM/LogAnalysis/utilities/pkg_mgmt.sh. Por ejemplo:
PASSWD={aes}EF712133E0677FEBB30624BA5EE62BC2
b. Si cambia la contraseña utilizada por unityuser, debe actualizar el
parámetro password en el script <HOME>/IBM/LogAnalysis/
solr_install_tool/scripts/register_solr_instance.sh.
password={aes}7A0B2401A8E29F37CD768CB78E205CAD
Supresión de un usuario
Para suprimir un usuario, realice esta tarea.
Antes de empezar
Para suprimir cuentas de usuario, debe tener acceso administrativo.
Nota: Si se suprime un usuario mientras tiene una sesión iniciada en IBM
Operations Analytics - Log Analysis, la sesión continúa hasta que el usuario cierra
la sesión. Cuando se suprime un usuario, la sesión no finaliza automáticamente.
Configuración
61
Procedimiento
1. Abra la interfaz de usuario de IBM Operations Analytics - Log Analysis y pulse
Ajustes administrativos.
2. Seleccione el separador Usuarios.
3. Seleccione el usuario que desea suprimir.
4. Pulse el icono de supresión
.
5. Se abre un mensaje que le solicita que confirme que desea suprimir los usuarios
seleccionados. Pulse Aceptar.
Qué hacer a continuación
Después de suprimir un usuario, puede suprimir las alertas que ha creado este
usuario, si lo desea. También puede establecer las alertas en estado inactivo. Para
editar o suprimir la alerta, abra la IU Gestionar alertas, seleccione las alertas y
pulse Editar o Suprimir. Para obtener más información, consulte “Interfaz de
usuario Gestionar alertas” en la página 80.
Creación de un rol
Puede utilizar la interfaz de usuario de IBM Operations Analytics - Log Analysis
para crear un rol de aplicación.
Antes de empezar
Para crear nuevos roles de aplicación, debe tener acceso administrativo.
Procedimiento
Para crear un nuevo rol, efectúe los pasos siguientes.
1. Abra la interfaz de usuario de IBM Operations Analytics - Log Analysis y pulse
Ajustes administrativos.
2. Seleccione el separador Roles.
3. Pulse el icono de adición
.
4. Complete los detalles del nuevo rol en el panel Añadir rol.
5. Para guardar el nuevo rol, pulse Aceptar.
Edición de un rol
Puede utilizar la interfaz de usuario de IBM Operations Analytics - Log Analysis
para editar perfiles de rol.
Antes de empezar
Para editar perfiles de rol, debe tener acceso administrativo.
Procedimiento
Para editar perfiles de rol, realice los pasos siguientes.
1. Abra la interfaz de usuario de IBM Operations Analytics - Log Analysis y pulse
Ajustes administrativos.
2. Seleccione el separador Roles.
3. Seleccione el rol que desee editar y pulse el icono de edición
62
IBM Operations Analytics - Log Analysis: Guía de instalación, configuración y administración
.
4. Modifique los campos en el panel Editar <nombre_usuario>.
5. Para guardar los cambios en el rol, pulse Aceptar.
Adición de usuarios a roles
Puede utilizar la interfaz de usuario de IBM Operations Analytics - Log Analysis
para añadir usuarios a un rol nuevo o existente.
Antes de empezar
Para añadir un usuario a un rol nuevo o existente, debe tener acceso
administrativo.
Procedimiento
Para añadir un usuario a un rol nuevo o existente, realice los pasos siguientes.
1. Abra la interfaz de usuario de IBM Operations Analytics - Log Analysis y pulse
Ajustes administrativos.
2. Seleccione el separador Roles.
3. Seleccione el rol al que desea añadir usuarios:
v Para añadir un usuario a un nuevo rol, pulse el icono de adición
.
v Para añadir un usuario a un rol existente, seleccione el rol y pulse el icono de
edición
.
4. Seleccione el separador Asignar usuarios a rol en el panel Añadir rol o Editar
<nombre_usuario>.
5. Pulse el icono de adición
.
6. Seleccione en la lista los usuarios que desee añadir al rol y pulse Aceptar.
Para deseleccionar un usuario seleccionado, mantenga pulsada la tecla Ctrl o
Command y pulse la fila del usuario.
7. Para guardar los cambios en el usuario, pulse Aceptar.
Supresión de un usuario de un rol
Puede utilizar la interfaz de usuario de IBM Operations Analytics - Log Analysis
para suprimir un usuario de un rol.
Antes de empezar
Para suprimir un usuario de un rol, debe tener acceso administrativo.
Procedimiento
Para suprimir un usuario de un rol, realice los pasos siguientes.
1. Abra la interfaz de usuario de IBM Operations Analytics - Log Analysis y pulse
Ajustes administrativos.
2. Seleccione el separador Roles.
3. Seleccione el rol que desee editar y pulse el icono de edición
.
4. Seleccione el separador Asignar usuarios a rol del panel Editar
<nombre_usuario>.
5. Seleccione los usuarios que desea suprimir y pulse el icono de supresión
Configuración
.
63
6. Para guardar los cambios en el rol, pulse Aceptar.
Adición de permisos a roles
Puede utilizar la interfaz de usuario de IBM Operations Analytics - Log Analysis
para añadir permisos a roles nuevos o existentes.
Antes de empezar
Para añadir permisos a un rol nuevo o existente, debe tener acceso administrativo.
El permiso predeterminado es none. Los usuarios con los permisos
predeterminados no tienen acceso a los datos.
Nota: Si ejecuta una búsqueda guardada, o crea un panel de control o una Panel
de control de búsqueda personalizada que incluya una lista de orígenes de datos,
la búsqueda o el panel de control se representa con datos de los orígenes de datos
para los que tiene permiso.
Procedimiento
Para añadir permisos a un rol nuevo o existente, realice los pasos siguientes.
1. Abra la interfaz de usuario de IBM Operations Analytics - Log Analysis y pulse
Ajustes administrativos.
2. Seleccione el separador Roles.
3. Seleccione el rol al que desee añadir los permisos:
v Para añadir permisos a un rol nuevo, pulse el icono de adición
.
v Para añadir permisos a un rol existente, seleccione el rol y pulse el icono de
edición
.
4. Seleccione el separador Asignar permisos a rol en el panel Añadir rol o Editar
<nombre_usuario>.
5. Pulse el icono de adición
.
6. Seleccione los permisos que desee añadir al rol en la lista y pulse Aceptar.
Nota: IBM Operations Analytics - Log Analysis solo da soporte a permisos de
lectura para objetos de origen de datos. Los usuarios con permisos de lectura
pueden ejecutar operaciones de ingesta y supresión.
Para deseleccionar un permiso seleccionado, mantenga pulsada la tecla Ctrl o
Mandato y pulse la fila de permiso.
7. Para guardar los cambios en el rol, pulse Aceptar.
Supresión de permisos de roles
Puede utilizar la interfaz de usuario de IBM Operations Analytics - Log Analysis
para suprimir permisos de roles.
Antes de empezar
Para suprimir permisos de roles, debe tener acceso administrativo.
64
IBM Operations Analytics - Log Analysis: Guía de instalación, configuración y administración
Nota: Si ejecuta una búsqueda guardada, o crea un panel de control o una Panel
de control de búsqueda personalizada que incluya una lista de orígenes de datos,
la búsqueda o el panel de control se representa con datos de los orígenes de datos
para los que tiene permiso.
Procedimiento
1. Abra la interfaz de usuario de IBM Operations Analytics - Log Analysis y pulse
Ajustes administrativos.
2. Seleccione el separador Roles.
3. Seleccione el rol del que desea suprimir permisos y pulse el icono de edición
.
4. Seleccione el separador Asignar permisos a rol en el panel Editar
<nombre_usuario>.
5. Seleccione los permisos que desea suprimir y pulse el icono de supresión
.
6. Para guardar los cambios en el rol, pulse Aceptar.
Sistema
Para utilizar Log Analysis, primero debe configurar el sistema.
Configuración de Motores de indexación
Log Analysis utiliza un motor de indexación basado en Apache Solr para indexar
registros de anotaciones.
Puede instalar los Motores de indexación en el mismo servidor que Log Analysis.
Normalmente, debe hacerlo en un despliegue más pequeño.
Para mejorar el rendimiento, puede instalar los Motores de indexación en
servidores remotos dedicados.
Requisitos previos
Antes de poder utilizar los Motores de indexación, debe descargar una licencia
para Apache Solr de Passport Advantage en http://www-01.ibm.com/software/
lotus/passportadvantage/ y complete los pasos que se describen en el archivo
léame.
Instalación de Apache Solr en máquinas remotas:
Tras instalar IBM Operations Analytics - Log Analysis, puede utilizar el instalador
remoto de Apache Solr para instalar Apache Solr en una máquina remota.
Acerca de esta tarea
Si no existen instancias locales de Apache Solr, debe instalar las instancias en la
máquina remota tan pronto como se instale IBM Operations Analytics - Log
Analysis. Si hay una instancia local de Apache Solr, puede instalar las instancias
remotas siempre que lo desee.
Debe usar un usuario que no sea root para instalar el script.
No se puede utilizar el instalador para instalar Apache Solr en una máquina local.
Configuración
65
No se puede utilizar el instalador para instalar nodos de Apache Solr en una sola
máquina remota.
Asegúrese de que los puertos de Apache Solr estén abiertos y no tengan ninguna
restricción de cortafuegos en la máquina remota.
Para instalar Apache Solr en varias máquinas remotas, ejecute el script por
separado para cada máquina remota. No se puede utilizar el instalador para
instalar instancias de Apache Solr simultáneamente o en paralelo.
Procedimiento
1. Cambie el directorio por<HOME>/IBM/LogAnalysis/solr_install_tool. Por
ejemplo:
cd <HOME>/IBM/LogAnalysis/solr_install_tool
2. Para ejecutar el script remote_deploy.sh, especifique el mandato siguiente:
./remote_deploy_solr.sh -install
3. El script le solicita la información siguiente:
Host remoto en formato FQDN
Escriba el nombre de dominio completo (FQDN) del sistema principal
remoto.
Nombre de usuario
Especifique el nombre de usuario.
Contraseña
Escriba la contraseña si se ha inhabilitado la autenticación SSH sin
contraseña. Si se ha habilitado el SSH sin contraseña entre el servidor
de IBM Operations Analytics - Log Analysis y el host remoto, el script
lee los valores indicados en el archivo ssh_config.properties en el
directorio <HOME>/IBM/LogAnalysis/utilities/config. Para obtener
más información, consulte el tema Configuración de Secure Shell para
utilizar la autenticación basada en claves en el Information Center de IBM
Operations Analytics - Log Analysis.
Puerto SSH
Escriba el puerto de la máquina remota que se utiliza para SSH. Para
utilizar el valor por omisión de 22, pulse Intro.
Directorio de instalación de nivel superior
Para utilizar el valor predeterminado, que es <HOME>, pulse Intro. De
forma alternativa, puede especificar la vía de acceso al directorio donde
desea instalar el DE.
Puerto de búsqueda de Apache Solr
Para utilizar el valor por omisión de 9989, pulse Intro. Para utilizar otro
puerto, especifique el número de puerto para otro puerto válido. No
indique un puerto que se esté usando para otra cosa.
Puerto de servicio de consultas de Apache Solr
Para utilizar el valor por omisión de 7205, pulse Intro. Para utilizar otro
puerto, especifique el número de puerto para otro puerto válido. No
indique un puerto que se esté usando para otra cosa.
4. Para iniciar la instalación, pulse Intro. En la mayoría de los casos, la instalación
tarda unos 5 minutos en completarse.
66
IBM Operations Analytics - Log Analysis: Guía de instalación, configuración y administración
Resultados
Los resultados de la instalación van al archivo de registro del archivo
<HOME>/IBM/LogAnalysis/solr_install_tool/logs/ManageSolrnodes.log.
Para ver el estado de las instancias de Apache Solr que están instaladas las
máquinas remotas, ejecute el mandato unity.sh -status.
Ejemplo
A continuación se muestra un ejemplo de resultado de script:
Remote Hostname in FQDN format:12345.example.com
username:unity
password:*********
SSH port: [22]
Top-level Installation Directory: [/home/unity]
Solr Search Port: [9989]
Solr Query Service Port: [7205]
Script is ready for remote installation of Solr:
Review the following inputs ....
----------------------------------------------------------------------------Remote Host Name: 12345.example.com
Remote User Name: unity
Remote SSH Port: 22
Top-level remote installation directory: /home/unity
Solr v9.0 - remote installation directory:
/home/unity/IBM/LogAnalysis
Solr - remote ports: 9989, 7205
-----------------------------------------------------------------------[’q’ - Abort][’Enter’ - Install]
Sat Nov 16 03:08:38 CST 2013 Starting remote installation of Solr
, this will take couple of minutes to complete ....
Sat Nov 16 03:08:38 CST 2013 Waiting for remote installation to complete ....
Sat Nov 16 03:11:47 CST 2013 Successfully installed Solr
Solr on remote host:12345.example.com ....
Eliminación de instancias de Apache Solr:
Antes de eliminar una instalación de IBM Operations Analytics - Log Analysis,
debe eliminar Apache Solr.
Acerca de esta tarea
Nota: No elimine Apache Solr si se está utilizando IBM Operations Analytics - Log
Analysis. IBM Operations Analytics - Log Analysis no funciona correctamente
cuando se eliminan las instancias de Apache Solr. Por este motivo, elimine Apache
Solr solo cuando está a punto de desinstalar IBM Operations Analytics - Log
Analysis.
Si ha instalado Apache Solr de forma local y remota, elimine la instancia local
primero y, a continuación, elimine las instancias instaladas de forma remota.
Este proceso utiliza el gestor de instalaciones para eliminar las instancias de
Apache Solr. También puede hacerlo de forma silenciosa. Para ejecutar el programa
de eliminación silenciosa, ejecute el siguiente mandato imcl -c, especifique 3 para
modificar la instalación y elimine la instancia.
Configuración
67
Procedimiento
1. Cambie el directorio por<HOME>/IBM/LogAnalysis/solr_install_tool. Por
ejemplo:
cd <HOME>/IBM/LogAnalysis/solr_install_tool
2. Para ejecutar el script de desinstalación de remote_deploy.sh, especifique el
mandato siguiente:
./remote_deploy.sh -uninstall
3. El script le solicita la información siguiente:
Host remoto en formato FQDN
Escriba el nombre de dominio completo (FQDN) del sistema principal
remoto.
Nombre de usuario
Especifique el nombre de usuario.
Contraseña
Escriba la contraseña si se ha inhabilitado la autenticación SSH sin
contraseña. Si se ha habilitado el SSH sin contraseña entre el servidor
de IBM Operations Analytics - Log Analysis y el host remoto, el script
lee los valores que se especifican en el archivo ssh_config.properties
en el directorio <HOME>/IBM/LogAnalysis/utilities/config. Para
obtener más información, consulte el tema Configuración de Secure Shell
para utilizar la autenticación basada en claves en el Information Center de
IBM Operations Analytics - Log Analysis.
Puerto SSH
Escriba el puerto de la máquina remota que se utiliza para SSH. Para
utilizar el valor por omisión de 22, pulse Intro.
Directorio de instalación de nivel superior
Para utilizar el valor predeterminado, que es <HOME>/IBM/LogAnalysis,
pulse Intro. Como alternativa puede especificar la vía de acceso al
directorio en el que está instalado Apache Solr.
4. Para iniciar la eliminación, pulse Intro. Puede ver los registros en el directorio
<HOME>/IBM/LogAnalysis/solr_install_tool/logs.
Resultados
Cuando se eliminan todos los nodos remotos, puede desinstalar IBM Operations
Analytics - Log Analysis de forma segura.
Ampliación del espacio de almacenamiento disponible en Apache Solr:
Puede añadir más directorios de almacenamiento de Apache Solr fuera de la
ubicación de instalación inicial de IBM Operations Analytics - Log Analysis Apache
Solr si el disco donde se haya instalado Apache Solr ha alcanzado la capacidad
máxima.
Antes de empezar
Asegúrese de que los directorios de almacenamiento de Apache Solr estén
presentes en todos los servidores de Apache Solr y que sean grabables.
68
IBM Operations Analytics - Log Analysis: Guía de instalación, configuración y administración
Acerca de esta tarea
La conmutación a un directorio Apache Solr no es instantánea. Por lo tanto, se
trata de supervisar el uso en disco del directorio Apache Solr para asegurarse de
que los directorios adicionales se añaden antes de que el directorio de
almacenamiento actual alcance su capacidad máxima.
Procedimiento
Para habilitar la funcionalidad de aplicar el almacenamiento, efectúe los siguientes
pasos.
1. Detenga IBM Operations Analytics - Log Analysis con el mandato siguiente.
<HOME>/IBM/LogAnalysis/utilities/unity.sh -stop
2. Abra el archivo unitysetup.properties en el directorio <HOME>/IBM/
LogAnalysis/wlp/usr/servers/Unity/apps/Unity.war/WEB-INF.
3. Añada la siguiente propiedad al directorio
ENABLE_STORAGE_RELOCATION=true
4. Cree el siguiente archivo de propiedades
<HOME>/solrConfigs/storageConfig.properties
Por ejemplo,
/home/unity/IBM/LogAnalysis/solrConfigs/storageConfig.properties
5. Abra el archivo storageConfig.properties y añada la propiedad siguiente al
archivo.
SOLR_STORAGE_DIR=storage-path-on-solr-nodes
Por ejemplo,
SOLR_STORAGE_DIR=/opt/scala/ext_storage
6. Reinicie IBM Operations Analytics - Log Analysis con el mandato siguiente.
<HOME>/IBM/LogAnalysis/utilities/unity.sh -restart
Resultados
El archivo de configuración nuevo de IBM Operations Analytics - Log Analysis
permite especificar ubicaciones de almacenamiento de datos personalizadas. Se
escribe en las nuevas ubicaciones cuando IBM Operations Analytics - Log Analysis
cruza el límite predeterminado de 1 día.
Modificación del límite predeterminado para crear colecciones de Apache Solr:
Puede cambiar el límite predeterminado asociado a la ampliación del espacio de
almacenamiento de Apache Solr en función de sus necesidades empresariales.
Procedimiento
1. Abra el archivo <HOME>/IBM/LogAnalysis/wlp/usr/servers/Unity/apps/
Unity.war/WEB-INF/unitysetup.properties.
2. Localice y modifique el valor predeterminado de la propiedad
COLLECTION_ASYNC_WINDOW de 1d (1 día).
Nota: El tamaño mínimo de la propiedad es 6h.
El tamaño del límite se puede especificar en minutos (m), horas (h) o días (d).
3. Reinicie IBM Operations Analytics - Log Analysis con el mandato siguiente.
Configuración
69
<HOME>/IBM/LogAnalysis/utilities/unity.sh -restart
Globalización
Parte del texto en IBM Operations Analytics - Log Analysis solo está disponible en
inglés. Algunos de estos textos se pueden globalizar pero otros no. Lea la siguiente
información para obtener una visión general de lo que puede y no puede
globalizar manualmente.
Paquetes Insight
Los Paquetes Insight no están globalizados de forma predeterminada. Para
localizar el contenido de Paquete Insight, debe configurar el contenido
manualmente. Para obtener más información sobre la localización del contenido de
Paquetes Insight, Globalización del panel de control de búsqueda personalizado y
Globalización de paneles de control, etiquetas de gráfico y campos de configuración de
índice en la sección de Globalización de la guía de Configuración.
Para facilitar la ingestión de archivos de registro en un idioma distinto del inglés,
debe cambiar el entorno local de IBM Tivoli Monitoring Log File Agent para que
coincida con el valor que utiliza la aplicación de origen para crear los archivos de
registro. Para obtener información, consulte Ingestión de archivos de registro en un
idioma distinto del inglés en la guía Carga y modalidad continua de datos.
Puede cambiar el huso horario predeterminado que utiliza IBM Operations
Analytics - Log Analysis para crear campos de índice cuando se cargan los datos.
Para obtener más información sobre la configuración del huso horario, consulte
Configuración del huso horario para la indexación en la guía Configuración.
IBM Operations Analytics - Log Analysis da soporte a diversos idiomas. Para ver
una lista completa de los idiomas soportados, consulte Idiomas soportados en la guía
Referencia de configuración.
Limitaciones
Los siguientes datos no se pueden globalizar:
Datos del archivo de registro
Los datos del archivo de registro siempre se visualizan en el idioma que se
utilizó en los archivos de registro originales. El texto se visualiza en la IU
Buscar.
Archivos y directorio de instalación
El directorio donde IBM Operations Analytics - Log Analysis está instalado
y los archivos que se crean durante la instalación solo están disponibles en
inglés.
Archivos de registro de IBM Operations Analytics - Log Analysis
Los archivos de registro generados por IBM Operations Analytics - Log
Analysis y las aplicaciones asociadas como IBM Tivoli Monitoring Log File
Agent, Motores de indexación, y WebSphere Application Server solo están
disponibles en inglés.
Artefactos que se crean en la IU de administración
Los artefactos como tipos de orígenes, colecciones, orígenes de datos,
conjuntos de archivos y conjuntos de reglas solo están disponibles en
inglés. Si un usuario crea uno de estos objetos en otro idioma, los
artefactos sólo estarán disponibles en ese lenguaje.
70
IBM Operations Analytics - Log Analysis: Guía de instalación, configuración y administración
Archivos de registro de ejemplo
Los archivos de registro que utilizan los escenarios de muestra solo están
disponibles en inglés.
Scripts de IBM Operations Analytics - Log Analysis
Scripts como unity.sh, eifutil.sh, y ldapRegistryHelper.sh solo están
disponibles en inglés y no se pueden globalizar. Esta limitación incluye
scripts Shell, Python, y Ruby.
Formatos de fecha y hora
Los formatos de fecha y hora solo se pueden modificar para toda la
instalación de IBM Operations Analytics - Log Analysis.
Conceptos relacionados:
“Ingestión de archivos de registro en un idioma distinto del inglés” en la página
232
Para facilitar la ingestión de archivos de registro en un idioma distinto del inglés,
debe cambiar el entorno local de IBM Tivoli Monitoring Log File Agent para que
coincida con el valor que utiliza la aplicación de origen para crear los archivos de
registro.
“Configuración del huso horario para la indexación” en la página 75
Puede cambiar el huso horario predeterminado que utiliza Log Analysis para crear
campos de índice cuando se cargan los datos.
Tareas relacionadas:
“Globalización de Panel de control de búsqueda personalizada”
Complete este procedimiento para globalizar Panel de control de búsqueda
personalizada para asegurarse de que los mensajes, errores y excepciones, y la
salida generada de Panel de control de búsqueda personalizada se han globalizado.
“Globalización de contenido, paneles de control, etiquetas de gráfico y campos de
configuración de índice de Paquete Insight” en la página 73
Complete este procedimiento para globalizar los campos de configuración de
índice, paneles de control y etiquetas de gráfico.
Referencia relacionada:
“Idiomas soportados” en la página 144
IBM Operations Analytics - Log Analysis da soporte a diversos idiomas.
Globalización de Panel de control de búsqueda personalizada:
Complete este procedimiento para globalizar Panel de control de búsqueda
personalizada para asegurarse de que los mensajes, errores y excepciones, y la
salida generada de Panel de control de búsqueda personalizada se han globalizado.
Acerca de esta tarea
Para habilitar la globalización de la salida generada de Panel de control de
búsqueda personalizada, la infraestructura de IBM Operations Analytics - Log
Analysis pasa el entorno local que utiliza la aplicación.
Si desea información sobre las limitaciones del proceso de globalización, consulte
“Globalización” en la página 70.
Para globalizar la Panel de control de búsqueda personalizada, realice los pasos
siguientes:
Configuración
71
Procedimiento
1. Abra el script en el que se basa la Panel de control de búsqueda personalizada.
En la mayoría de los casos, este script es el archivo que se almacena en la
carpeta del <custom_search_dashboard_name>.app que se almacena en la carpeta
del Paquete Insight correspondiente, por ejemplo, <HOME>/IBM/LogAnalysis/
unity_content/WindowsOSEventsInsightPack_<versión>/unity_apps/apps. La
Panel de control de búsqueda personalizada se puede basar en otros lenguajes,
como Python y Java.
2. Para extraer la información de entorno local que se pasa de IBM Operations
Analytics - Log Analysis a la Panel de control de búsqueda personalizada, debe
añadir un código compatibles con JSON al script de la Panel de control de
búsqueda personalizada. Por ejemplo:
{
"parameters": [
{}
],
"_fwParameters":[
{
"name": "locale",
"value": "<locale>",
"type" : "String"
}
]
}
El ejemplo siguiente se encuentra en el lenguaje Python y muestra cómo puede
extraer la información de entorno local que se pasa al Paquete Insight o Panel
de control de búsqueda personalizada desde IBM Operations Analytics - Log
Analysis:
if len(sys.argv) > 1:
filename = str(sys.argv[1])
fk = open(filename,"r")
data = json.load(fk)
locale = data["_fwParameters"][0]["value"]
En este ejemplo, el entorno local se envía al script desde IBM Operations
Analytics - Log Analysis con el formato siguiente:
{
"parameters": [
{
}
],
"_fwParameters":[
{
"name": "locale",
"value": "<locale>",
"type" : "String"
}
]
}
donde <locale> es el entorno local que desea utilizar. Por ejemplo, "value":
"en_US".
3. Guarde e inicie la aplicación para ver la Panel de control de búsqueda
personalizada globalizada.
Resultados
El entorno local extraído globaliza los mensajes, errores y excepciones, y la salida
generada de la Panel de control de búsqueda personalizada.
72
IBM Operations Analytics - Log Analysis: Guía de instalación, configuración y administración
Globalización de contenido, paneles de control, etiquetas de gráfico y campos de
configuración de índice de Paquete Insight:
Complete este procedimiento para globalizar los campos de configuración de
índice, paneles de control y etiquetas de gráfico.
Acerca de esta tarea
El panel de control, los gráficos y los campos de configuración de índice se
globalizan mediante un paquete de recursos. El paquete de recursos se basa en el
mecanismo de paquete de recursos Java. El desarrollador de Paquete Insight crea el
paquete de recursos en los idiomas soportados. Hay un paquete de recursos para
el Paquete Insight que contiene claves para todos los artefactos.
Los Paquetes Insight están disponibles en inglés. Para globalizar estos objetos y el
contenido asociado en otro idioma, debe configurar el entorno local y crear un
paquete de recursos.
Para globalizar el contenido, los paneles de control, los gráficos y los campos de
configuración de índice de Paquete Insight, realice los pasos siguientes:
Procedimiento
1. Cree una carpeta denominada i18n en el directorio donde se almacena el
Paquete Insight.
2. Crea un archivo de paquete de recursos en la carpeta i18n. El nombre de
Paquete Insight que utiliza en el archivo de paquete de recursos debe coincidir
exactamente con Paquete Insight.
<Insight_Pack_Name>_locale.properties
donde <Insight_Pack_Name> es el nombre exacto del Paquete Insight que desea
globalizar.
3. Especifique las claves de cada artefacto que desee globalizar. Las claves son
valores de los campos que se traducirán para la globalización. Por ejemplo, el
valor del campo "name" para la Panel de control de búsqueda personalizada o
el panel de control en el archivo .app. Si no especifica ningún valor en el
archivo del paquete de recursos, se utilizará de forma predeterminada el
nombre existente. Las claves que no se especifican en el paquete de recursos se
visualizan en inglés. El paquete de recursos soporta tres tipos de especificación
diferentes:
Claves globales
key=value
La clave global se aplica a todos los artefactos del Paquete Insight.
Claves de artefacto globales
artifact_type.key=value
La clave de artefacto global se aplica a todos los artefactos bajo un tipo
de artefacto específico.
Claves de artefacto específicas
artifact_type.artifact_name.key=value
Las claves de artefacto específicas sustituyen la clave general.
Se da soporte a los siguientes artifact_types:
v sourcetype
Configuración
73
v customapp
El nombre de artefacto es el nombre que ha creado, por ejemplo,
WASSystemOut.
Puede especificar texto globalizado para cada uno de los artefactos siguientes:
Configuración de índice
Para globalizar los nombres de campo en la configuración de índice,
especifique los nombres de campo y el texto localizado en el paquete
de recursos:
sourcetype.<nombre_tipo_origen>.<campo_configuración_índice> = texto_localizado
Por ejemplo:
sourcetype.WASSystemOut.severity = severity_translated
sourcetype.WASSystemErr.message = message_translated
sourcetype.WASTrace.msgclassifier = msgclassifier_translated
Nombre de la Panel de control de búsqueda personalizada
Para especificar una versión globalizada de un nombre de Panel de
control de búsqueda personalizada, debe especificar el nombre que se
utiliza en el archivo de especificación de Panel de control de búsqueda
personalizada del paquete de recursos. Por ejemplo, el nombre en el
archivo de especificaciones de la Panel de control de búsqueda
personalizada es:
"name":"Error Analysis"
Especifique la siguiente información en el paquete de recursos:
customapp.<nombre_aplic_personalizada>.Error\ Analysis = Log Severity Trend
La tendencia de gravedad del registro se visualiza como el nombre de
la aplicación que aparece en la interfaz de usuario.
Etiquetas en el panel de control de búsqueda
Cuando crea una Panel de control de búsqueda personalizada, esta se
visualiza en el panel Paneles de control de búsqueda en la interfaz de
usuario de Búsqueda. La Panel de control de búsqueda personalizada
se agrupa bajo un directorio. El nombre de este directorio se globaliza
mediante etiquetas. Para globalizar este nombre de etiqueta, debe
especificar la etiqueta en el paquete de recursos del siguiente modo:
customapp.tag.<Insight_Pack_Name> = SEVERITY ANALYSIS
donde <Insight_Pack_Name> es el nombre del Paquete Insight.
Por ejemplo:
customapp.tag.NewAppPack_v1.1.0.0 = SEVERITY ANALYSIS
Se visualiza el nombre de etiqueta SEVERITY ANALYSIS en la IU.
Títulos del gráfico
Los títulos del gráfico se especifican de la siguiente manera en la
especificación de gráfico:
spec: “title”: "Event Diagnostics"
Para globalizar el título, añádalo al paquete de recursos:
customapp.<nombre_aplic_personalizada>.Event\ Diagnostics = Error while
ingesting data
74
IBM Operations Analytics - Log Analysis: Guía de instalación, configuración y administración
Etiquetas para los ejes del gráfico
Las etiquetas que se utilizan para identificar los ejes del gráficos se
especifican con el parámetro label en las especificaciones de gráfico.
Por ejemplo:
"parameters": [{"type": "Axis", "name": "xaxis", "label":"xlabel"},
{"type": "Axis", "name": "yaxis", "datatype":"number",
"label":"ylabel"},],
Se deben utilizar las nuevas etiquetas de eje de la especificación de
gráfico en la especificación de la Panel de control de búsqueda
personalizada.
"charts": [{ "title": "Event Diagnostics", “labels":
{"xlabel":"timestamp", "ylabel":"Counter"},]
Para globalizar los nombres de las etiquetas, especifique el texto
globalizado en el paquete de recursos con el formato siguiente:
customapp.<nombre_aplic_personalizada>.<nombre_etiqueta> = <nombre_localizado>
donde <Label_name> es el nombre especificado en las especificaciones
del gráfico. <Localized_name> es el nombre que desea visualizar en la
IU. Por ejemplo:
customapp.<nombre_aplic_personalizada>.Counter = Counter_t
Counter_t es el nombre del eje que se visualiza en la IU.
4. Empaquete el Paquete Insight como la siguiente versión y utilice el programa
de utilidad pkg_mngt.sh para actualizar los Paquetes Insight.
Habilitación de la memoria caché de faceta para búsquedas con
comodines
Si utiliza el término de búsqueda con comodines (*) para buscar datos cuya una
antigüedad sea mayor que 1 día, puede configurar Log Analysis para contar las
facetas antes de que se indexen para la búsqueda. Este valor puede ayudar a
optimizar este tipo de búsqueda.
Procedimiento
1. Abra el archivo <HOME>/IBM/LogAnalysis/wlp/usr/servers/Unity/apps/
Unity.war/WEB-INF/unitysetup.properties.
2. Cambie el parámetro ENABLE_SOLR_FACET_CACHE=false a true.
3. Guarde el archivo.
4. Para reiniciar Log Analysis, entre el mandato siguiente:
./<HOME>/IBM/LogAnalysis/utilities/unity.sh -restart
Configuración del huso horario para la indexación
Puede cambiar el huso horario predeterminado que utiliza Log Analysis para crear
campos de índice cuando se cargan los datos.
Si desea cambiar el huso horario que se utiliza para crear campos de índice cuando
se cargan datos, debe editar el archivo unitysetup.properties antes de cargar los
datos. No puede cambiar el huso horario predeterminado después de cargar los
datos. Si lo hace, esta acción provoca errores en los registros de archivo de registro.
Para obtener más información, consulte el tema Cambiar el huso horario del índice.
También puede cambiar el huso horario que se utiliza para los resultados de
búsqueda específicos en cualquier momento. Si desea ver un conjunto específico de
Configuración
75
resultados de búsqueda en un huso horario concreto, puede cambiar el huso
horario en el espacio de trabajo de búsqueda. También puede establecer un huso
horario de búsqueda predeterminado.
Para obtener más información, consulte el tema Cambiar el huso horario de la
búsqueda en la guía Utilización.
Tareas relacionadas:
“Cambiar el huso horario del índice”
Log Analysis utiliza la Hora Universal Coordinada (UTC) como el huso horario
predeterminado para indexar durante la carga de datos. Para cambiar el huso
horario predeterminado, realice este procedimiento.
Cambiar el huso horario del índice
Log Analysis utiliza la Hora Universal Coordinada (UTC) como el huso horario
predeterminado para indexar durante la carga de datos. Para cambiar el huso
horario predeterminado, realice este procedimiento.
Acerca de esta tarea
Debe cambiar este valor después de instalar IBM Operations Analytics - Log
Analysis pero antes de cargar datos, incluidos los datos de ejemplo proporcionados
en la página Cómo empezar.
Nota: No puede cambiar este valor de huso horario después de cargar los datos.
IBM Operations Analytics - Log Analysis no puede resolver las distintas
indicaciones de hora y este conflicto puede ocasionar problemas en la búsqueda
que no se pueden resolver. Después de cambiar el huso horario y cargar datos, no
cambie de nuevo el huso horario.
IBM Operations Analytics - Log Analysis soporta la clasificación de husos horarios
de Java. Para obtener una lista de los nombres de los husos horarios soportados,
consulte Nombres de los husos horarios soportados.
Procedimiento
1. Instale Log Analysis. No cargue o instale datos.
2. Para detener Log Analysis, especifique el mandato siguiente:
<HOME>/IBM/LogAnalysis/utilities/unity.sh -stop
3. Para cambiar el valor de huso horario predeterminado, edite el parámetro
UNITY_TIME_ZONE en el archivo <HOME>/IBM/LogAnalysis/wlp/usr/servers/
Unity/apps/Unity.war/WEB-INF/unitysetup.properties. Por ejemplo, para
cambiar la Hora central europea (CE), edite el parámetro de la siguiente
manera:
UNITY_TIME_ZONE=Europe/Paris
4. Guarde los cambios.
5. Para reiniciar Log Analysis, entre el mandato siguiente:
<HOME>/IBM/LogAnalysis/utilities/unity.sh -restart
Qué hacer a continuación
Después de guardar el huso horario predeterminado y cargar los datos, no vuelva
a cambiarlo. Si desea cambiar el huso horario para las búsquedas, puede cambiarlo
en la IU de búsqueda.
76
IBM Operations Analytics - Log Analysis: Guía de instalación, configuración y administración
Para obtener más información, consulte el tema Cambiar el huso horario para las
búsquedas en la guía Utilización.
Referencia relacionada:
“Nombres de huso horario soportados” en la página 130
IBM Operations Analytics - Log Analysis utiliza la Hora Universal Coordinada
como el huso horario predeterminado.
Gestión de alertas
Workgroup
SQL
System
System
Standard
AltiVec
Sybase
Studio
Start
DB2
C99
C89
CEP
ALL
IDS
i5
Server
p5
z9
i53
Orchestrator
Cloudscape
Telesales
Fix
Panagon
pSeries
Pack
Documentum
Domino.Doc
Content
Mgr
Professional
Developer
Advanced
Business
WCS
zSeries
WC
xSeries
Oracle
iSeries
B2C
B2B
5.4
5.1
Express
WAS
5.0
Fix
Oracle
Pack
10
21
Enterprise
Puede utilizar las funciones de gestión de alertas de Log Analysis para supervisar
la ingestión de datos en tiempo real y desencadenar sucesos en función de
condiciones especificadas.
Utilice la función de gestión de alertas como ayuda para realizar las tareas
siguientes:
v Generar alertas en tiempo real a medida que se transmitan datos a Log Analysis.
v Especificar condiciones y desencadenar acciones como el envío de una
notificación de correo electrónico, la ejecución de un script personalizado o el
registro de una alerta. También puede especificar acciones personalizadas.
v Detectar condiciones especificadas por el usuario cuando se transmitan datos a
Log Analysis y desencadenar acciones personalizadas cuando se cumplan las
condiciones.
v Indexar las alertas generadas para la creación de informes.
v Si también utiliza IBM Tivoli Netcool/OMNIbus, puede generar alertas para
sucesos EIF o condiciones de excepción SNMP. Para obtener más información,
consulte “Configuración de alertas para sucesos SNMP y EIF” en la página 83.
Para crear una alerta, debe especificar una condición y una acción. Utilice la
interfaz de usuario Gestionar alertas para crear, editar y suprimir alertas, acciones
de alerta y condiciones. Sólo el usuario unityadmin puede editar todas las alertas.
Para obtener más información sobre la configuración de los correos electrónicos
enviados por la acción de alerta de correo electrónico, consulte “Configuración de
acciones de alerta de correo electrónico” en la página 89.
Creación de alertas
Workgroup
SQL
System
System
Standard
AltiVec
Sybase
Studio
Start
DB2
C99
C89
CEP
ALL
IDS
i5
Server
p5
z9
i53
Orchestrator
Cloudscape
Telesales
Fix
Panagon
pSeries
Pack
Documentum
Domino.Doc
Content
Mgr
Professional
Developer
Advanced
Business
WCS
zSeries
WC
xSeries
Oracle
iSeries
B2C
B2B
5.4
5.1
Express
WAS
5.0
Fix
Oracle
Pack
10
21
Enterprise
Para desencadenar acciones basadas en sucesos, cree una alerta.
Acerca de esta tarea
Sólo los usuarios de Standard Edition pueden utilizar esta característica.
Procedimiento
1. Para abrir la interfaz de usuario Gestionar alertas, pulse el icono Gestionar
alertas (
).
2. Para crear una alerta, pulse Crear.
Configuración
77
3. Especifique un nombre.
4. Para asegurarse de que la alerta está activa, seleccione la casilla Habilitado.
5. Seleccione el nivel de gravedad. Cuando se alcance este nivel, la acción de
alerta se desencadenará.
6. Opcional: También puede especificar una nota.
7. Para crear una condición, pulse Crear condición
8. Seleccione una plantilla y especifique las palabras clave o consultas de
búsqueda necesarias. En la tabla se resumen las condiciones.
Tabla 7. Condiciones
Condición
Descripción
Coincidencia de palabra clave
Utilice esta condición para desencadenar
una alerta cuando se encuentre una palabra
clave en todos los orígenes de datos o solo
en los orígenes de datos especificados.
Puede especificar una palabra clave o bien
puede especificar una consulta de búsqueda.
Coincidencia de palabra clave basada en
umbral
Utilice esta condición para desencadenar
una alerta cuando se produzca un número
especificado de palabras clave o resultados
de búsqueda en todos los orígenes de datos
o en los orígenes de datos especificados
durante un periodo de tiempo especificado.
Especifique la palabra clave o consulta de
búsqueda, especifique el número de
apariciones necesarias para desencadenar la
alerta en el periodo de tiempo especificado
en segundos, minutos u horas.
Coincidencia de palabra clave con
optimización de almacenamiento
Utilice la condición para desencadenar una
alerta cuando aparezca una palabra clave o
consulta de búsqueda en todos los orígenes
de datos o en los orígenes de datos
especificados durante el periodo de tiempo
especificado. Si se cumple una condición, se
envía una única alerta. Log Analysis no
envía varias acciones duplicadas.
Coincidencia de coaparición
Utilice esta condición para desencadenar
una alerta cuando aparezcan 2 o más
palabras clave o resultados de consulta de
búsqueda durante el mismo periodo de
tiempo especificado.
Detección de anomalías
Utilice esta condición para desencadenar
una alerta cuando se detecte un cambio en
el campo especificado en el origen de datos.
Detección de anomalía basada en umbral
Utilice esta condición para desencadenar
una alerta cuando aparezca un valor
especificado un número determinado de
veces en el periodo de tiempo.
9. Guarde la condición.
10. Seleccione la acción que se producirá cuando se desencadene la alerta. Las
opciones se explican en la tabla.
78
IBM Operations Analytics - Log Analysis: Guía de instalación, configuración y administración
Tabla 8. Acciones de alerta
Acción
Descripción
Índice
Utilice esta acción para indexar alertas en el
origen de datos _alerts. Esto no requiere
ninguna configuración. El origen de datos
_alerts contiene 3 campos indexados:
conditionName
Nombre de la condición.
conditionsDatasource
Nombre del origen de datos que ha
cumplido la condición.
timestamp
Hora a la que se ha cumplido la
condición.
Enviar correo electrónico
Utilice esta acción para enviar un correo
electrónico. Puede seleccionar una plantilla o
especificar el remitente, destinatario, prefijo
de asunto o texto del cuerpo manualmente.
Si desea enviar el correo a varios
destinatarios, debe separar cada dirección
con una coma.
Para utilizar la acción de correo electrónico,
primero debe configurar el archivo
<HOME>/wlp/usr/servers/Unity/apps/
Unity.war/configs/
AlertActionEmailConfig.json.
Escribir en registro
Utilice esta acción para registrar alertas
desencadenadas en un archivo de registro
específico. Puede seleccionar un archivo de
registro visualizado recientemente o bien
puede especificar manualmente el archivo de
vía de acceso de registro. Las alertas
desencadenadas se actualizan cada 10
segundos.
Script
Utilice esta acción para ejecutar un script
cuando se cumpla una condición. Puede
seleccionar un script visualizado
recientemente o bien puede especificar
manualmente los detalles. Puede especificar
el directorio donde se almacena el script, el
directorio donde se ejecuta el script y los
parámetros de línea de mandatos necesarios
para pasar al script cuando se ejecute.
Configuración
79
Tabla 8. Acciones de alerta (continuación)
Acción
Descripción
Condición de excepción SNMP
Utilice esta acción para enviar sucesos de
condición de excepción SNMP. Debe
especificar los valores siguientes:
Servidor SNMP
Especifique el nombre de host del
servidor SNMP.
Puerto SNMP
Especifique el puerto que utiliza el
servidor SNMP.
Versión de SNMP
Muestra la versión soportada de
SNMP. Este campo es de solo
lectura. La versión 2c es la única
versión soportada.
Serie de comunidad SNMP
Escriba la cadena de comunidad
para el receptor SNMP. El valor
predeterminado es “public”.
Protocolo de transporte SNMP
Especifique un protocolo de
transporte. UDP y TCP son los
protocolos de transporte
soportados.
Suceso EIF
Utilice esta acción para desencadenar un
suceso EIF. Debe especificar el servidor EIF
y el puerto.
11. Pulse Crear.
Interfaz de usuario Gestionar alertas
Workgroup
SQL
System
System
Standard
AltiVec
Sybase
Studio
Start
DB2
C99
C89
CEP
ALL
IDS
i5
Server
p5
z9
i53
Orchestrator
Cloudscape
Telesales
Fix
Panagon
pSeries
Pack
Documentum
Domino.Doc
Content
Mgr
Professional
Developer
Advanced
Business
WCS
zSeries
WC
xSeries
Oracle
iSeries
B2C
B2B
5.4
5.1
Express
WAS
5.0
Fix
Oracle
Pack
10
21
Enterprise
Utilice la interfaz de usuario Gestionar alertas para crear, editar y suprimir alertas,
condiciones y acciones de alerta.
Sólo los usuarios de Standard Edition pueden utilizar esta característica.
Botones, campos y casillas
Tabla 9. Botones, campos y casillas de la interfaz de usuario Gestionar alertas
80
Botón, campo o casilla
Descripción
Crear nueva
Crear una alerta.
Editar
Editar una alerta existente.
Suprimir
Suprimir una alerta existente.
Recuadro de búsqueda
Buscar una alerta existente.
Icono Renovar
Renovar la tabla de resultados para incluir
nuevas alertas.
IBM Operations Analytics - Log Analysis: Guía de instalación, configuración y administración
Columnas
Tabla 10. Columnas de la interfaz de usuario Gestionar alertas
Columna
Descripción
Casilla de selección
Utilice esta casilla para seleccionar una
alerta para edición.
Status
Indica si la alerta está activa o inactiva.
Nombre de alerta
Nombre de la alerta.
Gravedad
Nivel de gravedad.
Autor
Persona que ha creado la plantilla de acción
de alerta.
Plantilla de condición
Plantilla de condición que la alerta utiliza.
Acciones
Acciones que la alerta desencadena.
Editor de alertas
Tabla 11. Campos y casillas del editor de alertas
Campos y casilla
Descripción
Nombre de alerta
Especifique un nombre para la alerta.
Última modificación
Fecha y hora de la última modificación de la
alerta. Este campo es de solo lectura.
Casilla Habilitado
Para desactivar la alerta, desmarque esta
casilla.
Gravedad
Seleccione el nivel de gravedad de la alerta.
Autor
Usuario que ha creado la alerta. Este campo
es de solo lectura.
Notas
Especifique las notas que desee añadir.
Editor de condiciones
Tabla 12. Condiciones
Condición
Descripción
Coincidencia de palabra clave
Utilice esta condición para desencadenar
una alerta cuando se encuentre una palabra
clave en todos los orígenes de datos o solo
en los orígenes de datos especificados.
Puede especificar una palabra clave o bien
puede especificar una consulta de búsqueda.
Coincidencia de palabra clave basada en
umbral
Utilice esta condición para desencadenar
una alerta cuando se produzca un número
especificado de palabras clave o resultados
de búsqueda en todos los orígenes de datos
o en los orígenes de datos especificados
durante un periodo de tiempo especificado.
Especifique la palabra clave o consulta de
búsqueda, especifique el número de
apariciones necesarias para desencadenar la
alerta en el periodo de tiempo especificado
en segundos, minutos u horas.
Configuración
81
Tabla 12. Condiciones (continuación)
Condición
Descripción
Coincidencia de palabra clave con
optimización de almacenamiento
Utilice la condición para desencadenar una
alerta cuando aparezca una palabra clave o
consulta de búsqueda en todos los orígenes
de datos o en los orígenes de datos
especificados durante el periodo de tiempo
especificado. Si se cumple una condición, se
envía una única alerta. Log Analysis no
envía varias acciones duplicadas.
Coincidencia de coaparición
Utilice esta condición para desencadenar
una alerta cuando aparezcan 2 o más
palabras clave o resultados de consulta de
búsqueda durante el mismo periodo de
tiempo especificado.
Detección de anomalías
Utilice esta condición para desencadenar
una alerta cuando se detecte un cambio en
el campo especificado en el origen de datos.
Detección de anomalía basada en umbral
Utilice esta condición para desencadenar
una alerta cuando aparezca un valor
especificado un número determinado de
veces en el periodo de tiempo.
Editor de acciones de alerta
Tabla 13. Acciones de alerta
Acción
Descripción
Índice
Utilice esta acción para indexar alertas en el
origen de datos _alerts. Esto no requiere
ninguna configuración. El origen de datos
_alerts contiene 3 campos indexados:
conditionName
Nombre de la condición.
conditionsDatasource
Nombre del origen de datos que ha
cumplido la condición.
timestamp
Hora a la que se ha cumplido la
condición.
Enviar correo electrónico
Utilice esta acción para enviar un correo
electrónico. Puede seleccionar una plantilla o
especificar el remitente, destinatario, prefijo
de asunto o texto del cuerpo manualmente.
Si desea enviar el correo a varios
destinatarios, debe separar cada dirección
con una coma.
Para utilizar la acción de correo electrónico,
primero debe configurar el archivo
<HOME>/wlp/usr/servers/Unity/apps/
Unity.war/configs/
AlertActionEmailConfig.json.
82
IBM Operations Analytics - Log Analysis: Guía de instalación, configuración y administración
Tabla 13. Acciones de alerta (continuación)
Acción
Descripción
Escribir en registro
Utilice esta acción para registrar alertas
desencadenadas en un archivo de registro
específico. Puede seleccionar un archivo de
registro visualizado recientemente o bien
puede especificar manualmente el archivo de
vía de acceso de registro. Las alertas
desencadenadas se actualizan cada 10
segundos.
Script
Utilice esta acción para ejecutar un script
cuando se cumpla una condición. Puede
seleccionar un script visualizado
recientemente o bien puede especificar
manualmente los detalles. Puede especificar
el directorio donde se almacena el script, el
directorio donde se ejecuta el script y los
parámetros de línea de mandatos necesarios
para pasar al script cuando se ejecute.
Condición de excepción SNMP
Utilice esta acción para enviar sucesos de
condición de excepción SNMP. Debe
especificar los valores siguientes:
Servidor SNMP
Especifique el nombre de host del
servidor SNMP.
Puerto SNMP
Especifique el puerto que utiliza el
servidor SNMP.
Versión de SNMP
Muestra la versión soportada de
SNMP. Este campo es de solo
lectura. La versión 2c es la única
versión soportada.
Serie de comunidad SNMP
Escriba la cadena de comunidad
para el receptor SNMP. El valor
predeterminado es “public”.
Protocolo de transporte SNMP
Especifique un protocolo de
transporte. UDP y TCP son los
protocolos de transporte
soportados.
Suceso EIF
Utilice esta acción para desencadenar un
suceso EIF. Debe especificar el servidor EIF
y el puerto.
Configuración de alertas para sucesos SNMP y EIF
Puede configurar Log Analysis para enviar alertas como sucesos EIF o condiciones
de excepción SNMP a IBM Tivoli Netcool/OMNIbus.
Configuración
83
Versiones admitidas
Debe instalar IBM Tivoli Netcool/OMNIbus 8.1. Log Analysis no incluye IBM
Tivoli Netcool/OMNIbus o ninguno de sus componentes. Debe instalar IBM Tivoli
Netcool/OMNIbus de forma independiente.
Para las condiciones de excepción SNMP, está soportada la versión 2 c.
Requisitos previos
Para poder configurar esta función, primero debe instalar IBM Tivoli
Netcool/OMNIbus 8.1 en un servidor al que Log Analysis pueda conectarse.
Para poder empezar la configuración, primero debe copiar estos tres archivos en
IBM Tivoli Netcool/OMNIbus:
v tivoli_eif_la.rules
v mttrapd_la.rules
v ioa-la.mib
Configuración de IBM Tivoli Netcool/OMNIbus
Debe configurar IBM Tivoli Netcool/OMNIbus de modo que pueda recibir los
sucesos EIF o las condiciones de excepción SNMP que envía Log Analysis.
Procedimiento
1. Inicie sesión en IBM Tivoli Netcool/OMNIbus y seleccione sucesos EIF o
condiciones de excepción SNMP para el protocolo.
2. Si desea utilizar sucesos EIF, realice los pasos siguientes:
a. Instale IBM Tivoli Netcool/OMNIbus EIF Probe. Para obtener más
información, consulte IBM Tivoli Netcool/OMNIbus Probe for Tivoli EIF.
b. Copie el archivo tivoli_eif_la.rules al servidor de IBM Tivoli
Netcool/OMNIbus.
c. Configure el analizar de EIF para que envíe y reciba sucesos EIF desde Log
Analysis. La ubicación de las reglas predeterminadas del analizador y los
archivos de propiedades predeterminados en una instalación de OMNIbus
es <OMNIBUS_HOME>/probes, en un subdirectorio específico de la plataforma.
Por ejemplo, para una instalación de Linux x86, la ubicación es
<OMNIBUS_HOME>/probes/linux2x86:
1) Copie el archivo de propiedades EIF predeterminado, tivoli_eif.props,
del directorio específico de la plataforma a un archivo de propiedades
de Log Analysis, por ejemplo tivoli_eif_la.props.
2) Elimine los comentarios y especifique valores para las propiedades
siguientes:
RulesFile
Especifique el directorio donde ha copiado los archivos de reglas
en el paso 2.b.
PortNumber
Especifique el puerto que utilizará el analizador EIF para
escuchar a Log Analysis. Esta información es necesaria para
facilitar las acciones de alerta en Log Analysis.
MessageLevel
Esto es opcional. Establezca esta propiedad en debug' para
registrar información de depuración adicional.
84
IBM Operations Analytics - Log Analysis: Guía de instalación, configuración y administración
MessageLog
Esto es opcional. Puede especificar un archivo de registro para el
analizador de EIF. El valor predeterminado es
<OMNIBUS_HOME>/log/tivoli_eif.log.
3) Para iniciar el analizador de EIF, escriba el mandato siguiente:
<OMNIBUS_HOME>/probes/nco_p_tivoli_eif -propsfile <path>/tivoli_eif_la.props
3. Si desea utilizar condiciones de excepción SNMP, realice los pasos siguientes:
a. Instale IBM Tivoli Netcool/OMNIbus SNMP Probe. Para obtener más
información, consulte IBM Tivoli Netcool/OMNIbus SNMP Probe.
b. Copie el archivo mttrapd_la.rules en el servidor de IBM Tivoli
Netcool/OMNIbus.
c. Configure el analizador de SNMP para que envíe y reciba condiciones de
excepción SNMP desde Log Analysis. La ubicación de las reglas
predeterminadas del analizador y los archivos de propiedades
predeterminados en una instalación de OMNIbus es <OMNIBUS_HOME>/probes,
en un subdirectorio específico de la plataforma. Por ejemplo, para una
instalación de Linux x86, la ubicación es <OMNIBUS_HOME>/probes/linux2x86:
1) Copie el archivo de propiedades EIF predeterminado mttrapd.props del
directorio específico de la plataforma a un archivo de propiedades de
Log Analysis, por ejemplo mttrapd_la.props.
2) Elimine los comentarios y especifique valores para las propiedades
siguientes:
RulesFile
Especifique el directorio donde ha copiado los archivos de reglas
en el paso 3.b.
PortNumber
Especifique el puerto que utilizará el analizador SNMP para
escuchar a Log Analysis. Esta información es necesaria para
facilitar las acciones de alerta en Log Analysis.
Protocol
Especifique el protocolo que utiliza el analizador de SNMP.
Puede especificar UDP o TCP. El valor predeterminado es UDP.
MessageLevel
Esto es opcional. Establezca esta propiedad en debug' para
registrar información de depuración adicional.
MessageLog
Esto es opcional. Puede especificar un archivo de registro para el
analizador de SNMP. El valor predeterminado es
<OMNIBUS_HOME>/log/mttrapd.log.
3) Para iniciar el analizador de SNMP, escriba el mandato siguiente:
<OMNIBUS_HOME>/probes/nco_p_mttrapd -propsfile <path>/mttrapd_la.props
Qué hacer a continuación
Después de completar la configuración en IBM Tivoli Netcool/OMNIbus, debe
configurar las alertas.
Configuración de alertas para sucesos EIF y condiciones de
excepción SNMP
Para poder desencadenar alertas para sucesos EIF y condiciones de excepción
SNMP, debe crear acciones de alerta en Log Analysis,
Configuración
85
Acerca de esta tarea
Debe instalar el analizador escogido y realizar la configuración necesaria en IBM
Tivoli Netcool/OMNIbus para poder crear las alertas.
Procedimiento
1. Abra la IU Gestionar alertas y crea una alerta para los sucesos EIF y las
condiciones de excepción SNMP.
2. Si está utilizando sucesos EIF, debe especificar el nombre de host del servidor
de IBM Tivoli Netcool/OMNIbus y el número de puerto utilizados por el
analizador de EIF.
3. Si está utilizando condiciones de excepción SNMP, debe especificar los valores
siguientes:
v Nombre de host del servidor de IBM Tivoli Netcool/OMNIbus,
v Número de puerto del analizador de SNMP
v Cadena de comunidad de SNMP. El valor predeterminado es “public”
v Protocolo de transporte. El valor predeterminado es “udp”
Tareas relacionadas:
“Creación de alertas” en la página 77
Para desencadenar acciones basadas en sucesos, cree una alerta.
Estructura de sucesos EIF
El suceso EIF contiene una información estructurada que se envía a IBM Tivoli
Netcool/OMNIbus.
El suceso EIF se estructura de la siguiente manera:
"source": "IBM_Operational_Analytics_Log_Analysis"
"origin": // nombre de host/dirección-ip del servidor de IBM Operations Analytics Log Analysis
"event": "IOA_LA_<tipo-alerta>_Alert"
"alertName": // nombre de la alerta
"alertType": "KEYWORD_MATCH"/"KEYWORD_MATCH_THRESHOLD"/"KEYWORD_MATCH_DEDUP"
"ANOMALY_MATCH"/"ANOMALY_MATCH_THRESHOLD"/"CO_OCCURRENCE"
"description": // descripción de la alerta
"datasources": // lista de los orígenes de datos asociados como una matriz JSON
"timestamp":
// indicación de fecha y hora de época (larga) de la alerta
"severity": 1/2/3/4 (critical/error/warning/info)
El suceso EIF también contiene campos específicos para distintos tipos de alerta en
el parámetro alertType:
KEYWORD_MATCH
"searchQuery": // consulta que ha desencadenado la alerta
"alertLogRecord": // registro que ha desencadenado la alerta
KEYWORD_MATCH_THRESHOLD
"windowStartTimestamp": // indicación de fecha y hora de época (larga) del
primer recurso que coincida con
// la consulta de búsqueda
"threshold": // número de registros que coinciden con la consulta de búsqueda
"windowDuration": // duración de la ventana de alertas en segundos, minutos u
horas, p. ej. 3s/7m/2h
86
IBM Operations Analytics - Log Analysis: Guía de instalación, configuración y administración
KEYWORD_MATCH_DEDUP
"windowDuration": //duración de la ventana de deduplicación en segundos, minutos
u horas, p. ej. 3s/7m/2h
ANOMALY_MATCH
"fieldName": // nombre del campo para el cual se ha observado un valor nuevo
"fieldValue": // nuevo valor de campo que se ha observado
"alertLogRecord": // registro de anotaciones que contiene el valor de campo nuevo
ANOMALY_MATCH_THRESHOLD
"windowStartTimestamp": // indicación de fecha y hora de época (larga) del primer
registro que contiene
// un valor de campo nuevo
"threshold": // número del valor de campo nuevo que se ha observado
"windowDuration": // duración de la ventana de alertas en segundos, minutos u horas,
p. ej. 3s/7m/2h
CO_OCCURRENCE
"windowStartTimestamp": // indicación de fecha y hora de época (larga) del primer
suceso detectado
"windowDuration": // duración de la ventana de alertas en segundos, minutos u horas,
p. ej. 3s/7m/2h
Por ejemplo, este suceso EIF se envía para el tipo de alerta KEYWORD_MATCH y un
aviso de gravedad 2:
event: IOA_LA_KEYWORD_MATCH_Alert
source: IBM_Operational_Analytics_Log_Analysis
alertName: ’was-severity-error/was1/0’
alertType: ’KEYWORD_MATCH’
description: ’WAS error condition’
severity: 2
datasources: ’["was1"]’
alertLogRecord=’[09/1/15 13:27:23:964 GMT+05:30] 00000010 TraceResponse E
DSRA1120E: Application
did not explicitly close all handles to this Connection. Connection cannot be pooled.’;
timestamp=1441094243964
origin=’<ioala-server-fqdn>/<ioala-server-ip-address>’
searchQuery: ’severity:E’
Estructura de la condición de excepción SNMP
La condición de excepción SNMP contiene una información estructurada que se
envía a IBM Tivoli Netcool/OMNIbus.
Las condiciones de excepción de Log Analysis están asignadas al OID
1.3.6.1.4.1.2.6.258. Todas las condiciones de excepción SNMP que se envían desde
Log Analysis especifican un OID que es un prefijo. Cada variable que se envía en
una condición de excepción contiene este OID como prefijo para el nombre de
variable.
La estructura de la condición de excepción SNMP es la siguiente:
"1.3.6.1.6.3.1.1.4.1.0": // Alert OID
// "1.3.6.1.4.1.2.6.258.0.1" (KEYWORD_MATCH)
// "1.3.6.1.4.1.2.6.258.0.2" (KEYWORD_MATCH_THRESHOLD)
// "1.3.6.1.4.1.2.6.258.0.3" (KEYWORD_MATCH_DEDUP)
// "1.3.6.1.4.1.2.6.258.0.4" (ANOMALY_MATCH)
// "1.3.6.1.4.1.2.6.258.0.5" (ANOMALY_MATCH_THRESHOLD)
// "1.3.6.1.4.1.2.6.258.0.6" (CO_OCCURRENCE)
"1.3.6.1.4.1.2.6.258.1.1": // nombre de la alerta
"1.3.6.1.4.1.2.6.258.1.2": // descripción de la alerta
"1.3.6.1.4.1.2.6.258.1.3": 1/2/3/4 // gravedad de la alerta (critical/error/warning/info)
"1.3.6.1.4.1.2.6.258.1.4": // lista de los orígenes de datos asociados como una matriz JSON
"1.3.6.1.4.1.2.6.258.1.5": // indicación de fecha y hora de época (larga) para la alerta
Configuración
87
La condición de excepción SNMP también contiene campos específicos para cada
tipo de alerta:
KEYWORD_MATCH
"1.3.6.1.4.1.2.6.258.1.6": // registro que ha desencadenado la alerta
"1.3.6.1.4.1.2.6.258.1.8": // consulta que ha desencadenado la alerta
KEYWORD_MATCH_THRESHOLD
"1.3.6.1.4.1.2.6.258.1.11": // duración de la ventana de alertas en segundos,
minutos u horas, p. ej. 3s/7m/2h
"1.3.6.1.4.1.2.6.258.1.12": // número de registros que coinciden con la consulta
de búsqueda
"1.3.6.1.4.1.2.6.258.1.13": // indicación de fecha y hora de época (larga) del primer
registro que coincida con
// la consulta de búsqueda
KEYWORD_MATCH_DEDUP
"1.3.6.1.4.1.2.6.258.1.11": //duración de la ventana de deduplicación en segundos,
minutos u horas, p. ej. 3s/7m/2h
ANOMALY_MATCH
"1.3.6.1.4.1.2.6.258.1.6": // registro de anotaciones que contiene el valor de
campo nuevo
"1.3.6.1.4.1.2.6.258.1.9": // Nombre del campo para el cual se ha observado un
valor nuevo
"1.3.6.1.4.1.2.6.258.1.10": // Nuevo valor de campo que se ha observado
ANOMALY_MATCH_THRESHOLD
"1.3.6.1.4.1.2.6.258.1.11": // duración de la ventana de alertas en segundos, minutos
u horas, p. ej. 3s/7m/2h
"1.3.6.1.4.1.2.6.258.1.12": // número del valor de campo nuevo que se ha observado
"1.3.6.1.4.1.2.6.258.1.13": // indicación de fecha y hora de época (larga) del primer
registro que contiene
// un valor de campo nuevo
CO_OCCURRENCE
"1.3.6.1.4.1.2.6.258.1.11": // duración de la ventana de alertas en segundos, minutos
u horas, p. ej. 3s/7m/2h
"1.3.6.1.4.1.2.6.258.1.13": // indicación de fecha y hora de época (larga) del primer
suceso detectado
Por ejemplo, el siguiente suceso SNMP que se envía para una alerta KEYWORD_MATCH
con un error de gravedad 2:
1.3.6.1.6.3.1.1.4.1.0: 1.3.6.1.4.1.2.6.258.0.1
1.3.6.1.4.1.2.6.258.1.1: was-severity-error/was1/0
1.3.6.1.4.1.2.6.258.1.2: WAS error condition
1.3.6.1.4.1.2.6.258.1.3 = 2
1.3.6.1.4.1.2.6.258.1.4 = [was1]
1.3.6.1.4.1.2.6.258.1.5 = 1441094243964
1.3.6.1.4.1.2.6.258.1.6 = [09/1/15 13:27:23:964 GMT+05:30] 00000010 TraceResponse
E DSRA1120E: Application
did not explicitly close all handles to this Connection. Connection cannot be pooled.
1.3.6.1.4.1.2.6.258.1.8 = severity:E
MIB de SNMP
La definición MIB completa para alertas generadas por Log Analysis se almacenan
en el archivo ioa-la.mib.
El módulo MIB de Log Analysis, ioaLaMIB, utiliza el OID 1.3.6.1.4.1.2.6.258 en la
jerarquía de MIB.
Todas las notificaciones de alertas y la información correspondiente de Log
Analysis utiliza el OID 1.3.6.1.4.1.2.6.258 como prefijo.
88
IBM Operations Analytics - Log Analysis: Guía de instalación, configuración y administración
El MIB de Log Analysis contiene seis tipos de notificaciones, una para cada tipo de
alerta que se ha definido en Log Analysis. Los tipos de notificación son los
siguientes:
ioaLaKeywordMatchAlert (OID 1.3.6.1.4.1.2.6.258.0.1)
Esta notificación se genera cuando se produce una coincidencia de palabra
clave en un registro.
ioaLaKeywordMatchThresholdAlert (OID 1.3.6.1.4.1.2.6.258.0.2)
Esta notificación se genera cuando se produce una coincidencia de palabra
clave en varios registros durante un tiempo especificado.
ioaLaKeywordMatchDedupAlert (OID 1.3.6.1.4.1.2.6.258.0.3)
Esta notificación se genera la primera vez que se produce una coincidencia
de palabra clave en un registro dentro de una ventana de tiempo
específica. Las coincidencias posteriores dentro de la ventana se ignorarán.
ioaLaAnomalyMatchAlert (OID 1.3.6.1.4.1.2.6.258.0.4)
Esta notificación se genera cuando se visualiza un campo nuevo para un
origen de datos dentro de un periodo de tiempo específico.
ioaLaAnomalyMatchThresholdAlert (OID 1.3.6.1.4.1.2.6.258.0.5)
Esta notificación se genera cuando se visualizan varios valores de campo
nuevos para un origen de datos dentro de un periodo de tiempo específico.
ioaLaCoOccurrenceAlert (OID 1.3.6.1.4.1.2.6.258.0.6)
Esta notificación se genera cuando se visualizan varias condiciones dentro
de uno o varios orígenes de datos dentro de una ventana de tiempo
específica.
Asociado junto a cada uno de este tipo de notificaciones, hay un conjunto de
objetos que proporcionan información detallada sobre la notificación. Algunos se
producen en todas las notificaciones, mientras que otros son específicos de un tipo
de notificación.
Los objetos en una notificación de Log Analysis son los siguientes:
-
ioaLaAlertName (OID 1.3.6.1.4.1.2.6.258.1.1)
ioaLaAlertDescription (OID 1.3.6.1.4.1.2.6.258.1.2)
ioaLaAlertSeverity (OID 1.3.6.1.4.1.2.6.258.1.3)
ioaLaAlertDatasources (OID 1.3.6.1.4.1.2.6.258.1.4)
ioaLaAlertTimestamp (OID 1.3.6.1.4.1.2.6.258.1.5)
ioaLaAlertLogRecord (OID 1.3.6.1.4.1.2.6.258.1.6)
ioaLaAlertLogRecordAnnotations (OID 1.3.6.1.4.1.2.6.258.1.7)
ioaLaAlertSearchQuery (OID 1.3.6.1.4.1.2.6.258.1.8)
ioaLaAlertFieldName (OID 1.3.6.1.4.1.2.6.258.1.9)
ioaLaAlertFieldValue (OID 1.3.6.1.4.1.2.6.258.1.10)
ioaLaAlertWindowDuration (OID 1.3.6.1.4.1.2.6.258.1.11)
ioaLaAlertThreshold (OID 1.3.6.1.4.1.2.6.258.1.12)
ioaLaAlertWindowStartTimestamp (OID 1.3.6.1.4.1.2.6.258.1.13)
Configuración de acciones de alerta de correo electrónico
Para utilizar la acción de alerta de correo electrónico, primero debe especificar el
nombre de host de servidor SMTP (Simple Mail Transfer Protocol) en Log Analysis.
Acerca de esta tarea
La característica de acción de alerta de correo electrónico es compatible con
servidores SMTP normales y seguros.
Configuración
89
Procedimiento
1. Abra el archivo <HOME>/IBM/LogAnalysis/wlp/usr/servers/Unity/apps/
Unity.war/configs/AlertActionEmailConfig.json.
2. Especifique las propiedades de correo electrónico. Estas propiedades se
describen en la tabla siguiente.
Tabla 14. Propiedades de configuración de correo electrónico
Nombre de la propiedad
Descripción
Valor
secure
Decida si desea utilizar
SMTP seguro o no.
Booleano
smtpMailServer
Especifique el nombre de
host del servidor SMTP.
Serie
mailServerUser
Nombre de usuario que se
utiliza para la autenticación
en el servidor de correo.
Serie
mailServerPassword
Contraseña del usuario que
se utiliza para la
autenticación en el servidor
de correo.
Serie
footer
Texto que se añade al final
de cada correo electrónico.
Serie
cc
Direcciones de correo
electrónico que se copian en
cada correo electrónico. Los
destinatarios pueden
visualizar estas direcciones
en el correo final.
Serie
bcc
Direcciones de correo
electrónico que se copian en
cada correo electrónico. Los
destinatarios no puede
visualizar estas direcciones
en el correo final.
Serie
attachLogRecordAnnotations
Decida si se debe adjuntar la Booleano
anotación del archivo de
registro que ha
desencadenado la alerta.
Si desea utilizar contraseñas cifradas, puede utilizar el script
unity_securityUtility.sh para generar una contraseña cifrada.
3. Guarde el archivo.
Ejemplo
A continuación, se muestra un ejemplo de configuración:
{
“smtpMailServer”:“mail-server-host-name”,
“secure”:true,
“mailServerUser” : “[email protected]”,
“mailServerPassword” : “encrypted_pwd”
}
Conceptos relacionados:
90
IBM Operations Analytics - Log Analysis: Guía de instalación, configuración y administración
“Mandato unity_securityUtility.sh” en la página 119
Puede utilizar el mandato unity_securityUtility.sh para cambiar la contraseña
que el Recopilador de datos y el receptor EIF utilizan para conectarse con IBM
Operations Analytics - Log Analysis.
Alerta de correo electrónico de ejemplo
El correo electrónico que se muestra a continuación es un ejemplo de correo
enviado por la función de acción de alerta de correo electrónico. El remitente,
receptor, prefijo del asunto y cuerpo del mensaje se especifican en la configuración
de acción de alerta.
Estimado usuario,
Se ha desencadenado una condición de alerta de gravedad d1 a las 2015-01-09T16:45:00.000Z
para los orígenes de datos d1.
El siguiente registro de anotaciones ha hecho que se desencadene la condición de
alerta:[01/9/15 11:45:00:000 -0500]
00000010 TraceResponse E DSRA1120E: Application2 no ha cerrado explícitamente
todos los manejadores para esta conexión. La conexión no se puede agrupar.
*** Este correo electrónico lo ha generado el sistema. No responda a este correo electrónico ***
Configuración de las funciones de auditoría
Puede utilizar las funciones de auditoría de IBM Operations Analytics - Log
Analysis para realizar un seguimiento de las actividades a fin de proporcionar
análisis de hechos y supervisar activamente las actividades de los usuarios.
De forma predeterminada, la función de auditoría de IBM Operations Analytics Log Analysis está instalada y habilitada.
Los datos de auditoría se almacenan en el archivo audit.log en el directorio
<HOME>/IBM/LogAnalysis/logs y en el índice Motor de indexación.
IBM Operations Analytics - Log Analysis da soporte a la auditoría de los procesos
siguientes:
v Acceso (inicio/cierre de sesión)
v Autorización (gestión de usuarios/roles/permisos)
v Ingesta
v Búsqueda
v Alertas
Parámetros de auditoría
De forma predeterminada la función de auditoría está habilitada. Si es necesario, el
administrador puede modificar los parámetros predeterminados después de la
instalación.
El archivo unitysetup.properties se encuentra en la carpeta <HOME>/IBM/
LogAnalysis/wlp/usr/servers/Unity/apps/Unity.war/WEB-INF. Si es necesario, el
administrador puede editar los valores de los parámetros en la tabla 1.
Configuración
91
Tabla 15. unitysetup.properties de auditoría
Parámetros
Valor
AUDIT_ACTIONS=
Especifica dónde se almacenan los datos de
auditoría. El valor predeterminado es
LOG,INDEX. Estos valores son los únicos
valores soportados y están habilitados de
forma predeterminado.
AUDIT_INTERVAL=
Define la frecuencia con la que se graban los
datos de auditoría. El valor predeterminado
es 120000 milisegundos.
Los datos de auditoría se graban en formato JSON en el archivo
<HOME>/IBM/LogAnalysis/logs/audit.log. El archivo de auditoría es un archivo
continuo, que de forma predeterminada admite 20 archivos de 50 MB.
Las propiedades predeterminadas del archivo se encuentran en el archivo
log4j.properties en el directorio <HOME>/IBM/LogAnalysis/wlp/usr/servers/
Unity/apps/Unity.war/WEB-INF/classes/.
Nota: Si cambia alguno de los parámetros de auditoría, debe guardar los cambios
y reiniciar IBM Operations Analytics - Log Analysis.
Visualización del archivo de auditoría
El archivo de auditoría es un archivo continuo al que se puede acceder y en el que
se pueden realizar búsquedas en cualquier momento en el archivo audit.log o en
el que se pueden realizar búsquedas en la consola de Motor de indexación.
Acerca de esta tarea
De forma predeterminada la función de auditoría de IBM Operations Analytics Log Analysis está habilitada y registra datos de auditoría a intervalos
especificados. Para obtener información sobre cómo modificar los parámetros
predeterminados, consulte el tema Parámetros de auditoría en la sección
Configuración de auditoría de la guía Configuración.
Procedimiento
Para ver los datos de auditoría, abra el archivo audit.log en el directorio
<HOME>/IBM/LogAnalysis/logs.
Los datos de auditoría se graban en formato JSON en el archivo
<HOME>/IBM/LogAnalysis/logs/audit.log.
Configuración de la Panel de control de búsqueda personalizada
Consejo experto
Puede utilizar Panel de control de búsqueda personalizada Consejo experto para
buscar un origen de información de términos de las entradas de registro.
Puede utilizar la versión predeterminada de la Panel de control de búsqueda
personalizada Consejo experto. Esta versión busca en el portal de soporte de IBM
los términos que las columnas seleccionadas contienen. Puede personalizar esta
versión de la Panel de control de búsqueda personalizada Consejo experto para
92
IBM Operations Analytics - Log Analysis: Guía de instalación, configuración y administración
adaptarla a sus necesidades. Consulte “Personalización de la Panel de control de
búsqueda personalizada Consejo experto predeterminada”.
También puede implementar su propia versión de la Panel de control de búsqueda
personalizada Consejo experto. También puede personalizar esta versión de modo
que busque una base de conocimientos distinta del portal de soporte de IBM.
Para obtener más información, consulte “Configuración de una aplicación Consejo
experto personalizada” en la página 95.
Personalización de la Panel de control de búsqueda
personalizada Consejo experto predeterminada
Puede utilizar la implementación predeterminada de la Panel de control de
búsqueda personalizada Consejo experto para buscar en el portal de soporte de
IBM los términos que están contenidos en las columnas seleccionadas. También
puede configurar los valores de laPanel de control de búsqueda personalizada para
que se adapten a sus necesidades.
La Panel de control de búsqueda personalizada Consejo experto que se utiliza para
proporcionar consejo experto se encuentra en el directorio <HOME>/AppFramework/
Apps/, donde <HOME> es el directorio en el que IBM Operations Analytics - Log
Analysis está instalado. La Panel de control de búsqueda personalizada Consejo
experto se denomina IBMSupportPortal-ExpertAdvice.app.
Cómo mostrar más resultados
De forma predeterminada, se visualizarán los 10 resultados más relevantes. Para
cambiar este valor, abra el archivo de la Panel de control de búsqueda
personalizada Consejo experto y edite el número de elementos visualizados. Este
valor se determina con el parámetro value. Para editar este parámetro, abra el
archivo de la Panel de control de búsqueda personalizada Consejo experto y edite
el parámetro value:
{
"name": "__MAX_RESULTS",
"value" : "10",
"type" : "String"
},
Nota: El aumento de este valor puede afectar al rendimiento de la Panel de control
de búsqueda personalizada Consejo experto, ya que deben recopilarse datos
adicionales antes de que puedan visualizarse.
Aumento del número de términos de búsqueda
Puede configurar el número de términos únicos que se pueden aceptar para una
búsqueda. De forma predeterminada, el número de términos exclusivos se
establece en 7. Para editar este parámetro, abra el archivo de la Panel de control de
búsqueda personalizada Consejo experto y edite el parámetro value:
{
"name": "__TERM_LIMIT",
"value" : "7",
"type" : "String"
},
Configuración
93
Mejora de las series de búsqueda
Para asegurarse de que haya resultados de la búsqueda, la Panel de control de
búsqueda personalizada Consejo experto elimina contenido del término de
búsqueda que no es probable que dé resultados. Por ejemplo, un mensaje de
registro que contenga la serie de búsqueda unable jarfile /myMachine/foo/bar/
foobar.jar no es probable que devuelva una coincidencia específica porque la vía
de acceso de servidor es probable que sea específica de un usuario. Para garantizar
mejores resultados en la búsqueda, la Panel de control de búsqueda personalizada
Consejo experto lo abrevia como unable to access jarfile.
La Panel de control de búsqueda personalizada Consejo experto utiliza un conjunto
de criterios para modificar la serie de búsqueda. Los valores siguientes se eliminan:
v URL
v Nombre de archivo
v Vía de acceso de archivos
v Dirección IP
v Número
v Puntuación
Estos valores se especifican como patrones de expresión regular con el formato
JavaScript Object Notation (JSON) en el archivo GeneralizerPatterns_1.0.json.
Este archivo es el diccionario de definiciones de patrones. Para añadir más
patrones o editar los patrones existentes, edite este archivo.
El conjunto de patrones que se aplican a los datos de entrada se especifican en el
archivo de la Panel de control de búsqueda personalizada Consejo experto. Para
aplicar las nuevas definiciones de patrón que ha creado en el archivo
GeneralizerPatterns_1.0.json o eliminar algunos de los patrones que se aplican,
edite:
{
"name": "__DEFAULT_GENERALIZATION",
"value" : ["URL", "FILENAME","FILEPATH", "IP", "NUMBER", "PUNCTUATION" ],
"type" : "StringArray"
},
El orden en el que los patrones se especifica en el parámetro
__DEFAULT_GENERALIZATION es el orden en el que se aplican a los datos. Asegúrese
de que el orden sea correcto. Por ejemplo, la IP debe coincidir antes del valor
NUMBER. De lo contrario, el patrón de dirección IP no coincide.
Depuración
La Panel de control de búsqueda personalizada Consejo experto genera una serie
de mensajes de depuración que proporcionan información sobre el flujo de
ejecución y el estado de la Panel de control de búsqueda personalizada Consejo
experto. Por omisión, estos mensajes no se muestran. Para habilitar la visualización
de estos mensajes, establezca el parámetro siguiente en true:
{
"name": "__DEBUG",
"value" : "false",
"type" : "String"
},
94
IBM Operations Analytics - Log Analysis: Guía de instalación, configuración y administración
La Panel de control de búsqueda personalizada Consejo experto soporta dos
niveles de depuración. El nivel 1 muestra solo los mensajes más importantes, y el
nivel 2, todos los mensajes. Para establecer este nivel, edite el parámetro value en
esta sección del archivo:
{
"name": "__LOGLEVEL",
"value" : "2",
"type" : "String"
}
Configuración de una aplicación Consejo experto
personalizada
Para implementar una versión personalizada de la aplicación Consejo experto que
utiliza una fuente de conocimientos distinta del portal de soporte de IBM, debe
crear un nuevo buscador.
Procedimiento
1. Cree un código de envoltorio de búsqueda para la fuente de información
personalizada. El código de envoltorio debe contener implementaciones de las
interfaces Searcher, SearchPage y Hit. Para obtener más detalles sobre cada
interfaz, consulte “Interfaz Searcher” en la página 96, “Interfaz de la página de
búsqueda” en la página 96 y “Interfaz Hit” en la página 97.
2. Guarde el código de envoltorio de búsqueda como un archivo de archivado
Java.
3. Especifique la vía de acceso a este archivo de archivado Java en el parámetro
__SEARCH_CONNECTOR_JAR en el archivo de la aplicación Consejo experto. Por
ejemplo:
{
"name": "__SEARCH_CONNECTOR_JAR",
"value" : "ExampleConnector.jar",
"type" : "String"
},
4. El código de envoltorio de búsqueda debe implementar una interfaz de
buscador. Especifique la clase que implementa la interfaz en el parámetro
__SEARCH_CONNECTOR_CLASS en el archivo de la aplicación Consejo experto. Por
ejemplo:
{
"name": "__SEARCH_CONNECTOR_CLASS",
"value" : "com.foo.bar.connector.example.ExampleSearcher",
"type" : "String"
},
Para obtener más información sobre los requisitos del buscador, consulte
“Interfaz Searcher” en la página 96.
5. Si desea pasar argumentos al código de envoltorio de búsqueda, especifique los
argumentos en el parámetro __SEARCH_CONNECTOR_ARGS en el archivo de la
aplicación Consejo experto. Por ejemplo:
{
"name": "__SEARCH_CONNECTOR_ARGS",
"value" : ["foo", "bar"],
"type" : "String"
},
6. Si el envoltorio de búsqueda requiere más archivos de archivador Java, debe
añadir las vías de acceso para estos archivos a la vía de acceso de clases Java
en el archivo ExpertAdvice.sh.
Configuración
95
Interfaz Searcher
La interfaz Searcher es la interfaz principal que el envoltorio de búsqueda debe
implementar.
La función básica del envoltorio tal como la implementa la interfaz Searcher se
puede resumir así:
1. Acepta una consulta.
2. Ejecuta la consulta en una fuente de información especificada.
3. Devuelve los resultados de la consulta.
La interfaz se define así:
package com.ibm.tivoli.unity.loganalytics.knowledgeSource;
public interface Searcher {
public void init(String[] args) throws Exception;
public SearchPage issue(String query) throws Exception;
public SearchPage issue(QueryLevel<String> query) throws Exception;
}
Métodos
La interfaz contiene los métodos siguientes:
init(String[] args)
Consejo experto carga dinámicamente el archivo de archivado Java que se
especifica en el archivo de aplicación. A continuación, crea una instancia de
la clase que implementa la interfaz Searcher que también se especifica en
el archivo de la aplicación. Debe asegurarse de que haya un constructor
para esta clase. Cuando la aplicación Consejo experto crea una instancia de
la clase, llama el método init() de esa instancia junto con los argumentos
indicados en el archivo de aplicaciones. Puede utilizar el método init()
para especificar cualquier inicialización que requiera argumentos externos.
issue(String query)
Utilice este método para ejecutar una consulta simple en la fuente de
conocimientos. Un error de facturación es un ejemplo de consulta de
entrada simple. El objeto resultante debe ser una clase que implemente la
interfaz SearchPage. Para obtener más información sobre la interfaz Hit,
consulte “Interfaz de la página de búsqueda”.
issue(QueryLevel<String> query)
Utilice este método para ejecutar una consulta estructurada en la fuente de
información. El objeto de consulta estructurado QueryLevel encapsula los
niveles o el orden de consulta. El objeto resultante debe ser una clase que
implemente la interfaz SearchPage.
Interfaz de la página de búsqueda
La interfaz SearchPage representa el conjunto de resultados ordenados que son
devueltos por la consulta de la fuente de conocimientos.
Esta interfaz se define como:
package com.ibm.tivoli.unity.loganalytics.knowledgeSource;
public interface SearchPage {
public String getUserQuery();
public String getProcessingTime();
public long getTotalResults();
96
IBM Operations Analytics - Log Analysis: Guía de instalación, configuración y administración
public long getStartIndex();
public long getNumResults();
public List<Hit> getHits();
}
Métodos
Esta interfaz contiene los métodos siguientes:
getProcessingTime()
El tiempo de proceso según lo indicado por el sistema de búsqueda. Este
método no se analiza en ningún formato numérico y solo tiene fines de
visualización.
getTotalResults()
Número total de resultados disponibles según lo indicado por el sistema
de búsqueda. Solo tiene fines de visualización.
getStartIndex()
El valor de índice de inicio para el primer resultado en la página de
búsqueda. Por ejemplo, si la consulta devuelve 100 resultados y el
envoltorio lee 10 páginas en un momento, el método devuelve un valor de
0 y la página contiene resultados de 0 a 9. En la página de búsqueda
siguiente, el método devuelve un valor de 10 y la página contiene
resultados de 10 a 19.
getNumResults()
El número de resultados que están disponibles para la página de
búsqueda.
getHits()
La lista ordenada de resultados para la página de búsqueda. Cada entrada
de resultado debe ser una clase que implemente la interfaz Hit. Para
obtener más información sobre la interfaz Hit, consulte “Interfaz Hit”.
Interfaz Hit
La interfaz Hit representa un solo objeto de resultados.
Esta interfaz se define como:
package com.foo.bar.example.loganalytics.knowledgeSource;
public interface Hit {
public int getOrdinalNum();
public String getTitle();
public String getUrl();
public String getSummary();
}
Métodos
Esta interfaz contiene los métodos siguientes:
getOrdinalNumber()
El número ordinal de este resultado que se usa en la página principal.
getTitle()
El título de la página de resultados. El título se utiliza como el texto de
anclaje cuando los resultados se muestran en la página de resultados de
búsqueda de Consejo experto.
Configuración
97
getUrl()
El URL de la página de resultados. El URL se utiliza para generar los
enlaces que se muestran en la página de resultados de búsqueda de
Consejo experto.
Clases adicionales
Cuando interactúa con el código de experto, el envoltorio puede hacer referencia a
dos clases: QueryLevel y ItemSet.
QueryLevel
La aplicación genera una serie de consultas que se basan en un conjunto de
columnas que el usuario especifica. La precisión de las consultas varía y las
consultas se ordenan para reflejar la precisión de los resultados. El orden es tal que
una consulta en un nivel superior produce resultados más precisos que una
consulta de nivel inferior. La clase QueryLevel captura el orden de las consultas.
Algunas consultas pueden producir resultados con el mismo nivel de precisión sin
producir el mismo resultado. La clase QueryLevel puede contener más de una
consulta por esta razón.
Esta clase se define como:
package foo.bar.example.loganalytics.artifacts;
public class QueryLevel<T> extends ArrayList<ItemSet<T>>
Cada objeto ItemSet que está contenida en un objeto de QueryLevel representa un
grupo de términos que deben producirse en la misma página. Debe utilizar una
consulta AND para estos términos.
Si hay más de un objeto ItemSet en un objeto QueryLevel, debe utilizar una
consulta OR para separar las consultas Y individuales. Por ejemplo:
(ItemSet_1_Term_1 AND ItemSet_1_Term_2) OR (ItemSet_2_Term_1 AND ItemSet_2_Term_2)
La sintaxis que especifica la lógica AND y OR es específica de la fuente de
información y es manejado por el código de envoltorio.
ItemSet
La clase ItemSet representa un solo grupo de términos que deben aparecer en la
misma página de resultados. Debe utilizar una consulta AND para esta clase.
Esta clase se define como:
package foo.bar.example.loganalytics.partialorder;
public class ItemSet<T> extends HashSet<T>
Configuración del inicio en contexto
También puede lanzar IBM Operations Analytics - Log Analysis en contexto desde
dentro de un producto de IBM aprobado con la IU de búsqueda o la Panel de
control de búsqueda personalizada.
Inicio en contexto de la IU de búsqueda
Puede utilizar la IU de búsqueda para iniciar IBM Operations Analytics - Log
Analysis en contexto desde otros productos.
98
IBM Operations Analytics - Log Analysis: Guía de instalación, configuración y administración
Para iniciar IBM Operations Analytics - Log Analysis en contexto utilizando la UI
de búsqueda, debe especificar un URL con el siguiente formato:
https://<hostname>:<port>/Unity/SearchUI?queryString=<q>&timefilter=<t>
&dataSources=<ds>
donde:
hostname
Nombre de host que corresponde al origen de datos.
port
El puerto que se utiliza para la comunicación con la aplicación web de IBM
Operations Analytics - Log Analysis.
q
Valor de la serie de búsqueda con una sintaxis de consultas de velocidad
válida.
t
Un filtro de archivo de formato JSON para especificar el tiempo absoluto o
relativo.
Por ejemplo, entre los filtros de tiempo absoluto se incluyen "startTime":
"24/206/2013 05:30:00" y "endTime": "25/06/2013 05:30:00". Los filtros
de tiempo relativo incluyen "granularity": "Day" y "lastnum": "7".
ds
Un formato de archivo JSON para especificar orígenes de datos
individuales o de grupo que se van a consultar.
En este ejemplo, el usuario utiliza la IU de búsqueda para iniciar IBM Operations
Analytics - Log Analysis.
https://0.000.00.00:1111/Unity/SearchUI?queryString=severity:==
"Critical"&timefilter={“type”:“relative”,“lastnum”:“7”,“granularity”: “Day”}
&dataSources=[{ "type": "datasource", "name": <omnibusEvents>}]
Inicio contextual de Panel de control de búsqueda
personalizada
Puede lanzar Paneles de control de búsqueda personalizada de IBM Operations
Analytics - Log Analysis en contexto desde otros productos.
Para iniciar IBM Operations Analytics - Log Analysis en contexto, utilice el URL
siguiente:
https://<ip_address>:<port>:/Unity/CustomAppsUI?name=<name>&appParameters=<params>
donde:
url
El formato del URL que indique debe ser este:
https://<ip_address>:<port>:/Unity/CustomAppsUI?name=<name>&appParameters=<params>
ip_address
La dirección IP del servidor en el que se ha instalado IBM Operations
Analytics - Log Analysis.
port
El puerto que se utiliza para la comunicación con la aplicación web de IBM
Operations Analytics - Log Analysis.
name
Indique el nombre del archivo de la aplicación. Este es el nombre del
archivo .app que se muestra en el panel de Paneles de control de búsqueda
personalizada en el espacio de trabajo de búsqueda.
params
(Opcional) Especifique un JSON de parámetro de Panel de control de
búsqueda personalizada.
Configuración
99
en este ejemplo, el usuario lanza la Panel de control de búsqueda personalizada
Day Trader App en contexto sin un parámetro de aplicación personalizada.
https://0.000.00.00:1111/Unity/CustomAppsUI?name=Day%20Trader&20App
Configuración del kit de herramientas DSV
El kit de herramientas de DSV se utiliza para crear Paquetes Insight que permitan
cargar datos de DSV (valores separados por delimitadores) en IBM Operations
Analytics - Log Analysis. El kit de herramientas DSV contiene scripts python que
toma datos de un archivo de propiedades que describe un tipo de registro DSV y
produce como salida un Paquete Insight instalable.
IBM Operations Analytics - Log Analysis proporciona una solución
semiestructurada de análisis de datos. Utilice IBM Operations Analytics - Log
Analysis para identificar los problemas y proponer soluciones de búsqueda e
indexación de grandes volúmenes de datos no estructurados de una variedad de
orígenes. IBM Operations Analytics - Log Analysis le permite reducir el diagnóstico
de problemas y el tiempo de resolución, y gestionar con más eficacia la
infraestructura y las aplicaciones.
Para poder llevar a cabo una búsqueda en un registro o en otros datos, primero
debe cargar los datos en IBM Operations Analytics - Log Analysis. Un Paquete
Insight es un conjunto de artefactos que se empaquetan juntos para permitir que
IBM Operations Analytics - Log Analysis ingiera los datos que se cargan. Un
Paquete Insight contiene un conjunto completo de artefactos necesarios para
procesar un origen de datos. Puede instalar, desinstalar o actualizar un Paquete
Insight como un paquete independiente.
Cada Paquete Insight define:
v El tipo de datos de registro que se va a consumir.
v Cómo se anotan los datos. Los datos se anotan para resaltar la información
relevante.
v Cómo se indexan los datos anotados. El proceso de indexación permite
manipular los resultados de la búsqueda para poder determinar y diagnosticar
mejor los problemas.
v
Opcionalmente, cómo presentar datos en un gráfico o una visualización de
aplicaciones.
Novedades
El kit de herramientas DSV se ha actualizado para mejorar el rendimiento de la
ingesta y actualizar los archivos de propiedades.
v Este DSVToolkit proporciona rendimiento de ingesta mejorado, con la capacidad
de ingerir registros DSV grandes. El ajuste al tamaño de pila Java para registros
de anotaciones largos ya no es necesario.
v Los usuarios pueden continuar utilizando los Paquetes Insight generados por
versiones anteriores del DSVToolkit. El rendimiento mejorado del DSVToolkit
actualizado no se aplica a estos Paquetes Insight.
v La propiedad aqlModuleName se ha renombrado como moduleName. Los archivos
de propiedades generados que contienen la propiedad aqlModuleName continúan
funcionando correctamente, pero se visualiza un mensaje de aviso, que indica
que la propiedad aqlModuleName está en desuso.
100
IBM Operations Analytics - Log Analysis: Guía de instalación, configuración y administración
v Utilice la propiedad quoteChar que se acaba de añadir para especificar las
comillas que desea utilizar para delimitar los campos que contienen
delimitadores y saltos de línea.
Nota: Si no se especifica la propiedad quoteChar, de forma predeterminada
durante el proceso se añaden comillas dobles (").
Los archivos de propiedades añadidos antes de que se añadiera la propiedad
quoteChar funcionan como anteriormente ya que las comillas dobles estaban
implícitas en las versiones anteriores de DSVToolkit.
v La propiedad totalColumns ya no es necesaria.
Creación de un Paquete Insight con el kit de herramientas
DSV
Este tema describe cómo instalar el kit de herramientas DSV y utilizarlo para crear
un Paquete Insight. Si utiliza IBM Operations Analytics - Log Analysis 1.2 o
posterior, el paquete de herramientas DSV se instala de forma predeterminada, y
por lo tanto no es necesario instalarlo por separado.
Antes de empezar
Copie el DSVToolkit_v1.1.0.4.zip de <HOME>/
SmartCloudAnalyticsLogAnalysisContent/tooling en el directorio
<HOME>/unity_content y extraiga los archivos. Los archivos se extraen en el
directorio <HOME>/unity_content/DSVToolkit_v1.1.0.4. Asegúrese de que usted y
los usuarios adicionales que requieran el kit de herramientas DSV tengas permiso
de escritura en el directorio DSVToolkit_v1.1.0.4.
Procedimiento
1. Ejecute el script primeProps.py para crear un archivo de propiedades nuevo o
para actualizar un archivo de propiedades existente.
2. Edite el archivo de propiedades para satisfacer las necesidades de su formato
de archivo de registro DSV. Para obtener más información sobre los requisitos
de cada sección del archivo de propiedades, consulte la sección Especificación de
propiedades para un tipo de archivo de registro de este documento.
3. Ejecute el script devGen.py para generar, y cuando sea necesario desplegar, su
Paquete Insight.
Especificación de propiedades para un tipo de archivo de
registro
En este tema se abordan las propiedades que describen el contenido de su archivo
DSV. Cada tipo de archivo DSV que desea ingerir requiere un archivo de
propiedades.
El archivo de propiedades debe ajustarse a un formato específico. Por ejemplo, las
cabeceras de sección debe estar entre corchetes y cada sección está formada por los
elementos que deben estar en el formato de clave: valor o clave=valor.
Nota: Cuando se especifican elementos en el formatoclave: valor, es necesario un
espacio después de los dos puntos (:).
Para obtener más información, consulte http://docs.python.org/2/library/
configparser.html
Configuración
101
SCALA_server
Especifique los detalles para el servidor de IBM Operations Analytics - Log
Analysis en la sección SCALA_server.
Debe definirse el parámetro siguiente:
scalaHome
Especifique la vía de acceso al directorio home del servidor de IBM
Operations Analytics - Log Analysis.
DSV_file
En la sección DSV file se especifican parámetros aplicables a todo el archivo de
registro y todo el Paquete Insight.
Parámetros del archivo DSV
delimiter
Especifique el separador de columna que se utiliza en el registro DSV.
version
Especifique el número de versión del Paquete Insight. La versión debe ser
un número de cuatro dígitos con un punto que separe cada número. Por
ejemplo, 1.2.3.4.
moduleName
Especifique el nombre del Paquete Insight y los artefactos IOL-LA
subyacentes. El nombre de módulo debe:
v Empezar con una letra o un carácter de subrayado (_). Las letras
pueden estar en mayúsculas o minúsculas.
v Los caracteres siguientes pueden ser letras mayúsculas o minúsculas,
caracteres de subrayados, dígitos (0-9).
quoteChar
Especifique el carácter de comillas que se utiliza para delimitar los campos
que contienen delimitadores y saltos de línea.
Actualizaciones de los parámetros de archivo DSV
v La propiedad aqlModuleName se ha renombrado como moduleName. Los archivos
de propiedades generados que contienen la propiedad aqlModuleName continúan
funcionando correctamente, pero se visualiza un mensaje de aviso, que indica
que la propiedad aqlModuleName está en desuso.
v Utilice la propiedad quoteChar que se acaba de añadir para especificar las
comillas que desea utilizar para delimitar los campos que contienen
delimitadores y saltos de línea.
v La propiedad totalColumns ya no es necesaria.
field*_indexConfig
Defina valores para la configuración de índices en el apartado field*_indexConfig.
Puede crear una sección en el archivo de propiedades para cada columna de su
tipo de archivo de registro DSV. Para cada columna que desea añadir al archivo de
propiedades, sustituya el * en el campo *_indexConfig con el número de columna
en el archivo de anotaciones DSV. Por ejemplo, field3_indexConfig corresponde a
la columna 3 del archivo de registro DSV. Añada campos según sea necesario. Para
obtener más información, consulte el tema Configuración de índices de la sección
Administración de IBM Operations Analytics - Log Analysis del Information Center.
102
IBM Operations Analytics - Log Analysis: Guía de instalación, configuración y administración
name
Especifica el nombre del campo en la configuración de índice. El nombre
de campo se visualiza en el espacio de trabajo Búsqueda.
dataType
Especifique el tipo de datos contenidos en la columna de registro. Los
valores válidos son TEXT, DATE, LONG o DOUBLE.
dateFormat
Este campo es obligatorio si ha especificado DATE como valor de dataType.
Especifique el formato de la indicación de fecha y hora utilizado por el
archivo de registro DSV. Este formato debe cumplir con la especificación de
la clase Java 7 SimpleDateFormat.
retrievable
(Opcional) Especifique el valor para el campo retrievable en la
configuración de índice. El valor predeterminado es TRUE.
retrieveByDefault
(Opcional) Especifique el valor para el campo retrieveByDefault en la
configuración de índice. El valor predeterminado es TRUE.
sortable
(Opcional) Especifique el valor para el campo sortable en la configuración
de índice. El valor predeterminado es FALSE. Para el campo de indicación
de fecha y hora, este valor debe establecerse en TRUE.
filterable
(Opcional) Especifique el valor para el campo filterable en la
configuración de índice. El valor predeterminado es FALSE. Para el campo
de indicación de fecha y hora, este valor debe establecerse en TRUE.
searchable
(Opcional) Especifique el valor para el campo searchable en la
configuración de índice. El valor predeterminado es TRUE.
path_* (Opcional) Especifica las vías de acceso adicionales que se han añadido a la
lista de vías de acceso en la configuración de índice. Sustituya el asterisco
(*) con un entero. Empiece con 1 y aumente 1 para cada vía de acceso
adicional. Se crea una vía de acceso automáticamente y se coloca al final de
la lista.
Una vía de acceso es una vía de acceso JSON que apunta a los datos que
se muestran en el espacio de trabajo Búsqueda. La vía de acceso debe tener
este formato:
path_1: annotations.aqlModuleName_viewName.fieldName
donde las vías de acceso generados dinámicamente se crean utilizando las
siguientes sustituciones:
aqlModuleName
El valor de aqlModuleName del archivo de propiedades.
viewName
El elemento de nombre de una sección indexConfig con la palabra
Final adjuntada.
fieldName
El nombre en la sección indexConfig. Para obtener un ejemplo de
fieldName, consulte el tema Exclusión y combinación de columnas.
combine
Este campo es obligatorio si se especifica una vía de acceso. Especifique el
Configuración
103
método utilizado para fusionar el contenido de varias vías de acceso. Los
valores válidos son FIRST y ALL. El valor predeterminado es FIRST. Cuando
el valor combine se establece en EL PRIMER, las vías de acceso que ha
definido se comprueban antes que la vía de acceso generada
dinámicamente.
Definición de una sección de indicación de fecha y hora:
El archivo de propiedades debe contener una sección que se corresponda con la
indicación de fecha y hora del registro de anotaciones. El elemento de nombre
debe ser timestamp, dataType debe ser DATE, debe especificarse un dateFormat, y
sortable, filterable, y searchable deben estar establecidos en verdadero.
Para obtener un ejemplo de un apartado de timestamp correctamente completado,
consulte el tema Archivo de propiedades de ejemplo. Para obtener más información
sobre formatos de fecha soportados, consulte la sección Formatos soportados.
field0_indexConfig
Defina la configuración del índice para todo el registro de anotaciones.
Los valores name, dataType, path y combine aparecen en el tema Archivo de
propiedades de ejemplo. Estos valores deben aparecer sin modificar en cada archivo
de propiedades. El número de campo en el nombre de sección debe ser 0.
Archivo de propiedades de ejemplo con campos de
configuración de índice editados
Este es un archivo de propiedades de ejemplo. Todos los valores necesarios se han
especificado.
[SCALA_server]
scalaHome: $HOME/IBM/LogAnalysis
[DSV_file]
delimiter: ,
aqlModuleName: csv3Column
version: 1.0.0.0
totalColumns: 3
[field0_indexConfig]
name: logRecord
dataType: TEXT
retrievable: true
retrieveByDefault: true
sortable: false
filterable: false
searchable: true
path_1: content.text
combine: FIRST
[field1_indexConfig]
name: timestamp
retrievable: true
retrieveByDefault: true
sortable: true
filterable: true
searchable: true
dataType: DATE
dateFormat: yyyy-MM-dd’T’HH:mm:ss.SSSX
[field2_indexConfig]
name: severity
retrievable: true
retrieveByDefault: true
104
IBM Operations Analytics - Log Analysis: Guía de instalación, configuración y administración
sortable: false
filterable: true
searchable: true
dataType: TEXT
[field3_indexConfig]
name: message
retrievable: true
retrieveByDefault: true
sortable: false
filterable: false
searchable: true
dataType: TEXT
Este archivo de propiedades crea una configuración de índice que procesa registros
de anotaciones similares a los de este ejemplo:
2013-04-25T12:30:49.456-02:00, Warning,
Heap utilization patterns indicate that you may have a memory leak
Exclusión y combinación de columnas
Este tema describe cómo configurar el archivo de propiedades para excluir y
combinar las columnas del archivo de anotaciones DSV cuando se visualiza en IBM
Operations Analytics - Log Analysis.
Exclusión de columnas
Si no desea visualizar una columna que se incluya en un archivo de registro DSV,
no especifique esa columna cuando al añadir los apartados indexConfig al archivo
de propiedades. Por ejemplo, si no desea visualizar las columnas 2, 3, y 4 de un
archivo de registro de la columna 5, especifique solo los apartados de propiedades
field1_indexConfig y field5_indexConfig.
Combinación de columnas
Puede combinar varias columnas del archivo de registro DSV en una columna en
el espacio de trabajo de búsqueda especificando varias vías de acceso en un
apartado indexConfig. El apartado con varias vías de acceso debe ser el que tenga
el mayor número de columnas para asegurarse de que se aplique la anotación
correcta al archivo de registro DSV. Los campos que forman parte de la columna
combinada, pero que aparte de eso no tienen importancia, pueden tener todos los
campos de configuración de índice true/false establecidos en false para
asegurarse de que no se indexen datos innecesarios.
El archivo de propiedades de ejemplo combina la segunda y cuarta columnas del
archivo de registro DSV en una columna cuando se visualiza en el espacio de
trabajo de búsqueda de IBM Operations Analytics - Log Analysis.
[field2_indexConfig]
name: shortMessage
dataType: TEXT
retrievable: false
retrieveByDefault: false
sortable: false
filterable: false
searchable: false
[field4_indexConfig]
name: longMessage
dataType: TEXT
retrievable: true
Configuración
105
retrieveByDefault: true
sortable: false
filterable: false
searchable: true
path_1: shortMessage
combine: ALL
Generar un archivo de propiedades
Utilice el mandato primeProps.py para generar un archivo de propiedades de la
plantilla. Se añaden valores predeterminados donde corresponda. Actualice el
archivo de propiedades de plantilla antes de ejecutar el script dsvGen.
Sintaxis
python primeProps.py pathToProps numNewSections [options]
Parámetros
Se definen estos parámetros para este script:
pathToProps
La vía de acceso al archivo de propiedades que desea crear.
numNewSections
Especifique el número de apartados de indexConfig que desee añadir al
archivo de propiedades. Cada sección indexConfig corresponde a una
columna en el archivo de DSV.
Opciones
Se definen estas opciones adicionales para este script:
-o
Sobrescribe el archivo de propiedades existentes. El valor predeterminado
de esta propiedad es false.
-h
Muestra la pantalla de ayuda para este script.
-f
Agregue esta opción y especifique la vía de acceso a un archivo DSV que
contiene una cabecera. La cabecera se analiza y el elemento de nombre
para cada sección generada utiliza el nombre de cabecera en lugar de un
nombre por omisión.
Después de ejecutar este mandato, abra y revise el archivo de propiedades para
asegurarse de que el nombre de cada sección cumpla con los requisitos de AQL y
las especificaciones de DSV. Por ejemplo, la indicación de la hora debe estar en
minúsculas y el nombre no puede contener espacios.
Ejemplo de salida de primeProps.py
Este ejemplo muestra la salida generada por el script primeProps.py. Muestra una
plantilla con los valores predeterminados para las secciones DSV_file,
SCALA_server y field0_indexConfig. El mandato python
dsvProperties.properties primeProps.py 1 provoca este resultado:
[SCALA_server]
scalaHome: $HOME/IBM/LogAnalysis
[DSV_file]
delimiter: ,
aqlModuleName: dsv1Column
version: 1.0.0.0
106
IBM Operations Analytics - Log Analysis: Guía de instalación, configuración y administración
[field0_indexConfig]
name: logRecord
dataType: TEXT
retrievable: true
retrieveByDefault: true
sortable: false
filterable: false
searchable: true
path_1: content.text
combine: FIRST
[field1_indexConfig]
name: field1
dataType: TEXT
retrievable: true
retrieveByDefault: true
sortable: false
filterable: false
searchable: true
Pasos siguientes
Para asegurarse de que el archivo de propiedades contenga detalles suficientes
para generar un paquete Insight, siga estos pasos:
v Verifique el valor predeterminado de usuario y contraseña.
v Verifique el delimitador predeterminado.
v Verifique que la sección indexConfig del archivo de propiedades contenga un
campo denominado indicación de fecha y hora. Debe editar el nombre de campo
relevante.
v Edite una sección de modo que el nombre sea timestamp, que dataType se
establezca en DATE, que el valor dateFormat sea adecuado y que los valores
clasificables y filtrables se establezcan en TRUE.
v Compruebe la ubicación predeterminada de scalaHome.
Genere un Paquete Insight
Utilice el script dsvGen.py para generar y, cuando sea necesario, desplegar, un
Paquete Insight. También puede utilizar el mandato pkg_mgmt.sh para instalar el
Paquete Insight. Después de que se haya generado el Paquete Insight, puede
utilizar el Conjunto de herramientas del paquete Insight de Log Analysis para
realizar los cambios adicionales que necesite.
Sintaxis
La sintaxis necesaria para ejecutar el script dsvGen.py es:
python dsvGen.py pathToProps [options]
Parámetros
Se definen estos parámetros para este script:
pathToProps
La vía de acceso al archivo de propiedades que desea utilizar para generar
el Paquete Insight.
Opciones
Se definen estas opciones adicionales para este script:
Configuración
107
-o
Sobrescribe el archivo de archivado existente de Paquete Insight. El valor
predeterminado de esta propiedad es false.
-h
Muestra la pantalla de ayuda para este script.
-d
Despliegue el Paquete Insight utilizando el mandato pkg_mgmt.sh. Se
utilizan las opciones install y deploylfa. El valor predeterminado de esta
propiedad es false.
Si especifica las opciones -d y -o, cualquier Paquete Insight del mismo
nombre se elimina, utilizando la opción de desinstalación de pkg_mgmt.sh,
antes de instalar el nuevo Paquete Insight.
-f
Aplica la opción -f al mandato pkg_mgmt.sh. Esto elimina todas las
solicitudes de usuario. Debe utilizarse la opción -d cuando se utiliza -f.
-l
Crea un origen de registro para el paquete Insight generado. El nombre de
host del origen de registro corresponda al nombre de host abreviado del
servidor actual, y la vía de acceso de registro del origen del registro apunta
a un archivo predeterminado del directorio <HOME>/logsources/. Deben
utilizarse las opciones -d, -u y -p al usar la opción -l, incluso si existen las
credenciales predeterminadas de unityadmin.
-u
Especifique un nombre de usuario para pasar a pkg_mgmt.sh. Se utilizarán
las credenciales predeterminadas de unityadmin si no se proporciona nada.
-p
Especifique una contraseña para pasar a pkg_mgmt.sh. Se utilizarán las
credenciales predeterminadas de unityadmin si no se proporciona nada.
Ejemplo
La ejecución de este mandato da como resultado la salida descrita:
python dsvGen.py dsv5.properties -o -d
En este ejemplo:
v El elemento aqlModuleName se establece en dsv5Column.
v
En el directorio DSVToolkit_v1.1.0.4/build, se elimina el directorio
dsv5ColumnInsightPack_v1.0.0.0.
v En el directorio DSVToolkit_v1.1.0.4/dist, se elimina el directorio
dsv5ColumnInsightPack_v1.0.0.0.zip.
v
Se crea el archivo Paquete Insight en el directorio DSVToolkit_v1.1.0.4/dist y
se llama dsv5ColumnInsightPack_v1.0.0.0.zip.
v El archivo Paquete Insight se copia en el directorio <HOME>/unity_content/DSV.
v El mandato pkg_mgmt.sh elimina el Paquete Insight antiguo, si existe, y lo vuelve
a instalar utilizando el nuevo archivador.
Resolución de problemas
Existen varios problemas comunes al utilizar el Kit de herramientas DSV. Esta es
una descripción de los síntomas encontrados y las soluciones sugeridas para
resolver los problemas.
El número de registros ingerido satisfactoriamente es 0
Problema:
El número de registros ingerido satisfactoriamente es 0 y no hay errores.
Solución:
El número de columnas en el archivo DSV no coincide con el número
108
IBM Operations Analytics - Log Analysis: Guía de instalación, configuración y administración
especificado en el archivo de propiedades. Verifique que el archivo de
propiedades sea correcto y que ninguno de los registros en el archivo DSV
tenga un número de campos anormal.
El script dsvGen.py muestra un error
Problema:
El script dsvGen.py muestra un error como “El campo de indicación de
fecha y hora debe ser clasificable y filtrable” o “Se ha especificado un
campo del tipo DATE pero no se ha proporcionado elemento dateFormat”.
Solución:
El campo de indicación de fecha y hora que defina tiene un conjunto de
requisitos específico. Consulte “Definición de una sección de indicación de
fecha y hora” en la página 104 para ver los requisitos detallados.
Formatos soportados
En este apartado se destacan los formatos admitidos para los archivos de registro
DSV.
Formatos de indicación de fecha y hora
El formato de indicación de fecha y hora del archivo de anotaciones DSV se basa
en los formatos de fecha soportados por la clase Java 7 SimpleDateFormat. Todo
formato de fecha no soportado por la clase SimpleDateFormat no se podrá procesar
desde un archivo de registro DSV.
Si hay una indicación de fecha y hora en el registro, SimpleDateFormat asigna una
fecha predeterminada 01/01/1970 a la indicación de fecha y hora. Las comillas
dobles que encierran una indicación de fecha y hora se eliminen. Otros caracteres
deben incluirse como literales en el elemento dateFormat. Por ejemplo, una
indicación de fecha y hora encerrada por corchetes debe especificarse en el
formato:
dateFormat ’[’yyyy-MM-dd HH:mm:ss’]’
Para obtener más información sobre formatos de fecha válida para
SimpleDateFormat, consulte http://docs.oracle.com/javase/7/docs/api/java/text/
SimpleDateFormat.html.
Formatos de delimitador
Se admiten los delimitadores siguientes:
v coma (,)
v dos puntos (:)
v punto y coma (;)
v barra vertical (|)
v guión (-)
v barra inclinada (/)
v barra invertida (\)
v tabulación (\t)
v tilde (~)
Comillas
Se admiten las comillas siguientes:
v Comillas dobles (")
v Comilla simple (')
Configuración
109
Nota: Si no se especifica la propiedad quoteChar, de forma predeterminada
durante el proceso se añaden comillas dobles (").
Los archivos de propiedades añadidos antes de que se añadiera la propiedad
quoteChar funcionan como anteriormente ya que las comillas dobles estaban
implícitas en las versiones anteriores de DSVToolkit.
Formatos DSV
Los Paquetes Insight generados por el kit de herramientas DSV admiten los tipos
de archivo de registro DSV que cumplen con estos requisitos. En cada caso se
utiliza una coma como delimitador:
v Cada registro de anotaciones se encuentra en una línea distinta. Se utiliza un
salto de línea para delimitar los registros de anotaciones. CRLF significa un salto
de línea. Por ejemplo:
aaa,bbb,ccc CRLF
zzz,yyy,xxx CRLF
v El último registro en el archivo puede acabar, o no, con un salto de línea. Por
ejemplo:
aaa,bbb,ccc CRLF
zzz,yyy,xxx
v Una línea de cabecera puede ser la primera línea del archivo. Esta línea de
cabecera tiene el mismo formato que todas las líneas de registro estándar y
contiene nombres que corresponden a los campos del archivo. La línea de
cabecera también contiene el mismo número de campos que los registros del
resto del archivo. Por ejemplo:
nombre_campo,nombre_campo,nombre_campo CRLF
aaa,bbb,ccc CRLF
zzz,yyy,xxx CRLF
v En la cabecera y en cada registro, podría haber uno o varios archivos separados
mediante delimitadores. Cada línea contiene el mismo número de campos. Los
espacios son considerados como parte de un campo y se omiten. El último
campo del registro no debe ir seguido de un delimitador. Por ejemplo:
aaa,bbb,ccc
v Cada campo puede estar entre comillas o no. Si los campos no están entre
comillas, es posible que no aparezcan las comillas en los campos. Los ejemplos
siguientes muestran campos delimitados por comillas simples y dobles:
"aaa","bbb","ccc" CRLF
’zzz’,’yyy’,’xxx’
v Los campos que contienen comillas, delimitadores y saltos de línea deben estar
entre comillas. Los ejemplos siguientes muestran campos delimitados por
comillas simples y dobles:
"aaa","b,bb","ccc" CRLF
’zzz’,’y,yy’,’xxx’
v Si se utilizan comillas para delimitar los campos, las comillas que aparezcan
dentro de un campo deben tener antes otras comillas correspondientes. Los
ejemplos siguientes muestran comillas simples y dobles:
"aaa","b""bb","ccc"
’zzz’,’y’’yy’,’xxx’
Configuración de alias
Puede utilizar la característica de alias de IBM Operations Analytics - Log Analysis
para especificar un alias.
110
IBM Operations Analytics - Log Analysis: Guía de instalación, configuración y administración
La característica de alias de IBM Operations Analytics - Log Analysis se instala y
habilita de manear predeterminada.
Los datos de alias se almacenan en el archivo aliasSource.json del directorio
<HOME>/IBM/LogAnalysis/wlp/usr/servers/Unity/apps/Unity.war/WEB-INF.
Configuración de un alias
Puede utilizar la característica de alias de IBM Operations Analytics - Log Analysis
para especificar un alias, que consiste en un nombre alternativo.
Acerca de esta tarea
Los alias se muestran en la interfaz de usuario de IBM Operations Analytics - Log
Analysis.
Procedimiento
1. Abra el archivo aliasSource.json situado en el directorio <HOME>/IBM/
LogAnalysis/wlp/usr/servers/Unity/apps/Unity.war/WEB-INF.
2. Para aplicar un alias a un nombre de campo (fieldname), edite los parámetros
fieldname del archivo aliasSource.json. El ejemplo siguiente muestra los
parámetros para aplicar un alias a un nombre de host:
{
"aliasKeyValueArray": [
{
"sourceType": "WASSystemOut",
"fields": [
{
"fieldName": "hostname",
"alias_field": "severity_alias",
"translations": {
"E": "Error",
"W": "Warning",
"O": "Overflow",
"I": "Info"
}
}
]
}
]
}
Donde:
v sourceType especifica el tipo de origen para el que se crea el alias.
v fieldName especifica el nombre de campo del tipo de origen.
v alias_field especifica el nombre de alias del campo.
v translations contiene los valores de campo y alias.
Qué hacer a continuación
Compruebe que los alias se han configurado correctamente en la interfaz de
usuario de IBM Operations Analytics - Log Analysis.
Los errores que se registran durante la configuración se almacenan en el archivo
UnityApplication.log del directorio <HOME>/IBM/LogAnalysis/logs.
Configuración
111
Referencia de configuración
Lea la información de referencia sobre los scripts y propiedades, que puede
configurar después de instalar Log Analysis.
ldapRegistryHelper.properties
Puede editar ldapRegistryHelper.properties para especificar los detalles del
servidor LDA.
Las propiedades siguientes son necesarias y definen la información de conexión
para el servidor LDAP de destino.
Tabla 16. Propiedades de información de conexión de servidor LDAP
Propiedad
Descripción
ldap_hostname_property=
Nombre de host de LDAP.
ldap_port_property=
Puerto de LDAP.
ldap_baseDN_property=
baseDN de LDAP. Por ejemplo, "dc=com"
para usuarios de TDS y
"CN=Users,DC=sflab,DC=local" para
usuarios de AD.
Las propiedades siguientes son opcionales y definen la información de conexión
para el servidor LDAP de destino. Si es aplicable, se asignan valores
predeterminados.
El valor bindPassword para usuarios de AD está cifrado en
ldapRegistryHelper_config.xml.
Tabla 17. Propiedades opcionales de información de conexión del servidor LDAP
Propiedad
Descripción
ldap_bindDN_property=
bindDN de LDAP. Por ejemplo,
"CN=Administrator,CN=Users,DC=sflab,
DC=local" for AD users.
ldap_bindPassword_property=
Contraseña de enlace LDAP.
ldap_realm_property=
Dominio de LDAP. El valor predeterminado
es LdapRegistryRealm.
ldap_id_property=
ID de LDAP. El valor predeterminado es
LdapRegistryId.
ldap_ignoreCase_property=
Caso de ignorar LDAP. El valor
predeterminado es true.
Fixpack 1
recursiveSearch=
Fixpack 1
Habilitar la búsqueda recursiva.
El valor predeterminado es true. Solo está
disponible en IBM Operations Analytics Log Analysis 1.3.3 Fixpack 1.
Mandato ldapRegistryHelper.sh
Puede utilizar el mandato ldapRegistryHelper.sh para habilitar una conexión
básica para la autenticación de usuarios en IBM Operations Analytics - Log
Analysis.
112
IBM Operations Analytics - Log Analysis: Guía de instalación, configuración y administración
Para obtener más información sobre cómo usar el mandato para configurar la
autenticación de LDAP con IBM Tivoli Directory Server o Microsoft Active
Directory, consulte “Configuración de la autenticación LDAP con el script
ldapRegistryhelper.sh” en la página 37.
Integraciones soportadas
Este mandato actualmente da soporte a las conexiones con el servidor de IBM
Tivoli Directory Server y Microsoft Active Directory.
Requisitos previos
Antes de utilizar este mandato debe actualizar el archivo
ldapRegistryHelper.properties en el directorio <HOME>/IBM/LogAnalysis/
utilities/ con la información de conexión y configuración para el servidor LDAP
de destino.
Sintaxis
El mandato ldapRegistryHelper.sh se encuentra en el directorio
<HOME>/IBM/LogAnalysis/utilities y tiene la sintaxis siguiente:
ldapRegistryHelper.sh
config | enable
Nota:
Para ejecutar el script, debe establecerse correctamente la variable JAVA_HOME para
debe establecerse correctamente IBM Operations Analytics - Log Analysis. Si el
script falla, ejecute el mandato siguiente para establecer la variable JAVA_HOME:
JAVA_HOME=$<HOME>/IBM-java
Parámetros
El mandato ldapRegistryHelper.sh tiene los parámetros siguientes:
config Utilice el parámetro config para crear un archivo XML que se llama
ldapRegistry.xml en el directorio <HOME>/IBM/LogAnalysis/wlp/usr/
servers/Unity. Este archivo utiliza la conexión y la información de
configuración definida en el archivo ldapRegistryHelper.properties.
enable
Utilice el parámetro habilitar para habilitar la autenticación de LDAP que
utiliza la información que se especifica en el archivo ldapRegistry.xml.
Este parámetro también inhabilita la referencia al registro de usuarios
personalizado gestionado mediante base de datos.
Mandato unity
Utilice el mandato unidad para iniciar, detener y reiniciar IBM Operations Analytics
- Log Analysis. Además, utilice este mandato para visualizar el estado de los
procesos y para visualizar información sobre la versión de IBM Operations
Analytics - Log Analysis.
Sintaxis
El mandato unity se encuentra en el directorio <HOME>/IBM/LogAnalysis/
utilities y tiene la sintaxis siguiente:
Configuración
113
unity.sh -start | -stop | -version | -restart | -status
Parámetros
Los parámetros de este mandato son:
- start Use este parámetro para iniciar IBM Operations Analytics - Log Analysis y
los servicios asociados.
-stop
Use este parámetro para detener IBM Operations Analytics - Log Analysis
y los servicios asociados.
-version
Use este parámetro para determinar la versión actualmente instalada de
IBM Operations Analytics - Log Analysis.
-restart
Use este parámetro para reiniciar IBM Operations Analytics - Log Analysis
y otros servicios asociados.
-status Utilice este parámetro para visualizar una lista de procesos de IBM
Operations Analytics - Log Analysis, incluyendo los nodos de Motor de
indexación y su estado.
Parámetros del archivo de configuración de LFA
IBM Tivoli Monitoring Log File Agent utiliza la información que se especifica en el
archivo de configuración para procesar la información del archivo de registro.
La Tabla 1 explica los parámetros que se pueden modificar en este archivo.
Tabla 18. Parámetros para el archivo de configuración de LFA
Necesario para
Parámetro
Descripción
Todos
DataSources
Especifique el origen de
datos que desee supervisar.
Si indica varios orígenes de
datos, estos deben separarse
con comas y sin espacios.
Cuando configure un
directorio remoto en el
archivo de configuración de
LFA, el directorio que
indique no debe contener
subdirectorios.
LFA internos instalados en
servidores remotos
ServerLocation,
Especifique la ubicación de
servidor para el servidor de
receptor EIF. Por ejemplo,
para un servidor que está en
111.222.333.444, especifique el
valor siguiente:
ServerLocation=111.222.333.444
LFA internos instalados en
servidores remotos
ServerPort
Especifique el puerto que el
receptor EIF utiliza. Por
ejemplo:
ServerPort=5529
114
IBM Operations Analytics - Log Analysis: Guía de instalación, configuración y administración
Tabla 18. Parámetros para el archivo de configuración de LFA (continuación)
Necesario para
Parámetro
Descripción
LFA internos instalados en
servidores remotos
BufEvtMaxSize
Especifique el tamaño de
almacenamiento intermedio
máximo para el LFA. Este
parámetro es el tamaño
máximo que se le permite
tener a la memoria caché. Si
la memoria caché está llena,
se descartan sucesos y el
rendimiento puede declinar.
El valor que especifique aquí
está en kilobytes. Por
ejemplo:
BufEvtMaxSize=102400
LFA externos instalados en
servidores remotos
SshAuthType
Debe establecer este valor
como PASSWORD o PUBLICKEY.
Si establece este valor en
PASSWORD, IBM Operations
Analytics - Log Analysis usa
el valor introducido para
SshPassword como contraseña
para la autenticación Secure
Shell (SSH) con todos los
sistemas remotos.
Si establece este valor en
PUBLICKEY, IBM Operations
Analytics - Log Analysis usa
el valor introducido para
SshPassword como frase de
contraseña que controla el
acceso al archivo de claves
privadas.
LFA externos instalados en
servidores remotos
SshHostList
Utilice en valor SshHostList
para especificar los hosts en
los que se generan los
archivos de registro
supervisados de forma
remota. IBM Operations
Analytics - Log Analysis
supervisa todos los archivos
de registro especificados en
las sentencias LogSources o
RegexLogSources en cada
sistema remoto.
Si especifica la máquina local
como un valor para este
parámetro, LFA supervisa los
archivos directamente en el
sistema local. Si especifica
que no se utilice el SSH del
host local para acceder a los
archivos del sistema, IBM
Operations Analytics - Log
Analysis lee los archivos
directamente.
Configuración
115
Tabla 18. Parámetros para el archivo de configuración de LFA (continuación)
Necesario para
Parámetro
Descripción
LFA externos instalados en
servidores remotos
SshPassword
Si el valor del parámetro
SshAuthType es PASSWORD,
indique la contraseña de la
cuenta para el usuario
especificado en el parámetro
SshUserid como valor para el
parámetro SshPassword.
Si el valor del parámetro
SshAuthType es PUBLICKEY,
especifique la frase de
contraseña que descifra la
clave privada indicada en el
parámetro SshPrivKeyfile.
LFA externos instalados en
servidores remotos
SshPort
Especifique el puerto TCP
utilizado para las conexiones
SSH. Si no especifica nada, el
valor que se toma por
defecto es 22.
LFA externos instalados en
servidores remotos
SshPrivKeyfile
Si el valor del parámetro
SshAuthType se establece en
PUBLICKEY, indique como vía
de acceso del directorio el
archivo que contiene la clave
privada del usuario indicado
en el parámetro SshUserid
como valor para este
parámetro.
Si el valor del parámetro
SshAuthType no se establece
en PUBLICKEY, este valor no
es necesario.
LFA externos instalados en
servidores remotos
SshPubKeyfile
Si el valor del parámetro
SshAuthType se establece en
PUBLICKEY, indique como vía
de acceso del directorio el
archivo que contiene la clave
pública del usuario indicado
en el parámetro SshUserid
como valor para este
parámetro.
Si el valor del parámetro
SshAuthType no se establece
en PUBLICKEY, este valor no
es necesario.
LFA externos instalados en
servidores remotos
SshUserid
Especifique el nombre de
usuario del sistema remoto
que el agente utiliza para la
autenticación SSH.
Mandato eifutil.sh
Para administrar instancias del receptor EIF, utilice el mandato eifutil.sh.
116
IBM Operations Analytics - Log Analysis: Guía de instalación, configuración y administración
Sintaxis
El mandato eifutil.sh tiene la sintaxis siguiente y se encuentra en
<USER_HOME_REMOTE>/DataForwarders/EIFReceivers/utilities,
donde<USER_HOME_REMOTE> es el directorio del host remoto en el que se
despliegan las instancias de receptor EIF:
eifutil.sh -status|-start <Inst_ID>|-stop <Inst_ID>|-startAll|-stopAll|-restart
<Inst_ID>|-restartAll
donde <Inst_ID> es el ID para la instancia EIF específica.
Parámetros
-status
Muestra el estado de las instancias instaladas. Por ejemplo:
============================================================================
COMPONENTE
Instancia
PID
PUERTO
ESTADO
============================================================================
Receptor EIF
eif_inst_1
13983
6601
ACTIVO
Receptor EIF
eif_inst_2
14475
6602
ACTIVO
Receptor EIF
eif_inst_3
14982
6603
ACTIVO
Receptor EIF
eif_inst_4
15474
6604
ACTIVO
Receptor EIF
eif_inst_5
15966
6605
ACTIVO
============================================================================
-start <Inst_id>
Inicia la instancia especificada.
-stop <Inst_id>
Detiene la instancia especificada.
-startAll
Inicia todas las instancias.
-stopAll
Detiene todas las instancias.
-restart<Inst_id>
Reinicia la instancia especificada.
-restartAll
Reinicia todas las instancias.
Mandato lfautil.sh
Para administrar instancias de IBM Tivoli Monitoring Log File Agent (LFA), utilice
el mandato lfautil.sh.
Sintaxis
El mandato lfautil.sh tiene la sintaxis siguiente, y está en el directorio
<USER_HOME_REMOTE>/utilities/ en el host remoto en el que
<USER_HOME_REMOTE> es el directorio del host remoto en el que se han
desplegado las instancias de LFA:
lfautil.sh -start|-stop|-status|-restart
Parámetros
-start Inicia todas las instancias de LFA en el host remoto.
-stop
Detiene todas las instancias de LFA en el host remoto.
Configuración
117
-status
Muestra el estado de las instancias de LFA en el sistema principal remoto.
Por ejemplo:
==========================================
COMPONENTE
PID
ESTADO
==========================================
Log File Agent
23995
ACTIVO
==========================================
-restart
Reinicia todas las instancias de LFA en el host remoto.
Propiedades del recopilador de datos
Para poder utilizar el recopilador de datos para transmitir datos o cargar un lote
de datos históricos, edite el archivo javaDatacollector.props.
El archivo javaDatacollector.props se encuentra en la carpeta
<HOME>/IBM/LogAnalysis/utilitiesdatacollector de cliente.
Los parámetros logFile, hostname, logpath y keystore son obligatorios.
Los parámetros userid, password y keystore se completan automáticamente con los
valores predeterminados creados durante la instalación. Si lo desea puede
modificarlos, pero no es necesario hacerlo.
Tabla 19. Propiedades del recopilador de datos
118
Parámetro
Valor
logFile
La vía de acceso completa del archivo que
desea cargar.
servletURL
El URL del servicio de recopilador de datos.
userid
El ID de usuario del servicio de recopilador
de datos.
password
La contraseña del servicio de recopilador de
datos.
datasource
Origen de datos que desea utilizar para
cargar datos.
timestamp
La indicación de fecha y hora que se debe
utilizar si no se ha encontrado una
indicación de fecha y hora en el archivo de
registro.
batchsize
Número de BYTES de los registros enviados
en un lote. El valor por omisión es 500.000.
keystore
La vía de acceso completa del archivo del
almacén de claves.
inputType
El tipo de entrada válido es LOGS.
flush flag
Si se ha establecido el valor predeterminado
true, el cliente envía una señal de vaciado
para el receptor genérico del último lote del
archivo. Si se establece en false cuando se
alcanza el fin del archivo no se envía
ninguna señal de vaciado.
IBM Operations Analytics - Log Analysis: Guía de instalación, configuración y administración
Mandato unity_securityUtility.sh
Puede utilizar el mandato unity_securityUtility.sh para cambiar la contraseña
que el Recopilador de datos y el receptor EIF utilizan para conectarse con IBM
Operations Analytics - Log Analysis.
Sintaxis
El mandato unity_securityUtility.sh se encuentra en el directorio
<HOME>/IBM/LogAnalysis/utilities y tiene la sintaxis siguiente:
unity_securityUtility.sh encode [textToEncode] [unity.ks]
Parámetros
El mandato unity_securityUtility.sh tiene los parámetros siguientes:
encode
El codificar acción devuelve una versión cifrada AES del texto que
especifique como el texto que desea cifrar.
[textToEncode]
Utilice el parámetro [textToEncode] para indicar la contraseña que desee
cifrar. Si no especifica una contraseña para este parámetro, IBM Operations
Analytics - Log Analysis le solicita una.
[unity.ks]
El archivo unity.ks es el almacén de claves predeterminado que se genera
automáticamente durante la instalación. Controla cómo la contraseña se
cifra y descifra.
El archivo unity.ks se utiliza para cifrar y descifrar contraseñas para las
características siguientes:
v
El cliente de recopilador de datos Java en el archivo
<HOME>/IBM/LogAnalysis/utilities/datacollector-client/
javaDatacollector.properties.
v
Receptor EIF en el archivo <HOME>/IBM/LogAnalysis/utilities/
UnityEIFReceiver/config/unity.conf.
Para obtener un ejemplo de cómo utilizar este mandato, consulte “Cambio de la
contraseña predeterminada del receptor EIF o de Recopilador de datos password”
en la página 230.
Programa de utilidad securityUtility.sh
Puede utilizar el programa de utilidad securityUtility.sh para cifrar las
contraseñas que utiliza en la configuración de Lightweight Directory Access
Protocol (LDAP).
Sintaxis
El mandato está en el directorio <HOME>/wlp/bin/ y tiene la siguiente sintaxis:
securityUtility {encode}
Parámetros
Este mandato tiene el parámetro siguiente:
Configuración
119
encode Utilice la acción de codificar para devolver una versión cifrada de XOR del
texto que especifique.
Ejemplo
Para cifrar una contraseña, especifique el siguiente mandato:
./securityUtility encode myPassword
La contraseña cifrada aparece como el valor {xor}:
{xor}MiYPPiwsKG8tOw==
Archivo eif.conf
El archivo eif.conf es un archivo de configuración para el adaptador de TEC
utilizado por el plug-in scala_custom_eif para enviar registros de anotaciones de
sucesos al receptor EIF de IBM Operations Analytics - Log Analysis.
El archivo eif.conf se encuentra en el directorio logstash/outputs relativo a la
ubicación en la que el kit de herramientas de integración de logstash se instaló en
el servidor de logstash. La instalación del kit de herramientas de integración de
logstash configura eif.conf durante la instalación con la ubicación del servidor, el
puerto del servidor, la ubicación del archivo caché y el archivo de registro. Puede
modificar otras propiedades para personalizar la instalación. Debe reiniciar el
agente logstash para que los cambios tengan efecto en este archivo de
configuración.
Nota: Consulte los comentarios del archivo eif.conf para obtener los detalles más
recientes sobre los parámetros disponibles y sus descripciones.
Parámetros del archivo eif.conf
BufEvtMaxSize=<kilobytes>
Especifica el tamaño máximo, en kilobytes, del archivo de caché de
adaptador. El valor por omisión es 64.\n El archivo de la memoria caché
almacena sucesos en disco cuando la palabra clave BufferEvents se ha
establecido en YES. El tamaño mínimo del archivo es 8 KB. Los tamaños de
archivo por debajo de este nivel se ignorarán, y se utilizarán 8 KB. No
existe ningún límite superior para el tamaño de archivo.
Nota: Si el archivo de memoria caché ya existe, debe suprimir el archivo
para que los cambios de parámetros tengan efecto.
El parámetro BufEvtMaxSize es opcional.
BufEvtPath=<pathname>
Especifica el nombre de vía de acceso completo del archivo de caché de
adaptador. Este parámetro es obligatorio cuando el valor BufferEvents está
establecido en YES.
BufferEvents=YES | MEMORY_ONLY | NO
Especifica cómo se habilita el almacenamiento intermedio de sucesos.
v YES - Almacena sucesos en el archivo indicado por la palabra clave
BufEvtPath.
v MEMORY_ONLY - Almacena los sucesos en la memoria intermedia.
v NO - No almacena sucesos ni los almacena en la memoria intermedia.
El valor no distingue entre mayúsculas y minúsculas. El valor
predeterminado es YES. Este parámetro es opcional.
120
IBM Operations Analytics - Log Analysis: Guía de instalación, configuración y administración
ConnectionMode=connection_oriented | connection_less
Especifica la modalidad de conexión que se debe utilizar para conectarse
con el receptor EIF de IBM Operations Analytics - Log Analysis. El valor
predeterminado es connection_less.
v connection_oriented - Se establece una conexión en la inicialización del
adaptador y se mantiene para todos los sucesos enviados. Sólo se
establece una conexión nueva si se pierde la conexión inicial. La
conexión se descarta cuando se detiene el adaptador. Esta opción puede
abreviarse a co o CO.
v connection_less – Se establece y se descarta una conexión nueva para
cada suceso o grupo de sucesos que se envía.
Este parámetro es opcional.
LogFileName=<pathname>
Especifica el nombre de vía de acceso completo del archivo de registro
para el adaptador.
LogLevel=<level>
Especifica si la API Java genera mensajes de registro o no. De forma
predeterminada, no se generan mensajes. Especifique ALL para generar
mensajes. Si especifica cualquier otro valor o no especifica ningún valor, la
API no genera mensajes. Este parámetro es opcional.
ServerLocation=<host>
Especifica el nombre del host en el que reside el receptor EIF de IBM
Operations Analytics - Log Analysis.
ServerPort=número Especifica el número de puerto en el que el Receptor
EIF está a la escucha de sucesos de IBM Operations Analytics - Log
Analysis.
FQDomain=YES | NO | <fully.qualified.domain.suffix>
Especifica la ranura de fqhostname.
v YES – El adaptador intentará determinar el nombre de host completo y si
lo consigue completará la ranura de fqhostname en el suceso.
v NO – La ranura de fqhostname se establecerá como una serie vacía.
v <fully.qualified.domain.suffix> – El adaptador añadirá este valor al
nombre de host para establecer la ranura de fqhostname.
Archivo unity.conf
unity.conf es un archivo de configuración para el receptor EIF de IBM Operations
Analytics - Log Analysis.
El archivo unity.conf se encuentra en el directorio <HOME>/IBM/LogAnalysis/
UnityEIFReceiver/config/.
Parámetros del archivo unity.conf
Tabla 20. Parámetros de unity.conf
Parámetro
Descripción
unity.data.collector.ip=nombre de host
Nombre de host del servidor en el que está
instalado IBM Operations Analytics - Log
Analysis
unity.data.collector.port=9987
El puerto que se especifica durante la
instalación. El valor predeterminado es 9987.
Configuración
121
Tabla 20. Parámetros de unity.conf (continuación)
Parámetro
Descripción
unity.data.collector.protocol=https
El protocolo de comunicación. El valor por
omisión es https.
unity.data.collector.uri=
/Unity/DataCollector
uri utilizado en la invocación REST.
unity.data.collector.userid=unityadmin
El ID de usuario del usuario asignado al rol
UnityUser. El ID de usuario predeterminado
es unityAdmin.
unity.data.collector.password=
{aes}<serie_exclusiva_de_caracteres_
alfanuméricos>
Contraseña asociada con el rol UnityAdmin.
El valor predeterminado es
{aes}<serie_exclusiva_caracteres_
alfanuméricos>.
unity.data.collector.keystore=
/home/unity/IBM/LogAnalysis/wlp/usr/
server/Unity/keystore/unity.ks
La vía de acceso completa del archivo del
almacén de claves.
unity.data.collector.eif.consumer.
num.events=1000000
Cola común para todos los sucesos EIF. El
valor predeterminado es 1000000.
unity.data.collector.event.service.
num.events=80000
Cada origen de datos tiene una cola de
servicio. Los sucesos se colocan en
almacenamiento intermedio en esta cola, en
lotes. Los lotes se pasan a la cola de
publicador. El valor predeterminado es
80000.
unity.data.collector.event.poster.
num.events=500
Cada origen de datos tiene una cola de
publicador. Los lotes se seleccionan y
publican en el servidor de IBM Operations
Analytics - Log Analysis desde esta cola. El
valor predeterminado es 500.
unity.data.collector.gc.interval=2
Determine el intervalo de limpieza de la
memoria del receptor EIF en minutos. El
valor predeterminado es 2.
logsource.buffer.wait.timeout=10
Determine el tiempo de espera de
almacenamiento intermedio en segundos. El
valor por omisión es 10.
logsource.max.buffer.size=450000
Determine el tamaño de almacenamiento
intermedio en bytes. El valor por omisión es
450000.
Mandato install.sh
Utilice el mandato install.sh para instalarIBM Operations Analytics - Log
Analysis o configurar la recopilación de datos para la escalabilidad en varios nodos
remotos. Receptor Tivoli Event Integration Facility o IBM Tivoli Monitoring Log
File Agent en un servidor remoto.
El mandato install.sh se encuentra en el directorio de <HOME>/IBM/
LogAnalysis/remote_install_tool/ en la instalación local de IBM Operations
Analytics - Log Analysis.
Parámetros del mandato install.sh
Para instalar IBM Operations Analytics - Log Analysis con IBM Installation
Manager, ejecute el mandato:
122
IBM Operations Analytics - Log Analysis: Guía de instalación, configuración y administración
./install.sh
Este mandato instala IBM Operations Analytics - Log Analysis, e instala o actualiza
IBM Installation Manager si no hay otra versión instalada. Para obtener más
información, consulte “Instalación con la interfaz de usuario de IBM Installation
Manager” en la página 14.
Para instalarIBM Operations Analytics - Log Analysis con la consola, ejecute el
mandato:
./install.sh -c
Este mandato instala IBM Operations Analytics - Log Analysis e instala o actualiza
IBM Installation Manager, si no hay ninguna otra versión de IBM Installation
Manager instalada. Para obtener más información, consulte “Instalación con la
interfaz de mandatos de IBM Installation Manager” en la página 16.
Para instalar silenciosamente IBM Operations Analytics - Log Analysis, ejecute el
mandato:
./install.sh -s <HOME_DIR>/smcl_silent_install.xml
donde <HOME_DIR> es el directorio de inicio. Este mandato instala de forma
silenciosa IBM Operations Analytics - Log Analysis e instala o actualiza IBM
Installation Manager Versión 1.8.2. Para obtener más información, consulte
“Instalación silenciosa de Log Analysis” en la página 18.
Para instalar el receptor de Tivoli Event Integration Facility o IBM Tivoli
Monitoring Log File Agent en un servidor remoto, ejecute el mandato:
./install.sh
Para obtener más información, consulte “Despliegue del LFA o EIF en servidores
remotos” en la página 205.
ssh_config.properties
Antes de poder utilizar el programa de utilidad instalador remoto debe configurar
el Secure Shell (SSH) para los hosts remotos.
El archivo ssh_config.properties está en el directorio <HOME>/IBM/
LogAnalysis/remote_install_tool/config.
Tabla 21. Parámetros ssh_config
Parámetro
Valor
REMOTE_HOST=
REMOTE_HOST
POST=
POST
TIME_OUT=
60000
USER=
REMOTE_USER
PASSWORD=
password1
USE_PASSWORD_LESS_SSH=
true
PATH_OF_PASSWORD_LESS_SSH_KEY=
/home/pass/.ssh/id_rsa
PASSPHRASE_OF_PASSWORD_LESS_SSH_KEY=
passphrase1
Configuración
123
Parámetros de auditoría
De forma predeterminada la función de auditoría está habilitada. Si es necesario, el
administrador puede modificar los parámetros predeterminados después de la
instalación.
El archivo unitysetup.properties se encuentra en la carpeta <HOME>/IBM/
LogAnalysis/wlp/usr/servers/Unity/apps/Unity.war/WEB-INF. Si es necesario, el
administrador puede editar los valores de los parámetros en la tabla 1.
Tabla 22. unitysetup.properties de auditoría
Parámetros
Valor
AUDIT_ACTIONS=
Especifica dónde se almacenan los datos de
auditoría. El valor predeterminado es
LOG,INDEX. Estos valores son los únicos
valores soportados y están habilitados de
forma predeterminado.
AUDIT_INTERVAL=
Define la frecuencia con la que se graban los
datos de auditoría. El valor predeterminado
es 120000 milisegundos.
Los datos de auditoría se graban en formato JSON en el archivo
<HOME>/IBM/LogAnalysis/logs/audit.log. El archivo de auditoría es un archivo
continuo, que de forma predeterminada admite 20 archivos de 50 MB.
Las propiedades predeterminadas del archivo se encuentran en el archivo
log4j.properties en el directorio <HOME>/IBM/LogAnalysis/wlp/usr/servers/
Unity/apps/Unity.war/WEB-INF/classes/.
Nota: Si cambia alguno de los parámetros de auditoría, debe guardar los cambios
y reiniciar IBM Operations Analytics - Log Analysis.
Programa de utilidad de versiones
Utilice el script unity_VersionInfoUtility.sh para comprobar la información de
versión de su instalación de Log Analysis.
Sintaxis
El script unity_VersionInfoUtility.sh se encuentra en la carpeta
<HOME>/IBM/LogAnalysis/utilities. Para ejecutarlo, especifique el mandato
siguiente:
<HOME>/IBM/LogAnalysis/utilities/unity_VersionInfoUtility.sh
Información de versión
El mandato devuelve la información de versión. Por ejemplo:
=====================================================================================
UNITY Version Utility
=====================================================================================
Gathered:
Tue Jul 28 07:00:54 EDT 2015
124
Java:
1.8.0 [IBM Corporation]
/home/unityadmin/IBM/LogAnalysis/ibm-java/jre
Java VM:
IBM J9 VM [j9jit28]
IBM Operations Analytics - Log Analysis: Guía de instalación, configuración y administración
Platform:
Linux
2.6.32-279.el6.x86_64
amd64
UNITY_HOME: /home/unityadmin/IBM/LogAnalysis
Machine:
nc9118042236.in.ibm.com [9.118.42.236]
=====================================================================================
Environment
=====================================================================================
_
= /home/unityadmin/IBM/LogAnalysis/ibm-java/jre/bin/java
CVS_RSH
= ssh
G_BROKEN_FILENAMES
= 1
HISTCONTROL
= ignoredups
HISTSIZE
= 1000
HOME
= /home/unityadmin
HOSTNAME
= nc9118042236
IBM_JAVA_COMMAND_LINE
= /home/unityadmin/IBM/LogAnalysis/ibm-java/jre/
bin/java -Dcom.ibm.tivoli.unity.LFA_DIR=/home/unityadmin/IBM/LogAnalysis/
IBM-LFA-6.30 -Dcom.ibm.tivoli.unity.UNITY_HOME=/home/unityadmin/IBM/
LogAnalysis -Dcom.ibm.tivoli.unity.DERBY_INSTALL_DIR=/home/unityadmin/
IBM/LogAnalysis/database -classpath /home/unityadmin/IBM/LogAnalysis/
utilities/lib/verutil.jar:/home/unityadmin/IBM/LogAnalysis/wlp/usr/
servers/Unity/apps/Unity.war/WEB-INF/lib/log4j-1.2.16.jar:/home/
unityadmin/IBM/LogAnalysis/wlp/usr/servers/Unity/apps/Unity.war/
WEB-INF/classes com.ibm.tivoli.unity.tools.VersionUtil
JAVA_HOME
= /home/unityadmin/IBM/LogAnalysis/ibm-java
LANG
= en_US.UTF-8
LESSOPEN
= |/usr/bin/lesspipe.sh %s
LOADEDMODULES
=
LOGNAME
= unityadmin
LS_COLORS
= rs=0:di=01;34:ln=01;36:mh=00:pi=40;33:so=
01;35:do=01;35:bd=40;33;01:cd=40;33;01:or=40;31;01:mi=01;05;37;41:su=37;41:
sg=30;43:ca=30;41:tw=30;42:ow=34;42:st=37;44:ex=01;32:*.tar=01;31:*.tgz=01;
31:*.arj=01;31:*.taz=01;31:*.lzh=01;31:*.lzma=01;31:*.tlz=01;31:*.txz=01;31
:*.zip=01;31:*.z=01;31:*.Z=01;31:*.dz=01;31:*.gz=01;31:*.lz=01;31:*.xz=01;31
:*.bz2=01;31:*.tbz=01;31:*.tbz2=01;31:*.bz=01;31:*.tz=01;31:*.deb=01;
31:*.rpm=01;31:*.jar=01;31:*.rar=01;31:*.ace=01;31:*.zoo=01;31:*.cpio=01;31
:*.7z=01;31:*.rz=01;31:*.jpg=01;35:*.jpeg=01;35:*.gif=01;35:*.bmp=01;35:*.pbm=
01;35:*.pgm=01;35:*.ppm=01;35:*.tga=01;35:*.xbm=01;35:*.xpm=01;35:*.tif=01;35:
*.tiff=01;35:*.png=01;35:*.svg=01;35:*.svgz=01;35:*.mng=01;35:*.pcx=01;35:
*.mov=01;35:*.mpg=01;35:*.mpeg=01;35:*.m2v=01;35:*.mkv=01;35:*.ogm=01;35:
*.mp4=01;35:*.m4v=01;35:*.mp4v=01;35:*.vob=01;35:*.qt=01;35:*.nuv=01;35:*.
wmv=01;35:*.asf=01;35:*.rm=01;35:*.rmvb=01;35:*.flc=01;35:*.avi=01;35:*.fli
=01;35:*.flv=01;35:*.gl=01;35:*.dl=01;35:*.xcf=01;35:*.xwd=01;35:*.yuv=01;35:
*.cgm=01;35:*.emf=01;35:*.axv=01;35:*.anx=01;35:*.ogv=01;35:*.ogx=01;
35:*.aac=01;36:*.au=01;36:*.flac=01;36:*.mid=01;36:*.midi=01;36:*.mka=
01;36:*.mp3=01;36:*.mpc=01;36:*.ogg=01;36:*.ra=01;36:*.wav=01;36:*.axa=01;
36:*.oga=01;36:*.spx=01;36:*.xspf=01;36:
MAIL
= /var/spool/mail/unityadmin
module
= () { eval `/usr/bin/modulecmd bash $*`
}
MODULEPATH
= /usr/share/Modules/modulefiles:/etc/modulefiles
MODULESHOME
= /usr/share/Modules
PATH
= /usr/lib64/qt-3.3/bin:/usr/local/bin:/bin:/usr/bin:/usr/
local/sbin:/usr/sbin:/sbin:/home/unityadmin/bin
PWD
= /home/unityadmin/IBM/LogAnalysis/utilities
QTDIR
= /usr/lib64/qt-3.3
QTINC
= /usr/lib64/qt-3.3/include
QTLIB
= /usr/lib64/qt-3.3/lib
SHELL
= /bin/bash
SHLVL
= 2
SSH_ASKPASS
= /usr/libexec/openssh/gnome-ssh-askpass
SSH_CLIENT
= 9.162.129.94 49216 22
SSH_CONNECTION
= 9.162.129.94 49216 9.118.42.236 22
SSH_TTY
= /dev/pts/0
Configuración
125
TERM
USER
= xterm
= unityadmin
=====================================================================================
UNITY Installed Component Version
=====================================================================================
IBM Operations Analytics - Log Analysis_1_3_2_0_201507240538 ENTRY EDITION
Product License Information
Trial Download. No License.
=====================================================================================
Websphere Version Information
=====================================================================================
Product name: WebSphere Application Server
Product version: 8.5.5.6
Product edition: LIBERTY_CORE
=====================================================================================
Derby Version Information
=====================================================================================
------------------ Java Information -----------------Java Version:
1.8.0
Java Vendor:
IBM Corporation
Java home:
/home/unityadmin/IBM/LogAnalysis/ibm-java/jre
Java classpath: /home/unityadmin/IBM/LogAnalysis/database/db_derby_bin/lib/derby.jar:/home/
unityadmin/IBM/LogAnalysis/database/db_derby_bin/lib/derbynet.jar:/home/unityadmin/IBM/
LogAnalysis/database/db_derby_bin/lib/derbytools.jar:/home/unityadmin/IBM/LogAnalysis/
database/db_derby_bin/lib/derbyclient.jar
OS name:
Linux
OS architecture: amd64
OS version:
2.6.32-279.el6.x86_64
Java user name: unityadmin
Java user home: /home/unityadmin
Java user dir: /home/unityadmin/IBM/LogAnalysis/utilities
java.specification.name: Java Platform API Specification
java.specification.version: 1.8
java.runtime.version: pxa6480sr1-20150417_01 (SR1)
java.fullversion: JRE 1.8.0 IBM J9 2.8 Linux amd64-64 Compressed References
20150410_243669 (JIT enabled, AOT enabled)
J9VM - R28_Java8_SR1_20150410_1531_B243669
JIT - tr.r14.java_20150402_88976.03
GC
- R28_Java8_SR1_20150410_1531_B243669_CMPRSS
J9CL - 20150410_243669
--------- Derby Information -------[/home/unityadmin/IBM/LogAnalysis/database/db_derby_bin/
lib/derby.jar] 10.10.2.1 - (1643489)
[/home/unityadmin/IBM/LogAnalysis/database/db_derby_bin/
lib/derbytools.jar] 10.10.2.1 - (1643489)
[/home/unityadmin/IBM/LogAnalysis/database/db_derby_bin/
lib/derbynet.jar] 10.10.2.1 - (1643489)
[/home/unityadmin/IBM/LogAnalysis/database/db_derby_bin/
lib/derbyclient.jar] 10.10.2.1 - (1643489)
---------------------------------------------------------------------- Locale Information ----------------Current Locale : [English/United States [en_US]]
Found support for locale: [cs]
version: 10.10.2.1 - (1643489)
Found support for locale: [de_DE]
version: 10.10.2.1 - (1643489)
Found support for locale: [es]
version: 10.10.2.1 - (1643489)
Found support for locale: [fr]
version: 10.10.2.1 - (1643489)
Found support for locale: [hu]
version: 10.10.2.1 - (1643489)
126
IBM Operations Analytics - Log Analysis: Guía de instalación, configuración y administración
Found support for locale: [it]
version: 10.10.2.1 - (1643489)
Found support for locale: [ja_JP]
version: 10.10.2.1 - (1643489)
Found support for locale: [ko_KR]
version: 10.10.2.1 - (1643489)
Found support for locale: [pl]
version: 10.10.2.1 - (1643489)
Found support for locale: [pt_BR]
version: 10.10.2.1 - (1643489)
Found support for locale: [ru]
version: 10.10.2.1 - (1643489)
Found support for locale: [zh_CN]
version: 10.10.2.1 - (1643489)
Found support for locale: [zh_TW]
version: 10.10.2.1 - (1643489)
----------------------------------------------------------------------------------------------------------=====================================================================================
ITM Version Information
=====================================================================================
--> Version information command is not available:
/home/unityadmin/IBM/LogAnalysis/IBM-LFA-6.30/bin/cinfo.
=====================================================================================
Insight Pack Information
=====================================================================================
Buildfile: /home/unityadmin/IBM/LogAnalysis/utilities/pkg_mgmt.xml
initializeCustomTasks:
main:
[packagemanager] 07/28/15 07:01:07:776 EDT [main] INFO
- PrerequisitesManager : CTGLC0044I : Running
prerequisite checks...
[packagemanager] 07/28/15 07:01:07:790 EDT [main] INFO
- PrerequisitesManager : CTGLC0045I : Prerequisite
checks passed
[packagemanager] 07/28/15 07:01:07:792 EDT [main] INFO
- ContentPackManager : CTGLC0030I : Listing installed
insight packs started...
[packagemanager] 07/28/15 07:01:07:860 EDT [main] INFO
- ContentPackManager :
[packagemanager] GAInsightPack_v1.1.1.3
- /home/unityadmin/IBM/LogAnalysis/unity_content
[packagemanager] DB2AppInsightPack_v1.1.0.3
- /home/unityadmin/IBM/LogAnalysis/unity_content
[packagemanager] DB2InsightPack_v1.1.0.2
- /home/unityadmin/IBM/LogAnalysis/unity_content
[packagemanager] WindowsOSEventsInsightPack_v1.1.0.3
- /home/unityadmin/IBM/LogAnalysis/unity_content
[packagemanager] Sample_weblogInsightpack_v1.0.0.0
- /home/unityadmin/IBM/LogAnalysis/unity_content
[packagemanager] WASInsightPack_v1.1.0.3
- /home/unityadmin/IBM/LogAnalysis/unity_content
[packagemanager] JavacoreInsightPack_v1.1.0.3
- /home/unityadmin/IBM/LogAnalysis/unity_content
[packagemanager] SyslogInsightPack_v1.1.0.3
- /home/unityadmin/IBM/LogAnalysis/unity_content
[packagemanager] WASAppInsightPack_v1.1.0.3
- /home/unityadmin/IBM/LogAnalysis/unity_content
[packagemanager] WebAccessLogInsightPack_v1.1.0.2
- /home/unityadmin/IBM/LogAnalysis/unity_content
[packagemanager] Sample_EventInsightpack_v1.0.0.0
Configuración
127
- /home/unityadmin/IBM/LogAnalysis/unity_content
[packagemanager] Sample_AppTransInsightpack_v1.0.0.0
- /home/unityadmin/IBM/LogAnalysis/unity_content
[packagemanager] 07/28/15 07:01:07:872 EDT [main] INFO
- ContentPackManager : CTGLC0031I : Listing completed
successfully
BUILD SUCCESSFUL
Total time: 4 seconds
=====================================================================================
UNITY Jar Version Information
=====================================================================================
UnityAqlUDF.jar
Build ID: 201507230424
Version: 1.1.0.0
Path:
/home/unityadmin/IBM/LogAnalysis/unity_content/
DB2InsightPack_v1.1.0.2/extractors/ruleset/common/lib
UnityAqlUDF.jar
Build ID: 201507230424
Version: 1.1.0.0
Path:
/home/unityadmin/IBM/LogAnalysis/unity_content/
GAInsightPack_v1.1.1.3/extractors/ruleset/common/lib
UnityAqlUDF.jar
Build ID: 201306070311
Version: 1.1.0.0
Path:
/home/unityadmin/IBM/LogAnalysis/unity_content/
Sample_weblogInsightpack_v1.0.0.0/extractors/ruleset/common/lib
UnityAqlUDF.jar
Build ID: 201507230424
Version: 1.1.0.0
Path:
/home/unityadmin/IBM/LogAnalysis/unity_content/
SyslogInsightPack_v1.1.0.3/extractors/ruleset/common/lib
UnityAqlUDF.jar
Build ID: 201507230424
Version: 1.1.0.0
Path:
/home/unityadmin/IBM/LogAnalysis/unity_content/
WASInsightPack_v1.1.0.3/extractors/ruleset/common/lib
UnityAqlUDFDB2.jar
Build ID: 201507230424
Version: 1.1.0.0
Path:
/home/unityadmin/IBM/LogAnalysis/unity_content/
DB2InsightPack_v1.1.0.2/extractors/ruleset/commonDB2/lib
UnityAqlUDFDate.jar
Build ID: 201507230424
Version: 1.1.0.0
Path:
/home/unityadmin/IBM/LogAnalysis/unity_content/
GAInsightPack_v1.1.1.3/extractors/ruleset/dateTimeSplitter/lib
UnityAqlUDFDate.jar
Build ID: 201507230424
Version: 1.1.0.0
Path:
/home/unityadmin/IBM/LogAnalysis/unity_content/
GAInsightPack_v1.1.1.3/extractors/ruleset/
normalizedAmericanDateTimeSplitter/lib
UnityAqlUDFDate.jar
Build ID: 201507230424
Version: 1.1.0.0
Path:
/home/unityadmin/IBM/LogAnalysis/unity_content/
GAInsightPack_v1.1.1.3/extractors/ruleset/
128
IBM Operations Analytics - Log Analysis: Guía de instalación, configuración y administración
normalizedEuropeanDateTimeSplitter/lib
UnityAqlUDFDate.jar
Build ID: 201507230424
Version: 1.1.0.0
Path:
/home/unityadmin/IBM/LogAnalysis/unity_content/
GAInsightPack_v1.1.1.3/extractors/ruleset/
normalizedYearFirstDateTimeSplitter/lib
UnityAqlUDFDate.jar
Build ID: 201507230424
Version: 1.1.0.0
Path:
/home/unityadmin/IBM/LogAnalysis/unity_content/
GAInsightPack_v1.1.1.3/extractors/ruleset/
timeOnlySplitter/lib
UnityAqlUDFDate.jar
Build ID: 201306070311
Version: 1.1.0.0
Path:
/home/unityadmin/IBM/LogAnalysis/unity_content/
Sample_weblogInsightpack_v1.0.0.0/extractors/ruleset/dateTimeSplitter/lib
UnityAqlUDFPatternMatcher.jar
Build ID: 201507230424
Version: 1.1.0.0
Path:
/home/unityadmin/IBM/LogAnalysis/unity_content/
DB2InsightPack_v1.1.0.2/extractors/ruleset/common/lib
UnityAqlUDFPatternMatcher.jar
Build ID: 201507230424
Version: 1.1.0.0
Path:
/home/unityadmin/IBM/LogAnalysis/unity_content/
GAInsightPack_v1.1.1.3/extractors/ruleset/common/lib
UnityAqlUDFPatternMatcher.jar
Build ID: 201306070311
Version: 1.1.0.0
Path:
/home/unityadmin/IBM/LogAnalysis/unity_content/
Sample_weblogInsightpack_v1.0.0.0/extractors/ruleset/common/lib
UnityAqlUDFPatternMatcher.jar
Build ID: 201507230424
Version: 1.1.0.0
Path:
/home/unityadmin/IBM/LogAnalysis/unity_content/
SyslogInsightPack_v1.1.0.3/extractors/ruleset/common/lib
UnityAqlUDFPatternMatcher.jar
Build ID: 201507230424
Version: 1.1.0.0
Path:
/home/unityadmin/IBM/LogAnalysis/unity_content/
WASInsightPack_v1.1.0.3/extractors/ruleset/common/lib
UnityAqlUDFSyslogDate.jar
Build ID: 201507230424
Version: 1.1.0.0
Path:
/home/unityadmin/IBM/LogAnalysis/unity_content/
SyslogInsightPack_v1.1.0.3/extractors/ruleset/dateTimeSplitter/lib
UnityEIFReceiver.jar
Build ID: 201507240538
Version: 1.3.2.0
Path:
/home/unityadmin/IBM/LogAnalysis/UnityEIFReceiver/jars
datacollector-client.jar
Build ID: 201507240538
Version: 1.3.2.0
Path:
/home/unityadmin/IBM/LogAnalysis/utilities/
Configuración
129
datacollector-client
db2-content.jar
Build ID: 201507240538
Version: 1.3.2.0
Path:
/home/unityadmin/IBM/LogAnalysis/DataCollector/
annotators/jars
db2-content.jar
Build ID: 201507240538
Version: 1.3.2.0
Path:
/home/unityadmin/IBM/LogAnalysis/work_files/
Configurations/UnityContent/annotator/java
logAAqlUDFs.jar
Build ID: 201507230424
Version: 1.1.0.0
Path:
/home/unityadmin/IBM/LogAnalysis/unity_content/
DB2InsightPack_v1.1.0.2/extractors/ruleset/common/lib
logAAqlUDFs.jar
Build ID: 201507230424
Version: 1.1.0.0
Path:
/home/unityadmin/IBM/LogAnalysis/unity_content/
GAInsightPack_v1.1.1.3/extractors/ruleset/common/lib
logAAqlUDFs.jar
Build ID: 201306070311
Version: 1.1.0.0
Path:
/home/unityadmin/IBM/LogAnalysis/unity_content/
Sample_weblogInsightpack_v1.0.0.0/extractors/ruleset/common/lib
logAAqlUDFs.jar
Build ID: 201507230424
Version: 1.1.0.0
Path:
/home/unityadmin/IBM/LogAnalysis/unity_content/
SyslogInsightPack_v1.1.0.3/extractors/ruleset/common/lib
logAAqlUDFs.jar
Build ID: 201507230424
Version: 1.1.0.0
Path:
/home/unityadmin/IBM/LogAnalysis/unity_content/
WASInsightPack_v1.1.0.3/extractors/ruleset/common/lib
unity-analytics-framework.jar
Build ID: 201507240538
Version: 1.3.2.0
Path:
/home/unityadmin/IBM/LogAnalysis/UnityEIFReceiver/jars
=====================================================================================
Solr Information
=====================================================================================
nc9118042236.in.ibm.com:solr-spec
: 5.2.1
solr-impl
: 5.2.1
Nombres de huso horario soportados
IBM Operations Analytics - Log Analysis utiliza la Hora Universal Coordinada
como el huso horario predeterminado.
Si necesita cambiar el huso horario predeterminado, debe cambiar el valor después
de instalar IBM Operations Analytics - Log Analysis pero antes de cargar datos,
incluidos los datos de ejemplo que se proporcionan en la página Cómo empezar.
No puede cambiar el huso horario después de cargar datos.
130
IBM Operations Analytics - Log Analysis: Guía de instalación, configuración y administración
Debe utilizar el nombre completo del huso horario y no la abreviación del huso
horario en el parámetro relativo al huso horario. Por ejemplo, para cambiar el huso
horario a la Hora central europea, edite el parámetro de la siguiente manera:
UNITY_TIME_ZONE=Europe/Paris
Para obtener una lista completa de los husos horarios soportados, consulte la tabla
siguiente.
Tabla 23. Nombres de huso horario soportados
Pacífico/Central
Pacífico/Niue
Pacífico/Pago_Pago
Pacífico/Samoa
EE.UU./Samoa
América/Adak
América/Atka
Pacífico/Honolulu
Pacífico/Johnston
Pacífico/Rarotonga
Pacífico/Tahití
EE.UU./Aleutianas
EE.UU./Hawaii
Pacífico/Marquesas
América/Anchorage
América/Juneau
América/Nome
América/Sitka
América/Yakutat
Pacífico/Gambier
EE.UU./Alaska
América/Dawson
América/Ensenada
América/Los_Ángeles
América/Metlakatla
América/Santa_Isabel
América/Tijuana
América/Vancouver
América/Whitehorse
Canadá/Pacífico
Canadá/Yukon
México/BajaNorte
Pacífico/Pitcairn
EE.UU./Pacífico
EE.UU./Nuevo Pacífico
Configuración
131
Tabla 23. Nombres de huso horario soportados (continuación)
América/Boise
América/Cambridge_Bay
América/Chihuahua
América/Creston
América/Dawson_Creek
América/Denver
América/Edmonton
América/Hermosillo
América/Inuvik
América/Mazatlan
América/Ojinaga
América/Phoenix
América/Shiprock
América/Yellowknife
Canadá/Mountain
México/BajaSur
Navajo
EE.UU./Arizona
EE.UU./Montana
América/Bahia_Banderas
América/Belize
América/Cancún
América/Chicago
América/Costa_Rica
América/El_Salvador
América/Guatemala
América/Indiana/Knox
América/Indiana/Tell_City
América/Knox_IN
América/Managua
América/Matamoros
América/Menominee
América/Mérida
América/Ciudad_México
América/Monterrey
América/North_Dakota/Beulah
América/North_Dakota/Center
América/North_Dakota/New_Salem
América/Rainy_River
América/Rankin_Inlet
América/Regina
132
IBM Operations Analytics - Log Analysis: Guía de instalación, configuración y administración
Tabla 23. Nombres de huso horario soportados (continuación)
América/Resolute
América/Swift_Current
América/Tegucigalpa
América/Winnipeg
Canadá/Central
Canadá/Saskatchewan del Este
Canadá/Saskatchewan
Chile/Isla_de_Pascua
México/General
Pacífico/Oriental
Pacífico/Galápagos
EE.UU./Central
EE.UU./Indiana-Starke
América/Atikokan
América/Bogotá
América/Caimán
América/Coral_Harbour
América/Detroit
América/Eirunepe
América/Fort_Wayne
América/Grand_Turk
América/Guayaquil
América/Havana
América/Indiana/Indianapolis
América/Indiana/Marengo
América/Indiana/Petersburg
América/Indiana/Vevay
América/Indiana/Vincennes
América/Indiana/Winamac
América/Indianapolis
América/Iqaluit
América/Jamaica
América/Kentucky/Louisville
América/Kentucky/Monticello
América/Lima
América/Louisville
América/Montreal
América/Nassau
América/Nueva_York
América/Nipigon
América/Panamá
Configuración
133
Tabla 23. Nombres de huso horario soportados (continuación)
América/Pangnirtung
América/Puerto_Príncipe
América/Porto_Acre
América/Rio_Branco
América/Thunder_Bay
América/Toronto
Brasil/Acre
Canadá/Oriental
Cuba
Jamaica
EE.UU./Indiana-este
EE.UU./Oriental
EE.UU./Michigan
América/Caracas
América/Anguilla
América/Antigua
América/Aruba
América/Asunción
América/Barbados
América/Blanc-Sablon
América/Boa_Vista
América/Campo_Grande
América/Cuiabá
América/Curazao
América/Dominica
América/Glace_Bay
América/Goose_Bay
América/Granada
América/Guadalupe
América/Guyana
América/Halifax
América/Kralendijk
América/La_Paz
América/Lower_Princes
América/Manaus
América/Marigot
América/Martinique
América/Moncton
América/Montserrat
América/Puerto_España
América/Porto_Velho
134
IBM Operations Analytics - Log Analysis: Guía de instalación, configuración y administración
Tabla 23. Nombres de huso horario soportados (continuación)
América/Puerto_Rico
América/Santiago
América/Santo_Domingo
América/St_Barthelemy
América/St_Kitts
América/Santa_Lucía
América/Santo_Tomás
América/San_Vincente
América/Thule
América/Tortola
América/Vírgenes
Antártida/Palmer
Atlántico/Bermudas
Brasil/Occidental
Canadá/Atlántico
Chile/Continental
América/St_Johns
Canadá/Terranova
América/Araguaina
América/Argentina/Buenos_Aires
América/Argentina/Catamarca
América/Argentina/ComodRivadavia
América/Argentina/Córdoba
América/Argentina/Jujuy
América/Argentina/La_Rioja
América/Argentina/Mendoza
América/Argentina/Rio_Gallegos
América/Argentina/Salta
América/Argentina/San_Juan
América/Argentina/San_Luis
América/Argentina/Tucumán
América/Argentina/Ushuaia
América/Bahía
América/Belem
América/Buenos_Aires
América/Catamarca
América/Cayenne
América/Córdoba
América/Fortaleza
América/Godthab
América/Jujuy
Configuración
135
Tabla 23. Nombres de huso horario soportados (continuación)
América/Maceió
América/Mendoza
América/Miquelón
América/Montevideo
América/Paramaribo
América/Recife
América/Rosario
América/Santarem
América/Sao_Paulo
Antártida/Rothera
Atlántico/Stanley
Brasil/Oriental
América/Noronha
Atlántico/Georgia_del_Sur
Brasil/DeNoronha
América/Scoresbysund
Atlántico/Azores
Atlántico/Cabo_Verde
África/Abiyán
África/Accra
África/Bamako
África/Banjul
África/Bissau
África/Casablanca
África/Conakry
África/Dakar
África/El_Aaiún
África/Freetown
África/Lomé
África/Monrovia
África/Nouakchott
África/Uagadugú
África/Santo_Tomé
África/Tombuctú
América/Danmarkshavn
Antártida/Troll
Atlántico/Canarias
Atlántico/Faroe
Atlántico/Faroe
Atlántico/Madeira
Atlántico/Reykjavik
136
IBM Operations Analytics - Log Analysis: Guía de instalación, configuración y administración
Tabla 23. Nombres de huso horario soportados (continuación)
Atlántico/Santa_Elena
Eire
Europa/Belfast
Europa/Dublín
Europa/Guernsey
Europa/Isla_de_Man
Europa/Jersey
Europa/Lisboa
Europa/Londres
GB
GB-Irlanda
Greenwich
Islandia
Portugal
Universal
Zulu
África/Argel
África/Bangui
África/Brazzaville
África/Ceuta
África/Douala
África/Kinshasa
África/Lagos
África/Libreville
África/Luanda
África/Malabo
África/Yamena
África/Niamey
África/Porto-Novo
África/Túnez
África/Windhoek
Ártico/Longyearbyen
Atlántico/Jan_Mayen
Europa/Ámsterdam
Europa/Andorra
Europa/Belgrado
Europa/Berlín
Europa/Bratislava
Europa/Bruselas
Europa/Budapest
Europa/Busingen
Configuración
137
Tabla 23. Nombres de huso horario soportados (continuación)
Europa/Copenhague
Europa/Gibraltar
Europa/Liubliana
Europa/Luxemburgo
Europa/Madrid
Europa/Malta
Europa/Mónaco
Europa/Oslo
Europa/París
Europa/Podgorica
Europa/Praga
Europa/Roma
Europa/San_Marino
Europa/Sarajevo
Europa/Skopie
Europa/Estocolmo
Europa/Tirana
Europa/Vaduz
Europa/Vaticano
Europa/Viena
Europa/Varsovia
Europa/Zagreb
Europa/Zúrich
Polonia
África/Blantyre
África/Bujumbura
África/El Cairo
África/Gaborone
África/Harare
África/Johannesburgo
África/Kigali
África/Lubumbashi
África/Lusaka
África/Maputo
África/Maseru
África/Mbabane
África/Trípoli
Asia/Ammán
Asia/Beirut
Asia/Damasco
Asia/Gaza
138
IBM Operations Analytics - Log Analysis: Guía de instalación, configuración y administración
Tabla 23. Nombres de huso horario soportados (continuación)
Asia/Hebrón
Asia/Estambul
Asia/Jerusalén
Asia/Nicosia
Asia/Tel_Aviv
Egipto
Europa/Atenas
Europa/Bucarest
Europa/Chisinau
Europa/Helsinki
Europa/Estambul
Europa/Kiev
Europa/Mariehamn
Europa/Nicosia
Europa/Riga
Europa/Sofía
Europa/Tallin
Europa/Tiraspol
Europa/Uzhgorod
Europa/Vilna
Europa/Zaporozhye
Israel
Libia
Turquía
África/Adís_Abeba
África/Asmara
África/Asmera
África/Dar_es_Salaam
Africa/Djibouti
África/Juba
África/Kampala
África/Jartum
África/Mogadiscio
África/Nairobi
Antártida/Syowa
Asia/Adén
Asia/Bagdad
Asia/Baréin
Asia/Kuwait
Asia/Qatar
Asia/Riad
Configuración
139
Tabla 23. Nombres de huso horario soportados (continuación)
Europa/Kaliningrado
Europa/Minsk
Índico/Antananarivo
Índico/Comoro
Índico/Mayotte
Asia/Riyadh87
Asia/Riyadh88
Asia/Riyadh89
OrienteMedio/Riyadh87
OrienteMedio/Riyadh88
OrienteMedio/Riyadh89
Asia/Teherán
Irán
Asia/Bakú
Asia/Dubái
Asia/Muscat
Asia/Tbilisi
Asia/Ereván
Europa/Moscú
Europa/Samara
Europa/Simferopol
Europa/Volgogrado
Índico/Mahe
Índico/Mauricio
Índico/Reunión
Asia/Kabul
Antártida/Mawson
Asia/Aktau
Asia/Aktobe
Asia/Ashgabat
Asia/Ashkhabad
Asia/Dushanbe
Asia/Karachi
Asia/Oral
Asia/Samarkand
Asia/Tashkent
Índico/Kerguelen
Índico/Maldivas
Asia/Calcuta
Asia/Colombo
Asia/Kolkata
140
IBM Operations Analytics - Log Analysis: Guía de instalación, configuración y administración
Tabla 23. Nombres de huso horario soportados (continuación)
Asia/Katmandú
Asia/Katmandú
Antártida/Vostok
Asia/Almaty
Asia/Bishkek
Asia/Dacca
Asia/Dhaka
Asia/Qyzylorda
Asia/Thimbu
Asia/Thimphu
Asia/Ekaterimburgo
Índico/Chagos
Asia/Rangún
Índico/Cocos
Antártida/Davis
Asia/Bangkok
Asia/Ho_Chi_Minh
Asia/Hovd
Asia/Jakarta
Asia/Novokuznetsk
Asia/Novosibirsk
Asia/Omsk
Asia/Phnom_Penh
Asia/Pontianak
Asia/Saigón
Asia/Vientián
Índico/Navidad
Antártida/Casey
Asia/Brunei
Asia/Choibalsan
Asia/Chongqing
Asia/Chungking
Asia/Harbin
Asia/Hong_Kong
Asia/Kashgar
Asia/Krasnoyarsk
Asia/Kuala_Lumpur
Asia/Kuching
Asia/Macao
Asia/Macau
Asia/Makassar
Configuración
141
Tabla 23. Nombres de huso horario soportados (continuación)
Asia/Manila
Asia/Shanghai
Asia/Singapur
Asia/Taipéi
Asia/Ujung_Pandang
Asia/Ulán Bator
Asia/Ulán_Bator
Asia/Urumqi
Australia/Perth
Australia/Occidental
Hongkong
Singapur
Australia/Eucla
Asia/Dili
Asia/Irkutsk
Asia/Jayapura
Asia/Pyongyang
Asia/Seúl
Asia/Tokio
Japón
Pacífico/Palau
Australia/Adelaida
Australia/Broken_Hill
Australia/Darwin
Australia/Norte
Australia/Sur
Australia/Yancowinna
Antártida/DumontDUrville
Asia/Khandyga
Asia/Yakutsk
Australia/ACT
Australia/Brisbane
Australia/Canberra
Australia/Currie
Australia/Hobart
Australia/Lindeman
Australia/Melbourne
Australia/Nueva Gales del Sur
Australia/Queensland
Australia/Sídney
Australia/Tasmania
142
IBM Operations Analytics - Log Analysis: Guía de instalación, configuración y administración
Tabla 23. Nombres de huso horario soportados (continuación)
Australia/Victoria
Pacífico/Chuuk
Pacífico/Guam
Pacífico/Port_Moresby
Pacífico/Saipán
Pacífico/Truk
Pacífico/Yap
Australia/LHI
Australia/Lord_Howe
Antartida/Macquarie
Asia/Sajalín
Asia/Ust-Nera
Asia/Vladivostok
Pacífico/Efate
Pacífico/Guadalcanal
Pacífico/Kosrae
Pacífico/Numea
Pacífico/Pohnpei
Pacífico/Ponape
Pacífico/Norfolk
Antártida/McMurdo
Antártida/Polo Sur
Asia/Anádyr
Asia/Kamchatka
Asia/Magadán
Kwajalein
Pacífico/Auckland
Pacífico/Fiji
Pacífico/Funafuti
Pacífico/Kwajalein
Pacífico/Majuro
Pacífico/Nauru
Pacífico/Tarawa
Pacífico/Wake
Pacífico/Wallis
NZ-CHAT
Pacífico/Chatham
Pacífico/Apia
Pacífico/Enderbury
Pacífico/Fakaofo
Pacífico/Tongatapu
Configuración
143
Tabla 23. Nombres de huso horario soportados (continuación)
Pacífico/Kiritimati
Idiomas soportados
IBM Operations Analytics - Log Analysis da soporte a diversos idiomas.
Consulte la siguiente tabla de códigos de idioma para los idiomas soportados.
Tabla 24.
144
Idioma
Código de idioma
Portugués Brasileño
pt-BR
Francés
fr
Alemán
de
Italiano
it
Japonés
ja
Coreano
ko
Ruso
ru
Español
es
Chino simplificado
zh-cn
Chino tradicional
zh-tw
IBM Operations Analytics - Log Analysis: Guía de instalación, configuración y administración
Niveles de datos y almacenamiento
Después de instalar y configurar Log Analysis, puede configurar cómo Log
Analysis almacena los datos.
Puede dividir los datos que Log Analysis almacena en los niveles actual y de
archivado.
Los usuarios de Standard Edition pueden integrar Log Analysis con
Hadoop para almacenar datos a largo plazo.
Workgroup
SQL
System
System
Standard
AltiVec
Sybase
Studio
Start
DB2
C99
C89
CEP
ALL
IDS
i5
Server
p5
z9
i53
Orchestrator
Cloudscape
Telesales
Fix
Panagon
pSeries
Pack
Documentum
Domino.Doc
Content
Mgr
Professional
Developer
Advanced
Business
WCS
zSeries
WC
xSeries
Oracle
iSeries
B2C
B2B
5.4
5.1
Express
WAS
5.0
Fix
Oracle
Pack
10
21
Enterprise
Configuración del archivado de datos
Para optimizar el rendimiento, configure la cantidad de tiempo que IBM
Operations Analytics - Log Analysis almacena los datos en el archivo.
Acerca de esta tarea
Debe configurar el periodo de archivado antes de cargar los datos.
Para facilitar el rendimiento de las consultas, IBM Operations Analytics - Log
Analysis utiliza los niveles de datos a priorizar la recuperación de la información
más reciente.
IBM Operations Analytics - Log Analysis divide datos en dos capas, la actual y la
de archivado. Los datos se retienen en el nivel actual para el periodo especificado.
Cuando ya ha pasado este tiempo y se cargan más datos, estos se trasladan a la
capa de archivado. Los datos que se almacenan en el nivel actual se guardan en la
memoria. Por lo tanto, las consultas pueden acceder a estos datos con más rapidez
que los datos de la capa de archivado.
Puede utilizar el parámetro HOT_TIER_PERIOD para especificar el número de días
que los datos se retienen en el nivel actual. Por ejemplo, si el parámetro
HOT_TIER_PERIOD se establece en 2, los datos se retienen en el nivel actual durante
dos días hasta la próxima ingestión de datos.
La longitud del periodo de tiempo que especifique para el parámetro
HOT_TIER_PERIOD afecta a la cantidad de memoria que utiliza IBM Operations
Analytics - Log Analysis. Cuanto más largo es el periodo, mayor es la memoria
utilizada.
Procedimiento
1. Para detener el servidor de IBM Operations Analytics - Log Analysis, utilice el
mandato siguiente:
<HOME>/IBM/LogAnalysis/utilities/unity.sh -stop
2. Abra el archivo unitysetup.properties ubicado en el directorio
<HOME>/IBM/LogAnalysis/wlp/usr/servers/Unity/apps/Unity.war/WEB-INF.
3. Para especificar el número de días que los datos se almacenan en el nivel
actual, cambie el valor del parámetro HOT_TIER_PERIOD . El valor por omisión es
2:
HOT_TIER_PERIOD=2
© Copyright IBM Corp. 2015
145
4. Guarde el archivo.
5. Para iniciar el servidor de IBM Operations Analytics - Log Analysis, utilice el
mandato siguiente:
<HOME>/IBM/LogAnalysis/utilities/unity.sh -start
Resultados
Los datos se retienen en el nivel actual hasta la próxima ingestión de datos para el
periodo especificado.
Configuración de almacenamiento de datos a largo plazo
Workgroup
SQL
System
System
Standard
AltiVec
Sybase
Studio
Start
DB2
C99
C89
CEP
ALL
IDS
i5
Server
p5
z9
i53
Orchestrator
Cloudscape
Telesales
Fix
Panagon
pSeries
Pack
Documentum
Domino.Doc
Content
Mgr
Professional
Developer
Advanced
Business
WCS
zSeries
WC
xSeries
Oracle
iSeries
B2C
B2B
5.4
5.1
Express
WAS
5.0
Fix
Oracle
Pack
10
21
Enterprise
Si utiliza Standard Edition de Log Analysis, puede integrar Log Analysis con
Hadoop para almacenar datos a largo plazo.
Para poder utilizar Hadoop para el almacenamiento de datos a largo plazo, debe
crear conexiones de DataNode y NameNode para integrar Log Analysis con la
instalación de Hadoop.
Si desea integrar IBM BigInsights, Hortonworks o Huawei FusionInsight HD debe
utilizar la interfaz de usuario para crear las conexiones automáticamente.
Fixpack 1
Si desea utilizar Fixpack 1 Huawei FusionInsight HD, debe instalar IBM
Operations Analytics - Log Analysis 1.3.3 Fixpack 1.
Si desea integrar Cloudera Hadoop, debe configurarla manualmente.
Después de que se haya completado la integración, Log Analysis almacena los
datos del nivel de archivado en Hadoop. Puede utilizar Log Analysis para buscar
estos datos cuando necesite.
Para obtener más información sobre las versiones soportadas de Hadoop, consulte
“Versiones soportadas de Hadoop” en la página 147.
¿Cuándo debería utilizar Hadoop?
Hadoop ofrece un método más eficaz para el almacenamiento a largo plazo que
puede utilizar para almacenar datos a largo plazo a partir de archivos de registro
anotados. La integración con Log Analysis la facilita un servicio que está
empaquetado con Log Analysis y garantiza que pueda continuar buscando estos
datos sin necesidad de almacenar los datos en la base de datos principal.
Arquitectura
Log Analysis almacena los datos de registro en el clúster de Hadoop y permite que
los usuarios busquen datos almacenados en Hadoop. Log Analysis, con la ayuda
del servicio de Log Analysis instalado en cada nodo de datos, escribe los datos en
el clúster de Hadoop. Los datos se graban en el formato de archivo de contenedor
de objetos avro. Para obtener más información sobre los archivos de contenedor de
objetos, consulte http://avro.apache.org/docs/1.7.4/
spec.html#Object+Container+Files. Los datos se graban en cada DataNode donde
esté instalado el servicio. Puede utilizar IBM Operations Analytics - Log Analysis
para buscar estos datos.
146
IBM Operations Analytics - Log Analysis: Guía de instalación, configuración y administración
También puede ejecutar búsquedas de Log Analysis en los datos almacenados en el
clúster de Hadoop.
El gráfico siguiente muestra una descripción general de la arquitectura del servicio:
Hadoop Jobtracker
Hadoop / Big
Insights
clúster de
servidores
Nombre de nodo
de HDFS
Servicio de
Log Analysis
Hadoop
Nodo de datos1
de HDFS
Servidor
Log Analysis
Servicio de
Log Analysis
Hadoop
Nodo de datos2
de HDFS
Servicio de
Log Analysis
Hadoop
Nodo de datos 1
de HDFS
Versiones soportadas de Hadoop
Asegúrese de que la versión de Hadoop esté soportada por Log Analysis.
Log Analysis da soporte a integraciones con las siguientes versiones de Hadoop:
IBM Open Platform with Apache Hadoop para IBM BigInsights 4.0 y 4.1
IBM InfoSphere BigInsights proporciona un completo conjunto de
prestaciones de análisis avanzado que permite a las empresas analizar
grandes volúmenes de datos estructurados y sin estructurar en su formato
nativo. Para obtener más información, consulte la documentación de IBM
InfoSphere BigInsights en http://www-01.ibm.com/support/
knowledgecenter/SSPT3X/SSPT3X_welcome.html.
IBM BigInsights está formado por una serie de módulos. Para integrarse
con Log Analysis, debe descargar e instalar IBM Open Platform with
Apache Hadoop. Para obtener más información sobre cómo descargar este
componente, consulte http://www-01.ibm.com/support/
docview.wss?uid=swg24040517.
Niveles de datos y almacenamiento
147
IBM InfoSphere BigInsights 3.0
IBM InfoSphere BigInsights 3.0 está soportado en Log Analysis 1.3.3, no
obstante, debe configurar las conexiones del servidor manualmente.
IBM InfoSphere BigInsights 3.0 no está soportado en Log
Analysis 1.3.3.1 o superior.
Fixpack 1
Cloudera Hadoop 5.3.0
Cloudera proporciona una plataforma escalable, flexible e integrada que
facilita la gestión de volúmenes y variedades de datos en rápido
crecimiento de la empresa. Para obtener más información, consulte la
documentación de Cloudera en http://www.cloudera.com/content/
cloudera/en/documentation/core/latest/topics/introduction.html.
Fixpack 1
Hortonworks Hadoop 2.x
El producto de Hortonworks, Hortonworks Data Platform proporciona
almacenamiento de grandes volúmenes de datos y procesa y analiza dichos
datos. Está diseñado para procesar y analizar datos de diferentes orígenes
y formatos. Para obtener más información, consulte la documentación de
Hortonworks en http://hortonworks.com/hdp/.
Fixpack 1
Huawei Hadoop 2.x
Huawei FusionInsight HD proporciona almacenamiento de grandes
volúmenes de datos y procesa y analiza dichos datos. Para obtener más
información, consulte la documentación de Huawei FusionInsight HD en
http://support.huawei.com/enterprise/product-21110924-en.html.
Tareas de requisito previo
Para poder crear las conexiones a los servidores de Hadoop, asegúrese de que se
cumplen los requisitos previos.
Asegúrese de que IBM Open Platform with Apache Hadoop, Cloudera Hadoop,
Hortonworks, o Huawei FusionInsight HD esté instalado en el entorno. Para
obtener más información, consulte “Versiones soportadas de Hadoop” en la página
147:
Las siguientes tareas sólo son relevantes si está configurando manualmente la
integración:
v Cree un usuario para cada DataNode en el clúster de Hadoop.
v Asegúrese de que el nombre de usuario para cada DataNode sea el mismo que
el nombre de usuario de IBM Operations Analytics - Log Analysis en el servidor
de IBM Operations Analytics - Log Analysis.
Configuración automática de almacenamiento de datos a
largo plazo
Workgroup
SQL
System
System
Standard
AltiVec
Sybase
Studio
Start
DB2
C99
C89
CEP
ALL
IDS
i5
Server
p5
z9
i53
Orchestrator
Cloudscape
Telesales
Fix
Panagon
pSeries
Pack
Documentum
Domino.Doc
Content
Mgr
Professional
Developer
Advanced
Business
WCS
zSeries
WC
xSeries
Oracle
iSeries
B2C
B2B
5.4
5.1
Express
WAS
5.0
Fix
Oracle
Pack
10
21
Enterprise
Si desea integrar IBM Open Platform with Apache Hadoop, Hortonworks Hadoop,
o Huawei FusionInsight HD para almacenar los datos a largo plazo, debe utilizar
la IU de Log Analysis para crear las conexiones necesarias.
148
IBM Operations Analytics - Log Analysis: Guía de instalación, configuración y administración
Fixpack 1
IBM InfoSphere BigInsights 3.0 no está soportado en Log Analysis 1.3.3.1
o superior.
Si desea integrar Cloudera Hadoop o IBM InfoSphere BigInsights 3.0, debe
configurarlos manualmente. Para obtener más información, consulte
“Configuración manual de almacenamiento de datos a largo plazo” en la página
151.
Si utiliza IBM Open Platform with Apache Hadoop 4.0 o 4.1, no puede configurar
manualmente las conexiones de servidor. Debe utilizar la interfaz de usuario para
integrarlo automáticamente, tal como se describe en esta sección.
Creación de una conexión de servidor de NameNode
Workgroup
SQL
System
System
Standard
AltiVec
Sybase
Studio
Start
DB2
C99
C89
CEP
ALL
IDS
i5
Server
p5
z9
i53
Orchestrator
Cloudscape
Telesales
Fix
Panagon
pSeries
Pack
Documentum
Domino.Doc
Content
Mgr
Professional
Developer
Advanced
Business
WCS
zSeries
WC
xSeries
Oracle
iSeries
B2C
B2B
5.4
5.1
Express
WAS
5.0
Fix
Oracle
Pack
10
21
Enterprise
Para poder crear conexiones de servidor de DataNode, debe crear una conexión de
servidor de NameNode.
Acerca de esta tarea
Sólo los usuarios de Standard Edition pueden utilizar esta característica. Sólo
puede crear una conexión de servidor de NameNode.
Procedimiento
1. Pulse la pestaña Integración de Hadoop.
2. Pulse
(icono Crear nodo de nombre).
3. Complete los campos como se describe en la tabla.
Tabla 25. Campos de editor de conexión de servidor de NameNode
Campo
Descripción
Hadoop
Seleccione su distribución de Hadoop en la
lista desplegable.
Servidor de nodo de nombre
Especifique el nombre de host o la dirección
IP del servidor donde ha instalado el
servidor de NameNode.
Contraseña raíz de nodo de nombre
Especifique la contraseña raíz para el
servidor de NameNode.
Puerto SSH de nodo de nombre
Especifique el número de puerto utilizado
por el servidor de NameNode para las
conexiones SSH a Log Analysis. El valor
predeterminado es 22.
Puerto de servicio LA
Especifique el número de puerto utilizado
por el servicio de Log Analysis.
Nombre de usuario HDFS
Especifique el nombre de usuario Hadoop.
Ubicación de directorio LA en HDFS
Especifique la vía de acceso al directorio
donde desea almacenar los archivos de Log
Analysis en Hadoop Distributed File System
(HDFS). Por ejemplo /ioala-root.
Vía de acceso de instalación de Hadoop
Especifique la vía de acceso al directorio
donde se ha instalado Hadoop en el servidor
de NameNode.
Niveles de datos y almacenamiento
149
Tabla 25. Campos de editor de conexión de servidor de NameNode (continuación)
Campo
Descripción
Fixpack 1 Directorio del archivo de
configuración de Hadoop (solo Huawei
FusionInsight HD)
Especifique la vía de acceso al directorio
donde se encuentra la configuración de
Hadoop. Para obtener más información
sobre la configuración del directorio de
ubicación del archivo, consulte Especificar el
directorio dónde esta ubicado el archivo de
configuración de Huawei FusionInsight HD .
Para habilitar Kerberos, seleccione el
recuadro de selección Habilitar Kerberos.
Para obtener más información acerca de
cómo habilitar Kerberos, consulte
Habilitación de Kerberos.
Fixpack 1
Habilitar Kerberos
Fixpack 1
Principal de usuario de Kerberos Especifique el nombre de usuario y dominio
del principal de Kerberos. Para obtener más
información acerca de cómo especificar el
usuario y el dominio, consulte Especificar el
nombre de usuario y el dominio de
Kerberos.
Fixpack 1
Tabla de claves de Kerberos
Vaya a la tabla de claves de Kerberos. Para
obtener más información acerca de la tabla
de claves de Kerberos, consulte Descargar el
archivo de tabla de claves de Kerberos
4. Pulse Añadir.
Qué hacer a continuación
Después de configurar la conexión de servidor de NameNode, puede configurar
las conexiones de servidor de nodo de datos.
Creación de una conexión de servidor de DataNode
Workgroup
SQL
System
System
Standard
AltiVec
Sybase
Studio
Start
DB2
C99
C89
CEP
ALL
IDS
i5
Server
p5
z9
i53
Orchestrator
Cloudscape
Telesales
Fix
Panagon
pSeries
Pack
Documentum
Domino.Doc
Content
Mgr
Professional
Developer
Advanced
Business
WCS
zSeries
WC
xSeries
Oracle
iSeries
B2C
B2B
5.4
5.1
Express
WAS
5.0
Fix
Oracle
Pack
10
21
Enterprise
Después de crear una conexión de servidor de NameNode, debe crear las
conexiones de servidor de DataNode asociadas.
Acerca de esta tarea
Sólo los usuarios de Standard Edition pueden utilizar esta característica.
Procedimiento
1. Pulse la pestaña Integración de Hadoop.
2. Pulse el botón de selección al lado de la conexión de NameNode.
3. Pulse
(Icono Crear DataNode).
4. Complete los campos como se describe en la tabla.
Tabla 26. Campos de editor de conexión de servidor de DataNode
150
Campo
Descripción
Nombre de host
Especifique el nombre de host o la dirección
IP del servidor de DataNode.
IBM Operations Analytics - Log Analysis: Guía de instalación, configuración y administración
Tabla 26. Campos de editor de conexión de servidor de DataNode (continuación)
Campo
Descripción
Contraseña raíz
Especifique la contraseña raíz para el
servidor de DataNode.
Puerto SSH
Especifique el puerto que el servidor de
DataNode utiliza para conectarse a Log
Analysis para conexiones SSH. El valor
predeterminado es 22.
Inicio de servicio LA
Especifique la vía de acceso al directorio
donde se ha desplegado el servicio de Log
Analysis en el servidor de DataNode.
Vía de acceso a página de inicio de Java
Especifique la vía de acceso completa al
directorio en el servidor de DataNode donde
se ha instalado Java.
Nombre de usuario de servicio LA
Nombre de usuario que el servicio Log
Analysis utiliza para conectarse a Log
Analysis para copiar los archivos de
archivado Java necesarios en el servidor de
DataNode. Este campo se rellena
automáticamente con el nombre de usuario
que ha instalado Log Analysis. No puede
cambiar este campo.
Contraseña de usuario de servicio LA
Especifique la contraseña del nombre de
usuario del servicio LA. Si este usuario ya
existe, la contraseña se cambia al valor que
especifica en este campo.
5. Pulse Añadir.
6. Añada las demás conexiones de servidor de DataNode repitiendo los pasos
anteriores. Por ejemplo, si utiliza un clúster Hadoop, puede añadir el resto de
conexiones de DataNode.
7. Después de añadir todas las conexiones necesarias, reinicie Log Analysis.
Configuración manual de almacenamiento de datos a largo
plazo
Workgroup
SQL
System
System
Standard
AltiVec
Sybase
Studio
Start
DB2
C99
C89
CEP
ALL
IDS
i5
Server
p5
z9
i53
Orchestrator
Cloudscape
Telesales
Fix
Panagon
pSeries
Pack
Documentum
Domino.Doc
Content
Mgr
Professional
Developer
Advanced
Business
WCS
zSeries
WC
xSeries
Oracle
iSeries
B2C
B2B
5.4
5.1
Express
WAS
5.0
Fix
Oracle
Pack
10
21
Enterprise
Si desea integrar Cloudera Hadoop con Log Analysis, debe configurar la
integración manualmente.
Si utiliza IBM InfoSphere BigInsights 3.0, debe configurar manualmente las
conexiones de servidor.
IBM InfoSphere BigInsights 3.0 no está soportado en Log Analysis 1.3.3.1
o superior.
Fixpack 1
Si utiliza IBM Open Platform with Apache Hadoop 4.0 o 4.1, Hortonworks
Hadoop, o Huawei FusionInsight HD no puede configurar manualmente las
conexiones del servidor. Debe utilizar la interfaz de usuario para integrarlo
automáticamente. Para obtener más información, consulte “Configuración
automática de almacenamiento de datos a largo plazo” en la página 148.
Niveles de datos y almacenamiento
151
Integración del cliente de Hadoop
Workgroup
SQL
System
System
Standard
AltiVec
Sybase
Studio
Start
DB2
C99
C89
CEP
ALL
IDS
i5
Server
p5
z9
i53
Orchestrator
Cloudscape
Telesales
Fix
Panagon
pSeries
Pack
Documentum
Domino.Doc
Content
Mgr
Professional
Developer
Advanced
Business
WCS
zSeries
WC
xSeries
Oracle
iSeries
B2C
B2B
5.4
5.1
Express
WAS
5.0
Fix
Oracle
Pack
10
21
Enterprise
Para habilitar el nivel Hadoop, primero debe preparar el cliente de Hadoop.
Procedimiento
1. Cree una carpeta denominada hadoop-jars en el servidor de IBM Operations
Analytics - Log Analysis.
2. Copie el cliente de Hadoop desde el clúster de Hadoop. Elija una de las
opciones siguientes para la integración elegida de Hadoop para IBM
Operations Analytics - Log Analysis.
v IBM BigInsights 3.0
a. Abra la página web de administración de IBM InfoSphere BigInsights.
Por ejemplo, http://<host_gestor_clúster_BI>:8080
b. Pulse Download client library and development software.
c. Para descargar el paquete de cliente, seleccione Job Submission API
package.
d. Descargue y extraiga el paquete de cliente.
e. Copie los archivos jar y xml del paquete de cliente en la carpeta
hadoop-jars creada en el paso 1.
Nota: Si IBM Operations Analytics - Log Analysis se instala en un sistema
operativo basado en Linux on System z con IBM InfoSphere BigInsights 3.0.0
en x-86, debe sustituir hadoop-core.jar con hadoop-core-2.2.0-mr1.jar.
hadoop-core.jar se ha copiado desde el clúster de IBM BigInsights. El
archivo hadoop-core-2.2.0-mr1.jar se proporciona con IBM Operations
Analytics - Log Analysis y se encuentra aquí: <HOME>/IBM/LogAnalysis/
utilities/hadoop/BigInsights_3.0.0
v Cloudera Hadoop
a. Vaya a la carpeta de paquetes de Cloudera en el clúster de Cloudera
Hadoop. Por ejemplo: /opt/cloudera/parcels/CDH-5.3.01.cdh5.3.0.p0.30/lib/hadoop/client
b. Copie los archivos jar de la carpeta de paquetes de Cloudera en la
carpeta hadoop-jars creada en el paso 1. Para obtener información sobre
cómo obtener los archivos jar, consulte la documentación de Cloudera:
http://www.cloudera.com/content/cloudera/en/documentation/core/
latest/topics/cdh_vd_hadoop_api_dependencies.html
c. Abra la página web de los gestores de clúster. Por ejemplo,
http://<host_gestor_clúster_CDH>:7180/cmf/home.
d. Descargue Client Configuration Files para servicios YARN. Para obtener
más información sobre cómo descargar los archivos de configuración de
cliente, consulte la documentación de Cloudera: http://
www.cloudera.com/content/cloudera/en/documentation/core/latest/
topics/cm_mc_client_config.html
e. Extraiga y copie los archivos xml en la carpeta hadoop-jars creada en el
paso 1.
Configuración del nivel Hadoop
Workgroup
SQL
System
System
Standard
AltiVec
Sybase
Studio
Start
DB2
C99
C89
CEP
ALL
IDS
i5
Server
p5
z9
i53
Orchestrator
Cloudscape
Telesales
Fix
Panagon
pSeries
Pack
Documentum
Domino.Doc
Content
Mgr
Professional
Developer
Advanced
Business
WCS
zSeries
WC
xSeries
Oracle
iSeries
B2C
B2B
5.4
5.1
Express
WAS
5.0
Fix
Oracle
Pack
10
21
Enterprise
Para habilitar el nivel Hadoop, debe configurar el nivel Hadoop.
152
IBM Operations Analytics - Log Analysis: Guía de instalación, configuración y administración
Procedimiento
1. Cree una carpeta denominada LA_HADOOP_TIER en Hadoop Distributed File
System (HDFS). Por ejemplo, para utilizar el programa de utilidad de línea de
mandatos para crear la carpeta, ejecute el mandato siguiente:
hadoop fs -mkdir /<nivel-la-hadoop>
Esta carpeta la utiliza exclusivamente el nivel Hadoop de IBM Operations
Analytics - Log Analysis.
2. Cree las carpetas siguientes en la carpeta LA_HADOOP_TIER.
LA_HADOOP_TIER
Esta carpeta se utiliza para la ingesta de datos.
LA_HADOOP_TIER/jars
Esta carpeta se utiliza para almacenar los archivos jar que requiere el
trabajo map-reduce.
LA_HADOOP_TIER/output
Esta carpeta se utiliza como almacenamiento temporal durante una
ejecución de consulta de búsqueda de IBM Operations Analytics - Log
Analysis sobre el nivel Hadoop.
Por ejemplo, para utilizar el programa de utilidad de línea de mandatos para
crear estas carpetas, especifique los mandatos siguientes en la línea de
mandatos:
hadoop fs -mkdir /la-hadoop-tier/data
hadoop fs -mkdir /la-hadoop-tier/jars
hadoop fs -mkdir /la-hadoop-tier/output
3. Cambie la propiedad de estas carpetas al usuario LA. Por ejemplo, para utilizar
el programa de utilidad de línea de mandatos para cambiar la propiedad de las
carpetas creadas en el paso 2 al usuario LA, especifique el mandato siguiente:
./hadoop fs -chown -R LA:LA /la-hadoop-tier
4. Compruebe la creación y propiedad de estas carpetas. Por ejemplo, para utilizar
el programa de utilidad de línea de mandatos para verificar los detalles de
carpeta, especifique los mandatos siguientes:
hadoop fs -ls /
hadoop fs -ls /la-hadoop-tier
5. Copie y extraiga el archivo search.zip de <HOME>/IBM/LogAnalysis/utilities/
hadoop en una carpeta temporal en el clúster de Hadoop. Por ejemplo:
/tmp/la-search-jars
6. Actualice el archivo jars de la carpeta temporal a HDFS. Por ejemplo, para
utilizar el programa de utilidad de línea de mandatos para cargar los archivos
desde la carpeta temporal en HDFS, especifique el mandato siguiente:
hadoop fs -copyFromLocal /tmp/la-search-jars/*.jar /la-hadoop-tier/jars
7. Para asegurarse de que el usuario LA puede iniciar un trabajo MapReduce al
clúster de Hadoop, inicie sesión como usuario LA e inicie un trabajo
map-reduce de prueba.
Para obtener información adicional sobre cómo iniciar una prueba de
map-reduce en Cloudera Hadoop, consulte el tema sobre Ejecución de un trabajo
MapReduce en la documentación de Cloudera: http://www.cloudera.com/
content/cloudera/en/documentation/core/latest/topics/
cm_ig_testing_the_install.html
Instalación del servicio de Log Analysis
Para utilizar el nivel de Hadoop, debe instalar el servicio de Log Analysis en cada
servidor de nodo de datos del clúster de Hadoop.
Niveles de datos y almacenamiento
153
Acerca de esta tarea
El servidor de Log Analysis envía los datos de registro al servicio de Log Analysis.
A continuación, los datos se graban en Hadoop.
Procedimiento
Para instalar el servicio de IBM Operations Analytics - Log Analysis, realice los
pasos siguientes.
1. Inicie la sesión como el usuario LA en uno de los nodos de datos del clúster de
Hadoop.
2. Cree una carpeta denominada LA_SERVICE_HOME. Por ejemplo,
<HOME>/IBM/LogAnalysis/LA_SERVICE_HOME
3. Copie y extraiga service.zip de la carpeta <HOME>/IBM/LogAnalysis/utilities/
hadoop en la carpeta LA_SERVICE_HOME.
4. Copie la carpeta LA_HADOOP_TIER/jars en la carpeta LA_SERVICE_HOME/lib.
5. Revise, y modifique si es necesario, los valores de las variables de entorno en el
script LA_SERVICE_HOME/bin/env.sh.
6. Copie la carpeta LA_SERVICE_HOME en todos los servidores de nodo de datos del
clúster de Hadoop.
Configuración de Log Analysis
Workgroup
SQL
System
System
Standard
AltiVec
Sybase
Studio
Start
DB2
C99
C89
CEP
ALL
IDS
i5
Server
p5
z9
i53
Orchestrator
Cloudscape
Telesales
Fix
Panagon
pSeries
Pack
Documentum
Domino.Doc
Content
Mgr
Professional
Developer
Advanced
Business
WCS
zSeries
WC
xSeries
Oracle
iSeries
B2C
B2B
5.4
5.1
Express
WAS
5.0
Fix
Oracle
Pack
10
21
Enterprise
Antes de habilitar el nivel de Hadoop, debe configurar Log Analysis.
Procedimiento
1. Detenga el servidor de Log Analysis:
./ unity.sh -stop
2. Abra unitysetup.properties en el directorio <HOME>/IBM/LogAnalysis/wlp/usr/
servers/Unity/apps/Unity.war/WEB-INF. Cambie las propiedades siguientes:
v HADOOP_TIER_HDFS_BASE_DIR
Especifique el valor de <LA_HADOOP_TIER> en HDFS.
v INDEX_IMPLEMENTATION=INDEXING_ENGINE
Añada Hadoop a la propiedad INDEX_IMPLEMENTATION. Por ejemplo, cambie
INDEX_IMPLEMENTATION=INDEXING_ENGINE por o
INDEX_IMPLEMENTATION=INDEXING_ENGINE, HADOOP
Actualice el archivo HADOOP_TIER.properties predeterminado si es diferente del
entorno. Ignore la propiedad HADOOP_TIER_JOB_TRACKER_URI.
3. Copie la carpeta hadoop-jars en el directorio <HOME>/IBM/LogAnalysis/wlp/usr/
servers/Unity/apps/Unity.war/WEB-INF/lib
4. Inicie el servidor de Log Analysis:
./ unity.sh -start
Prueba de la integración de Hadoop
Workgroup
SQL
System
System
Standard
AltiVec
Sybase
Studio
Start
DB2
C99
C89
CEP
ALL
IDS
i5
Server
p5
z9
i53
Orchestrator
Cloudscape
Telesales
Fix
Panagon
pSeries
Pack
Documentum
Domino.Doc
Content
Mgr
Professional
Developer
Advanced
Business
WCS
zSeries
WC
xSeries
Oracle
iSeries
B2C
B2B
5.4
5.1
Express
WAS
5.0
Fix
Oracle
Pack
10
21
Enterprise
Para asegurarse de que la integración de Hadoop se ha configurado correctamente,
puede ejecutar algunas pruebas básicas.
154
IBM Operations Analytics - Log Analysis: Guía de instalación, configuración y administración
Procedimiento
1. Ingiera datos de registro al servidor de Log Analysis.
a. Puede instalar datos de ejemplo en la interfaz de usuario de Log Analysis.
b. También puede utilizar datos que había sido cargado con un Paquete
Insight.
c. Los datos cargados se graban en los archivos avro en la carpeta
<LA_HADOOP_TIER>/data en Hadoop en el formato siguiente:
<Indicación_fecha_hora_colección_Unity>/<DATA_SOURCE_NAME>/
<DAY_BASED_ON_TIMESTAMP_IN_LOG_RECORDS>/<counter>.avro
2. Utilice la interfaz de usuario de búsqueda para realizar búsquedas de datos que
se almacenan en Hadoop.
a. Añada como prefijo a la consulta de búsqueda en la interfaz de usuario
[_hq]. Por ejemplo, [_hq]*
b. La búsqueda en el nivel Hadoop se ejecuta mediante un trabajo map-reduce
en el clúster de Hadoop.
c. Añada al principio de la misma consulta de búsqueda en la interfaz de
usuario [_sq], por ejemplo, [_sq]*, y realice la consulta en un Motor de
indexación.
d. Compare los resultados de búsqueda.
3. Para identificar los errores, abra los archivos siguientes:
v UnityApplication.log en el servidor de Log Analysis.
v <HOME>/IBM/LogAnalysis/logs/hadooptier.log en el servidor de Log
Analysis.
v <LA_SERVICE_HOME>/logs en el servidor donde está instalado el servicio de
Log Analysis.
Pestaña Integración de Hadoop
Workgroup
SQL
System
System
Standard
AltiVec
Sybase
Studio
Start
DB2
C99
C89
CEP
ALL
IDS
i5
Server
p5
z9
i53
Orchestrator
Cloudscape
Telesales
Fix
Panagon
pSeries
Pack
Documentum
Domino.Doc
Content
Mgr
Professional
Developer
Advanced
Business
WCS
zSeries
WC
xSeries
Oracle
iSeries
B2C
B2B
5.4
5.1
Express
WAS
5.0
Fix
Oracle
Pack
10
21
Enterprise
Utilice la pestaña Integración de Hadoop para ver el estado de la integración de
almacenamiento de datos actual y los procesos asociados.
Sólo los usuarios de Standard Edition pueden utilizar esta característica.
La pestaña está formada por 2 pestañas:
Pestaña Configuración
Muestra las conexiones de servidor e NameNode y DataNode. Aquí puede
crear, editar y suprimir conexiones, También puede ver los detalles de
conexiones específicas.
Pestaña Procesos de integración
Muestra una visión general de los procesos que se están ejecutando como
parte de Log Analysis. Los procesos que se listan aquí incluyen la instancia
de receptor EIF local, el proceso de Log Analysis principal, los nodos de
Motor de indexación (nodos de Apache Solr) y cualquier conexión a
Hadoop. Puede iniciar, detener y reiniciar estos procesos.
Nota: No puede iniciar, detener o reiniciar el proceso de Log Analysis o
los procesos de Apache Solr.
Niveles de datos y almacenamiento
155
Gestión del servidor de Log Analysisr
Puede detener, iniciar y reiniciar algunos de los procesos de Log Analysis en la
interfaz de usuario.
Acerca de esta tarea
Solo puede utilizar esta interfaz de usuario para gestionar el proceso principal del
servidor de Log Analysis.
Nota: Las acciones iniciar, detener y reiniciar no se soportan para los procesos
principales de IBM Operations Analytics - Log Analysis o los procesos de Apache
Solr.
Procedimiento
1. Abra la interfaz de usuario de IBM Operations Analytics - Log Analysis y pulse
Ajustes administrativos.
2. Pulse la pestaña Integración de Hadoop.
3. Pulse la pestaña Procesos de integración.
4. Pase el ratón sobre el proceso principal que desea detener, iniciar o reiniciar en
la lista de procesos principales para visualizar los iconos de Iniciar, Detener y
Reiniciar.
5. Para completar la acción iniciar, detener o reiniciar, pulse el icono adecuado.
Mantenimiento de conexiones configuradas automáticamente
Workgroup
SQL
System
System
Standard
AltiVec
Sybase
Studio
Start
DB2
C99
C89
CEP
ALL
IDS
i5
Server
p5
z9
i53
Orchestrator
Cloudscape
Telesales
Fix
Panagon
pSeries
Pack
Documentum
Domino.Doc
Content
Mgr
Professional
Developer
Advanced
Business
WCS
zSeries
WC
xSeries
Oracle
iSeries
B2C
B2B
5.4
5.1
Express
WAS
5.0
Fix
Oracle
Pack
10
21
Enterprise
Puede suprimir las conexiones de servidor de NameNode y DataNode que ha
creado en la interfaz de usuario de Log Analysis.
También puede editar el campo Contraseña de usuario de servicio LA para una
conexión de servidor de DataNode. No puede editar los demás campos.
No puede editar una conexión de servidor de NameNode después de crearla.
Edición de una conexión de servidor de NameNode
Fixpack 1
Después de crear una conexión del servidor de NameNode, puede editarla para
habilitar o inhabilitar la configuración de Kerberos.
Procedimiento
1. Pulse la pestaña Integración de Hadoop.
2. Pulse el icono Editar NameNode.
3. Especifique la contraseña root de NameNode, las propiedades relacionadas con
Kerberos.
4. Pulse Guardar.
156
IBM Operations Analytics - Log Analysis: Guía de instalación, configuración y administración
Edición de una conexión de servidor de DataNode
Workgroup
SQL
System
System
Standard
AltiVec
Sybase
Studio
Start
DB2
C99
C89
CEP
ALL
IDS
i5
Server
p5
z9
i53
Orchestrator
Cloudscape
Telesales
Fix
Panagon
pSeries
Pack
Documentum
Domino.Doc
Content
Mgr
Professional
Developer
Advanced
Business
WCS
zSeries
WC
xSeries
Oracle
iSeries
B2C
B2B
5.4
5.1
Express
WAS
5.0
Fix
Oracle
Pack
10
21
Enterprise
Después de crear una conexión de servidor de DataNode, puede editarla.
Procedimiento
1. Pulse la pestaña Integración de Hadoop.
2. Pulse el icono Editar DataNode.
3. Edite el campo Contraseña de usuario de servicio LA tal como se describe en la
tabla. No puede editar los demás campos.
4. Pulse Guardar.
Supresión de una conexión de servidor de NameNode
Workgroup
SQL
System
System
Standard
AltiVec
Sybase
Studio
Start
DB2
C99
C89
CEP
ALL
IDS
i5
Server
p5
z9
i53
Orchestrator
Cloudscape
Telesales
Fix
Panagon
pSeries
Pack
Documentum
Domino.Doc
Content
Mgr
Professional
Developer
Advanced
Business
WCS
zSeries
WC
xSeries
Oracle
iSeries
B2C
B2B
5.4
5.1
Express
WAS
5.0
Fix
Oracle
Pack
10
21
Enterprise
Puede suprimir una conexión de servidor de NameNode.
Antes de empezar
Debe suprimir las conexiones de servidor de NameNode que están asociadas con
la conexión de servidor de DataNode antes de poder suprimir la conexión de
servidor de NameNode.
Procedimiento
1. Pulse la pestaña Integración de Hadoop.
2. Pulse
(Icono Suprimir NameNode).
3. Pulse Aceptar.
4. Reinicie Log Analysis.
Qué hacer a continuación
Esta acción no suprime los datos almacenados en Hadoop. Sólo se suprimen los
detalles de la conexión. Para suprimir los registros de archivos de registro
almacenados de Hadoop, debe utilizar el programa de utilidad de supresión de
Log Analysis. Para obtener más información, consulte “Supresión de datos” en la
página 339.
Supresión de una conexión de servidor de DataNode
Workgroup
SQL
System
System
Standard
AltiVec
Sybase
Studio
Start
DB2
C99
C89
CEP
ALL
IDS
i5
Server
p5
z9
i53
Orchestrator
Cloudscape
Telesales
Fix
Panagon
pSeries
Pack
Documentum
Domino.Doc
Content
Mgr
Professional
Developer
Advanced
Business
WCS
zSeries
WC
xSeries
Oracle
iSeries
B2C
B2B
5.4
5.1
Express
WAS
5.0
Fix
Oracle
Pack
10
21
Enterprise
Puede suprimir una conexión de servidor de DataNode.
Procedimiento
1. Pulse la pestaña Integración de Hadoop.
2. Pulse
(Icono Suprimir DataNode).
3. Pulse Suprimir.
4. Reinicie Log Analysis.
Niveles de datos y almacenamiento
157
Mantenimiento manual de conexiones de DataNode configuradas
Workgroup
SQL
System
System
Standard
AltiVec
Sybase
Studio
Start
DB2
C99
C89
CEP
ALL
IDS
i5
Server
p5
z9
i53
Orchestrator
Cloudscape
Telesales
Fix
Panagon
pSeries
Pack
Documentum
Domino.Doc
Content
Mgr
Professional
Developer
Advanced
Business
WCS
zSeries
WC
xSeries
Oracle
iSeries
B2C
B2B
5.4
5.1
Express
WAS
5.0
Fix
Oracle
Pack
10
21
Enterprise
Después de configurar el servicio de Hadoop, podrá utilizar el script server.sh
para gestionar el servicio.
Procedimiento
Puede elegir gestionar el servicio en un servidor de DataNode individual o bien
gestionar todas las instancias de servicio juntas.
v Para gestionar el servicio en un DataNode individual, utilice el usuario LA que
ha creado al configurar el servicio para iniciar la sesión en un servidor de nodo
de datos de Hadoop.
1. Ejecute el script <LA_SERVICE_HOME>/bin/server.sh con uno de los
parámetros siguientes:
Start
Inicia el servicio en el servidor de Hadoop DataNode.
Stop
Detiene el servicio en el servidor de Hadoop DataNode.
Status Recupera el estado del servidor de Hadoop DataNode.
v Para gestionar todas las instancias, seleccione un DataNode para que actúe como
LA_Service_Controller_Node. Esto gestionará el servicio en todos los nodos de
datos.
1. (Opcional) Cree SSH sin contraseña para el usuario LA desde este DataNode
a todos los nodos de datos, incluido este DataNode, en el clúster de Hadoop.
2. Utilice el usuario LA para iniciar la sesión en el nodo de datos
LA_Service_Controller_Node.
3. Ejecute el script <LA_SERVICE_HOME>/bin/server.sh con uno de los
parámetros siguientes:
clusterStart
Inicia el servicio en cada servidor de Hadoop DataNode.
clusterStop
Detiene el servicio en cada servidor de Hadoop DataNode.
clusterStatus
Recupera el estado de cada servidor de Hadoop DataNode.
Si no configura conexiones SSH sin contraseña durante la configuración, se le
solicitará la contraseña para cada servidor de DataNode.
Compartición de un clúster de Hadoop entre varias instancias de Log
Analysis
Workgroup
SQL
System
System
Standard
AltiVec
Sybase
Studio
Start
DB2
C99
C89
CEP
ALL
IDS
i5
Server
p5
z9
i53
Orchestrator
Cloudscape
Telesales
Fix
Panagon
pSeries
Pack
Documentum
Domino.Doc
Content
Mgr
Professional
Developer
Advanced
Business
WCS
zSeries
WC
xSeries
Oracle
iSeries
B2C
B2B
5.4
5.1
Express
WAS
5.0
Fix
Oracle
Pack
10
21
Enterprise
Puede utilizar el mismo clúster de Hadoop para varias instancias de Log Analysis.
Procedimiento
1. Para compartir un clúster de Hadoop entre varias instancias de Log Analysis,
debe integrar el servicio de Hadoop para cada instancia de Log Analysis.
Para obtener más información, consulte “Integración del cliente de Hadoop” en
la página 152.
158
IBM Operations Analytics - Log Analysis: Guía de instalación, configuración y administración
a. Debe utilizar un valor distinto para cada una de las carpetas siguientes:
<LA_HADOOP_TIER>
en el servidor de DataNode.
<LA_SERVICE_HOME>
en el servidor de Log Analysis.
Como alternativa a repetir este paso para cada instancia de Log Analysis,
puede crear una copia de las carpetas resultantes desde una instancia de Log
Analysis de la misma versión.
2. Modifique los valores de PORT y PROCESS_ID del archivo <LA_SERVICE_HOME>/
bin/env.sh
Referencia de editor de conexión de servidor de DataNode
Workgroup
SQL
System
System
Standard
AltiVec
Sybase
Studio
Start
DB2
C99
C89
CEP
ALL
IDS
i5
Server
p5
z9
i53
Orchestrator
Cloudscape
Telesales
Fix
Panagon
pSeries
Pack
Documentum
Domino.Doc
Content
Mgr
Professional
Developer
Advanced
Business
WCS
zSeries
WC
xSeries
Oracle
iSeries
B2C
B2B
5.4
5.1
Express
WAS
5.0
Fix
Oracle
Pack
10
21
Enterprise
Utilice el editor de conexiones del servidor de DataNode para crear conexiones de
servidor de DataNode. Puede tener varias conexiones de DataNode. Todos los
campos son necesarios.
Después de crear una conexión de servidor de DataNode, sólo puede editar el
campo Nombre de usuario de servicio LA.
Tabla 27. Campos de editor de conexión de servidor de DataNode
Campo
Descripción
Nombre de host
Especifique el nombre de host o la dirección
IP del servidor de DataNode.
Contraseña raíz
Especifique la contraseña raíz para el
servidor de DataNode.
Puerto SSH
Especifique el puerto que el servidor de
DataNode utiliza para conectarse a Log
Analysis para conexiones SSH. El valor
predeterminado es 22.
Inicio de servicio LA
Especifique la vía de acceso al directorio
donde se ha desplegado el servicio de Log
Analysis en el servidor de DataNode.
Vía de acceso a página de inicio de Java
Especifique la vía de acceso completa al
directorio en el servidor de DataNode donde
se ha instalado Java.
Nombre de usuario de servicio LA
Nombre de usuario que el servicio Log
Analysis utiliza para conectarse a Log
Analysis para copiar los archivos de
archivado Java necesarios en el servidor de
DataNode. Este campo se rellena
automáticamente con el nombre de usuario
que ha instalado Log Analysis. No puede
cambiar este campo.
Contraseña de usuario de servicio LA
Especifique la contraseña del nombre de
usuario del servicio LA. Si este usuario ya
existe, la contraseña se cambia al valor que
especifica en este campo.
Niveles de datos y almacenamiento
159
Referencia de editor de conexión de servidor de NameNode
Workgroup
SQL
System
System
Standard
AltiVec
Sybase
Studio
Start
DB2
C99
C89
CEP
ALL
IDS
i5
Server
p5
z9
i53
Orchestrator
Cloudscape
Telesales
Fix
Panagon
pSeries
Pack
Documentum
Domino.Doc
Content
Mgr
Professional
Developer
Advanced
Business
WCS
zSeries
WC
xSeries
Oracle
iSeries
B2C
B2B
5.4
5.1
Express
WAS
5.0
Fix
Oracle
Pack
10
21
Enterprise
Utilice el editor de conexión de servidor de NameNode para crear la conexión
entre el servidor de NameNode y Log Analysis. Sólo puede tener una conexión de
nodo de nombre.
Tabla 28. Campos de editor de conexión de servidor de NameNode
160
Campo
Descripción
Hadoop
Seleccione su distribución de Hadoop en la
lista desplegable.
Servidor de nodo de nombre
Especifique el nombre de host o la dirección
IP del servidor donde ha instalado el
servidor de NameNode.
Contraseña raíz de nodo de nombre
Especifique la contraseña raíz para el
servidor de NameNode.
Puerto SSH de nodo de nombre
Especifique el número de puerto utilizado
por el servidor de NameNode para las
conexiones SSH a Log Analysis. El valor
predeterminado es 22.
Puerto de servicio LA
Especifique el número de puerto utilizado
por el servicio de Log Analysis.
Nombre de usuario HDFS
Especifique el nombre de usuario Hadoop.
Ubicación de directorio LA en HDFS
Especifique la vía de acceso al directorio
donde desea almacenar los archivos de Log
Analysis en Hadoop Distributed File System
(HDFS). Por ejemplo /ioala-root.
Vía de acceso de instalación de Hadoop
Especifique la vía de acceso al directorio
donde se ha instalado Hadoop en el servidor
de NameNode.
Fixpack 1 Directorio del archivo de
configuración de Hadoop (solo Huawei
FusionInsight HD)
Especifique la vía de acceso al directorio
donde se encuentra la configuración de
Hadoop. Para obtener más información
sobre la configuración del directorio de
ubicación del archivo, consulte Especificar el
directorio dónde esta ubicado el archivo de
configuración de Huawei FusionInsight HD .
Para habilitar Kerberos, seleccione el
recuadro de selección Habilitar Kerberos.
Para obtener más información acerca de
cómo habilitar Kerberos, consulte
Habilitación de Kerberos.
Fixpack 1
Habilitar Kerberos
Fixpack 1
Principal de usuario de Kerberos Especifique el nombre de usuario y dominio
del principal de Kerberos. Para obtener más
información acerca de cómo especificar el
usuario y el dominio, consulte Especificar el
nombre de usuario y el dominio de
Kerberos.
Fixpack 1
Tabla de claves de Kerberos
Vaya a la tabla de claves de Kerberos. Para
obtener más información acerca de la tabla
de claves de Kerberos, consulte Descargar el
archivo de tabla de claves de Kerberos
IBM Operations Analytics - Log Analysis: Guía de instalación, configuración y administración
Carga y modalidad continua de datos
Para poder llevar a cabo una búsqueda en un registro o en otros datos, primero
debe cargar los datos en IBM Operations Analytics - Log Analysis. Cuando se
carga el archivo, los datos se indexan y quedan disponibles para la búsqueda.
Hay dos escenarios principales para cargar datos:
v Carga por lotes de datos históricos. Por ejemplo, puede que desee ingerir datos
de registros históricos en un solo lote para análisis o para realizar pruebas. Para
obtener más información, consulte “Carga de procesos por lotes de datos” en la
página 163.
v Transmisión de datos desde una aplicación supervisada. Puede que desee cargar
datos que se transfieren desde un servidor local o remoto. Puede utilizar varias
herramientas diferentes para transmitir datos.
Para obtener más información acerca de las herramientas que puede utilizar para
cargar datos, consulte “Herramientas de recopilación de datos”.
Nota: Debe crear un Origen de datos para poder configurar la carga de datos. Para
obtener información acerca de cómo crear un Origen de datos, consulte “Creación
de Origen de datos” en la página 312.
Limitaciones
No se puede utilizar IBM Operations Analytics - Log Analysis para los registros de
índice que contengan caracteres que no sean ASCII. Si los registros de anotaciones
contienen caracteres no ASCII, los registros no se añaden cuando se utiliza el
cliente IBM Tivoli Monitoring Log File Agent o Recopilador de datos. Cuando se
utiliza el cliente de Recopilador de datos, los errores que se relacionan con los
caracteres que no son ASCII se añaden al registro de receptor genérico.
Herramientas de recopilación de datos
Puede cargar datos en lotes o puede transmitir datos desde servidores locales o
remotos. Puede utilizar herramientas diferentes en cada caso.
La tabla siguiente describe un número de casos de ejemplo para ilustrar cómo se
utilizan las distintas herramientas para casos diferentes.
Tabla 29. Escenarios de ejemplo de carga de datos
© Copyright IBM Corp. 2015
Ejemplo
Herramienta
Quiero cargar un lote de datos de registro
histórico para probar el entorno.
Cliente del recopilador de datos
Quiero supervisar una aplicación en un
servidor remoto.
IBM Tivoli Monitoring Log File Agent
Quiero utilizar logstash para supervisar
archivos de registro en un servidor remoto.
logstash
Quiero cargar un lote de datos de registro
histórico en el formato JSON.
Receptor genérico
161
Puede cargar datos de registro en IBM Operations Analytics - Log Analysis
utilizando varios métodos distintos:
Cliente de Recopilador de datos
Utilice el cliente Recopilador de datos para ingerir datos en la modalidad
por lotes. Este es el método más sencillo si desea ingerir un archivo de
registro grande para el análisis histórico si desea probar la configuración
de IBM Operations Analytics - Log Analysis antes de intentar realizar la
configuración más compleja de IBM Tivoli Monitoring Log File Agent. El
cliente de Recopilador de datos no está diseñado para ingerir datos de
orígenes remotos. Si desea ingerir un lote de datos históricos de un origen
remoto, utilice IBM Tivoli Monitoring Log File Agent.
Para obtener más información, consulte “Cliente del recopilador de datos”
en la página 163.
IBM Tivoli Monitoring Log File Agent
Utilice IBM Tivoli Monitoring Log File Agent para los casos en los que
desee transmitir datos de registro desde el entorno de producción o
transmitir datos de un servidor remoto.
Para obtener más información sobre cómo transmitir datos, consulte “Datos
en modalidad continua con IBM Tivoli Monitoring Log File Agent” en la
página 174.
Para obtener más información sobre cómo cargar un lote de datos, consulte
“Carga por lotes de datos históricos con IBM Tivoli Monitoring Log File
Agent” en la página 170 y “Carga de un lote de archivos de registro con el
LFA” en la página 170
logstash
logstash se puede utilizar como método para recopilar y cargar datos en
IBM Operations Analytics - Log Analysis.
Para obtener más información, consulte “Datos en modalidad continua con
logstash” en la página 208.
Receptor genérico
Utilice el receptor genérico para cargar datos desde la interfaz de REST en
IBM Operations Analytics - Log Analysis.
Para obtener más información, consulte “Receptor genérico” en la página
167.
Esto se explica en la tabla Usos previstos de la carga de componentes. IBM Operations
Analytics - Log Analysis se instala con una versión interna de IBM Tivoli
Monitoring Log File Agent. Sin embargo, IBM Operations Analytics - Log Analysis
puede también cargar datos de una instalación aparte de IBM Tivoli Monitoring
Log File Agent, conocida como IBM Tivoli Monitoring Log File Agent externo.
Tabla 30. Usos previstos de las herramientas de carga de datos
Carga por lotes de datos históricos Transmisión de datos
162
Herramienta
Local
Remoto
Local
Remoto
Cliente del
recopilador de
datos
Sí
Sí
No
No
IBM Tivoli
Monitoring Log
File Agent
interno
Sí
Sí
Sí
Sí
IBM Operations Analytics - Log Analysis: Guía de instalación, configuración y administración
Tabla 30. Usos previstos de las herramientas de carga de datos (continuación)
Carga por lotes de datos históricos Transmisión de datos
IBM Tivoli
Monitoring Log
File Agent
externo
Sí
Sí
Sí
Sí
logstash
Sí
Sí
Sí
Sí
Receptor
genérico
Sí
Sí
No
No
Sistemas operativos soportados para la recopilación de datos
Los sistemas operativos soportados para la recopilación de datos difiere en función
de la herramienta que utilice.
Si desea utilizar el cliente del recopilador de datos para cargar un lote de datos, los
sistemas operativos soportados son los mismos que los soportados por Log
Analysis.
Sin embargo, los sistemas operativos soportados pueden variar en función de la
herramienta que utilice para transmitir datos. Para obtener más información,
consulte la tabla Sistemas operativos soportados para transmitir datos.
Tabla 31. Sistemas operativos soportados para transmitir datos
Sistemas operativos
soportados
Escenario
Característica
Utilice el IBM Tivoli
Monitoring Log File Agent
interno para transmitir datos
IBM Tivoli Monitoring Log
File Agent interno
Consulte el tema Requisitos
para el agente de supervisión en
la documentación de IBM
Tivoli Monitoring 6.2.3.1
en:Documentación de Tivoli
Monitoring
Utilice el IBM Tivoli
IBM Tivoli Monitoring Log
Monitoring Log File Agent
File Agent externo
externo para transmitir datos
Consulte el tema Requisitos
para el agente de supervisión en
la documentación de su
versión de IBM Tivoli
Monitoring
en:Documentación de Tivoli
Monitoring
Carga de procesos por lotes de datos
Además de poder canalizar de forma continua los datos directamente, también
puede cargar procesos por lotes de datos históricos para probar o con otros
objetivos.
Cliente del recopilador de datos
Utilice el cliente de recopilador de datos para cargar lotes de datos en Log
Analysis.
Carga y modalidad continua de datos
163
Carga de proceso por lotes de datos de registro histórico con el
cliente de recopilador de datos
Utilice el cliente del Recopilador de datos para ingerir datos en la modalidad por
lotes. Utilice este método para revisar los datos de registro histórico. Este es el
método más sencillo si desea ingerir los archivos de registro de gran tamaño para
el análisis histórico.
Antes de empezar
Si desea utilizar el cliente del recopilador de datos para cargar datos de orígenes
remotos, debe configurar el recopilador de datos en el sistema principal remoto
para poder configurar el recopilador de datos local como se describe aquí. Para
obtener más información, consulte “Configuración del cliente de recopilador de
datos para ingerir datos de hosts remotos” en la página 165.
Acerca de esta tarea
Si desea cargar un archivo de registro que no incluya la información de indicación
de fecha y hora, asegúrese de que los valores de timestamp y timestampFormat
estén configurados en javaDatacollector.properties. IBM Operations Analytics Log Analysis no puede indexar archivos de registro sin una indicación de hora,
pero si no se encuentra información de indicación de hora en un archivo de
registro, se utiliza el valor que se ha configurado en
javaDatacollector.properties.
Procedimiento
Para utilizar el cliente de recopilador de datos para cargar la información del
archivo de registro, efectúe los pasos siguientes:
1. En la página Valores de administración, defina una fuente de archivo de
registro adecuada.
2. En la línea de mandatos, vaya al directorio <HOME>/utilities/datacollectorcliente.
3. Actualice el archivo de configuración que utiliza el cliente de Recopilador de
datos, javaDatacollector.properties. Establezca las propiedades siguientes,
según corresponda:
logFile
La vía de acceso completa del archivo que desee ingerir.
servletURL
El URL del servicio de recopilador de datos.
userid El ID de usuario del servicio de recopilador de datos.
password
La contraseña del servicio de recopilador de datos.
datasource
Origen de datos que desea utilizar para cargar datos.
timestamp
La indicación de fecha y hora que se debe utilizar si no se ha
encontrado una indicación de fecha y hora en el archivo de registro.
batchsize
Número de BYTES de los registros enviados en un lote. El valor por
omisión es 500.000.
164
IBM Operations Analytics - Log Analysis: Guía de instalación, configuración y administración
keystore
La vía de acceso completa del archivo del almacén de claves.
inputType
Los tipos de entrada válidos son: LOGS, CONFIGFILES, SUPPORTDOCS. El
valor predeterminado es LOGS.
flush flag
Si se ha establecido el valor predeterminado tgrue, el cliente envía una
señal de vaciado para el receptor genérico del último lote del archivo.
Si se establece en false, no se envía ninguna señal de vaciado cuando
se alcanza el final del archivo.
El siguiente archivo javaDatacollector.properties de ejemplo muestra la
configuración para cargar el archivo de registro SystemOut.log.
#Full path of the file you want to read and upload to Unity
logFile = SystemOut.log
#The URL of the REST service. Update the host/port information if required
servletURL = https://hostname:9987/Unity/DataCollector
#The user ID to use to access the unity rest service
userid=unityuser
#The password to use to access the unity rest service
password=password
datasource=Systemout
#Time stamp to use if your content can not find a time stamp in log record.
The same time stamp would be used for all records
timestamp = 01/16/2013 17:27:23:964 GMT+05:30
#The number of BYTES of logs sent in one batch to Unity
batchsize = 500000
#The full path to the keystore file
keystore = /home/unity/IBM/LogAnalysisTest/wlp/usr/servers/Unity/
keystore/unity.ks
#input data type - LOGS, CONFIGFILES, SUPPORTDOCS
inputType = LOGS
#flush flag:
#true : (default) if the client should send a flush signal to the Generic
Receiver for the last batch of this file
#false : if no flush signal to be sent upon reaching eod-of-file
flushflag = true
#Other properties (name/value pairs, e.g. middleware = WAS) that you want
to add to all json records
#These properties need to be appropriately added to the index configuration
4. Asegúrese de que el archivo JAR del cliente del Recopilador de datos,
datacollector-client.jar, tenga permisos de ejecución.
5. Utilice el mandato siguiente para ejecutar el cliente de recopilador de datos con
las entradas correctas:
<HOME>/ibm-java/bin/java
-jar datacollector-client.jar
Resultados
Cuando la tarea se haya completado, el archivo de registro se indexa y se puede
buscar en el espacio de trabajo Búsqueda.
Configuración del cliente de recopilador de datos para ingerir
datos de hosts remotos
Si desea utilizar el cliente de recopilador de datos para recopilar datos de un
servidor remoto y devolverlos a la máquina local, debe configurar el recopilador
de datos en el host remoto.
Carga y modalidad continua de datos
165
Antes de empezar
Debe utilizar la instancia de IBM Java™ Runtime Engine (JRE) 1.8 instalada por el
instalador remoto. Antes de configurar el recopilador de datos debe utilizar el
instalador remoto para instalar al menos una instancia de IBM Tivoli Monitoring
Log File Agent o el receptor EIF en una máquina remota. Para más información,
consulte el tema Configuración de la recopilación de datos para la escalabilidad en varios
nodos remotos de la Guía de instalación.
Acerca de esta tarea
Para configurar el recopilador de datos en el host remoto, copie los archivos de
cliente de recopilador de datos de la versión local de los archivos del recopilador
de datos en el host remoto.
Procedimiento
1. Copie el directorio <HOME>/utilities/datacollector-client y todos los
archivos que contiene desde la instalación local de IBM Operations Analytics Log Analysis a la máquina remota.
2. Añada la ubicación de los archivos de registro y de almacén de claves del
archivo javaDatacollector.properties en el directorio en el que haya copiado
el recopilador de datos en el paso anterior. El archivo de almacén de claves se
denomina unity.ks y está disponible en el directorio <Remote_install_dir>/
LogAnalysis/store/ en la máquina remota. Donde <Remote_install_dir> es el
directorio donde se ha instalado la instancia remota, tal como se describe aquí
en la sección Requisitos previos.
Resultados
Tras finalizar la configuración debe completar la configuración del recopilador de
datos. Para obtener más información sobre cómo hacerlo, consulte “Carga de
proceso por lotes de datos de registro histórico con el cliente de recopilador de
datos” en la página 164. Debe asegurarse de que la instalación remota utilice el
IBM Java Runtime Engine (JRE) 1.8 que instala el instalador remoto. IBM Java
Runtime Engine (JRE) 1.8 se almacena en el directorio <Remote_install_dir>/
LogAnalysis/ibm-java/.
Propiedades del recopilador de datos
Para poder utilizar el recopilador de datos para transmitir datos o cargar un lote
de datos históricos, edite el archivo javaDatacollector.props.
El archivo javaDatacollector.props se encuentra en la carpeta
<HOME>/IBM/LogAnalysis/utilitiesdatacollector de cliente.
Los parámetros logFile, hostname, logpath y keystore son obligatorios.
Los parámetros userid, password y keystore se completan automáticamente con los
valores predeterminados creados durante la instalación. Si lo desea puede
modificarlos, pero no es necesario hacerlo.
Tabla 32. Propiedades del recopilador de datos
166
Parámetro
Valor
logFile
La vía de acceso completa del archivo que
desea cargar.
servletURL
El URL del servicio de recopilador de datos.
IBM Operations Analytics - Log Analysis: Guía de instalación, configuración y administración
Tabla 32. Propiedades del recopilador de datos (continuación)
Parámetro
Valor
userid
El ID de usuario del servicio de recopilador
de datos.
password
La contraseña del servicio de recopilador de
datos.
datasource
Origen de datos que desea utilizar para
cargar datos.
timestamp
La indicación de fecha y hora que se debe
utilizar si no se ha encontrado una
indicación de fecha y hora en el archivo de
registro.
batchsize
Número de BYTES de los registros enviados
en un lote. El valor por omisión es 500.000.
keystore
La vía de acceso completa del archivo del
almacén de claves.
inputType
El tipo de entrada válido es LOGS.
flush flag
Si se ha establecido el valor predeterminado
true, el cliente envía una señal de vaciado
para el receptor genérico del último lote del
archivo. Si se establece en false cuando se
alcanza el fin del archivo no se envía
ninguna señal de vaciado.
Receptor genérico
El receptor genérico es un componente de IBM Operations Analytics - Log Analysis
que admite la interfaz REST para cargar datos en IBM Operations Analytics - Log
Analysis. La API REST utiliza JSON (JavaScript Object Notation) como entrada y
devuelve JSON como salida después de procesar los registros de entrada. Si se
produce un error, la API devuelve un código de error y un mensaje.
Procesamiento de un lote
Invocar la API de receptor genérico inicia el proceso de un lote que se encuentra
en la entrada JSON. Almacene en la memoria intermedia un conjunto de registros
de anotaciones para crear un lote y enviar datos en lotes a IBM Operations
Analytics - Log Analysis. Los procesos por lotes deben enviarse en el orden en el
que los registros se generan para un origen de datos específico. El tamaño de cada
lote debe ser menor que el tamaño de lote (500000 bytes) soportado por IBM
Operations Analytics - Log Analysis. En el valor mínimo, puede enviar datos para
un solo registro de anotaciones en un lote. El receptor de Generic procesa un lote
así:
v Divide el lote en varios registros de anotaciones utilizando el separador indicado
durante la creación de SourceType desde la IU de administración
correspondiente al origen de datos.
v Anota cada registro de anotaciones que encuentra el separador usando el
anotador indicado durante la creación de SourceType desde la IU de
administración correspondiente al origen de datos.
v Indexa el registro de anotaciones anotado en el motor de búsqueda back-end
Carga y modalidad continua de datos
167
En casos especiales, los pasos divididos y anotados se omiten si el separador o el
anotador se especifica como nulo en el SourceType. Incluso si no hay datos que
dividir, necesita enviar una cadena vacía en el campo de texto del JSON de
entrada.
El proceso por lotes de los datos en el cliente puede provocar un registro de
anotaciones incompleto al final del proceso por lotes. Este registro de anotaciones
incompleto se almacena en almacenamiento intermedio en IBM Operations
Analytics - Log Analysis y se une con los datos restantes en el lote posterior para
formar un registro de anotaciones completo. En esta unión se presupone que se
mantiene el orden del registro de anotaciones de los datos que se envían a IBM
Operations Analytics - Log Analysis. Si no se mantiene el orden, los registros no se
dividen correctamente en registros de anotaciones.
JSON de entrada
La estructura básica de un archivo JSON de entrada es esta:
{
"hostname": ,
(String)
"logpath":" , (String)
"batchsize": , (String)
"inputType":
// Optional (String) "LOGS";
"flush":
// Optional (boolean)
"payload": // (JSONObject)
{
"name1":"value1",
// Optional
...
...
"nameN":"valueN" ,
// Optional
text : "log record 1 log record 2 ..." (String)
}
}
Los parámetros siguientes en el JSON de entrada son obligatorios:
hostname
El nombre de host que corresponde al origen de datos para el que desea
ingerir datos.
logpath
La vía de acceso de registro que corresponde al origen de datos para el que
desea ingerir datos.
batchsize
Número de BYTES de los registros enviados en un lote de IBM Operations
Analytics - Log Analysis (menos de 500.000).
inputType
El tipo de datos de entrada: LOGS.
flush flag
Un distintivo que indica al receptor genérico si el último registro en el
proceso por lotes es un registro de anotaciones completo. Normalmente,
este distintivo se establece en true en el último lote después de llegar al
final del archivo.
payload.txt
Este texto contiene los registros reales que se van a dividir, anotar e
indexar en IBM Operations Analytics - Log Analysis. La parte de texto son
divididos en registros de anotaciones por el separador, anotados por el
anotador y, a continuación, indexados. Si no tiene ningún registro, pero
desea indexar sólo datos estructurados (pares nombre-valor), puede
especificar este campo obligatorio como una serie vacía.
168
IBM Operations Analytics - Log Analysis: Guía de instalación, configuración y administración
Los metadatos adicionales (opcionales) que se vayan a indexar con cada registro de
anotaciones del lote se pueden especificar como pares de nombre-valor en el JSON
de entrada o la carga útil dentro del JSON de entrada. Estos metadatos son
aplicables al nivel del proceso por lotes. Para publicar metadatos diferenciados
para cada registro, envíe 1 registro de anotaciones cada vez en el proceso por lotes.
Envíe el JSON de entrada en el URL siguiente:
http://<UNITY_HOST_NAME>:<UNITY_PORT>/Unity/DataCollector
donde <UNITY_HOST_NAME> es la máquina en la que se ha instalado IBM Operations
Analytics - Log Analysis, y <UNITY_PORT> es el puerto en el que se está ejecutando.
El puerto predeterminado es 9988. El cliente (Java o script) que envía datos a IBM
Operations Analytics - Log Analysis necesita autenticarse utilizando el mecanismo
basado en formularios que se implementa en IBM Operations Analytics - Log
Analysis antes de que se invoque la API de Recopilador de datos. Consulte el
documento de diseño de autenticación y seguridad para obtener más detalles.
JSON de salida
La salida enviada por el receptor genérico después de indexar los registros
contiene el recuento y la información detallada sobre los casos de anomalía en una
matriz JSON. Los detalles incluyen el logRecord concreto, el mensaje de error
específico y las excepciones. La estructura básica de un archivo JSON de salida es
esta:
{
"batchSize" : ,
// (int)
"numFailures" : , // (int)
"failures" :
// (JSONArray)
[
{
"logRecord" : , // (JSONObject)
"errorMessage": , // (String)
"exception" : , // (JSONArray)
},
.
.
.
{
}
]
}
Capacidad de servicio
Al enviar datos a IBM Operations Analytics - Log Analysis, es posible que
encuentre errores que se producen antes de que el proceso por lotes entrante se
procese, o bien errores que se producen durante el proceso de lotes y la indexación
de registros de anotaciones.
Si se producen errores antes de que se procese el lote de entrada, el receptor
genérico devuelve un código de error y un mensaje. Para corregir el problema,
procese el código de error, efectúe los cambios que necesite y vuelva a enviar los
datos.
Las posibles causas del código de error 400
(HttpServletResponse.SC_BAD_REQUEST) incluyen:
v JSON de entrada no válido
Carga y modalidad continua de datos
169
v El tamaño de lote de entrada es mayor que el que se soporta (500000 bytes)
v No hay ningún origen de datos configurado desde la interfaz de usuario de
administración para el nombre de host y la combinación de vía de acceso de
registro que se envía en el JSON de entrada
v El tipo de entrada (LOGS) especificado en el proceso por lotes no coincide con el
valor que se especifica en el logsource que se ha configurado desde la interfaz
de usuario de administración
Las posibles causas del código de error 500
(HttpServletResponse.SC_INTERNAL_SERVER_ERROR) incluyen:
v Una excepción que se encuentre en cualquiera de los pasos del conducto de
ingestión (por ejemplo, durante la división de un proceso por lotes).
v Un error relacionado con la base de datos interna de IBM Operations Analytics Log Analysis.
v Cualquier otra excepción en IBM Operations Analytics - Log Analysis.
Si se producen errores durante el proceso de lotes y la indexación de los registros
de anotaciones, el JSON de salida proporciona detalles sobre el fallo de indexación.
Para corregir el problema, procese el código de error, efectúe los cambios que
necesite y vuelva a enviar solo los registros de anotaciones afectados. Enviar el
mismo registro de anotaciones a IBM Operations Analytics - Log Analysis provoca
registros duplicados en el índice back-end y los registros duplicados en los
resultados de la búsqueda.
Carga por lotes de datos históricos con IBM Tivoli Monitoring
Log File Agent
Puede utilizar el IBM Tivoli Monitoring Log File Agent para cargar lotes de datos
históricos para realizar pruebas y otros fines.
Procedimiento
1. Copie los archivos de anotaciones cronológicas que desee cargar en un
directorio temporal en el servidor de IBM Operations Analytics - Log Analysis.
Por ejemplo, para cargar un lote de archivos de registro de una instalación de
WebSphere Application Server, copie el archivo SampleSystemOut.log en el
directorio /tmp/logs/.
2. Cree un origen de datos personalizados.
3. Copie el archivo de registro en el directorio que haya especificado en el
parámetro logpath al crear el origen de datos.
Carga de un lote de archivos de registro con el LFA
Utilice este ejemplo como ayuda para saber utilizar el LFA para cargar un lote de
archivos de registro.
Antes de empezar
Tenga en cuenta el tamaño de los archivos de registro que desee cargar. Si un
archivo de registro está en el ámbito de un tamaño de 50 MB o más, aumente el
tamaño de la memoria caché del agente del archivo de registro. En el archivo de
configuración adecuado, establezca BufEvtMaxSize=102400. Para los archivos de
registro de WAS, actualice el <HOME>/IBM/LogAnalysis/IBM-LFA-6.30/config/lo/
WASInsightPack-lfawas.conf. Para los archivos de registro de DB2, actualice el
<HOME>/IBM/LogAnalysis/IBM-LFA-6.30/config/lo/DB2InsightPack-lfadb2.conf.
170
IBM Operations Analytics - Log Analysis: Guía de instalación, configuración y administración
Debe suprimir el archivo de caché existente adecuado. Para los archivos de registro
WAS, suprima <HOME>/IBM/LogAnalysis/logs/lfa-WASInsightPack.cache y para los
archivos de registro DB2, suprima <HOME>/IBM/LogAnalysis/logs/lfaDB2InsightPack.cache
Para archivos de registro muy grandes, actualice el tamaño de la memoria caché
del receptor EIF. En el archivo <HOME>/IBM/LogAnalysis/UnityEIFReceiver/config/
eif.conf, aumente el valor de la propiedad BufEvtMaxSize.
Las líneas en un registro que tengan más de 4096 caracteres son, de forma
predeterminada, omitidas por el LFA. Para forzar a leer las líneas que tengan más
de 4096 caracteres, añada la propiedad EventMaxSize=<length_of_longest_line> al
archivo .conf que se utilizará al cargar el registro.
Para WAS actualice el archivo $UNITY_HOME/IBM-LFA-6.30/config/lo/
WASInsightPack-lfawas.conf. Archivo $UNITY_HOME/IBM-LFA-6.30/config/lo/
DB2InsightPack-lfadb2.conf de actualización de DB2.
Si realiza algún cambio en la configuración, debe reiniciar el servicio para que los
cambios entren en vigor. Para reiniciar el servicio ejecute desde el directorio
<HOME>/IBM/LogAnalysis/utilities los mandatos siguientes:
v <HOME>/IBM/LogAnalysis/utilities/unity.sh -stop
v <HOME>/IBM/LogAnalysis/utilities/unity.sh -start
Acerca de esta tarea
El LFA puede estar en el mismo servidor que IBM Operations Analytics - Log
Analysis y supervisando un directorio local. En este escenario, la instalación de
IBM Operations Analytics - Log Analysis realiza toda la configuración necesaria.
Si el LFA está en el mismo servidor que IBM Operations Analytics - Log Analysis,
pero supervisa directorios remotos, se necesitará una configuración adicional. Si
desea supervisar archivos de registro en servidores remotos, debe realizar algunos
cambios en los valores específicos. Para obtener más información sobre estos
ajustes específicos, consulte el tema Configuración remoto de supervisión que utiliza los
archivos de configuración predefinidos de Configuración de IBM Tivoli Log File Agent en
la sección Ampliación de IBM Operations Analytics - Log Analysis.
Si la configuración lo requiere, puede utilizar un LFA remoto. En este escenario,
instale y configure el LFA basándose en sus requisitos. Para obtener más
información, consulte la documentación de IBM Tivoli Monitoring:
http://www-01.ibm.com/support/knowledgecenter/SSTFXA_6.3.0/
com.ibm.itm.doc_6.3/welcome.htm
Procedimiento
Para usar el agente de archivos de registro para cargar información de registro,
complete estos pasos:
1. En la página Valores de administración, defina una fuente de archivo de
registro adecuada.
2. Asegúrese de que el archivo de registro que desea añadir se encuentre en el
directorio adecuado. Para los registros de WAS, coloque el archivo de registros
en el directorio siguiente:
<HOME>/IBM/LogAnalysis/logsources/WASInsightPack
Carga y modalidad continua de datos
171
Para los registros de DB2, coloque el archivo de registros en el directorio
siguiente:
<HOME>/IBM/LogAnalysis/logsources/DB2InsightPack
Para los archivos de registro del anotador genérico, coloque el archivo de
registros en el directorio siguiente:
$UNITY_HOME/logsources/GAInsightPack
El archivo de registro se toma y analiza automáticamente. Según el tamaño del
archivo de registro, el proceso podría tardar algún tiempo.
3. Opcional: Para supervisar el progreso, compruebe los siguientes archivos de
registro:
v <HOME>/IBM/LogAnalysis/logs/GenericReceiver.log
v <HOME>/IBM/LogAnalysis/logs/UnityEifReceiver.log
Cuando se utiliza LFA para realizar la recopilación de datos, supervise los
archivos de registro UnityEIFReceiver.log y GenericReceiver.log ubicados en
el directorio $UNITY_HOME/logs para asegurarse de que la ingestión de datos se
haya completado correctamente.
Este ejemplo ilustra la adición de un lote de registros de anotaciones. El
resultado se indica en la sección MENSAJE DE RESPUESTA del archivo de registro:
~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~
2013-04-20 04:43:10,032 [pool-5-thread-1] INFO - LogEventPoster : Posting Event to UNITY DATA COLLECTOR https://nc9118041070:9987/Unity/DataCollector
2013-04-20 04:43:24,273 [pool-5-thread-1] INFO - LogEventPoster :
+++++++++ RESPONSE MESSAGE +++++++++
2013-04-20 04:43:24,273 [pool-5-thread-1] INFO - LogEventPoster : OK
2013-04-20 04:43:24,273 [pool-5-thread-1] INFO - LogEventPoster :
{
"batchSize": 2078,
"failures": [
],
"numFailures": 0 }
2013-04-20 04:43:24,273 [pool-5-thread-1] INFO - LogEventPoster :
++++++++++++++++++++++++++++++++++++
2013-04-2 04:43:24,273 [pool-5-thread-1] INFO - LogEventPoster :
EIF event delivery to Generic Receiver -- SUCCESS
~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~
En este registro, el número de registros de anotaciones procesados se indica en
la línea:
{
"batchSize": 2078,
"failures": [
],
"numFailures": 0 }
Se han ingerido correctamente 2078 registros de anotaciones. El valor
numFailures indica el número de errores en la ingestión del registro de
anotaciones. Por ejemplo, un valor de 5 para el valor de numFailures indica que
hay 5 registros que no se han ingerido.
Cuando se ha completado la recopilación de datos, si se rellena parcialmente la
memoria intermedia de datos del receptor EIF, los registros de anotaciones
restantes se envían al Receptor genérico. Esto se graba en el registro como un
suceso TIMEOUT FLUSH. Estos sucesos se añaden al archivo de registro al final de
la sesión de recopilación de datos:
~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~
2013-04-20 04:54:26,341 [pool-4-thread-1] INFO - LogEventService :
TIMEOUT FLUSH for logsource:nc9118041070::
/home/example/LogAnalytics/logsources/
WASInsightPack/TipTrace5.log
2013-04-20 04:54:26,359 [pool-5-thread-1] INFO - LogEventPoster : --Posting Event to UNITY DATA COLLECTOR https://nc9118041070:9987/Unity/DataCollector
172
IBM Operations Analytics - Log Analysis: Guía de instalación, configuración y administración
2013-04-20 04:54:38,581 [pool-5-thread-1] INFO - LogEventPoster :
+++++++++ RESPONSE MESSAGE +++++++++
2013-04-20 04:54:38,582 [pool-5-thread-1] INFO - LogEventPoster : OK
2013-04-20 04:54:38,582 [pool-5-thread-1] INFO - LogEventPoster :
{
"batchSize": 1714,
"failures": [
],
"numFailures": 0 }
2013-04-20 04:54:38,582 [pool-5-thread-1] INFO - LogEventPoster :
++++++++++++++++++++++++++++++++++++
2013-04-20 04:54:38,582 [pool-5-thread-1] INFO - LogEventPoster :
EIF event delivery to Generic Receiver -- SUCCESS
2013-04-20 04:54:38,583 [pool-4-thread-1] INFO - LogEventService :
POST RESULT:
{"failures":[],"batchSize":1714,"numFailures":0}
~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~
Para calcular el número de sucesos que se han procesado, calcule la suma de
todos los valores de batchSize. Para calcular el número de sucesos ingerido,
calcule la suma de todos los valores de batchSize y reste la suma total de los
valores de numFailure.
Si la ingestión falla, se registra un mensaje de error en UnityEIFReceiver.log:
2013-05-16 02:16:11,184 [pool-7-thread-1] INFO - LogEventPoster
+++++++++ RESPONSE MESSAGE +++++++++
2013-05-16 02:16:11,184 [pool-7-thread-1] INFO - LogEventPoster
2013-05-16 02:16:11,184 [pool-7-thread-1] INFO - LogEventPoster
{"BATCH_STATUS":"NONE","RESPONSE_MESSAGE":
"CTGLA0401E : Missing log source ","RESPONSE_CODE":404}
2013-05-16 02:16:11,184 [pool-7-thread-1] INFO - LogEventPoster
++++++++++++++++++++++++++++++++++++
2013-05-16 02:16:11,184 [pool-7-thread-1] INFO - LogEventPoster
FAILURE - ResponseCode:404 ResponseMessage:Not Found
:
: Not Found
:
:
:
Otros códigos de respuesta HTTP son estos:
413
Entidad de solicitud demasiado grande: aparece si un tamaño de lote es
mayor que el valor predeterminado de receptor genérico establecido en
$UNITY_HOME/wlp/usr/servers/Unity/apps/Unity.war/WEB-INF/
unitysetup.properties.
500
Error de servidor interno: Se visualiza cuando hay algún problema con
IBM Operations Analytics - Log Analysis, como un error de la base de
datos o cualquier otro error de ejecución.
404
No se ha encontrado: Se visualiza cuando no se ha encontrado un
origen de registro para una combinación de nombre de host y vía de
acceso del registro en la solicitud.
409
Conflicto: Se visualiza si se publica el lote de datos para un origen de
registro que se encuentre en un estado inactivo o si hay un conflicto
entre los datos publicados y los datos que espera el servidor. Por
ejemplo, el campo inputType de la solicitud JSON no coincide con el
campo inputType en la recopilación para la combinación solicitada de
nombre de host y vía de acceso del archivo de registro.
200
Correcto: Se visualiza cuando la solicitud es procesada por el servidor.
El estado del lote de registros procesado se devuelve con el número
total de registros ingerido, el número de registros que no están
presentes y de los que han fallado.
400
Solicitud incorrecta: Se visualiza cuando la petición JSON no contiene
los campos necesarios esperados por el receptor genérico o cuando el
JSON no está formado correctamente.
Carga y modalidad continua de datos
173
Resultados
Cuando la tarea se haya completado, el archivo de registro se indexa y se puede
buscar usando el campo Búsqueda en el panel de control de IBM Operations
Analytics - Log Analysis.
Datos en modalidad continua con IBM Tivoli Monitoring Log File Agent
Para transmitir datos a Log Analysis, puede configurar y utilizar el IBM Tivoli
Monitoring Log File Agent (LFA) interno que se instala durante la instalación de
Log Analysis o puede configurar un LFA externo.
Para obtener más información sobre cómo configurar ambos tipos de LFA en los
datos en modalidad continua, consulte “Configuración de LFA” en la página 175.
Si utiliza un LFA interno, puede utilizar el programa de utilidad de instalación
remota para instalar una instancia de LFA en un servidor remoto. El programa de
utilidad también permite configurar la autenticación de Secure Shell (SSH). Para
obtener más información, consulte “Modalidad continua de datos de varios
orígenes remotos a través de una red” en la página 203.
También puede utilizar otras versiones de IBM Tivoli Monitoring Log File Agent
para transmitir datos desde los sistemas operativos Windows o AIX. Se hace
referencia a esto como un LFA externo. Para obtener más información, consulte
“Escenarios de configuración de IBM Tivoli Monitoring Log File Agent” en la
página 176.
Si desea agrupar una colección explícita de configuraciones, también puede crear
subnodos. Para obtener más información, consulte “Configuración de subnodos de
LFA” en la página 188
Consideraciones al utilizar el LFA
Antes de utilizar el LFA, lea este tema para conocer algunos puntos importantes y
limitaciones a tener en cuenta.
Tamaño del archivo de registro
Si es probable que sus archivos de registro superen los 50 MB, aumente el tamaño
de la memoria caché del LFA: En el archivo de configuración adecuado, establezca
BufEvtMaxSize=102400. Para los archivos de registro de WAS, actualice el
<HOME>/IBM/LogAnalysis/IBM-LFA-6.30/config/lo/WASInsightPack-lfawas.conf.
Para los archivos de registro de DB2, actualice el <HOME>/IBM/LogAnalysis/IBMLFA-6.30/config/lo/DB2InsightPack-lfadb2.conf.
Debe suprimir el archivo de caché existente adecuado. Para los archivos de registro
WAS, suprima <HOME>/IBM/LogAnalysis/logs/lfa-WASInsightPack.cache y para los
archivos de registro DB2, suprima <HOME>/IBM/LogAnalysis/logs/lfaDB2InsightPack.cache
Para archivos de registro muy grandes, actualice el tamaño de la memoria caché
del receptor EIF. En el archivo <HOME>/IBM/LogAnalysis/UnityEIFReceiver/config/
eif.conf, aumente el valor de la propiedad BufEvtMaxSize.
174
IBM Operations Analytics - Log Analysis: Guía de instalación, configuración y administración
Para WAS, actualice el archivo <HOME>/IBM-LFA-6.30/config/lo/WASInsightPacklfawas.conf. Archivo <HOME>/IBM-LFA-6.30/config/lo/DB2InsightPacklfadb2.conf de actualización de DB2.
Si realiza algún cambio en la configuración, debe reiniciar el servicio para que los
cambios entren en vigor. Para reiniciar el servicio ejecute desde el directorio
<HOME>/IBM/LogAnalysis/utilities los mandatos siguientes:
v unity.sh -stop
v unity.sh -start
Longitud máxima de la línea de registro
El LFA supervisa cada línea del archivo de registro. La longitud de línea máxima
predeterminada que pueden ser procesada por el LFA es 4096 bytes. Esto equivale
a 4096 caracteres ASCII. Esta limitación está relacionada con la línea de registro y
no el registro de anotaciones. Si un registro consta de varias líneas de registro,
como en el caso de un rastreo de pila, el límite se aplica a cada línea. Esta es una
limitación del LFA y no se aplica si se utiliza un mecanismo de recopilación de
datos alternativo.
Implicaciones de rendimiento de la utilización del LFA
Cargar registros utilizando el LFA es un proceso que carga la CPU. Si su sistema
no cumple con los requisitos mínimos deberá aumentar el valor de
MaxEventQueueDepth. En algunos sistemas, modificar este valor puede producir un
impacto notable en el rendimiento. Esto almacenará en la memoria intermedia
sucesos de LFA adicionales mientras están a la espera de ser procesados. El valor
necesario para MaxEventQueueDepth puede variar en función del tamaño del registro
implementado y el número/la velocidad de las CPU. Si decide no aumentar este
valor, es posible que los sucesos más antiguos se sustituyan en la cola de sucesos
con nuevos sucesos y que no se envíen al servidor Log Analysis.
Para minimizar la posibilidad de pérdidas de datos debidas a atascos de la CPU, y
para reducir la latencia entre cuando un registro de anotaciones se graba en el
archivo y cuando se carga, recomendamos que el tamaño máximo de un registro
sea suficientemente más pequeño como para que el sistema no se quede atrás al
procesar los registros.
Configuración de LFA
Para poder transferir datos continuos a Log Analysis, primero debe configurar
LFA.
Puede transferir los datos continuos de forma local, es decir, desde un LFA en la
misma máquina que Log Analysis o puede transferir los datos continuos de forma
remota.
Si ha instalado LFA al mismo tiempo que IBM Tivoli Monitoring Log File Agent,
está utilizando un LFA interno.Si ha instalado LFA antes que IBM Tivoli
Monitoring Log File Agent, está utilizando un LFA externo. Para obtener más
información sobre la instalación del LFA interno, consulte “Instalación y
configuración de IBM Tivoli Monitoring Log File Agent” en la página 21.
Para transmitir datos con un LFA, siga estos pasos:
Carga y modalidad continua de datos
175
1. Revise los posibles escenarios de carga de datos y decida si desea utilizar un
LFA interno o externo. Para obtener más información, consulte “Escenarios de
configuración de IBM Tivoli Monitoring Log File Agent”.
2. Configure el archivo de configuración, el archivo de formato y el origen de
datos que sean necesarios. Los parámetros necesarios para el archivo de
configuración son diferentes para los LFA internos y externos. Para obtener más
información, consulte “Habilitación de LFA” en la página 180.
3. Despliegue el LFA. Para obtener más información, consulte “Configuración y
despliegue de LFA en la línea de mandatos” en la página 187.
Escenarios de configuración de IBM Tivoli Monitoring Log File
Agent
Puede utilizar el IBM Tivoli Monitoring Log File Agent interno que instalado con
IBM Operations Analytics - Log Analysis o puede utilizar el IBM Tivoli Monitoring
Log File Agent externo para transmitir datos de servidores locales o remotos.
También puede utilizar el IBM Tivoli Monitoring Log File Agent para cargar un
lote de datos históricos. Para obtener más información, consulte “Carga por lotes
de datos históricos con IBM Tivoli Monitoring Log File Agent” en la página 170.
Puede integrar el IBM Tivoli Monitoring Log File Agent con IBM Operations
Analytics - Log Analysis de dos maneras.
Puede utilizarlo con la versión del IBM Tivoli Monitoring Log File Agent que se
haya instalado con IBM Operations Analytics - Log Analysis. Esto se conoce como
IBM Tivoli Monitoring Log File Agent interno.
También puede utilizarlo con un IBM Tivoli Monitoring Log File Agent que se
haya instalado por separado como parte de otra instalación.
Puede utilizar versiones locales y remotas de ambos tipos de IBM Tivoli
Monitoring Log File Agent.
El gráfico siguiente ilustra estas posibilidades:
176
IBM Operations Analytics - Log Analysis: Guía de instalación, configuración y administración
Servidor de IBM Operations Analytics
- Log Analysis
IBM WebSphere Application Server - perfil Liberty
Servidor
remoto 1
Web Application
IBM Tivoli
Log File
Agent
externo
Interfaz de
Usuario
Tiempo de ejecución
de búsqueda
Servidor
remoto 3
Componente
de interfaz de
usuario RAVE
Nodo
de motor
de
indexación
remoto
4
Nodo de receptor
EIF remoto
Receptor genérico
Receptor EIF
Servidor
remoto 2
IBM Tivoli
Log File
Agent
externo
2
3
IBM Tivoli Log File
Agent interno
IBM Tivoli Log File
Agent externo
1
En el gráfico se ilustran los siguientes escenarios posibles:
1. IBM Tivoli Monitoring Log File Agent interno en un servidor local
En este escenario se utiliza la versión del IBM Tivoli Monitoring Log File
Agent que se instala con IBM Operations Analytics - Log Analysis para
cargar datos desde la instalación local de IBM Tivoli Monitoring en IBM
Operations Analytics - Log Analysis.
2. IBM Tivoli Monitoring Log File Agent interna en un servidor local
En este escenario, se utiliza una versión de IBM Tivoli Monitoring Log File
Agent que no se ha instalado con IBM Operations Analytics - Log Analysis,
pero que se ha instalado en el mismo servidor que IBM Operations
Analytics - Log Analysis.
3. IBM Tivoli Monitoring Log File Agent externo en un servidor remoto
En este escenario se una instalación de un IBM Tivoli Monitoring Log File
Agent externo para llevar datos a IBM Tivoli Monitoring Log File Agent.
Para facilitar esta integración, puede modificar las propiedades de IBM
Tivoli Monitoring Log File Agent.
4. Instancia remota del IBM Tivoli Monitoring Log File Agent interior
En este escenario se utiliza una herramienta instaladora remota para
instalar una instancia remota del IBM Tivoli Monitoring Log File Agent
interno.
La tabla siguiente resume las configuraciones diferentes necesarias para los
escenarios.
Tabla 33. Configuración para escenarios de transmisión de datos
Tipo de IBM Tivoli
Escenario de
Monitoring Log File
transmisión de datos Agent
Ubicación del
archivo de registro
Parámetros
necesarios del
archivo .conf
1
Local
Datasources
Interno y local
Carga y modalidad continua de datos
177
Tabla 33. Configuración para escenarios de transmisión de datos (continuación)
Tipo de IBM Tivoli
Escenario de
Monitoring Log File
transmisión de datos Agent
Ubicación del
archivo de registro
Parámetros
necesarios del
archivo .conf
2
Interno y remoto. El
instalador remoto se
utiliza para crear la
instancia remota.
Remoto
Datasources,
ServerLocation,
ServerPort,
BufEvtMaxSize.
3
Local y externo
Local
Datasources
4
Remoto y externo
Remoto
Datasources,
SshAuthType,
SshHostList,
SshPassword, SshPort,
SshPrivKeyfile,
SshPubKeyfile,
SshUserid.
Archivos de formato y configuración de LFA
Si utiliza una LFA interno o externo, puede editar los archivos de configuración y
propiedades para adaptarlos a su instalación específica.
La configuración de LFA para un origen de datos concreto se define en los archivos
siguientes:
v Un archivo <name>.conf que contiene las propiedades que son utilizadas por
LFA para procesar los archivos de registro.
v Un archivo <name>.fmt que contiene una expresión y el formato que el agente
utiliza para identificar los registros coincidentes del archivo de registro y para
identificar las propiedades que se deben incluir en el registro Event Integration
Format (EIF). El EIF se envía del agente al servidor receptor. El servidor receptor
es el servidor en el que está instalado el servidor de Log Analysis. El archivo
<name>.fmt utiliza una expresión regular para determinar los registros
coincidentes en el archivo de registro y para enviar cada registro coincidente al
servidor de LFA en un suceso EIF.
Si desea utilizar el LFA para enviar los archivos de registro al servidor LFA, debe
personalizar la expresión regular y definir su propia stanza en el archivo
<nombre>.fmt para capturar los registros de anotaciones que se deben enviar. El
formato de registro de sucesos debe incluir el nombre de host, el nombre de
archivo, la vía de acceso del registro y el mensaje de texto. El servidor LFA utiliza
estos valores para procesar los registros. Para obtener más información sobre IBM
Tivoli 6.3 Log File Agent y los archivos y la propiedades de configuración, consulte
Tivoli Log File Agent - Guía del usuario.
Los nombres de archivo deben ser idénticos para ambos archivos. Por ejemplo,
WASContentPack_v1.1.0-lfawas.conf y WASContentPack_v1.1.0-lfawas.fmt.
Después de modificar los archivos de configuración como sea necesario, utilice
LFA para cargar los datos en LFA. Para obtener una descripción general sobre
cómo hacerlo, consulte “Carga de un lote de archivos de registro con el LFA” en la
página 170
Si utiliza una instancia externa del LFA para cargar datos en el servidor de Log
Analysis, debe instalar los archivos de configuración en el agente. Esta
configuración asegura que el agente sabe dónde se encuentran los archivos de
178
IBM Operations Analytics - Log Analysis: Guía de instalación, configuración y administración
registro para un origen de datos, cómo procesar los registros en el archivo de
registro y a qué servidor se envían los registros.
Requisitos
Asegúrese de que los archivos de configuración y de formato que crea o modifica
cumplen con los siguientes requisitos:
v Asegúrese de que el archivo de configuración que crea contiene un separador de
línea entre cada propiedad y que el archivo utiliza la extensión de archivo .conf.
v El archivo de formato debe utilizar la extensión .fmt.
v Los nombres de los archivos de configuración y de formato deben ser idénticos.
Por ejemplo, WASContentPack_v1.1.0-lfawas.conf y WASContentPack_v1.1.0lfawas.fmt.
Archivos de configuración y formato de ejemplo para Paquetes Insight
Log Analysis incluye archivos de configuración y formato de ejemplo en el
directorio <HOME>/IBM/LogAnalysis/IBM-LFA-6.30/config/lo. Puede utilizar estos
archivos con los Paquetes Insight incluidos para cargar datos.
Nota: Si desea utilizar un LFA interno o externo que esté instalado en un servidor
remoto para cargar los datos, debe crear manualmente el directorio /lo y los
archivos de configuración y formato.
Ejemplos de archivo de configuración de LFA
El ejemplo siguiente muestra los archivos que se instalan como parte del Paquete
Insight de WebSphere que se incluye como estándar con Log Analysis.
El archivo WASContentPack_v1.1.0-lfawas.conf contiene numerosas propiedades,
incluidos los ejemplos siguientes:
# Archivos que se supervisarán. El único archivo /tmp/regextest.log o cualquier archivo como
/tmp/foo-1.log or /tmp/foo-a.log.
LogSources=/home/unityadm/IBM/LogAnalysis/logsources
/WASInsightPack/*
# Nuestro host y puerto de receptor EIF.
ServerLocation=<nombre de host de receptor EIF>
ServerPort=5529
El archivo WASContentPack_v1.1.0-lfawas.fmt contiene la expresión regular
siguiente que busca coincidencias con cualquier registro dentro de un archivo de
registro supervisado. En este ejemplo, la expresión regular busca coincidencias con
todos los registros de anotaciones del archivo y con el servidor de Operations
Analytics como un suceso EIF. El suceso EIF contiene el nombre de host donde se
ejecuta el agente, el nombre de archivo del archivo de registro, la vía de acceso del
archivo de registro y el mismo registro del archivo de registro.
// Busca coincidencias de registros para cualquier archivo de registro:
//
REGEX AllRecords
(.*)
hostname LABEL
-file FILENAME
logpath PRINTF("%s",file)
text $1
END
Carga y modalidad continua de datos
179
Crear orígenes de datos para LFA
Antes de utilizar LFA para transmitir datos, debe crear un origen de datos en Log
Analysis.
El tipo de origen de datos varía dependiendo del escenario de modalidad continua
de datos:
v Si está transmitiendo datos localmente con el LFA interno que se instala en el
mismo servidor que Log Analysis durante la instalación, puede crear un origen
de datos local.
v Si está transmitiendo datos desde un servidor remoto con el LFA interno local,
cree un origen de datos remoto. El LFA local carga los datos directamente desde
el servidor remoto.
v Si está transmitiendo datos desde un servidor remoto con una instancia remota
del LFA interno o está utilizando un LFA LFA, cree un origen de datos
personalizado.
Asegúrese de que utiliza el nombre de host en lugar del nombre de dominio
completo.
Asegúrese de que la información del valor de vía de acceso de registro que
especifique en el origen de datos coincida con los orígenes de datos que
especifique en el archivo de configuración de LFA. Para obtener más información,
consulte “Archivos de formato y configuración de LFA” en la página 178.
Para obtener información sobre cómo crear un origen de datos, consulte “Creación
de Origen de datos” en la página 312.
Habilitación de LFA
Antes de utilizar un LFA interno o externo, debe crear o modificar los archivos de
configuración y formato necesarios. También debe crear un origen de datos para
cargar los datos en Log Analysis.
Antes de empezar
Cree un origen de datos. Asegúrese de que utiliza el nombre de host en lugar del
nombre de dominio completo. Para obtener más información, consulte “Crear
orígenes de datos para LFA”.
Asegúrese de que los archivos de configuración y de formato que crea o modifica
cumplen con los requisitos. Para obtener más información, consulte “Archivos de
formato y configuración de LFA” en la página 178.
El directorio <HOME>/IBM-LFA-6.30/config/lo contiene algunos archivos de
configuración y de formato de ejemplo. Estos archivos están diseñados para
ayudarle con los tipos comunes de registros de archivos de registro. Puede utilizar
estos archivos de ejemplo para ayudarle a crear sus propios archivos o puede
modificar los propios archivos y utilizarlos directamente. Asegúrese de especificar
los nombres de archivo correctos en la configuración. Para obtener más
información, consulte “Archivos de formato y configuración de LFA” en la página
178.
180
IBM Operations Analytics - Log Analysis: Guía de instalación, configuración y administración
Acerca de esta tarea
Procedimiento
1. Abra el archivo de configuración que desee utilizar. La ubicación y el nombre
de este archivo varía dependiendo del caso de carga de datos:
v Si está transmitiendo datos local o remotamente con el LFA interno, puede
modificar uno de los archivos de ejemplo en el directorio
<HOME>/IBM-LFA-6.30/config/lo directamente. Sólo es necesario añadir la
información del origen de datos.
v Si está transmitiendo datos desde una instancia remota del LFA interno que
instalado con el programa de utilidad de instalación remota, puede copiar el
directorio <HOME>/IBM-LFA-6.30/config/lo en el servidor remoto y modificar
los archivos que desea utilizar. Sólo es necesario añadir el origen de datos, la
ubicación del servidor y la información de puerto. Suprima los archivos que
no necesite. El programa de utilidad no copia los archivos de ejemplo.
v Si está transmitiendo datos desde una instancia remota de un LFA externo,
puede utilizar los archivos de configuración y de formato existentes.
Asegúrese de añadir los parámetros necesarios al archivo de configuración
correspondiente.
2. Defina los parámetros necesarios en el archivo de configuración. Los
parámetros necesarios son diferentes en función del escenario de carga de
datos.
Tabla 34. Parámetros para el archivo de configuración de LFA
Necesario para
Parámetro
Descripción
Todos
DataSources
Especifique el origen de
datos que desee supervisar.
Si indica varios orígenes de
datos, estos deben separarse
con comas y sin espacios.
Cuando configure un
directorio remoto en el
archivo de configuración de
LFA, el directorio que
indique no debe contener
subdirectorios.
LFA internos instalados en
servidores remotos
ServerLocation,
Especifique la ubicación de
servidor para el servidor de
receptor EIF. Por ejemplo,
para un servidor que está en
111.222.333.444, especifique el
valor siguiente:
ServerLocation=111.222.333.444
LFA internos instalados en
servidores remotos
ServerPort
Especifique el puerto que el
receptor EIF utiliza. Por
ejemplo:
ServerPort=5529
Carga y modalidad continua de datos
181
Tabla 34. Parámetros para el archivo de configuración de LFA (continuación)
Necesario para
Parámetro
Descripción
LFA internos instalados en
servidores remotos
BufEvtMaxSize
Especifique el tamaño de
almacenamiento intermedio
máximo para el LFA. Este
parámetro es el tamaño
máximo que se le permite
tener a la memoria caché. Si
la memoria caché está llena,
se descartan sucesos y el
rendimiento puede declinar.
El valor que especifique aquí
está en kilobytes. Por
ejemplo:
BufEvtMaxSize=102400
LFA externos instalados en
servidores remotos
SshAuthType
Debe establecer este valor
como PASSWORD o PUBLICKEY.
Si establece este valor en
PASSWORD, IBM Operations
Analytics - Log Analysis usa
el valor introducido para
SshPassword como contraseña
para la autenticación Secure
Shell (SSH) con todos los
sistemas remotos.
Si establece este valor en
PUBLICKEY, IBM Operations
Analytics - Log Analysis usa
el valor introducido para
SshPassword como frase de
contraseña que controla el
acceso al archivo de claves
privadas.
LFA externos instalados en
servidores remotos
SshHostList
Utilice en valor SshHostList
para especificar los hosts en
los que se generan los
archivos de registro
supervisados de forma
remota. IBM Operations
Analytics - Log Analysis
supervisa todos los archivos
de registro especificados en
las sentencias LogSources o
RegexLogSources en cada
sistema remoto.
Si especifica la máquina local
como un valor para este
parámetro, LFA supervisa los
archivos directamente en el
sistema local. Si especifica
que no se utilice el SSH del
host local para acceder a los
archivos del sistema, IBM
Operations Analytics - Log
Analysis lee los archivos
directamente.
182
IBM Operations Analytics - Log Analysis: Guía de instalación, configuración y administración
Tabla 34. Parámetros para el archivo de configuración de LFA (continuación)
Necesario para
Parámetro
Descripción
LFA externos instalados en
servidores remotos
SshPassword
Si el valor del parámetro
SshAuthType es PASSWORD,
indique la contraseña de la
cuenta para el usuario
especificado en el parámetro
SshUserid como valor para el
parámetro SshPassword.
Si el valor del parámetro
SshAuthType es PUBLICKEY,
especifique la frase de
contraseña que descifra la
clave privada indicada en el
parámetro SshPrivKeyfile.
LFA externos instalados en
servidores remotos
SshPort
Especifique el puerto TCP
utilizado para las conexiones
SSH. Si no especifica nada, el
valor que se toma por
defecto es 22.
LFA externos instalados en
servidores remotos
SshPrivKeyfile
Si el valor del parámetro
SshAuthType se establece en
PUBLICKEY, indique como vía
de acceso del directorio el
archivo que contiene la clave
privada del usuario indicado
en el parámetro SshUserid
como valor para este
parámetro.
Si el valor del parámetro
SshAuthType no se establece
en PUBLICKEY, este valor no
es necesario.
LFA externos instalados en
servidores remotos
Si el valor del parámetro
SshAuthType se establece en
PUBLICKEY, indique como vía
de acceso del directorio el
archivo que contiene la clave
pública del usuario indicado
en el parámetro SshUserid
como valor para este
parámetro.
SshPubKeyfile
Si el valor del parámetro
SshAuthType no se establece
en PUBLICKEY, este valor no
es necesario.
LFA externos instalados en
servidores remotos
Especifique el nombre de
usuario del sistema remoto
que el agente utiliza para la
autenticación SSH.
SshUserid
3. Defina el formato de archivo como sea necesario.
4. (Opcional) Si desea supervisar el tipo de archivos de registro en el que los
archivos de registro rotan, lo cual origina varios archivos de registro, actualice
Carga y modalidad continua de datos
183
el archivo .fmt para cada tipo de registro que rote para permitir el cambio de
nombre adecuado. Abra el archivo .fmt y edite la línea:
-file FILENAME
para que refleje la rotación del nombre de archivo. Por ejemplo, para los
archivos de registro SystemOut en los que se añada un número al nombre de
archivo para cada registro adicional, FILENAME debe contener:
-file SystemOut*.log
5. Guarde los cambios.
Ejemplo
Por ejemplo:
===============
SshHostList=host1,host2,host3
SshUserid=loguser
SshAuthType=PASSWORD
SshPassword=<password>
=====================
SshHostList=host1,host2,host3
SshUserid=loguser
SshAuthType=PUBLICKEY
SshPrivKeyfile = <SshUserid_Private_Key_File_Path>
(Or)
SshPubKeyfile = <SshUserid_Private_Key_File_Path>
======================
donde <contraseña> es la contraseña que desea utilizar.
<SshUserid_Private_Key_File_Path> es la vía de acceso completa del archivo que
contiene la clave privada del usuario que se indica en el usuario SshUserid. Por
ejemplo, si guarda la contraseña en un archivo llamado password.txt en el
directorio <HOME>/utilities, la vía de acceso completa es esta:
SshPrivKeyfile = <HOME>/utilities/password.txt
Qué hacer a continuación
Configure y despliegue LFA.Para obtener más información, consulte
“Configuración y despliegue de LFA en la línea de mandatos” en la página 187.
Parámetros del archivo de configuración de LFA:
IBM Tivoli Monitoring Log File Agent utiliza la información que se especifica en el
archivo de configuración para procesar la información del archivo de registro.
La Tabla 1 explica los parámetros que se pueden modificar en este archivo.
184
IBM Operations Analytics - Log Analysis: Guía de instalación, configuración y administración
Tabla 35. Parámetros para el archivo de configuración de LFA
Necesario para
Parámetro
Descripción
Todos
DataSources
Especifique el origen de
datos que desee supervisar.
Si indica varios orígenes de
datos, estos deben separarse
con comas y sin espacios.
Cuando configure un
directorio remoto en el
archivo de configuración de
LFA, el directorio que
indique no debe contener
subdirectorios.
LFA internos instalados en
servidores remotos
ServerLocation,
Especifique la ubicación de
servidor para el servidor de
receptor EIF. Por ejemplo,
para un servidor que está en
111.222.333.444, especifique el
valor siguiente:
ServerLocation=111.222.333.444
LFA internos instalados en
servidores remotos
ServerPort
Especifique el puerto que el
receptor EIF utiliza. Por
ejemplo:
ServerPort=5529
LFA internos instalados en
servidores remotos
BufEvtMaxSize
Especifique el tamaño de
almacenamiento intermedio
máximo para el LFA. Este
parámetro es el tamaño
máximo que se le permite
tener a la memoria caché. Si
la memoria caché está llena,
se descartan sucesos y el
rendimiento puede declinar.
El valor que especifique aquí
está en kilobytes. Por
ejemplo:
BufEvtMaxSize=102400
LFA externos instalados en
servidores remotos
SshAuthType
Debe establecer este valor
como PASSWORD o PUBLICKEY.
Si establece este valor en
PASSWORD, IBM Operations
Analytics - Log Analysis usa
el valor introducido para
SshPassword como contraseña
para la autenticación Secure
Shell (SSH) con todos los
sistemas remotos.
Si establece este valor en
PUBLICKEY, IBM Operations
Analytics - Log Analysis usa
el valor introducido para
SshPassword como frase de
contraseña que controla el
acceso al archivo de claves
privadas.
Carga y modalidad continua de datos
185
Tabla 35. Parámetros para el archivo de configuración de LFA (continuación)
Necesario para
Parámetro
Descripción
LFA externos instalados en
servidores remotos
SshHostList
Utilice en valor SshHostList
para especificar los hosts en
los que se generan los
archivos de registro
supervisados de forma
remota. IBM Operations
Analytics - Log Analysis
supervisa todos los archivos
de registro especificados en
las sentencias LogSources o
RegexLogSources en cada
sistema remoto.
Si especifica la máquina local
como un valor para este
parámetro, LFA supervisa los
archivos directamente en el
sistema local. Si especifica
que no se utilice el SSH del
host local para acceder a los
archivos del sistema, IBM
Operations Analytics - Log
Analysis lee los archivos
directamente.
LFA externos instalados en
servidores remotos
SshPassword
Si el valor del parámetro
SshAuthType es PASSWORD,
indique la contraseña de la
cuenta para el usuario
especificado en el parámetro
SshUserid como valor para el
parámetro SshPassword.
Si el valor del parámetro
SshAuthType es PUBLICKEY,
especifique la frase de
contraseña que descifra la
clave privada indicada en el
parámetro SshPrivKeyfile.
LFA externos instalados en
servidores remotos
SshPort
Especifique el puerto TCP
utilizado para las conexiones
SSH. Si no especifica nada, el
valor que se toma por
defecto es 22.
LFA externos instalados en
servidores remotos
SshPrivKeyfile
Si el valor del parámetro
SshAuthType se establece en
PUBLICKEY, indique como vía
de acceso del directorio el
archivo que contiene la clave
privada del usuario indicado
en el parámetro SshUserid
como valor para este
parámetro.
Si el valor del parámetro
SshAuthType no se establece
en PUBLICKEY, este valor no
es necesario.
186
IBM Operations Analytics - Log Analysis: Guía de instalación, configuración y administración
Tabla 35. Parámetros para el archivo de configuración de LFA (continuación)
Necesario para
Parámetro
Descripción
LFA externos instalados en
servidores remotos
SshPubKeyfile
Si el valor del parámetro
SshAuthType se establece en
PUBLICKEY, indique como vía
de acceso del directorio el
archivo que contiene la clave
pública del usuario indicado
en el parámetro SshUserid
como valor para este
parámetro.
Si el valor del parámetro
SshAuthType no se establece
en PUBLICKEY, este valor no
es necesario.
LFA externos instalados en
servidores remotos
SshUserid
Especifique el nombre de
usuario del sistema remoto
que el agente utiliza para la
autenticación SSH.
Configuración y despliegue de LFA en la línea de mandatos
Puede utilizar la línea de mandatos para configurar y desplegar LFA.
Antes de empezar
Before you can configure and deploy an LFA. Debe crear los archivos de
configuración y formato.
Para obtener más información sobre cómo se utilizan los archivos de configuración
y de formato, consulte “Archivos de formato y configuración de LFA” en la página
178.
Para obtener más información sobre los parámetros necesarios en el archivo de
configuración, consulte “Parámetros del archivo de configuración de LFA” en la
página 114.
Acerca de esta tarea
PRECAUCIÓN:
No puede utilizar caracteres no ASCII en la vía de acceso de instalación. La vía
de acceso de instalación no puede tener más de 80 caracteres.
Para obtener más información sobre esto y sobre cómo configurar el agente de
supervisión en el paso 3, consulte:
Configuración del agente de supervisión
Procedimiento
1. Para configurar el LFA, ejecute el mandato:
./itmcmd config -A pc
donde pc es el código de producto para su agente. Por ejemplo: ./itmcmd
config –A lo.
Carga y modalidad continua de datos
187
2. Se le solicita que proporcione la información siguiente:
Indique instance name (valor predeterminado: ):
Escriba el nombre de la instancia. Por ejemplo, rhelagent.
Archivo de configuración (valor predeterminado: ):
Escriba la vía de acceso del archivo de configuración. Por ejemplo,
/unity/IBM/ITM/config/lo/.
Archivo de configuración (valor predeterminado: ):
Escriba la vía de acceso del archivo de formato. Por ejemplo,
/unity/IBM/ITM/config/lo/.
Nota: Deben completarse todos los campos. Los campos en blanco pueden
hacer que el LFA falle.
3. Cuando se le solicite, suministre la información de configuración del agente de
supervisión.
4. Para iniciar el LFA, ejecute el mandato
./itmcmd agent
-o instance name start lo
Configuración de subnodos de LFA
Crea un subnodo de LFA para agrupar un conjunto explícito de configuraciones
que LFA utiliza para identificar y procesar un suceso de registro.
Acerca de esta tarea
El subnodo consiste en un archivo de formato (.fmt) y un archivo de configuración
(.conf). Una sola instancia de LFA puede tener varios subnodos. Cada subnodo se
comporta como una sola hebra que se ejecuta en la misma instancia del LFA.
Puede crear subnodos para los siguientes casos prácticos:
Mejorar el rendimiento haciendo que los valores de formato genéricos sean más
específicos
Para mejorar el rendimiento general, puede crear configuraciones
específicas para sustituir las más genéricas. Por ejemplo, puede especificar
la misma expresión regular (REGEX) en un archivo genérico .fmt para
analizar los archivos de registro de WebSphere Application Server (WAS) y
DB2. Sin embargo, dado que el contenido de los archivos de registro
difiere, esta operación puede ser ineficaz. Para mejorar el rendimiento,
sustituya los archivos .fmt únicos por dos archivos nuevos que contengan
dos REGEX específicos para WAS y DB2 en dos subnodos nuevos.
Mejorar el rendimiento haciendo que los valores de configuración genéricos
sean más específicos
De modo similar, puede mejorar el rendimiento sustituyendo las
configuraciones genéricas por otras de más específicas. Por ejemplo, puede
especificar el mismo comportamiento de renovación en un proceso .conf
genérico para procesar ambos archivos de registro de WAS y DB2. Sin
embargo, dado que el comportamiento de renovación en los archivos de
registro difiere, esta configuración hace que algunos de los registros no se
procesen correctamente y es ineficaz. Para mejorar el rendimiento,
sustituya el .conf único por dos archivos nuevos en dos subnodos nuevos.
Mejorar el rendimiento de distintos orígenes de datos
Si utiliza muchos orígenes de datos para supervisar los sucesos de registro,
puede crear subnodos para dispersar la carga de trabajo.
188
IBM Operations Analytics - Log Analysis: Guía de instalación, configuración y administración
Supervisión remota con IBM Tivoli Monitoring Log File Agent 6.3
Con IBM Tivoli Monitoring Log File Agent 6.3, puede modificar el archivo
.conf para supervisar los registros de varios orígenes remotos. Sin
embargo, las credenciales de usuario pueden no ser las mismas para los
servidores remotos. Puede mantener sólo un conjunto de credenciales de
usuario en el archivo de configuración de LFA. En este caso, puede crear
varios subnodos con distintas credenciales de usuario en cada uno. Puede
utilizar esta característica para supervisar varios orígenes remotos desde un
único nodo de LFA con varios subnodos.
También hay una limitación en la denominación de subnodos. Para obtener más
información, consulte “Límites de caracteres para nombres de subnodo” en la
página 190.
Procedimiento
1. Vaya al directorio donde esté instalado LFA. Por ejemplo, si está utilizando el
LFA interno que se suministra junto con Log Analysis, el directorio es
<HOME>/IBM/LogAnalysis/IBM-LFA-6.30/config/lo.
2. Para abrir la ventana de configuración de LFA, ejecute el mandato siguiente:
bin/CandleManage
3. Pulse el botón derecho del ratón en el servicio Tivoli Log File Agent y pulse
Configurar.
4. Pulse la instancia que desea configurar y pulse Aceptar. Se visualizará la
ventana Configurar Tivoli Log File Agent.
5. En la pestaña Configuración de Log File Adapter, asegúrese de que los
campos Archivo de configuración y Archivo de formato estén en blanco.
6. Pulse la pestaña Valores globales de Log File Adapter y anote el directorio que
se especifica en el directorio de descubrimiento automático del archivo de
configuración. Esta vía de acceso es el directorio donde se guardan los archivos
de configuración de subnodo. Pulse Aceptar.
7. En la ventana siguiente, puede ignorar los otros cambios y pulse Guardar para
guardar los cambios.
8. Especifique la contraseña de usuario raí cuando se le solicite implementar los
cambios.
9. Copie los archivos de configuración del subnodo en el directorio que tomó nota
en el paso 6. LFA detecta automáticamente los cambios. No es necesario
reiniciar la instancia de LFA.
Resultados
El procedimiento describe cómo configurar subnodos en la IU de LFA. También
puede utilizar la línea de mandatos. Para utilizar la línea de mandatos para
configurar los subnodos:
1. Vaya al directorio donde esté instalado LFA.
2. Ejecute el mandato siguiente:
itmcmd config -A lo
3. Complete los pasos necesarios.
4. Especifique el directorio de descubrimiento automático del archivo de
configuración.
5. Complete la configuración.
6. Guarde el archivo de configuración del subnodo en el directorio que ha
especificado en el paso 4.
Carga y modalidad continua de datos
189
Límites de caracteres para nombres de subnodo:
Cuando asigna un nombre a un subnodo, sea consciente de las limitaciones de
denominación y caracteres.
Limitación de 32 caracteres
LFA utiliza msn para denominar e identificar el subnodo. IBM Tivoli Monitoring
limita la longitud de este nombre en 32 caracteres. El límite incluye el identificar, el
guión y el punto y coma. Esto deja 28 caracteres nuevos para el nombre de host,
subnodo y el nombre del archivo de configuración.
El nombre del subnodo se especifica con el formato siguiente:
LO:<Hostname>_<Subnode>-<Conffilename>
donde LO es el identificador que se asigna a todos los subnodos. <Hostname> es el
nombre de host de la máquina donde está instalado el subnodo. <Subnode> es el
nombre del subnodo. <Conffilename> es el nombre del archivo de configuración del
subnodo.
Por ejemplo:
LO:nc1234567890_WASInsightPack-lfawas
No obstante, IBM Tivoli Monitoring limita la longitud de este nombre en 32
caracteres. El nombre del ejemplo es de 35 caracteres. El límite incluye el
identificador, el guión y el punto y coma, y deja 28 caracteres para el nombre de
host, el subnodo y el nombre del archivo de configuración. Para solucionar esta
limitación, IBM Tivoli Monitoring renombra el subnodo de la siguiente manera:
LO:nc1234567890_WASInsightPack-l
Este nombre tiene 32 caracteres de longitud. El nombre de host utiliza 12
caracteres. El subnodo utiliza 14 caracteres.
Esta limitación puede provocar un problema si utiliza nombres similares para los
archivos de configuración. Por ejemplo, después de denominar el primer subnodo,
crea otro subnodo denominado:
LO:nc1234567890_WASInsightPack-lfawas2
IBM Tivoli Monitoring renombra este subnodo de la siguiente manera:
LO:nc1234567890_WASInsightPack-l
Como puede ver, debido al truncamiento, ambos subnodos ahora tiene el mismo
nombre, lo cual significa que LFA no detectará la configuración nueva.
Aumentar el límite
El nombre de host se utiliza para integraciones con Tivoli Endpoint Manager,
donde se le ayuda a identificar los subnodos. No obstante, eso no es necesario para
Log Analysis. Puede eliminar el nombre de host del convenio de denominación
predeterminado, de modo que puede utilizar todos los 28 caracteres para el
nombre del archivo de configuración.
Para cambiar el valor del nombre de host:
1. Detenga LFA.
190
IBM Operations Analytics - Log Analysis: Guía de instalación, configuración y administración
2. Abra el archivo de <HOME>/IBM/LogAnalysis/IBM-LFA-6.30/config/lo/
lo_default_workload_instance.conf.
3. Cambie el valor predeterminado de la siguiente propiedad de Y (Yes/Sí) a N
(No):
CDP_DP_USE_HOSTNAME_IN_SUBNODE_MSN=’N’
4. Guarde el archivo actualizado.
5. Reinicie LFA.
Después de cambiar este valor de configuración, el nombre de subnodo ya no
incluirá el nombre de host. Por ejemplo, los subnodos del ejemplo anterior ahora
se denominan LO:WASInsightPack-lfawas y LO:WASInsightPack-lfawas2.
Conflictos comunes de configuración de LFA
Cuando crea un nodo de LFA remoto y un origen de datos personalizado y ambos
utilizan la misma vía de acceso de registro, se puede crear un conflicto.
Cuando se crea un origen de datos personalizado y lo utiliza para supervisar un
directorio en un subnodo de LFA remoto y posteriormente crea otro origen de
datos, como por ejemplo una fuente de datos remota, que supervisa el mismo
directorio, puede crear un conflicto en la configuración de LFA. Estos conflictos
pueden provocar errores en los archivos de registro de Log Analysis y reducir el
rendimiento de Log Analysis.
Se proporciona el ejemplo siguiente para ayudarle a comprender esta situación.
Para evitar estos conflictos, debe evitar supervisar el mismo directorio con fuentes
de datos diferentes. Si desea supervisar dos archivos en el mismo directorio,
incluya el nombre de archivo en el campo Vía de acceso de registro cuando cree el
origen de datos.
Ejemplo
Por ejemplo, usted es un administrador y desea supervisar archivos de un LFA que
se ha instalado en un servidor remoto, tal como se describe en la documentación
del Knowledge Center. Consulte Datos en modalidad continua con un LFA remoto.
En este caso, el LFA no es parte del producto Log Analysis.
En primer lugar, debe crear un origen de datos personalizado denominado
Customdatasource para cargar datos de instancia remota del LFA. En el asistente de
creación de origen de datos, especifique el nombre de host y la vía de acceso del
archivo de registro siguiente:
/opt/WAS/WAS_logs/myLogFile.log
A continuación debe crear los archivos de configuración y el formato para la
subnodos del LFA. Cree dos archivos, lfa1.conf y lfa1.fmt. En el archivo
lfa1.conf, especifique el origen de datos siguiente:
Datasources=/WAS/WAS_logs/some_dir/*
Los registros que se generan o añaden a continuación son ingeridos por el origen
de datos Datasource1.
Después de algún tiempo, cree otro origen de datos para cargar datos del mismo
servidor remoto. El archivo de registro nuevo se llama newLogFile.log y se
encuentra en el mismo directorio que el archivo que ha creado el origen de datos
Carga y modalidad continua de datos
191
para Customdatasource. Cree un origen de datos remoto denominado
Remotedatasource y especifique esta vía de acceso del archivo de registro:
/opt/WAS/WAS_logs/newLogFile.log
Por último, lleve los archivos de registro a Log Analysis.
Sin embargo, después de enviar el archivo de registro, notará un comportamiento
extraño en los archivos de registro de Log Analysis. El archivo de registro
GenericReceiver.log muestra que se ingieren los datos para /opt/WAS/WAS_logs/
newLogFile.log. No obstante, también dice que el archivo de registro
/opt/WAS/WAS_logs/newLogFile.log no es un origen de datos válido.
Esto se produce porque el mismo archivo de registro está siendo supervisado por
ambas fuentes de datos. Como resultado, es supervisado por dos subnodos LFA
distintos y en dos transmisiones distintas. Los datos se cargan, pero esto puede
desperdiciar recursos y reducir el rendimiento general.
Para evitar esta situación, debe ser consciente de los posibles conflictos,
especialmente cuando se crea un origen de datos personalizado que supervisa un
directorio en lugar de un archivo.
Ejemplo de LFA: Transmisión de datos desde un host remoto
único
En este ejemplo, puede aprender a configurar Log Analysis para transmitir datos
desde varios orígenes de un servidor remoto único con un origen de datos único
en Log Analysis.
Supuestos
En este ejemplo se presupone que está transfiriendo varios registros del sistema de
WebSphere Application Server desde una ubicación remota en un único servidor
remoto.
Creación de orígenes de datos y archivos de configuración
personalizados
1. Cree un origen de datos personalizado con los campos que se describen en la
tabla siguiente:
Tabla 36. Campos para el origen de datos Was-Aggregated-DS
Campo
Entrada de usuario
Nombre
Was-Aggregated-DS
Tipo
Personalizada
Nombre de host
<mi_host_remoto>.example.com
Vía de acceso del registro
/opt/datasources/WAS.SystemOut.log
2. Vaya al directorio <HOME>/IBM/LogAnalysis/IBM-LFA-6.30/config/lo y cree dos
archivos con el nombre Was-Aggregated-DS.conf y Was-Aggregated-DS.fmt.
3. Copie el contenido de los archivos de ejemplo en estos archivos nuevos. Para
obtener más información, consulte “Configuración de la plantilla para el
ejemplo de LFA” en la página 194 y “Plantilla de archivo de formato para
ejemplo de LFA” en la página 196.
192
IBM Operations Analytics - Log Analysis: Guía de instalación, configuración y administración
Configuración del archivo .conf
A continuación, debe configurar el archivo de configuración como se especifica en
la tabla siguiente:
Tabla 37. Propiedades del archivo Was-Aggregated-DS.conf
Propiedad
Acción de usuario
Logsources=
En primer lugar, necesita editar la propiedad
Logsources=. Puede utilizar esta propiedad
para añadir varias vías de acceso a archivo.
Utilice una coma para separar cada vía de
acceso a archivo.
Nota: Utilice únicamente una coma sin
espacios.
Puede especificar vías de acceso a los
directorios en los que se almacenan los
registros. Por ejemplo, /WAS1/logs,WAS2/
logs,WAS3/logs.
También puede especificar vías de acceso a
archivos de registro específicos. Por ejemplo,
/opt/datasources/WAS/SystemOut.log,/opt/
WAS/server1/SystemOut.log,/opt/WAS/
server2/SystemOut.log,/opt/WAS/server3/
SystemOut.log
De forma alternativa, puede utilizar una
búsqueda con comodines para supervisar
todos los archivos de un directorio. Por
ejemplo, /opt/datasources/WAS/*.
ServerLocation=LA_FQ_HOST_NAME
Sustituya el contenedor LA_FQ_HOST_NAME por
el nombre de host de Log Analysis.
#SshAuthType=PASSWORD
Elimine el comentario de esta propiedad.
#SshHostList=localhost
Elimine el comentario de esta propiedad y
sustituya localhost por la dirección IP del
servidor remoto del que recopilan datos sus
orígenes de datos.
#SshPort=
Elimine el comentario y añada 22 como
valor.
#SshUserid=
Elimine el comentario y añada el ID de
usuario que desea utilizar para acceder al
servidor remoto.
#SshPassword=
Elimine el comentario y añada la contraseña
del usuario que ya ha especificado.
BufEvtPath=./opt/CacheFiles/
DS_NAME.cache
Cree un directorio denominado
./opt/CacheFiles para almacenar los
archivos de memoria caché. Log Analysis
crea un archivo de memoria caché con el
formato DS_NAME.cache. En este ejemplo, el
archivo de memoria caché es
WAS-Aggregated-DS.cache. Sustituya el valor
de BufEvtPath por el nombre y la vía de
acceso del archivo de memoria caché. Por
ejemplo, ./opt/CacheFiles/WAS-AggregatedDS.cache.
Carga y modalidad continua de datos
193
Revisión del archivo .fmt
El archivo Was-Aggregated-DS.fmt contiene el código siguiente que debe actualizar:
REGEX AllRecords
(.*)
hostname myRemoteHost.ibm.com
-file /opt/datasources/WAS/SystemOut.log
RemoteHost ""
logpath PRINTF("%s",file)
text $1
END
Debe sustituir myRemoteHost.ibm.com por el mismo valor que ha especificado en el
origen de datos. También necesita sustituir /opt/datasources/WAS/SystemOut.log
por la vía de acceso a archivo que ha especificado en el origen de datos.
Esta configuración garantiza que el nombre de host y la vía de acceso del registro
sean iguales que los que ha especificado en el archivo de formato para todos los
orígenes de datos físicos.
Log Analysis carga estos datos si se envían desde un único origen de datos. En la
práctica, esta configuración agrega los datos de varios orígenes de datos físicos en
un único origen de datos lógico en Log Analysis.
Configuración de la plantilla para el ejemplo de LFA:
Utilice este archivo de plantilla como ayuda para transmitir datos desde un
servidor remoto a un origen de datos de Log Analysis individual.
Copie el texto siguiente:
# Archivos que se supervisarán. El archivo único /tmp/regextest.log, o cualquier archivo como
/tmp/foo-1.log o /tmp/foo-a.log.
LogSources=/opt/datasources/*
# If more than one file matches the pattern /tmp/foo-?.log above, monitor only the newest one
FileComparisonMode=CompareByAllMatches
# Our EIF receiver host and port. Only needed when sending events directly to OMNIbus or
TEC via EIF.
# That is configured through either the Manage Tivoli Enterprise Monitoring Services GUI or the
# "itmcmd config -A lo" command.
ServerLocation=LA_FQ_HOST_NAME
ServerPort=5529
# Must be set to either PASSWORD or PUBLICKEY. If set to PASSWORD, the value of SshPassword
# is treated as the password to be used for SSH authentication with all remote systems.
# If set to PUBLICKEY, the value of SshPassword is treated as the pass phrase that controls
# access to the private key file. If set to
# PUBLICKEY, SshPrivKeyfile and SshPubKeyfile must also be specified.
#SshAuthType=PASSWORD
# A comma-separated list of remote hosts to monitor. All log files that are specified in
# the LogSources or RegexLogSources statements are monitored on each host that is listed
# here. If one of the host names specified
# is localhost, the agent monitors the same set of files directly on the local system.
# When you specify localhost, SSH is not used to access the files on the local system,
# the log files are read directly.
#SshHostList=localhost
# A TCP port to connect to for SSH. If not set, defaults to 22.
#SshPort=
# The user name on the remote systems which the agent uses for SSH authentication.
# SshUserid=
194
IBM Operations Analytics - Log Analysis: Guía de instalación, configuración y administración
# When the value of SshAuthType is PASSWORD, this value is the account password of the
#user that is specified in SshUserid.
# You can supply the account password in clear text, or you can supply a password that is
# encrypted with the IBM Tivoli Monitoring
# itmpwdsnmp command. For more information about how to encrypt a password by using
# theitmpwdsnmp command,
# see
# http://pic.dhe.ibm.com/infocenter/tivihelp/v61r1/topic/com.ibm.itm.doc_6.3/logfile/klo_encrypt.h
# When the value of SshAuthType is PUBLICKEY, this value is the pass phrase that decrypts
# the private key that is specified by the SshPrivKeyfile parameter. You can supply the
# pass phrase in clear text, or you can supply a pass phrase that is encrypted
# with the IBM Tivoli Monitoring itmpwdsnmp command. For more information about how
# to encrypt a password by using theitmpwdsnmp
# command, see
# http://pic.dhe.ibm.com/infocenter/tivihelp/v61r1/topic/com.ibm.itm.doc_6.3/logfile/klo_encrypt.h
#SshPassword=
# To enable using Fully Qualified Domain information, set this flag
FQDomain=yes
# Interval, after which LFA polls to check for new log files
NewFilePollInterval=30
# If sending events through EIF, and the EIF receiver is down, cache events in a
# file until the receiver is available again.
BufferEvents=YES
# If caching EIF events, they are stored in this file until the receiver is
# available again.
BufEvtPath=/opt/CacheFiles/DS_NAME.cache
# If sending events through EIF, the maximum size the EIF cache file can grow to.
# If this is too small, events will be dropped when the cache fills, and performance
# can suffer as well. Size is in KB.
BufEvtMaxSize=102400
# If sending events through EIF, hold open a TCP connection to the EIF receiver all
# the time rather than creating it and breaking it down each time. This is generally faster.
ConnectionMode=CO
# Check the monitored files for new data every 3 seconds.
PollInterval=3
# If the agent is stopped, save the last known position in the monitored logs and
# resume from there when the agent restarts. This way events that are written while
# the agent is down are still picked up when it resumes.
NumEventsToCatchUp=-1
# Monitor the named event logs on Microsoft Windows. The latter two require Windows
# 2008 or higher, and the fourth one requires the Hyper-V role.
WINEVENTLOGS=System,Security,Application,Microsoft-Windows-Hyper-V-Worker-Admin,
Microsoft-Windows-TaskScheduler-Operational
# If running on Microsoft Windows 2008 or higher, use the new event log interface.
# This is required to access the new event logs introduced in that version, such as
# the last two logs listed in the WINEVENTLOGS statement just above.
UseNewEventLogAPI=y
# For events sent to ITM (does not apply to EIF events), consider two events to be
# duplicates if the "msg" and "CustomSlot1" attributes match across the two events.
DupDetectionKeyAttributes=msg,CustomSlot1
# Track duplicates over a 1 minute period, sending a summary event to ITM (does not
# apply to EIF) at the end of every 1 minute. The summary event indicates how many
# duplicate events were detected during the interval.
EventSummaryInterval=60
Carga y modalidad continua de datos
195
# When duplicate events are detected, send only the first one to ITM (does not apply
# to EIF) during the summary interval (1 minute, specified above). At the end of the
# summary interval, the summary event will indicate how many further duplicates were
# seen during the interval.
EventFloodThreshold=send_first
# On AIX only, monitor all events written to the Error Report (errpt) facility since
# agent startup.
AIXErrptCmd=errpt -c -smmddhhmmyy
Plantilla de archivo de formato para ejemplo de LFA:
Utilice este archivo de plantilla como ayuda para transmitir datos desde un
servidor remoto a un origen de datos de Log Analysis individual.
Copie el texto siguiente:
REGEX AllRecords
(.*)
hostname myRemoteHost.ibm.com
-file /opt/datasources/WAS/SystemOut.log
RemoteHost ""
logpath PRINTF("%s",file)
text $1
END
Ejemplo de LFA: Configuración de LFA con SSH para
transmisión remota
Utilice este ejemplo como ayuda para utilizar LFA para transmitir datos a través de
una conexión segura.
Supuestos
v Está transmitiendo datos desde un servidor remoto.
v Está utilizando la herramienta de instalación remota para instalar una instancia
remota de LFA interno.
v Debe crear un origen de datos en Log Analysis para cada archivo de registro que
desee supervisar. Para obtener más información acerca de cómo agregar datos
desde varios orígenes a un solo origen de datos en Log Analysis, consulte
“Ejemplo de LFA: Transmisión de datos desde un host remoto único” en la
página 192.
Configuración de la autenticación de Secure Shell
En primer lugar, debe configurar la autenticación SSH (Secure Shell). Para obtener
más información, consulte “Configuración de Secure Shell para utilizar la
autenticación basada en claves” en la página 52
Para configurar SSH, siga estos pasos:
1. Genere el par de claves pública y privada:
ssh-keygen –t rsa
2. Especifique el archivo que desea utilizar para guardar el par de claves.
3. Escriba una contraseña y vuelva a escribir la contraseña. Si no desea utilizar
una contraseña, especifique un espacio en blanco.
En este ejemplo, la identificación se guarda en home/scala/.ssh/id_rsa.. El
archivo de claves públicas se guarda en home/scala/.ssh/id_rsa.pub. The key
fingerprint is:
73:55:7d:40:03:84:21:7e:9f:a3:40:e8:e2:38:20:f8 [email protected]
196
IBM Operations Analytics - Log Analysis: Guía de instalación, configuración y administración
The key's randomart image is:
+--[ RSA 2048]----+
|
. .+oo=o |
|
o .. . .o|
|
. o . . .|
|.
. . . o .
|
|+
. . S . +
|
|.o o . + . .
|
| E .
.
|
| .
|
|
|
+-----------------+
[la@la132 Desktop]$
Utilice ssh-copy-id para copiar la clave pública en las claves autorizadas del
servidor remoto:
[la@la132 Desktop]$ ssh-copy-id [email protected]
The authenticity of host ’123.456.789.101 (123.456.789.101)’ can’t be established.
RSA key fingerprint is 69:e6:19:d7:9c:cc:68:ff:85:64:1d:d5:d8:5b:90:d2.
Are you sure you want to continue connecting (yes/no)? yes
Warning: Permanently added ’123.456.789.101’ (RSA) to the list of known hosts.
[email protected]’s password:
Inicie sesión en [email protected] y compruebe que los archivos estén en
el archivo .ssh/authorized_keys.
Para verificar que las claves están en el servidor local donde se ha instalado Log
Analysis, vaya al directorio .ssh y ejecute el mandato siguiente:
ls
id_rsa
id_rsa.pub
known_hosts
Se muestra la respuesta siguiente:
cat id_rsa.pubssh-rsa
AAAAB3NzaC1yc2EAAAABIwAAAQEAmOWc0xMeFXogGrOxKJXVlYGy4pw2dmpnKHfE2lQ
YpuZpKyOhP3lSm6GPUVBGRtFATBG2WwifD5Xj1wUdheZYQ1UxeFP8A97d8PEhfhVADI
gG8rch3bLfrMlURwoxHimDBblSU4oTA/gKoJdlr5XAVbtYqYGFEse1nqq0ZCR24kj0h
/o/PAQ/lzF+0C+H4aYUkOnW5llJJPo7Xl70MlsEcg8y0wRUPTapjY2QCx1V9O8w8yp5
kZBHNIPCMcNPp7hgZCW3k97R4mRCPqZByyRHWSE2h1ngA12Mbsm0ZiW7kU56/A0eg8+
ZcPYiqougY5wWVCnBZc/JMoOp+o2io1JQVQ== [email protected]
Para verificar que las claves están en el servidor remoto, inicie sesión en el
servidor remoto, vaya al directorio .ssh y escriba el mandato siguiente:
ls
authorized_keys
Se muestra la respuesta siguiente:
cat authorized_keys
ssh-rsa
AAAAB3NzaC1yc2EAAAABIwAAAQEAmOWc0xMeFXogGrOxKJXVlYGy4pw2dmpnKHfE2lQ
YpuZpKyOhP3lSm6GPUVBGRtFATBG2WwifD5Xj1wUdheZYQ1UxeFP8A97d8PEhfhVADI
gG8rch3bLfrMlURwoxHimDBblSU4oTA/gKoJdlr5XAVbtYqYGFEse1nqq0ZCR24kj0h
/o/PAQ/lzF+0C+H4aYUkOnW5llJJPo7Xl70MlsEcg8y0wRUPTapjY2QCx1V9O8w8yp5
kZBHNIPCMcNPp7hgZCW3k97R4mRCPqZByyRHWSE2h1ngA12Mbsm0ZiW7kU56/A0eg8+
ZcPYiqougY5wWVCnBZc/JMoOp+o2io1JQVQ== [email protected]
Es importante que asigne los permisos correctos al directorio .ssh y a los archivos
id_pub. En este ejemplo, debe asignar los permisos como se describen a
continuación:
Carga y modalidad continua de datos
197
-rw------- 1 scala scala 1671 Oct 28 08:25 <id_rsa>
-rw-r--r-- 1 scala scala 404 Oct 28 08:25 <id_rsa>.pub
-rw-r--r-- 1 scala scala 397 Oct 28 08:28 <known_hosts>
donde <id_rsa> es el archivo de identificación. <id_rsa>.pub es el archivo de claves
públicas. <known_hosts> es el nombre de host del servidor de Log Analysis.
Para asignar los permisos necesarios en el servidor remoto, asigne permisos como
se describe a continuación:
-rw------- 1 netcool netcool 404 Oct 28 08:56 <authorized_keys>
donde <authorized_keys> son las claves autorizadas.
Configuración de la herramienta de instalación remota de LA
Después de configurar SSH, debe utilizar la herramienta de instalación remota
para instalar LFA en el servidor remoto. Para obtener más información, consulte
“Despliegue del LFA o EIF en servidores remotos” en la página 205.
Edite los parámetros siguientes en el archivo <HOME>/IBM/LogAnalysis/
remote_install_tool/config/ssh-config.properties:
REMOTE_HOST=192.168.100.145
PORT=22
TIME_OUT=60000
TSER=netcool
PATH_OF_PASSWORD_LESS_SSH_KEY=/home/scala/.ssh/id_rsa
No es necesario que especifique una contraseña como en este ejemplo, ya que no
ha establecido ninguna cuando ha configurado SSH.
Instalación de LFA de forma remota
Para instalar LFA, vaya a <HOME>/IBM/LogAnalysis/remote_install_tool/ y ejecute
el mandato siguiente:
./install.sh
Se muestra la respuesta siguiente. Especifique y cuando se le indique:
Init in progress...
[/opt/IBM/LogAnalysis, -install]
++++++++++++++++++++++++++++++++++++++++++++++++++++++++++
++++++ IBM Log Analysis Remote Deployment Tool ++++++
++++++++++++++++++++++++++++++++++++++++++++++++++++++++++
Ssh properties is available.
SSH Configuration : ... IN PROGRESS
SSH Configuration : ... SUCCESS
Enter Remote Top Level Installation
Directory absolute path: [/home/netcool/LogAnalysis]
Remote path:/home/netcool/LogAnalysis
Provide your Deployment topology inputs for the following
--------------------------------------------------------Install EIF Receiver Instances (y|Y|n|N) :[y]
n
Install LFA 6.3 (y|Y|n|N) :[y]
Proceeding with default value:y
Install logstash 1.5.3 (y|Y|n|N) :[y]
n
Start Time:Wed Oct 28 09:16:25 PDT 2015
198
IBM Operations Analytics - Log Analysis: Guía de instalación, configuración y administración
LogAnalysis directories:
LOG_ANALYSIS_HOME_DIR :
IMAGES_DIR
:
STORE_DIR
:
JAVA_HOME
:
LFA 6.3 directories:
LFA_HOME_DIR
/home/netcool/LogAnalysis
/home/netcool/LogAnalysis/images
/home/netcool/LogAnalysis/store
/home/netcool/LogAnalysis/ibm-java
: /home/netcool/LogAnalysis/IBM-LFA-6.30
Copy files to IMAGES and STORE ...BEGINS
Wait while the following remote copy command takes some time to complete...
Copy files to IMAGES and STORE ...DONE
Wait while the following remote copy command takes some time to complete...
Copy files to IMAGES and STORE ...DONE
Extracting IBM Java ibm-java-sdk-8.0-1.0-linux-x86_64.tgz ...
Extracted java ... :
Command execution response:
LFA Prereqs validation ...IN PROGRESS
Validation
Validation
Validation
Validation
success
success
success
success
for
for
for
for
EXISTING PROCESS CHECK
KSH CHECK
PREREQ LIBRARIES
SELINUX
LFA Prereqs validation ...DONE
Setting up LFA ...
Wait while the following remote command takes some time for LFA installation ...
Setting up LFA ...DONE
+++++++++++++++++++++++++++++++++++++++++++++++++++++++
++++++++++++++++ DEPLOYMENT STATUS ++++++++++++++++++++
+++++++++++++++++++++++++++++++++++++++++++++++++++++++
Response:
Response: ==================================================
Response:
COMPONENT
PID STATUS
Response: ==================================================
Response:
Log File Agent 16446
UP
Response: ==================================================
End Time:Wed Oct 28 09:17:59 PDT 2015
+++++++++++++++++++++++++++++++++++++++++++++++++++++++++++
Total install duration (seconds):93
++++++++++++++++++++ Installation Ends ++++++++++++++++++++
Inicio de LFA
Después de instalar la instancia remota de LFA, debe iniciarla. Para iniciarla, vaya
al directorio <HOME>/IBM/LogAnalysis/utilities y escriba el mandato siguiente:
./lfautil.sh -start
Para obtener más información, consulte “Mandato lfautil.sh” en la página 117.
Habilitación de LFA remoto
Después de iniciar LFA remoto, debe crear los archivos de formato, configuración y
orígenes de datos necesarios. Para obtener más información, consulte “Crear
orígenes de datos para LFA” en la página 180.
Para habilitar LFA remoto:
1. Cree un origen de datos personalizado para cada archivo que desee cargar.
2. Detenga LFA remoto:
<HOME>/IBM/LogAnalysis/utilities/lfautil.sh -start
Carga y modalidad continua de datos
199
3. Cree los archivos de configuración (.conf) y de formato (.fmt). Puede crear
estos archivos personalmente o puede copiar los archivos de ejemplo del
directorio <HOME>/IBM/LogAnalysis/IBM-LFA-6.30/config/lo en el servidor
remoto.
4. Configure los archivos de configuración y de formato. Asegúrese de que el
valor de LogSources coincida con los orígenes de datos que ha creado en el
paso 1.
Soporte de expresión regular para el LFA
El LFA soporta implementaciones específicas de expresiones regulares.
Datos sin estructurar de una sola línea
Si desea utilizar el kit de herramientas DSV para extraer y exportar los datos en un
formato de valores separados por coma (CSV) para su uso con el kit de
herramientas DSV, puede utilizar una expresión regular para extraer y exportar los
datos.
Por ejemplo, considere el siguiente registro de archivo de anotaciones:
10453072 23460 E5D27197E653C548BDA744E8B407845B AOBEAI1 /EAI
I H R SACP9002
BPUSRSYS/612 23460 - XGNEA108:662:000042:06:E036977:WWS00003:7000:16:1:REV=N
Proc Time=000.03
Puede configurar Log Analysis para utilizar una expresión regular para extraer y
exportar los datos en el formato de valores separados por coma (CSV). Por
ejemplo, a continuación se muestra un ejemplo de una expresión regular definida
en el archivo .fmt:
REGEX EAILOG
⌂([0-9]*)(.*)SACP9002(.*):([0-9]*):([0-9]*):([0-9]*):([a-zA-Z0-9]*):
([a-zA-Z0-9]*):([a-zA-Z0-9]*):
(.*)Proc Time=([0-9]*.[0-9]*)
timestamp $1 CustomSlot1
discard $2
SACP9002 $3
bankID $4 CustomSlot3
branchID $5 CustomSlot4
discard3 $6
tellerSID $7 CustomSlot5
workstationID $8 CustomSlot6
transactionTypeID $9 CustomSlot7
discard4 $10
responseTime $11 CustomSlot8
msg PRINTF("%s,%s,%s,%s,%s,%s,%s",timestamp,bankID,branchID,tellerSID,workstationID,
transactionTypeID,responseTime)
END
Manipulación de la información de fecha y hora para el Paquete
Insight de Generic Annotation
Si utiliza el Paquete Insight de Generic Annotation o el conjunto de reglas de fecha
y hora para el Paquete Insight de Generic Annotation en un Paquete Insight
personalizado, puede utilizar algunas expresiones regulares limitadas que puede
utilizar para analizar la información de fecha y hora.
El segundo delimitador, dos puntos (:), no está soportado. La expresión regular
sustituye el segundo delimitador por un punto (.), que sí está soportado. Por
ejemplo, para cambiar una fecha de 15/12/2014 12:12:12:088 GMT a 15/12/2014
12:12:12.088 GMT, puede añadir la siguiente expresión regular al archivo .fmt:
200
IBM Operations Analytics - Log Analysis: Guía de instalación, configuración y administración
// Busca coincidencias de registros para cualquier archivo de registro:
// Log Analytics Data Source chas_access.log
REGEX nongr
([0-9][0-9])/([0-9][0-9])/([0-9][0-9]) ([0-9][0-9]):([0-9][0-9])
:([0-9][0-9]):([0-9][0-9][0-9]) ([A-Z][A-Z][A-Z])
(.*Batch Status for.*)
month $1
day $2
year $3
hour $4
minute $5
second $6
ms $7
zone $8
message $9
hostname example.com
-file /opt/la/IBM/LogAnalysis/logs/GenericReceiver.log
RemoteHost ""
logpath PRINTF("%s",file)
text PRINTF("%s/%s/%s %s:%s:%s.%s %s %s", month, day, year, hour, minute,
second, ms, zone, message)
END
Resolución de problemas de la carga de datos
Cuando se utiliza IBM Tivoli Monitoring Log File Agent para realizar la
recopilación de datos, supervise los archivos de registro UnityEIFReceiver.log y
GenericReceiver.log ubicados en el directorio <HOME>/logs para asegurarse de que
la ingestión de datos se haya completado correctamente.
Este ejemplo ilustra la adición de un lote de registros de anotaciones. El resultado
se indica en la sección MENSAJE DE RESPUESTA del archivo de registro:
~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~
2013-04-20 04:43:10,032 [pool-5-thread-1] INFO - LogEventPoster : ----------Posting Event to UNITY DATA COLLECTOR https://nc9118041070:9987/Unity/DataCollector
2013-04-20 04:43:24,273 [pool-5-thread-1] INFO - LogEventPoster :
+++++++++ RESPONSE MESSAGE +++++++++
2013-04-20 04:43:24,273 [pool-5-thread-1] INFO - LogEventPoster : OK
2013-04-20 04:43:24,273 [pool-5-thread-1] INFO - LogEventPoster :
{
"batchSize": 2078,
"failures": [
],
"numFailures": 0 }
2013-04-20 04:43:24,273 [pool-5-thread-1] INFO - LogEventPoster :
++++++++++++++++++++++++++++++++++++
2013-04-2 04:43:24,273 [pool-5-thread-1] INFO - LogEventPoster :
EIF event delivery to Generic Receiver -- SUCCESS
~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~
En este registro, el número de registros de anotaciones procesados se indica en la
línea:
{
"batchSize": 2078,
"failures": [
],
"numFailures": 0 }
Se han ingerido correctamente 2078 registros de anotaciones. El valor numFailures
indica el número de errores en la ingestión del registro de anotaciones. Por
ejemplo, un valor de 5 para el valor de numFailures indica que hay 5 registros que
no se han ingerido.
Cuando se ha completado la recopilación de datos, si se rellena parcialmente la
memoria intermedia de datos del receptor EIF, los registros de anotaciones
Carga y modalidad continua de datos
201
restantes se envían al Receptor genérico. Esto se graba en el registro como un
suceso TIMEOUT FLUSH. Estos sucesos se añaden al archivo de registro al final de la
sesión de recopilación de datos:
~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~
2013-04-20 04:54:26,341 [pool-4-thread-1] INFO - LogEventService :
TIMEOUT FLUSH for datasource:nc9118041070::
/home/yogesh/IBM/LogAnalysis/logsources/WASInsightPack/TipTrace5.log
2013-04-20 04:54:26,359 [pool-5-thread-1] INFO - LogEventPoster : ----------Posting Event to UNITY DATA COLLECTOR https://nc9118041070:9987/Unity/DataCollector
2013-04-20 04:54:38,581 [pool-5-thread-1] INFO - LogEventPoster :
+++++++++ RESPONSE MESSAGE +++++++++
2013-04-20 04:54:38,582 [pool-5-thread-1] INFO - LogEventPoster : OK
2013-04-20 04:54:38,582 [pool-5-thread-1] INFO - LogEventPoster :
{
"batchSize": 1714,
"failures": [
],
"numFailures": 0 }
2013-04-20 04:54:38,582 [pool-5-thread-1] INFO - LogEventPoster :
++++++++++++++++++++++++++++++++++++
2013-04-20 04:54:38,582 [pool-5-thread-1] INFO - LogEventPoster :
EIF event delivery to Generic Receiver -- SUCCESS
2013-04-20 04:54:38,583 [pool-4-thread-1] INFO - LogEventService :
POST RESULT:
{"failures":[],"batchSize":1714,"numFailures":0}
~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~
Para calcular el número de sucesos que se han procesado, calcule la suma de todos
los valores de batchSize. Para calcular el número de sucesos ingerido, calcule la
suma de todos los valores de batchSize y reste la suma total de los valores de
numFailure.
Si la ingestión falla, se registra un mensaje de error en UnityEIFReceiver.log:
2013-05-16 02:16:11,184 [pool-7-thread-1] INFO - LogEventPoster
+++++++++ RESPONSE MESSAGE +++++++++
2013-05-16 02:16:11,184 [pool-7-thread-1] INFO - LogEventPoster
2013-05-16 02:16:11,184 [pool-7-thread-1] INFO - LogEventPoster
{"BATCH_STATUS":"NONE","RESPONSE_MESSAGE":
"CTGLA0401E : Missing data source ","RESPONSE_CODE":404}
2013-05-16 02:16:11,184 [pool-7-thread-1] INFO - LogEventPoster
++++++++++++++++++++++++++++++++++++
2013-05-16 02:16:11,184 [pool-7-thread-1] INFO - LogEventPoster
FAILURE - ResponseCode:404 ResponseMessage:Not Found
:
: Not Found
:
:
:
Otros códigos de respuesta HTTP son estos:
202
413
Entidad de solicitud demasiado grande: aparece si un tamaño de lote es
mayor que el valor predeterminado de receptor genérico establecido en
$UNITY_HOME/wlp/usr/servers/Unity/apps/Unity.war/WEB-INF/
unitysetup.properties.
500
Error de servidor interno: Se visualiza cuando hay algún problema con
IBM Operations Analytics - Log Analysis, como un error de la base de
datos o cualquier otro error de ejecución.
404
No se ha encontrado: Se visualiza cuando no se ha encontrado un origen
de datos para una combinación de nombre de host y vía de acceso del
registro en la solicitud.
409
Conflicto: Se visualiza si se publica el lote de datos para un origen de
datos que se encuentre en un estado inactivo o si hay un conflicto entre los
datos publicados y los datos que espera el servidor. Por ejemplo, el campo
IBM Operations Analytics - Log Analysis: Guía de instalación, configuración y administración
inputType de la solicitud JSON no coincide con el campo inputType en la
recopilación para la combinación solicitada de nombre de host y vía de
acceso del archivo de registro.
200
Correcto: Se visualiza cuando la solicitud es procesada por el servidor. El
estado del lote de registros procesado se devuelve con el número total de
registros ingerido, el número de registros que no están presentes y de los
que han fallado.
400
Solicitud incorrecta: Se visualiza cuando la petición JSON no contiene los
campos necesarios esperados por el receptor genérico o cuando el JSON no
está formado correctamente.
Modalidad continua de datos de varios orígenes remotos a través de
una red
Para facilitar una modalidad continua de datos dinámica que sea escalable en
varios orígenes de datos remotos, puede configurar el LFA interno que se instala
con Log Analysis o el receptor EIF para transmitir datos desde servidores remotos.
Para habilitar la recopilación desde hosts remotos, debe completar los pasos
siguientes:
1. Instale Apache Solr en la máquina remota. Este paso es opcional, pero puede
ayudarle a optimizar el rendimiento. Para obtener más información, consulte
“Instalación de Apache Solr en máquinas remotas” en la página 65.
2. Configure la comunicación de Secure Shell (SSH) para utilizar la autenticación
basada en claves. Para obtener más información, consulte “Configuración de
Secure Shell para utilizar la autenticación basada en claves” en la página 52
3. Configure SSH para que funcione con el programa de utilidad instalador
remoto. Para obtener más información, consulte “Configuración de la
comunicación de Secure Shell (SSH) para varios hosts remotos”.
4. Utilice el programa de utilidad instalador remoto para instalar instancias de
Recurso de integración de sucesos (EIF) o IBM Tivoli Monitoring Log File
Agent (LFA) en máquinas remotas. Para obtener más información, consulte
“Despliegue del LFA o EIF en servidores remotos” en la página 205.
5. Configure el EIF de modo que sea compatible con las instancias remotas que
cree. Si utiliza el LFA, no tiene que configurar la instalación local. Sin embargo,
tiene que configurar manualmente los subnodos. Para obtener más información,
consulte “Configuración de subnodos de LFA” en la página 188.
También puede mantener y administrar estas conexiones después de configurarlas.
Como alternativa a la transmisión de datos puede cargar datos en procesos por
lotes. Para obtener más información, consulte “Carga de procesos por lotes de
datos” en la página 163.
Configuración de la comunicación de Secure Shell (SSH) para
varios hosts remotos
Antes de poder utilizar el programa de utilidad instalador remoto debe configurar
el SSH para los hosts remotos.
Carga y modalidad continua de datos
203
Antes de empezar
Antes de configurar SSH para varios hosts remotos, debe configurar SSH entre
IBM Operations Analytics - Log Analysis y los hosts remotos. Para obtener más
información, consulte el tema Configuración de Secure Shell para utilizar la
autenticación basada en claves en el Information Center.
Acerca de esta tarea
De forma predeterminada, el archivo de propiedades de SSH, el archivo
ssh-config.properties, se encuentra en el directorio <HOME>/IBM/LogAnalysis/
remote_install_tool/config. Si guarda el archivo en otra ubicación, el programa
de utilidad solicita que el usuario indique valores para el host remoto, el usuario y
la contraseña. En este caso, el programa de utilidad no utiliza los valores
especificados en el archivo.
Si guarda el archivo ssh-config.properties en el directorio <HOME>/IBM/
LogAnalysis/remote_install_tool/config, el programa de utilidad
eif_remote_install_tool utiliza las propiedades especificadas en el archivo.
La comunicación SSH puede estar basada en una contraseña o una clave pública.
Si implementa ambas opciones, la configuración de la clave pública se utiliza de
forma predeterminada.
Para configurar SSH basada en contraseñas, especifique un valor para la
contraseña y elimine el comentario del archivo de clave privado. El programa de
utilidad instalador remoto utiliza la contraseña especificada para la autenticación
SSH cuando se conecta con el sistema principal remoto.
Para configurar una autenticación basada en archivos de clave privada, especifique
la vía de acceso del archivo de claves privadas y no indique un valor para la
contraseña. El programa de utilidad utiliza el archivo para crear una conexión SSH
sin contraseña.
Si especifica valores para la contraseña y la vía de acceso del archivo de claves
privadas, el programa de utilidad utiliza el archivo para crear una conexión SSH
sin contraseña.
Si no indica un valor para la contraseña o la vía de acceso del archivo de claves
privadas, IBM Operations Analytics - Log Analysis no puede crear una conexión y,
en su lugar, genera un mensaje de error en el registro:
ERROR:
example.unity.remote.SshConfigException:
El archivo de propiedades config/ssh-config.properties debe contener al menos uno de
estos elementos:
PASSWORD, PATH_OF_PASSWORD_LESS_SSH_KEY
Corrija la configuración SSH O reconfigure y vuelva a intentarlo
Instalación cancelada....!
Procedimiento
1. Vaya al directorio <HOME>/IBM/LogAnalysis/remote_install_tool/config y abra
el archivo ssh-config.properties.
2.
Especifique valores para las propiedades siguientes para cada sistema principal
remoto:
v Host remoto
v ID de usuario remoto
204
IBM Operations Analytics - Log Analysis: Guía de instalación, configuración y administración
v Puerto
v Tiempo de espera de la conexión en milisegundos. El valor predeterminado
es 6000.
Por ejemplo:
REMOTE_HOST=<REMOTE_HOST>
PORT=<PORT>
TIME_OUT=60000
USER=<REMOTE_USER>
3. Para la autenticación basada en contraseña, también debe especificar la
contraseña en el archivo de configuración. Por ejemplo:
PASSWORD=password1
4. Para la autenticación basada en clave pública, especifique la vía de acceso al
directorio que contiene el archivo de claves privadas. Por ejemplo:
PATH_OF_PASSWORD_LESS_SSH_KEY=/home/pass/.ssh/id_rsa
5. Si la instalación de SSH requiere una contraseña, especifique la frase de
contraseña. Por ejemplo:
PASSPHRASE_OF_PASSWORD_LESS_SSH_KEY=passphrase1
Despliegue del LFA o EIF en servidores remotos
Para facilitar la recopilación de datos escalables en varios nodos remotos, puede
desplegar instancias del receptor de Tivoli Event Integration Facility (EIF) o del
IBM Tivoli Monitoring Log File Agent interno en servidores remotos.
Antes de empezar
Antes de ejecutar el mandato debe configurar la comunicación secure shell (SSH)
entre la instalación local de IBM Operations Analytics - Log Analysis y el host
remoto. Para obtener más información sobre cómo hacerlo, consulte
“Configuración de la comunicación de Secure Shell (SSH) para varios hosts
remotos” en la página 203.
Acerca de esta tarea
Puede utilizar el instalador remoto en los escenarios siguientes:
v Si tiene una alta tasa de ingestión de datos en varios orígenes de datos. Por
ejemplo, si tiene 100 o más sucesos por segundo y 20 o más fuentes de datos.
v Si necesita mejorar el rendimiento en el servidor remoto.
v Si los recursos de hardware en el servidor remoto están restringidos.
v Si desea optimizar el rendimiento según las condiciones descritas en la página
de tareas del desarrollador de rendimiento aquí: https://www.ibm.com/
developerworks/community/wikis/home?lang=en#!/wiki/IBM Log Analytics
Beta/page/Performance and tuning
Puede utilizar el mandato para desplegar hasta 20 instancias de receptor de Tivoli
Event Integration Facility o una sola instancia de LFA en un nodo remoto. El
mandato despliega y configura IBM Java 1.8. El mandato también configura la
instancia de receptor de Tivoli Event Integration Facility para comunicarse con el
cliente de Recopilador de datos.
Sin embargo, este mandato no configura el subnodo de LFA. Debe configurar este
valor manualmente. Tanto la instancia remota como la local del LFA pueden
supervisar fuentes de datos remotas. Para obtener información sobre cómo
configurar LFA, consulte Datos en modalidad continua con un LFA remoto.
Carga y modalidad continua de datos
205
Para asegurarse de que las instancias remotas del Tivoli Event Integration Facility
funcionen con la interfaz local del Recopilador de datos, debe crear las instancias
remotas de Tivoli Event Integration Facility o LFA como parte de la misma
instalación. Esto se debe a que la configuración de cifrado y la generación de
firmas se realizan durante la instalación principal. Si instala IBM Operations
Analytics - Log Analysis después de configurar los nodos remotos, debe instalar de
nuevo las instancias remotas de Tivoli Event Integration Facility o LFA. Sin
embargo, puede eliminar las instancias remotas del Tivoli Event Integration Facility
o LFA sin instalar IBM Operations Analytics - Log Analysis de nuevo.
Nota:
Si utiliza el script para instalar la instancia remota en un servidor que utiliza el
sistema operativo SUSE Linux Enterprise Server 11, el script falla. Para resolver
este problema, consulte el tema No se puede instalar una instancia de EIF remota en
SUSE en la guía de Resolución de problemas.
Nota:
El instalador remoto que utiliza para instalar instancias de IBM Tivoli Monitoring
Log File Agent y Tivoli Event Integration Facility no soporta la integración entre
sistemas operativos. Debe utilizar los instaladores remotos para instalar instancias
remotas en servidores que utilizan el mismo sistema operativo. Por ejemplo, si
instala IBM Operations Analytics - Log Analysis en Linux on System z, debe
instalar las instancias remotas en Linux on System z. En este ejemplo, no puede
instalar instancias remotas en Linux on System x.
El mandato install.sh se encuentra en el directorio de <HOME>/IBM/LogAnalysis/
remote_install_tool/ en la instalación local de IBM Operations Analytics - Log
Analysis. Utilice el mandato install.sh para instalar el receptor de Tivoli Event
Integration Facility o el LFA en un servidor remoto.
Procedimiento
1. Vaya al directorio <HOME>/IBM/LogAnalysis/remote_install_tool/ y ejecute el
mandato install.sh. Se le solicitará una serie de entradas.
2. Especifique el directorio de instalación remoto. Este valor debe ser la ubicación
donde se instalan los artefactos desplegados en el host remoto.
3. Si desea desplegar el receptor de Tivoli Event Integration Facility, selecciónelo.
Si lo hace, especifique las instancias del receptor de Tivoli Event Integration
Facility que desea desplegar.
4. Si desea desplegar la instancia de LFA en el nodo remoto, selecciónelo.
5. Si desea utilizar los archivos de configuración o formato en el directorio
<HOME>/IBM/LogAnalysis/IBM-LFA-6.30/config/lo de su instancia de LFA
remota, copie los archivos en el servidor remoto.
Resultados
Después de completar el procedimiento, ahora puede recopilar datos de los hosts
remotos.
Qué hacer a continuación
Después de la configuración inicial, deseará cambiar periódicamente la
configuración. IBM proporciona dos mandatos para iniciar y detener las instancias
para que pueda actualizar la configuración.
206
IBM Operations Analytics - Log Analysis: Guía de instalación, configuración y administración
Mandato eifutil.sh
Para administrar instancias del receptor EIF, utilice el mandato eifutil.sh.
Sintaxis
El mandato eifutil.sh tiene la sintaxis siguiente y se encuentra en
<USER_HOME_REMOTE>/DataForwarders/EIFReceivers/utilities,
donde<USER_HOME_REMOTE> es el directorio del host remoto en el que se
despliegan las instancias de receptor EIF:
eifutil.sh -status|-start <Inst_ID>|-stop <Inst_ID>|-startAll|-stopAll|-restart
<Inst_ID>|-restartAll
donde <Inst_ID> es el ID para la instancia EIF específica.
Parámetros
-status
Muestra el estado de las instancias instaladas. Por ejemplo:
============================================================================
COMPONENTE
Instancia
PID
PUERTO
ESTADO
============================================================================
Receptor EIF
eif_inst_1
13983
6601
ACTIVO
Receptor EIF
eif_inst_2
14475
6602
ACTIVO
Receptor EIF
eif_inst_3
14982
6603
ACTIVO
Receptor EIF
eif_inst_4
15474
6604
ACTIVO
Receptor EIF
eif_inst_5
15966
6605
ACTIVO
============================================================================
-start <Inst_id>
Inicia la instancia especificada.
-stop <Inst_id>
Detiene la instancia especificada.
-startAll
Inicia todas las instancias.
-stopAll
Detiene todas las instancias.
-restart<Inst_id>
Reinicia la instancia especificada.
-restartAll
Reinicia todas las instancias.
Mandato lfautil.sh
Para administrar instancias de IBM Tivoli Monitoring Log File Agent (LFA), utilice
el mandato lfautil.sh.
Sintaxis
El mandato lfautil.sh tiene la sintaxis siguiente, y está en el directorio
<USER_HOME_REMOTE>/utilities/ en el host remoto en el que
<USER_HOME_REMOTE> es el directorio del host remoto en el que se han
desplegado las instancias de LFA:
lfautil.sh -start|-stop|-status|-restart
Parámetros
-start Inicia todas las instancias de LFA en el host remoto.
Carga y modalidad continua de datos
207
-stop
Detiene todas las instancias de LFA en el host remoto.
-status
Muestra el estado de las instancias de LFA en el sistema principal remoto.
Por ejemplo:
==========================================
COMPONENTE
PID
ESTADO
==========================================
Log File Agent
23995
ACTIVO
==========================================
-restart
Reinicia todas las instancias de LFA en el host remoto.
Datos en modalidad continua con logstash
La instalación de logstash en un nodo remoto amplía las funciones de IBM
Operations Analytics - Log Analysis, por lo que puede ingerir y realizar búsquedas
de metadatos en datos de registro que procesa logstash.
Visión general
logstash es una herramienta de código abierto para gestionar sucesos y registros.
Se puede utilizar para recopilar registros, analizarlos y enviarlos a otra herramienta
como IBM Operations Analytics - Log Analysis para almacenarlos para su uso
posterior.
Puede instalar logstash en un host local, pero para mejorar el rendimiento del
sistema, instale logstash en un nodo remoto.
El agente logstash es un conducto de sucesos que consta de three partes:
1. Entradas
2. Filtros
3. Salidas
Las entradas generan sucesos. Los filtros modifican sucesos. Las salidas envían el
suceso a algún lugar. Por ejemplo, los sucesos se pueden enviar a almacenamiento
para su visualización o búsqueda en el futuro, o a la infraestructura de IBM
Operations Analytics - Log Analysis. Los sucesos pueden tener un tipo, que se
utiliza para desencadenar ciertos filtros. Las etiquetas se pueden utilizar para
especificar un pedido para el proceso de sucesos, así como para el
direccionamiento de sucesos a filtros y salidas específicos.
logstash puede utilizarse como un “preprocesador” para analizar fuentes y
proporcionar una fuente semiestructurada o estructurada a IBM Operations
Analytics - Log Analysis para buscar y para el uso potencial dentro de las
aplicaciones de análisis personalizadas.
Nota: Para instalar logstash en un nodo local, utilice la función de instalación
remota y establezca el valor de configuración de SSH REMOTE_HOST en localhost o
en IP Address/hostname del nodo. Para obtener más información sobre cómo
instalar logstash en un nodo remoto, consulte “Instalación de logstash en un nodo
remoto” en la página 211.
Para obtener más información sobre los sucesos de logstash, consulte la sección La
vida útil de un suceso en logstash en https://www.elastic.co/guide/en/logstash/
current/index.html.
208
IBM Operations Analytics - Log Analysis: Guía de instalación, configuración y administración
Versiones
logstash 1.5.3 está empaquetado con IBM Operations Analytics - Log Analysis 1.3.3.
Fixpack 1
logstash 2.2.1 está empaquetado con IBM Operations Analytics - Log
Analysis 1.3.3 Fixpack 1.
Fixpack 1
Para actualizar desde logstash 1.5.3 a 2.2.1, consulte “Actualización a
logstash 2.2.1” en la página 210.
Dependencias
Versiones soportadas de logstash y sus dependencias.
Versión soportada de logstash
Las versiones soportadas de logstash son 1.5.3 y 2.2.1.
logstash 2.2.1 está empaquetado con IBM Operations Analytics - Log Analysis 1.3.3
Fixpack 1. logstash 1.5.3 está empaquetado con IBM Operations Analytics - Log
Analysis 1.3.3.
Requisito de versión de Java
Se requiere Open JDK 1.7.0_51 o superior para instalar logstash 1.5.3. Para
descargar el Open JDK correcto para el sistema, vaya a http://openjdk.java.net/
install/index.html.
No es necesario para logstash 2.2.1.
Requisito del kit de herramientas de DSV
Kit de herramientas de DSV v1.1.0.4 o superior para generar paquetes Insight de
IBM Operations Analytics - Log Analysis. Los paquetes Insight se utilizan para
indexar registros de anotaciones que se han anotado utilizando logstash. Solo se
necesita el kit de herramientas de DSV si se desea que logstash lleve a cabo la
ingestión, la separación, la anotación o para cuando los datos leídos por logstash
están en formato DSV. Para obtener más información sobre este escenario de
usuario, consulte “Configuración de logstash para el proceso de anotaciones y
preindexado rápido” en la página 216.
Paquete Insight de Generic Annotation
Generic Annotation v1.1.0, o v1.1.1 (refresh 1) está recomendado para la función
normalizadora de separador de indicador de fecha y hora, que reconoce diversos
indicadores de fecha y hora.
Eliminar logstash 1.5.3
Fixpack 1
Para eliminar logstash 1.5.3, realice este procedimiento.
Carga y modalidad continua de datos
209
Antes de empezar
Asegúrese de que SSH se ha configurado para las instancias remotas de logstash.
Para obtener más información, consulte “Configuración de Secure Shell (ssh) para
logstash remoto” en la página 212.
Acerca de esta tarea
Si desea utilizar logstash 2.2.1, elimine logstash 1.5.3 antes de instalar IBM
Operations Analytics - Log Analysis 1.3.3 Fixpack 1.
Procedimiento
1. Ejecute el mandato <HOME>/IBM/LogAnalysis/remote_install_tool/
uninstall.sh.
2. Para eliminar la instalación actual de logstash, siga las instrucciones.
Qué hacer a continuación
Ahora puede actualizar a logstash 2.2.1.
Actualización a logstash 2.2.1
Fixpack 1
Para actualizar desde logstash 1.5.3 a 2.2.1, siga estos pasos.
Acerca de esta tarea
logstash 1.5.3 está empaquetado con IBM Operations Analytics - Log Analysis 1.3.3.
logstash 2.2.1 está empaquetado con IBM Operations Analytics - Log Analysis 1.3.3
Fixpack 1.
Procedimiento
1. Guarde los archivos del directorio <dir_instalación>/Logstash/logstash1.5.3/ en otro directorio.
2. Elimine logstash 1.5.3. Para obtener más información, consulte “Eliminar
logstash 1.5.3” en la página 209.
3. Instale IBM Operations Analytics - Log Analysis 1.3.3 Fixpack 1.
4. Instale logstash 2.2.1. Para obtener más información, consulte “Instalación de
logstash en un nodo remoto” en la página 211.
5. Añada los archivos que ha guardado en el paso 1 en el directorio
<dir_instalación>/Logstash/logstash-2.2.1/.
Qué hacer a continuación
Aunque logstash 2.2.1 es compatible con todos los Paquetes Insight, el modo en
que se procesan los datos es diferente a cómo se procesan en logstash 1.5.3. Esto
puede cambiar el comportamiento de logstash durante la ejecución y puede afectar
al rendimiento.
Para revisar los cambios entre ambas versiones, consulte https://www.elastic.co/
guide/en/logstash/current/breaking-changes.html y https://www.elastic.co/
guide/en/logstash/current/upgrading-logstash-2.2.html.
210
IBM Operations Analytics - Log Analysis: Guía de instalación, configuración y administración
Instalación de logstash en un nodo remoto
Puede instalar logstash en un nodo remoto para mejorar el rendimiento del
sistema.
Antes de empezar
Asegúrese de que el usuario SSH tenga los permisos correctos para la instalación.
Para obtener información sobre la configuración SSH, consulte “Configuración de
Secure Shell (ssh) para logstash remoto” en la página 212 en la Guía de carga y
modalidad continua de datos.
Acerca de esta tarea
logstash consume muchos recursos del sistema y de procesador. logstash se puede
instalar en el host local pero para mejorar el rendimiento del sistema instale
logstash en un nodo remoto.
Procedimiento
1. Para instalar logstash, ejecute el mandato siguiente:
<HOME>/IBM/LogAnalysis/remote_install_tool/install.sh
2. El script de instalación instala logstash y proporciona opciones para instalar los
receptores EIF y el agente de archivo de registro. Para seleccionar cada opción,
incluido logstash, seleccione y o Y.
3. Proporcione la vía de acceso a la ubicación de instalación en el host remoto.
Resultados
logstash se instala en el directorio <dir_instalación>/Logstash/logstash<versión_logstash>/. Para confirmar la instalación, inicie sesión en el nodo remoto
como usuario SSH configurado y vaya a la ubicación de instalación.
Nota: Para instalar logstash en un nodo local, utilice la función de instalación
remota y establezca el valor de configuración de SSH REMOTE_HOST en localhost o
en IP Address/hostname del nodo.
Ejemplo
Los siguientes son algunos despliegues de ejemplo para logstash 2.2.1:
Ejemplo de logstash:
<install-dir>/Logstash/logstash-2.2.1/
Vía de acceso de configuración del plug-in de salida:
<install-dir>/Logstash/logstash-2.2.1/logstash-scala/logstash/
config/logstash-scala.conf
Directorio jar del plug-in de salida
<install-dir>/Logstash/logstash-2.2.1/logstash-scala/logstash/outputs
Los siguientes son algunos despliegues de ejemplo para logstash 1.5.3:
Ejemplo de logstash:
<dir_instalación>/Logstash/logstash-1.5.3/
Carga y modalidad continua de datos
211
Vía de acceso de configuración del plug-in de salida:
<dir_instalación>/Logstash/logstash-1.5.3/logstash-scala/logstash/
config/logstash-scala.conf
Directorio jar del plug-in de salida
<dir_instalación>/Logstash/logstash-1.5.3/logstash-scala/logstash/outputs
Configuración de Secure Shell (ssh) para logstash remoto
Antes de poder utilizar el programa de utilidad instalador remoto debe configurar
el SSH para los hosts remotos.
El archivo ssh_config.properties está en el directorio <HOME>/IBM/
LogAnalysis/remote_install_tool/config. Configure los valores de parámetro tal
como se describe en la Tabla 1.
La comunicación SSH puede estar basada en una contraseña o una clave pública.
Si implementa ambas opciones, la configuración de la clave pública se utiliza de
forma predeterminada.
Para configurar SSH basado en contraseña, especifique un valor para la contraseña
y elimine el comentario del archivo de claves privadas. El programa de utilidad
instalador remoto utiliza la contraseña especificada para la autenticación SSH
cuando se conecta con el sistema principal remoto.
Para configurar la autenticación basada en archivo de claves privadas, especifique
la vía de acceso del archivo de claves privadas y no especifique un valor para la
contraseña. El programa de utilidad utiliza el archivo para crear una conexión SSH
sin contraseña.
Para configurar la autenticación de línea de mandatos, renombre el archivo de
propiedades ssh-config o mueva el archivo de propiedades a una nueva ubicación.
De forma predeterminada, las configuraciones se seleccionan en el archivo de
propiedades. Si el archivo no está disponible, se solicita al usuario entrada en la
línea de mandatos.
Tabla 38. Parámetros ssh_config
Parámetro
Valor
REMOTE_HOST=
<IP SERVIDOR REMOTO/NOMBRE HOST
FQ>
PORT=
<PUERTO SSH>
EL VALOR PREDETERMINADO ES 22
USER=
<USUARIO_SSH>
PASSWORD=
<CONTRASEÑA_SSH>
Configuración de logstash
logstash puede configurarse como un agente de archivo de registro para ingerir
registros de varias fuentes diferentes.
Acerca de esta tarea
Hay dos casos de uso establecidos para utilizar logstash con IBM Operations
Analytics - Log Analysis; son los siguientes:
212
IBM Operations Analytics - Log Analysis: Guía de instalación, configuración y administración
v Configuración de logstash como una alternativa a ITM LFA
v Configuración de logstash para el proceso de anotaciones y preindexado rápido
Ambos casos de uso se describen en esta sección.
Configuración de logstash como una alternativa a ITM LFA
logstash puede usarse como un agente de archivo de registro para ingerir registros
de varias fuentes diferentes. También puede admitir la integración con numerosos
agentes de archivo de registro alternativos como Lumberjack, Minuswell, Beaver y
Syslog.
Acerca de esta tarea
Los registros de anotaciones se escriben en IBM Operations Analytics - Log
Analysis, que a continuación envía el mensaje al servidor de IBM Operations
Analytics - Log Analysis para la anotación e indexación.
Procedimiento
1. Actualice el archivo de configuración de ejemplo de logstash con su
información de configuración, <dir_instalación_logstash>/LogStash/
<logstash_version>/logstash-scala/logstash/config/logstash-scala.conf.
Donde <dir_instalación_logstash> es la vía de acceso donde se ha instalado
logstash utilizando la herramienta de despliegue remoto de IBM Operations
Analytics - Log Analysis. <versión_logstash> es la versión de logstash, 2.2.1 o
1.5.3.
a. Defina una entrada y un filtro en el archivo de configuración de logstash.
Por ejemplo:
input {
file {
type => "http"
path => ["/tmp/myhttp.log"]
}
}
filter{
mutate{
replace => ["host","<hostname>"]
replace => ["path","/tmp/apache.log"]
}
}
Nota: Para Windows, el plug-in del archivo logstash requiere una
especificación de letra de unidad para la vía de acceso, por ejemplo:
path => ["c:/tmp/myhttp.log"]
b. Modifique el archivo de configuración de logstash para añadir el plug-in de
salida scala.
El plug-in de salida scala coloca en el almacenamiento intermedio el suceso
de logstash y lo envía al servidor de IBM Operations Analytics - Log
Analysis mediante la API REST de ingesta del servidor de Log Analysis. El
archivo de configuración de logstash puede contener uno o varios plug-ins
de salida scala. Los plug-ins de salida se pueden configurar para escribir
en distintos servidores de Log Analysis o en el mismo servidor de Log
Analysis con un conjunto distinto de configuraciones.
Cada suceso que se envía al plug-in de salida scala debe contener al menos
los campos host y path. Los valores de estos campos los utiliza el plug-in
Carga y modalidad continua de datos
213
de salida scala para determinar el origen de datos de destino para el
suceso. El plug-in de salida descartará cualquier suceso que no contenga
ninguno de estos dos campos.
A continuación se muestran los parámetros predeterminados, con valores de
ejemplo, del plug-in de salida scala de IBM Operations Analytics - Log
Analysis:
output {
scala {
scala_url => "https://<la_server>:<port>/Unity/DataCollector"
scala_user => "<LA_user>"
scala_password => "<LA_Password>"
scala_keystore_path => ""
batch_size => 500000
idle_flush_time => 5
sequential_flush => true
num_concurrent_writers => 20
use_structured_api => false
disk_cache_path => "<install-dir>/Logstash/cache-dir"
scala_fields =>
{
"host1@path1,host2@path2"
=> "event_field11,event_field12,...,event_field1N"
"host3@path3"
=> "event_field21,event_field22,...,event_field2N"
}
date_format_string => "yyyy-MM-dd’T’HH:mm:ssX"
log_file => "<install-dir>/Logstash/logs/scala_logstash.log"
log_level => "info"
}
Donde:
v scala_url es el punto final REST de la API REST de ingesta de Log
Analysis.
v scala_user es el nombre de usuario de Log Analysis.
v scala_password es la contraseña de usuario de Log Analysis.
v scala_keystore_path está en blanco.
v batch_size es el número máximo de bytes que se pueden colocar en el
almacenamiento intermedio para un origen de datos antes de transmitir
al servidor de Log Analysis. El valor predeterminado es 500000 bytes.
Nota: Si se reduce considerablemente el tamaño de lote, el rendimiento
resultará afectado. Si se aumenta el tamaño de lote, se requerirá más
memoria de almacenamiento dinámico.
v idle_flush_time es el tiempo máximo entre transmisiones sucesivas de
datos para un origen de datos.
v sequential_flush define si los lotes de cada origen de datos se envían
secuencialmente. Se establece en true para enviar los lotes
secuencialmente.
Nota: Se requiere envío secuencial cuando la entrada contiene registros
de varias líneas combinados en un Paquete Insight en el servidor de Log
Analysis.
v num_concurrent_writers es el número de hebras que transmiten
simultáneamente lotes de datos al servidor de Log Analysis.
v use_structured_api determina si los datos se transmiten al servidor de
Log Analysis en el formato JSON. Se establece en true para transmitir
datos en el formato JSON.
214
IBM Operations Analytics - Log Analysis: Guía de instalación, configuración y administración
Nota: El origen de datos de Log Analysis de destino debe estar asociado
con un tipo de datos que utilice la API estructurada de Log Analysis.
v disk_cache_path es la vía de acceso del sistema de archivos que almacena
temporalmente los datos en el almacenamiento intermedio. El plug-in de
salida scala graba los datos en esta vía de acceso antes de la transmisión.
El espacio de disco disponible en la vía de acceso debe ser suficiente para
almacenar ráfagas de datos de entrada que no maneje inmediatamente el
servidor de Log Analysis.
v scala_fields es la correlación que especifica los nombres de campos que
se deben recuperar del suceso de logstash entrante y transmitir al
servidor de Log Analysis. Las claves para la correlación son una lista de
nombres de host y vía de acceso, separados por coma, correspondientes a
un origen de datos de Log Analysis.
El plug-in scala extrae los campos host y path de cada suceso antes de
consultar la correlación scala_fields para una entrada de combinación
de host y vía de acceso. Si hay una entrada con nombres de campo, el
plug-in scala extrae los valores de campo correspondientes del suceso.
Los valores se transmiten al servidor de Log Analysis. Si las entradas de
host y vía de acceso no están en la correlación scala_fields, el plug-in
scala extrae el contenido del campo de mensaje del suceso y lo transmite
al servidor de Log Analysis.
v date_format_string es el valor de serie al que se transforman todos los
campos antes de la transmisión al servidor de Log Analysis. El plug-in
scala utiliza el parámetro date_format_string para convertir valores de
fecha al valor de serie adecuado.
v log_file es el archivo que se utiliza para registrar información del
plug-in de salida scala.
v log_level es el nivel de información de registro. Los niveles soportados
son fatal, error, warn, info y debug.
2. Cree un origen de datos personalizados. Para obtener más información,
consulte data source creation en la sección Administración.
Asegúrese de que el Nombre de host y la Vía de acceso de archivo coincidan
con el host y la vía de acceso que se especifican en la sección 'mutate' del filtro
del archivo de configuración de logstash, logstash-scala.conf.
Asegúrese de que el Tipo coincida con el archivo de registro que se ingiere y se
define en la sección de 'mutate' del filtro, por ejemplo DB2Diag.
Por ejemplo, si ha especificado /tmp/myhttp.log como archivo de entrada, cree
un origen de datos personalizado con la vía de acceso establecida en
/tmp/myhttp.log.
Qué hacer a continuación
Inicie logstash.
Tareas relacionadas:
“Operaciones de logstash” en la página 223
Puede utilizar el script logstash-util para iniciar, detener, reiniciar y proporcionar
el estado de logstash.
Carga y modalidad continua de datos
215
Configuración de logstash para el proceso de anotaciones y
preindexado rápido
logstash puede utilizarse para dividir los registros de anotaciones y realizar
anotaciones básicas. Para los tipos de registro no soportados por IBM Operations
Analytics - Log Analysis, hay un enfoque alternativo para grabar AQL en archivos
de registro anotados.
Acerca de esta tarea
logstash incluye una amplia lista de capacidades de filtrado, manipulación y
procesamiento, por ejemplo, el filtro grok se puede utilizar para analizar el texto
como datos estructurados. Puede utilizarlo para encontrar texto sin necesidad de
dominar las expresiones regulares. Hay aproximadamente 120 patrones grok que se
omiten de forma predeterminada, aunque puede añadir más. También incluye
patrones para formatos de archivo de registro de conocimientos, como por ejemplo
el formato de registro de acceso combinado de Apache.
En este caso de ejemplo, se utiliza el filtro grok con logstash utilizado como el
separador o el anotador del archivo de registro. El plug-in de salida scala envía un
único registro de archivo al receptor EIF de IBM Operations Analytics - Log
Analysis con las anotaciones en un formato de valores separados por delimitadores
(DSV). A continuación, utilizando el kit de herramientas DSV, el usuario debe crear
e instalar un paquete Insight que coincida con el formato DSV, de modo que IBM
Operations Analytics - Log Analysis pueda indexar las anotaciones.
Procedimiento
1. Para configurar la instalación de logstash, especifique los valores necesarios en
el archivo <instalación_logstash>/Logstash/logstash-<logstash_version>/
logstash-scala/logstash/config/logstash-scala.conf.
a. Defina la entrada en el archivo de configuración de logstash.
Por ejemplo:
input {
file {
type => "apache"
path => ["/tmp/logs/myapache.log"]
}
}
Nota: Para Windows, el plug-in del archivo logstash requiere una
especificación de letra de unidad para la vía de acceso, por ejemplo:
path => ["C:/tmp/logs/myapache.log"]
b. Añada un filtro o varios filtros para que el archivo de configuración de
logstash identifique el patrón del formato de archivo del registro. Esto
también crea las anotaciones. Para activar el filtro, el tipo debe coincidir con
el tipo de entrada.
Por ejemplo:
filter {
if [type] == "http" {
grok {
match => ["message", "%{IP:client} %{WORD:method}
%{URIPATHPARAM:request} %{NUMBER:bytes} %{NUMBER:duration}"]
}
}
mutate{
216
IBM Operations Analytics - Log Analysis: Guía de instalación, configuración y administración
replace => ["host","<hostname>"]
replace => ["path","/tmp/apache.log"]
}
}
En este ejemplo, el cliente de campos, el método, la solicitud, los bytes y la
duración son anotados por el patrón. No obstante, solo se envían los
campos cliente, método y solicitud a IBM Operations Analytics - Log
Analysis. Por lo tanto, esas son las únicas tres anotaciones que pueden
incluirse en la configuración de índice. El módulo de salida envía el texto
de suceso en formato DSV con la forma siguiente:
“client”,“method”, “request”
El usuario también puede utilizar uno de los numerosos patrones
predefinidos de formato de registro grok, por ejemplo:
filter {
if [type] == "apache" {
grok {
match => ["message", "%{COMBINEDAPACHELOG}"]
}
}
mutate{
replace => ["host","<hostname>"]
replace => ["path","/tmp/apache.log"]
}
}
c. En la sección de salida del archivo de configuración, para
{COMBINEDAPACHELOG} especifique scala_fields de la siguiente manera:
scala_fields =>
{
"<host>@<path>" => "clientip,ident,auth,timestamp,verb,
request,httpversion,rawrequest,response,bytes,referrer,agent"
}
donde <host> y <path> son los valores que están definidos en la sección
'mutate' del filtro grok.
2. Cree un paquete Insight generado por DSV de IBM Operations Analytics - Log
Analysis para indexar los datos anotados en IBM Operations Analytics - Log
Analysis.
Puede utilizar el archivo ApacheDSV.properties para crear un Paquetes Insight
basado en Apache.
Para obtener más información sobre el archivo ApacheDSV.properties, consulte
ApacheDSV.properties en la sección Referencia de la guía Ampliación.
Edite este archivo de propiedades para configurar información sobre el servidor
de IBM Operations Analytics - Log Analysis:
[SCALA_server]
username: unityadmin
password: unityadmin
scalaHome: $HOME/IBM/LogAnalysis
Utilice el script dsvGen.py que se proporciona con el kit de herramientas DSV
para generar y desplegar el paquete Insight de Apache:
python dsvGen.py <vía_acceso>/ApacheDSV.properties -d
3. Cree un origen de datos personalizados. Para obtener más información,
consulte data source creation en la sección Administración.
Asegúrese de que el Nombre de host y la Vía de acceso de archivo coincidan
con el host y la vía de acceso que se especifican en la sección 'mutate' del filtro
del archivo de configuración de logstash, logstash-scala.conf.
Carga y modalidad continua de datos
217
Asegúrese de que el Tipo coincida con el archivo de registro que se ingiere y se
define en la sección de 'mutate' del filtro, por ejemplo DB2Diag.
Por ejemplo, si ha especificado /tmp/myhttp.log como archivo de entrada, cree
un origen de datos personalizado con la vía de acceso establecida en
/tmp/myhttp.log.
Qué hacer a continuación
Inicie logstash. Para obtener más información sobre cómo iniciar logstash, consulte
Operaciones logstash.
Tareas relacionadas:
“Operaciones de logstash” en la página 223
Puede utilizar el script logstash-util para iniciar, detener, reiniciar y proporcionar
el estado de logstash.
Referencia relacionada:
ApacheDSV.properties
Puede utilizar este archivo de propiedades con el conjunto de herramienta de DSV
para generar un Paquete Insight asociado con el patrón grok COMBINEDAPACHELOG.
Ejemplo - Anotación de archivos de registro de Apache combinados:
Utilización de logstash para anotar archivos de registro Apache.
Procedimiento
1. Para configurar la instalación de logstash, especifique los valores necesarios en
el archivo <instalación_logstash>/Logstash/logstash-<version>/logstashscala/logstash/config/logstash-scala.conf.
a. En la sección de entrada, especifique el archivo de registro de Apache que
se va a supervisar.
input {
file {
type => "apache"
path => ["/tmp/apache.log"]
}
}
b. Añada el filtro grok de logstash con el patrón COMBINEDAPACHELOG
predefinido para anotar los archivos de registro Apache.
Por ejemplo:
filter {
if [type] == "apache" {
grok {
match => ["message", "%{COMBINEDAPACHELOG}"]
}
}mutate{
replace => ["host","<hostname>"]
replace => ["path","/tmp/apache.log"]
}
}
El patrón COMBINEDAPACHELOG se define así:
COMBINEDAPACHELOG %{IPORHOST:clientip} %{USER:ident} %{USER:auth}
\[%{HTTPDATE:timestamp}\] "(?:%{WORD:verb} %{NOTSPACE:request}
(?: HTTP/%{NUMBER:httpversion})?|%{DATA:rawrequest})" %{NUMBER:response}
(?:%{NUMBER:bytes}|-) %{QS:referrer} %{QS:agent}
Para obtener más información sobre los archivos de registro de Apache,
consulte http://httpd.apache.org/docs/2.4/logs.html.
218
IBM Operations Analytics - Log Analysis: Guía de instalación, configuración y administración
El suceso de logstash contiene anotaciones para clientip, ident, auth,
timestamp, verb, request, httpversion, rawrequest, response, bytes,
referrer, y agent.
c. Cambie el valor <hostname> y path al <hostname> del servidor de logstash y
la vía de acceso del archivo de registro. Por ejemplo
mutate{
replace => ["host","<hostname>"]
replace => ["path","/tmp/apache.log"]
}
d. En la sección de salida del archivo de configuración, especifique el plug-in
de salida de IBM Operations Analytics - Log Analysis. El valorscala_fields
en el plug-in de salida debe estar definido de la siguiente manera:
scala_fields =>
{
"<host>@<path>" => "clientip,ident,auth,timestamp,verb,
request,httpversion,rawrequest,response,bytes,referrer,agent"
}
Donde <host> y <path> son los valores definidos en la sección 'mutate' del
filtro grok.
2. El archivo ApacheDSV.properties se puede utilizar con el kit de herramientas
DSV para crear un paquete Insight de Apache. Para obtener más información
sobre el archivo ApacheDSV.properties, consulte ApacheDSV.properties en la
sección Referencia de la guía Ampliación. Edite este archivo de propiedades para
configurar la información sobre el servidor de IBM Operations Analytics - Log
Analysis:
[SCALA_server]
username: unityadmin
password: unityadmin
scalaHome: $HOME/IBM/LogAnalysis
3. Utilice el script dsvGen.py que se proporciona con el kit de herramientas DSV
para generar y desplegar el paquete Insight de Apache:
python dsvGen.py <path>/ApacheDSV.properties -d
4. En la IU de valores administrativos de IBM Operations Analytics - Log
Analysis, crea un origen de datos que tenga el tipo de origen Apache creado
por el kit de herramientas de DSV en el paso 3, en su archivo de configuración
de logstash.
5. Para iniciar logstash con el archivo de configuración e iniciar la carga de
archivos de registro Apache, ejecute el mandato siguiente:
<logstash_install>/utilities/logstash-util.sh start
Referencia relacionada:
ApacheDSV.properties
Puede utilizar este archivo de propiedades con el conjunto de herramienta de DSV
para generar un Paquete Insight asociado con el patrón grok COMBINEDAPACHELOG.
Instalación de logstash en servidores basados en Windows
Si desea utilizar logstash para recopilar datos de registro de los sistemas operativos
Windows, debe instalar logstash en el servidor donde se ejecuta Windows.
Antes de empezar
v Si está utilizando logstash 1.5.3, instale Java 1.7.5 o posterior en el servidor de
Windows. Asegúrese de que esta versión no sea IBM Java.
Carga y modalidad continua de datos
219
v Copie el archivo de certificado client.crt desde el servidor de Log Analysis en
el servidor de Windows. Para buscar el archivo, vaya al directorio
<HOME>/IBM/LogAnalysis y especifique el mandato siguiente:
find . -name client.crt
Si encuentra más de un archivo, puede utilizar cualquiera de estos archivos.
v Después de instalar Java, importe el archivo client.crt al almacén de claves
Java de la instancia de logstash. Por ejemplo, especifique el mandato siguiente
para importar el archivo:
JAVA_HOME/bin/keytool -importcert -file <Vía_acceso_archivo>/client.crt
-keystore <inicio_Java>/jre/lib/security/cacerts
-alias LA_ClientCertificate
Donde <Vía_acceso_archivo> es la vía de acceso completa al directorio donde se
ha guardado el certificado de cliente. <inicio_Java> es la variable de inicio Java
del servidor Windows que ha instalado en el primer requisito previo. La
contraseña predeterminada es changeit.
Procedimiento
1. Cree un directorio denominado logstash en el servidor de Windows. Por
ejemplo, C:/logstash2.2.1/logstash/.
2. Guarde el archivo de paquete de logstash en este directorio.
3. Para instalar logstash en el servidor de Windows, extraiga el archivo logstash.
4. Copie el archivo <HOME>/IBM/LogAnalysis/Logstash/Logstash-2.2.1/logstashscala.tgz en el directorio logstash del servidor Windows.
5. Extraiga el archivo logstash-scala.tgz.
La extracción de este archivo crea dos directorios, ../config y ../outputs.
Debe crear un directorio de salida anidada con el formato /plugins/logstash/
output. Por ejemplo, C:/logstash2.2.1/logstash/plugins/logstash/output.
6. Si desea utilizar logstash con el Paquete Insight de sucesos de sistema
operativo Windows, debe copiar el archivo logstash-scala.conf de Paquete
Insight en el directorio /plugins/logstash/config en el servidor de Windows.
Para obtener más información, consulte “Integración del paquete Insight de
sucesos de sistema operativo Windows con logstash” en la página 303.
Qué hacer a continuación
Después de completar la instalación, puede empezar a utilizar logstash.
Por ejemplo, suponiendo que ha extraído el plug-in de Log Analysis en la carpeta
C:\logstashplugins\logstash, especifique el siguiente mandato para iniciar
logstash:
C:\logstash-2.2.1>bin\logstash agent --verbose -f
C:\logstash-plugins\logstash\scala.conf --pluginpath
C:\logstash-plugins\logstash\plugins -l console.log
Los archivos de registro en este ejemplo se denominan console.log. Puede cambiar
el nombre del archivo según sea necesario.
Para detener logstash, especifique un mandato CTRL+C en la misma consola. No
puede utilizar el script logstash-util.sh para operar logstash en los servidores de
Windows.
220
IBM Operations Analytics - Log Analysis: Guía de instalación, configuración y administración
Referencia de archivo de configuración de logstash
El archivo de configuración logstash-scala.conf controla cómo logstash anota y
almacena los registros del archivo de registro.
Debe especificar los parámetros que se describen en la tabla siguiente.
Tabla 39. Valores necesarios para el archivo logstash-scala.conf
Parámetro
Descripción
LA_SERVER_IP
Especifique la dirección IP o el nombre de
host del servidor de Log Analysis.
SCALA_KEYSTORE_PATH
Especifique la vía de acceso completa al
directorio donde se guarda el archivo de
almacén de claves en el servidor de Log
Analysis.
PATH_TO_DIR
Especifique la vía de acceso al directorio
donde el paquete Insight de sucesos de
sistema operativo Windows almacena la
memoria caché. Por ejemplo,
C:\ProjectWork\LogAnalytics\Scala-v1.3\
v1.3.2\Logstash-1-5-Integration\
logstash-2.2.1\configs\
WindowsOSInsightPackTests\cache.
PATH_TO_FILE
Especifique la vía de acceso al directorio
donde desea almacenar los archivos de
registro.
Ejemplo
input {
eventlog {
type => ’Win32-EventLog’
}
}
filter{
if [type] == "Win32-EventLog"{
grok {
match => ["TimeGenerated", "%{WORD:TIMEGEN_DATETIME}
.%{WORD:TIMEGEN_MICROSEC}%{ISO8601_TIMEZONE:TIMEGEN_TZONE}"]
add_tag => ["eventlog_grokked"]
}
if "eventlog_grokked" in [tags]{
grok{
match => ["TIMEGEN_DATETIME","⌂%{YEAR:YYYY}%{MONTHNUM:MM}
%{MONTHDAY:dd}%{HOUR:hh}%{MINUTE:mm}%{SECOND:ss}$"]
add_tag => [ "eventlog_timestamp_grokked" ]
}
}
mutate {
# Formato de indicación de fecha y hora de ejemplo que funciona con LA:
# 2015-08-26 18:54:26 +0000
# yyyy-MM-dd HH:mm:ss Z
# La información de huso horario se establece en UTC siempre
add_field => [ "timestamp", "%{YYYY}-%{MM}-%{dd} %{hh}:%{mm}:%{ss} +0000" ]
# Actualizar la vía de acceso; esta es la vía de acceso del archivo origen de datos
en el servidor SCALA
update => [ "path", "WindowsOSEventsLogStash" ]
########################################################################
Carga y modalidad continua de datos
221
# Estos son los campos que se envían a SCALA para que coincidan con el #
# tipo de origen WindowsOSEventsLogStash. SCALA ingiere los siguientes #
# campos:
#
# Hostname
#
# Level
#
# EventRecordNumber
#
# EventSource
#
# EventID
#
# timestamp
#
# EventLog
#
# User
#
# Description
#
# Category
#
########################################################################
add_field => ["scalaFields",
add_field => ["scalaFields",
add_field => ["scalaFields",
add_field => ["scalaFields",
add_field => ["scalaFields",
Information etc
add_field => ["scalaFields",
e.g. Application, System etc
add_field => ["scalaFields",
add_field => ["scalaFields",
add_field => ["scalaFields",
add_field => ["scalaFields",
"timestamp"]
"Category"]
"message"]
"EventIdentifier"]
"Type"]
#
#
# Description
# EventID
# Level - Warning,
"Logfile"]
# EventLog
"SourceName"]
"ComputerName"]
"RecordNumber"]
"User"]
# EventSource
# Hostname
# EventRecordNumber
#
} # end mutate
} # end if type = Win32-EventLog
} # end filter
output {
# Elimine el comentario de la salida de archivo si los usuarios desean ver
# datos de sucesos en un archivo de depuración. Especifique la vía de acceso del archivo.
#file {
# codec => rubydebug
# #path => "C:\yogesh\logstash-plugins\ruby-debug.log"
# path => "PATH_TO_FILE\ruby-debug.log"
#}
scala {
scala_url => "https://LA_SERVER_IP:9987/Unity/DataCollector"
scala_user => "unityadmin"
scala_password => "unityadmin"
# Puede utilizar la contraseña cifrada o utilizar una de texto sin formato.
# Si se utiliza una contraseña cifrada, proporcione la vía de almacén de claves siguiente.
# Si se utiliza una contraseña de texto sin formato, comente la línea
siguiente para la vía de acceso de almacén de claves
scala_keystore_path => "SCALA_KEYSTORE_PATH"
batch_size => 500000
idle_flush_time => 5
sequential_flush => true
num_concurrent_writers => 20
use_structured_api => false
# Asegúrese de crear un directorio de memoria caché. Configure la vía de acceso siguiente:
disk_cache_path => "PATH_TO_DIR\cache"
#disk_cache_path => "C:\ProjectWork\LogAnalytics\Scala-v1.3\v1.3.2\
Logstash-1-5-Integration\logstash-2.2.1\configs\
WindowsOSInsightPackTests\cache"
scala_fields =>
{
#"host1@path1,host2@path2"
# => "timestamp,Category,...,event_field1N"
"co912212163@WindowsOSEventsLogStash"
=> "timestamp,Category,message,EventIdentifier,Type,
222
IBM Operations Analytics - Log Analysis: Guía de instalación, configuración y administración
Logfile,SourceName,ComputerName,RecordNumber,User"
}
date_format_string => "yyyy-MM-dd’T’HH:mm:ssX"
log_file => "PATH_TO_FILE\scala-debug.log"
log_level => "debug"
Operaciones de logstash
Puede utilizar el script logstash-util para iniciar, detener, reiniciar y proporcionar
el estado de logstash.
Acerca de esta tarea
Puede utilizar el script logstash-util para la gestión de ciclo de vida de procesos
de logstash.
Procedimiento
1. Para iniciar, detener, reiniciar o proporcionar el estado de logstash, ejecute el
mandato siguiente:
<install-dir>/utilities/logstash-util.sh start| stop| restart| status
donde <install-dir> es el nombre de la ubicación de instalación de logstash.
2. Para confirmar que logstash se está ejecutando, ejecute el script logstash-util
y utilice la opción status. La opción status muestra también el identificador
de proceso de logstash.
Métodos recomendados de logstash
Métodos recomendados para logstash basándose en la información de la
comunidad de usuarios.
Para el rendimiento se recomienda instalar logstash en un servidor distinto de IBM
Operations Analytics - Log Analysis. logstash origina un uso intensivo del
procesador, la memoria y el disco si se utilizan las funciones de anotación e
indexación.
Los usuarios que tienen limitaciones de memoria no utilizan logstash como agente
de reenvío. No instalan logstash en los servidores del cliente final. Utilizan otras
aplicaciones como rsyslog para reenviar registros a un servidor central con
logstash. Consulte https://support.shotgunsoftware.com/entries/23163863Installing-logstash-Central-Server para una configuración de ejemplo.
Los usuarios con logstash en el cliente final a los que preocupa el rendimiento han
utilizado aplicaciones como Redis para reenviar registros a un servidor central con
logstash. Consulte la información siguiente para ver la configuración de Redis
http://www.linux-magazine.com/Online/Features/Consolidating-Logs-withlogstash .
Para ajustar logstash, en especial la hora de inicio, los usuarios pueden retocar el
tamaño de almacenamiento dinámico mínimo y máximo de Java con los distintivos
-Xms y -Xmx. El parámetro -Xms es el tamaño de almacenamiento intermedio
inicial de Java cuando se inicia la JVM, y el parámetro -Xmx es el tamaño de
almacenamiento intermedio máximo.
Referencias
Enlaces para obtener más información sobre la aplicación logstash.
Carga y modalidad continua de datos
223
Sitio web de logstash:
http://logstash.net
Guía de iniciación de logstash:
https://www.elastic.co/guide/en/logstash/current/getting-started-withlogstash.html
Descarga de logstash:
http://logstash.net (Click download button)
El libro de logstash:
http://www.logstashbook.com/
Wiki de IBM Operations Analytics - Log Analysis:
http://www.ibm.com/developerworks/servicemanagement/ioa/log/
downloads.html
Wiki de IBM Operations Analytics - Log Analysis: Recursos del kit de
herramientas de Logstash:
https://www.ibm.com/developerworks/community/wikis/
home?lang=en#!/wiki/IBM%20Log%20Analytics%20Beta/page/Logstash
%20Toolkit%20Resources
Problemas conocidos
Problemas conocidos cuando se utiliza logstash con IBM Operations Analytics Log Analysis.
En esta sección se describe una serie de problemas conocidos y sus soluciones.
Para obtener la información más reciente sobre los problemas o soluciones,
consulte la wiki de IBM Operations Analytics - Log Analysis:https://
www.ibm.com/developerworks/community/wikis/home?lang=en#!/wiki/IBM
%20Log%20Analytics%20Beta/page/Welcome
No se ha podido cargar el proveedor FFI
El inicio de logstash no se puede realizar con la excepción de Ruby “No se ha
podido cargar el proveedor FFI”.
Síntomas
La excepción de Ruby “No se ha podido cargar el proveedor FFI”.
Causas
La causa más habitual de este error es que/tmp esté montado con el distintivo
noexec.
Resolución del problema
Esto puede resolverlo así:
v Monte /tmp con el distintivo noexec
v Edite el script startlogstash-scala y modifique el mandato de inicio como se
indica a continuación:
LSCMD="$MYJAVA -jar -Djava.io.tmpdir=</some/tmp/dir> $LSJAR agent
--pluginpath $PLUGPATH -f $CONF"
Donde </some/tmp/dir> es un directorio temporal.
224
IBM Operations Analytics - Log Analysis: Guía de instalación, configuración y administración
Duplicación de los registros de anotaciones en el servidor
SCALA
En ocasiones, cuando el agente logstash se reinicie y el archivo de registro que se
supervisa se actualice (por ejemplo, mediante un registro de transmisión), logstash
ingerirá todo el archivo de nuevo en lugar de reiniciarlo desde donde detuvo la
supervisión.
Síntomas
El problema resulta ser una duplicación de los registros de anotaciones en el
servidor SCALA.
Causas
En el foro logstash (https://logstash.jira.com/secure/Dashboard.jspa) se han
notificado varios problemas según los cuales el puntero sincedb (que rastrea la
última posición supervisada del archivo de registro) a veces no se actualiza
correctamente. Además, utilizar control-C para finalizar el agente logstash no
siempre finaliza logstash. El resultado es un agente logstash "fantasma" que
todavía está supervisando los archivos de registro. Esto también puede provocar
registros duplicados.
Resolución del problema
1. Un método alternativo para evitar los registros duplicados después de reiniciar
logstash es establecer el parámetro sincedb_path en el plug-in de archivo en
/dev/null, lo cual indica alogstash que omita el seguimiento de la última
posición del archivo supervisado y que siempre inicie la supervisión desde el
final del archivo. Sin embargo, esto provocará que logstash omita las
actualizaciones del archivo de registro mientras el agente logstash está inactivo.
Por ejemplo, enlogstash-scala.conf, actualice:
input {
file {
type => "apache"
path => ["/tmp/logs/myapache.log"]
sincedb_path => "/dev/null"
}
}
Antes de reiniciar logstash después de realizar estos cambios de configuración,
también es posible que desee limpiar las bases de datos sincedb que ya se
hayan creado. De forma predeterminada, la base de datos sincedb se almacena
en el directorio $HOME, y tienen nombres que empiezan por ".sincedb_".
2. Al terminar el agente logstash con control-C, verifique que el proceso java
logstash haya finalizado realmente. Puede utilizar el mandato siguiente para
ver si logstash todavía está en ejecución:
ps -ef | grep logstash
Los registros no aparecen en la interfaz de usuario de búsqueda
Los registros de anotaciones son omitidos por logstash, pero no aparecen en la IU
de búsqueda de IBM Operations Analytics - Log Analysis.
Síntomas
Los registros de anotaciones son omitidos por logstash, pero no aparecen en la IU
de búsqueda de IBM Operations Analytics - Log Analysis.
Causas
Los registros de anotaciones ingeridos por logstash se reenvían al servidor IBM
Operations Analytics - Log Analysis para la separación, la anotación y la
Carga y modalidad continua de datos
225
indexación. Si el servidor de IBM Operations Analytics - Log Analysis se apaga
durante este proceso, puede que se pierdan algunos registros de anotaciones.
Configuración del receptor EIF
Log Analysis utiliza el receptor de Tivoli Event Integration Facility (EIF) para
cargar datos.
Acerca de esta tarea
Los pasos siguientes son los mismos para las instalaciones remotas y locales de EIF
a menos que se afirme lo contrario.
En la mayoría de los casos, modifique estos valores para mejorar el rendimiento de
la carga de datos o para adaptar los valores predeterminados para que coincidan
con el entorno.
Puede cambiar los valores de tiempo de espera y tamaño de almacenamiento
intermedio, las cuentas de usuario, el número de sucesos y el intervalo de
limpieza.
Configuración del tamaño del almacenamiento intermedio y
del tiempo de espera del receptor
Al recopilar datos utilizando el IBM Tivoli Monitoring Log File Agent (LFA) y el
flujo del adaptador de Tivoli Event Integration Facility (EIF), puede que necesite
cambiar la velocidad a la que los sucesos se envían al receptor genérico para la
indexación. Los sucesos entrantes se almacenan en la memoria intermedia en el
lado del receptor de EIF.
Acerca de esta tarea
Para mejorar el rendimiento global de IBM Operations Analytics - Log Analysis,
puede configurar el tamaño del almacenamiento intermedio y el periodo de tiempo
de espera para que coincidan con la tasa de sucesos entrantes. Si la tasa de sucesos
aumenta, aumente el tamaño del almacenamiento intermedio y reduzca el periodo
de tiempo de espera. Cuando la tasa de sucesos disminuya, reduzca el tamaño del
almacenamiento intermedio y el intervalo de tiempo de espera en el valor
predeterminado o auméntelo, según el tipo de suceso.
Los pasos siguientes son los mismos para las instalaciones remotas y locales de EIF
a menos que se afirme lo contrario.
Procedimiento
Para modificar los parámetros de tamaño de almacenamiento intermedio y el
tiempo de espera:
1. Detenga IBM Operations Analytics - Log Analysis:
v Si utiliza una instalación local de la EIF, utilice el mandato siguiente para
detener IBM Operations Analytics - Log Analysis:
<HOME>/IBM/LogAnalysis/utilities/unity.sh -stop
v Si utiliza una instalación remota de la EIF, utilice el mandato eifutil.sh
-stop para detener las instancias. Para obtener más información, consulte
“Mandato eifutil.sh” en la página 116.
2. Abra el archivo de configuración para editarlo:
226
IBM Operations Analytics - Log Analysis: Guía de instalación, configuración y administración
v Si utiliza una instalación local de la EIF, abra el archivo unity.conf en el
directorio <HOME>/IBM/LogAnalysis/UnityEIFReceiver/config/.
v Si utiliza una instalación remota del EIF, el archivo unity.conf se encuentra
en el directorio <remote_deployment_location>/LogAnalysis/DataForwarders/
EIFReceivers/<eif_inst_#>/config/unity.conf. Donde
<remote_deployment_location> es el directorio de la máquina remota en el que
ha desplegado la instancia EIF. <eif_inst_#> es la carpeta que se utiliza para
la instancia de EIF remota específica.
3. Cambie los parámetros de tiempo de espera y tamaño de almacenamiento
intermedio para adaptarlos a su entorno operativo:
#Tiempo de espera en segundos
logsource.buffer.wait.timeout=10
#Tamaño de almacenamiento intermedio en bytes
logsource.max.buffer.size=250000
4. Guarde los cambios.
5. Inicie IBM Operations Analytics - Log Analysis:
v Si utiliza una instalación local de la EIF, utilice el mandato siguiente para
iniciar IBM Operations Analytics - Log Analysis:
<HOME>/IBM/LogAnalysis/utilities/unity.sh -start
v Si utiliza una instalación remota de la EIF, utilice el mandato eifutil.sh
-start para iniciar las instancias. Para obtener más información, consulte
“Mandato eifutil.sh” en la página 116.
Resultados
Con mayores tamaños de almacenamiento intermedio, observe que se tarda mucho
más tiempo en llenar el almacenamiento intermedio con sucesos y en enviar los
lotes al receptor.
Configuración de la cuenta de usuario del receptor EIF
El receptor Tivoli Event Integration Facility (EIF) utiliza la cuenta de usuario
predeterminada unityuser para acceder al receptor genérico. Puede cambiar la
cuenta de usuario o la contraseña de usuario predeterminada en el archivo de
configuración de unity.conf.
Acerca de esta tarea
Los pasos siguientes son los mismos para las instalaciones remotas y locales de EIF
a menos que se afirme lo contrario.
Procedimiento
Para cambiar el usuario y la contraseña de EIF predeterminados:
1. Detenga IBM Operations Analytics - Log Analysis:
v Si utiliza una instalación local de la EIF, utilice el mandato siguiente para
detener IBM Operations Analytics - Log Analysis:
<HOME>/IBM/LogAnalysis/utilities/unity.sh -stop
v Si utiliza una instalación remota de la EIF, utilice el mandato eifutil.sh
-stop para detener las instancias. Para obtener más información, consulte
“Mandato eifutil.sh” en la página 116.
2. Abra el archivo de configuración para editarlo:
v Si utiliza una instalación local de la EIF, abra el archivo unity.conf en el
directorio <HOME>/IBM/LogAnalysis/UnityEIFReceiver/config/.
Carga y modalidad continua de datos
227
v Si utiliza una instalación remota del EIF, el archivo unity.conf se encuentra
en el directorio <remote_deployment_location>/LogAnalysis/DataForwarders/
EIFReceivers/<eif_inst_#>/config/unity.conf. Donde
<remote_deployment_location> es el directorio de la máquina remota en el que
ha desplegado la instancia EIF. <eif_inst_#> es la carpeta que se utiliza para
la instancia de EIF remota específica.
3. Cambie los siguientes parámetros userid y password para adecuarlos a su
entorno operativo.
unity.data.collector.userid=unityuser
unity.data.collector.password=password
Para cifrar la contraseña, utilice el mandato unity_securityUtility.sh. Para
obtener más información, consulte “Cambio de la contraseña predeterminada
del recopilador de datos y del receptor EIF” en la página 230.
4. Guarde los cambios.
5. Reinicie IBM Operations Analytics - Log Analysis:
v Si utiliza una instalación local de la EIF, utilice el mandato siguiente para
reiniciar IBM Operations Analytics - Log Analysis:
<HOME>/IBM/LogAnalysis/utilities/unity.sh -restart
v Si utiliza una instalación remota de la EIF, utilice el mandato eifutil.sh
-restart para reiniciar las instancias. Para obtener más información, consulte
“Mandato eifutil.sh” en la página 116.
Resultados
El receptor EIF utiliza las nuevas credenciales para acceder al receptor genérico.
Configuración del número de sucesos del receptor EIF
Puede configurar el número de sucesos que el receptor EIF almacena para cada
cola interna. Si tiene la intención de ingerir una gran cantidad de datos y a un
ritmo alto, configure estos valores como mayores. No obstante, aumentar este valor
también aumenta los requisitos de memoria para el receptor EIF.
Acerca de esta tarea
Asegúrese de que dispone de memoria suficiente para soportar el número de
sucesos en la cola.
Los pasos siguientes son los mismos para las instalaciones remotas y locales de EIF
a menos que se afirme lo contrario.
Procedimiento
Para cambiar este valor:
1. Detenga IBM Operations Analytics - Log Analysis:
v Si utiliza una instalación local de la EIF, utilice el mandato siguiente para
detener IBM Operations Analytics - Log Analysis:
<HOME>/IBM/LogAnalysis/utilities/unity.sh -stop
v Si utiliza una instalación remota de la EIF, utilice el mandato eifutil.sh
-stop para detener las instancias. Para obtener más información, consulte
“Mandato eifutil.sh” en la página 116.
2. Abra el archivo de configuración para editarlo:
228
IBM Operations Analytics - Log Analysis: Guía de instalación, configuración y administración
v Si utiliza una instalación local de la EIF, abra el archivo unity.conf en el
directorio <HOME>/IBM/LogAnalysis/UnityEIFReceiver/config/.
v Si utiliza una instalación remota del EIF, el archivo unity.conf se encuentra
en el directorio <remote_deployment_location>/LogAnalysis/DataForwarders/
EIFReceivers/<eif_inst_#>/config/unity.conf. Donde
<remote_deployment_location> es el directorio de la máquina remota en el que
ha desplegado la instancia EIF. <eif_inst_#> es la carpeta que se utiliza para
la instancia de EIF remota específica.
3. Localice estas líneas y cambie su valor para reflejar los requisitos:
unity.data.collector.eif.consumer.num.events=1000000
unity.data.collector.event.manager.num.events=20000
Los valores siguientes son aplicables por origen de datos:
unity.data.collector.event.service.num.events=20000
unity.data.collector.event.poster.num.events=500
4. Guarde los cambios.
5. Inicie IBM Operations Analytics - Log Analysis:
v Si utiliza una instalación local de la EIF, utilice el mandato siguiente para
iniciar IBM Operations Analytics - Log Analysis:
<HOME>/IBM/LogAnalysis/utilities/unity.sh -start
v Si utiliza una instalación remota de la EIF, utilice el mandato eifutil.sh
-start para detener las instancias. Para obtener más información, consulte
“Mandato eifutil.sh” en la página 116.
Configuración del intervalo de limpieza de la memoria del
receptor EIF
IBM Operations Analytics - Log Analysis garantiza que la memoria utilizada para
la recopilación de datos con el agente de archivo de registro utilice una propiedad
del archivo <HOME>/IBM/LogAnalysis/UnityEIFReceiver/config/unity.conf. El
receptor EIF utiliza este valor para gestionar el uso de la memoria. El ciclo de
configuración se establece en un valor en minutos con un valor predeterminado de
2 minutos.
Acerca de esta tarea
Los pasos siguientes son los mismos para las instalaciones remotas y locales de EIF
a menos que se afirme lo contrario.
Procedimiento
Para configurar esta propiedad:
1. Detenga IBM Operations Analytics - Log Analysis:
v Si utiliza una instalación local de la EIF, utilice el mandato siguiente para
detener IBM Operations Analytics - Log Analysis:
<HOME>/IBM/LogAnalysis/utilities/unity.sh -stop
v Si utiliza una instalación remota de la EIF, utilice el mandato eifutil.sh
-stop para detener las instancias. Para obtener más información, consulte
“Mandato eifutil.sh” en la página 116.
2. Abra el archivo de configuración para editarlo:
v Si utiliza una instalación local de la EIF, abra el archivo unity.conf en el
directorio <HOME>/IBM/LogAnalysis/UnityEIFReceiver/config/.
v Si utiliza una instalación remota del EIF, el archivo unity.conf se encuentra
en el directorio <remote_deployment_location>/LogAnalysis/DataForwarders/
Carga y modalidad continua de datos
229
EIFReceivers/<eif_inst_#>/config/unity.conf. Donde
<remote_deployment_location> es el directorio de la máquina remota en el que
ha desplegado la instancia EIF. <eif_inst_#> es la carpeta que se utiliza para
la instancia de EIF remota específica.
3. Cambie los parámetros para que se adapten a su entorno operativo:
#el intervalo gc está en minutos
unity.data.collector.gc.interval=2
4. Guarde los cambios.
5. Inicie IBM Operations Analytics - Log Analysis:
v Si utiliza una instalación local de la EIF, utilice el mandato siguiente para
iniciar IBM Operations Analytics - Log Analysis:
<HOME>/IBM/LogAnalysis/utilities/unity.sh -start
v Si utiliza una instalación remota de la EIF, utilice el mandato eifutil.sh
-start para iniciar las instancias. Para obtener más información, consulte
“Mandato eifutil.sh” en la página 116.
Cambio de la contraseña predeterminada del recopilador de datos y
del receptor EIF
Si lo desea, puede cambiar la contraseña predeterminada que el recopilador de
datos y el receptor EIF utilizan para conectarse a IBM Operations Analytics. Esto es
opcional.
Cambio de la contraseña predeterminada del receptor EIF o
de Recopilador de datos password
Puede cambiar la contraseña predeterminada que el Recopilador de datos y el
receptor EIF usen para conectarse con IBM Operations Analytics - Log Analysis.
Acerca de esta tarea
Después de instalar IBM Operations Analytics - Log Analysis, el receptor EIF y el
Recopilador de datos están configurados para utilizar el nombre de usuario y la
contraseña para conectarse a IBM Operations Analytics - Log Analysis. Las
contraseñas cifradas se definen en los archivos siguientes:
v El cliente de recopilador de datos se denomina <HOME>/IBM/LogAnalysis/
utilities/datacollector-client/javaDatacollector.properties.
v El receptor EIF se denomina <HOME>/IBM/LogAnalysis/UnityEIFReceiver/config/
unity.conf.
IBM Operations Analytics - Log Analysis utiliza el estándar de cifrado avanzado
(AES) para cifrar y descifrar contraseñas para la instalación en el formato siguiente:
password={aes}<Unique_string_of_alphanumeric_
characters>
Por ejemplo, el archivo javaDatacollector.properties utiliza el ID de usuario
unityuser para acceder al servidor del Recopilador de datos. En este ejemplo, IBM
Operations Analytics - Log Analysis utiliza el estándar de cifrado avanzado (AES)
para generar la contraseña siguiente:
{aes}7DB629EC03AABEC6C4484F160FB23EE8
La contraseña cifrada se duplican en los archivos de configuración para el
recopilador de datos y el receptor EIF.
230
IBM Operations Analytics - Log Analysis: Guía de instalación, configuración y administración
Procedimiento
1. Para cambiar la contraseña predeterminada, utilice el mandato
unity_securityUtility.sh.
Para obtener más información acerca de este comando, consulte la publicación
“Mandato unity_securityUtility.sh” en la página 119.
2. Actualice los archivos de configuración para el Recopilador de datos o el
receptor EIF.
3. Opcional: Si desea cambiar la contraseña en instancias remotas del receptor EIF,
efectúe los pasos anteriores y copie el archivo unity.conf del directorio
<HOME>/IBM/LogAnalysis/UnityEIFReceiver/config/ de la máquina local en el
directorio <remote_deployment_location>/LogAnalysis/DataForwarders/
EIFReceivers/<eif_inst_#>/config/unity.conf de la máquina remota. Donde
<remote_deployment_location> es el directorio de la máquina remota en el que ha
desplegado la instancia EIF. <eif_inst_#> es la carpeta que se utiliza para la
instancia de EIF remota específica.
Ejemplo
Por ejemplo, cuando desea cambiar la contraseña predeterminada para el usuario
por omisión que el Recopilador de datos y el receptor EIF utilizan para conectarse
a IBM Operations Analytics - Log Analysis por myNewPassword. Siga estos pasos:
1. Vaya al directorio IBM/LogAnalysis/utilities.
2. Ejecute el mandato unity_securityUtility.sh como se indica a continuación:
[utilities]$ ./unity_securityUtility.sh encode myNewPassword
Utilizando el archivo de almacén de claves unity.ks
<HOME>/IBM/LogAnalysis/utilities/../wlp/usr/servers/Unity/
keystore/unity.ks
{aes}E6FF5235A9787013DD2725D302F7D08
3. Copie la contraseña cifrada de AES en los archivos de configuración relevantes,
por ejemplo cópiela en el archivo Recopilador de datos. Debe copiar la serie
completa y cifrada desde la salida del mandato, incluido el prefijo {aes}. Por
ejemplo:
{aes}E6FF5235A9787013DD2725D302F7D088
Mandato unity_securityUtility.sh
Puede utilizar el mandato unity_securityUtility.sh para cambiar la contraseña
que el Recopilador de datos y el receptor EIF utilizan para conectarse con IBM
Operations Analytics - Log Analysis.
Sintaxis
El mandato unity_securityUtility.sh se encuentra en el directorio
<HOME>/IBM/LogAnalysis/utilities y tiene la sintaxis siguiente:
unity_securityUtility.sh encode [textToEncode] [unity.ks]
Parámetros
El mandato unity_securityUtility.sh tiene los parámetros siguientes:
encode
El codificar acción devuelve una versión cifrada AES del texto que
especifique como el texto que desea cifrar.
Carga y modalidad continua de datos
231
[textToEncode]
Utilice el parámetro [textToEncode] para indicar la contraseña que desee
cifrar. Si no especifica una contraseña para este parámetro, IBM Operations
Analytics - Log Analysis le solicita una.
[unity.ks]
El archivo unity.ks es el almacén de claves predeterminado que se genera
automáticamente durante la instalación. Controla cómo la contraseña se
cifra y descifra.
El archivo unity.ks se utiliza para cifrar y descifrar contraseñas para las
características siguientes:
v
El cliente de recopilador de datos Java en el archivo
<HOME>/IBM/LogAnalysis/utilities/datacollector-client/
javaDatacollector.properties.
v
Receptor EIF en el archivo <HOME>/IBM/LogAnalysis/utilities/
UnityEIFReceiver/config/unity.conf.
Para obtener un ejemplo de cómo utilizar este mandato, consulte “Cambio de la
contraseña predeterminada del receptor EIF o de Recopilador de datos password”
en la página 230.
Ingestión de archivos de registro en un idioma distinto del inglés
Para facilitar la ingestión de archivos de registro en un idioma distinto del inglés,
debe cambiar el entorno local de IBM Tivoli Monitoring Log File Agent para que
coincida con el valor que utiliza la aplicación de origen para crear los archivos de
registro.
Puede utilizar IBM Tivoli Monitoring Log File Agent o el recopilador de datos para
ingerir los archivos.
La aplicación de origen donde se crean los archivos de registro ingeridos debe
utilizar la codificación UTF-8.
Debe cambiar el entorno local de IBM Tivoli Monitoring Log File Agent para que
coincida con el entorno local que se utiliza en la aplicación de origen. El parámetro
se denomina LFA_LOCALE y se encuentra en el archivo locale.properties en la
carpeta /utilities/config.
Ingestión de archivos de registro en un idioma distinto del
inglés con el IBM Tivoli Monitoring Log File Agent interno
Para poder utilizar el IBM Tivoli Monitoring Log File Agent que se instala con IBM
Operations Analytics - Log Analysis para ingerir archivos de registro en un idioma
distinto del inglés, debe configurar el entorno local.
Acerca de esta tarea
El nuevo entorno local se aplica a todos los registros que ingiere el IBM Tivoli
Monitoring Log File Agent interno, independientemente de si estos registros se
supervisan local o remotamente. Si está supervisando registros que son remotos
para el agente, asegúrese de que el entorno local que especifica en estos pasos
coincide con el entorno local que se utiliza en la aplicación de origen. Si está
supervisando archivos que son locales para el agente, asegúrese de que el entorno
local que especifica en estos pasos coincide con el que utiliza el agente local.
232
IBM Operations Analytics - Log Analysis: Guía de instalación, configuración y administración
Procedimiento
1. Para detener el servidor de IBM Operations Analytics - Log Analysis, utilice el
mandato unity.sh:
./unity.sh -stop
2. Para establecer el entorno local, vaya a la carpeta <HOME>/IBM/LogAnalysis/
utilities/config y edite el archivo locale.properties. Por ejemplo, para
habilitar la ingestión de Chino, establezca el entorno local en zh_CN.UTF-8:
LFA_LOCALE=zh_CN.UTF-8
3.
Para iniciar el servidor de IBM Operations Analytics - Log Analysis, utilice el
mandato unity.sh:
./unity.sh -start
Resultados
El nuevo entorno local sólo se aplica al IBM Tivoli Monitoring Log File Agent. No
se aplican a los demás servicios en IBM Operations Analytics - Log Analysis.
Después de cambiar el entorno local de IBM Tivoli Monitoring Log File Agent a un
valor distinto del predeterminado, debe asegurarse de que el entorno local de la
consola donde ejecuta el script unity.sh sea el mismo que el entorno local
cambiado.
Si ha utilizado el programa de utilidad de instalador remoto para instalar una
instancia remota del IBM Tivoli Monitoring Log File Agent, debe configurar esta
instancia por separado. Consulte “Modalidad continua de archivos de registro en
un idioma distinto del inglés desde un IBM Tivoli Monitoring Log File Agent
interno remoto”.
Modalidad continua de archivos de registro en un idioma
distinto del inglés desde un IBM Tivoli Monitoring Log File
Agent interno remoto
Para poder utilizar una instancia remota del IBM Tivoli Monitoring Log File Agent
interno que se instala con IBM Operations Analytics - Log Analysis para ingerir
archivos de registro en un idioma distinto del inglés, debe configurar el entorno
local.
Acerca de esta tarea
Nota: Esta característica requiere que se instale el arreglo temporal 4 para IBM
Operations Analytics - Log Analysis 1.2.
En este caso, se supone que ha utilizando el mandato install.sh que hay en
<HOME>/eif_remote_install_tool/ para crear una instancia remota del IBM Tivoli
Monitoring Log File Agent interno que se instala con IBM Operations Analytics Log Analysis. Donde <HOME> es el directorio en el que se instala IBM SmartCloud
Analytics - Log Analysis.
El nuevo entorno local se aplica a todos los registros que transmite el IBM Tivoli
Monitoring Log File Agent interno, independientemente de si estos registros se
supervisan local o remotamente. Si está supervisando registros que son remotos
para el agente, asegúrese de que el entorno local que especifica en estos pasos
coincide con el entorno local que se utiliza en la aplicación de origen. Si está
supervisando archivos que son locales para el agente, asegúrese de que el entorno
local que especifica en estos pasos coincide con el que utiliza el agente local.
Carga y modalidad continua de datos
233
Procedimiento
1. Para detener la instancia remota, utilice el mandato lfautil.sh que se
encuentra en el directorio <USER_HOME_REMOTE>/utilities/ en el servidor
remoto. <USER_HOME_REMOTE> es el directorio en el servidor remoto donde se
despliega IBM Tivoli Monitoring Log File Agent.
./lfautil.sh -stop
2. Para establecer el entorno local, vaya al directorio <USER_HOME_REMOTE>/
LogAnalysis/utilities y edite el parámetro LFA_LOCALE en el archivo
locale.properties. Por ejemplo, para habilitar la ingestión de Chino, establezca
el entorno local en zh_CN.UTF-8:
LFA_LOCALE=zh_CN.UTF-8
3. Para iniciar la instancia remota, utilice el mandato lfautil.sh que se encuentra
en el directorio <USER_HOME_REMOTE>IBM/LogAnalysis/utilities/ en el servidor
remoto.
./lfautil.sh -start
Resultados
El nuevo entorno local sólo se aplica al IBM Tivoli Monitoring Log File Agent. No
se aplican a los demás servicios en IBM Operations Analytics - Log Analysis.
Después de cambiar el entorno local de IBM Tivoli Monitoring Log File Agent a un
valor distinto del predeterminado, debe asegurarse de que el entorno local de la
consola donde ejecuta el script lfautil.sh sea el mismo que el entorno local
cambiado.
Ingestión de archivos de registro en un idioma distinto del
inglés desde un IBM Tivoli Monitoring Log File Agent externo
Para poder utilizar un IBM Tivoli Monitoring Log File Agent externo que no se
instala con IBM Operations Analytics - Log Analysis para ingerir archivos de
registro en un idioma distinto del inglés, debe configurar el entorno local.
Antes de empezar
Asegúrese de que la codificación UTF-8 esté habilitada en el servidor donde se ha
instalado IBM Tivoli Monitoring Log File Agent.
Procedimiento
1. Para detener la instancia de IBM Tivoli Monitoring Log File Agent, utilice el
mandato itmcmd.
2. Para establecer el entorno local, especifique el siguiente mandato:
LC_ALL=<entorno_local>
export LC_ALL
Por ejemplo, para establecer el entorno local del Chino, especifique el mandato
siguiente:
LC_ALL=zh_CN.UTF-8
export LC_ALL
3. Para listar los cambios aplicados, especifique el mandato locale. El mandato
genera una lista de los cambios. Por ejemplo:
LANG=en_US.UTF-8
LC_CTYPE="zh_CN.UTF-8"
LC_NUMERIC="zh_CN.UTF-8"
234
IBM Operations Analytics - Log Analysis: Guía de instalación, configuración y administración
LC_TIME="zh_CN.UTF-8"
LC_COLLATE="zh_CN.UTF-8"
LC_MONETARY="zh_CN.UTF-8"
LC_MESSAGES="zh_CN.UTF-8"
LC_PAPER="zh_CN.UTF-8"
LC_NAME="zh_CN.UTF-8"
LC_ADDRESS="zh_CN.UTF-8"
LC_TELEPHONE="zh_CN.UTF-8"
LC_MEASUREMENT="zh_CN.UTF-8"
LC_IDENTIFICATION="zh_CN.UTF-8"
LC_ALL=zh_CN.UTF-8
Nota: No es necesario cambiar el parámetro LANG.
4. Para iniciar la instancia de IBM Tivoli Monitoring Log File Agent, utilice el
mandato itmcmd.
Ingestión de archivos de registro en un idioma distinto del
inglés con el recopilador de datos
Para poder utilizar el recopilador de datos para ingerir archivos de registro en un
idioma distinto del inglés, debe configurar el entorno local.
Antes de empezar
Asegúrese de que la codificación UTF-8 esté habilitada en el servidor donde se ha
instalado IBM Tivoli Monitoring Log File Agent.
Procedimiento
1. Para establecer el entorno local, especifique el siguiente mandato:
LC_ALL=<entorno_local>
export LC_ALL
Donde <entorno_local> es el entorno local que desea establecer. Por ejemplo,
para establecer el entorno local del Chino, especifique el mandato siguiente:
LC_ALL=zh_CN.UTF-8
export LC_ALL
2. Para listar los cambios de entorno local aplicados, especifique el mandato
locale. El mandato genera una lista de los cambios. Por ejemplo:
LANG=en_US.UTF-8
LC_CTYPE="zh_CN.UTF-8"
LC_NUMERIC="zh_CN.UTF-8"
LC_TIME="zh_CN.UTF-8"
LC_COLLATE="zh_CN.UTF-8"
LC_MONETARY="zh_CN.UTF-8"
LC_MESSAGES="zh_CN.UTF-8"
LC_PAPER="zh_CN.UTF-8"
LC_NAME="zh_CN.UTF-8"
LC_ADDRESS="zh_CN.UTF-8"
LC_TELEPHONE="zh_CN.UTF-8"
LC_MEASUREMENT="zh_CN.UTF-8"
LC_IDENTIFICATION="zh_CN.UTF-8"
LC_ALL=zh_CN.UTF-8
Nota: No es necesario cambiar el parámetro LANG.
Resultados
Después de establecer el entorno local, puede utilizar el recopilador de datos para
ingerir los archivos de registro en un idioma distinto del inglés. Asegúrese de que
Carga y modalidad continua de datos
235
ejecuta el recopilador de datos desde el mismo terminal en el que ha establecido el
entorno local.
236
IBM Operations Analytics - Log Analysis: Guía de instalación, configuración y administración
Gestión de Paquetes Insight
Utilice Paquetes Insight como ayuda para anotar e indexar registros de archivo de
registro específicos.
Para poder utilizar uno de los Paquetes Insight , puede instalar y configurar los
Paquetes Insight. Puede hacer lo siguiente:
v Crear sus propios Paquetes Insight personalizados.
v Utilizar los Paquetes Insight que están disponibles para utilizarse
inmediatamente.
v Descargar Paquetes Insight adicionales.
El Paquete Insight define:
v El tipo de datos que se va a consumir.
v Cómo se anotan los datos. Los datos se anotan para resaltar información
relevante.
v Cómo se indexan los datos anotados. El proceso de indexación le permite
manipular los resultados de búsqueda para mejorar la determinación de
problemas y los diagnósticos.
v Cómo se representan los datos en un gráfico.
Paquetes Insight listos para usar
Los siguientes paquetes Insight se instalan ahora con el producto:
WASInsightPack
El paquete Insight de WebSphere Application Server incluye soporte para
ingerir y realizar búsquedas de metadatos para archivos de registro de
WebSphere Application Server V7 y V8. Las actualizaciones en la
configuración de índice de WAS mejorarán el rendimiento de la
indexación. El campo logsourceHostname se ha cambiado a
datasourceHostname.
WASAppInsightPack
El paquete Insight de aplicaciones de WebSphere Application Server (WAS)
proporciona paneles de control de resolución de problemas para registros
de WebSphere Application Server. Un nuevo mecanismo de autenticación
elimina la necesidad de especificar el ID de usuario y la contraseña en el
script de aplicación. El campo logsourceHostname se ha cambiado a
datasourceHostname.
DB2InsightPack
El paquete Insight de DB2 incluye soporte para ingerir y realizar
búsquedas de metadatos para archivos db2diag.log de DB2 versión 9.7 y
10.1. El campo logsourceHostname se ha cambiado a datasourceHostname.
DB2AppInsightPack
El paquete Insight de aplicaciones de DB2 proporciona paneles de control
de solución de problemas para registros de DB2. Un nuevo mecanismo de
autenticación elimina la necesidad de especificar el ID de usuario y la
contraseña en el script de aplicación. El campo logsourceHostname se ha
cambiado a datasourceHostname.
© Copyright IBM Corp. 2015
237
Paquete Insight de syslog
El paquete Insight de syslog incluye soporte para ingerir y realizar
búsquedas de metadatos para el registro de datos de syslog. El campo
logsourceHostname se ha cambiado a datasourceHostname.
WebAccessLogInsightPack
El paquete Insight de registros de acceso web proporciona la posibilidad de
ingerir y realizar búsquedas de metadatos para registros de acceso web
como Apache IHS, JBoss, Apache Tomcat. El paquete ahora incluye un
panel de control de Web Health Check que proporciona resúmenes de las
métricas clave.
WindowsOSEventsInsightPack
Puede utilizar el paquete Insight de sucesos de sistema operativo Windows
e IBM Tivoli Monitoring Log File Agent para cargar y buscar sucesos de
sistema operativo Windows. El nuevo soporte de la recopilación de datos
utilizando logstash proporciona una alternativa a IBM Tivoli Monitoring
Log File Agent.
JavacoreInsightPack
El paquete Java Core Insight proporciona la posibilidad de ingerir y buscar
metadatos que se originan en Java Core en IBM Operations Analytics - Log
Analysis. El campo logsourceHostname se ha cambiado a
datasourceHostname.
GAInsightPack
El paquete Insight de Generic Annotation no es específico de ningún tipo
de datos de registro específico. Se puede utilizar para analizar archivos de
registro para los cuales no está disponible ningún paquete Insight
específico de registro.
Paquetes Insight adicionales
Puede descargar más Paquetes Insight para ampliar más Log Analysis.
Para visualizar los Paquetes Insight disponibles, vaya a Recursos para Log
Analysis.
Para obtener más información sobre Paquetes Insight, consulte Paquetes Insight de
Log Analysis.
Conceptos relacionados:
“Paquetes Insight personalizados” en la página 306
Puede utilizar Paquetes Insight personalizados para implementar la indexación y la
anotación personalizadas.
Software soportado
Para obtener más información sobre el software que se soporta para un Paquete
Insight específico, consulte la documentación que se incluye con el Paquete Insight.
Descarga de un Paquete Insight
Puede descargar Paquetes Insight adicionales y actualizar Paquetes Insight
existentes.
Para visualizar los Paquetes Insight disponibles, vaya a Recursos para Log
Analysis.
238
IBM Operations Analytics - Log Analysis: Guía de instalación, configuración y administración
Si no ha utilizado el Paquete Insight anteriormente, puede instalarlo. Si ha
instalado una versión anterior del Paquete Insight, puede actualizarlo.
Tareas relacionadas:
“Actualización de un Paquete Insight”
Puede actualizar un Paquete Insight ha instalado previamente. Este tema describe
cómo actualizar un Paquete Insight existente.
“Instalación de Paquetes Insight”
Para utilizar un Paquete Insight, primero debe instalarlo.
Instalación de Paquetes Insight
Para utilizar un Paquete Insight, primero debe instalarlo.
Acerca de esta tarea
Esta tarea es un resumen genérico del proceso de instalación de Paquetes Insight.
Los pasos pueden variar para Paquetes Insight específicos. Para obtener más
información, consulte la documentación del Paquete Insight.
Procedimiento
1. Cargue el archivo de archivado de Paquete Insight, InsightPack_<versión>.zip,
en el sistema donde está instalado IBM Operations Analytics - Log Analysis.
2. Instale el Paquete Insight con el mandato pkg_mgmt.sh:
<HOME>/IBM/LogAnalysis/utilities/pkg_mgmt.sh -install
<vía_acceso>/InsightPack_<versión>.zip
Donde <vía_acceso> es la vía de acceso en la que ha guardado Paquete Insight.
Actualización de un Paquete Insight
Puede actualizar un Paquete Insight ha instalado previamente. Este tema describe
cómo actualizar un Paquete Insight existente.
Acerca de esta tarea
Si el Paquete Insight que desea actualizar no está instalado, puede elegir realizar
una instalación completa del Paquete Insight. Además de actualizar los artefactos
existentes e instalar los artefactos que se han añadido al Paquete Insight, este
mandato elimina los artefactos no utilizados que se han excluido del Paquete
Insight.
Actualice un Paquete Insight realizando estos pasos:
Procedimiento
1. Descargue el archivo del Paquete Insight y cópielo en el directorio
<HOME>/IBM/LogAnalysis/unity_content en el sistema IBM Operations Analytics
- Log Analysis.
2. Ejecute el mandato:
<HOME>/IBM/LogAnalysis/utilities/pkg_mgmt.sh -upgrade paquete_Insight.zip
-U username -P password -f
donde paquete_Insight es la vía de acceso al Paquete Insight que desea
actualizar. También se definen estos parámetros adicionales:
-U
(Opcional) El nombre de usuario para un usuario con derechos de
Gestión de Paquetes Insight
239
acceso administrativo. Este parámetro no es necesario si no ha
cambiado la contraseña predeterminada unityadmin.
-P
(Opcional) La contraseña para el nombre de usuario que ha
especificado. Este parámetro no es necesario si no ha cambiado la
contraseña predeterminada unityadmin.
-f
(Opcional) Este parámetro también se puede utilizar para instalar el
Paquete Insight, si todavía no se ha instalado.
3. (Opcional) Si el Paquete Insight no está instalado y no se ha especificado el
parámetro -f, se visualiza un mensaje que indica que el Paquete Insight no está
instalado. Si desea continuar, especifique Y.
Clonación de tipos de origen para Paquetes Insight
Para ayudarle a crear sus propios tipos de origen y sus configuraciones de índices,
puede clonarlos a partir de un Paquete Insight existente.
Para obtener más información sobre cómo hacerlo, consulte el tema Clonación de
tipos de orígenes y configuraciones de índices en la guía Instalación y administración.
Paquetes Insight listos para usar
Algunos Paquetes Insight están disponibles como parte del producto. Puede
instalar y utilizar estos Paquetes Insight para ayudarle a empezar.
Los siguientes paquetes Insight se instalan ahora con el producto:
WASInsightPack
El paquete Insight de WebSphere Application Server incluye soporte para
ingerir y realizar búsquedas de metadatos para archivos de registro de
WebSphere Application Server V7 y V8. Las actualizaciones en la
configuración de índice de WAS mejorarán el rendimiento de la
indexación. El campo logsourceHostname se ha cambiado a
datasourceHostname.
WASAppInsightPack
El paquete Insight de aplicaciones de WebSphere Application Server (WAS)
proporciona paneles de control de resolución de problemas para registros
de WebSphere Application Server. Un nuevo mecanismo de autenticación
elimina la necesidad de especificar el ID de usuario y la contraseña en el
script de aplicación. El campo logsourceHostname se ha cambiado a
datasourceHostname.
DB2InsightPack
El paquete Insight de DB2 incluye soporte para ingerir y realizar
búsquedas de metadatos para archivos db2diag.log de DB2 versión 9.7 y
10.1. El campo logsourceHostname se ha cambiado a datasourceHostname.
DB2AppInsightPack
El paquete Insight de aplicaciones de DB2 proporciona paneles de control
de solución de problemas para registros de DB2. Un nuevo mecanismo de
autenticación elimina la necesidad de especificar el ID de usuario y la
contraseña en el script de aplicación. El campo logsourceHostname se ha
cambiado a datasourceHostname.
Paquete Insight de syslog
El paquete Insight de syslog incluye soporte para ingerir y realizar
240
IBM Operations Analytics - Log Analysis: Guía de instalación, configuración y administración
búsquedas de metadatos para el registro de datos de syslog. El campo
logsourceHostname se ha cambiado a datasourceHostname.
WebAccessLogInsightPack
El paquete Insight de registros de acceso web proporciona la posibilidad de
ingerir y realizar búsquedas de metadatos para registros de acceso web
como Apache IHS, JBoss, Apache Tomcat. El paquete ahora incluye un
panel de control de Web Health Check que proporciona resúmenes de las
métricas clave.
WindowsOSEventsInsightPack
Puede utilizar el paquete Insight de sucesos de sistema operativo Windows
e IBM Tivoli Monitoring Log File Agent para cargar y buscar sucesos de
sistema operativo Windows. El nuevo soporte de la recopilación de datos
utilizando logstash proporciona una alternativa a IBM Tivoli Monitoring
Log File Agent.
JavacoreInsightPack
El paquete Java Core Insight proporciona la posibilidad de ingerir y buscar
metadatos que se originan en Java Core en IBM Operations Analytics - Log
Analysis. El campo logsourceHostname se ha cambiado a
datasourceHostname.
GAInsightPack
El paquete Insight de Generic Annotation no es específico de ningún tipo
de datos de registro específico. Se puede utilizar para analizar archivos de
registro para los cuales no está disponible ningún paquete Insight
específico de registro.
Paquete Insight de DB2
Se proporciona un DB2 Paquete Insight con IBM Operations Analytics - Log
Analysis.
El Paquete Insight incluye soporte para ingerir y realizar búsquedas de metadatos
en los archivos db2diag.log de DB2 Versión 9.7 y 10.1.
Este documento describe la versión de DB2 Paquete Insight que se instala cuando
se instala IBM Operations Analytics - Log Analysis. Puede haberse publicado una
versión actualizada de DB2 Paquete Insight después de esta versión de IBM
Operations Analytics - Log Analysis. Para descargar las últimas versiones de este
paquete Insight y la documentación actualizada, consulte http://www.ibm.com/
developerworks/servicemanagement/downloads.html.
Métodos recomendados para los archivos db2diag
DB2 crea varios archivos db2diag.log en función de la configuración de la base de
datos. Siga estos métodos recomendados para gestionar varios registros db2diag
para los escenarios de rotación y de varias particiones de bases de datos.
Escenario 1: base de datos que se extiende por varias particiones y varios
miembros
Si la base de datos se extiende por varias particiones y miembros, entonces
se crea un archivo db2diag en varios directorios según el valor de
DIAGPATH. Puede ser difícil interpretar DIAGPATH y db2nodes.cfg para
encontrar todos los archivos de registro de cada miembro y host. El
método recomendado es utilizar la herramienta db2diag, que consolida
todos los registros de anotaciones en un solo archivo.
Gestión de Paquetes Insight
241
Para las bases de datos que se extienden en varias particiones y varios
miembros, consolide los registros de todos los archivos db2diag log en
todas las particiones de su base de datos, ejecute el mandato siguiente:
db2diag -global -output filename.log
Donde filename.log es el nombre del archivo de registro consolidado, por
ejemplo db2diag_myglobalrecords.log.
Escenario 2: Archivos de registro de registros de rotación
Si DB2 está configurado para los archivos de registro de rotación, los
archivos se denominan dinámicamente db2diag.<number>.log. El método
recomendado es cambiar los archivos de configuración del agente de
registro predeterminados para que reconozcan los registros de rotación.
Si elige consolidar los registros rotativos con la herramienta db2diag, siga
el método recomendado de carga de DB2 sobre cómo cargar el archivo
consolidado.
Utilizar el cliente de recopilador de datos para cargar los registros
consolidados de rotación puede mejorar el rendimiento de la ingestión de
datos. Sin embargo, debe filtrar los registros en función de las indicaciones
de fecha y hora para evitar ingerir registros duplicados cada vez que se
consoliden los registros.
Opcional: Filtrar registros de archivos db2diag log puede reducir el tiempo
necesario para ubicar los registros necesarios al resolver problemas. Si se utiliza la
herramienta db2diag para filtrar registros, solo los registros incluidos en el
resultado del filtro serán anotados por las herramientas IBM Operations Analytics.
El resto de registros se excluirán. La herramienta db2diag incluye otras opciones
para filtrar y dar formato a los registros de anotaciones.
Si elige consolidar los registros de rotación con la herramienta db2diag, use el
Recopilador de datos tal como se describe en el método recomendado de carga de datos
de DB2 sobre cómo cargar el archivo consolidado. Puede encontrar más
información sobre el programa de utilidad db2diag en el Information Center de
DB2 aquí:
Para la versión 10.1:
http://www-01.ibm.com/support/knowledgecenter/SSEPGG_10.1.0/
com.ibm.db2.luw.admin.trb.doc/doc/c0020701.html
Para la versión 9.7:
http://www-01.ibm.com/support/knowledgecenter/SSEPGG_9.7.0/
com.ibm.db2.luw.admin.trb.doc/doc/c0020701.html
Nota: Para encontrar las ubicaciones de los registros individuales, use el mandato
DB2:
GET DATABASE MANAGER CONFIGURATION
En los sistema UNIX, el parámetro DIAGPATH muestra la vía de acceso del directorio
de los datos de diagnóstico que contiene los archivos de registro. El directorio
predeterminado es:
INSTHOME/sqllib/db2dump,
donde INSTHOME es el directorio de inicio de la instancia DB2.
242
IBM Operations Analytics - Log Analysis: Guía de instalación, configuración y administración
En los sistemas Windows, la vía de acceso predeterminada depende del sistema
operativo. Para encontrar la vía de acceso predeterminada en Windows, utilice el
mandato:
DB2SET DB2INSTPROF
Artefactos de configuración
El Paquete Insight soporta el formato de indicación de fecha y hora de DB2
YYYY-MM-DD-hh.mm.ss Z. Puede personalizar artefactos en el archivo de
configuración de índices.
Nota: Los orígenes de datos no son predefinidos. Un usuario con privilegios de
administrador debe definir al menos un origen de datos de DB2 y la recopilación
antes de que se pueda utilizar la aplicación.
La tabla siguiente muestra los artefactos de configuración que se proporcionan con
el Paquete Insight para cada archivo de registro.
Tabla 40. Artefactos de configuración de Paquete Insight
Artefacto
Nombre de db2diag.log
Conjunto de reglas de separador
DB2Diag-Split
Conjunto de reglas de anotador
DB2Diag-Annotate
Tipo de origen
DB2Diag
Recopilación
DB2Diag-Collection1
Configuración del agente de archivo de registro
Los archivos de registro soportados comparten los archivos de configuración de
IBM Tivoli Monitoring Log File Agent (LFA). Los siguientes archivos de
configuración de LFA se encuentran en el directorio <HOME>/IBM-LFA-6.30/config/
lo:
v DB2InsightPack-lfadb2.conf: Archivo de configuración del agente de archivo de
registro DB2.
v DB2InsightPack-lfadb2.fmt: Coincide con los registros para los archivos de
registro de db2diag.
Módulos de AQL de separación y anotación
La separación y la anotación son gestionadas por los siguientes módulos de
Annotation Query Language (AQL).
Tabla 41. Módulos Paquete Insight AQL
Módulo AQL
Descripción
common
Módulo de código común que se utiliza en
varios archivos de registro (por ejemplo,
para reconocer los formatos de fecha y
hora).
commonDB2
Módulo de anotaciones común que se utiliza
en los módulos de adaptador y anotador.
annotatorDB2Diag
Módulo anotador para los archivos de
registro de db2diag.
Gestión de Paquetes Insight
243
Tabla 41. Módulos Paquete Insight AQL (continuación)
Módulo AQL
Descripción
splitterDB2Diag
Módulo separador para los archivos de
registro de db2diag.
Formatos de archivo de registro
Los formatos básicos de los archivos de anotaciones DB2 se describen aquí como
referencia para los usuarios.
El formato básico del archivo db2diag.log es:
timestamp recordId LEVEL: level(source)
PID : pid TID : tid PROC : procName
INSTANCE: instance NODE : node DB : database
APPHDL : appHandle APPID: appID
AUTHID : authID
EDUID : eduID EDUNAME: engine dispatchable unit name
FUNCTION: prodName, compName, funcName, probe: probeNum
MESSAGE : messageID msgText
CALLED : prodName, compName, funcName OSERR: errorName (errno)
RETCODE : type=retCode errorDesc
ARG #N : typeTitle, typeName, size bytes
... argument ...
DATA #N : typeTitle, typeName, size bytes
... data ...
Sólo estos campos están presentes en todos los registros de anotaciones.
timestamp
timezone
recordID
level
pid
tid
FUNCTION
Para obtener más información sobre los formatos de archivo de registro de DB2,
consulte el tema siguiente en los centros de información de DB2:
El formato para los archivos de registro de DB2 10.1 log se documenta en:
http://www-01.ibm.com/support/knowledgecenter/SSEPGG_10.1.0/
com.ibm.db2.luw.admin.trb.doc/doc/c0020815.html
El formato para los archivos de registro de DB2 v9.7 se documenta en:
http://www-01.ibm.com/support/knowledgecenter/SSEPGG_9.7.0/
com.ibm.db2.luw.admin.trb.doc/doc/c0020815.html
Separadores de archivo de registro
Los separadores proporcionados con el Paquete Insight se describen aquí como
referencia para los usuarios.
separador DB2diaglog
El separador db2diaglog utiliza indicaciones de fecha y hora para definir el
principio y el final de cada registro.
244
IBM Operations Analytics - Log Analysis: Guía de instalación, configuración y administración
Anotaciones de archivo de registro
Las anotaciones definidas por las configuraciones de los índices de archivos de
registro se describen aquí.
En la tabla siguiente se muestran los archivos de configuración de índices incluidos
en el Paquete Insight.
Tabla 42. Archivos de configuración de índice
Archivo de registro
Archivo de configuración de índices
db2diag.log
Incluido en el archivo sourcetypes.json
En los apartados siguientes se describen los campos que están definidos en el
archivo de configuración de índice. Estos campos, o las anotaciones, se visualizan
en el espacio de búsqueda de IBM Operations Analytics - Log Analysis y pueden
utilizarse para filtrar o buscar los registros de anotaciones. Los campos se extrae de
los campos de un registro de anotaciones o se recopilan de metadatos en el archivo
de registro. Cada tabla proporciona los nombres de los campos (estos nombres
corresponden a los campos en el espacio de búsqueda de IBM Operations
Analytics - Log Analysis), descripciones de cómo están relacionados con las
anotaciones, y los atributos de configuración de índice asignados a los campos.
Anotaciones de registros de anotaciones cronológicas
En la tabla siguiente se muestra una lista de los campos de configuración de índice
relacionados con las anotaciones de registros de anotaciones cronológicas. Cada
campo corresponde a parte de un registro de anotaciones db2diag. Los campos se
muestran en el orden en el que aparecen en un registro de anotaciones.
Tabla 43. Campos de configuración de índices de registros de anotaciones
Campo
Descripción
Atributos
timestamp
La indicación de fecha y hora del registro de
anotaciones, que se encuentra al principio de una
línea.
dataType = DATE
retrievable = true
retrieveByDefault = true
sortable = true
filterable = true
searchable = true
recordID
El identificador de registro del registro de anotaciones
que sigue a la indicación de fecha y hora. El recordID
de los archivos de registro especifica el
desplazamiento de archivos en el que se registra el
mensaje actual (por ejemplo, 27204) y la longitud del
mensaje (por ejemplo, 655) para la plataforma en la
que se ha creado el registro.
dataType = TEXT
retrievable = true
retrieveByDefault = true
sortable = false
filterable = false
searchable = true
diagnosticLevel
Un nivel de diagnóstico del registro de anotaciones
que sigue a la etiqueta LEVEL:. Este es el nivel de
diagnóstico que está asociado a un mensaje de error.
Por ejemplo, Info, Aviso, Error, Grave o Suceso. No
todos los registros de anotaciones tienen un nivel de
diagnóstico.
dataType = TEXT
retrievable = true
retrieveByDefault = true
sortable = false
filterable = true
searchable = true
processID
El identificador de procesos en el registro que sigue a
la etiqueta PID:. Por ejemplo, 1988.
dataType = TEXT
retrievable = true
retrieveByDefault = true
sortable = false
filterable = false
searchable = true
Gestión de Paquetes Insight
245
Tabla 43. Campos de configuración de índices de registros de anotaciones (continuación)
Campo
Descripción
Atributos
threadID
El identificador de hebra (TID) para el proceso en el
registro que sigue a la etiqueta TID:. Por ejemplo,
1988.
dataType = TEXT
retrievable = true
retrieveByDefault = true
sortable = false
filterable = false
searchable = true
processName
El nombre del proceso en el registro de anotaciones
que sigue a la etiqueta PROC:. Por ejemplo,
db2iCacheFunction.exe.
dataType = TEXT
retrievable = true
retrieveByDefault = true
sortable = false
filterable = false
searchable = true
instance
La instancia de DB2 que generó el mensaje en el
registro de anotaciones que sigue a la etiqueta
INSTANCE:. Por ejemplo, DB2.
dataType = TEXT
retrievable = true
retrieveByDefault = true
sortable = false
filterable = false
searchable = true
node
El identificador de nodo que ha generado el mensaje
para un sistema de varias particiones. De lo contrario
es 000. Sigue a la etiqueta NODE:. Por ejemplo, 001.
dataType = TEXT
retrievable = true
retrieveByDefault = true
sortable = true
filterable = false
searchable = true
databaseName
Si está presente, el nombre de la base de datos en el
registro, que sigue a la etiqueta DB:. Por ejemplo, DB2.
dataType = TEXT
retrievable = true
retrieveByDefault = true
sortable = true
filterable = true
searchable = true
applicationHandle
Si está presente, el manejador de la aplicación en el
registro de anotaciones, que sigue a la etiqueta
APPHDL:. Por ejemplo, 0-2772.
dataType = TEXT
retrievable = true
retrieveByDefault = true
sortable = false
filterable = false
searchable = true
applicationID
Si está presente, el identificador de la aplicación en el dataType = TEXT
registro de anotaciones, que sigue a la etiqueta APPID:. retrievable = true
retrieveByDefault = true
Por ejemplo, *LOCAL.DB2.130226175838.
sortable = false
filterable = false
searchable = true
authorizationID
Si está presente, el identificador de usuario de
autorización en el registro de anotaciones, que sigue a
la etiqueta AUTHID:. Por ejemplo, adminuser1.
dataType = TEXT
retrievable = true
retrieveByDefault = true
sortable = false
filterable = false
searchable = true
eduID
El identificador de unidades enviable del motor en el
registro que sigue a la etiqueta EDUID:. Por ejemplo,
2004.
dataType = TEXT
retrievable = true
retrieveByDefault = true
sortable = false
filterable = false
searchable = true
246
IBM Operations Analytics - Log Analysis: Guía de instalación, configuración y administración
Tabla 43. Campos de configuración de índices de registros de anotaciones (continuación)
Campo
Descripción
Atributos
eduName
El nombre de la unidad enviable de motor en el
registro de anotaciones que sigue a la etiqueta
EDUNAME:. Por ejemplo, db2agent (instance).
dataType = TEXT
retrievable = true
retrieveByDefault = true
sortable = false
filterable = false
searchable = true
functionProductName
El nombre del producto que escribió el registro de
anotaciones. Sigue a la etiqueta FUNCTION:, que
también incluye el nombre del componente, el nombre
de función y el punto de sondeo de la función. Por
ejemplo, DB2.
dataType = TEXT
retrievable = true
retrieveByDefault = true
sortable = false
filterable = false
searchable = true
functionComponentName
El nombre del componente que escribió el registro de
anotaciones. Sigue al nombre de producto en la
etiqueta FUNCTION:, que también incluye el nombre del
producto, el nombre de la función y el punto de
sondeo de la función. Por ejemplo, UDB.
dataType = TEXT
retrievable = true
retrieveByDefault = true
sortable = false
filterable = false
searchable = true
functionFunctionName
El nombre de la función que escribió el registro de
anotaciones. Sigue al nombre de componente en la
etiqueta FUNCTION:, que también incluye el nombre del
producto, el nombre del componente y el punto de
sondeo de la función. Por ejemplo, Self tuning
memory manager
dataType = TEXT
retrievable = true
retrieveByDefault = true
sortable = false
filterable = false
searchable = true
functionInfo
La información devuelta por la función en el registro
de anotaciones. Sigue a la etiqueta FUNCTION:. Incluye
toda la información después de la entrada
FUNCTION. Por ejemplo, DATA #1 : unsigned
integer, 8 bytes
dataType = TEXT
retrievable = true
retrieveByDefault = true
sortable = false
filterable = false
searchable = true
functionProbePoint
El punto de sondeo dentro de la función que escribió
el registro de anotaciones. Sigue a la etiqueta probe:
de la etiqueta FUNCTION:, que también incluye el
nombre del producto, el nombre del componente y la
información de la función. Por ejemplo, probe:1008
dataType = TEXT
retrievable = true
retrieveByDefault = true
sortable = false
filterable = false
searchable = true
message
El mensaje que sigue a la etiqueta MESSAGE:. Son datos
opcionales que una función puede proporcionar en el
registro de anotaciones. Por ejemplo, New STMM log
file (C:\ProgramData\IBM\DB2\DB2COPY1\DB2\
stmmlog\stmm.0.log) creado automáticamente.
dataType = TEXT
retrievable = true
retrieveByDefault = true
sortable = false
filterable = false
searchable = true
sqlcode
El código SQL son los datos opcionales
dataType = LONG
retrievable = true
proporcionados por la función en el registro de
anotaciones. Va precedido del texto SQLCODE o sqlcode. retrieveByDefault = true
sortable = true
filterable = false
searchable = true
msgClassifier
El ID de mensaje si existe en un mensaje (que sigue a
la etiqueta MENSAJE:). Empieza con 3 ó 4 letras,
seguidas de 4 números, seguidos de I, E o W, por
ejemplo ADM0506I.
dataType = TEXT
retrievable = true
retrieveByDefault = true
sortable = false
filterable = true
searchable = true
Gestión de Paquetes Insight
247
Tabla 43. Campos de configuración de índices de registros de anotaciones (continuación)
Campo
Descripción
Atributos
DB2Hostname
El nombre de host que sigue a la etiqueta HOSTNAME:
en el que se ha generado el registro DB2. Si sólo hay
un servidor DB2, no hay ningún nombre en el registro
de anotaciones. Por ejemplo,
mydb2host.tiv.pok.ibm.com.
dataType = TEXT
retrievable = true
retrieveByDefault = true
sortable = true
filterable = false
searchable = true
start
Este es el mensaje que sigue a la etiqueta START
proporcionada por la función. Es una indicación del
inicio de un suceso. Por ejemplo, Starting FCM
Session Manager.
dataType = TEXT
retrievable = true
retrieveByDefault = true
sortable = false
filterable = false
searchable = true
stop
Este es el mensaje que sigue a la etiqueta STOP
proporcionada por la función. Es una indicación del
final de un suceso. Por ejemplo, DATABASE: DTW :
DEACTIVATED: NO.
dataType = TEXT
retrievable = true
retrieveByDefault = true
sortable = false
filterable = false
searchable = true
Anotaciones de metadatos
En la tabla siguiente se muestra una lista de los campos de configuración de índice
relacionados con las anotaciones de metadatos.
Tabla 44. Campos de configuración de índice de metadatos
Campo
Descripción
Atributos de anotación
application
El nombre de aplicación completado por el campo de
origen de datos de topología del servicio.
dataType: TEXT
retrievable: true
retrieveByDefault: true
sortable: false
filterable: false
searchable: true
hostname
El nombre de host completado por el campo de origen dataType: TEXT
retrievable: true
de datos de topología del servicio.
retrieveByDefault: true
sortable: true
filterable: true
searchable: true
logRecord
Todo el registro de anotaciones resultado del
separador.
dataType: TEXT
retrievable: true
retrieveByDefault: true
sortable: false
filterable: false
searchable: true
datasourceHostname
Nombre de host especificado en el origen de datos.
dataType: TEXT
retrievable: true
retrieveByDefault: true
sortable: false
filterable: true
searchable: true
middleware
El nombre de middleware completado por el campo
de origen de datos de topología del servicio.
dataType: TEXT
retrievable: true
retrieveByDefault: true
sortable: false
filterable: false
searchable: true
248
IBM Operations Analytics - Log Analysis: Guía de instalación, configuración y administración
Tabla 44. Campos de configuración de índice de metadatos (continuación)
Campo
Descripción
Atributos de anotación
service
El nombre de servicio completado por el campo de
origen de datos de topología del servicio.
dataType: TEXT
retrievable: true
retrieveByDefault: true
sortable: false
filterable: false
searchable: true
Ejemplo de búsqueda de archivos de registro DB2 para un
código de retorno
Puede buscar palabras clave en los archivos de registro. Los resultados de
búsqueda se visualizan en una línea temporal y un formato de tabla. Puede utilizar
la función de búsqueda para encontrar campos que no están indexados.
Antes de empezar
Para buscar un archivo de registro, en primer lugar debe definir un origen de
datos como el archivo db2diag.log.
Este ejemplo muestra cómo buscar RETCODE. Para obtener más información sobre
otras palabras clave que puede buscar en la información de FUNCTION, consulte el
centro de información de DB2 de su versión aquí:
Para la versión 10.1:http://www-01.ibm.com/support/knowledgecenter/
SSEPGG_10.1.0/com.ibm.db2.luw.admin.trb.doc/doc/c0020815.html
Para la versión 9.7:http://www-01.ibm.com/support/knowledgecenter/
SSEPGG_9.7.0/com.ibm.db2.luw.admin.trb.doc/doc/c0020815.html
Procedimiento
1. En el espacio de trabajo Búsqueda, pulse Añadir búsqueda para crear una
pestaña que contenga los criterios de búsqueda.
2. Opcional: Para limitar el alcance de la búsqueda a los orígenes de datos
específicos y los orígenes de datos descendientes, seleccione un nodo de hoja
del árbol de origen de datos.
3. En el panel Filtro de tiempo, pulse Filtro de lista y seleccione el periodo de
tiempo para el que desee realizar la búsqueda. Seleccione Personalizar para
especificar una fecha y hora iniciales, y una fecha y hora finales para su
búsqueda.
4. En el campo Buscar, escriba la serie del código de retorno que desee buscar en
los archivos de registro.
Por ejemplo, para buscar los códigos de retorno relacionados con archivos que
faltan incluya la serie FILE_DOESNT_EXIST. El código de retorno completo para
este ejemplo es:
RETCODE : ECF=0x9000001A=-1879048166=ECF_FILE_DOESNT_EXIST
Para buscar series relacionadas con los archivos que faltan, escriba
FILE_DOESNT_EXIST en el campo Buscar.
5. Pulse Buscar.
Para obtener más información sobre la búsqueda de registros, consulte la
sección Búsqueda de archivos de registro en el IBM Operations Analytics - Log
Analysis Knowledge Center
Gestión de Paquetes Insight
249
Resultados
Aparecerá un gráfico con la distribución de los sucesos coincidentes en el registro.
Métodos recomendados de carga de datos de DB2
Métodos recomendados para la carga de datos del Paquete Insight de DB2.
Existen varias recomendaciones de carga de datos según si se ha utilizado archivos
db2diag.log rotativos o consolidados de DB2 y cuántos servidores se necesita
supervisar. Para establecer la carga de datos, debe tener en cuenta:
La configuración de DB2
¿Está DB2 configurado para producir un solo archivo de registro para un
solo servidor, archivos de registro para un solo servidor o varios registros
para varios servidores?
Puede usar la herramienta db2diag incluida con DB2 para fusionar y
consolidar los archivos de registro. Puede encontrar más información sobre
el programa de utilidad db2diag en la documentación de DB2 en:
Para la versión 10.1:
http://www-01.ibm.com/support/knowledgecenter/SSEPGG_10.1.0/
com.ibm.db2.luw.admin.trb.doc/doc/c0020701.html
Para la versión 9.7:
http://www-01.ibm.com/support/knowledgecenter/SSEPGG_9.7.0/
com.ibm.db2.luw.admin.trb.doc/doc/c0020701.html
Carga de datos
Determine si desea usar el IBM Tivoli Monitoring Log File Agent (LFA)
instalado en el servidor remoto de DB2 para enviar datos o para usar el
LFA instalado en el servidor local de IBM Operations Analytics - Log
Analysis para extraer datos. En algunos casos, debe utilizar el cliente del
recopilador de datos como se describe en el escenario 3.
Configuración del Logfile Agent
Utilice los archivos de configuración del agente de registro para especificar
los archivos de registro que desee supervisar. Los archivos
DB2InsightPack-lfadb2.conf y DB2InsightPack-lfadb2.fmt se encuentran
en el directorio:
<HOME>/IBM-LFA-6.30/config/lo
Los escenarios de archivos de registro describen los ajustes específicos para
estos archivos.
Escenario 1 - Archivo de registro individual en un servidor DB2
En el caso de un archivo de registro único en un servidor de DB2, siga estos
métodos recomendados.
Configuración de DB2
Se ha configurado DB2 para un archivo de registro único (no rotativo),
db2diag.log en un servidor
Método de carga de datos
El método recomendado para cargar datos consiste en utilizar el LFA
instalado en el servidor DB2 remoto para que envíe datos o utilizar el LFA
instalado en el servidor local de IBM Operations Analytics para extraer
datos.
250
IBM Operations Analytics - Log Analysis: Guía de instalación, configuración y administración
Configuración de Logfile Agent - Archivo DB2InsightPack-lfadb2.conf
En el archivo DB2InsightPack-lfadb2.conf, especifique los parámetros
siguientes para supervisar los archivos de registro.
LogSources=<db2 log directory to monitor>/db2diag.log
#FileComparisonMode
Deben eliminarse los comentarios del parámetro FileComparisonMode
porque solo es aplicable al usar comodines en un parámetro LogSources.
Configuración de Logfile Agent - Archivo DB2InsightPack-lfadb2.fmt
Utilice el archivo DB2InsightPack-lfadb2.fmt predeterminado.
// Busca coincidencias de registros para cualquier archivo de registro:
//
REGEX AllRecords
(.*)
hostname LABEL
-file FILENAME
RemoteHost DEFAULT
logpath PRINTF("%s",file)
text $1
END
Escenario 2: rotación de archivos de registro en un servidor DB2
Para los archivos de registro rotados en un solo servidor de DB2 siga estos
métodos recomendados.
Configuración de DB2
DB2 está configurado para rotar archivos de registro utilizando la opción
de configuración de DIAGSIZE. Los archivos db2diag.log se denominan de
forma dinámica db2diag.<n>.log.
Método de carga de datos
El método recomendado para cargar datos consiste en usar el IBM Tivoli
Monitoring Log File Agent (LFA) instalado en el servidor DB2 remoto para
enviar datos o utilizar el LFA instalado en el servidor de IBM Operations
Analytics - Log Analysis local para extraer datos.
Configuración de Logfile Agent - Archivo DB2InsightPack-lfadb2.conf
En el archivo DB2InsightPack-lfadb2.conf, especifique los parámetros
siguientes para supervisar los archivos de registro rotativos:
LogSources=<db2 log directory to monitor>/db2diag.*.log
FileComparisonMode=CompareByAllMatches
Configuración de Logfile Agent - Archivo DB2InsightPack-lfadb2.fmt
Use el archivo DB2InsightPack-lfadb2.fmt siguiente para especificar un
nombre de archivo de registro fijo. De lo contrario, debe definir varios
logsources en la página Valores de administración de IBM Operations
Analytics - Log Analysis porque el nombre del archivo de registro rotativo
cambia. El archivo fmt permite un nombre de archivo fijo en logpath.
// Busca coincidencias de registros para cualquier archivo de registro:
//
REGEX AllRecords
(.*)
hostname LABEL
-file db2diag.log
Gestión de Paquetes Insight
251
RemoteHost DEFAULT
logpath PRINTF("%s",file)
text $1
END
Escenario 3 - Consolidación de archivos de registro de varios
servidores DB2
Si desea consolidar los archivos de registro de varios servidores DB2, siga estos
métodos recomendados.
Configuración de DB2
Si la base de datos se extiende por varias particiones y miembros, entonces
se crea un archivo db2diag.log en varios directorios según el valor de
DIAGPATH. Puede ser difícil interpretar DIAGPATH y db2nodes.cfg para
encontrar todos los archivos de registro de cada miembro y host. El
método recomendado es utilizar la herramienta db2diag, que reunirá la
información de todos los miembros para crear un archivo db2diag.log
consolidado. El programa de utilidad db2diag permite filtrar basándose en
la indicación de fecha y hora, y esto debe hacerse para volver a incluir sólo
las entradas de anotaciones en los registros consolidados. Puede encontrar
información sobre este filtro aquí:
Para la versión 9.7:
http://www-01.ibm.com/support/knowledgecenter/SSEPGG_9.7.0/
com.ibm.db2.luw.admin.cmd.doc/doc/r0011728.html
Para la versión 10.1:
http://www-01.ibm.com/support/knowledgecenter/SSEPGG_10.1.0/
com.ibm.db2.luw.admin.cmd.doc/doc/r0011728.html
Método de carga de datos
El método recomendado para cargar datos consiste en utilizar el cliente del
recopilador de datos. Extraiga el archivo db2diag.log anterior consolidado
antes de crear o copiar una versión nueva en el directorio desde el que se
cargan los datos.
Paquete Insight de Generic Annotation
Se instala un Paquete Insight de Generic Annotation cuando se instala IBM
Operations Analytics - Log Analysis. Este Paquete Insight no es específico de
ningún tipo de dato de archivos concreto. Se puede utilizar para analizar archivos
de registro para los cuales no hay disponible ningún Paquete Insight específico de
registro disponible.
El Paquete Insight facilita la ingestión de datos y las búsquedas de metadatos de
los archivos de registro en los que una indicación de fecha y hora puede ser
identificada dentro de los registros de anotaciones.
En este documento se describe la versión de Generic Annotation Paquete Insight
que se instala cuando se instala IBM Operations Analytics - Log Analysis. Es
posible que se haya publicado una versión actualizada de Generic Annotation
Paquete Insight después de esta versión de IBM Operations Analytics - Log
Analysis. Para descargar las últimas versiones de este paquete Insight, así Generic
Annotationcomo documentación actualizada, consulte http://www.ibm.com/
developerworks/servicemanagement/downloads.html.
252
IBM Operations Analytics - Log Analysis: Guía de instalación, configuración y administración
Instalación de Generic Annotation
Instrucciones sobre cómo instalar el paquete Insight de Generic Annotation.
Procedimiento
1. Cargue el archivo de archivado de paquete Insight de Generic Annotation,
GenericAnnotationInsightPack_<version>.zip, en el sistema en el que IBM
Operations Analytics - Log Analysis está instalado.
Donde <version> es la versión del paquete Insight de Generic Annotation.
2. Instale el paquete Insight genérico con el mandato pkg_mgmt.sh:
<HOME>/IBM/LogAnalysis/utilities/pkg_mgmt.sh -install <path>/
GenericAnnotationInsightPack_<version>.zip
Donde <path> es la vía de acceso en la que ha guardado el paquete Insight de
Generic Annotation.
3. Despliegue el agente de archivo de registro con el mandato siguiente:
<HOME>/IBM/LogAnalysis/utilities/pkg_mgmt.sh -deploylfa <path>/
GenericAnnotationInsightPack_<version>.zip
Tareas relacionadas:
Importación de un Paquete Insight
Importación de un Paquete Insight existente en el espacio de trabajo de Eclipse.
Artefactos de configuración
Debe crear al menos un origen de datos.
Los orígenes de datos no están definidos por omisión. Cree al menos un origen de
datos antes de que se puedan ingerir los registros.
La tabla siguiente muestra los artefactos de configuración que se proporcionan con
el paquete Insight para cada archivo de registro.
Tabla 45. Artefactos de configuración
Paquete Insight
Artefacto de configuración
Conjunto de reglas de separador
dateTime-Split
Conjunto de reglas de separador
timeOnly-Split
Conjunto de reglas de anotador
Generic-Annotate
Tipo de origen
Generic
Colección
Generic-Col1
La tabla siguiente muestra los artefactos de configuración que se proporcionan con
el paquete Insight para cada archivo de registro. El paquete Insight soporta una
amplia gama de formatos de indicación de fecha y hora. Consulte el apartado
“Formatos de indicación de fecha y hora” en la página 258 para obtener una lista
completa de los formatos disponibles.
Tabla 46. Artefactos de configuración. La Tabla 2 muestra los artefactos de configuración que se proporcionan con el
paquete Insight.
Conjunto de reglas de
separador
Conjunto de reglas de
anotador
Tipo de origen
Recopilación
Generic-dateTime-Split
Generic-Annotate
Generic
Generic-Collection1
GenericNormalizedMonthFirst
Normalized-MonthFirst
Generic-timeOnly-Split
NormalizedMonthFirst-Split
Gestión de Paquetes Insight
253
Tabla 46. Artefactos de configuración (continuación). La Tabla 2 muestra los artefactos de configuración que se
proporcionan con el paquete Insight.
Conjunto de reglas de
separador
Conjunto de reglas de
anotador
Tipo de origen
Recopilación
NormalizedDayFirst-Split
GenericNormalizedDayFirst
Normalized-DayFirst
NormalizedYearFirst-Split
GenericNormalizedYearFirst
Normalized-YearFirst
Formatos de archivo de registro
Generic Annotation Paquete Insight anota todos los archivos de registro con
independencia de su formato.
Configuración del agente de archivo de registro
Los archivos de registro soportados comparten los archivos de configuración de
IBM Tivoli Monitoring Log File Agent (LFA). En el directorio
Log_Analytics_install_dir/IBM-LFA-6.30/config/lo se encuentran los siguientes
archivos de configuración de LFA:
Separador de archivo de registro
El Paquete Insight de Generic Annotation contiene Conjuntos de reglas que se
pueden utilizar para dividir los archivos de registro de entrada.
Estos son:
v Generic-dateTime-Split (predeterminado)
v Generic-timeOnly-Split
Cada Conjunto de reglas divide un registro en función de cada línea que tenga una
indicación de hora o una fecha y una indicación de hora.
El separador Generic-dateTime-split divide los registros de anotaciones utilizando
la indicación de fecha y hora del archivo de registro. Si el archivo de registro no
tiene el formato de año que el separador puede interpretar en los registros de
anotaciones, el separador añade un valor de año basado en la hora del sistema del
servidor de IBM Operations Analytics - Log Analysis. La configuración de índice
debe actualizarse para reflejar esta acción.
El separador Generic-timeOnly-split divide los registros de anotaciones utilizando
solo la indicación de hora del registro de anotaciones. Cuando el archivo de
registro no tiene una fecha en los registros de anotaciones que pueda ser
interpretada por el separador, se utiliza el valor de fecha actual establecido para el
servidor IBM Operations Analytics - Log Analysis. El formato MM/dd/aaaa se inserta
antes del formato de la hora. La configuración de índice debe actualizarse para
reflejar esta acción.
Los separadores proporcionados con el pack Insight se describen aquí como
referencia para los usuarios.
Separador DateTime
El separador dateTime reconoce todos los formatos de indicación de fecha
y hora admitidos. La indicación de fecha y hora debe tener una fecha y
una hora. Si falta el año de la fecha, se adjuntará el año actual al principio
254
IBM Operations Analytics - Log Analysis: Guía de instalación, configuración y administración
de la indicación de fecha y hora. Debe modificar la configuración de índice
con el formato de fecha y hora adecuado para que el separador funcione
correctamente.
Separador TimeOnly
El separador timeOnly reconoce todos los formatos de hora admitidos. La
indicación de fecha y hora debe tener una hora y no debe tener una fecha.
El adaptador añadirá la fecha actual a la parte delantera de la indicación
de fecha y hora con el formato MM/dd/aaaa. Debe modificar la
configuración de índice con el formato de fecha y hora adecuado para que
el separador funcione correctamente.
Separador NormalizedMonthFirst
El separador supone que una fecha puramente numérica (por ejemplo,
07/08/2009) está en el formato MM/dd/aa. La indicación de fecha y hora
debe tener una hora y puede tener una fecha opcional. La fecha puede
tener un año opcional. Si falta la fecha o el año, se sustituye la fecha o el
año actual. El separador NormalizedMonthFirst produce la indicación de
fecha y hora en un formato normalizado. Como resultado, no es necesario
modificar la configuración de índice con el formato de indicación de fecha
y hora.
Separador NormalizedDayFirst
El separador supone que una fecha puramente numérica (por ejemplo,
07/08/2009) está en el formato dd/MM/aa. La indicación de fecha y hora
debe tener una hora y puede tener una fecha opcional. La fecha puede
tener un año opcional. Si falta la fecha o el año, se sustituye la fecha o el
año actual. El separador NormalizedDayFirst produce la indicación de
fecha y hora en un formato normalizado. Como resultado, no es necesario
modificar la configuración de índice con el formato de indicación de fecha
y hora.
Separador NormalizedYearFirst
El separador supone que una fecha puramente numérica (por ejemplo,
07/08/2009) está en el formato aa/MM/dd. La indicación de fecha y hora
debe tener una hora y puede tener una fecha opcional. La fecha puede
tener un año opcional. Si falta la fecha o el año, se sustituye la fecha o el
año actual. El separador NormalizedYearFirst produce la indicación de
fecha y hora en un formato normalizado. Como resultado, no es necesario
modificar la configuración de índice con el formato de indicación de fecha
y hora.
Anotaciones de archivo de registro
El anotador genérico le permite buscar y analizar archivos de registro para los
cuales no hay un anotador específico disponible. Hay dos tipos de anotaciones
creadas por el anotador genérico. Son los conceptos y los pares de clave-valor. Esta
sección describe la finalidad, el ámbito y el uso del anotador genérico de IBM
Operations Analytics - Log Analysis.
Señales de conceptos incluidas
Un concepto es un fragmento de texto que representa una entidad del mundo real
como una dirección IP o un nombre de host. Estos conceptos son útiles para las
búsquedas, ya que proporcionan información que puede ayudarle a diagnosticar
problemas. El anotador genérico incluye soporte para estas señales de anotación:
Nombre de host
Los nombres dados a los dispositivos que se conectan a una red y a las
que se hace referencia en el registro de anotaciones.
Gestión de Paquetes Insight
255
Dirección IP
Las etiquetas numéricas dadas a los dispositivos que se conectan a una red
y a las que se hace referencia en el registro de anotaciones.
Nivel de gravedad
El indicador de la gravedad de un suceso en un registro de anotaciones. El
anotador genérico proporciona anotación para estos niveles de gravedad:
v SUCCESS
v TRACE
v DEBUG
v INFO
v WARN
v ERROR
v FATAL
v OFF
v CRITICAL
v CRITICAL_ERROR
v SEVERE
v IGNORE
v WARNING
v CONFIG
v FINE
v FINER
v FINEST
v ALL
URL
Las direcciones web del registro de anotaciones.
Identificador
Los patrones destinados a capturar los nombres de constantes que pueden
repetirse en el registro y que significan la aparición de algún suceso. Por
ejemplo, ECH_PING_FAIL_BCKP. El anotador genérico asume que un
identificador es una secuencia de caracteres alfanuméricos en mayúsculas
que pueden estar separadas por caracteres de subrayado.
Señales de conceptos excluidas
El anotador genérico asume que estas señales son ruido y las omite:
Fecha y hora
Para los análisis, la fecha y la hora no son útiles.
Número
El anotador genérico omite los números enteros y decimales.
Números hexadecimales
El anotador genérico omite los números hexadecimales como 7AB87F.
Palabras irrelevantes
Se ha definido una lista de palabras irrelevantes para el anotador genérico.
Esta permite al anotador genérico omitir palabras habituales que pueden
aparecer con frecuencia pero que no tienen valor en el análisis de los
registros de anotaciones.
256
IBM Operations Analytics - Log Analysis: Guía de instalación, configuración y administración
Pares clave-valor
Un anotación de clave-valor extrae datos de un registro de anotaciones si está en el
formato <key> = <value> (clave = valor). Por ejemplo, ERROR-CODE = 4499. Estos
pares de clave-valor se pueden utilizar para listar los valores para cada clave. A las
anotaciones de pares de valor-clave se aplican estas limitaciones:
Separador de dos puntos
Se omiten los pares de clave-valor separados por el signo de dos puntos.
Por ejemplo, Label: ECH_PING_FAIL_BCKP.
Prefijo de guion
Se excluyen los pares de clave-valor en los que el valor empieza con un
guión. Por ejemplo, ERRORCODE = -4499.
Números con comas
Se excluyen los valores de clave-valor en los que el valor incluye una
coma. Por ejemplo, ERRORCODE = 4,499.
Caracteres de barra inclinada e invertida
Los pares de clave-valor en los que el valor contiene una barra inclinada o
invertida se excluyen. Por ejemplo, path = /opt/IBM/.
Comillas
Parejas de clave-valor en las que el valor se entrecomilla. Por ejemplo,
language = “English”.
Caracteres delimitadores
Existen algunas limitaciones en las que el valor de un par clave-valor
contiene un delimitador. Sin embargo, estos dependen de si el valor
contiene una señal que se puede anotar en función de la lista de señales
incluidas. Por ejemplo, Time = Thu Nov 22 06:28:48 EST 2012 se delimita
con un espacio después de Thu y, por lo tanto, se supone que el par
clave-valor es Key = Time, Value = Thu. Sin embargo, un anotador de fecha
y hora puede anotar el valor completo para dar un valor Key = Time, Value
= Thu Nov 22 06:28:48 EST 2012.
Pares clave-valor
Una anotación de par de clave-valor extrae datos de un registro de anotaciones si
está en el formato <key> = <value>. Por ejemplo, ERROR-CODE = 4499. Estos
pares de clave-valor se utilizan para listar los valores para cada clave en la sección
Patrones descubiertos de la interfaz de usuario de búsqueda.
Hay dos categorías de anotaciones KVP. La primera son pares de clave-valor
separados por un signo igual (=). La segunda categoría es los valores separados
por dos puntos (:). Cada categoría tiene un conjunto distinto de reglas para
determinar qué es una anotación válida.
Los pares de clave-valor separados por un signo de igual, '='
v Tanto la clave como el valor deben ser una señal
v La clave puede contener letras mayúsculas y minúsculas, guiones (-), subrayados
(_) y puntos (.)
v La clave debe empezar con una letra
v El valor puede contener letras mayúsculas y minúsculas, números, guiones (-),
subrayados (_), puntos (.), arrobas (@) y dos puntos (:)
v El valor puede estar comprendido entre corchetes [ ], paréntesis ( ), corchetes
angulares < >, comillas simples ' ' o comillas dobles “ “
Gestión de Paquetes Insight
257
v El valor debe contener una letra o un número y puede tener un guión opcional
(-) al principio
v Puede haber un solo carácter de espacio en blanco a uno o ambos lados del
signo igual
v La regla de señal única para el valor se ignora cuando se ha encontrado un
concepto para el valor. Por ejemplo, si una fecha de señal se identifica como el
valor, se anota la fecha en su conjunto, no sólo la primera señal.
v Los usuarios pueden añadir expresiones regulares personalizadas al diccionario
ubicado en dir_instalación_Log_Analytics/unity_content/GA/
GAInsightPack_<versión>/extractors/ruleset/GA_common/dicts/
userSpecifiedStrings.dict. Las coincidencias con estas expresiones regulares se
usarán al comprobar si el valor forma parte de un concepto más amplio.
Pares de clave-valor separados por dos puntos, ':'
v Tanto la clave como el valor deben tener entre 1 y 3 señales.
v Las señales pueden contener cualquier carácter excepto el espacio en blanco o
los signos de dos puntos.
v Los símbolos deben estar separados por espacios o tabulaciones.
v Los dos puntos pueden tener uno o más espacios o tabulaciones a la izquierda y
deben tener al menos un espacio o una tabulación a la derecha. Puede haber
más de un espacio o tabulación a la derecha del signo de dos puntos
v La serie completa debe estar en una sola línea.
Formatos de indicación de fecha y hora
IBM Operations Analytics - Log Analysis es capaz de anotar muchos formatos de
indicación de fecha y hora que se utilizan con frecuencia. Este apéndice lista los
formatos de fecha soportados.
Las anotaciones de fecha y hora se forman a partir de dos formatos básicos: un
formato de fecha y otro de hora. La anotación de fecha y hora funciona del modo
siguiente:
1. Un anotador identifica patrones de fechas en un texto y los anota con
anotaciones de fechas.
2. Otro anotador identifica patrones de hora en el texto y los anota con
anotaciones de hora.
3. Entonces el anotador de fecha y hora identifica y anota patrones específicos en
los que las anotaciones de fecha y hora son contiguas en el texto.
Formatos de anotación de fecha:
Los formatos de anotación de fecha se especifican en el archivo Date_BI.aql.
Ver: DateOutput
Nombre de archivo: Date_BI.aql
Hay disponibles los siguientes formatos de anotación de fecha.
258
IBM Operations Analytics - Log Analysis: Guía de instalación, configuración y administración
Tabla 47. Formatos de anotación de fecha
Nombre
de
formato Patrón
D1
Ejemplos
Intervalo de fechas en el que:
9 - 12 December
2012
v el mes está en un formato de mes soportado
v el mes puede preceder o seguir el intervalo
December 9 – 12,
2012
v el año es opcional
v las comas (,) son opcionales
9 - 12 december
DEC 9 - 12
D2
Una fecha que contiene los sufijos th, st, nd, o rd, y en la
cual:
v la palabra “of” es opcional
3rd December
2012
4th DEC
v el año es opcional
v las comas (,) son opcionales
Dec, 1st
v el mes está en un formato de mes soportado
2nd of December
v el mes puede ir antes o después del día
D3
Una fecha que contiene el día de la semana y en la que:
v la palabra “the” es opcional
Sunday, the 3rd of
December, 2012
v los sufijos th, st, nd y rd son opcionales
Wed, 1st DEC
v el año es opcional
v las comas (,) son opcionales
v el mes está en un formato de mes soportado
v el mes puede ir antes o después del día
D4
Una fecha que contiene caracteres de barra inclinada (/) con 3/December/2012
el formato día/mes/año, y en la que:
1st/Dec/2012
v el mes está en un formato de mes soportado
v el mes va después del día
v el año tiene cuatro dígitos
v los sufijos th, st, nd y rd son opcionales
D5
Una fecha en el formato Año-Mes-Día o Año.Mes.Día en el
que:
v el año tiene cuatro dígitos
2012-01-30
2012.12.03
v el mes tiene dos dígitos
v el día tiene dos dígitos
Debido a que este patrón consta sólo de dígitos, los ceros
iniciales (0) podrían ser necesarios.
D6
Una fecha con el formato día-mes-año o día/mes/año, en el
que:
v el año puede tener dos o cuatro dígitos
30-1-12
3/12/2012
v el mes y el día no requieren ceros iniciales (0), incluso si
son solo dígitos
D7
Una fecha con el formato mes-día-año o mes/día/año, en el
que:
v el año puede tener dos o cuatro dígitos
1-30-12
12/3/2012
v el mes y el día no requieren ceros iniciales (0), incluso si
son solo dígitos
Gestión de Paquetes Insight
259
Formatos de anotación de hora:
Los formatos de anotación de hora se especifican en el archivo Time_BI.aql.
Ver: TimeOutput
Nombre de archivo: Time_BI.aql
Hay disponibles los siguientes formatos de anotación de hora.
Tabla 48. Formatos de anotación de hora
Nombre
de
formato Patrón
Ejemplos
T1
Una hora con el formato hora:minuto, donde:
2:05
v no es necesario completar la hora con ceros a la izquierda
(0) si es un solo dígito
20:30
v los segundos y los milisegundos son opcionales
02:05
v los minutos constan de dos dígitos
v los segundos, si los hay, son dos dígitos y van precedidos
por dos puntos (:)
v los milisegundos, si los hay, son tres dígitos y van
precedidos por un signo de dos puntos (:) o un punto (.)
T2
T3
23:11:59
23:11:59:120
23:11:59.120
Hora en formato T1, más el año, donde el año es de cuatro
dígitos.
2:05 2012
Una hora con el formato hora:minuto:segundos, donde:
3:11:59+05:30
v los milisegundos son opcionales
v el huso horario es opcional
23:11:59.120 2012
2:05:59.120-01:05
v los minutos constan de dos dígitos
v los segundos constan de dos dígitos y van precedidos por
dos puntos (:)
v los milisegundos, si los hay, son tres dígitos y van
precedidos por un signo de dos puntos (:) o un punto (.)
v el uso horario, si lo hay:
– está precedido por un signo más (+) o un signo menos (-)
– no tiene ningún espacio delante del signo más (+) o signo
menos (-)
– tiene el formato hora:minuto, donde tanto la hora como
los minutos son dos dígitos
– no contiene espacios intercalados
T4
Hora en formato T1, más una designación de reloj de 12 horas. 2:05 PM
11:11:59 a.m.
T5
260
Hora en formato T1, además de un formato de huso horario
soportado.
IBM Operations Analytics - Log Analysis: Guía de instalación, configuración y administración
2:05 IST
11:11:59 PST
Tabla 48. Formatos de anotación de hora (continuación)
Nombre
de
formato Patrón
T6
Ejemplos
Hora en formato T1, T4 o T5, más el huso horario y el año,
donde:
v el huso horario es opcional
11:11:59 a.m.
+05:30
11:11:59 PST
-0030 2012
v el año es opcional
v el uso horario, si lo hay:
– está en dígitos
– está precedido por un signo más (+) o un signo menos (-)
– contiene un signo de dos puntos opcional (:) entre las
horas y los minutos
v el año, si lo hay, es de cuatro dígitos
Formatos de anotación de fecha-hora:
Los formatos de la anotación de fecha-hora (indicación de fecha y hora) se indican
en el archivo DateTime-consolidation_BI.aql.
Ver: DateTimeOutput
Nombre de archivo: DateTime-consolidation_BI.aql
Hay disponibles los siguientes formatos de anotación de fecha-hora.
Tabla 49. Formatos de anotación de fecha-hora
Nombre
de
formato Patrón
DT1
Ejemplos
Una indicación de la hora en formato DT en la
que:
Domingo, 3 de diciembre de
2012 23:11:59,120 IST
v D es el formato de fecha D1, D2, D3, D4, D5,
D6 o D7
3/12/2012 2:11:59+05:30
v T es el formato de hora T1, T2, T3, T4, T5 o T6
6/10/12 2:48:28:381 MDT
Jue 22 nov 06:28:48 EST 2012
DT2
Indicación de fecha y hora con el formato D4:T3.
3/diciembre/2012:2:00:00.000
1/dic/2012:23:11:59+05:30
DT3
Indicación de fecha y hora con el formato
D4:hora:minutos:segundos Z, donde Z es un
formato de huso horario de RFC 822 de cuatro
dígitos que se forma con la clase Java
SimpleDateFormat.
3/diciembre/2012:02:00:00
-0030
1/dic/2012:23:11:59 +0530
Otros formatos
La vista DateTimeOutput también soporta los formatos de indicación de fecha y
hora en estos formatos de fecha ISO:
v aaaa-MM-ddTHH:mm:ss.SSSZ. Por ejemplo, 2013-02-27T13:57:21.836+0000
v aaaa-MM-ddTHH:mm:ss.SSSZ. Por ejemplo, 2013.02.27T13:57:21.836+0000
Gestión de Paquetes Insight
261
Las variaciones de estos formatos también se soportan:
v aaaa/MM/dd-HH:mm:ss.SSSZ. Por ejemplo, 2013/02/27-13:57:21.123+0000
v aaaa/MM/dd-HH:mm:ss.SSS. Por ejemplo, 2013/02/27-13:57:21.123
v aaaa-MM-dd-HH:mm:ss. Por ejemplo, 2013-02-27-13:57:21
Las indicaciones de fecha y hora sin ningún valor de año
Algunas aplicaciones graban registros sin años en la indicación de fecha/hora. Por
ejemplo, los mensajes de registro de UNIX, como se muestra a continuación:
Apr 24 09:41:16 bluewashmachine symcfgd: subscriber 2 has left -- closed
0 remaining handles
Apr 24 09:41:20 bluewashmachine rtvscand: New virus definition file loaded.
Version: 150423c.
Apr 24 09:41:38 bluewashmachine kernel: type=1400 audit(1366792898.697:52164):
avc: denied
{ module_request } for pid=18827 comm="smtpd" kmod="net-pf-10"
scontext=system_u:system_r:postfix_smtpd_t:s0
tcontext=system_u:system_r:kernel_t:s0 tclass=system
Apr 24 09:41:38 bluewashmachine kernel: type=1400 audit(1366792898.822:52165):
avc: denied
{ module_request } for pid=18833 comm="proxymap" kmod="net-pf-10"
scontext=system_u:system_r:postfix_master_t:s0
tcontext=system_u:system_r:kernel_t:s0 tclass=system
En este caso, el separador Generic-dateTime-Split identifica la serie 24/04/2012
09:38:58 como una indicación de fecha y hora válida. Para cumplir con los
formatos de fecha exigidos de IBM Operations Analytics, se debe asociar un año
válido con la cadena de fecha-hora. El separador generic-dateTime-split aborda
este problema situando el valor aaaa al principio del formato identificado de fecha
y hora. Como resultado, ahora la indicación de fecha y hora es 2013 24/04/2012
09:38:58.
Debe actualizar el formato de indicación de fecha y hora para los archivos de este
tipo en la indexConfig. Por ejemplo, si desea que IBM Operations Analytics ingiera
los registros de anotaciones con el formato de indicación de fecha y hora MMM dd
HH:mm:ss, debe especificarse dateFormat como se muestra aquí.
"timestamp":{
"searchable": true,
"filterable": true,
"retrievable": true,
"dataType": "DATE",
"tokenizer": "literal",
"sortable": true,
"source": {
"dateFormats": [
"yyyy MMM dd HH:mm:ss"
],
"paths": [
"metadata.timestamp"
],
"combine": "FIRST"
},
"retrieveByDefault": true
},
Los formatos de fecha soportados sin año son estos:
v Abr 16 (MMM dd)
262
IBM Operations Analytics - Log Analysis: Guía de instalación, configuración y administración
v 16 abr (dd MMM)
v 16 abril (dd MMM)
v Abril 16 (MMM dd)
Escenario de fin de año: El separador generic-dateTime-split aplica el año actual
a cualquier indicación de fecha y hora ingerida donde no se pueda distinguir
ningún año en el registro de anotaciones. La excepción es cuando el registro de
anotaciones es ingerido cuando la hora del sistema actual del servidor de IBM
Operations Analytics identifica el mes como enero, pero la fecha/indicación de
fecha y hora entrante es diciembre. En estas situaciones, el valor de año que se
aplica es el año actual menos 1.
Registros sin fecha
Algunos orígenes de datos ingeridos por IBM Operations Analytics no soportan
una fecha dentro de la indicación de fecha y hora. Por ejemplo, algunas líneas de
un registro muestran las características que se muestran a continuación en negrita:
00:11:35.103 INFO
[main] - Server accepting connections on rmi://9.11.222.333:1099/
09:34:33.071 INFO
[main] - Server accepting connections on tcp://9.11.222.333:3035/
Para ingerir un origen de datos como ese, IBM Operations Analytics proporciona
un conjunto de reglas de separador Generic-timeOnly-Split, que se puede utilizar
junto con el Generic-Annotator para ingerir el registro. El separador añade una
indicación de fecha y hora de cada registro del archivo de anotaciones.
Debe actualizar el formato de indicación de fecha y hora para los archivos de este
tipo en indexConfig. Por ejemplo, para que IBM Operations Analytics ingiera una
anotación con registros con indicación de fecha y hora como 09:34:33.071,
dateFormat debe especificarse como se hace aquí.
"timestamp":{
"searchable": true,
"filterable": true,
"retrievable": true,
"dataType": "DATE",
"tokenizer": "literal",
"sortable": true,
"source": {
"dateFormats": [
"MM/dd/yyyy HH:mm:ss.SSS"
],
"paths": [
"metadata.timestamp"
],
"combine": "FIRST"
},
"retrieveByDefault": true
},
Sólo la parte de fecha de dateFormat es fija. La parte de hora debe reflejar el
formato que se encuentra en la entrada logSource.
El anotador genérico Paquete Insight define el Annotation Query Language (AQL)
que soporta los archivos de registro sin fecha en el separador timeOnly. El
separador timeOnly se define en el archivo:
GAInsightPack_<version>/extractors/ruleset/timeOnlySplitter
Gestión de Paquetes Insight
263
Formatos de día laborable soportados:
Los formatos de día de semana soportados se especifican en el archivo de
diccionario wkday.dict.
Archivo de diccionario: dicts/wkday.dict
Se admiten los siguientes formatos largos y abreviados de los días de la semana. Se
admiten las minúsculas y las mayúsculas, así como la mayúscula para la primera
letra.
Tabla 50. Formatos de día laborable soportados
Formato largo
Formato abreviado
lunes
lun
martes
mar
mart
miércoles
mié
jueves
jue
jue
jue
viernes
vie
sábado
sáb
domingo
dom
Formatos de mes soportados:
Los formatos de mes soportados se especifican en el archivo de diccionario
month.dict.
Archivo de diccionario: dicts/month.dict
Se admiten los siguientes formatos largos y abreviados de los meses de año. Se
admiten las minúsculas y las mayúsculas, así como la mayúscula para la primera
letra.
Tabla 51. Formatos de mes soportados
Formato largo
Formato abreviado
enero
ene
febrero
feb
marzo
mar
abril
abr
mayo
may
junio
jun
julio
jul
agosto
ago
septiembre
sept
sep
264
IBM Operations Analytics - Log Analysis: Guía de instalación, configuración y administración
Tabla 51. Formatos de mes soportados (continuación)
Formato largo
Formato abreviado
octubre
oct
noviembre
nov
diciembre
dic
Formatos de huso horario soportados:
Los formatos de huso horario soportados se especifican en el archivo de
diccionario timeZone.dict.
Archivo de diccionario: dicts/timeZone.dict
Se admiten los siguientes formatos de reloj de 12 horas, en minúsculas y
mayúsculas:
v a.m.
v p.m.
v AM
v PM
La página siguiente en SMC muestra una lista de los formatos de huso horario
soportados: ¿ ¿Cuáles son los husos horarios soportados?
Nota: Si un huso horario suministrado no se admite, el comportamiento del
sistema es leer de forma predeterminada el huso horario del sistema y
normalizarlo en función de este.
Paquete Insight Javacore
El paquete Insight Javacore proporciona capacidad para ingerir y realizar
búsquedas de metadatos en archivos javacore en IBM Operations Analytics - Log
Analysis.
Soporte
En este documento se describe la versión del Paquete Insight Javacore que se
instala cuando se instala IBM Operations Analytics - Log Analysis. Puede haberse
publicado una versión actualizada del Paquete Insight de Javacore después de esta
versión de IBM Operations Analytics - Log Analysis. Para descargar las últimas
versiones de este paquete Insight, así como documentación actualizada, consulte
http://www.ibm.com/developerworks/servicemanagement/downloads.html.
El paquete Insight Javacore da soporte a la ingestión de archivos javacore Linux
producidos por las versiones de IBM JRE 6.0 y 7.0.
El paquete Insight Javacore puede ejecutarse en Linux.
Instalación del paquete Insight Javacore
Instrucciones sobre cómo instalar el paquete Insight Javacore
Acerca de esta tarea
El paquete Insight Javacore se instala mediante el programa de utilidad pkg_mgmt.
Gestión de Paquetes Insight
265
Procedimiento
1. Cargue el archivo de archivado del paquete Insight Javacore,
JavacoreInsightPack_<versión>.zip, en el sistema en el que está instalado IBM
Operations Analytics - Log Analysis.
2. Instale el paquete Insight Javacore con el mandato pkg_mgmt.sh:
<HOME>/IBM/LogAnalysis/utilities/pkg_mgmt.sh -install
<vía_acceso>/JavacoreInsightPack_<versión>.zip
Donde <path> es la vía de acceso en la que ha guardado el paquete Insight
Javacore.
Artefactos de configuración Javacore
Los artefactos de configuración del paquete Insight Javacore.
Conjunto de archivos de separador:
Javacore-Split
Conjunto de archivos de anotador:
Javacore-Annotate
Tipo de fuente:
Javacore
Recopilación:
Javacore-Collection1
El paquete Insight Javacore no proporciona archivos de configuración de Log File
Agent (LFA) (.conf y .fmt). Los archivos Javacore se ingieren utilizando el cliente
de recopilador de datos.
Separador de archivo de registro Javacore
El separador Javacore utiliza un filtro para reducir el tamaño de los datos que se
agrupan en cada registro.
Los archivos Javacore contienen una indicación de fecha y hora única y así se
procesan como un registro de anotaciones. El separador Javacore garantiza que el
contenido del archivo Javacore se agrupe en un solo registro de anotaciones. Los
archivos Javacore contienen mucha información sobre el estado de la JVM a la hora
del volcado javacore. Como resultado, los archivos javacore pueden tener un gran
tamaño. Sin embargo, no es necesario indexar y anotar todos estos datos. El
separador Javacore usa un filtro para reducir el tamaño de estos datos. El
separador filtra las entradas siguientes en un archivo javacore:
v 1TISIGINFO
v 1TIDATETIME
v 1TIFILENAME
v 2XHOSLEVEL
v 3XHCPUARCH
v 3XHNUMCPUS
v 1CIJAVAVERSION
v 1CIVMVERSION
v 1CIJITVERSION
v 1CIGCVERSION
v 1CIRUNNINGAS
v 1CICMDLINE
v 1CIJAVAHOMEDIR
266
IBM Operations Analytics - Log Analysis: Guía de instalación, configuración y administración
El rastreo de pila de hebras también se filtra. Todos los demás datos son
bloqueados por el filtro.
Desactivación del filtro
El filtro puede configurarse para activarse o desactivarse. Por omisión está
activado. Para desactivar el filtro, siga estos pasos:
1. Cree un archivo denominado javacore_insightpack.config
2. Añada la clave/el valor siguiente al archivo: splitter.filter.on=false
3. Guarde el archivo y cópielo en el directorio de inicio en el sistema IBM
Operations Analytics - Log Analysis
Nota: Si se desactiva el filtro, todo el archivo javacore se pasará a IBM Operations
Analytics - Log Analysis. Esto afectará al rendimiento de las búsquedas en el
espacio de trabajo de búsqueda de IBM Operations Analytics - Log Analysis, ya
que todo el contenido del archivo javacore se incluirá en la anotación logRecord.
Anotaciones de registro Javacore
Los campos definidos en el archivo de configuración de índices, o las anotaciones,
se muestran en el espacio de trabajo de búsqueda de IBM Operations Analytics Log Analysis y se pueden utilizar para filtrar o buscar los registros de anotaciones.
Los campos se extrae de los campos de un registro de anotaciones o se recopilan
de metadatos en el archivo de registro.
Tabla 52. Anotaciones de registros de anotaciones cronológicas
Campo
Atributos
timestamp
dataType = TEXT
retrievable = true
retrieveByDefault = true
sortable = true
filterable = true
searchable = true
SignalInfo
dataType = TEXT
retrievable = true
retrieveByDefault = true
sortable = false
filterable = true
searchable = true
FileName
dataType = TEXT
retrievable = true
retrieveByDefault = true
sortable = false
filterable = true
searchable = true
OSLevel
dataType = TEXT
retrievable = true
retrieveByDefault = true
sortable = false
filterable = true
searchable = true
CPUArchitecture
dataType = TEXT
retrievable = true
retrieveByDefault = true
sortable = false
filterable = true
searchable = true
Gestión de Paquetes Insight
267
Tabla 52. Anotaciones de registros de anotaciones cronológicas (continuación)
268
Campo
Atributos
NumCPUs
dataType = TEXT
retrievable = true
retrieveByDefault = true
sortable = false
filterable = false
searchable = true
JavaVersion
dataType = TEXT
retrievable = true
retrieveByDefault = true
sortable = false
filterable = true
searchable = true
VMVersion
dataType = TEXT
retrievable = true
retrieveByDefault = true
sortable = false
filterable = true
searchable = true
JITVersion
dataType = TEXT
retrievable = true
retrieveByDefault = true
sortable = false
filterable = true
searchable = true
GCVersion
dataType = TEXT
retrievable = true
retrieveByDefault = true
sortable = false
filterable = true
searchable = true
RunningAs
dataType = TEXT
retrievable = true
retrieveByDefault = true
sortable = false
filterable = true
searchable = true
CommandLineArgs
dataType = TEXT
retrievable = true
retrieveByDefault = true
sortable = false
filterable = true
searchable = true
JavaHomeDir
dataType = TEXT
retrievable = true
retrieveByDefault = true
sortable = false
filterable = true
searchable = true
NumThreadsRunning
dataType = TEXT
retrievable = true
retrieveByDefault = true
sortable = false
filterable = false
searchable = true
IBM Operations Analytics - Log Analysis: Guía de instalación, configuración y administración
Tabla 52. Anotaciones de registros de anotaciones cronológicas (continuación)
Campo
Atributos
NumThreadsSuspended
dataType = TEXT
retrievable = true
retrieveByDefault = true
sortable = false
filterable = false
searchable = true
NumThreadsBlocked
dataType = TEXT
retrievable = true
retrieveByDefault = true
sortable = false
filterable = false
searchable = true
NumThreadsParked
dataType = TEXT
retrievable = true
retrieveByDefault = true
sortable = false
filterable = false
searchable = true
NumThreadsConditionWaiting
dataType = TEXT
retrievable = true
retrieveByDefault = true
sortable = false
filterable = false
searchable = true
CurrentThreadStacktrace
dataType = TEXT
retrievable = true
retrieveByDefault = true
sortable = false
filterable = false
searchable = true
AllThreadStacktraces
dataType = TEXT
retrievable = true
retrieveByDefault = true
sortable = false
filterable = false
searchable = true
Tabla 53. Anotaciones de metadatos
Campo
Atributos
application
dataType = TEXT
retrievable = true
retrieveByDefault = true
sortable = false
filterable = false
searchable = true
middleware
dataType = TEXT
retrievable = true
retrieveByDefault = true
sortable = false
filterable = false
searchable = true
datasourceHostname
dataType = TEXT
retrievable = true
retrieveByDefault = true
sortable = false
filterable = false
searchable = true
Gestión de Paquetes Insight
269
Tabla 53. Anotaciones de metadatos (continuación)
Campo
Atributos
hostname
dataType = TEXT
retrievable = true
retrieveByDefault = true
sortable = false
filterable = false
searchable = true
service
dataType = TEXT
retrievable = true
retrieveByDefault = true
sortable = false
filterable = false
searchable = true
Ingestión de datos de registro Javacore
Acerca de esta tarea
Para ingerir un archivo javacore efectúe los pasos siguientes:
Nota: Esto presupone que el registro para el paquete Insight Javacore ya se ha
creado.
Procedimiento
1. Edite el archivo: <HOME>/utilities/datacollector-client/
javaDatacollector.properties:
a. Edite el valor logFile para que se corresponda con el nombre (incluida la
vía) del archivo javacore que se va a ingerir.
b. Edite el valor logpath para que sea el mismo que el valor de la vía de
acceso del archivo de registro Javacore Logsource.
2. Ejecute este mandato: <HOME>/ibm-java/bin/java -jar datacollectorclient.jar
Paquete Insight de Syslog
El syslog Paquete Insight amplía las funciones de IBM Operations Analytics - Log
Analysis, de forma que puede ingerir y realizar búsquedas de metadatos en el
registro de datos del syslog.
En este documento se describe la versión del Paquete Insight de Syslog que se
instala cuando se instala IBM Operations Analytics - Log Analysis. Es posible que
se haya publicado una versión actualizada del Paquete Insight de Syslog después
de esta versión de IBM Operations Analytics - Log Analysis. Para descargar las
últimas versiones de este paquete Insight y la documentación actualizada, consulte
http://www.ibm.com/developerworks/servicemanagement/downloads.html.
El registro formateado incluye valores de propiedad específicos en un formato de
par de nombre y valor para ayudar a ingerir datos.
Syslog es un estándar para registrar sucesos para rastrear la actividad del sistema y
diagnosticar problemas. Separa el software que genera mensajes del sistema que
los almacena y el software que los notifica y los analiza. Hay implementaciones
disponibles para muchos sistemas operativos. La configuración específica permite
dirigir mensajes a diversos dispositivos (consola), archivos (/var/log/) o servidores
270
IBM Operations Analytics - Log Analysis: Guía de instalación, configuración y administración
syslog remotos. rsyslog es un programa de utilidad de software de código abierto
que se utiliza en sistemas UNIX y sistemas parecidos a Unix para reenviar
mensajes de registro en una red IP. Implementa el protocolo syslog básico.
Versiones admitidas
El paquete Insight de Syslog se puede instalar con IBM Operations Analytics - Log
Analysis 1.1.0.0 y superior.
Se soportan los dos tipos de origen siguientes:
Syslog_default
El tipo de origen Syslog_default configura archivos /var/log/messages.
Syslog_custom
El tipo de origen Syslog_custom configura los archivos rsyslog.
rsyslog versión 3 se incluye como la herramienta syslog predeterminada para
RHEL 5.2 y esta es la versión mínima soportada por IBM Operations Analytics Log Analysis. IBM Operations Analytics - Log Analysis admite rsyslog versión 3, 5,
6 y 7. IBM Operations Analytics - Log Analysis admite el formato de lista rsyslog,
que es recomendado por rsyslog, para la versión 7 y superior de rsyslog.
Nota: Algunas aplicaciones graban registros sin poner el año en la indicación de
fecha y hora. Por ejemplo, mmm dd hh:Mi:ss. Para cumplir con el formato de fecha
necesario para IBM Operations Analytics - Log Analysis, se utiliza el valor de año
del sistema como el año durante la ingestión de datos
Instalación de syslog
Instrucciones sobre cómo instalar el paquete Insight de syslog.
Procedimiento
1. Cree un directorio llamado <HOME>/IBM/LogAnalysis//unity_content/Syslog en
el sistema en el que IBM Operations Analytics - Log Analysis esté instalado y
cargue el archivo del paquete Insight de syslog,
SyslogInsightPack_<versión>.zip, en ese directorio.
2. Instale el paquete Insight Syslog con el mandato pkg_mgmt.sh:
<HOME>/IBM/LogAnalysis/utilities/pkg_mgmt.sh -install <path>
/SysLogInsightPack_<versión>.zip
Donde <path> es la vía de acceso en la que ha guardado el paquete Insight
Syslog.
3. Despliegue el agente de archivo de registro con el mandato siguiente:
<HOME>/IBM/LogAnalysis/utilities/pkg_mgmt.sh -deploylfa <path>
/SysLogInsightPack_<versión>.zip
Donde <path> es la vía de acceso en la que ha guardado el paquete Insight
Syslog.
Tareas relacionadas:
Instalación de un Paquete Insight
Puede descargar un Paquete Insight para ampliar las prestaciones de IBM
Operations Analytics - Log Analysis desde Service Management Connect. Este
tema describe cómo instalar un Paquete Insight.
Configuración de syslog
La configuración del Paquete Insight se describe aquí como referencia para los
usuarios.
Gestión de Paquetes Insight
271
requisitos de rsyslog
Antes de ingerir los archivos de registro rsyslog, rsyslog y IBM Operations
Analytics - Log Analysis deben configurarse para asegurar que los archivos de
registro rsyslog salen en un formato que el Paquete Insight Syslog de IBM
Operations Analytics - Log Analysis puede procesar. El tipo de origen
Syslog_custom configura los archivos rsyslog.
Añadir la plantilla scalaLogFormat a rsyslog:
v Para rsyslog 7 y superior, que soportan el formato de lista:
1. Abra /etc/rsyslog.conf para editarlo.
2. Añada la plantilla siguiente:
template(name="scalaLogFormat" type="list") {
property(name="timestamp" dateFormat="rfc3339")
constant(value=" host=")
property(name="hostname")
constant(value=", relayHost=")
property(name="fromhost")
constant(value=", tag=")
property(name="syslogtag")
constant(value=", programName=")
property(name="programname")
constant(value=", procid=")
property(name="procid")
constant(value=", facility=")
property(name="syslogfacility-text")
constant(value=", sev=")
property(name="syslogseverity-text")
constant(value=", appName=")
property(name="app-name")
constant(value=", msg=")
property(name="msg" )
constant(value="\n")
}
El registro de anotaciones generado se formatea como
2013-07-15T21:30:37.997295-04:00 host=co052065, relayHost=co052065,
tag=rhnsd[12171]:, programName=rhnsd, procid=12171, facility=daemon,
sev=debug, appName=rhnsd, msg= running program /usr/sbin/rhn_check
3. Asocie la plantilla scalaLogFormat con los archivos de registro que va a
ingerir IBM Operations Analytics - Log Analysis. Registrará todas las
entradas de registro en <filename> además de otras asociaciones del archivo
de configuración. Por ejemplo:
*.*
/var/log/<filename>.log;scalaLogFormat
4. Reinicie el daemon de rsyslog.
Para obtener más información sobre cómo reiniciar el daemon de rsyslog,
consulte http://rsyslog.com/doc.
5. Asegúrese de que el archivo de salida creado para IBM Operations Analytics
- Log Analysis pueda ser leído por su usuario IBM Operations Analytics Log Analysis, y escriba ese archivo directamente en los directorios logsource
supervisados.
Por ejemplo:
*.* <HOME>/logsources/SyslogInsightPack
SCALA.log;scalaLogFormat
v Para las versiones de rsyslog anteriores a la versión 7:
1. Abra /etc/rsyslog.conf para editarlo.
2. Añada la plantilla siguiente (formato heredado):
272
IBM Operations Analytics - Log Analysis: Guía de instalación, configuración y administración
$template scalaLogFormat,"%TIMESTAMP:::date-rfc3339% host=%HOSTNAME%,
relayHost=%FROMHOST%, tag=%syslogtag%, programName=%programname%,
procid=%PROCID%, facility=%syslogfacility-text%, sev=%syslogseverity-text%,
appName=%APP-NAME%, msg=%msg%\n"
El registro de anotaciones generado se formatea como
2013-07-15T21:30:37.997295-04:00 host=co052065, relayHost=co052065,
tag=rhnsd[12171]:, programName=rhnsd, procid=12171, facility=daemon,
sev=debug, appName=rhnsd, msg= running program /usr/sbin/rhn_check
3. Asocie la plantilla scalaLogFormat con los archivos de registro que va a
ingerir IBM Operations Analytics - Log Analysis. Registrará todas las
entradas de registro en <filename> además de otras asociaciones del archivo
de configuración. Por ejemplo:
*.*
/var/log/<filename>.log;scalaLogFormat
4. Reinicie el daemon de rsyslog.
Para obtener más información sobre cómo reiniciar el daemon de rsyslog,
consulte http://rsyslog.com/doc.
5. Asegúrese de que el archivo de salida creado para IBM Operations Analytics
- Log Analysis pueda ser leído por su usuario IBM Operations Analytics Log Analysis, y escriba ese archivo directamente en los directorios logsource
supervisados.
Por ejemplo:
*.* <HOME>/logsources/SyslogInsightPack SCALA.log;scalaLogFormat
Para obtener más información sobre los archivos de configuración de rsyslog,
consulte: http://www.rsyslog.com/doc/rsyslog_conf.html:
Artefactos de configuración
La tabla siguiente muestra los artefactos de configuración que se proporcionan con
el paquete Insight para cada archivo de registro.
Tabla 54. Artefactos de configuración de Paquete Insight
Artefacto
Nombre del registro syslog
Conjunto de reglas de separador
Syslog-Split
Conjunto de reglas de anotador
Syslog-Annotate
Tipo de origen
Syslog_custom
Recopilación
Syslog-Collection1
Tabla 55. Orígenes de datos
Artefacto
Nombre del registro syslog
Conjunto de archivos de separador
DefaultSyslogSplitter
Conjunto de archivos de anotador
DefaultSyslogAnnotator
Tipo de origen
Syslog_default
Nota: Los orígenes de datos no son predefinidos. Un usuario con privilegios de
administrador debe definir al menos un origen de datos de tipo syslog y la
recopilación antes de que se pueda utilizar la aplicación.
Gestión de Paquetes Insight
273
Configuración del agente de archivo de registro
Los archivos de registro soportados comparten los archivos de configuración de
IBM Tivoli Monitoring Log File Agent (LFA). Los siguientes archivos de
configuración de LFA se encuentran en el directorio <HOME>/IBM-LFA-6.30/config/
lo (donde <HOME> es la ubicación de instalación de IBM Operations Analytics Log Analysis):
v SyslogInsightPack-lfasyslog.conf: archivo de configuración del agente de
archivo de registro syslog.
v SyslogInsightPack-lfasyslog.fmt: Coincide con los registros de los archivos de
registro syslog.
Módulos de AQL de separación y anotación
La división y la anotación son gestionadas por los siguientes módulos de
Annotation Query Language (AQL). Syslog_custom utiliza los separadores y
anotadores basados en AQL.
Tabla 56. Módulos Paquete Insight AQL
Módulo AQL
Descripción
common
Módulo de código común que se utiliza en varios
paquetes Insight (por ejemplo, para reconocer los
formatos de indicación de fecha y hora).
dateTimeSplitter newlineSplitter
Módulos de separador para archivos de registro syslog.
annotatorSyslog
Módulo de separador para archivos de registro syslog.
Separadores de archivo de registro
Los separadores que se proporcionan con el Paquete Insight se describen aquí
como referencia para los usuarios.
El paquete Insight soporta la indicación de fecha y hora ISO 8061,
aaaa-mm-ddTHH:mm:ss.SSSSSSX donde X es el desplazamiento GMT. Cada registro
de anotación empieza con una indicación de fecha y hora en formato ISO y se
divide en los límites de indicación de fecha y hora. Un ejemplo de la indicación de
fecha y hora con formato ISO generada por rsyslog es:
2013-06-26T12:21:29.471400-04:00
La función de índice de IBM Operations Analytics - Log Analysis está limitada a
milisegundos en el formato de fecha. El paquete Insight de syslog anota la
indicación de fecha y hora y redondea los microsegundos. La indicación de fecha y
hora formateada con ISO de ejemplo se indexa con el formato siguiente para la
configuración de índice:
aaaa-mm-ddTHH:mm:ss.SSSX
y se presentará en la IU de búsqueda de IBM Operations Analytics - Log Analysis
como:
06/26/2013 16:21:29.471-04:00
El tipo de origen Syslog_default, que configura los archivos /var/log/messages,
soporta los formatos de hora mmm dd hh:MI:ss y aaaa-mm-ddThh:Mi:ss SSSSSS Z.
No hay ningún año en el formato de hora mmm dd hh:Mi:ss. Para cumplir con el
formato de fecha necesario para IBM Operations Analytics - Log Analysis, el valor
de año del sistema se utiliza como el año durante la ingestión de datos. La función
274
IBM Operations Analytics - Log Analysis: Guía de instalación, configuración y administración
de índice de IBM Operations Analytics - Log Analysis está limitada a milisegundos
en el formato de fecha, por lo tanto el formato de hora aaaa-mm-ddThh:Mi:ss
SSSSSS Z se reduce a aaaa-mm-ddThh:Mi:ss SSS Z.
Anotaciones de archivo de registro
Las anotaciones definidas por las configuraciones de los índices de archivos de
registro se describen aquí.
El archivo de configuración de índice se incluye en el paquete Insight en el archivo
sourcetypes.json (que se encuentra en <path>/SyslogInsightPack_<version>/
metadata), donde <path> es la vía de acceso en la que se ha guardado el paquete
Insight de Syslog.
Puede personalizar los artefactos en el archivo de configuración de índice mediante
la creación de otro tipo de origen y modificar una copia de la configuración de
índice de Syslog.
En los apartados siguientes se describen los campos que están definidos en el
archivo de configuración de índice. Estos campos, o las anotaciones, se visualizan
en el espacio de búsqueda de IBM Operations Analytics - Log Analysis y pueden
utilizarse para filtrar o buscar los registros de anotaciones. Los campos se extrae de
los campos de un registro de anotaciones o se recopilan de metadatos en el archivo
de registro. Cada tabla proporciona los nombres de los campos (estos nombres
corresponden a los campos en el espacio de búsqueda de IBM Operations
Analytics - Log Analysis), descripciones de cómo están relacionados con las
anotaciones, y los atributos de configuración de índice asignados a los campos.
Anotaciones de registros de anotaciones cronológicas
En la tabla siguiente se muestra una lista de los campos de configuración de índice
relacionados con las anotaciones de registros de anotaciones cronológicas. Cada
campo corresponde a parte de un registro de Syslog.
Tabla 57. Campos de configuración de índices de registros de anotaciones
Campo
Descripción
Atributos
syslogHostname
El nombre de host del mensaje.
dataType = TEXT
retrievable = true
retrieveByDefault = true
sortable = true
filterable = true
searchable = true
syslogRelayHostname
El nombre de host del sistema desde el que se ha
recibido el mensaje (en una cadena de relé, es el
sistema inmediatamente delante, y no necesariamente
el remitente original).
dataType = TEXT
retrievable = true
retrieveByDefault = true
sortable = true
filterable = true
searchable = true
tag
La etiqueta del mensaje.
dataType = TEXT
retrievable = true
retrieveByDefault = true
sortable = true
filterable = false
searchable = true
Gestión de Paquetes Insight
275
Tabla 57. Campos de configuración de índices de registros de anotaciones (continuación)
Campo
Descripción
Atributos
programName
La parte estática de la etiqueta tal como fue definida
por BSD syslogd. Por ejemplo, cuando TAG es
"named[12345]", programName es "named".
dataType = TEXT
retrievable = true
retrieveByDefault = true
sortable = true
filterable = true
searchable = true
processID
El contenido del campo PROCID.
dataType = TEXT
retrievable = true
retrieveByDefault = true
sortable = false
filterable = true
searchable = true
facility
El recurso del mensaje.
dataType = TEXT
retrievable = true
retrieveByDefault = true
sortable = true
filterable = true
searchable = true
severity
La gravedad del mensaje (en formato de texto).
dataType = TEXT
retrievable = true
retrieveByDefault = true
sortable = true
filterable = true
searchable = true
syslogAppName
El nombre de aplicación del mensaje.
dataType = TEXT
retrievable = true
retrieveByDefault = true
sortable = true
filterable = true
searchable = true
message
El MSG (el mensaje) en el registro de anotaciones.
dataType = TEXT
retrievable = true
retrieveByDefault = true
sortable = false
filterable = false
searchable = true
Anotaciones de metadatos
En la tabla siguiente se muestra una lista de los campos de configuración de índice
relacionados con las anotaciones de metadatos.
Tabla 58. Campos de configuración de índice de anotación de metadatos
Campo
Descripción
Atributos de anotación
datasourceHostname
Nombre de host especificado en el origen de datos.
dataType: TEXT
retrievable: true
retrieveByDefault: true
sortable: false
filterable: true
searchable: true
timestamp
La indicación de fecha y hora del registro de
anotaciones.
dataType = DATE
retrievable = true
retrieveByDefault = true
sortable = true
filterable = true
searchable = true
276
IBM Operations Analytics - Log Analysis: Guía de instalación, configuración y administración
Tabla 58. Campos de configuración de índice de anotación de metadatos (continuación)
Campo
Descripción
Atributos de anotación
application
El nombre de aplicación completado por el campo de
origen de datos de topología del servicio.
dataType: TEXT
retrievable: true
retrieveByDefault: true
sortable: false
filterable: false
searchable: true
middleware
El nombre de middleware completado por el campo
de origen de datos de topología del servicio.
dataType: TEXT
retrievable: true
retrieveByDefault: true
sortable: false
filterable: false
searchable: true
hostname
El nombre de host completado por el campo de origen dataType: TEXT
retrievable: true
de datos de topología del servicio.
retrieveByDefault: true
sortable: true
filterable: true
searchable: true
service
El nombre de servicio completado por el campo de
origen de datos de topología del servicio.
dataType: TEXT
retrievable: true
retrieveByDefault: true
sortable: false
filterable: false
searchable: true
logRecord
Todo el registro de anotaciones resultado del
separador.
dataType: TEXT
retrievable: true
retrieveByDefault: true
sortable: false
filterable: false
searchable: true
Consideraciones sobre los archivos de registro
Esta sección aborda la rotación de registros y la transmisión de registros a un
servidor centralizado.
Rotación de registros
Linux proporciona logrotate para configurar la rotación. Las opciones globales se
especifican en /etc/logrotate.conf. Las opciones para archivos específicos (que
puede sustituir las opciones globales) están en /etc/logrotate.d para cada archivo
de registro.
Nota: Para obtener más información sobre el mandato logrotate, consulte la
documentación del mandato de UNIX en línea.
Cuando los registros rotan, el nombre del archivo de registro se cambia con la
extensión .1 (suponiendo que la opción dateext no esté incluida) y se trunca
truncated a la longitud cero. La configuración de la rotación también determina la
frecuencia con la que los registros antiguos se archivan, es decir, los archivos *.n
antiguos se eliminan o archivan. Las ubicaciones de los registros se definen en
/etc/rsyslog.conf (que es de forma predeterminada /var/log).
El método recomendado para cargar datos es utilizar IBM Tivoli Monitoring Log
File Agent (LFA) instalado en el sistema remoto donde se ejecuta rsyslogd para
enviar datos, o utilizar el LFA instalado donde se ha instalado IBM Operations
Gestión de Paquetes Insight
277
Analytics - Log Analysis para extraer datos. Cree archivos .conf y .fmt específicos
para cada archivo, cuyo destino se especifica en /etc/rsyslog.conf. La definición
del origen de datos debe especificar <filename>.1. Esto garantiza que se procesen
todos los registros de anotaciones. Sin embargo, solo se enviarán cuando se
produzca la rotación. El usuario puede configurar la rotación para que se produzca
con más frecuencia para minimizar así el intervalo de tiempo del registro actual.
Como alternativa, el usuario puede supervisar el <filename>. Cuando supervisa
<filename>, hay una ventana en la que las entradas de registro no se enviarán si
las entradas de registro se rotan antes de que el LFA haya sondeado los datos. Si el
usuario ha configurado la rotación diaria u horaria, puede supervisar el nombre de
archivo *.1 para evitar una ventana en la que no se envían las entradas de
registro.
El mejor procedimiento es rotar los registros con tal frecuencia que <filename>.1
tenga datos recientes para que IBM Operations Analytics - Log Analysis los ingiera.
La rotación de registros por omisión es semanal. Puede cambiar la rotación para
syslog en /etc/logrotate.d/syslog. Para cambiarla diariamente, añada la opción
daily en el archivo de configuración /etc/logrotate.d/syslog. Si los registros son
grandes, puede rotarlos basándose en un tamaño con la opción size.
Las dos secciones siguientes describen los cambios de configuración de
SyslogInsightPack-lfasyslog.conf y SyslogInsightPack-lfasyslog.fmt sólo al
tratar con los archivos de registro de rotación.
Configuración de Logfile Agent - SyslogInsightPack-lfasyslog.conf
Los parámetros siguientes deben especificarse para supervisar los archivos
rotativos:
LogSources=<syslog directory to monitor>/<logfilename>.*
FileComparisonMode=CompareByAllMatches
Configuración de Logfile Agent - SyslogInsightPack-lfasyslog.fmt
Utilice la especificación siguiente para evitar definir varios orígenes de datos
debido a los cambios de nombres de archivo cuando el registro rota. Esto permite
un nombre de archivo fijo en la especificación de vía de acceso del archivo de
registro.
// Busca coincidencias de registros para cualquier archivo de registro:
//
REGEX AllRecords
(.*)
hostname LABEL
-file <logfilename>.log
RemoteHost DEFAULT
logpath PRINTF("%s",file)
text $1
END
Registro centralizado
Si va a transmitir registros a un servidor central, el mejor método es transmitirlos a
un registro consolidado para que los ingiera IBM Operations Analytics - Log
Analysis. Son aplicables al archivo consolidado los mismos métodos recomendados
que para los registros del escenario sin servidor. Los registros deben rotarse con
278
IBM Operations Analytics - Log Analysis: Guía de instalación, configuración y administración
frecuencia para que <filename>.1 tenga datos recientes, y Log File Agent debe
usarse para extraer o colocar los datos en el servidor de IBM Operations Analytics
- Log Analysis.
Para configurar rsyslog para que transmita registros a un servidor central (por
ejemplo, 192.168.1.1), haga lo siguiente:
1. Añada lo siguiente a cada archivo /etc/rsyslog.conf de cliente (o sistema
perimetral) para que transmita al servidor central:
$ModLoad imuxsock
$ModLoad imklog
# Provides UDP forwarding. The IP is the server’s IP address
*.* @192.168.1.1:514
# Provides TCP forwarding. But the current server runs on UDP
# *.* @@192.168.1.1:514
2. En el servidor central (por ejemplo, con la dirección IP 192.168.1.1) añada lo
siguiente a rsyslog.conf:
$ModLoad imuxsock
# provides kernel logging support (previously done by rklogd)
$ModLoad imklog
# Select the syslog reception of UDP or TCP. For TCP, load imtcp by
uncommenting $ModLoad imtcp.
#$ModLoad imudp
#$ModLoad imtcp
# Select the syslog reception port. For TCP, uncomment InputServerRun 514
#$UDPServerRun 514
#$InputTCPServerRun 514
# This FILENAME template generates the log filename dynamically.
# You can replace the specification with variables applicable to
# your site.
# The scalaLogFormat template formats the message required
# for ingestion by SCALA.
$template FILENAME,"/var/log/scala-syslog.log"
$template scalaLogFormat,"%TIMESTAMP:::date-rfc3339% host=%HOSTNAME%,
relayHost=%FROMHOST%, tag=%syslogtag%, programName=%programname%,
procid=%P ROCID%, facility=%syslogfacility-text%,
sev=%syslogseverity-text%, appName=%APP-NAM E%, msg=%msg%\n"
# Log all messages to the dynamically formed file.
*.* ?FILENAME;scalaLogFormat
3. Decida si va a utilizar la configuración UDP o TCP y quite los comentarios del
otro. Por ejemplo, para usar TCP actualice el apartado de código así:
# Select the syslog reception of UDP or TCP. For TCP, load imtcp
# by uncommenting $ModLoad imtcp.
#$ModLoad imudp
$ModLoad imtcp
# Select the syslog reception port. For TCP, uncomment
# InputServerRun 514
#$UDPServerRun 514
$InputTCPServerRun 514
Paquete Insight de registros de acceso web
El paquete Insight de registros de acceso web proporciona la posibilidad de ingerir
y realizar búsquedas de metadatos en registros de acceso web (Apache IHS, JBoss,
Apache Tomcat) en IBM Operations Analytics - Log Analysis.
Gestión de Paquetes Insight
279
En este documento se describe la versión del Paquete Insight que se instala cuando
se instala IBM Operations Analytics - Log Analysis. Puede haberse publicado una
versión actualizada del Paquete Insight de Web Access Logs después de esta
versión de IBM Operations Analytics - Log Analysis. Para descargar las últimas
versiones de este paquete Insight, así como documentación actualizada, consulte
http://www.ibm.com/developerworks/servicemanagement/downloads.html.
El paquete Insight de registros de acceso web ingiere registros en el registro de
acceso del servidor web. Los registros de acceso del servidor registran información
sobre todas las solicitudes gestionadas por un servidor web. Esto puede incluir
información sobre la dirección IP del cliente que efectúa la solicitud, el ID de
usuario de la persona que realiza la solicitud (determinado por la autenticación
HTTP), la indicación de fecha y hora de cuando se ha recibido la solicitud, la línea
de solicitud, etc. El registro de acceso es altamente configurable, y el LogFormat o
patrón se utiliza para definir el contenido y el formato del registro de acceso.
Nota: El registro de acceso es distinto del registro del servidor web, server.log.
Al utilizar la directiva o el patrón LogFormat para crear un archivo de registro de
acceso de valores separados por comas (DSV), el paquete Insight de registros de
acceso web puede anotar e indizar registros de acceso para la ingestión, anotación
e indexación en IBM Operations Analytics - Log Analysis. El paquete Insight de
registros de acceso web soporta los siguientes servidores web (y cualquier otro que
permita la especificación de LogFormat necesaria para este paquete Insight):
v Apache/IBM HTTP Server 8.5.5.0
v Apache Tomcat 7.0.42, 6.0.37
v JBoss v7
El paquete Insight de registros de acceso web se pueden instalar con IBM
Operations Analytics - Log Analysis 1.1.0.2 y superior.
Instalación del paquete Insight de registros de acceso web
Instrucciones sobre cómo instalar el paquete Insight de registros de acceso web
Antes de empezar
Los requisitos previos del paquete Insight de registros de acceso web son:
v IBM Operations Analytics - Log Analysis v1.1.0.2
v Kit de herramientas DSV v1.1.0.1 o superior
Nota: DSV solo se necesita si se va a generar un nuevo paquete Insight para que
se soporten otros formatos de registros de acceso.
Acerca de esta tarea
El paquete Insight de registros de acceso web se instala mediante el programa de
utilidad pkg_mgmt.
Procedimiento
1. Cargue el archivo de archivado del paquete Insight de registros de acceso web,
WebAccessLogInsightPack_<versión>.zip, en el sistema en el que IBM
Operations Analytics - Log Analysis está instalado.
2. Instale el paquete Insight de registros de acceso web utilizando el mandato
pkg_mgmt.sh:
280
IBM Operations Analytics - Log Analysis: Guía de instalación, configuración y administración
<HOME>/IBM/LogAnalysis/utilities/pkg_mgmt.sh -install
<path>/WebAccessLogInsightPack_<versión>.zip
Donde <path> es la vía de acceso en la que se ha guardado el paquete Insight
de registros de acceso web.
3. (Opcional) Si está utilizando Log File Agent para cargar datos en IBM
Operations Analytics - Log Analysis, despliegue los archivos de configuración
del agente de archivo de anotaciones con el mandato siguiente:
<HOME>/IBM/LogAnalysis/utilities/pkg_mgmt.sh -deploylfa
<path>/WebAccessLogInsightPack_<versión>.zip
Donde <path> es la vía de acceso en la que se ha guardado el paquete Insight
de registros de acceso web.
Configuración del paquete Insight de registros de acceso web
Instrucciones sobre cómo configurar el paquete Insight de registros de acceso web.
Procedimiento
1. En el espacio de trabajo Ajustes administrativos de IBM Operations Analytics Log Analysis, cree un nuevo origen de registro para el archivo de registro que
se va a supervisar. El tipo de origen debe ser WebAccessLog.
2. En el servidor web, personalice el formato de registro de acceso con una salida
de valores separados por delimitadores (DSV) que pueda ser consumido por el
paquete Insight de registros de acceso web y IBM Operations Analytics - Log
Analysis. La sintaxis para personalizar el formato de registro es diferente para
cada servidor Web, pero el registro generado será el mismo. A continuación se
muestra la directiva de formato de registro para los servidores web soportados:
Para Apache/IHS
a. Edite el archivo <ServerRoot>/conf/httpd.conf, en el que
<ServerRoot> es la vía de acceso de instalación de raíz.
1) Añada la directiva de formato de registro siguiente:
LogFormat "Apache/IHS,%h,%l,%u,%t,%m,\"%r\",%>s,%b,%D,
\"%{Referer}i\",\"%{User-Agent}i\"" scalaAccessLog
2) Actualice la especificación del directorio de registros de acceso
para que utilice la directiva LogFormat:
CustomLog logs/access_log scalaAccessLog
3) Elimine los comentarios de la línea siguiente añadiéndole el
prefijo #:
CustomLog logs/access_log common
b. Reinicie el servidor web.
c. Los archivos de acceso generados están en <ServerRoot>/logs.
Para JBoss
a. Edite el archivo <JBOSS_HOME>/jboss-eap-6.1/standalone/
configuration/standalone.xml
b. Busque el elemento XML subsistema
xmlns="urn:jboss:domain:web:1,4" y añada el siguiente elemento
<access_log>:
<subsystem xmlns="urn:jboss:domain:web:1.4"
default-virtual-server="default-host" native="false>
<connector name="http" protocol="HTTP/1.1" scheme="http"
socket-binding="http"/>
<virtual-server name="default-host" enable-welcome-root="true">
<alias name="localhost"/>
<alias name="example.com"/>
<access-log prefix="access-log." pattern="JBoss,%h,%l,%u,%t,
Gestión de Paquetes Insight
281
%m," %r",%s,%b,%D,"%{Referer}i"
,"%{User-Agent}i"">
<directory path="." relative-to="jboss.server.log.dir"/>
</access-log>
</virtual-server>
</subsystem>
c. Reinicie el servidor de aplicaciones JBoss
d. Busque el archivo de registro de acceso en <JBOSS_HOME>/
standalone/log
donde<JBOSS_HOME> es el directorio en el que ha instalado JBoss
Para Apache Tomcat
a. Edite el archivo <tomcat-dir>/conf/server.xml, donde
<tomcat-dir> es el directorio raíz de instalación, y añada el formato
de registro siguiente:
<Valve className="org.apache.catalina.valves.AccessLogValve"
directory="logs"
prefix="localhost_access_log." suffix=".txt"
pattern="Tomcat,%h,%l,%u,%t,%m,"%r",%s,%b,%D,
"%{Referer}i","%{User-Agent}i""
/>
b. Reinicie el servidor web utilizando los scripts en <tomcat-dir>/bin
c. Los archivos de registro se graban en <tomcat-dir>/logs/
localhost_access_log.<date>.txt
3. (Opcional) Configure el agente de archivos de registro para que supervise
registros rotados. Este paso sólo es necesario si el servidor Web está
configurado para rotar los archivos de registro y si utiliza Log File Agent para
ingerir los archivos de registro.
Nota: Por omisión, los registros de acceso se rotan para Apache Tomcat y
JBoss. Por omisión, los registros de acceso no se rotan para Apache/IHS. Para
obtener instrucciones sobre cómo configurarla rotación de registros para
Apache/IHS, consulte “Métodos recomendados de registros de acceso web” en
la página 290.
Cada servidor web tiene una sintaxis diferente sobre cómo especificar la
rotación y el nombre de archivo generado. De forma predeterminada, un
registro de rotación tiene una indicación de fecha y hora o un número en el
nombre de archivo. Especifique el patrón de nombre de archivo de registro en
el archivo WebAccessLogInsightPack-lfadsv.conf que sea aplicable a su
servidor web.
a. En WebAccessLogInsightPack-lfadsv.conf, actualice LogSources para que
supervise todos los archivos del directorio:
LogSources=<web server log directory to monitor>/
<access_log_filename_without_timestamp>*
FileComparisonMode=CompareByAllMatches
b. Actualice WebAccessLogInsightPack-lfadsv.fmt para que especifique un
nombre de archivo fijo de manera que se pueda usar el mismo nombre fijo
en la vía de acceso de la configuración de logsource de IBM Operations
Analytics - Log Analysis. Sólo es necesario definir un logsource con esta vía
de acceso, y LFA supervisará todos los archivos del directorio debido a que
ha indicado el archivo comodín de nombres en la especificación de
WebAccessLogInsightPack-lfadsv.conf.
// Busca coincidencias de registros para cualquier archivo de registro:
// REGEX AllRecords
(.*) hostname LABEL
282
IBM Operations Analytics - Log Analysis: Guía de instalación, configuración y administración
-file web_server_access.log
RemoteHost DEFAULT logpath PRINTF("%s",file)
text $1
END
LFA supervisará todos los registros de anotaciones del directorio (según lo
especificado por el valor LogSources). Esto garantiza que no se pierdan datos al
rotarse los registros. Sin embargo, LFA asigna recursos para supervisar cada
uno de los archivos. Esto origina recursos innecesarios, ya que los registros
rotados no se volverán a actualizar. Un método recomendado es archivar
periódicamente registros antiguos de manera que LFA pueda liberar recursos
supervisando archivos estáticos. En Unix, puede utilizar herramientas como
logrotate y cron para la planificación de archivado de registros antiguos.
4. Si desea recopilar registros de varios servidores web, o desea ingerir un
archivado de registros rotados, el método recomendado para cargar datos es
utilizar el cliente de Recopilador de datos.
Reglas de separador de registros de acceso web
La división describe cómo IBM Operations Analytics - Log Analysis separa los
registros del archivo de registro físicos utilizando un límite lógico como, por
ejemplo, una marca de tiempo o una nueva línea.
El paquete Insight registro de acceso web dividirá los registros de anotaciones en
nuevos límites de línea.
Reglas de anotación de registros de acceso web
Cuando se han separado los registros de anotaciones, los registros lógicos se
envían al motor de anotaciones. El motor utiliza reglas para extraer fragmentos de
información importantes que se envían al motor de indexación.
Según la configuración necesaria, el formato de un archivo de anotaciones de
acceso web es:
<webServerType>,<clientIP>,<ident>,<auth>,<timestamp>,<verb>,
"<request>",<response>,<bytes>,<responseTime>,"<referrer>",
"<agent>"
Por ejemplo:
Apache/IHS,119.63.193.107,-,-,[22/Jul/2013:18:12:37 +0200],GET,
"GET / HTTP/1.1",200,3759,324,"-",
"Baiduspider+(+http://www.baidu.jp/spider/)"
Donde se aplica el formato siguiente:
Tabla 59. Formato de registros de acceso web
Campo
Cadena de formato
Descripción
webServerType
Apache/IHS, JBoss, Tomcat
El servidor Web que ha
generado este registro
clientIP
%h
Nombre de host remoto o
dirección IP
ident
%l
Nombre de registro remoto
auth
%u
Usuario remoto si se ha
autenticado la solicitud
Gestión de Paquetes Insight
283
Tabla 59. Formato de registros de acceso web (continuación)
Campo
Cadena de formato
Descripción
timestamp
%t
Hora en que la solicitud se
ha recibido, en el formato de
registro común
[dd/MMM/
yyyy:HH:mm:ssZ ]
verb
%m
El método de solicitud (GET,
POST, etc.)
request
%r
Primera línea de la solicitud
(método y URI de solicitud)
response
%s
Código de estado HTTP de
la respuesta
%>s (Apache/IHS)
bytes
%b
Bytes enviados (excluyendo
la cabecera HTTP), o "-" si 0
responseTime
%D
Tiempo necesario para
procesar la solicitud en
milisegundos (Tomcat, JBoss)
o microsegundos
(Apache/IHS)
referrer
%{Referer}i
Remitente en la solicitud
agent
%{User-Agent}i
Agente de usuario en la
solicitud
Si tiene un entorno de servidor web mixto y realiza un seguimiento de
responseTime (quizás en una Panel de control de búsqueda personalizada), puede
que necesite normalizar los datos. webServerType puede utilizarse para saber si
responseTime está en milisegundos o microsegundos.
Configuración del agente de archivo de registro
Puede utilizar IBM Tivoli Log File Agent para cargar datos en IBM Operations
Analytics - Log Analysis.
Los siguientes archivos de configuración de Log File Agent se instalarán en el
directorio <HOME>/IBM-LFA-6.23/config/lo cuando se ejecuta pkg_mgmt con la
opción -deploylfa.
v WebAccessLogInsightPack-lfadsv.conf - Configuración para el agente del
archivo de registro de acceso web.
v WebAccessLogInsightPack-lfadsv.fmt - Coincide con los registros para los
archivos de registro de acceso web.
Configuración de índices de registros de acceso web
Para controlar cómo IBM Operations Analytics - Log Analysis indexa registros de
un archivo de registro, puede crear valores de indexación para el contenido del
paquete Insight.
Los campos definidos en el archivo de configuración de índices, o las anotaciones,
se muestran en el espacio de trabajo de búsqueda de IBM Operations Analytics Log Analysis y se pueden utilizar para filtrar o buscar los registros de anotaciones.
Los campos se extrae de los campos de un registro de anotaciones o se recopilan
de metadatos en el archivo de registro.
284
IBM Operations Analytics - Log Analysis: Guía de instalación, configuración y administración
Tabla 60. Configuración de índices de registros
Campo
Descripción
Atributos
datasourceHostname
Nombre de host de la definición de
logsource
dataType = TEXT
retrievable = true
retrieveByDefault = true
sortable = false
filterable = true
searchable = true
source = metadata
logRecord
El texto del registro de anotaciones
completo
dataType = TEXT
retrievable = true
retrieveByDefault = true
sortable = false
filterable = false
searchable = true
source = annotate
webServerType
Tipo de servidor web (Apache, JBoss, dataType = TEXT
retrievable = true
Tomcat)
retrieveByDefault = true
sortable = true
filterable = true
searchable = true
source = annotate
clientIP
Nombre de host remoto o dirección
IP
dataType = TEXT
retrievable = true
retrieveByDefault = true
sortable = false
filterable = true
searchable = true
source = annotate
ident
Nombre de registro remoto
dataType = TEXT
retrievable = true
retrieveByDefault = true
sortable = true
filterable = true
searchable = true
source = annotate
auth
Usuario remoto si se ha autenticado
la solicitud
dataType = TEXT
retrievable = true
retrieveByDefault = true
sortable = true
filterable = true
searchable = true
source = annotate
timestamp
Hora en que se ha recibido la
solicitud. El formato de la fecha es:
dataType = DATE
retrievable = true
retrieveByDefault = true
sortable = true
filterable = true
searchable = true
source = annotate
dd/MMM/aaaa:HH:mm:ss Z
verb
El método de solicitud (GET, POST,
etc.)
dataType = TEXT
retrievable = true
retrieveByDefault = true
sortable = true
filterable = true
searchable = true
source = annotate
Gestión de Paquetes Insight
285
Tabla 60. Configuración de índices de registros (continuación)
Campo
Descripción
Atributos
request
Primera línea de la solicitud (método
y URI de solicitud)
dataType = TEXT
retrievable = true
retrieveByDefault = true
sortable = true
filterable = false
searchable = true
source = annotate
response
Código de estado HTTP de la
respuesta
dataType = TEXT
retrievable = true
retrieveByDefault = true
sortable = true
filterable = true
searchable = true
source = annotate
bytes
bytes enviados (excluyendo la
cabecera HTTP)
dataType = LONG
retrievable = true
retrieveByDefault = true
sortable = true
filterable = false
searchable = true
source = annotate
responseTime
Tiempo necesario para procesar la
solicitud en milisegundos (Tomcat,
JBoss) o microsegundos (Apache)
dataType = LONG
retrievable = true
retrieveByDefault = true
sortable = true
filterable = true
searchable = true
source = annotate
referrer
Remitente en la solicitud
dataType = TEXT
retrievable = true
retrieveByDefault = true
sortable = true
filterable = false
searchable = true
source = annotate
agent
Agente de usuario en la solicitud
dataType = TEXT
retrievable = true
retrieveByDefault = true
sortable = true
filterable = false
searchable = true
source = annotate
Artefactos de configuración de registros de acceso web
Artefactos de configuración del paquete Insight de registros de acceso web.
Cuando se instala el paquete Insight se instalan los artefactos siguientes:
WebAccessLog-Split
Conjunto de reglas de separador.
WebAccessLog-Annotate
Conjunto de reglas de anotador
WebAccessLog
Tipo de origen
WebAccessLog-Collection1
Recopilación
286
IBM Operations Analytics - Log Analysis: Guía de instalación, configuración y administración
Generación de un paquete Insight de registros de acceso web
alternativo
Es posible que algunos clientes no puedan cambiar el formato de registro. En esta
situación, puede que tenga que crear un paquete Insight que reconozca su formato
de registro y que reutilice los archivos proporcionados por el registro de paquete
Insight de acceso web.
Acerca de esta tarea
En los pasos siguientes se describe cómo el usuario crea un paquete Insight
reutilizando los archivos proporcionados por el paquete Insight de registro de
acceso web para reconocer su formato de registro. Con esto se presupone que tiene
conocimientos del kit de herramientas DSV (consulte el archivo léame del
directorio docs del kit de herramientas DSV para obtener más información). Utilice
el kit de herramientas DSV más reciente (al menos la versión 1.1.0.1) disponible.
Procedimiento
1. Realice una copia del archivo WebAccessLogModDSV.properties y actualice el
archivo copiado para que contenga los campos de registro y el delimitador en
el registro. El archivo se encuentra en <HOME>/IBM/LogAnalysis/unity_content/
WebAccessLog/WebAccessLogInsightPack_v1.1.0.0/dsv.
2. En el archivo WebAccessLogModDSV.properties, cambie el valor de
aqlModulename, que también se utiliza para generar el nombre de paquete
Insight. Por ejemplo, cambie aqlModulename por WebAccessLogMod.
3. Copie el kit de herramientas DSV, DSVToolkit_v1.1.0.1.zip, en
<HOME>/IBM/LogAnalysis/unity_content y descomprímalo.
4. Invoque el script de Python para generar un nuevo paquete Insight DSV
utilizando el archivo de propiedades DSV actualizado:
python dsvGen.py
<HOME>/IBM/LogAnalysis/unity_content/WebAccessLog/WebAccessLogInsightPack_v1.1.0.0/dsv/
WebAccessLogModDSV.properties -d
5. Edite el módulo de anotaciones generado para cambiar la anotación de bytes
para que sea la misma que hay en la anotación del registro del acceso web:
<HOME>/IBM/LogAnalysis/unity_content/WebAccessLog/WebAccessLogInsightPack_v1.1.0.0/dsv/
extractors/ruleset/WebAccessLog/annotations.aql
Sustituya:
create view bytesFinal as
select stripQuotes(D.bytes) as bytes
from DelimiterSplit D;
por el texto siguiente:
/*--------------------------------------------------------------------*/
/* Ajuste el AQL para que anote solo los bytes que aparecen como dígitos numéricos */
/* Omita los bytes escritos en el registro como "-"
*/
create view bytesBasic as
select stripQuotes(D.bytes) as bytes
from DelimiterSplit D;
create view bytesConsolidated as
extract regex /(\d+)/
on D.bytes
return
group 0 as match
and group 1 as bytes
from bytesBasic D;
create view bytesFinal as
Gestión de Paquetes Insight
287
select GetText(D.bytes) as bytes
from bytesConsolidated D;
/*--------------------------------------------------------------------*/
6. Para reiniciar IBM Operations Analytics - Log Analysis ejecute el mandato
siguiente desde el directorio <HOME>/IBM/LogAnalysis/utilities:
<HOME>/IBM/LogAnalysis/utilities/unity.sh -restart
Nota: El espacio no es un delimitador válido para el kit de herramientas DSV.
Si utiliza un espacio como delimitador, debe actualizar el anotador y el
separador generados para que lo reconozcan.
Panel de control de búsqueda personalizada de comprobación
de estado web
La Panel de control de búsqueda personalizada de comprobación de estado web
visualiza datos de los registros de acceso web.
La Panel de control de búsqueda personalizada de comprobación de estado web
contiene los siguientes gráficos:
Total de solicitudes web
Traza el número de solicitudes web desde el último día en un gráfico de
líneas.
Tiempo de respuesta
Traza los tiempos de respuesta desde el último día en un gráfico de
puntos.
Código de respuesta anómala
Traza todos los códigos de respuesta que no sean 200 durante el último día
en un gráfico de burbujas.
Peores tiempos de respuesta de cliente
Traza los tiempos de respuesta máximos de cada dirección IP del cliente
(que no sea 127.0.0.1) durante el último día en un gráfico de burbujas.
Violaciones de SLA de tiempo de respuesta (>100)
Traza el número de solicitudes web en las que el tiempo de respuesta es >
100 durante el último día en un gráfico de puntos. La consulta puede ser
configurada por el usuario para que coincida con sus reglas de SLA.
Nota: Para los servidores web de Apache IHS, el tiempo de respuesta se
da en microsegundos. Para los servidores web de Apache Tomcat y JBoss,
los tiempos de respuesta se dan en milisegundos.
Estos gráficos también admiten el desglose. Puede efectuar una doble
pulsación en cualquier punto de datos del gráfico para abrir un espacio de
búsqueda que se circunscriba a los registros de anotaciones que componen
ese punto de datos.
Configuración de la Panel de control de búsqueda personalizada
de comprobación de estado web
Opciones disponibles para personalizar la Panel de control de búsqueda
personalizada de comprobación de estado web
Acerca de esta tarea
De forma predeterminada, la Panel de control de búsqueda personalizada de
comprobación de estado web muestra datos para el intervalo de tiempo relativo
288
IBM Operations Analytics - Log Analysis: Guía de instalación, configuración y administración
Día anterior. El filtro de tiempo se puede cambiar editando la configuración de
gráficos y especificando el Filtro de tiempo en la pestaña Consulta.
Cree una Panel de control de búsqueda personalizada de comprobación de estado
web nueva copiando el archivo Check.appExmpl en el directorio
<HOME>/AppFramework/Apps/WebAccessLogInsightPack_v1.1.0.2.
Renombre el archivo copiado de la forma siguiente: <nuevo_nombre>.app.
Para personalizar la Panel de control de búsqueda personalizada nueva, realice los
pasos siguientes:
Procedimiento
1. El origen de recurso utilizado por la Panel de control de búsqueda
personalizada de comprobación de estado web se denomina accessLog. Cambie
el parámetro logsources para cada gráfico que desee modificar.
Por ejemplo:
"logsources": [
{
"type": "logSource",
"name":"/accessLog"
}
],
2. El intervalo de tiempo relativo para cada gráfico toma como valor
predeterminado el último día. Cambie el parámetro timefilters para cada
gráfico para especificar un nuevo intervalo de tiempo relativo predeterminado.
La granularidad se puede especificar como second, minute, hour, day, week,
month o year.
Por ejemplo:
"filter": {
"timefilters": {
"granularity" : "day",
"lastnum" : 1,
"type": "relative"
}
},
3. El gráfico de infracciones de SLA del tiempo de respuesta toma como valor
predeterminado responseTime >100. Cambie el parámetro de consulta para
definir una regla de infracción de SLA diferente.
Por ejemplo:
{
"name":"ResponseTimeSLAViolations",
"type":"FacetedSearchQuery",
"start": 0,
"results": 0,
"value":{
"filter": {
"timefilters": {
"granularity" : "day",
"lastnum" : 1,
"type": "relative"
}
},
"logsources": [
{
"type": "logSource",
"name":"/accessLog"
}
],
Gestión de Paquetes Insight
289
"query":"responseTime: > 100",
"outputTimeZone":"UTC",
"getAttributes":[
"timestamp",
"responseTime"
],
"sortKey": [
"-timestamp"
],
"facets":{
"timestamp":{
"date_histogram":{
"field":"timestamp",
"interval":"hour",
"outputDateFormat":"yyyy-MM-dd’T’HH:mm:ssZ",
"outputTimeZone":"UTC"
}
}
}
}
}
4. Después de editar el archivo de la Panel de control de búsqueda personalizada,
actualice el panel de la Paneles de control de búsqueda personalizada en la IU
de búsqueda para poder recopilar los cambios.
Métodos recomendados de registros de acceso web
Métodos recomendados para integrar los registros de acceso web con IBM
Operations Analytics - Log Analysis
Nota: Por omisión, los registros de acceso se rotan para Apache Tomcat y JBoss.
Por omisión, los registros de acceso no se rotan para Apache/IHS.
Configuración de rotación de registros para Apache IHS
El mejor procedimiento es configurar el servidor Web para que sus registros de
acceso roten y luego supervisar todos los registros de acceso que rotan.
rotatelogs es un programa simple para usarlo en combinación con la característica
de archivo de registro de Apache canalizada. Admite la rotación basada en un
intervalo de tiempo o en el tamaño de archivo (en segundos). Los nombres de
archivo son <logfile>.nnnn o <logfile>.<time> según la especificación rotatelogs.
Para obtener más información sobre la rotación de registros, consulte
http://httpd.apache.org/docs/2.0/programs/rotatelogs.html.
Algunos usuarios no utilizan la opción rotatelogs porque está configurada como
una canalización y utiliza recursos (es decir, que se ejecuta como un proceso
separado). Otra opción es que los usuarios consideren la herramienta logrotate de
Unix. Los nombres generados son access.log, access.log.1, access.log.2, etc.
Ejemplo
Ejemplo de cómo configurar la rotación de registros para Apache IHS:
1. Actualice el archivo httpd.conf:
a. Añada las líneas siguientes al archivo httpd.conf:
CustomLog "/root/IBM/HTTPServer/bin/rotatelogs
/root/IBM/HTTPServer/logs/access_log.%Y-%m-%d-%H_%M_%S 86400" scalaAccessLog
b. Sustituya /root/IBM/HTTPServer con lo que utilice como variable de inicio
de HTTPServer
290
IBM Operations Analytics - Log Analysis: Guía de instalación, configuración y administración
2. Actualice el archivo de configuración de agente de archivo de registro:
a. Añada la línea siguiente al archivo WebAccessLogInsightPack-lfadsv.conf:
LogSources=<log directory>/access_log*
b. Si hay más de un archivo que coincidan con el patrón, añada la línea
FileComparisonMode=CompareByAllMatches para supervisar todos los
archivos.
3. Actualice el archivo WebAccessLogInsightPack-lfadsv.conf con el código
siguiente:
// Busca coincidencias de registros para cualquier archivo de registro:
//
REGEX AllRecords
(.*)
hostname LABEL
-file ihs-access-log
RemoteHost DEFAULT
logpath PRINTF("%s",file)
text $1
END
Referencias de paquete Insight de registros de acceso web
Referencias importantes para su paquete Insight de registros de acceso web.
Documentación de JBoss AS v7:
https://docs.jboss.org/author/display/AS71/Documentation
Documentación de Tomcat:
http://tomcat.apache.org/
Documentación de Apache/IHS:
http://www-01.ibm.com/support/knowledgecenter/SSAW57_8.0.0/
com.ibm.websphere.ihs.doc/info/ihs/ihs/welcome_ihs.html
Nota: Esta documentación describe IBM HTTP Server en el contexto de
WebSphere Application Server.
WebSphere Application Server Paquete Insight
Se proporciona un WebSphere Application Server Paquete Insight con IBM
Operations Analytics - Log Analysis.
El Paquete Insight incluye soporte para ingerir y realizar búsquedas de metadatos
en los siguientes archivos de registro de WebSphere Application Server V7 y V8:
v SystemOut.log
v SystemErr.log
v trace.log
En este documento se describe la versión del Paquete Insight de WebSphere
Application Server que se instala cuando se instala IBM Operations Analytics - Log
Analysis. Es posible que se publique una versión actualizada del Paquete Insight
de WebSphere Application Server después de esta versión de IBM Operations
Analytics - Log Analysis. Para descargar las últimas versiones de este paquete
Insight, así como documentación actualizada, consulte http://www.ibm.com/
developerworks/servicemanagement/downloads.html.
Gestión de Paquetes Insight
291
Artefactos de configuración
El Paquete Insight soporta el formato de indicación de fecha y hora de WebSphere
Application Server MM/dd/yy HH:mm:ss:SSS Z.
El formato de la indicación de fecha y hora se puede modificar en el espacio de
trabajo de orígenes de datos.
1. Abra un tipo de origen de WebSphere Application Server existente y pulse Ver
configuración de índice.
2. Seleccione todo el texto y cópielo en el portapapeles.
3. Crear un nuevo tipo de origen, y pulse Editar configuración de índice.
4.
Pegue la configuración de índice original en el editor y, a continuación,
modifique el campo dateFormats de la entrada de indicación de fecha y hora.
5. Complete los restantes campos de tipo de origen y pulse Aceptar. A
continuación, cree una nueva recopilación que utilice el tipo de fuente que
acaba de crear.
Nota: Los orígenes de datos no son predefinidos. Un usuario con privilegios de
administrador debe definir al menos un origen de datos de WebSphere Application
Server y la recopilación antes de que se pueda utilizar la aplicación.
La tabla siguiente muestra los artefactos de configuración que se proporcionan con
el Paquete Insight para cada archivo de registro.
Tabla 61. Artefactos de configuración de Paquete Insight
SystemOut.log
SystemErr.log
trace.log
Separador
WASJavaSplitter
WASSystemErr-Split
WASTrace-Split
Anotador
WASJavaAnnotator
WASSystemErr-Annotate
WASTrace-Annotate
Tipo de origen
WASSystemOut
WASSystemErr
WASTrace
Recopilación
WASSystemOut-Collection1
WASSystemErr-Collection1
WASTrace-Collection1
Nota: El separador y el anotador de SystemOut.log utilizan Java. Los separadores
y anotadores para SystemErr.log y trace.log utilizan Annotation Query Language
(AQL).
Configuración del agente de archivo de registro
Los archivos de registro soportados comparten los archivos de configuración de
IBM Tivoli Monitoring Log File Agent (LFA). Los siguientes archivos de
configuración de LFA se encuentran en el directorio Log_Analytics_install_dir/
IBM-LFA-6.30/config/lo:
v WASInsightPack-lfawas.conf: Archivo de configuración para el agente de
archivo de registro WAS.
v WASInsightPack-lfawas.fmt: Coincide con los registros para los archivos de
registro de WAS.
Módulos de AQL de separación y anotación
La separación y la anotación son gestionadas por los siguientes módulos de
Annotation Query Language (AQL).
292
IBM Operations Analytics - Log Analysis: Guía de instalación, configuración y administración
Tabla 62. Módulos Paquete Insight AQL
Módulo AQL
Descripción
common
Módulo de código común que se utiliza en
la mayoría de archivos de registro de
WebSphere Application Server (por ejemplo,
para reconocer los formatos de fecha y
hora).
annotatorCommon
Módulo de anotaciones común que se utiliza
para todos los archivos de registro de
WebSphere Application Server.
annotatorSystemOut
Módulo de anotador para el archivo
trace.log.
annotatorSystemErr
Módulo de anotador para los archivos
SystemErr.log.
splitterWAS
Módulo de separador para los archivos
SystemErr.log.
Formatos de archivo de registro
Los formatos básicos de los archivos de anotaciones WebSphere Application Server
se describen aquí como referencia para los usuarios.
El formato básico de los archivos SystemOut.log y SystemErr.log es:
timestamp threadId shortname severity className methodName message
donde los campos className y methodName son opcionales.
El formato básico de los archivos de trace.log es:
timestamp threadId shortname severity className methodName message
parameter_1
parameter_2
parameter_n
donde los campos className, methodName y parameter son opcionales.
En los tres archivos de registro, se graban detalles de rastreo de pila en el siguiente
formato general:
en packageName.exceptionClassName.exceptionMethodName(fileName:lineNumber)
Para obtener más información sobre los formatos de archivo de registro básico y
avanzado de WebSphere Application Server, consulte el tema siguiente en el centro
de información de WebSphere Application Server:
http://www-01.ibm.com/support/knowledgecenter/SSAW57_8.5.5/
com.ibm.websphere.nd.multiplatform.doc/ae/rtrb_readmsglogs.html
Separador de archivo de registro
El separador proporcionado con el Paquete Insight se describen aquí como
referencia para los usuarios.
separador de WebSphere Application Server
Los formatos de los archivos SystemOut.log, trace.log y SystemErr.log son
suficientemente parecidos como para poder compartir un separador. El separador
Gestión de Paquetes Insight
293
reconoce dos estilos de registro de anotaciones. La mayorías de los registros
comienzan con una indicación de tiempo y hora entre paréntesis y el separador
utiliza la indicación de tiempo y hora para definir el principio y el final de cada
registro. Sin embargo, algunos rastreos de pila tienen una indicación de fecha y
hora al principio de cada línea. En estos casos, el separador agrupa todo el rastreo
de pila en un solo registro de anotaciones.
En el ejemplo siguiente se muestra un rastreo de pila con varias indicaciones de
fecha y hora. El ejemplo se separa como un solo registro de anotaciones.
[1/2/13 12:26:12:166 EST] 0000005d SystemErr
[1/2/13 12:26:12:166 EST] 0000005d SystemErr
[1/2/13 12:26:12:166 EST] 0000005d SystemErr
R java.lang.NullPointerException
R
at com.ibm.blah init
R
at com.ibm.blah abcdefg
Anotaciones de archivo de registro
Las anotaciones definidas por la configuración de índice de archivo de registro se
describen aquí.
En los apartados siguientes se describen los campos que están definidos en el
archivo de configuración de índice. Estos campos, o las anotaciones, se visualizan
en el espacio de búsqueda de IBM Operations Analytics - Log Analysis y pueden
utilizarse para filtrar o buscar los registros de anotaciones. Los campos se extrae de
los campos de un registro de anotaciones o se recopilan de metadatos en el archivo
de registro. Cada tabla proporciona los nombres de los campos (estos nombres
corresponden a los campos en el espacio de búsqueda de IBM Operations
Analytics - Log Analysis), descripciones de cómo están relacionados con las
anotaciones, y los atributos de configuración de índice asignados a los campos.
Anotaciones de registros de anotaciones cronológicas
En la tabla siguiente se muestra una lista de los campos de configuración de índice
relacionados con las anotaciones de registros de anotaciones cronológicas. Cada
campo corresponde a una parte de un registro de anotaciones SystemOut,
SystemErr o de rastreo. Los campos se muestran en el orden en el que aparecen en
un registro de anotaciones.
Tabla 63. Campos de configuración de índices de registros de anotaciones
Campo
Descripción
timestamp
La indicación de fecha y hora del registro de
dataType: DATE
anotaciones, que se encuentra al principio de una línea retrievable: true
retrieveByDefault: true
y está delimitado por paréntesis ([...]).
sortable: true
filterable: true
searchable: true
threadID
Un identificador de hebra ocho caracteres
alfanuméricos (0-9, A-F), que está encerrado por
caracteres de un solo espacio en blanco, que sigue a
una indicación de fecha y hora.
dataType: TEXT
retrievable: true
retrieveByDefault: true
sortable: false
filterable: false
searchable: true
shortname
Una secuencia de caracteres que representa un nombre
corto, que está encerrado por caracteres de un solo
espacio en blanco, que siguen a un identificador de
hebra.
dataType: TEXT
retrievable: true
retrieveByDefault: false
sortable: false
filterable: false
searchable: false
294
Atributos
IBM Operations Analytics - Log Analysis: Guía de instalación, configuración y administración
Tabla 63. Campos de configuración de índices de registros de anotaciones (continuación)
Campo
Descripción
Atributos
severity
Un código de tipo de suceso o de gravedad de un solo
carácter (A, C, D, E, F, I, O, R, W, Z, <, >, 1, 2,
3), encerrado por caracteres un solo espacio en blanco,
que sigue a un nombre breve.
dataType: TEXT
retrievable: true
retrieveByDefault: true
sortable: true
filterable: true
searchable: true
className
Si la hay, es una secuencia de caracteres que
representa un nombre de clase totalmente calificado
(por ejemplo,
com.ibm.ws.webcontainer.servlet.ServletWrapper),
que sigue a una gravedad o a la serie “clase=”.
dataType: TEXT
retrievable: true
retrieveByDefault: true
sortable: false
filterable: true
searchable: true
methodName
Si la hay, una secuencia de caracteres que representa
un nombre de método, que está encerrado por
caracteres simples de espacio en blanco, que siguen a
un nombre de clase o a la serie “method=”.
dataType: TEXT
retrievable: true
retrieveByDefault: true
sortable: false
filterable: false
searchable: false
msgclassifier
Si la hay, una secuencia definida de caracteres que
finaliza con dos puntos (:) y que representa un
identificador de mensaje (por ejemplo, WSVR0605W).
dataType: TEXT
retrievable: true
retrieveByDefault: true
sortable: false
filterable: true
searchable: true
message
Si lo hay, el texto del mensaje de sistema, error o
rastreo. Este campo solo se anota si hay un campo
msgclassifier.
dataType: TEXT
retrievable: true
retrieveByDefault: true
sortable: false
filterable: false
searchable: true
javaException
Si los hay, los nombres de excepción de Java que se
ajustan al patrón siguiente:
dataType: TEXT
retrievable: true
retrieveByDefault: true
sortable: false
filterable: true
searchable: true
*.*Exception
Anotaciones de rastreo de pila
En la tabla siguiente se muestra una lista de los campos de configuración de índice
relacionados con las anotaciones de rastreo de pila de registros de anotaciones
cronológicas.
Tabla 64. Campos de configuración de índice de rastreo de pila
Campo
Descripción
Atributos
exceptionClassName
El nombre de la clase en la entrada de rastreo de pila
superior.
dataType: TEXT
retrievable: true
retrieveByDefault: true
sortable: false
filterable: true
searchable: true
Gestión de Paquetes Insight
295
Tabla 64. Campos de configuración de índice de rastreo de pila (continuación)
Campo
Descripción
Atributos
exceptionMethodName
El nombre del método en la entrada de rastreo de pila
superior.
dataType: TEXT
retrievable: true
retrieveByDefault: true
sortable: false
filterable: false
searchable: true
fileName
El nombre del archivo en la entrada de rastreo de pila
superior.
dataType: TEXT
retrievable: true
retrieveByDefault: true
sortable: false
filterable: false
searchable: true
lineNumber
El nombre de línea en la entrada de rastreo de pila
superior.
dataType: TEXT
retrievable: true
retrieveByDefault: true
sortable: false
filterable: false
searchable: true
packageName
El nombre del paquete en la entrada de rastreo de pila
superior.
dataType: TEXT
retrievable: true
retrieveByDefault: true
sortable: false
filterable: false
searchable: true
Anotaciones de metadatos
En la tabla siguiente se muestra una lista de los campos de configuración de índice
relacionados con las anotaciones de metadatos.
Tabla 65. Campos de configuración de índice de metadatos
Campo
Descripción
Atributos de anotación
application
El nombre de aplicación completado por el campo de
origen de datos de topología del servicio.
dataType: TEXT
retrievable: true
retrieveByDefault: true
sortable: false
filterable: false
searchable: true
hostname
El nombre de host completado por el campo de origen dataType: TEXT
retrievable: true
de datos de topología del servicio.
retrieveByDefault: true
sortable: true
filterable: true
searchable: true
logRecord
Todo el registro de anotaciones resultado del
separador.
dataType: TEXT
retrievable: true
retrieveByDefault: true
sortable: false
filterable: false
searchable: true
datasourceHostname
Nombre de host especificado en el origen de datos.
dataType: TEXT
retrievable: true
retrieveByDefault: true
sortable: false
filterable: true
searchable: true
296
IBM Operations Analytics - Log Analysis: Guía de instalación, configuración y administración
Tabla 65. Campos de configuración de índice de metadatos (continuación)
Campo
Descripción
Atributos de anotación
middleware
El nombre de middleware completado por el campo
de origen de datos de topología del servicio.
dataType: TEXT
retrievable: true
retrieveByDefault: true
sortable: false
filterable: false
searchable: true
service
El nombre de servicio completado por el campo de
origen de datos de topología del servicio.
dataType: TEXT
retrievable: true
retrieveByDefault: true
sortable: false
filterable: false
searchable: true
Métodos recomendados de carga de datos de WebSphere
Application Server
Hay diferentes recomendaciones de carga de datos en función de cómo se
configura el registro de WebSphere Application Server.
Para establecer la carga de datos, debe tener en cuenta:
Configuración de WebSphere Application Server
¿Se ha configurado WebSphere Application Server para que produzca
registros continuos o simples?
Carga de datos
Determine si desea usar el IBM Tivoli Monitoring Log File Agent (LFA)
instalado en el servidor remoto de WebSphere Application Server para
enviar datos o para usar el LFA instalado en el servidor local de IBM
Operations Analytics - Log Analysis para extraer datos. En algunos casos,
debe utilizar el recopilador de datos como se describe en el escenario 2.
Configuración del Logfile Agent
Si opta por utilizar el LFA, utilice los archivos de configuración del agente
de registro para especificar los archivos de registro que desea supervisar.
Los archivos WASInsightpack-lfawas.conf y WASInsightPack-lfawas.fmt se
encuentran en el directorio.
<HOME>/IBM-LFA-6.30/config/lo
Los escenarios de archivos de registro describen los ajustes específicos para
estos archivos.
Escenario 1: rotación de archivos de registro en un servidor
WebSphere Application Server
Configuración de WebSphere Application Server
WebSphere Application Server está configurado para los archivos de
registro continuo. Por ejemplo, los registros se escriben en SystemErr.log.
Cuando alcanza un tamaño de archivo de registro definido se cambia su
nombre por SystemErr_13.05.10_05.22.05.log y se crea un nuevo
SystemErr.log para más datos. Se produce un flujo parecido para
SystemOut.log y trace.log.
Método de carga de datos
El método recomendado para cargar datos consiste en usar el IBM Tivoli
Monitoring Log File Agent (LFA) instalado en el servidor WebSphere
Application Server remoto para enviar datos o utilizar el LFA instalado en
Gestión de Paquetes Insight
297
el servidor de IBM Operations Analytics - Log Analysis local para extraer
datos. Cree archivos .conf y .fmt individuales específicos para cada
archivo de registro de anotaciones. La definición de LogSources
especificará el nombre del archivo renombrado. Este enfoque debe
garantizar que todos los registros de anotaciones se procesen (sin pérdida
de registros de anotaciones), pero con la contrapartida de que los registros
de anotaciones reenviados a IBM Operations Analytics se envían sólo una
vez que se produce la sustitución. El reenvío de registros será un archivo
de registro resultante con un retardo en tiempo real, lo cual provocará
cierto atraso en los resultados de la búsqueda. La cantidad de tiempo
depende del entorno, es decir, del tamaño de registro definido para la
sustitución y de la frecuencia en la que esto pasa en función de los
volúmenes de registro.
Carga de registros con el LFA es un proceso que carga la CPU. Si su
sistema no cumple con los requisitos mínimos deberá aumentar el valor de
MaxEventQueueDepth. En algunos sistemas, modificar este valor puede
producir un impacto notable en el rendimiento. Esto almacenará en la
memoria intermedia sucesos de LFA adicionales mientras están a la espera
de ser procesados. El valor necesario para MaxEventQueueDepth puede
variar en función del tamaño del registro implementado y el número/la
velocidad de las CPU. Si decide no aumentar este valor, es posible que los
sucesos más antiguos se sustituyan en la cola de sucesos con nuevos
sucesos y que no se envíen al servidor IBM Operations Analytics.
Para minimizar la posibilidad de pérdidas de datos debidas a atascos de la
CPU, y para reducir la latencia entre cuando un registro de anotaciones se
graba en el archivo y cuando se carga, recomendamos que el tamaño
máximo de un registro de WebSphere Application Server sea
suficientemente más pequeño como para que el sistema no se quede atrás
al procesar los registros.
Un método alternativo consiste en supervisar siempre el archivo de
registro actual (por ejemplo, SystemErr.log) y no el archivo de registro
renombrado. Esto podría causar que los registros de anotaciones fueran
reenviados de inmediato por el LFA. La contrapartida es que esta
configuración puede causar que las entradas en el registro no se reenvíen si
se grabaron durante el intervalo de sondeo de LFA (tiempo de suspensión)
y se produce una sustitución. En este caso, el LFA empezaría a procesar el
nuevo registro de archivo.
Configuración de Logfile Agent - Archivo lfawas.conf
Debe crear archivos adicionales .conf para cada tipo de registro que
supervise. Por ejemplo, si desea supervisar SystemOut.log y trace.log,
necesita un archivo .conf para cada archivo de anotaciones.
Especifique los parámetros siguientes para supervisar los archivos
SystemErr.log rotativos:
LogSources=<was log directory to monitor>/SystemErr_*.log
FileComparisonMode=CompareByAllMatches
Configuración de Logfile Agent - Archivo lfawas.fmt
Debe crear archivos adicionales .fmt para cada tipo de registro que
supervise. Por ejemplo, si desea supervisar SystemOut.log y trace.log,
necesita un archivo .fmt para cada archivo de anotaciones.
298
IBM Operations Analytics - Log Analysis: Guía de instalación, configuración y administración
Utilice el siguiente archivo .fmt para especificar un nombre fijo
SystemErr.log y evitar la necesidad de definir varios logsources debido a
los cambios de nombre de archivo de registro continuo. Esto permite un
nombre de archivo fijo en logpath.
// Busca coincidencias de registros para cualquier archivo de registro:
//
REGEX AllRecords
(.*)
hostname LABEL
-file SystemErr.log
RemoteHost DEFAULT
logpath PRINTF("%s",file)
text $1
END
El mismo patrón puede utilizarse para definir los archivos .conf y .fmt
para los demás registros:
<was log directory to monitor>/SystemOut_*.log
<was log directory to monitor>/trace_*.log</p>
OR
Caso de ejemplo 2 – Recopilación de archivos de registro de varios
servidores WAS
Configuración de WebSphere Application Server
WebSphere Application Server está configurado para los archivos de
registro único (no continuos) en varios servidores, y los registros del
servidor se recopilan para cargar datos en el servidor de IBM Operations
Analytics - Log Analysis.
Método de carga de datos
El método recomendado para cargar datos consiste en utilizar el cliente de
Recopilador de datos. Elimine los archivos de registro anteriores antes de
crear o copiar nuevas versiones en el directorio desde el que se cargan
datos. El orden de procesamiento de los registros de esta manera es
importante para gestionar registros divididos. Cuando se utiliza el cliente
Recopilador de datos se necesita establecer flushflag de manera que se
puedan fusionar los registros divididos. Se establece en el archivo
javaDatacollector.properties ubicado en el directorio
<HOME>/utilities/datacollector-client/.
Paquete Insight de sucesos de sistema operativo Windows
El paquete Insight de sucesos de sistema operativo Windows permite a los
usuarios de IBM Operations Analytics - Log Analysis, junto con Tivoli Log File
Agent o logstash, recopilar y procesar los sucesos de sistema operativo Windows.
En este documento se describe la versión del Paquete Insight de sucesos de sistema
operativo Windows que se instala al instalar IBM Operations Analytics - Log
Analysis. Es posible que se haya publicado una versión actualizada del Paquete
Insight de sucesos de sistema operativo Windows después de esta versión de IBM
Operations Analytics - Log Analysis. Para descargar las últimas versiones de este
paquete Insight, así como documentación actualizada, consulte
http://www.ibm.com/developerworks/servicemanagement/downloads.html.
Se soportan dos mecanismos de recopilación de datos separados, Tivoli Log File
Agent y logstash.
Gestión de Paquetes Insight
299
El paquete Insight de sucesos de sistema operativo Windows de IBM Operations
Analytics - Log Analysis se genera utilizando el kit de herramientas de DSV de
IBM Operations Analytics - Log Analysis.
Para los sucesos de Windows recopilados por Tivoli Log File Agent (LFA) y
logstash los datos se configuran en un formato de elementos separados por comas,
y se indexa y anota para el análisis.
El LFA es un agente que proporciona una función de supervisión del archivo de
registro configurable utilizando expresiones regulares. El LFA usa la opción del
archivo de configuración (.conf) de WINEVENTLOGS para supervisar sucesos desde el
registro de sucesos de Windows. El agente supervisa una lista separada por comas
de registros cronológicos de sucesos como se muestra en el ejemplo siguiente:
WINEVENTLOGS=System,Security,Application
logstash tiene un módulo de entrada soportados denominado eventlog,
http://logstash.net/docs/1.2.2/inputs/eventlog que extrae los sucesos de los
registros de sucesos de Windows. Los sucesos se reenvían a continuación
utilizando el módulo de salida disponibles en el kit de herramientas de integración
de logstash al receptor EIF de IBM Operations Analytics - Log Analysis.
Instalación del paquete Insight de sucesos de sistema operativo
Windows
Si utiliza IBM Operations Analytics - Log Analysis 1.2 o posterior, el paquete
Insight de sucesos de sistema operativo Windows se instala de forma
predeterminada, y por lo tanto no es necesario instalarlo por separado.
Acerca de esta tarea
El Paquete Insight de sucesos de sistema operativo Windows se instala mediante el
programa de utilidad pkg_mgmt.
Procedimiento
1. Cargue el archivo de archivado del paquete Insight de sucesos de sistema
operativo, WindowsOSEventsInsightPack_<versión>.zip, en el sistema en el que
IBM Operations Analytics - Log Analysis está instalado.
2. Instale el paquete Insight de sucesos de sistema operativo Windows con el
mandato pkg_mgmt.sh:
<HOME>/IBM/LogAnalysis/utilities/pkg_mgmt.sh -install
<vía_acceso>/WindowsOSEventsInsightPack_<versión>.zip
Donde <path> es la vía de acceso en la que ha guardado el paquete Insight de
sucesos de sistema operativo Windows.
Desinstalación del paquete Insight de sucesos de sistema
operativo Windows
Instrucciones sobre cómo desinstalar el paquete Insight de sucesos de sistema
operativo Windows.
Acerca de esta tarea
El Paquete Insight de sucesos de sistema operativo Windows se instala y desinstala
mediante el programa de utilidad pkg_mgmt.
300
IBM Operations Analytics - Log Analysis: Guía de instalación, configuración y administración
Procedimiento
1. Utilice el mandato pkg_mgmt.sh para determinar la ubicación del paquete
Insight.
<HOME>/IBM/LogAnalysis/utilities/pkg_mgmt.sh
2. Desinstale el paquete Insight de sucesos de sistema operativo Windows con el
mandato pkg_mgmt.sh:
<HOME>/IBM/LogAnalysis/utilities/pkg_mgmt.sh -uninstall
<vía_acceso>/WindowsOSEventsInsightPack_<versión>
Donde <path> es la vía de acceso que muestra el mandato del paso 1 que
muestra la ubicación del paquete Insight de sucesos de sistema operativo
Windows.
Consideraciones sobre el rendimiento
Asegúrese de considerar estas limitaciones al utilizar el paquete Insight de sucesos
de sistema operativo Windows:
Los archivos con registros de longitud requieren ajustes en el tamaño de pila de
Java para que puedan ser ingeridos. Este ajuste se realiza añadiendo o
actualizando la línea -Xss<stacksize> en el archivo jvm.options que se encuentra
en el directorio <HOME>/wlp/usr/servers/Unity. <stacksize> es el tamaño de pila
deseado. Por omisión se admiten líneas de aproximadamente 1000 caracteres. Para
dar soporte a las líneas de hasta 10.000 caracteres, el tamaño de la pila debe estar
establecido en 6144 kb. Para dar soporte a las líneas de hasta 9.000 caracteres, el
tamaño de la pila debe estar establecido en 5120 kb. Una línea de ejemplo es la
siguiente:
-Xss6144k
Si añade o actualiza el valor de este parámetro dentro del archivo jvm.options,
debe reiniciar el sistema IBM Operations Analytics - Log Analysis. Para obtener
más información sobre cómo reiniciar IBM Operations Analytics - Log Analysis,
consulte el tema Mandato unity en la documentación.
Integración del paquete Insight de sucesos de sistema operativo
Windows con el agente de archivo de registro
Configurar una instancia de Log File Agent en Windows permite reenviar los
sucesos del sistema operativo Windows a IBM Operations Analytics - Log Analysis.
Antes de empezar
Asegúrese de que el archivo de registro de Tivoli Agent (LFA) esté instalado en el
servidor Windows que se está supervisando. Para obtener más información sobre
cómo instalar el LFA de Tivoli, consulte la publicación "Guía del usuario de Tivoli
Log File Agent" en la publicación IBM Tivoli Monitoring Knowledge Center.
Asegúrese de que Windows Server pueda comunicarse con el servidor de IBM
Operations Analytics - Log Analysis. La comunicación se dirige al puerto del
receptor EIF en el servidor de IBM Operations Analytics - Log Analysis (el valor
predeterminado es 5529). Asegúrese de que se levanten las restricciones del
cortafuegos.
Acerca de esta tarea
Los pasos de esta tarea describen cómo utilizar el LFA para recopilar y enviar
sucesos del sistema operativo Windows al servidor de IBM Operations Analytics Log Analysis. El LFA puede configurarse para enviar sucesos del sistema operativo
Gestión de Paquetes Insight
301
Windows para el receptor EIF que se despliegue con IBM Operations Analytics Log Analysis. Para obtener más detalles sobre cómo configurar el receptor EIF en
IBM Operations Analytics - Log Analysis, consulte el apartado "Configuración del
receptor EIF" en el Knowledge Center de IBM Operations Analytics - Log Analysis.
Procedimiento
1. En el servidor de IBM Operations Analytics - Log Analysis, copie los archivos
de LFA .conf y .fmt en el Windows Server de destino.
Los archivos .conf y .fmt están en el directorio en el que está instalado el
paquete Insight del SO Windows.
La ubicación del paquete Insight de sucesos del SO Windows puede
determinarse mediante el mandato pkg_mgmt.sh:
<HOME>/IBM/LogAnalysis/utilities/pkg_mgmt.sh -list
2. En el lugar de destino de Windows Server, ambos archivos de un directorio
están accesibles para la instalación del LFA de Tivoli.
3. Edite el archivo lfaWinEvt.conf.
a. Actualice el ServerLocation con el nombre de host o la dirección IP del
servidor de IBM Operations Analytics - Log Analysis.
b. Actualice ServerPort con el valor configurado en el servidor de IBM
Operations Analytics - Log Analysis.
El puerto predeterminado es 5529.
# Our EIF receiver host and port.
# Only needed when sending events directly to OMNIbus or TEC via EIF.
# That is configured through either the Manage Tivoli Enterprise Monitoring
# Services GUI or the
# "itmcmd config -A lo" command.
ServerLocation=unityserver.ibm.com
ServerPort=5529
Para obtener más información sobre cómo configurar el receptor EIF en IBM
Operations Analytics - Log Analysis, consulte el apartado "Configuración
del receptor EIF" en el Knowledge Center de IBM Operations Analytics Log Analysis.
El archivo lfaWinEvt.fmt da formato a los sucesos del sistema operativo
Windows que son leídos por el LFA de Tivoli en un formato CSV para la
ingestión por parte del pack Insight de sucesos de sistema operativo Windows.
4. El único valor entre este archivo .fmt que se recomienda que edite es logpath.
Esta serie debe coincidir con la del origen de datos configurado en el servidor
de IBM Operations Analytics - Log Analysis.
De forma predeterminada, el valor del nombre de host es el que se ha devuelto
ejecutando el mandato DOS hostname desde la línea de mandatos. Esta serie
debe ser utilizada como el valor del nombre de host cuando se configura el
origen de datos en el servidor de IBM Operations Analytics - Log Analysis.
5. Inicie la aplicación del servicio Manage Tivoli Enterprise Monitoring en
Windows Server.
6. Seleccione la plantilla de Tivoli Log File Agent y seleccione Acciones >
Configurar utilizando los valores predeterminados.
7. Especifique un nombre de instancia exclusivo cuando se le solicite.
Nota: Existe un límite en la longitud de los nombres de instancia. La
identificación interna de una instancia de LFA mediante bibliotecas de ITM
limita la longitud a 32 caracteres en total.
302
IBM Operations Analytics - Log Analysis: Guía de instalación, configuración y administración
8. En la pestaña Configuración de Log File Adapter, indique la ubicación de los
archivos .conf y .fmt, y establezca la opción Enviar suceso de ITM en No.
La instancia de LFA se configurará ahora y se puede iniciar desde el servicio
Manage Tivoli Enterprise Monitoring.
Una vez iniciada, se pueden resolver los problemas del LFA así:
a. Seleccione y pulse con el botón derecho la instancia de LFA en el diálogo
servicio Manage Tivoli Enterprise Monitoring.
b. Pulse Avanzado > Ver archivo de rastreo.
El archivo $UNITY_HOME/logs/UnityEifReceiver.log del servidor de IBM
Operations Analytics - Log Analysis se puede usar ahora para observar sucesos
recibidos por el LFA mediante IBM Operations Analytics - Log Analysis.
Para obtener más información sobre el registro en UnityEifReceiver, consulte la
sección "Habilitación del registro de consola y cambio del nivel de registro para
el receptor EIF" en el Knowledge Center de IBM Operations Analytics - Log
Analysis.
Nota: Al configurar el LFA, asegúrese de que la opción No TEMS esté
seleccionada. Para obtener más detalles sobre cómo configurar esta opción,
consulte el tema conocido "Log File Agent no puede enviar sucesos" en el
Knowledge Center de IBM Operations Analytics - Log Analysis.
Integración del paquete Insight de sucesos de sistema operativo
Windows con logstash
Puede configurar logstash en Windows para enviar sucesos del sistema operativo
Windows a Log Analysis.
Antes de empezar
Asegúrese de que se haya desplegado logstash en el servidor de Windows que se
supervisa. Para obtener más información, consulte “Instalación de logstash en
servidores basados en Windows” en la página 219.
Asegúrese de que Windows Server pueda comunicarse con el servidor de Log
Analysis. La comunicación se dirige al puerto de la interfaz REST en el servidor de
Log Analysis (el valor predeterminado es 9987). Asegúrese de que se levanten las
restricciones del cortafuegos.
El archivo logstash-scala.conf se encuentra en el directorio en el que está
instalado el paquete Insight de sucesos del SO Windows.La ubicación del paquete
Insight de sucesos del SO Windows puede determinarse mediante el mandato
pkg_mgmt.sh:
<HOME>/IBM/LogAnalysis/utilities/pkg_mgmt.sh -list
Acerca de esta tarea
En los pasos de esta tarea se describe cómo configurar logstash para enviar sucesos
del sistema operativo Windows a la interfaz REST que forma parte de Log
Analysis.
Procedimiento
1. En el servidor Windows de destino, detenga logstash.
2. Realice una copia de seguridad del archivo <logstash Location>\logstash\
config\logstash-scala.conf.
Gestión de Paquetes Insight
303
3. Edite el archivo logstash-scala.conf. Debe añadir los valores necesarios. Para
obtener más información, consulte “Referencia de archivo de configuración de
logstash” en la página 221.
4. En el servidor IBM Operations Analytics - Log Analysis, copie el archivo
logstash-scala.conf al Windows Server de destino.
5. En el servidor de Windows, coloque el archivo logstash-scala.conf en el
directorio <logstash_install>\logstash\config. Esto sobrescribe la versión
existente.
6. En el servidor de Windows, asegúrese de que el módulo de salida de REST de
logstash esté configurado para enviar datos al servidor de IBM Operations
Analytics - Log Analysis.
7. El el servidor de Windows, compruebe que los valores del módulo de salida
del nuevo archivo logstash-scala.conf coincida con los de la copia de
seguridad. Esta comprobación es necesaria si especifica una ubicación no
estándar para el módulo de salida de la interfaz REST.
8. Inicie logstash en el servidor Windows.
Formato de los sucesos del sistema operativo Windows
generado por Tivoli Log File Agent
Los sucesos de sistema operativo Windows son formateados por Tivoli Log File
Agent en formato csv.
El valor de vía de acceso de la fuente de registro debe coincidir con el especificado
para la vía de acceso del archivo .fmt desplegado en el LFA del servidor Windows.
El paquete Insight de sucesos de sistema operativo Windows se ha creado con el
kit de herramientas IBM Operations Analytics - Log Analysis DSV. Los sucesos son
formateados por Tivoli Log File Agent con un formato csv con las columnas
siguientes.
Tabla 66. Formato del archivo de anotaciones
304
Número
Nombre de columna
Descripción
1
EventCategory
Describe el subsistema de
sucesos, por ejemplo,
EventLog:Application o
EventLog:Security
2
Timetsamp
Hora del suceso
3
Level
Información, advertencia,
error, etc.
4
User
Si se asocia un nombre de
usuario con el suceso
5
EventSource
Origen del suceso
6
Keywords
Los sucesos pueden tener
palabras claves asociadas al
crearse.
7
EventID
ID del suceso
8
Descripción
Descripción textual del
suceso
IBM Operations Analytics - Log Analysis: Guía de instalación, configuración y administración
Formato de los sucesos del sistema operativo Windows
generado por logstash
El formato básico del registro de sucesos de Windows generado porlogstash se
describe aquí como referencia para los usuarios.
El paquete Insight de sucesos de sistema operativo Windows se ha creado con el
kit de herramientas IBM Operations Analytics - Log Analysis DSV. logstash
formatea los sucesos en formato csv con las columnas siguientes.
Tabla 67. Formato del archivo de anotaciones
Número
Nombre de columna
Descripción
1
EventLog
Describe el subsistema de un
suceso, por ejemplo
Aplicación o Seguridad
2
Timetsamp
Hora del suceso
3
Level
Información, advertencia,
error, etc.
4
User
Si se asocia un nombre de
usuario con el suceso
5
EventSource
Origen del suceso
6
EventID
ID del suceso
7
Descripción
Descripción textual del
suceso
8
Nombre de host
Nombre de host de la
máquina Windows
9
EventRecordNumber
ID de suceso único
10
Category
Categoría numérica
Aplicación del paquete Insight de sucesos de sistema operativo
Windows
Se proporciona una simple aplicación de muestra con el paquete Insight de sucesos
de sistema operativo Windows. Esta aplicación consulta en los datos recopilados
por la aplicación y genera cuatro diagramas.
Los cuatro gráficos generados por la aplicación son:
v El nivel de sucesos cuenta por hora durante las últimas 24 horas
v El registro de sucesos cuenta por hora durante las últimas 24 horas
v El origen de sucesos cuenta por hora durante las últimas 24 horas
v El nivel de sucesos cuenta el origen de sucesos por hora durante las últimas 24
horas
De forma predeterminada, la aplicación consultará un logsource denominado
WindowsOSEventsLFA.
Si desea ejecutar el gráfico en otro logsource basado en el tipo de fuente
WindowsOSEventsLFA:
1. Abra el archivo: <HOME>/AppFramework/Apps/
WindowsOSEventsInsightPack_<versión>/WindowsEvents.app.
2. Actualice el valor del nombre logsource de WindowsOSEventsLFA a cualquier
nombre de logsource que sea necesario.
Gestión de Paquetes Insight
305
Nota: Todos los nombres de logsource configurados pueden verse en los
valores de interfaz de usuario administrativo de IBM Operations Analytics Log Analysis bajo la pestaña Orígenes de registro.
Limitación del flujo de sucesos en el paquete Insight de registro
de sucesos de sistema operativo Windows
Grupo opcional de pasos con el fin de limitar el flujo de sucesos en el registro de
sucesos del paquete Insight del SO Windows.
Acerca de esta tarea
El SO Windows genera un gran número de registros de nivel de información que
es posible que los usuarios no deseen rastrear. El archivo .fmt puede editarse para
limitar lo que se está supervisando.
Procedimiento
1. En el servidor Windows, edite el archivo fmt (consulte los pasos anteriores para
configurar el LFA de Tivoli) del modo siguiente. Para obtener más información
sobre cómo configurar IBM Tivoli Monitoring Log File Agent, consulte
“Integración del paquete Insight de sucesos de sistema operativo Windows con
el agente de archivo de registro” en la página 301.
Actualice el archivo .fmt:
// Busca registros para cualquier archivo de registro y los convierte al formato csv:
//
REGEX AllRecords
^([A-Z][a-z]{2} [0-9]{1,2} [0-9]{1,2}:[0-9]{2}:[0-9]{2} [0-9]{4})
[0-9] (\S+) (\S+) (\S+) (\S+) ([0-9]+) (.*)
hostname LABEL
-file FILENAME
RemoteHost DEFAULT
logpath "WindowsOSEventsLFA"
text PRINTF("%s,%s,%s,%s,%s,%s,%s,%s",file,$2,$3,$4,$5,$6,$7,$8)
END
Para:
// Busca registros para cualquier archivo de registro y los convierte al formato csv:
//
REGEX AllRecords
^([A-Z][a-z]{2} [0-9]{1,2} [0-9]{1,2}:[0-9]{2}:[0-9]{2} [0-9]{4})
[0-9] (Warning|Error|Critical) (\S+) (\S+) (\S+) ([0-9]+) (.*)
hostname LABEL
-file FILENAME
RemoteHost DEFAULT
logpath "WindowsOSEventsLFA"
text PRINTF("%s,%s,%s,%s,%s,%s,%s,%s",file,$2,$3,$4,$5,$6,$7,$8)
END
Esto limitará los sucesos que se envían a IBM Operations Analytics - Log
Analysis a los del tipo aviso, error o grave. No se enviarán sucesos de
'información' a IBM Operations Analytics - Log Analysis.
2. Reinicie la instancia de LFA utilizando la aplicación del servicio Manage Tivoli
Enterprise Monitoring.
Paquetes Insight personalizados
Puede utilizar Paquetes Insight personalizados para implementar la indexación y la
anotación personalizadas.
306
IBM Operations Analytics - Log Analysis: Guía de instalación, configuración y administración
El proceso para crear Paquetes Insight personalizados se describe en la guía de
ampliación y está pensado para usuarios avanzados.
Para obtener más información, consulte la guía de Ampliación.
Conceptos relacionados:
Creación de Paquetes Insight personalizados
Esta sección describe cómo ampliar las funciones de IBM Operations Analytics Log Analysis utilizando la orientación y las herramientas proporcionadas creando
su propio Paquete Insight personalizado y los objetos relacionados.
Gestión de Paquetes Insight
307
308
IBM Operations Analytics - Log Analysis: Guía de instalación, configuración y administración
Administración
Lea esta sección para comprender cómo utilizar Log Analysis para administrar el
modelo de datos y otros aspectos de Log Analysis.
Iniciación a Log Analysis
Complete estas tareas como ayuda para empezar a utilizar Log Analysis.
Inicio de sesión en IBM Operations Analytics - Log Analysis
Este tema describe cómo iniciar la sesión en IBM Operations Analytics - Log
Analysis y cómo cambiar el nombre de usuario y la contraseña predeterminados.
De forma predeterminada, se le asigna al usuario unityuser el rol de UnityUser.
Inicie la sesión como este usuario para acceder al espacio de trabajo de búsqueda.
El rol UnityAdmin le permite acceder al espacio de trabajo de búsqueda y también a
los espacios de trabajo administrativos. Este rol se asigna al usuario unityadmin. La
contraseña predeterminada para cada uno de estos usuarios es la misma que el
nombre de usuario.
Puede cambiar las contraseñas predeterminadas para cada uno de estos usuarios
cambiando el valor en el registro de usuarios básico. Para obtener más
información, consulte la sección Creación de roles, grupos y usuarios en el registro de
usuarios basado en archivo de la documentación.
Para iniciar la sesión en los espacios de trabajo administrativos de IBM Operations
Analytics - Log Analysis:
1. En un navegador web, escriba la dirección: http://dirección_ip:9988/Unity/
Admin. Si utiliza la comunicación SSL, la dirección es https://
dirección_ip:9987/Unity.
2. Cuando se le solicite, escriba el nombre de usuario y la contraseña para un
usuario con permisos de acceso de administrador y pulse Ir.
Para iniciar la sesión en el espacio de trabajo de búsqueda de IBM Operations
Analytics - Log Analysis:
1. En un navegador web, escriba la dirección: http://dirección_ip:9988/Unity. Si
utiliza la comunicación SSL, la dirección es https://dirección_ip:9987/Unity.
2. Cuando se le solicite, escriba el nombre de usuario y la contraseña para un
usuario con permisos de acceso de administrador o usuario y pulse Ir.
Nota: Si el puerto 9988 ó 9987 está bloqueado por un cortafuegos, es posible que
IBM Operations Analytics - Log Analysis no se visualice. Compruebe el estado de
cortafuegos y desbloquee el puerto donde sea necesario.
Nota: Si está ejecutando IBM Operations Analytics - Log Analysis en una red lenta,
es posible que se visualice un aviso indicando que un script no responde. Para
continuar, pulse Continuar.
Para iniciar la sesión en IBM Operations Analytics - Log Analysis en un servidor
DCHP (Protocolo de configuración dinámica de hosts), utilice el nombre de
dominio totalmente calificado (FQDN) o el nombre de host para iniciar la sesión.
© Copyright IBM Corp. 2015
309
No puede utilizar la dirección IP como lo haría para servidores no DHCP. Para
obtener más información, consulte el tema No se pueden visualizar Paneles de control
de búsqueda personalizada en el servidor de Protocolo de configuración dinámica de hosts
(DHCP) en la guía Resolución de problemas de IBM Operations Analytics - Log Analysis.
Instalación de archivos de ejemplo
Este tema describe cómo cargar artefactos y datos de ejemplo para poder empezar
a utilizar IBM Operations Analytics - Log Analysis rápidamente y poder
comprender cómo poder aplicar IBM Operations Analytics - Log Analysis a su
entorno.
Acerca de esta tarea
Al cargar los datos de ejemplo, se cargan los artefactos de IBM Operations
Analytics - Log Analysis, los datos de ejemplo y los Paneles de control de
búsqueda personalizada de ejemplo. Además, se cargan varios Paneles de control
de búsqueda personalizada de ejemplo:
v sample-Web-App: Esta Panel de control de búsqueda personalizada muestra un
panel de control de ejemplo de una aplicación web típica generada con
servidores web, un servidor de aplicaciones y una base de datos.
v sample-WAS-Troubleshooting: Esta Panel de control de búsqueda personalizada
muestra un panel de control de ejemplo para los registros de WebSphere
Application Server SystemOut de varios servidores.
v sample-events-hotspots: Esta Panel de control de búsqueda personalizada
muestra un panel de control de análisis de sucesos de ejemplo generado para los
sucesos IBM Tivoli Netcool/OMNIbus de ejemplo.
Nota: Si habilita la autenticación de Lightweight Directory Access Protocol (LDAP)
y desea cargar los datos de ejemplo, debe crear un usuario llamado unityadmin
que se asigne a un grupo llamado unityadmin. Si no lo hace, no podrá cargar los
datos de ejemplo.
Procedimiento
1. Inicie sesión en el espacio de trabajo de búsqueda: https://<ipaddress>:<port>/
Unity donde <port> es el puerto especificado durante la instalación para que lo
utilice la consola web. El valor predeterminado es 9987. El nombre de usuario
administrativo y la contraseña predeterminados son unityadmin y unityadmin,
respectivamente.
2. En la página Cómo empezar, pulse Instalar datos de ejemplo > Empezar
ahora. Se cargan los datos de ejemplo.
Habilitación del historial de búsqueda de GUI
Puede habilitar el historial de la búsqueda en la interfaz de usuario del servidor de
IBM Operations Analytics - Log Analysis.
Acerca de esta tarea
IBM Operations Analytics - Log Analysis utiliza una cookie que se guarda en el
directorio temporal del navegador para recordar los 10 últimos términos que se
especifican en el campo de búsqueda.
Para ver los últimos 10 resultados de búsqueda, seleccione la lista de búsqueda.
Para añadir un término a la lista de búsquedas, especifique el término en el campo
de búsqueda y pulse Búsqueda.
310
IBM Operations Analytics - Log Analysis: Guía de instalación, configuración y administración
La cookie que guarda los términos de búsqueda caduca cada 30 días por omisión.
Procedimiento
Para habilitar el historial de búsqueda para la IU de IBM Operations Analytics Log Analysis, debe asegurarse de que los valores del navegador estén configurados
para guardar las cookies.
Para borrar su historial de búsqueda, suprima las cookies guardadas para el
navegador.
Definición de una búsqueda predeterminada
Si desea definir una búsqueda inicial por omisión que aparezca cuando se inicie la
sesión en el espacio de trabajo Búsqueda, realice los pasos de este tema.
Acerca de esta tarea
Puede definir la consulta de la búsqueda. Sin embargo, los parámetros adicionales,
como el Origen de datos o Filtro de tiempo, se pueden definir para la búsqueda
por omisión. Para definir la búsqueda:
Procedimiento
1. Abra el archivo unitysetup.properties que se encuentra en el directorio
<HOME>/IBM/LogAnalysis/wlp/usr/servers/Unity/apps/Unity.war/WEB-INF.
2. Localice y, si es necesario, elimine la notación de comentario de la línea:
SEARCH_QUERY_FOR_DEFAULT_SEARCH=*
3. Añada el texto que desee definir como consulta predeterminada. Por ejemplo:
SEARCH_QUERY_FOR_DEFAULT_SEARCH=TUNE9001W
4. Guarde el archivo.
5. Utilice el mandato siguiente para reiniciar IBM Operations Analytics - Log
Analysis:
<HOME>/IBM/LogAnalysis/utilities/unity.sh -restart
Resultados
Si no hay resultados de la búsqueda en los últimos 15 minutos para la consulta
especificada, se muestran los resultados de la consulta. Si ha definido un valor
para la búsqueda y no se encuentra ningún resultado, se visualiza un mensaje que
indica que no se han encontrado coincidencias.
Creación y actualización del modelo de datos
Para cargar datos en Log Analysis, primero debe crear los orígenes de datos, tipos
de datos, configuración de índice y los ID de origen físicos para modelar la
ingesta, indexación, anotación y agrupación de datos.
También debe añadir y suprimir objetos en el modelo.
Espacio de trabajo de Orígenes de datos
El espacio de trabajo de Orígenes de datos permite definir los orígenes de datos.
Esta información se utiliza para procesar el contenido del archivo de registro y
facilitar la búsqueda convirtiendo el contenido de archivo en un formato
estructurado.
Administración
311
Creación de Origen de datos
Los orígenes de datos se crean para ingerir datos de un origen específico.
Para poder buscar en un archivo de registro, debe utilizar el asistente de creación
de origen de datos para crear un origen de datos. Para iniciar el asistente, abra la
interfaz de usuario de administrador, pulse Añadir > Orígenes de datos. El
asistente contiene texto para ayudarle a completar la tarea.
Puede crear tres tipos de origen de datos. Seleccione uno de los tipos siguientes:
v Para transmitir datos de un archivo almacenado localmente en el servidor de
IBM Operations Analytics - Log Analysis, cree un origen de datos local. El IBM
Tivoli Monitoring Log File Agent del mismo servidor se configura
automáticamente para recuperar datos locales.
v Para transmitir datos desde un archivo que está almacenado en un servidor
remoto, cree un origen de datos remoto. Entre un nombre de host, un nombre de
usuario y una contraseña. El IBM Tivoli Monitoring Log File Agent del mismo
servidor se configura automáticamente para extraer datos de un servidor
remoto.
Nota: Si el servidor remoto utiliza el sistema operativo Windows, este valor
requiere que el daemon ssh esté configurado en el servidor remoto.
v Para transmitir datos de un archivo almacenado en un servidor de IBM
Operations Analytics - Log Analysis remoto donde la entrega de datos se ha
configurado manualmente o donde la ingesta de datos se ha configurado para
logstash o el cliente de Recopilador de datos, cree un origen de datos
personalizado. Entre un nombre de host. No hay ninguna configuración o
verificación automática.
Si selecciona local o remota como ubicación, IBM Operations Analytics - Log
Analysis crea una nueva colección automáticamente. Si selecciona personalizada
como ubicación, puede elegir asociarla con una colección existente o puede crear
una colección nueva.
El archivo de registro especificado para el campo Vía de acceso de archivo se
ingiere automáticamente en IBM Operations Analytics - Log Analysis para orígenes
de datos con opciones de configuración de Archivo local o Archivo remoto.
Si desea ingerir archivos continuos, pulse el recuadro de selección Patrón de
archivo de implementación y entre escriba el patrón de archivo continuo. Por
ejemplo, para un archivo de registro de WebSphere Application Server, el archivo
de línea base es SystemOut.log. El patrón de archivo continuo es SystemOut_*.log.
Si utiliza este valor, la latencia de datos depende de la frecuencia con la que los
archivos se han implementado en la aplicación de origen.
Para completar el proceso, entre un nombre para el origen de datos.
También puede editar un origen de datos existente.
Orígenes de datos lógicos y físicos
Un origen de datos lógico es un origen de datos que crea en Log Analysis. Un
origen de datos físicos es un origen de datos de su entorno. Por ejemplo, un
directorio donde se almacenan los archivos de registro.
312
IBM Operations Analytics - Log Analysis: Guía de instalación, configuración y administración
Puede utilizar Log Analysis para crear un origen de datos lógicos que puede
utilizar para transmitir varios orígenes de datos físicos. Por ejemplo, si tiene varios
servidores en los que almacena archivos de registro, puede utilizar un origen de
datos en Log Analysis para transmitir datos desde los servidores.
Para ver un ejemplo de cómo utilizar un origen de datos lógico para transmitir
datos desde varios orígenes de datos físicos, consulte “Ejemplo de LFA:
Transmisión de datos desde un host remoto único” en la página 192.
Edición de información de topología de servicio en JSON de
grupo
Si los servicios se proporcionan utilizando una aplicación web que se despliega en
un rango de servidores como servidores web, servidores de aplicaciones y
servidores de bases de datos, puede que desee definir el ámbito y la estructura de
la aplicación o el servicio. Para representar la jerarquía de aplicaciones o servicios,
puede crear un grupo o editar los grupos predeterminados en el archivo JSON de
grupo de Log Analysis.
Acerca de esta tarea
Después de crear una topología de servicio, puede asociar el origen de datos con el
nodo adecuado en la topología de servicio. La jerarquía de los orígenes de datos,
que refleja la topología de servicio, se muestra en la lista de Orígenes de datos en
el espacio de trabajo de Orígenes de datos y el espacio de trabajo de Búsqueda.
Cuando se selecciona un origen de datos para restringir los criterios de búsqueda,
se busca en dicho origen de datos y en los orígenes de datos en el árbol de
topología de servicio.
Para crear una topología de servicio que satisfaga los requisitos, edite el archivo
JSON de grupo predeterminado existente. El archivo JSON tiene estructura con
cada nodo de la topología de servicio que se define por un tipo, un nombre y un
valor.
Para poder ver un origen de datos en el filtro Orígenes de datos en la IU de
Búsqueda, debe asignar el origen de datos a un grupo en el archivo JSON. Si no
asigna ningún origen de datos a un grupo, el grupo no se muestra en la IU. Si solo
asigna un origen de datos a un nodo hoja específico de un grupo, solo se muestra
dicho nodo hoja para el grupo.
No puede suprimir grupos.Log Analysis retiene la asociación entre el grupo y el
origen de datos, en caso de que desee buscarla. Puede eliminar los grupos antiguos
del archivo de topología de servicio. Sin embargo, los grupos eliminados continúan
estando visibles en la IU.
Nota: El archivo unityServiceTopology.json se ha renombrado como el archivo
Group.json.
Se visualiza un ejemplo del archivo JSON:
[
{
"type": "Service",
"name": "Day Trader",
"value":
[
{
"type": "Application",
"name": "Trading Application",
Administración
313
"value":
[
{
"type": "Middleware",
"name": "WAS",
"value":
[
{
"type": "Hostname",
"name": "nc9118041001",
},
{
"type": "Hostname",
"name": "nc9118041002",
},
{
"type": "Hostname",
"name": "nc9118041003",
"value": []
},
{
"type": "Hostname",
"name": "nc9118041005",
"value": []
}
]
},
{
Para editar el archivo JSON:
Procedimiento
1. Cree una copia de seguridad del archivo Group.json que está en el directorio
<HOME>/IBM/LogAnalysis/wlp/usr/servers/Unity/apps/Unity.war/com/ibm/
tivoli/loganalytics/framework y cópielo en una ubicación seguro.
2. Mediante un editor JSON, abra y edite el archivo original para reflejar la
topología de servicio.
3. Guarde el archivo.
4. Para garantizar que las actualizaciones se reflejan en la interfaz de usuario de
administración, borre la memoria caché de navegador antes de iniciar la sesión.
Resultados
Después de definir el archivo JSON de grupo, puede asignar el grupo al origen de
datos cuando configure el origen de datos. Para obtener más información sobre
cómo crear orígenes de datos, consulte “Creación de Origen de datos” en la página
312.
Si se asigna un origen de datos a un nodo en la topología de servicio, la asignación
se mantiene independientemente de las actualizaciones que realice en la topología
de servicio. Los cambios efectuados en el JSON de grupo no se reflejan en los
orígenes de datos que se han realizado antes de la actualización.
Conexiones de base de datos
Conexión de base de datos que identifica de forma exclusiva un origen de datos
estructurados en IBM Operations Analytics - Log Analysis.
Puede asociar datos semi-estructurados, por ejemplo un registro, con datos
estructurados, por ejemplo el estado de transacción en la base de datos de
aplicación. Para realizar esta asociación, debe definir una Conexión de base de
314
IBM Operations Analytics - Log Analysis: Guía de instalación, configuración y administración
datos, que especifique los detalles necesarios para IBM Operations Analytics - Log
Analysis para acceder a la base de datos. Después de haber definido una Conexión
de base de datos, puede utilizarla al configurar cualquier Aplicación que necesite.
Adición de una Conexión de base de datos:
Este tema describe los pasos que debe seguir para configurar una base de datos de
sucesos como Conexión de base de datos.
Procedimiento
Para añadir una Conexión de base de datos:
1. En el espacio de trabajo de Orígenes de datos, pulse Añadir > Conexiones de
base de datos. Se visualiza la pestaña Añadir conexiones de base de datos
2. Se le solicita que proporcione la información siguiente:
Nombre
Nombre de la Conexión de base de datos.
Nombre de esquema
Nombre de la tabla que contiene el suceso, por ejemplo MISC.
URL JDBC
Dirección IP y vía de acceso para la base de datos de sucesos, por
ejemplo jdbc:derby://dirección_ip:1627//opt/unity/database/
UnityDB.
Controlador JDBC
Controlador JDBC, normalmente org.apache.derby.jdbc.ClientDriver.
Nombre de usuario
Escriba el nombre de usuario para la Conexión de base de datos.
Contraseña
Escriba la contraseña para la Conexión de base de datos.
3. Pulse Aceptar. Se visualiza una entrada nueva en la lista de Conexiones de
base de datos.
Edición de una Conexión de base de datos:
Puede editar los detalles de una Conexión de base de datos existente.
Procedimiento
Para editar una Conexión de base de datos:
1. En el espacio de trabajo de Orígenes de datos, expanda la lista de Conexiones
de base de datos.
2. Seleccione la Conexión de base de datos que desea editar y pulse Editar. La
Conexión de base de datos se abre en una pestaña nueva.
3. Edite el origen de datos, según sea necesario.
4. Para guardar los cambios, pulse Aceptar.
Supresión de una Conexión de base de datos:
Puede suprimir una Conexión de base de datos existente.
Administración
315
Procedimiento
Para suprimir una Conexión de base de datos:
1. En el espacio de trabajo de Orígenes de datos, expanda la lista de Conexiones
de base de datos.
2. Seleccione la Conexión de base de datos que desea suprimir y pulse Suprimir.
3. Pulse Aceptar.
Espacio de trabajo de Tipos de datos
El espacio de trabajo de Tipos de datos le permite configurar el tipo de
información de registro que se consume.
Colecciones
Las Colecciones le permiten agrupar datos de registro de diferentes orígenes de
datos que tienen el mismo tipo de origen. Por ejemplo, es posible que desee
asignar todos los orígenes de datos de un clúster de WebSphere Application Server
a una única Colección para poderlos buscar como un grupo. Esta sección describe
cómo gestionar las Colecciones.
Adición de una Colección:
Este tema describe los pasos que debe seguir para añadir una Colección a IBM
Operations Analytics - Log Analysis.
Procedimiento
Para añadir una Colección:
1. En el espacio de trabajo de Tipos de datos, pulse Añadir > Colección. Se
visualiza la pestaña Añadir Colección
2. Entre los detalles para la colección que desea añadir:
Nombre
Proporcione un nombre exclusivo para la Colección.
Tipo de origen
En la lista, seleccione el tipo de datos de archivo de registro que desea
que contenga la Colección.
3. Pulse Aceptar. Se visualiza un mensaje solicitando que confirme que desea
crear la Colección e indicando que no puede editar la propiedad de tipo de
origen después de que se haya guardado la Colección. Si está satisfecho de
haber añadido los valores correctos a estas propiedades, pulse Aceptar.
Edición de una Colección:
Después de haber creado una Colección, no puede editar las propiedades asociadas
con la Colección. Utilice el botón Editar para revisar las propiedades existentes
para una Colección.
Procedimiento
Para ver una colección:
1. En el espacio de trabajo de Tipos de datos, expanda la lista de Colecciones.
2. Seleccione la Colección que desea ver y pulse Editar. La Colección se abre en
una pestaña nueva.
316
IBM Operations Analytics - Log Analysis: Guía de instalación, configuración y administración
3. Para cerrar la Colección, pulse Cerrar.
Supresión de una Colección:
Puede suprimir una Colección existente.
Procedimiento
Para suprimir una Colección:
1. En el espacio de trabajo de Tipos de datos, expanda la lista de Colecciones.
2. Seleccione la Colección que desea suprimir y pulse Suprimir. Se muestra un
mensaje que lista los orígenes de datos que están asociados con la Colección.
Estos orígenes de datos se suprimen cuando se suprime la Colección. Todos los
datos asociados con la Colección se suprimen cuando se suprime la Colección.
3. Pulse Suprimir.
Tipos de origen
Un Tipo de origen define cómo IBM Operations Analytics - Log Analysis procesa
datos de un tipo determinado. Esto determina cómo se indexan, dividen y anotan
los datos.
Configuración de índice:
Puede utilizar la configuración de índice de un Tipo de origen para proporcionar
información importante sobre cómo se indexan los datos de ese Tipo de origen en
IBM Operations Analytics - Log Analysis.
La configuración de índice se especifica utilizando la notación de configuración
JSON. Al crear un tipo de origen, puede especificar un archivo que contenga la
notación de configuración JSON o bien puede entrar la configuración directamente
en el campo Configuración de índice.
Para indexar datos adecuadamente, los diferentes tipos de datos necesitan una
configuración de índice diferente.
Edición de una configuración de índice:
Utilice la opción Editar configuración de índice del editor para editar una
configuración de indice. Puede añadir campos nuevos y cambiar el orden de los
campos existentes.
Procedimiento
1. Abra el espacio de trabajo IU del administrador, pulse un tipo de origen y
luego pulse Configuración de índice.
2. Para editar el orden de un campo existente, pulse un campo y luego Editar
orden de campo. Cuando haya finalizado, pulse Guardar orden de campo.
3. Para añadir un campo nuevo, pulse Añadir campo nuevo.
4. También puede especificar el tipo de datos de cada campo. Para cambiar el tipo
de datos, pulse en la columna Tipo de datos y luego el tipo de datos. Están
disponibles los siguientes tipos de datos:
Tabla 68. Tipos de datos de la IU Editar configuración de índice
Tipo de datos
Uso
TEXT
Utilice este tipo si el campo contiene texto.
Administración
317
Tabla 68. Tipos de datos de la IU Editar configuración de índice (continuación)
Tipo de datos
Uso
DOUBLE
Utilice este tipo si el campo es un doble.
LONG
Utilice este tipo si el campo contiene una
serie larga.
DATE
Utilice este tipo si el campo contiene una
fecha.
5. También puede especificar el formato de hora y fecha que desea utilizar. Para
cambiar el formato, pulse en la columna Tipo de datos y luego en Fecha. A
continuación, se muestran los diez formatos de datos más utilizados.
Si especifica un formato de hora personalizado, el formato de hora se valida
frente al formato de fecha simple Java. Si especifica un formato no válido, se
muestra un mensaje de error.
6. Para configurar los valores de índice para la configuración de índice
especificado, marque el recuadro de selección relevante para configurar la
opción. Por ejemplo, para que se puedan filtrar los resultados de búsqueda,
marque el recuadro de selección Filtrable. Hay disponibles las siguientes
opciones:
Tabla 69. Recuadros de selección de la IU Editar configuración de índice
Recuadro de selección
Uso
Recuperable
Especifica si desea que Log Analysis
recupere los datos de índice.
Recuperar de forma predeterminada
Especifica si desea que Log Analysis
recupere todos los datos de forma
predeterminada.
Ordenable
Especifica si desea que los usuarios de Log
Analysis puedan ordenar los resultados de
la búsqueda.
Filtrable
Especifica si desea que los usuarios de Log
Analysis puedan filtrar los resultados de la
búsqueda.
Buscar
Especifica si desea que los usuarios de Log
Analysis puedan buscar los resultados de la
búsqueda.
Combinar
Especifica si Log Analysis solo combina la
primera o todas las entradas de índice.
Vías de acceso
Especifica la vía de acceso que está asociada
con el campo especificado.
7. Para guardar los cambios, pulse Aplicar.
Conceptos relacionados:
“IU Editar configuración de índice”
Utilice la IU Editar configuración de índice para crear y editar configuraciones de
índice.
IU Editar configuración de índice:
Utilice la IU Editar configuración de índice para crear y editar configuraciones de
índice.
318
IBM Operations Analytics - Log Analysis: Guía de instalación, configuración y administración
La tabla siguiente muestra un resumen de los botones que están disponibles como
parte de la IU Editar configuración de índice:
Tabla 70. Botones de la IU Editar configuración de índice
Icono
Nombre
Uso
Añadir campo nuevo
Utilice este botón para crear
un campo nuevo en la
configuración de índice
Editar orden de campo
Utilice este botón para editar
el orden de un campo en la
configuración de índice.
Mostrar columnas
avanzadas
Pulse este botón para
visualizar las columnas
Combinar y Vía de acceso
Suprimir campo
seleccionado
Pulse un campo y luego este
botón para suprimirlo. No
puede suprimir el campo
timestamp (indicación de
fecha y hora).
En la siguiente tabla se muestra un resumen de los tipos de datos que están
disponibles como parte de la IU Editar configuración de índice:
Tabla 71. Tipos de datos de la IU Editar configuración de índice
Tipo de datos
Uso
TEXT
Utilice este tipo si el campo contiene texto.
DOUBLE
Utilice este tipo si el campo es un doble.
LONG
Utilice este tipo si el campo contiene una
serie larga.
DATE
Utilice este tipo si el campo contiene una
fecha.
En la siguiente tabla se muestra un resumen de los recuadros de selección que
están disponibles como parte de la IU Editar configuración de índice:
Tabla 72. Recuadros de selección de la IU Editar configuración de índice
Recuadro de selección
Uso
Recuperable
Especifica si desea que Log Analysis
recupere los datos de índice.
Recuperar de forma predeterminada
Especifica si desea que Log Analysis
recupere todos los datos de forma
predeterminada.
Ordenable
Especifica si desea que los usuarios de Log
Analysis puedan ordenar los resultados de
la búsqueda.
Filtrable
Especifica si desea que los usuarios de Log
Analysis puedan filtrar los resultados de la
búsqueda.
Buscar
Especifica si desea que los usuarios de Log
Analysis puedan buscar los resultados de la
búsqueda.
Administración
319
Tabla 72. Recuadros de selección de la IU Editar configuración de índice (continuación)
Recuadro de selección
Uso
Combinar
Especifica si Log Analysis solo combina la
primera o todas las entradas de índice.
Vías de acceso
Especifica la vía de acceso que está asociada
con el campo especificado.
Clonación de tipos de origen y configuraciones de indexación:
Si desea modificar una configuración de índice sin perder la configuración original,
puede clonar el tipo de origen y editar la configuración de índice clonada.
Procedimiento
1. Abra el espacio de trabajo IU de administración, pulse el tipo de origen que
desea clonar y pulse Editar configuración de índice.
2. Para copiar el tipo de origen, pulse el icono Clonar. Se visualiza el tipo de
origen copiado.
3. Para editar el tipo de origen copiado y la configuración de índice, pulse Editar
configuración de índice.
4. Guarde los cambios.
Tareas relacionadas:
“Edición de una configuración de índice” en la página 317
Utilice la opción Editar configuración de índice del editor para editar una
configuración de indice. Puede añadir campos nuevos y cambiar el orden de los
campos existentes.
Ejemplo de configuración de índice: datos PMI:
Esta configuración de índice JSON de ejemplo puede utilizarse para indexar datos
PMI:
{ "indexConfigMeta":{
"name": "PMIConfig",
"description": "IndexMappingforPMIdata",
"version": "0.1",
"lastModified": "9/10/2012"
},
"fields": {
"hostname": {
"dataType": "TEXT",
"retrievable": true,
"retrieveByDefault": false,
"sortable": true,
"filterable": true,
"searchable": true,
"tokenizer": "literal",
"source": {
"paths": ["metadata.hostname"]
}
},
"sourceip": {
"dataType": "TEXT",
"retrievable": true,
"retrieveByDefault": true,
"sortable": true,
"filterable": true,
"searchable": true,
"tokenizer": "literal",
320
IBM Operations Analytics - Log Analysis: Guía de instalación, configuración y administración
"source": {
"paths": ["metadata.sourceip"]
}
},
"logpath": {
"dataType": "TEXT",
"retrievable": true,
"retrieveByDefault": false,
"sortable": false,
"filterable": false,
"searchable": false,
"tokenizer": "literal",
"source": {
"paths": ["metadata.logpath"]
}
},
"logsource": {
"dataType": "TEXT",
"retrievable": true,
"retrieveByDefault": false,
"sortable": true,
"filterable": true,
"searchable": true,
"tokenizer": "literal",
"source": {
"paths": ["metadata.logsource"]
}
},
"timeformat": {
"dataType": "TEXT",
"retrievable": true,
"retrieveByDefault": false,
"sortable": true,
"filterable": true,
"searchable": true,
"tokenizer": "literal",
"source": {
"paths": ["metadata.timeformat"]
}
},
"description": {
"dataType": "TEXT",
"retrievable": true,
"retrieveByDefault": false,
"sortable": false,
"filterable": false,
"searchable": false,
"tokenizer": "literal",
"source": {
"paths": ["metadata.description"]
}
},
"PoolSize": {
"dataType": "TEXT",
"retrievable": true,
"retrieveByDefault": true,
"sortable": true,
"filterable": true,
"searchable": true,
"tokenizer": "literal",
"source": {
"paths": ["metadata.poolsize"]
}
},
"FreePoolSize": {
"dataType": "TEXT",
"retrievable": true,
Administración
321
"retrieveByDefault": true,
"sortable": true,
"filterable": true,
"searchable": true,
"tokenizer": "literal",
"source": {
"paths": ["metadata.FreePoolSize"]
}
},
"WaitingThreadCount": {
"dataType": "TEXT",
"retrievable": true,
"retrieveByDefault": true,
"sortable": true,
"filterable": true,
"searchable": true,
"tokenizer": "literal",
"source": {
"paths": ["metadata.WaitingThreadCount"]
}
},
"PercentUsed": {
"dataType": "TEXT",
"retrievable": true,
"retrieveByDefault": true,
"sortable": true,
"filterable": true,
"searchable": true,
"tokenizer": "literal",
"source": {
"paths": ["metadata.PercentUsed"]
}
},
"UseTime": {
"dataType": "TEXT",
"retrievable": true,
"retrieveByDefault": true,
"sortable": true,
"filterable": true,
"searchable": true,
"tokenizer": "literal",
"source": {
"paths": ["metadata.UseTime"]
}
},
"WaitTime": {
"dataType": "TEXT",
"retrievable": true,
"retrieveByDefault": true,
"sortable": true,
"filterable": false,
"searchable": false,
"tokenizer": "literal",
"source": {
"paths": ["metadata.WaitTime"]
}
},
"HeapSize": {
"dataType": "TEXT",
"retrievable": true,
"retrieveByDefault": true,
"sortable": true,
"filterable": false,
"searchable": false,
"tokenizer": "literal",
"source": {
"paths": ["metadata.HeapSize"]
322
IBM Operations Analytics - Log Analysis: Guía de instalación, configuración y administración
}
},
"UsedMemory": {
"dataType": "TEXT",
"retrievable": true,
"retrieveByDefault": true,
"sortable": true,
"filterable": false,
"searchable": false,
"tokenizer": "literal",
"source": {
"paths": ["metadata.UsedMemory"]
}
},
"UpTime": {
"dataType": "TEXT",
"retrievable": true,
"retrieveByDefault": true,
"sortable": true,
"filterable": false,
"searchable": false,
"tokenizer": "literal",
"source": {
"paths": ["metadata.UpTime"]
}
},
"ProcessCpuUsage": {
"dataType": "TEXT",
"retrievable": true,
"retrieveByDefault": true,
"sortable": true,
"filterable": true,
"searchable": true,
"tokenizer": "literal",
"source": {
"paths": ["metadata.ProcessCpuUsage"]
}
},
"CPUUsageSinceLastMeasurement": {
"dataType": "TEXT",
"retrievable": true,
"retrieveByDefault": true,
"sortable": true,
"filterable": true,
"searchable": true,
"tokenizer": "literal",
"source": {
"paths": ["metadata.CPUUsageSinceLastMeasurement"]
}
},
"webcontainerthreads": {
"dataType": "TEXT",
"retrievable": true,
"retrieveByDefault": true,
"sortable": true,
"filterable": true,
"searchable": true,
"tokenizer": "literal",
"source": {
"paths": ["metadata.webcontainerthreads"]
}
},
"timestamp":{
"dataType": "DATE",
"retrievable": true,
"retrieveByDefault": true,
"sortable": true,
Administración
323
"filterable": true,
"searchable": true,
"tokenizer": "literal",
"source": {
"paths": ["metadata.timestamp"],
"dateFormats": ["dd/MM/aaaa HH:mm:ss.SSS"]
}
}
}
}
Ejemplo de configuración de índice: datos de consejo experto:
Esta configuración de índice JSON de ejemplo puede utilizarse para indexar datos
de consejo experto:
{ "sourceTypeClass": 0,
"name": "Test",
"splitRuleSet": null,
"extractRuleSet": null,
"indexConfigMeta": {
"name": "Test",
"description": "Prueba de integración de UVI",
"version": "0.1",
"lastModified": "17/08/2012"
},
"fields" : {
"hostname": {
"dataType": "TEXT",
"retrievable": true,
"retrieveByDefault": true,
"sortable": true,
"filterable": true,
"searchable": true,
"tokenizer": "literal",
"source": {
"paths": ["metadata.hostname"]
}
},
"timestamp":{
"dataType": "DATE",
"dateFormat": "dd/MM/yyyy HH:mm:ss.SSS",
"retrievable": true,
"retrieveByDefault": true,
"sortable": true,
"filterable": true,
"searchable": true,
"tokenizer": "literal",
"source": {
"paths": ["metadata.timestamp"],
"dateFormats": ["dd/MM/yyyy HH:mm:ss.SSS"],
"combine": "FIRST"
}
},
"logpath": {
"dataType": "TEXT",
"retrievable": true,
"retrieveByDefault": false,
"sortable": false,
"filterable": false,
"searchable": false,
"tokenizer": "literal",
"source": {
"paths": ["metadata.logpath"]
}
},
"regex_class": {
324
IBM Operations Analytics - Log Analysis: Guía de instalación, configuración y administración
"dataType": "TEXT",
"retrievable": true,
"retrieveByDefault": false,
"sortable": false,
"filterable": false,
"searchable": false,
"tokenizer": "literal",
"source": {
"paths": ["metadata.regex_class"]
}
},
"Hostname": {
"dataType": "TEXT",
"retrievable": true,
"retrieveByDefault": true,
"sortable": true,
"filterable": true,
"searchable": true,
"tokenizer": "literal",
"source": {
"paths": ["metadata.Hostname"]
}
},
"service": {
"dataType": "TEXT",
"retrievable": true,
"retrieveByDefault": true,
"sortable": true,
"filterable": true,
"searchable": true,
"tokenizer": "literal",
"source": {
"paths": ["metadata.Service"]
}
},
"logsource": {
"dataType": "TEXT",
"retrievable": true,
"retrieveByDefault": true,
"sortable": true,
"filterable": true,
"searchable": true,
"tokenizer": "literal",
"source": {
"paths": ["metadata.logsource"]
}
},
"logRecord": {
"dataType": "TEXT",
"retrievable": true,
"retrieveByDefault": true,
"sortable": true,
"filterable": true,
"searchable": true,
"tokenizer": "literal",
"source": {
"paths": ["metadata.text"]
}
},
"className": {
"dataType": "TEXT",
"retrievable": true,
"retrieveByDefault": false,
"sortable": false,
"filterable": true,
"searchable": false,
"tokenizer": "literal",
Administración
325
"source": {
"paths": ["annotations.ClassnameWSOutput.text"]
}
}
}
}
Anotador de registro:
Puede utilizar anotaciones para extraer e identificar fragmentos de información de
texto no estructurado, por ejemplo dirección IP, nombre de host e indicación de
fecha y hora. Esto le permite buscar tipos específicos de información, en lugar de
estar limitado a una búsqueda de texto simple de los archivos de registro.
Puede buscar información anotada de manera más eficiente. Por ejemplo, puede
buscar en la información anotada entradas de registro donde la gravedad es E. Si
esta información no se ha anotado, puede realizar sólo una búsqueda de texto
simple de las instancias de la letra E, lo que puede devolver coincidencias
irrelevantes.
Para identificar anotaciones en un archivo de registro o archivo de configuración,
utilice reglas especificadas en Annotation Query Language (AQL). Se puede
configurar la anotación para cada tipo de origen de datos.
Están disponibles estos tipos de anotador:
Valor predeterminado
Cuando se utiliza el tipo de anotador predeterminado, debe especificar una
regla para dividir el texto en campos diferentes y una regla para extraer
valores de los campos identificados.
Java
Cuando se utiliza el tipo de anotador Java, las anotaciones se realizan en
los orígenes de datos de este tipo basándose en la clase Java de anotador
que especifique. Se proporciona la clase CustomAnnotatorImpl.class en
annotator.jar para este fin.
Script Cuando se utiliza el tipo de anotador Script, las anotaciones se realizan en
los orígenes de datos de este tipo basándose en el script de anotador que
especifique. Para este fin se proporciona el script
DefaultPythonAnnotator.py.
Ninguno
No se realizan anotaciones en los orígenes de datos de este Tipo de origen.
Los tipos de anotador Java y Script se proporcionan como opciones de
personalización para el tipo de anotador predeterminado.
Adición de un Tipo de origen:
Este tema describe los pasos que debe realizar para añadir un Tipo de origen a
IBM Operations Analytics - Log Analysis.
Procedimiento
Para añadir un Tipo de origen:
1. En el espacio de trabajo de Tipos de datos, pulse Añadir > Tipo de origen. Se
visualiza la pestaña Añadir Tipo de origen
2. Proporcione valores para cada uno de los campos necesarios para crear un Tipo
de origen adecuado para satisfacer los requisitos:
326
IBM Operations Analytics - Log Analysis: Guía de instalación, configuración y administración
Nombre
Proporcione un nombre exclusivo para el tipo de origen.
Tipo de entrada
Proporciona el tipo de datos que se procesan.
Habilitar separador:
Pulse aquí para habilitar esta opción y seleccionar el Conjunto de reglas
o Conjunto de archivos que se utiliza para dividir los registros de
anotaciones cronológicas en los archivos de registro procesados:
Conjunto de reglas: Elija entre las opciones proporcionadas o añada un
Conjunto de reglas antes de seleccionarla.
Conjunto de archivos: Seleccione la opción Conjunto de archivos si
desea utilizar un conjunto de reglas personalizadas.
Habilitar anotador
Pulse aquí para habilitar esta opción y seleccionar el Conjunto de reglas
o Conjunto de archivos que se utiliza para anotar los registros de
anotaciones cronológicas en los archivos de registro procesados:
Conjunto de reglas: Elija entre las opciones proporcionadas o añada un
Conjunto de reglas adicional antes de seleccionarla.
Conjunto de archivos: Seleccione la opción Conjunto de archivos si
desea utilizar un conjunto de reglas personalizadas.
Error al entregar datos durante la ejecución del anotador: Seleccione
esta opción si desea que se añadan los registros que fallan durante la
anotación.
Configuración ed índice
Pulse Editar configuración de índice y especifique la configuración de
índice que se utiliza para determinar cómo se indexan los datos
anotados.
Añadir ID de origen físico
Si desea ver las estadísticas de orígenes de datos físicos en el panel de
control de ingesta de datos en la Analytics Console, debe especificar un
ID de origen de datos físico. Para obtener más información, consulte el
tema ID de orígenes de datos físicos en la sección Analytics Console de la
documentación de IBM Operations Analytics - Log Analysis.
3. Pulse Aceptar. Se visualiza un mensaje solicitando que confirme que desea
crear el Tipo de origen e indicando que no puede editar algunas propiedades
después de que se haya guardado el Tipo de origen. Si está satisfecho de haber
añadido los valores correctos a estas propiedades, pulse Aceptar.
Edición de un Tipo de origen:
Después de haber creado un Tipo de origen, no puede editar las propiedades
asociadas con el Tipo de origen. Utilice el botón Editar para revisar las
propiedades existentes para un Tipo de origen.
Procedimiento
Para editar un Tipo de origen:
1. En el espacio de trabajo de Tipos de datos, expanda la lista de Tipos de origen.
2. Seleccione el Tipo de origen que desea ver y pulse Editar. El Tipo de origen se
abre en una pestaña nueva.
Administración
327
3. Para cerrar el Tipo de origen, pulse Cerrar.
Supresión de un Tipo de origen:
Puede suprimir un Tipo de origen existente. Sin embargo, un tipo de origen sólo se
puede suprimir si una colección no hace referencia al mismo. Los artefactos deben
suprimirse en un orden específico. En primer lugar se debe suprimir la colección, a
continuación el tipo de origen y finalmente cualquier conjunto de reglas o conjunto
de archivos asociados con el tipo de origen.
Procedimiento
Para suprimir un Tipo de origen:
1. En el espacio de trabajo de Tipos de datos, expanda la lista de Tipos de origen.
2. Seleccione el Tipo de origen que desea suprimir y pulse Suprimir.
3. Pulse Aceptar.
Conjunto de reglas
Un Conjunto de reglas es un archivo que contiene reglas especificadas en
Annotation Query Language (AQL). Hay dos tipos disponibles de Conjunto de
reglas:
Dividir
Se utiliza para dividir datos no estructurados o semi-estructurados en
campos diferentes.
Anotar
Se utiliza para anotar los campos ya identificados en un archivo que
contiene datos no estructurados o semi-estructurados.
Adición de un Conjunto de reglas:
Este tema describe los pasos que debe completar para crear un Conjunto de reglas.
Procedimiento
Para añadir un Conjunto de reglas:
1. En el espacio de trabajo de Tipos de datos, pulse Añadir > Conjunto de reglas.
Se visualiza la pestaña Añadir Conjunto de reglas
2. Entre la información necesaria en cada uno de los campos. Coloque el cursor en
cada uno de los campos para obtener información acerca de los requisitos de
ese campo.
3. Entre los detalles siguientes para el Conjunto de reglas que desea añadir:
Nombre
Proporcione un nombre exclusivo para el conjunto de reglas.
Tipo
Especifique el tipo de conjunto de reglas que desea crear. Los tipos
disponibles son Dividir y Anotar.
Directorio de archivos de reglas
Especifique la lista de vías de acceso a los directorios de origen de
módulo.
4. Pulse Aceptar. Se visualiza un mensaje solicitando que confirme que desea
crear el Conjunto de reglas e indicando las propiedades que no se pueden
328
IBM Operations Analytics - Log Analysis: Guía de instalación, configuración y administración
cambiar después de que se haya guardado el Conjunto de reglas. Si está
satisfecho de haber añadido los valores correctos a estas propiedades, pulse
Aceptar.
Edición de un Conjunto de reglas:
Después de haber creado un Conjunto de reglas, no puede editar las propiedades
de nombre o tipo asociadas con el Conjunto de reglas.
Acerca de esta tarea
No se puede editar el Nombre o Tipo asociado con el conjunto de reglas. Utilice el
botón Editar para revisar las propiedades existentes para un conjunto de reglas.
Procedimiento
Para ver las propiedades de un Conjunto de reglas:
1. En el espacio de trabajo de Tipos de datos, expanda la lista de Conjuntos de
reglas.
2. Seleccione el Conjunto de reglas que desea ver y pulse Editar. El Conjunto de
reglas se abre en una pestaña nueva.
3. Para cerrar el Conjunto de reglas, pulse Cerrar.
Supresión de un Conjunto de reglas:
Puede suprimir un Conjunto de reglas existente. Sin embargo, un conjunto de
reglas sólo se puede suprimir si un tipo de origen no hace referencia a él. Los
artefactos se deben suprimir en un orden específico. Suprima primero la colección,
a continuación suprima el tipo de origen y finalmente suprima cualquier conjunto
de reglas o conjunto de archivos.
Procedimiento
Para suprimir un Conjunto de reglas:
1. En el espacio de trabajo de Tipos de datos, expanda la lista de Conjuntos de
reglas.
2. Seleccione el Conjunto de reglas que desea suprimir y pulse Suprimir.
3. Pulse Aceptar.
Conjuntos de archivos
Un Conjunto de archivos le permite definir un conjunto de reglas personalizadas
que se utilizan para dividir o anotar un tipo de datos de registro.
Adición de un Conjunto de archivos:
Este tema describe los pasos que debe realizar para añadir un Conjunto de
archivos.
Procedimiento
Para añadir un Conjunto de archivos:
1. En el espacio de trabajo de Tipos de datos, pulse Añadir > Conjuntos de
archivos. Se visualiza la pestaña Añadir Conjunto de archivos
Administración
329
2. Entre la información necesaria en cada uno de los campos. Coloque el cursor en
cada uno de los campos para obtener información acerca de los requisitos de
ese campo.
3. Pulse Aceptar. Se visualiza un mensaje solicitando que confirme que desea
crear el Conjunto de archivos e indicando las propiedades que no se pueden
cambiar después de que se haya guardado el Conjunto de archivos. Si está
satisfecho de haber añadido los valores correctos a estas propiedades, pulse
Aceptar.
Edición de un Conjunto de archivos:
Después de haber creado un Conjunto de archivos, no puede editar las
propiedades asociadas con el Conjunto de archivos.
Acerca de esta tarea
No puede editar las propiedades asociadas con un conjunto de archivos existente.
Utilice el botón Editar para revisar las propiedades existentes para un conjunto de
archivos.
Procedimiento
Para ver las propiedades de un Conjunto de archivos:
1. En el espacio de trabajo de Tipos de datos, expanda la lista de Conjuntos de
archivos.
2. Seleccione el Conjunto de archivos que desea ver y pulse Editar. El Conjunto
de archivos se abre en una pestaña nueva.
3. Para cerrar el Conjunto de archivos, pulse Cerrar.
Supresión de un Conjunto de archivos:
Puede suprimir un Conjunto de archivos existente. Sin embargo, un Conjunto de
archivos sólo se puede suprimir si un tipo de origen no hace referencia a él. Los
artefactos se deben suprimir en un orden específico. Suprima primero la colección,
a continuación suprima el tipo de origen y finalmente suprima cualquier conjunto
de reglas o conjunto de archivos.
Procedimiento
Para suprimir un Conjunto de archivos:
1. En el espacio de trabajo de Tipos de datos, expanda la lista de Conjuntos de
archivos.
2. Seleccione el Conjunto de archivos que desea suprimir y pulse Suprimir.
3. Pulse Aceptar.
Tareas administrativas
Puede cambiar la frecuencia de renovación de los paneles de control, modificar el
archivo de topología de servicio y configurar los valores de tiempo como parte de
las tareas administrativas que es posible que deba realizar de vez en cuando.
330
IBM Operations Analytics - Log Analysis: Guía de instalación, configuración y administración
Configuración de renovaciones automáticas para paneles de
control nuevos
Puede utilizar la función de renovación automática para renovar periódicamente
un panel de control a intervalos planificados.
Acerca de esta tarea
Puede configurar renovaciones automáticas sólo para un panel de control si todos
los gráficos del panel de control utilizan un filtro de tiempo relativo.
El número máximo predeterminado de gráficos que se pueden renovar de forma
simultánea en todos los paneles es 20. Por ejemplo, puede renovar de forma
simultánea 10 paneles de control si cada panel tiene dos gráficos. Para editar el
número máximo de gráficos que se pueden renovar simultáneamente, edite la
propiedad MAX_AUTO_REFRESH_CHARTS=<20> en la ubicación siguiente:
<HOME>/IBM/LogAnalysis/wlp/usr/servers/Unity/apps/Unity.war/WEBINFunitysetup.properties, donde <20> es el número de gráficos que se pueden
renovar simultáneamente.
La renovación automática soporta intervalos de 0, 1, 5, 15, 30 y 60 minutos.
Procedimiento
1. Abra el panel de control.
2. Para establecer el intervalo de renovación automática, pulse Acciones, luego
Renovación automática y seleccione el intervalo que desee especificar. Por
ejemplo, para renovar el panel de control cada 5 minutos, pulse 5 minutos.
Resultados
El panel de control y los gráficos asociados se renuevan automáticamente con los
datos más actuales en el intervalo especificado.
Una marca de selección situada al lado del intervalo especificado indica que el
intervalo de renovación automática ya se ha especificado.
Configuración de renovaciones automáticas para paneles de
control existentes
Puede utilizar la función de renovación automática para renovar periódicamente
un panel de control existente en intervalos planificados.
Acerca de esta tarea
Puede configurar renovaciones automáticas sólo para un panel de control si todos
los gráficos del panel de control utilizan un filtro de tiempo relativo.
El número máximo predeterminado de gráficos que se pueden renovar de forma
simultánea en todos los paneles es 20. Por ejemplo, puede renovar de forma
simultánea 10 paneles de control si cada panel tiene dos gráficos. Para editar el
número máximo de gráficos que se pueden renovar simultáneamente, edite la
propiedad MAX_AUTO_REFRESH_CHARTS=<20> en la ubicación siguiente:
<HOME>/IBM/LogAnalysis/wlp/usr/servers/Unity/apps/Unity.war/WEBINFunitysetup.properties, donde <20> es el número de gráficos que se pueden
renovar simultáneamente.
Administración
331
La renovación automática soporta intervalos de 0, 1, 5, 15, 30 y 60 minutos.
Procedimiento
Mediante un editor JSON, abra y edite el archivo original con las propiedades
siguientes:
autoRefreshInterval:1
donde <1> es el intervalo de renovación automática.
searchType: relative
donde <relative> es el filtro de tiempo.
Resultados
El panel de control y los gráficos asociados se renuevan automáticamente con los
datos más actuales en el intervalo especificado.
Una marca de selección situada al lado del intervalo especificado indica que el
intervalo de renovación automática ya se ha especificado.
Configuración del tiempo de espera para el servidor de Log
Analysis
Puede ampliar el valor del tiempo de espera para el servidor de Log Analysis más
allá del valor predeterminado de 120 minutos. Por ejemplo, si desea utilizar Log
Analysis como consola de supervisión, puede ampliar el valor de tiempo de
espera.
Acerca de esta tarea
Para cambiar el valor predeterminado, modifique el archivo server.xml que utiliza
el servidor de Log Analysis.
Procedimiento
1. Para detener Log Analysis, especifique el comando siguiente:
<HOME>/IBM/LogAnalysis/utilities/unity.sh -stop
2. Abra el archivo <HOME>/IBM/LogAnalysis/wlp/usr/servers/Unity/server.xml
3. Añada la línea siguiente al archivo. El tiempo se mide en minutos. Por ejemplo,
para establecer el valor de tiempo de espera en 8 horas, añada la siguiente línea
después del final de la última etiqueta lógica:
<ltpa>
<ltpa expiration="480"/>
</ltpa>
Por ejemplo, puede insertarla después de la etiqueta httpEndpoint.
4. Guarde el archivo.
5. Para iniciar de nuevo Log Analysis, especifique el mandato siguiente:
<HOME>/IBM/LogAnalysis/utilities/unity.sh -start
Resultados
El valor de tiempo de espera ha cambiado.
Nota: La sesión puede sobrepasar el tiempo de espera en menos tiempo del que se
ha especificado en el archivo server.xml. Este problema se puede producir por
332
IBM Operations Analytics - Log Analysis: Guía de instalación, configuración y administración
distintos motivos no relacionados con Log Analysis. Por ejemplo, es posible que el
valor de tiempo de espera del navegador sea menor que el valor especificado en el
archivo server.xml.
Añadir o eliminar IBM Tivoli Monitoring Log File Agent desde
una instalación existente
Después de instalar IBM Operations Analytics - Log Analysis, puede añadir o
eliminar el IBM Tivoli Monitoring Log File Agent desde una instalación existente.
Antes de empezar
Se instala IBM Operations Analytics - Log Analysis.
Procedimiento
1. Vaya al directorio <HOME>/IBM/InstallationManager/eclipse/ y ejecute el
mandato:
./launcher
Nota: Si accede al entorno de instalación remota, asegúrese de que el software
de escritorio virtual esté configurado para que pueda ver la interfaz gráfica de
usuario de IBM Installation Manager.
2. Pulse Modificar y añada o elimine el IBM Tivoli Monitoring Log File Agent.
Cambiar la dirección IP de Log Analysis
Si desea trasladar su instalación de Log Analysis a otro servidor, debe cambiar la
dirección IP.
Acerca de esta tarea
No puede cambiar el nombre de host. Solo puede cambiar la dirección IP.
Asegúrese de que la nueva dirección IP que especifique coincida con la
especificada en el directorio <HOME>etc/hosts.
Procedimiento
1. Detenga Log Analysis:
unity.sh -stop
2. Cambia el nombre de host por la nueva dirección IP del archivo
<HOME>/IBM/LogAnalysis/wlp/usr/servers/Unity/server.xml.
3. Inicie Log Analysis:
unity.sh -start
Supervisión y configuración de las estadísticas de ingestión de datos
Puede supervisar las estadísticas de ingestión de datos y exportarlas para cumplir
los términos del acuerdo de licencia. Si utiliza Log Analysis como parte de un
paquete como Netcool Operations Insight, debe configurar el límite de ingestión de
datos gratuita.
Autorizaciones de carga de datos
Si utiliza Log Analysis Entry Edition, sólo puede cargar 2 Gigabytes (GB) de datos
al día. Si excede este límite, Log Analysis le avisa y luego se cierra.
Administración
333
Si utiliza la versión autónoma de Log Analysis Standard Edition, puede cargar la
cantidad de datos que se especifica en el acuerdo de licencia.
Si utiliza Log Analysis como parte de un paquete como Netcool Operations
Insight, puede cargar hasta 2 Gigabytes de datos de forma gratuita. También puede
definir los datos no facturables que no se incluyen en el total.
Configuración del límite de ingestión de datos para usuarios de
paquetes
Si utiliza Log Analysis como parte de un paquete como Netcool Operations
Insight, debe configurar el límite de ingestión de datos después de instalar Log
Analysis para asegurarse de que cumplen los términos del acuerdo de licencia.
Esta configuración también es necesaria para la auditabilidad y el cumplimiento.
Los usuarios de paquetes están autorizados para cargar hasta 2 Gigabytes (GB) de
datos de forma gratuita. Los clientes de paquetes también están autorizados para
cargar datos no facturables de forma gratuita. Los datos no facturables se definen
por separado, dependiendo del paquete y el acuerdo de licencia. Por ejemplo, para
los usuarios de Netcool Operations Insight, puede cargar datos de sucesos de
forma gratuita. Los usuarios de Application Performance Management pueden
cargar archivos de registro de Application Performance Management de forma
gratuita. Para obtener más información sobre las autorizaciones, consulte la
licencia.
Para habilitar el límite de ingestión de datos y configurar los datos no facturables,
debe crear un archivo denominado seed.txt y crear orígenes de datos no
facturables. Para obtener más información, consulte “Configuración del límite de
datos para las versiones empaquetadas”.
Supervisión de las estadísticas de ingestión de datos
Puede supervisar la ingestión de datos en la interfaz de usuario de Estadísticas de
servidor. Para obtener más información, consulte “Espacio de trabajo de
Estadísticas de servidor” en la página 335.
También puede que desee exportar las estadísticas de ingestión de datos. Puede
utilizar el mandato para hacerlo.Para obtener más información, consulte “Mandato
export_statistics” en la página 336.
Configuración del límite de datos para las versiones
empaquetadas
Después de instalar Log Analysis como parte de un paquete, debe configurar el
límite de ingestión de datos gratuita y segregar los datos en orígenes de datos
facturables y no facturables.
Acerca de esta tarea
Esta configuración sólo es necesaria si utiliza Log Analysis como parte de un
paquete. Los usuarios de la versión autónoma no necesitan realizar esta tarea.
Si utiliza Log Analysis como parte de un paquete como Netcool Operations
Insight, debe configurar el límite de ingestión de datos después de instalar Log
Analysis para asegurarse de que cumplen los términos del acuerdo de licencia.
Esta configuración también es necesaria para la auditabilidad y el cumplimiento.
334
IBM Operations Analytics - Log Analysis: Guía de instalación, configuración y administración
Los usuarios de paquetes están autorizados para cargar hasta 2 Gigabytes (GB) de
datos de forma gratuita. Los clientes de paquetes también están autorizados para
cargar datos no facturables de forma gratuita. Los datos no facturables se definen
por separado, dependiendo del paquete y el acuerdo de licencia. Por ejemplo, para
los usuarios de Netcool Operations Insight, puede cargar datos de sucesos de
forma gratuita. Los usuarios de Application Performance Management pueden
cargar archivos de registro de Application Performance Management de forma
gratuita. Para obtener más información sobre las autorizaciones, consulte la
licencia.
Procedimiento
1. Para habilitar el límite de ingestión de datos gratuita, cree un archivo
denominado seed.txt en el directorio <HOME>/IBM/LogAnalysis/wlp/usr/
servers/Unity.
Utilice la primera línea para especificar el límite de ingestión gratuita en
megabytes (MB). El límite de ingestión gratuita es de hasta 2 GB de datos de
promedio al día para un periodo continuo de 30 días. Lea el acuerdo de
licencia para comprender el límite de ingestión de datos gratuita. Utilice las
líneas siguientes para especificar las vías de acceso o los directorios donde se
hayan instalado las aplicaciones relacionadas. Los archivos de registro, en la
mayoría de los casos, se almacenan en los directorios de instalación. Estas
ubicaciones deben coincidir con la vía de acceso de registro definida al crear el
origen de datos. En algunas integraciones, un origen de datos puede tener una
serie arbitraria para una vía de acceso de registro para una vía de acceso de
registro. En estos casos, las series del archivo seed.txt deben coincidir con la
serie especificada en el origen de datos.
En el ejemplo siguiente se muestra un archivo seed.txt. Las líneas que
empiezan con una etiqueta hash (#) son comentarios, y no se tienen en cuenta.
#LÍMITE DE INGESTIÓN GRATUITA (MB)
2048
#Ubicaciones de orígenes de datos que el rastreador de estadísticas debe pasar por alto
/home/LAuser1/LogAnalysis/logs
/home/LAuser1/my/log/path
2. Para reiniciar Log Analysis, entre el mandato siguiente:
<HOME>/IBM/LogAnalysis/utilities/unity.sh -restart
3. Cree los orígenes de datos necesarios para los datos no facturables.
Si la vía de acceso de registro que especifique al crear el origen de datos
coincide con alguna de las vías de acceso de archivo que haya especificado en
el archivo seed.txt, Log Analysis no contabiliza los datos de estos orígenes de
datos en las estadísticas de facturación.
Para obtener más información sobre cómo crear un origen de datos, consulte
“Creación de Origen de datos” en la página 312.
Resultados
El límite de ingestión de datos gratuita, que es 2 GB de datos de promedio para el
periodo continuo de 30 días, aparece como una línea roja horizontal en la interfaz
de usuario de Estadísticas de servidor.
Espacio de trabajo de Estadísticas de servidor
Utilice el espacio de trabajo de Estadísticas de servidor para visualizar el promedio
de 30 días continuo y el promedio máximo de ingesta de datos.
Administración
335
Para calcular el promedio de 30 días continuo, IBM Operations Analytics - Log
Analysis mide la cantidad de datos que se han ingerido durante los 30 días
anteriores, incluido el día actual y lo divide por 30. Los datos que se ingieren el
día de la actualización se cuentan como parte del promedio.
El espacio de trabajo visualiza los detalles en los campos siguientes:
Promedio de ingesta de 30 días
visualiza el promedio de 30 días continuo para el día actual.
Promedio de ingesta máxima de 30 días
Visualiza el promedio de 30 días continuo más alto.
Fecha de promedio de ingesta máxima de 30 días
Visualiza la fecha en la que se ha producido el día máximo.
El gráfico Ingesta diaria y promedio de 30 días continuo visualiza la ingesta
diaria total y el promedio de 30 días continuo para el rango de fechas especificado.
El gráfico se actualiza automáticamente cuando se entra una fecha.
Si desea renovar el gráfico sin cambiar la fecha, pulse el botón Renovar.
Mandato export_statistics
Utilice el mandato export_statistics en el directorio <HOME>/IBM/
LogAnalysis/utilities para exportar datos de estadística a una tabla o una línea de
archivo de valores separados por coma (CSV).
Sintaxis
Este mandato tiene la sintaxis:
export_statistics <uri_base> [-u -p]| -f | -o | -t | -s | - h
donde <uri_base> es la ubicación de IBM Operations Analytics - Log Analysis para
el que desee exportar datos. Si no especifica un valor para el parámetro
<uri_base>, se utiliza la variable de entorno $UNITY_BASE_URI.
Parámetros
También están disponibles estos parámetros:
336
-u
Nombre de usuario para un usuario con privilegios administrativos. El
formato de este parámetro es --u=username. Donde username es un usuario
con privilegios administrativos. Si no especifica un valor para el parámetro
-u, se utiliza la variable de entorno $UNITY_USER.
-p
Contraseña para el usuario que ha especificado. El formato para este
parámetro es --p=password. Donde password es la contraseña para el
nombre de usuario que ha especificado. Si no especifica un valor para el
parámetro -p, se utiliza la variable de entorno $UNITY_PASS.
-f
Formato en el que desea exportar los datos. El formato de este parámetro
es --f format. Donde format es table o CSV. El valor predeterminado es
Table.
-o
Produce las estadísticas en un archivo. El formato de este parámetro es --o
path. Donde path es el nombre de archivo y la vía de acceso para el
archivo de exportación. El valor predeterminado es stdout.
-t
Especifica el tipo de datos que desea exportar. El formato de este
IBM Operations Analytics - Log Analysis: Guía de instalación, configuración y administración
parámetro es --t type. Donde type es summary, daily o thirtydayavg. Los
resultados se presentan en formato de tabla donde cada columna tiene un
nombre. Por ejemplo Origen de datos. El valor predeterminado es daily.
-s
Utilice este parámetro para separar registros cuando la salida se genera en
un archivo CSV. El formato de este parámetro es --s separator. Donde
separador es el separador que desea utilizar en el archivo CSV. El valor
predeterminado es una coma (,).
-h
(Opcional) Visualiza ayuda para este mandato. El parámetro <uri_base> no
es necesario para este parámetro.
Nota: Puede producirse una discrepancia entre el tamaño del archivo que se
ingiere y el valor devuelto por el mandato export_statistics. El valor devuelto es
menor que o igual al tamaño del archivo ingerido. Esta diferencia se produce
porque el separador descarta los registros incompletos del archivo de registro
reduciendo el tamaño de archivo.
El mandato produce información diferente, dependiendo del parámetro de tipo que
especifique, summary, daily o thirtydayavg. Las cabeceras de columna para los
datos diarios son las siguientes:
Origen de datos
Origen de datos con el que se asocian los datos ingeridos.
Colección
Colección con la que se asocia el origen de datos que contiene los datos.
Fecha Fecha en la que se han ingerido los datos.
Bytes ingeridos
Volumen de datos, en bytes, que se han ingerido.
Facturable
Volumen de datos que se utiliza para la facturación.
Vía de acceso de registro
Vía de acceso al origen de datos.
Nombre de host
Nombre de host que indica el origen del archivo de registro.
Las cabeceras de columna para el promedio continuo de 30 días son las siguientes:
Promedio continuo actual de treinta días
Promedio continuo actual de 30 días.
Marca de límite superior de promedio continuo de treinta días
Muestra la cantidad máxima de promedio de datos que se han utilizado
durante los últimos 30 días.
Fecha de marca de límite superior de promedio continuo de treinta días
Muestra la fecha en la que la cantidad de datos ingeridos ha alcanzado el
máximo.
Las cabeceras de columna para el promedio de 30 días son las siguientes:
Fecha Muestra la fecha para cada promedio.
Promedio de treinta días
Muestra la cantidad de datos de promedio que se utilizan durante 30 días.
Administración
337
Ejemplo
Este ejemplo descarga las estadísticas de origen de datos diarias de
http://unityserver.example.com:9988/Unity utilizando el nombre de usuario
unityadmin y la contraseña secretpassword. Las estadísticas se producen en un
archivo CSV: ~/Desktop/LogStats.csv.
export_statistics http://unityserver.example.com:9988/Unity
--username=unityadmin --password=secretpassword --f csv --o ~/Desktop/LogStats.csv
Para exportar las estadísticas diarias, utilice el mandato siguiente:
./export_statistics -u <nombre_usuario> -p <contraseña> -t daily
El mandato genera la siguiente información:
Origen de datos|Colección |Fecha
|Bytes ingeridos|Facturable|Vía acceso registro
------------+--------------+--------------+------------------+------------+-------localtest | localtest |2013-11-14|22640
|True
|/alogtest/SystemOut.log
localtest | localtest |2013-11-13|396200
|True
|/alogtest/SystemOut.log
----------------------------------------------------------------------------------|
| Nombre de host
|
-----------+--------------| <hostname1>.example.com
| <hostname2>..example.com
|
Para exportar un resumen, entre el mandato siguiente:
./export_statistics -u <nombre_usuario> -p <contraseña> -t daily
Este mandato genera la información siguiente:
Promedio continuo actual de 30 días| Marca de límite superior de promedio continuo de 30 días|
----------------------------------+----------------------------------13961
| 13961
|
---------------------------------------------------------------------|Fecha de marca de límite superior de promedio continuo de treinta días
--------+-------------------------------------|2013-11-14 00:00:00 -0500
Para exportar los datos de promedio de 30 días, entre el mandato siguiente:
./export_statistics -u <nombre_usuario> -p <contraseña> -t thirtydayavg
Este mandato genera la información siguiente:
Fecha
| Promedio de treinta días
--------------+-------------------2013-11-14 |
13961
2013-11-13 |
13206
Supresión de datos
Para suprimir datos de IBM Operations Analytics - Log Analysis, utilice la
herramienta de supresión.
La herramienta está disponible en el directorio <HOME>/utilites/deleteUtility.
Utilice la herramienta para:
v Suprimir todos los datos de un único origen de datos o suprima un subconjunto
de datos específico del origen de datos especificado.
v Suprimir todos los datos de una sola Colección o suprimir un subconjunto de
datos específico de la Colección especificada.
338
IBM Operations Analytics - Log Analysis: Guía de instalación, configuración y administración
v Suprimir datos de todas las colecciones de IBM Operations Analytics - Log
Analysis correspondientes al periodo de tiempo que especifique.
v Suprimir a intervalos regulares los datos que son más antiguos que el periodo
de retención especificado.
La herramienta está configurada para ejecutar el caso de uso 1 de forma
predeterminada. Si no cambia el valor predeterminado del periodo de retención, se
utiliza el valor predeterminado de 24 horas.
Limitaciones y requisitos previos para la supresión de datos
Antes de utilizar las funciones de supresión de datos, lea los requisitos previos y
las limitaciones.
La herramienta tiene una limitación. No ejecute este programa de utilidad para el
caso de uso 1 o 2 cuando la ingestión de datos está en curso para la colección o el
origen de datos que se ha especificado. Por ejemplo, si está cargando datos en un
origen de datos, no suprima los datos del mismo origen de datos hasta que se
haya completado la ingestión.
La herramienta está configurada para ejecutar el caso de uso 1 de forma
predeterminada.
El parámetro query es opcional y sólo se puede utilizar con los casos de uso 1 y 2.
No puede utilizar este parámetro para suprimir los datos que están almacenados
en Hadoop.
Para obtener más información sobre los parámetros y valores de
delete.properties, consulte “delete.properties” en la página 344.
Supresión de datos
Para eliminar datos de Log Analysis, utilice la herramienta de supresión.
Acerca de esta tarea
Lea los requisitos previos y las limitaciones. Para obtener más información,
consulte “Limitaciones y requisitos previos para la supresión de datos”
Log Analysis almacena los datos de Motor de indexación en Apache Solr.
Los usuarios de Standard Edition también puede almacenar los datos
del archivo de registro en Hadoop.
Workgroup
SQL
System
System
Standard
AltiVec
Sybase
Studio
Start
DB2
C99
C89
CEP
ALL
IDS
i5
Server
p5
z9
i53
Orchestrator
Cloudscape
Telesales
Fix
Panagon
pSeries
Pack
Documentum
Domino.Doc
Content
Mgr
Professional
Developer
Advanced
Business
WCS
zSeries
WC
xSeries
Oracle
iSeries
B2C
B2B
5.4
5.1
Express
WAS
5.0
Fix
Oracle
Pack
10
21
Enterprise
Utilice este programa de utilidad para especificar los tipos de datos que desea
suprimir.
Procedimiento
1. Abra el archivo <HOME>/IBM/LogAnalysis/utilities/deleteUtility/
delete.properties.
2. Localice las líneas y especifique el caso de uso que desea ejecutar:
[useCase]
useCaseNumber = <caso_uso>
donde <caso_uso> es uno de estos casos de uso.
Administración
339
useCase_1
Suprimir todos los datos de un único origen de datos o suprima un
subconjunto de datos específico del origen de datos especificado. Si
ejecuta este caso de uso, localice esta variable en el archivo
delete.properties y especifique un valor adecuado:
v dataSourceName: Especifique el nombre del origen de datos para el
que desea suprimir datos.
v query: Escriba una consulta para suprimir un subconjunto de datos
específico. Por ejemplo, si escribe severity:E, todos los registros de
anotaciones del origen de datos que contiene este estado de
gravedad se suprimirán. Debe utilizar la sintaxis de consulta Motor
de indexación para escribir la consulta.
No puede utilizar la consulta para suprimir datos de Hadoop. Debe
utilizar el parámetro de nombre de origen de datos para suprimir estos
datos.
useCase_2
Suprimir todos los datos de una única Colección o suprimir un
subconjunto de datos específico para la colección especificada. Si
ejecuta este caso de uso, localice esta variable en el archivo
delete.properties y especifique un valor adecuado:
v collectionName: Especifique el nombre de la Colección para la que
desea suprimir datos.
v query: Escriba una consulta para suprimir un subconjunto de datos
específico. Por ejemplo, si escribe severity:E OR severity:W, todos
los registros de anotaciones de la colección que contiene este estado
de gravedad o ambos estados se suprimirán. Debe utilizar la sintaxis
de consulta Motor de indexación para escribir la consulta.
No puede utilizar la consulta para suprimir datos de Hadoop. Debe
utilizar el parámetro de nombre de origen de datos para suprimir estos
datos.
useCase_3
Utilice este caso de uso para suprimir datos de todas las colecciones de
IBM Operations Analytics - Log Analysis durante un periodo de tiempo
que se especifique. Debe especificar una hora de inicio y finalización
del mismo huso horario que la hora especificada en el archivo
unitysetup.properties.
Nota:
El programa de utilidad suprime datos para múltiplos enteros del valor
de ventana de tiempo que se producen solo durante el tiempo
especificado. El valor de ventana de tiempo se define en el archivo
unitysetup.properties. Por ejemplo, si el valor de ventana de tiempo
es de un día y se entran las horas de inicio y final siguientes, el
programa de utilidad suprime tres días completos de datos de todas las
colecciones de IBM Operations Analytics - Log Analysis.
startTime = <11/21/2013 14:00:00>
endTime = <11/25/2013 09:00:00>
Los días suprimidos son 22, 23, y 24 de noviembre. Los datos desde las
4:00 hasta las 00:00 del 21 de noviembre no se suprimen ni tampoco los
datos desde las 00:00 hasta las 09:00 del 25 de noviembre.
340
IBM Operations Analytics - Log Analysis: Guía de instalación, configuración y administración
Nota:
Si especifica un endTime que está en el futuro, IBM Operations
Analytics - Log Analysis muestra un mensaje que le avisa de que esto
puede suprimir los datos de la colección activa actual. Los datos sólo se
eliminan de la colección actual si la fecha futura supera el valor de la
ventana de colección. Por ejemplo, si el valor de la ventana de colección
es de un día y endTime se especifica como 23:00:00 del mismo día que
se ejecuta el programa de utilidad, los datos no se suprimen de la
colección activa. Sin embargo, si el valor de ventana de la colección es
de un día y endTime se especifica como 00:30:00 del día posterior al
día actual, los datos se suprimen de la colección activa.
useCase_4
Utilice este caso de uso para suprimir los datos que se almacenen
durante más tiempo que el periodo de retención especificado a
intervalos regulares. El período de retención se especifica mediante el
parámetro retentionPeriod=1d en el archivo delete.properties. El
tiempo se mide en días y un día es el valor predeterminado. Debe
especificar el periodo de retención como un múltiplo de un día.
3. Guarde el archivo delete.properties.
4. Ejecute la herramienta en modalidad autónoma:
v Para ejecutar el programa de utilidad en modalidad autónoma, ejecute el
mandato:
<vía_acceso_a_Python> deleteUtility.py <contraseña> <destino>
donde <vía_acceso_a_Python> es la ubicación en la que python está instalado
y la <contraseña> y el nombre de usuario asociado se definen en el archivo
delete.properties.
<destino> son los datos de destino que desea suprimir. Utilícelo para
especificar el tipo de datos que desea suprimir, -solr o -hadoop. El valor
predeterminado es -solr
Para suprimir datos de Hadoop, especifique -hadoop. Para suprimir datos de
Apache Solr, especifique -solr. Para suprimir ambos, especifique -all.
v Para ejecutar el programa de utilidad en modalidad cron:
a. Actualice el archivo <HOME>/IBM/LogAnalysis/utilities/deleteUtility/
callDeleteUtility.sh. Asegúrese de que la contraseña especificada aquí
es correcta.
b. Entre el siguiente mandato para ejecutar el programa de utilidad:
sh ./createCron.sh
c. Después de ejecutar el script, se crea una entrada en el archivo cron. Para
ver el trabajo cron de supresión que ha creado, entre el mandato
siguiente:
crontab -l
Resultados
Al suprimir datos con esta herramienta, se crea un archivo de registro denominado
DeleteApplication.log que se almacena en el directorio <HOME>/logs.
Referencia de administración
Lea la información de referencia sobre los programas de utilidad y herramientas
que puede utilizar para administrar Log Analysis.
Administración
341
Mandato export_statistics
Utilice el mandato export_statistics en el directorio <HOME>/IBM/
LogAnalysis/utilities para exportar datos de estadística a una tabla o una línea de
archivo de valores separados por coma (CSV).
Sintaxis
Este mandato tiene la sintaxis:
export_statistics <uri_base> [-u -p]| -f | -o | -t | -s | - h
donde <uri_base> es la ubicación de IBM Operations Analytics - Log Analysis para
el que desee exportar datos. Si no especifica un valor para el parámetro
<uri_base>, se utiliza la variable de entorno $UNITY_BASE_URI.
Parámetros
También están disponibles estos parámetros:
-u
Nombre de usuario para un usuario con privilegios administrativos. El
formato de este parámetro es --u=username. Donde username es un usuario
con privilegios administrativos. Si no especifica un valor para el parámetro
-u, se utiliza la variable de entorno $UNITY_USER.
-p
Contraseña para el usuario que ha especificado. El formato para este
parámetro es --p=password. Donde password es la contraseña para el
nombre de usuario que ha especificado. Si no especifica un valor para el
parámetro -p, se utiliza la variable de entorno $UNITY_PASS.
-f
El formato en el que desea exportar los datos. El formato de este
parámetro es --f format. Donde format es table o CSV. El valor
predeterminado es Table.
-o
Produce las estadísticas en un archivo. El formato de este parámetro es --o
path. Donde path es el nombre de archivo y la vía de acceso para el
archivo de exportación. El valor predeterminado es stdout.
-t
Especifica el tipo de datos que desea exportar. El formato de este
parámetro es --t type. Donde type es summary, daily o thirtydayavg. Los
resultados se presentan en formato de tabla con cada columna nombrada.
Por ejemplo Origen de datos. El valor predeterminado es daily.
-s
Utilice este parámetro para separar registros cuando la salida se genera en
un archivo CSV. El formato de este parámetro es --s separator. Donde
separador es el separador que desea utilizar en el archivo CSV. El valor
predeterminado es una coma (,).
-h
(Opcional) Visualiza ayuda para este mandato. El parámetro <uri_base> no
es necesario para este parámetro.
Nota: Puede producirse una discrepancia entre el tamaño del archivo que se
ingiere y el valor devuelto por el mandato export_statistics. El valor devuelto es
menor que o igual al tamaño del archivo ingerido. Esta diferencia se produce
porque el separador descarta los registros incompletos del archivo de registro
reduciendo el tamaño de archivo.
El mandato produce información diferente, dependiendo del parámetro de tipo que
especifique, summary, daily o thirtydayavg. Las cabeceras de columna para los
datos diarios son las siguientes:
342
IBM Operations Analytics - Log Analysis: Guía de instalación, configuración y administración
Origen de datos
El origen de datos con el que se asocian los datos ingeridos.
Colección
La colección con la que se asocia el origen de datos que contiene los datos.
Fecha Fecha en la que se han ingerido los datos.
Bytes ingeridos
Volumen de datos que se ingieren, en bytes.
Facturable
Volumen de datos que se utiliza para la facturación.
Vía de acceso de registro
Vía de acceso al origen de datos.
Nombre de host
Nombre de host que indica el origen del archivo de registro.
Las cabeceras de columna para el promedio continuo de 30 días son las siguientes:
Promedio continuo actual de treinta días
Promedio continuo actual de treinta días.
Marca de límite superior de promedio continuo de treinta días
Muestra la cantidad máxima de promedio de datos que se han utilizado
durante los últimos 30 días.
Fecha de marca de límite superior de promedio continuo de treinta días
Muestra la fecha en la que la cantidad de datos ingeridos ha alcanzado el
máximo.
Las cabeceras de columna para el promedio de 30 días son las siguientes:
Fecha Muestra la fecha para cada promedio.
Promedio de treinta días
Muestra la cantidad de datos de promedio que se utilizan durante 30 días.
Ejemplo
Este ejemplo descarga las estadísticas de origen de datos diarias de
http://unityserver.example.com:9988/Unity utilizando el nombre de usuario
unityadmin y la contraseña secretpassword. Las estadísticas se producen en un
archivo CSV: ~/Desktop/LogStats.csv.
export_statistics http://unityserver.example.com:9988/Unity
--username=unityadmin --password=secretpassword --f csv --o ~/Desktop/LogStats.csv
Para exportar las estadísticas diarias, utilice el mandato siguiente:
./export_statistics -u <nombre_usuario> -p <contraseña> -t daily
El mandato genera la siguiente información:
Origen de datos|Colección |Fecha
|Bytes ingeridos|Facturable|Vía acceso registro
------------+--------------+--------------+------------------+------------+-------localtest | localtest |2013-11-14|22640
|True
|/alogtest/SystemOut.log
localtest | localtest |2013-11-13|396200
|True
|/alogtest/SystemOut.log
----------------------------------------------------------------------------------|
| Nombre de host
|
-----------+--------------| <hostname1>.example.com
| <hostname2>..example.com
Administración
343
|
Para exportar un resumen, entre el mandato siguiente :
./export_statistics -u <nombre_usuario> -p <contraseña> -t daily
Este mandato genera la información siguiente:
Promedio continuo actual de 30 días| Marca de límite superior de promedio continuo de 30 días|
----------------------------------+----------------------------------13961
| 13961
|
---------------------------------------------------------------------|Fecha de marca de límite superior de promedio continuo de treinta días
--------+-------------------------------------|2013-11-14 00:00:00 -0500
Para exportar datos de promedio de 30 días, entre el mandato siguiente:
./export_statistics -u <nombre_usuario> -p <contraseña> -t thirtydayavg
Este mandato genera la información siguiente:
Fecha
| Promedio de treinta días
--------------+-------------------2013-11-14 |
13961
2013-11-13 |
13206
delete.properties
Para eliminar datos de IBM Operations Analytics - Log Analysis, utilice la
herramienta de supresión.
El archivo delete.properties se encuentra en el directorio <HOME>/IBM/
LogAnalysis/utilities/deleteUtility.
El programa de utilidad de supresión da soporte a cuatro casos de uso. Los casos
de uso requieren información general e información específica de cada caso de uso.
Se necesitan los parámetros hostName, port, userName y delayDuration.
El parámetro query es opcional y sólo se puede utilizar con los casos de uso 1 y 2.
Tabla 73. Parámetros generales
344
Parámetro
Valor
useCase
Número de casos de uso que desea ejecutar.
hostName
Nombre de host que corresponde al origen
de datos definido.
port
Puerto https. El puerto predeterminado es
9987.
userName
Nombre de un usuario con derechos de
acceso administrativo.
delayDuration
Intervalo de retardo (en milisegundos) entre
dos llamadas consecutivas de descanso
(posteriores).
query
Si desea suprimir un tipo específico de datos
de una colección u origen de datos
específico, utilice este parámetro para
especificar una consulta en la sintaxis de
Motor de indexación. Por ejemplo, si escribe
Severity:E se suprimirán todos los registros
de anotaciones de la gravedad especificada.
IBM Operations Analytics - Log Analysis: Guía de instalación, configuración y administración
Tabla 73. Parámetros generales (continuación)
Parámetro
Valor
delete -solr -hadoop -all
Utilice esta opción para suprimir datos
específicos. Para suprimir datos de las
instancias de Motor de indexación,
especifique delete -solr. Para suprimir los
datos que se almacenan en Hadoop,
especifique delete -hadoop. Para suprimir
ambos, especifique delete -all.
Caso de uso 1
dataSourceName: Especifique el nombre del origen de datos para el que
desea suprimir datos.
query: Escriba una consulta para suprimir un tipo de datos específico. Por
ejemplo severity:E
Caso de uso 2
collectionName: Especifique el nombre de la Colección para la que desea
suprimir datos.
query: Escriba una consulta para suprimir un tipo de datos específico. Por
ejemplo severity:E o severity:W
Caso de uso 3
startTime = <11/21/2013 14:00:00>
endTime = <11/25/2013 09:00:00>
Caso de uso 4
retentionPeriod=1d: especifique el periodo de retención. El tiempo se mide
en días y un día es el valor predeterminado.
Guía de la API
Utilice esta guía como ayuda para integrar Log Analysis con otras aplicaciones.
Configuración manual de la autenticación para la API REST
Para poder utilizar la API REST, debe configurar la autenticación para las
comunicaciones con Log Analysis.
Acerca de esta tarea
Para habilitar la autenticación, añada la señal de falsificación de solicitud entre
sitios (CSRF) a las consultas de búsqueda. La señal CSRF la genera el componente
Liberty de Log Analysis. La señal sólo es válida durante un par de horas. Después
de este tiempo, se genera una nueva señal. Cuando la señal se actualiza, debe
actualizar las consultas de la API REST.
Procedimiento
1. Para autenticar Log Analysis, realice una llamada POST que incluya de usuario
y la contraseña del administrador de Log Analysis:
https://<nombre_host_IOALA>:9987/Unity/j_security_check?j_
username=<nombre_usuario_admin_IOALA>
&j_password=<contraseña_admin_IOALA>&action=Go
Por ejemplo:
Administración
345
https://eg12345:9987/Unity/j_security_check?j_username=unityadmin
&j_password=unityadmin&action=Go
El mensaje de retorno contiene una respuesta críptica con código script Java.
2. Debe extraer la señal CSRF. Log Analysis devuelve una señal CSRF, que se
puede reutilizar en consultas subsiguientes. Para encontrar la señal, debe
buscar la serie de respuesta. Por ejemplo:
sclaidtoken = “B7EFED2C60D9843729ADCEAF81B22527”
La señal sclaidtoken es la señal CSRF que se genera cada vez que inicie la
sesión en Log Analysis. Debe pasar este valor como un parámetro de consulta
en todas las invocaciones REST.
3. Por último, debe crear una consulta que incluye la señal CSRF. Asegúrese de
que el tipo de contenido se establece en application o JSON. Por ejemplo
Content-Type=application/json.
Por ejemplo, cree una consulta que utilice un método POST:
Method:
POST
URL:
https://IOALA_HOST:9987/Unity/Async/Search?
searchMode=async&CSRFToken=B7EFED2C60D9843729ADCEAF81B22527
Body:
Body:
{"start":0,"results":100,"outputTimeZone":"UTC",
"filter":{"range":{"timestamp":{"from":"07/05/2014 12:02:47.000 +0530,
12:02 PM","to":"07/05/2015 12:02:47.083 +0530, 12:02 PM",
"dateFormat": "dd/MM/aaaa HH:mm:ss.SSS Z" }}},
"logsources":[{"name":"/automation app","type":"tag"}],
"query":"*","highlight":true,
"sortKey":["-timestamp"],
"facets":{"histogram_facet":{"date_histogram":{"field":"timestamp",
"interval":"week","outputDateFormat":"aaaa-MM-dd’T’HH:mm:ssZ"}}},
"allTermFacets":true,
"allTermFacetsSize":25,
"genericConcepts":100,
"genericKeys":100,
"locale":{"language":"en","country":"US","variant":""}}
La CSRFToken la genera el componente Liberty de Log Analysis. La señal sólo es
válida durante un par de horas. Después de este tiempo, se genera una nueva
señal. Cuando sucede esto, debe actualizar las consultas.
Utilización del cliente del recopilador de datos para autenticar
e invocar la API REST
Para poder utilizar la API REST, debe autenticar las comunicaciones con Log
Analysis. Para ello, puede utilizar el cliente del recopilador de datos que está
disponible de forma inmediata. También puede utilizarlo para invocar la API REST
y aprovechar las API públicas.
Antes de empezar
v Asegúrese de que tiene al menos un conocimiento básico de Java.
v Asegúrese de que está utilizando Java 8.0 o posterior.
v Asegúrese de que el cliente del recopilador de datos que utiliza tiene la misma
versión de Log Analysis que la que se utiliza para la autenticación. Por ejemplo,
un recopilador de datos de 1.2 puede que no funcione con Log Analysis 1.3.
346
IBM Operations Analytics - Log Analysis: Guía de instalación, configuración y administración
Acerca de esta tarea
Si ejecuta el cliente REST en el mismo servidor donde ha instalado Log Analysis,
no es necesario que realice los pasos 3 y 4, porque el certificado de cliente ya se ha
importado al cliente Java que se instala con Log Analysis.
Procedimiento
1. Inicie una sesión en el servidor donde ha instalado Log Analysis.
2. Copie el archivo <HOME>/IBM/LogAnalysis/utilities/datacollector-client/
datacollector-client.jar en el servidor donde desea ejecutar el código del
lado del cliente.
Asegúrese de que el archivo datacollector-client.jar forme parte de la vía
de acceso de clases que se especifica en el cliente Java.
3.
Copie el archivo <HOME>/IBM/LogAnalysis/wlp/usr/servers/Unity/resources/
security/client.crt desde el servidor de Log Analysis en un directorio en el
servidor donde está el cliente del invocador de llamadas REST. Por ejemplo,
home/IBM/myCertificates/client.crt.
4. Importe el certificado que ha creado en el paso anterior al almacén de
certificados Java. Por ejemplo:
/home/user1/java/bin/keytool -import
-file /home/user1/IBM/myCertificates/client.crt
-keystore /home/user1/java/jre/lib/security/cacerts
-alias SCALA_HOST -storepass changeit
Qué hacer a continuación
Por ejemplo, imagine que utiliza un programa Java denominado MyClient.java
con un método ’main’ que está en un paquete denominado “com.org.tools”. Ha
guardado el archivo JAR del recopilador de datos en el mismo directorio que el
programa. Vaya al directorio y ejecute el mandato siguiente:
java -cp datacollector-client.jar:.: com.org.tools.MyClient
El programa se ejecuta e invoca las API REST que se exponen en el archivo
datacollectorclient.jar.
Para invocar la API REST, declare y defina la variable de miembro de clase para
las API de cliente REST:
RestClient restClient = new RestClient(userID, password);
También puede utilizar las siguientes API públicas. Puede utilizar las direcciones
de punto final que define en la API REST de Log Analysis como el valor restAddr:
public
throws
public
public
public
RequestResult postToServer(String restAddr, JSONObject json)
UnityException
RequestResult putOnServer(String restAddr, JSONObject json)
RequestResult getFromServer(String restAddr)
RequestResult deleteOnServer(String deleteAddr)
Para cargar un lote de datos en el servidor de Log Analysis alojado en
exmp123.example.com, utilice el código siguiente:
RestClient restClient = new RestClient("unityadmin","unityadmin");
JSONObject batch = ......
String restAddr = "https://exmp123.example.com:9987/Unity/DataCollector";
Administración
347
try {
restClient.postToServer(restAddr, batch);
}catch(UnityException ue){
System.err.println(ue.getMessage());
}
Visión general de la API REST de búsqueda
La interfaz REST de búsqueda se puede utilizar para ejecutar consultas de
búsqueda. La búsqueda se puede ejecutar mediante una solicitud POST HTTP en
https:<host>:<puerto>;/Unity/Search.
La interfaz REST de búsqueda es el método de búsqueda principal que se utiliza
para ejecutar consultas de búsqueda.
Búsqueda a través de orígenes de datos
La solicitud de búsqueda de entrada y la respuesta de USR se modelan como
objetos JSON. En la sección siguiente, se describe la estructura de estos objetos
JSON de entrada y salida.
Formato JSON para solicitud de respuesta
La JSON de entrada para una solicitud de búsqueda es un único objeto JSON.
El objeto JSON de entrada tiene la siguiente estructura:
{
“logSources”: [“logsource1”, “logsource2”, ....],
“query”: “serie de consulta de búsqueda entrada por el usuario”,
“filter”: //filtrar consulta (vea la sección 4.1 más abajo)
“queryLang”: “idioma de la consulta de búsqueda”,
“start”: 0,
“results”: 10,
“getAttributes”: [“attribute1”, “attribute2”, .....],
“sortKey”: [“key1”, “key2”, ......],
“facets”: {
“facet1D1”: // solicitud de faceta (vea la sección 4.2 más abajo)
“facetID2”: // solicitud de faceta (vea la sección 4.2 más abajo)
......
}
“advanced”: {
“rankingHint”: “expresión de consulta que proporciona sugerencia de clasificación
para Gumshoe”,
“explain”: false,
“interpretations”: true,
“catchallOnly”: false,
“rules”: {
“allRules”: true,
“categoryRules”: true,
“rewriteRules”: true,
“ignoreCategories”: [“cat1”, “cat2”, ....]
}
“grouping”: [“groupingType1”, “groupingType2”, ..],
“highlighting”: true,
}
}
1.000 o más resultados y panel de control de búsqueda personalizado: Cuando
una consulta en una Panel de control de búsqueda personalizada devuelve más de
348
IBM Operations Analytics - Log Analysis: Guía de instalación, configuración y administración
1000 registros, solo obtiene 1000 resultados. El resultado de búsqueda devuelto
incluye un campo totalResults que muestra el número total de resultados
coincidentes. Otro campo numResults proporciona el número de registros
devueltos. Puede comprobar estos valores en el script de Panel de control de
búsqueda personalizada y manejar los resultados como corresponda.
La tabla siguiente lista la semántica de los atributos restantes
Tabla 74. Parámetros de entrada de solicitud de búsqueda
Nombre
Descripción
logsources
Orígenes de registro en los
que se debe realizar la
solicitud de búsqueda
Valor
predeterminado
Necesario
Comentarios
Lista de orígenes de registro. Debe ser
una matriz JSON. Cada entrada puede
ser un nombre de origen de registro o
nombre de etiqueta. Si se especifica un
nombre de etiqueta, se incluirán en la
búsqueda todos los orígenes de registro
bajo la etiqueta
"logsources": [
{"type":"tag","name":"/ipo"},
{"type":"logSource",
"name":"/DayTraderLogSource"} ]
query
Consulta de búsqueda
Necesario
Normalmente, el valor de este
parámetro es lo que entra el usuario
final en un recuadro de búsqueda. Sin
embargo, se permite cualquier serie de
consulta válida según la sintaxis de
consultas de Velocity (excluyendo las
consultas de rango).
filter
Filtro de aplicación
Sin filtro
Objeto JSON válido tal como se
describe en la sección 4.1. Este
parámetro está pensado para que
aplicaciones pasen filtros además de la
consulta de búsqueda de usuario.
Conceptualmente, la consulta general
procesada por USR es “query AND
filter”. La separación en dos partes es
para permitir la manipulación de
consulta adicionales de la parte de
consulta (“query”) cuando se
implementan funciones de búsqueda
avanzada.
start
Desplazamiento del primer
resultado a devolver (Entero)
0
Si el valor especificado es negativo, el
valor tomará el valor predeterminado
de 0; si el valor especificado es mayor
que el número de resultados, no se
devolverán resultados.
results
Número de resultados
deseados (Entero)
10
El valor mínimo es 1 (valores <= 0 toma
de forma predeterminada el valor 1); el
valor máxima es 1000.
Administración
349
Tabla 74. Parámetros de entrada de solicitud de búsqueda (continuación)
Valor
predeterminado
Nombre
Descripción
getAttributes
Atributos que se deben
No necesario
devolver para cada entrada de
resultado
Comentarios
Cuando no se especifica este parámetro
en la solicitud, el motor devuelve sólo
el conjunto de atributos marcados como
retrievebyDefault en las
configuraciones de indexación asociadas
con los orígenes de registro en cuestión.
Si se especifica este parámetro y es una
matriz no vacía, se captarán los
atributos listados en la matriz.
Finalmente, si se especifica el parámetro
pero es una matriz vacía, se devolverán
TODOS los atributos recuperables en
todos los orígenes de registro para cada
entrada de resultado.
sortKey
Uno o varios campos en los
ordenar el resultado
Orden de relevancia
Un valor válido para este parámetro es
una lista separada por comas de
nombres de campo, donde cada nombre
de campo tiene el prefijo “+” “-“. Cada
nombre de campo que aparece en la
lista se debe haber declarado como
campo “sortable” en el momento de la
compilación del índice. El primer
campo de la lista se trata como la clave
de ordenación primaria, el segundo
campo (si está presente) como clave de
ordenación secundaria, etc. El prefijo
“+” (resp. “-“) es una instrucción para
ordenar los valores de campo
correspondiente en orden ascendente
(resp. descendente).
Para las consultas que incluyen varios
orígenes de registro, deben existir
claves de ordenación en todos los
orígenes de registro implicados en la
consulta y las claves de ordenación
deben tener el mismo tipo en todos los
orígenes de registro.
350
IBM Operations Analytics - Log Analysis: Guía de instalación, configuración y administración
Tabla 74. Parámetros de entrada de solicitud de búsqueda (continuación)
Valor
predeterminado
Nombre
Descripción
outputTimeZone
Huso horario en el que se
deben formatear los
resultados de campo DATE
Comentarios
Huso horario de
colección (para
consultas de origen
de registro único y
consultas de varios
orígenes de registro
donde los orígenes de
registro tienen husos
horarios idénticos).
Huso horario de
servidor (para
consultas de varios
orígenes de registro
donde los orígenes de
registro tienen
diferentes husos
horarios)
outputDateFormat
Serie SimpleDateFormat que
especifica cómo se deben
formatear los resultados de
campo DATE
UNITY_DATE_
DISPLAY_FORMAT
Lea en
unitysetup.properties
Consulta de filtro
Una consulta de filtro es una consulta booleana especificada como un registro
JSON anidado. En su forma más simple una consulta booleana consta de una
consulta básica. Una consulta básica puede ser una consulta de términos, una
consulta de comodín, una consulta de frase o una consulta de rango. Las consultas
básicas también se pueden combinar utilizando conjunciones anidadas
arbitrariamente (consultas AND), disyunciones (consultas OR) y negociaciones
(consultas NOT) para formar consultas booleanas complejas.
4.1.1 Consultas de filtro básicas
Consulta de término
Una consulta de término especifica un nombre de campo y un término.
Coincide con todos los documentos para los que el campo contiene el
término. Una consulta de término se especifica de la siguiente manera:
{ “term”:
{“myField”: “termValue”}
}
Consulta de comodín
Una consulta de comodín especifica un nombre de campo y una expresión
de comodín. Coincide con todos los documentos para los que el campo
coincide con la expresión de comodín. Una consulta de comodín se
especifica de la siguiente manera:
{ “wildcard”:
{“myField”: “wildcardExpression”}
}
Consulta de frase
Administración
351
Una consulta de frase especifica un nombre de campo y una frase.
Coincide con todos los documentos para los que el campo contiene la
frase. Una consulta de frase se especifica de la siguiente manera:
{ “phrase”:
{“myField”: “phraseValue”}
}
Consulta de rango
Una consulta de rango especifica un nombre de campo junto con un límite
inferior (inclusive) y un límite superior (exclusive) para el valor de campo.
Una consulta de rango es aplicable sólo a campos numéricos y de fecha.
Para los campos de fecha, se debe proporcionar un formato de fecha
adicional. Una consulta de rango se especifica de la siguiente manera:
{“range”:
{“myField”:
{ “from”: “lower-bound”, // el valor se incluirá en la búsqueda
“to”: “upper-bound”, // el valor se excluirá de la búsqueda
“dateFormat”: “date-format” // solo para campos de fecha
}
}
}
4.1.2 Consultas de filtro complejas
Las consultas de filtro complejas pueden crearse mediante la combinación de una o
más consultas utilizando consultas AND, OR o NOT.
Consulta AND
Una consulta AND consta de dos o más subconsultas. Las subconsultas
pueden ser una consulta básica u otra consulta compleja. Un documento
satisface una consulta AND sólo si se satisface todas las sub-consultas. Una
consulta AND se especifica de la siguiente manera:
{“and”:[
{“query1”: ...},
{“query2”: ...},
...
{“queryN”: ...}]
}
Consulta OR
Una consulta OR consta de dos o más subconsultas. Las subconsultas
pueden ser una consulta básica u otra consulta compleja. Un documento
satisface una consulta OR si cumple al menos una de sus subconsultas.
Una consulta OR se especifica de la siguiente manera:
{“or”:[
{“query1”: ...},
{“query2”: ...},
...
{“queryN”: ...}]
}
Consulta NOT
Una consulta NOT consta de una sola subconsulta. El subconsulta puede
ser una consulta básica o una consulta compleja. Un documento satisface
una consulta NOT si no satisface la subconsulta contenida. Una consulta
NOT se especifica de la siguiente manera:
{“not”: {“query”: ....}}
352
IBM Operations Analytics - Log Analysis: Guía de instalación, configuración y administración
Solicitudes de faceta
USR soporta diferentes tipos de solicitudes de faceta, junto con el formato JSON
utilizado para especificar cada tipo de solicitud de faceta.
Cada solicitud de faceta se especifica como un par de clave-valor JSON, donde la
clave es el ID de faceta y el valor es un registro JSON. El tipo de faceta que se está
calculando determina la estructura de este registro JSON. Aquí se describen los
tipos de faceta soportados y el correspondiente formato de solicitud JSON.
Facetas de término
"myTermFacet": {
"terms": {
"field": "myField",
"size": N
}
}
El recuento de facetas se realiza en el campo myField y se devuelven los N
valores de faceta superiores más frecuentes (para algún entero positivo N).
Las dos facetas siguientes (histograma y estadística) sólo se aplican a
campos numéricos. En otras palabras, el campo en el que estas facetas se
calculan debe haberse configurado con un dataType=LONG o
dataType=DOUBLE en la especificación de indexación asociada con la
colección o colecciones de IBM Operations Analytics a través de las cuales
se está procesando la solicitud de faceta.
Facetas de histograma
"myHistoFacet": {
"histogram": {
"field": "myField",
"interval": 100
}
}
Realiza el recuento de facetas con grupos determinados basándose en el
valor de interval.
Facetas estadísticas
"myStatFacet": {
"statistical": {
"field": "myField",
"stats": ["min", "max", "sum", "avg", "count", "missing",
"sumOfSquares", "stddev", “percentile”]
}
}
Ejecuta estadísticas agregadas simples en un campo de faceta. El atributo
"stats" especifica cuál de estas estadísticas se debe calcular para la solicitud
de faceta proporcionada.
v
Si está utilizando la Entry Edition, puede utilizar las funciones
sum, min, max, avg y count.
v
Workgroup
SQL
System
System
Standard
AltiVec
Sybase
Studio
Start
DB2
C99
C89
CEP
ALL
IDS
i5
Server
p5
z9
i53
Orchestrator
Cloudscape
Telesales
Fix
Panagon
pSeries
Pack
Documentum
Domino.Doc
Content
Mgr
Professional
Developer
Advanced
Business
WCS
zSeries
WC
xSeries
Oracle
iSeries
B2C
B2B
5.4
5.1
Express
WAS
5.0
Fix
Oracle
Pack
10
21 Si utiliza Standard Edition, puede utilizar las funciones
Enterprise
missing, sumOfSquares, stddev y percentile.
Workgroup
SQL
System
System
AltiVec
Sybase
Studio
Entry
Start
DB2
C99
C89
CEP
ALL
IDS
i5
Server
p5
z9
i53
Orchestrator
Cloudscape
Telesales
Fix
Panagon
pSeries
Pack
Documentum
Domino.Doc
Content
Mgr
Professional
Developer
Advanced
Business
WCS
zSeries
WC
xSeries
Oracle
iSeries
B2C
B2B
5.4
5.1
Express
WAS
5.0
Fix
Oracle
Pack
10
21
Enterprise
Las operaciones de percentil permiten ejecutar consultas para un percentil
definido. También puede ejecutar la operación para varios percentiles. Por
ejemplo, para consultar los resultados mínimo y máximo para los
percentiles 50, 95 y 99, escriba "stats": ["min", "max",
"percentile,50,95,99"]. La respuesta de faceta es:
Administración
353
{
"min": 10,
"max", 1000,
"percentile":
{
"50": 100,
"95": 200,
"99": 225
}
}
Facetas de histograma de fecha
"myDateHistoFacet": {
"date_histogram":{
"field": "myField",
"interval": "day",
"outputDateFormat": "yyyy-MM-dd
’T’ HH:mm:ssZ"
}
}
Versión de la faceta de histograma especializada para los campos de fecha.
El valor del atributo interval puede ser uno de las constantes de serie
year, month, week, day, hour o minute. El valor de outputDateFormat es
cualquier serie de formato de fecha válida según la clase Java
SimpleDateFormat. Esta serie de formato se utiliza para representar los
límites de histograma en la JSON de respuesta procedente de USR.
Para facetas de histograma de datos de colección única, los límites se basan
en el huso horario de la colección (de la configuración de índice o de
unitysetup.properties si faltan en la configuración de índice). Para facetas
de varias colecciones, los límites se basan en el huso horario de colección si
el huso horario de todas las colecciones es idéntico. Para facetas de varias
colecciones donde los husos horarios de colección difieren, los límites se
basan en el huso horario del servidor.
Nota: Los resultados devueltos de la faceta de histograma de fecha no
están ordenados. Si está trazando los intervalos de tiempo resultantes en
un gráfico, debe ordenar la JSON devuelta por la faceta de histograma de
fecha. Por ejemplo, en python, si la solicitud de búsqueda es la siguiente:
request = {
"start": 0,
"results": 1,
"filter": {
"range": {
"timestamp":{
"from":"01/01/2013 00:00:00.000 EST",
"to":"01/01/2014 00:00:00.000 EST",
"dateFormat":"MM/dd/yyyy HH:mm:ss.SSS Z"
}
}
},
"logsources": [{"type": "logSource", "name": "MyTest" }],
"query": "*",
"sortKey":["-timestamp"],
"getAttributes":["timestamp","perfMsgId"],
"facets":{
"dateFacet":{
"date_histogram":{
"field":"timestamp",
"interval":"hour",
"outputDateFormat":"MM-dd HH:mm",
"nested_facet":{
354
IBM Operations Analytics - Log Analysis: Guía de instalación, configuración y administración
"dlFacet":{
"terms":{
"field":"perfMsgId",
"size":20
}
}
}
}
}
}
}
En primer lugar, recupere dateFacet de la JSON devuelta por la solicitud
http y, a continuación, llame a la función dateSort().
response = connection.post(
’/Search’, json.dumps(request),
content_type=’application/json; charset=UTF-8’);
content = get_response_content(response)
#convertir los datos de respuesta a JSON
data = json.loads(content)
if ’facetResults’ in data:
# obtener los resultados de faceta
facetResults = data[’facetResults’]
if ’dateFacet’ in facetResults:
# obtener las filas dateFacet
dateFacet = facetResults[’dateFacet’]
# los resultados de dateFacet no están ordenados,
# por tanto llamar a dateSort()
dateSort(dateFacet)
donde dateSort() se define de la manera siguiente:
#-----------------------------------------------------# dateSort()
#-----------------------------------------------------def dateSort(dateFacet):
# Esta función analiza la etiqueta UTC encontrada en dateFacet en
# el formato "mm-hh-DDD-yyyy UTC"
# y devuelve una matriz en el formato [yyyy, DD, hh, mm]
def parseDate(dateLabel):
aDate = map(int, dateLabel.split(" ")[0].split("-"))
aDate.reverse()
return aDate
# llamar a una ordenación de lista en el sitio, mediante una función anónima
# lambda como función de ordenación
dateFacet.sort(
lambda facet1, facet2: cmp(parseDate(facet1[’label’]),
parseDate(facet2[’label’])))
return dateFacet
Facetas anidadas
Una solicitud de faceta se puede anidar dentro de otra solicitud de faceta,
especificando una clave nested_facet. Puede anidar facetas en cualquier
número de niveles.
A continuación se proporciona una consulta de faceta anidada válida, con
una consulta de faceta terms anidada dentro de una consulta de faceta
date_histogram:
Administración
355
"facets":
{"dateFacet":{
"date_histogram":{
"field": "timestamp","interval":"hour",
"outputDateFormat":"MM-dd HH:mm",
"nested_facet":{
"severityFacet":{
"terms":{
"field":"severity",
"size":10
}
}
}
}
}
},
Funciones estadísticas de percentil
Puede utilizar la función estadística para devolver valores de los percentiles
especificados.
Puede utilizar la API REST de búsqueda o la interfaz de usuario para crear
funciones estadísticas de percentil.
Por ejemplo, para consultar los resultados máximos y mínimos para los percentiles
50, 95 y 99 con la API REST de búsqueda, especifique "stats": ["min", "max",
"percentile,50,95,99"]. La respuesta de faceta es:
{
"min": 10,
"max", 1000,
"percentile":
{
"50": 100,
"95": 200,
"99": 225
}
}
Las consultas de percentiles no se calculan de modo incremental, a diferencia de
las otras consultas que se utilizan en Log Analysis. Esto significa que es necesario
que las consultas se ejecuten en todo el rango de tiempo para que devuelvan
resultados. Log Analysis limita el número de ventanas asíncronas que se pueden
ejecutar simultáneamente para esta función. Esta propiedad está definida en la
propiedad MAX_NON_INCREMENTAL_WINDOWS en unitysetup.properties. El valor
predeterminado es 2.
Por ejemplo, si especifica una consulta de percentil basada en un rango de tiempo
desde el 1 de agosto de 2015 hasta el 10 de agosto de 2015 y
MAX_NON_INCREMENTAL_WINDOWS=5 y COLLECTION_ASYNC_WINDOW=1d, sólo se tienen en
cuenta los datos de los 5 días más recientes que ha devuelto la consulta para la
evaluación de percentiles.
Formato JSON para respuesta de búsqueda
Los resultados de búsqueda de USR también se empaquetan como un único objeto
JSON.
El objeto JSON tiene la siguiente estructura:
{
"searchRequest": // copia del objeto JSON de entrada entero que
ha generado esta respuesta
356
IBM Operations Analytics - Log Analysis: Guía de instalación, configuración y administración
"totalResults": // valor entero que representa el número total de
resultados para la consulta
"numResults": // número de resultados de nivel superior devueltos en
esta JSON ("nivel superior"
// porque un resultado agrupado/en clúster se cuentan como 1
"executionInfo": {
"processingTime":
// tiempo (en ms) medido desde la recepción de la solicitud de búsqueda
// por parte de USR para que apunte cuando USR empiece a crear el resultado
"interpretations": // para envío de búsqueda avanzada
"rules": // para envío de búsqueda avanzada
}
"searchResults": [
// Matriz de objetos JSON uno por entrada de resultados de nivel superior.
// El tamaño de esta matriz será el valor del atributo "numResults"
]
"facetResults": {
"facetID1": { // Objeto con información de faceta para facetID1 }
"facetID2": { // Objeto con información de faceta para facetID2 }
......
}
}
Cada elemento de la matriz "searchResults" tendrá la estructura siguiente:
{
"resultIndex": // un número que indica la posición de este resultado en el
// conjunto de resultados global para esta consulta
"attributes": {
"field1": "value1",
"field2": "value2",
....
// un par de clave-valor para cada campo de la entrada de resultado;
el conjunto de campos
// lo determinará la semántica del parámetro getAttributes
parameter
La estructura JSON para los resultados de faceta dependen del tipo específico de la
solicitud de faceta.
Facetas de término
"facetID": {
"total": // número total de términos diferentes del campo
utilizados para generar esta faceta
"counts": [
{ "term": "term1", "count": 10},
{ "term": "term2", "count": 5},
...
]
}
Facetas de histograma
"facetID": [
{ "low": 50, "high": 150, "count": 10},
{ "low": 150, "high": 250, "count": 25},
...
]
Facetas estadísticas
"facetID": {
"max": // valor máximo
"min": // valor mínimo
"sum": // valor de suma
"avg": // valor de promedio
"count": // valor de recuento
Administración
357
"missing": // valores que faltan
"sumOfSquares": // valor de suma de cuadrados
"stddev": // valor de desviación estándar
}
En general, no tiene que estar presentes los tres agregados. Sólo se
incluirán los agregados listados en el atributo "stats" de la solicitud de
faceta correspondiente.
Facetas de histograma de fecha
Idéntico a la salida de las facetas de histograma, excepto en que los
atributos "low" y "high" se representarán de acuerdo con la serie de
formato especificada en la solicitud de faceta de histograma de fecha de
entrada. Por ejemplo, la salida puede ser algo parecido a lo siguiente:
"facetID": [
{ "low": "2012-01-01 10:00:00", "high":
"2012-01-01 11:00:00,"count": 10},
{ "low": "2012-01-01 11:00:00", "high":
"2012-01-02 12:00:00","count": 10
"label": "9-22-188-2012 UTC" },
...
]
Facetas anidadas
Si la faceta situada más al exterior es una faceta de término, la respuesta
será la siguiente:
"total": // número total de términos diferentes en el campo utilizados para
generar esta faceta
"counts": [
{ "term": "term1", "count": 10, "nested_facet":
{nested facet result...}},
{ "term": "term2", "count": 5, "nested_facet":
{ nested facet result...}}]
...
]
API de consulta de búsqueda
La API /query funciona igual que la API /Search, con la excepción de la estructura
del JSON de respuesta. Esta API devuelve los datos en formato tabular en lugar de
formato jerárquico.
Solicitud de búsqueda
La estructura de solicitud de búsqueda es la misma que para la API /Search.
El único campo adicional es name, que es un campo opcional. El valor name se
utiliza como ID del conjunto de datos en los resultados. Si no se especifica name,
searchResults
se utiliza como ID.
{
"name":"AllErrors",
"start": 0,
"results": 10,
"filter": { },
"logsources": [ ... ],
358
IBM Operations Analytics - Log Analysis: Guía de instalación, configuración y administración
"query": "*",
"getAttributes": [ ... ],
"facets": { "facetId1" :{...}, ...}
}
Otros parámetros de búsqueda como search filters, facets, nested facets,
logsources, query, getAttributes, start y results se describen en la sección 4.
Resultados de búsqueda
Los resultados de búsqueda se encuentran en un formato tubular, que pueden ser
ingeridos por la Paneles de control de búsqueda personalizada. Las clave ‘data’ en
los resultados apunta a una matriz de conjuntos de datos. Cada conjunto de datos
tiene ID, campos y filas.
Los resultados incluyen un conjunto de datos para los resultados de búsqueda y
uno para cada faceta especificada en la solicitud.
El conjunto de datos de resultados de búsqueda utiliza el nombre (‘name’)
especificado en la solicitud como ID. Si no se especifica, se utiliza el valor
searchResults como ID.
Los resultados de faceta utilizan el ID de faceta utilizando en la solicitud como ID
para el conjunto de datos. En el caso de las facetas de término, histograma e
histograma de fecha, se añade ‘count’ a los campos junto con los campos
especificados.
Para las facetas estadísticas (max, min, sum, avg, count, missing, sumOfSquares y
stddev), el ID de campo se genera combinando el nombre de campo y el nombre
de función. Por ejemplo, para ‘min’ es fieldname-min donde fieldname es el campo
incluido en la faceta estadística. De forma similar, para max es fieldname-max.
{
"data": [
{
"id": "AllErrors",
"fields": [
{"label": "fieldLabel1", "type": "TEXT", "id": "fieldId1" },
{ "label": "fieldLabe2", "type": "LONG", "id": "fieldId2"}
],
"rows": [
{
"fieldId1": "value1",
"fieldId2": "value2"
} ]
},
{
"id": "facetId1",
"rows": [
{
"fieldId1": "value1",
"fieldId2": "value2",
"count": “value3”
},
{
"fieldId1": "value1",
"fieldId2": "value2",
"count": “value3”
}
],
"fields": [
{ "label": "fieldLabel1", "type": "LONG", "id": "fieldId1" },
Administración
359
{ "label": "fieldLabel2", "type": "LONG", "id": "fieldId2"},
{ "label": "Count", "type": "LONG", "id": "count" } ]
}
]
}
Solicitud de búsqueda y resultados
Este ejemplo muestra una solicitud de búsqueda y respuesta con datos de ejemplo.
Solicitud de búsqueda
{
"start": 0,
"results": 100,
"name":"AllErrors",
"logsources": [
{
"type": "tag",
"name": "*"
}
],
"query": "*",
"facets": {
"termFacet01": {
"terms": {
"field": "msgclassifier",
"size": 419
}
}
}
}
Resultados de búsqueda
{
"data": [
{
"fields": [
{
"label": "msgclassifier",
"type": "TEXT",
"id": "msgclassifier"
},
{
"label": "className",
"type": "TEXT",
"id": "className"
},
{
"label": "logsource",
"type": "TEXT",
"id": "logsource"
}
],
"rows": [
{
"msgclassifier": "SRVE0250I",
"className": "com.ibm.ws.wswebcontainer.VirtualHost",
"logsource": "WASLogSource"
},
{
"msgclassifier": "SECJ0136I",
"className": "com.ibm.ws.wswebcontainer.VirtualHost",
"logsource": "WASLogSource"
}
],
"id": "AllErrors"
},
360
IBM Operations Analytics - Log Analysis: Guía de instalación, configuración y administración
{
"rows": [
{
"msgclassifier": "SRVE0242I",
"count": 132
},
{
"msgclassifier": "CWPKI0003I",
"count": 3
}
],
"fields": [
{
"label": "msgclassifier",
"type": "TEXT",
"id": "msgclassifier"
},
{
"label": "count",
"type": "LONG",
"id": "count"
}
],
"id": "termFacet01"
}
]
}
Utilización de la API REST para administrar el modelo de
datos de Log Analysis
Puede utilizar métodos HTTP y la API REST para cargar, crear, actualizar y
suprimir artefactos y lotes de artefactos de Log Analysis.
Para cargar, crear, actualizar y suprimir un lote de artefactos como los conjuntos de
reglas, conjuntos de archivos, tipos de origen, colecciones y orígenes de registro,
utilice un método GET, POST, PUT o DELETE y el URL siguiente:
https://<servidor>:<puerto>/Unity/<Artefacto>
donde <servidor> es la máquina en la que está instalado IBM Operations Analytics
- Log Analysis. <puerto> es el puerto que desea utilizar para las solicitudes de API
REST en la misma máquina. <Artefacto> es el nombre del artefacto que desea
procesar, por ejemplo conjunto de reglas.
Para cargar, crear, actualizar y suprimir un artefacto específico, utilice un método
GET, POST, PUT o DELETE y el URL siguiente:
https://<servidor>:<puerto>/Unity/<Artefacto>?id=<ID_conjunto_reglas>
Lea la documentación siguiente para obtener más información sobre los parámetros
de entrada específicos y los valores devueltos.
Conjuntos de reglas
Puede utilizar varios métodos HTTP para cargar, crear, actualizar y suprimir
conjuntos de reglas.
Cargar (método GET)
Para devolver todos los conjuntos de reglas, utilice un método GET y el URL
siguiente :
https://<servidor>:<puerto>/Unity/RuleSets
Administración
361
Para devolver un conjunto de reglas específico, utilice un método GET y el URL
siguiente :
https://<servidor>:<puerto>/Unity/RuleSets?id=<ID_conjunto_reglas>
donde <ID_conjunto_reglas> es el ID del conjunto de reglas que desea recuperar.
La operación devuelve los valores siguientes del conjunto de reglas solicitado en el
formato JSON simple:
Tabla 75. Valor devuelto para conjuntos de reglas
Valor devuelto
Descripción
rulesFileDirectoy
Vía de acceso completa al archivo que
contiene las reglas que gobiernan cómo se
realizan la división y la anotación.
Las reglas se deben escribir en formato de
lenguaje de consulta anotado (AQL).
type
Este parámetro puede tener un valor de 1 o
0.
0 significa que el conjunto de reglas se
utiliza para la división. 1 significa que el
conjunto de reglas se utiliza para la
anotación.
name
Nombre del conjunto de reglas.
id
Identificador de conjunto de reglas.
La operación devuelve el valor siguiente para un solo conjunto de reglas:
{
"rulesFileDirectory": "/home/....;",
"type": 1,
"name": "windowsOSEventsLS-Annotate",
"id": 3
(- Vía de acceso AQL)
(- 0 para Dividir 1 para Anotar)
}
Crear (método POST)
Para crear un conjunto de reglas, utilice un método POST y el URL siguiente:
https://<servidor>:<puerto>/Unity/RuleSets?
Para especificar los valores para el conjunto de reglas, defínalos en el cuerpo del
mensaje HTTP en formato JSON. Los valores de entrada se listan en la tabla.
Tabla 76. Valores de entrada para el método POST
Parámetro de entrada
Descripción
rulesFileDirectoy
Entre la vía de acceso AQL.
type
Este parámetro puede tener un valor de 1 o
0.
0 significa que el conjunto de reglas se
utiliza para la división. 1 significa que el
conjunto de reglas se utiliza para la
anotación.
name
362
Nombre del conjunto de reglas.
IBM Operations Analytics - Log Analysis: Guía de instalación, configuración y administración
La especificación del conjunto de reglas nuevo se define en la JSON de entrada.
Por ejemplo:
{
"name": "Test",
"type": 0,
(- 0 para Dividir 1 para Anotar)
"rulesFileDirectory": "/home/....;" (- Vía de acceso AQL)
}
Actualizar (método PUT)
Para actualizar un conjunto de reglas, utilice un método PUT y el URL siguiente:
https://<servidor>:<puerto>/Unity/RuleSets
Para especificar los valores para el conjunto de reglas, defínalos en el cuerpo del
mensaje HTTP en formato JSON. Los valores de entrada son los mismos que los
valores listados en la tabla 2.
La JSON de entrada es la misma que la que se utiliza para el método POST.
Suprimir (método DELETE)
Para suprimir un conjunto de reglas, utilice un método de DELETE y el URL
siguiente:
https://<servidor>:<puerto>/Unity/RuleSets
Conjuntos de archivos
Puede utilizar varios métodos HTTP para cargar, crear, actualizar y suprimir
conjuntos de archivos.
Devolver conjuntos de archivos (método GET)
Para devolver todos los conjuntos de archivos, utilice un método GET y el URL
siguiente:
https://<servidor>:<puerto>/Unity/FileSets
Para devolver un conjunto de archivos específico, utilice un método GET y la
solicitud siguiente:
https://<servidor>:<puerto>/Unity/FileSets?id=<ID_conjunto_archivos>
donde <ID_conjunto_archivos> es el ID del conjunto de archivos que desea
recuperar.
La operación devuelve los valores siguientes de los conjuntos de archivos
solicitados en el formato JSON simple:
Tabla 77. Valores devueltos para los conjuntos de archivos
Valor devuelto
Descripción
className
Nombre de la clase Java utilizada por el
conjunto de archivos.
fileType
Este valor de parámetro puede ser 0 o 1. 0
significa que el conjunto de archivos está
basado en Java. 1 indica que el conjunto de
archivos está basado en Python.
fileName
Nombre del archivo que contiene el código
que realiza la división o anotación.
Administración
363
Tabla 77. Valores devueltos para los conjuntos de archivos (continuación)
Valor devuelto
Descripción
type
Este valor de parámetro puede ser 0 o 1. 0
significa que el archivo se utiliza para
dividir los archivos de registro. 1 indica que
el conjunto de archivos se utiliza para anotar
los archivos de registro.
name
Nombre del conjunto de archivos.
id
Identificador de conjunto de archivos.
Por ejemplo, la operación devuelve los valores siguientes en formato JSON para un
conjunto de archivos:
{
"className": "com.ibm.tivoli..annotator.JavacoreAnnotator",
"fileType": 0, (- 0 para Java 1 para Script)
"fileName": "JavacoreExtractor_v1.1.0.1.jar",
"type": 1, (- 0 para Dividor 1 para Anotar)
"name": "Javacore-Annotate",
"id": 2
}
Crear (método POST)
Para crear un conjunto de archivos, utilice un método POST y el siguiente URL:
https://<servidor>:<puerto>/Unity/FileSets
Defina los valores de parámetro en formato JSON en el cuerpo de mensaje HTTP.
Por ejemplo:
{
"name": "Test",
"type": 0, (- 0 para Dividir 1 para Anotar)
"fileType": 0, (-0 Java 1 para Script)
"fileName": "db2-content.jar", (- Nombre de archivo Jar)
"className": "TestClass" (- Nombre de clase Java)
}
Los valores de entrada son los mismos que los que se especifican en la tabla 1,
excepto id. Este valor se genera cuando se crea el conjunto de archivos.
Actualizar (método PUT)
Para actualizar un conjunto de archivos, utilice un método de PUT y el URL
siguiente:
https://<servidor>:<puerto>/Unity/FileSets
Defina los valores de parámetro en formato JSON en el cuerpo de mensaje HTTP.
Los valores de entrada son los mismos que los que se especifican en la tabla 1,
excepto id. Este valor se genera cuando se crea el conjunto de archivos.
Suprimir (método DELETE)
Para suprimir un conjunto de archivos, utilice un método de DELETE y el URL
siguiente:
https://<servidor>:<puerto>/Unity/FileSets?id=<ID_conjunto_archivos>
364
IBM Operations Analytics - Log Analysis: Guía de instalación, configuración y administración
donde <ID_conjunto_archivos> es el ID del conjunto de archivos que desea
suprimir.
Tipos de origen
Puede utilizar varios métodos HTTP para cargar, crear, actualizar y suprimir tipos
de origen.
Cargar (método GET)
Para cargar un tipo de origen, utilice un método GET y el URL siguiente:
https://<servidor>:<puerto>/Unity/SourceTypes
Para cargar un tipo de origen único, utilice un método GET y el URL siguiente:
https://<servidor>:<puerto>/Unity/SourceTypes?id=<ID_tipo_origen>
donde <ID_tipo_origen> es el identificador del tipo de origen que desea cargar.
Los valores de entrada posibles se describen en la tabla:
Tabla 78. Parámetros de método GET
Parámetro
Descripción
indexingConfig
Entre la configuración de índice válida para
el archivo JSON.
inputType
Especifique el tipo de archivo que se ha
cargado. 0, que indica el archivo de registro,
es el único valor posible.
splitter:fileSet
Especifique el conjunto de archivos que el
separador utiliza para dividir los archivos de
registro.
splitter:ruleSet
Especifique el conjunto de reglas que el
separador utiliza para dividir los archivos de
registro.
splitter:type
Especifique el tipo de separador que se
utiliza. 0 significa que el archivo se utiliza
para dividir los archivos de registro. 1
significa que el archivo se utiliza para anotar
los archivos de registro.
name
Especifique el nombre del tipo de origen que
desea crear.
id
Especifique el identificador del tipo de
origen que desea cargar.
annotator:fileSet
Especifique el conjunto de archivos que el
anotador utiliza para anotar los archivos de
registro.
annotator:ruleSet
Especifique el conjunto de reglas que el
anotador utiliza para anotar los archivos de
registro.
annotator:type
Especifique el tipo de anotador que se
utiliza. 0 significa que el archivo se utiliza
para dividir los archivos de registro. 1
significa que el archivo se utiliza para anotar
los archivos de registro.
Administración
365
Tabla 78. Parámetros de método GET (continuación)
Parámetro
Descripción
annotator:postOnFailure
Especifique si desea que el anotador envíe
los resultados si el proceso de anotación
falla. El valor predeterminado es false.
Defina los valores de parámetro en formato JSON en el cuerpo de mensaje HTTP.
Por ejemplo:
{
"indexingConfig": {},
- JSON de configuración de índice válida
"inputType": 0,
- 0 para archivo de registro
"splitter": {
"fileSet": <ID_conjunto_archivos>,
"ruleSet": <ID_conjunto_reglas>,
"type": 1
- 0 para Dividir 1 para Anotar
},
"name": "Javacore",
"id": <id>,
"annotator": {
"fileSet": <ID_conjunto_archivos>,
"ruleSet": <ID_conjunto_reglas>,
"type": 1,
- 0 para Dividir 1 para Anotar
"postOnFailure": false
}}
Crear (método POST)
Para crear un tipo de origen, utilice un método POST y el URL siguiente:
https://<servidor>:<puerto>/Unity/SourceTypes
Defina los valores de parámetro en formato JSON en el cuerpo de mensaje HTTP.
Los valores son los mismos que los que figuran en la tabla 1. Por ejemplo:
{
"name": "Test",
"indexingConfig": {},
- JSON de configuración de índice válida
"inputType": 0,
- 0 para archivo de registro
"splitter": {
"ruleSet": <ID_conjunto_reglas>,
"fileSet": <ID_conjunto_archivos>
},
"annotator": {
"ruleSet": <ID_conjunto_reglas>,
"fileSet": <ID_conjunto_archivos>,
"postOnFailure": true
}}
Actualizar (método PUT)
Para actualizar un tipo de origen, utilice un método de PUT y el URL siguiente:
https://<servidor>:<puerto>/Unity/SourceTypes?id=<ID_tipo_origen>
donde <ID_tipo_origen> es el identificador del tipo de origen que desea actualizar.
Defina los valores de parámetro en formato JSON en el cuerpo de mensaje HTTP.
Los valores son los mismos que los que figuran en la tabla 1. La JSON de entrada
es la misma que la descrita para el método POST.
366
IBM Operations Analytics - Log Analysis: Guía de instalación, configuración y administración
Suprimir (método DELETE)
Para suprimir un tipo de origen, utilice un método DELETE y el URL siguiente:
https://<servidor>:<puerto>/Unity/SourceTypes?id=<ID_tipo_origen>
donde <ID_tipo_origen> es el identificador del tipo de origen que desea suprimir.
Colecciones
Puede utilizar varios métodos HTTP para cargar, crear, actualizar y suprimir
colecciones.
Cargar (métodos GET)
Para cargar una sola colección, utilice un método GET y el URL siguiente:
https://<servidor>:<puerto>/Unity/Collections
Para devolver una colección específica, utilice un método GET y el URL siguiente :
https://<servidor>:<puerto>/Unity/Collections?id=<ID_colección>
donde <ID_colección> es el ID de la colección que desea recuperar.
El método devuelve la información en formato JSON. Los valores devueltos se
listan en la tabla.
Tabla 79. Parámetros para el método GET
Parámetro
Descripción
indexingConfig
Valor de configuración de índice válido para
el archivo JSON.
sourceType
ID de tipo de origen de la colección
devuelta.
name
Nombre de la colección devuelta.
id
Identificador de la colección devuelta.
annotator
Este valor de parámetro puede ser 0 o 1. 0
significa que el tipo de origen se utiliza para
dividir los archivos de registro. 1 indica que
el tipo de origen se utiliza para anotar los
archivos de registro.
Por ejemplo:
{
"indexingConfig": null,
"sourceType": 15,
"name": "Javacore-Collection1",
"id": 1,
"annotator": 0
}
Crear (método POST)
Para crear una colección, utilice el método POST y el URL siguiente:
https://<servidor>:<puerto>/Unity/Collections
Defina los valores de parámetro en formato JSON en el cuerpo de mensaje HTTP.
Los valores de parámetro son:
Administración
367
Name
Especifique el nombre de la colección.
sourceType
Especifica el número que representa el tipo de origen nuevo.
Por ejemplo:
{
"name": "Test",
"sourceType": 6
}
Actualizar (método PUT)
Para actualizar una colección, utilice un método PUT y el URL siguiente:
https://<servidor>:<puerto>/Unity/Collections?id=<ID_colección>
donde <ID_colección> es el identificador de la colección que desea actualizar.
Defina los valores de parámetro actualizados en el formato JSON en el cuerpo de
mensaje HTTP. Los valores de parámetro y la JSON de entrada son los mismos que
los utilizados por el método POST.
Suprimir (método DELETE)
Para suprimir una colección, utilice un método de DELETE y el URL siguiente:
https://<servidor>:<puerto>/Unity/Collections?id=<ID_colección>
donde <ID_colección> es el identificador de la colección que desea suprimir.
Orígenes de datos
Puede utilizar varios métodos HTTP para cargar, crear, actualizar y suprimir
orígenes de datos.
Los orígenes de datos se denominan orígenes de registro en los archivos de API
REST.
Cargar (método GET)
Para cargar todos los orígenes de datos y las etiquetas asociadas, utilice un método
GET y el URL siguiente:
https://<servidor>:<puerto>/Unity/Logsources?pattern=*
Los orígenes de datos se devuelven en una matriz JSON. Los valores devueltos
para cada origen de datos se listan en la tabla.
Tabla 80. Valores devueltos para el método GET
368
Parámetro
Descripción
logsource_pk
ID del origen de registro.
name
Nombre de la etiqueta o del origen de
registro.
description
Descripción del origen de datos.
tag_id
ID de las etiquetas asociadas con el origen
de datos.
service_topology
Nombre de la jerarquía de grupos que está
asociada con el origen de datos.
IBM Operations Analytics - Log Analysis: Guía de instalación, configuración y administración
Por ejemplo:
[
{
"logsource_pk": 1,
"name": "_alerts",
"description": "Built-in datasource for indexing alerts",
"tag_id": 4,
"service_topology": ""
},
{
"logsource_pk": 2,
"name": "access1.log",
"description": "",
"tag_id": 7,
"service_topology": "service:cloud provider application
> middleware:webserver > hostname:cldegd58"
},
.....
]
Para cargar los detalles de un origen de datos especificado, utilice un método GET y
el URL siguiente:
https://<servidor>:<puerto/Unity/DataSourceConfig?datasourceconfigid=<pk_origen_registro>
donde <pk_origen_registro> es el ID del origen de registro que desea cargar.
Los orígenes de datos se devuelven en una matriz JSON. Los valores devueltos se
describen en la tabla siguiente:
Tabla 81. Valores devueltos
Valor devuelto
Descripción
description
Descripción del origen de datos.
configType
Tipo del origen de datos. Los valores son
custom, local y remote.
rollingfile
Si recopila los archivos de registro continuo
con este origen de datos, el valor es true. De
lo contrario, es false.
hostname
El nombre de host del servidor donde reside
el origen de datos.
password
La contraseña del nombre de usuario que
está asociado con el origen de datos.
sourceType
El número que representa el tipo de origen
que está asociado con el origen de datos.
datasourcepath
La vía de acceso completa y el nombre de
archivo para los registros del archivo de
registro que el origen de datos carga en Log
Analysis.
logsource_pk
ID del origen de registro.
name
Nombre del origen de datos.
filepattern
Patrón de archivo que está asociado con el
origen de datos.
collectionid
El identificador de la colección que está
asociada con el origen de datos.
Administración
369
Tabla 81. Valores devueltos (continuación)
Valor devuelto
Descripción
username
El ID del nombre de usuario que ha creado
los orígenes de datos.
group
El nombre de la jerarquía del grupos que
está asociada con el origen de datos, si
existe.
Por ejemplo:
{
"description": "",
"configType": "custom",
"rollingfile": false,
"hostname": "cldegd60",
"password": null,
"sourceType": 3,
"datasourcepath":
"DemoWinOSEvents/WinOSEvents.txt",
"logsource_pk": 11,
"name": "sample-WinOS-events",
"filepattern": null,
"collectionId": 24,
"username": null,
"group": ""
}
Crear (método POST)
Para crear un origen de datos nuevo, utilice un método POST y el URL siguiente:
https://<servidor>:<puerto>/Unity/DataSourceConfig
Defina los valores de parámetro en formato JSON en el cuerpo de mensaje HTTP.
Los parámetros de entrada se listan en la tabla.
Tabla 82. Parámetros de entrada para el método POST
370
Parámetro
Descripción
configType
Tipo del origen de datos. Debe utilizar
custom.
hostname
Nombre de host de la máquina donde
residen los datos que el origen de datos
recopila.
username
Nombre de usuario que se asocia con el
origen de datos. Este parámetro es opcional.
password
Contraseña asociada con el nombre de
usuario. Este parámetro es opcional.
datasourcepath
Vía de acceso completa y nombre del
archivo de registro cargado por este origen
de datos.
sourceType
Identificador del tipo de origen que está
asociado con el origen de datos.
rollingfile
Si desea utilizar el origen de datos para
recopilar archivos de registro continuo,
establezca este parámetro en True. Si no lo
desea, establézcalo en False.
filepattern
Patrón de archivo que está asociado con el
origen de datos. Este parámetro es opcional.
IBM Operations Analytics - Log Analysis: Guía de instalación, configuración y administración
Tabla 82. Parámetros de entrada para el método POST (continuación)
Parámetro
Descripción
name
Nombre del origen de datos.
description
Descripción del origen de datos. Este
parámetro es opcional.
group
Nombre de la jerarquía de grupos que está
asociada con el origen de datos. Este
parámetro es opcional.
Por ejemplo:
{
"configType": "local",
"hostname": "example.com",
"username": null,
"password": null,
"datasourcepath":
"/home/...../SystemOut2.log",
"sourceType": <ID tipo de origen>,
"rollingfile": false,
"filepattern": null,
"name": "Test",
"description": "",
"group": ""
}
La tabla siguiente resume algunos de los códigos de respuesta. El código de error
para todos estos errores es 400 (Bad request).
Tabla 83. Códigos de respuesta para métodos POST
Ejemplo de respuesta de
API en JSON
Error
JSON de entrada
El ID de tipo de origen que
se especifica en el JSON de
entrada no es válido.
“sourceType”
{“isvalid”:true,“message”:
“CTGLA0773E : El ID de
tipo de origen no es
válido”
“<ID_tipo_origen>”}
El ID de colección que se
especifica en el JSON de
entrada no es válido.
“collectionID”
{“isvalid”:true,“message”:
“CTGLA0774E : ID de
recopilación no
válido”“<id_recopilación>”}
La combinación de nombre
“hostname” y
de host y vía de acceso de
“datasourcepath”
registro ya se está utilizando.
{“isvalid”:true,“message”:
“CTGLA0750E: Ya existe el
origen de datos de esta
combinación de nombre de
host y vía de acceso
(<nombre_host>,
<vía_acceso_registro>”}
El nombre de origen de
datos que se especifica en el
JSON de entrada ya se está
utilizando.
{“isvalid”:true,“message”:
“CTGLA0759E: Ya existe un
origen de registro con el
nombre
<nombre_origen_datos>”}
“name”
Administración
371
Tabla 83. Códigos de respuesta para métodos POST (continuación)
Error
JSON de entrada
La entrada de nombre de
“name”
origen de datos que se
especifica en el JSON está en
blanco y contiene más de 30
caracteres.
Ejemplo de respuesta de
API en JSON
{“isvalid”:true,“message”:
“CTGLA0775E: El nombre de
origen de datos no debe
estar en blanco o tener
más de 30 caracteres”}
Actualizar (método PUT)
Para actualizar un origen de datos, utilice un método PUT y el URL siguiente:
https://<servidor>:<puerto>/Unity/DataSourceConfig
Defina los valores de parámetro en formato JSON en el cuerpo de mensaje HTTP.
Los valores de entrada son los especificados en la tabla 3.
Tabla 84. Parámetros de entrada para el método POST
Parámetro
Descripción
logsource_pk
El identificador del origen de registro que
desea cargar.
configType
Tipo del origen de datos. Este debe ser
custom.
hostname
Nombre de host de la máquina donde
residen los datos que el origen de datos
recopila.
username
Nombre de usuario que se asocia con el
origen de datos. Este parámetro es opcional.
password
Contraseña asociada con el nombre de
usuario. Este parámetro es opcional.
datasourcepath
Vía de acceso completa y nombre del
archivo de registro cargado por este origen
de datos.
sourceType
Identificador del tipo de origen que está
asociado con el origen de datos.
rollingfile
Si desea utilizar el origen de datos para
recopilar archivos de registro continuo,
establezca este parámetro en True. Si no lo
desea, establézcalo en False.
filepattern
Patrón de archivo que está asociado con el
origen de datos. Este parámetro es opcional.
name
Nombre del origen de datos.
description
Descripción del origen de datos. Este
parámetro es opcional.
group
Nombre de la jerarquía de grupos que está
asociada con el origen de datos. Este
parámetro es opcional.
Por ejemplo:
{
"description": "",
"configType": "local",
"rollingfile": false,
372
IBM Operations Analytics - Log Analysis: Guía de instalación, configuración y administración
"hostname":"nc91209819.in.ibm.com",
"password": null,
"sourceType":"7",
"datasourcepath":"/home/unity/IBM/db2diag.log",
"logsource_pk":1,
"name":"sample-db2",
"filepattern": null,
"collectionId":14,
"username": null,
"group":"Service:IPO"
}
Suprimir (método DELETE)
Para actualizar un origen de datos, utilice un método DELETE y el URL siguiente:
https://<servidor>:<puerto>/Unity/DataSourceConfig?logsource_pk
=<pk_origen_registro>
donde <pk_origen_registro> es el identificador del origen de registro que desea
suprimir.
API REST para búsquedas asíncronas
Puede utilizar métodos HTTP como POST, GET y DELETE para personalizar las
búsquedas asíncronas.
Método GET
Puede utilizar el método GET para devolver los detalles de todas las búsquedas
actuales.
El ID de usuario está implícito durante la autenticación cuando se llama al método.
El método GET devuelve la información que está contenida en las propiedades de
solicitud de búsqueda.
Puede utilizar la propiedad currentState para determinar el estado de una
búsqueda.
Valores de solicitud
La Tabla 1 describe los valores que debe especificar en la solicitud.
Tabla 85. Valores de solicitud para GET
Nombre
Tipo
Valor
predeterminado
Size
Número
30
Indica el número
máximo de registros
que se devuelven.
Para devolver todos
los registros,
especifique -1.
Start
Número
0
Número de índice
para el primer
registro que se
devuelve.
Descripción
Administración
373
Valores devueltos
La Tabla 2 describe los valores devueltos por la función.
Tabla 86. Valores devueltos para GET
Atributo
Descripción
currentState
Devuelve el estado de una búsqueda. Los
valores posibles son QUEUED, PARSING,
RUNNING, PAUSED, FINALIZING, FAILED, DONE.
completionProgress
Un número de 1 a 100 que indica una
aproximación del progreso de la búsqueda.
isDone
Indica que la búsqueda ha finalizado.
isFailed
Indica que la búsqueda ha fallado con un
error no recuperable. Por ejemplo, si la serie
de búsqueda utiliza una sintaxis incorrecta.
isPaused
Indica que la búsqueda está en pausa.
messages
Contiene los mensajes de error y depuración
que se generan durante la búsqueda.
priority
Un número de 1 a 10 que indica la prioridad
de la búsqueda.
searchRequest
Lista el archivo JSON que se utiliza para
definir la búsqueda.
Método POST
Puede utilizar el método POST para iniciar una búsqueda y devolver el ID de
solicitud de búsqueda.
Utilice el parámetro search para especificar un archivo JSON. El archivo especifica
una consulta de búsqueda que contiene información sobre la serie de búsqueda, el
filtro de tiempo, las facetas, etc.
La función devuelve el ID de solicitud de búsqueda. Puede añadir estas
modificaciones al URL de búsqueda para ver y gestionar la búsqueda. La Tabla 1
resume estas modificaciones.
Tabla 87. Modificaciones de URL de búsqueda
374
Modificación de URL
Descripción
search/<ID_solicitud_búsqueda>
Vea el estado de la solicitud de búsqueda.
search/<ID_solicitud_búsqueda>/<acción>
Ejecute los mandatos de acción que
especifique en el parámetro <acción>.
Algunas acciones posibles son poner en
pausa, cancelar y ver previamente.
search/<ID_solicitud_búsqueda>/results
Vea los resultados de búsqueda.
IBM Operations Analytics - Log Analysis: Guía de instalación, configuración y administración
Valores de solicitud
La Tabla 2 describe los valores que debe especificar en la solicitud.
Tabla 88. Valores de solicitud para la función POST
Nombre
Tipo
Valor
predeterminado
search
JSON
n/d
Archivo JSON que
especifica los detalles
de consulta de
búsqueda como la
serie de búsqueda, el
filtro de tiempo, las
facetas, etc. La
especificación de
JSON es necesaria
para esta función.
mode
Enumeración
normal
Los valores válidos
son blocking y async.
Si la modalidad está
establecida en async,
la búsqueda se
ejecuta
asíncronamente. Si la
modalidad está
establecida en
blocking, la función
devuelve el ID de
solicitud de
búsqueda cuando la
búsqueda finaliza.
timeout
Número
86400
Número de segundos
durante los que la
búsqueda se retiene
hasta después de que
se detenga el
proceso.
Descripción
Valores devueltos
Si se ejecuta de forma satisfactoria, la función devuelve el estado y el ID de
solicitud de servicio. Si no se ejecuta de forma satisfactoria, la función devuelve un
código de error.
Método DELETE/search/<ID_solicitud_búsqueda>
Puede utilizar el método DELETE/search/<ID_solicitud_búsqueda> para suprimir la
búsqueda especificada por el método GET.
Valores de solicitud
No es necesario especificar parámetros para la solicitud. La operación suprime la
solicitud de búsqueda que se especifica en la operación GET.
Administración
375
Códigos de respuesta
Los dos códigos de respuesta posibles se describen en la tabla 1.
Tabla 89. Códigos de respuesta
Código de estado
Descripción
200
La búsqueda se ha suprimido
satisfactoriamente.
404
La solicitud de búsqueda no existe.
Valores devueltos
La operación devuelve los mismos valores que la operación GET. Para obtener más
información, consulte “Método GET” en la página 373.
Método GET/search/<ID_solicitud_búsqueda>
Puede utilizar el método GET/search/<ID_solicitud_búsqueda> para devolver
detalles acerca de la solicitud de búsqueda que está asociada con el usuario que
ejecuta la llamada.
El método devuelve información sobre las propiedades de solicitud de búsqueda
como, por ejemplo, el tiempo que se tarda en completar la búsqueda.
Los parámetros para POST /search proporcionan detalles sobre las propiedades de
búsqueda al crear una búsqueda.
Valores de solicitud
No hay valores de solicitud porque la operación utiliza el ID del usuario que
ejecuta la operación para identificar el ID de solicitud de búsqueda.
Códigos de respuesta
En la tabla 1 se describen los códigos de respuesta.
Tabla 90. Códigos de respuesta
Código de estado
Descripción
200
La solicitud de búsqueda se ha recuperado
satisfactoriamente.
403
No se puede recuperar la solicitud de
búsqueda. El usuario no tiene la
autorización para ver la solicitud de
búsqueda.
404
La solicitud de búsqueda no existe.
Valores de retorno
La operación también devuelve un archivo JSON que contiene información acerca
de la solicitud de búsqueda.
Método POST/search/<ID_solicitud_búsqueda>/acción
Puede utilizar el método POST/search/<ID_solicitud_búsqueda>/acción para
solicitar una acción para una solicitud de búsqueda específica.
376
IBM Operations Analytics - Log Analysis: Guía de instalación, configuración y administración
Valores de solicitud
La Tabla 1 resume los valores de solicitud que puede utilizar con esta operación.
Tabla 91. Valores de solicitud
Nombre
Tipo
Valor
predeterminado
name
Enumeración
n/d
Descripción
La acción que se
lleva a cabo. Los
valores válidos son
pause, unpause,
cancel, setpriority
Los valores siguientes son válidos para la solicitud name:
pause
Suspende la búsqueda actual.
unpause
Reanuda la búsqueda actual si está en pausa.
cancel Detiene la búsqueda actual y suprime los resultados almacenados en
memoria caché.
setpriority
Establece la prioridad de la solicitud de búsqueda. Este valor puede ser
cualquier valor de 1 a 10.
Códigos de respuesta
Los códigos de respuesta se describen en la tabla 2.
Tabla 92. Códigos de respuesta
Código de estado
Descripción
200
Búsqueda actualizada satisfactoriamente.
403
El usuario no tiene la autorización necesaria
para editar la solicitud de búsqueda.
404
La solicitud de búsqueda especificada no
existe.
Valores devueltos
La operación devuelve el estado de la solicitud de búsqueda y los mensajes
relacionados.
Método GET/search/<ID_solicitud_búsqueda>/results
Puede utilizar el método GET/search/<ID_solicitud_búsqueda>/resultados para
devolver los resultados de la solicitud de servicio especificada en el momento en
que se realiza la solicitud.
Administración
377
Códigos de respuesta
En la tabla 1 se describen los códigos de respuesta.
Tabla 93. Códigos de respuesta
Código de estado
Descripción
200
Los resultados se devuelven
satisfactoriamente.
204
La búsqueda existe pero los resultados de
búsqueda no están preparados. Ejecute la
solicitud de nuevo.
403
El usuario no tiene la autorización necesaria
para visualizar la solicitud de búsqueda
especificada.
404
La solicitud de búsqueda especificada no
existe.
Valores devueltos
La solicitud devuelve el estado y los valores relacionados. Por ejemplo, una
solicitud satisfactoria devuelve el archivo JSON que contiene los resultados de
búsqueda y las facetas relacionadas.
378
IBM Operations Analytics - Log Analysis: Guía de instalación, configuración y administración
Avisos
Esta información se ha desarrollado para productos y servicios ofrecidos en EE.UU.
Es posible que IBM no ofrezca los productos, servicios o las características que se
describen en este documento en otros países. Consulte a su representante local de
IBM la información sobre los productos y servicios disponibles actualmente en su
área. Cualquier referencia a un producto, programa o servicio de IBM no pretende
afirmar ni implicar que solamente se pueda utilizar ese producto, programa o
servicio de IBM. En su lugar, se puede utilizar cualquier producto, programa o
servicio funcionalmente equivalente que no infrinja ninguno de los derechos de
propiedad intelectual de IBM. Sin embargo, es responsabilidad del usuario evaluar
y verificar el funcionamiento de los productos, programas o servicios que no sean
de IBM.
IBM puede tener patentes o solicitudes de patente pendientes que cubran la
materia descrita en este documento. La posesión de este documento no le otorga
ninguna licencia sobre tales patentes. Puede enviar consultas sobre licencias, por
escrito, a:
IBM Director of Licensing
IBM Corporation
North Castle Drive, MD-NC119
Armonk, NY 10504-1785
EE.UU.
Para consultas sobre licencias relativas a la información del conjunto de caracteres
de doble byte (DBCS), póngase en contacto con el departamento de propiedad
intelectual de IBM en su país o envíe las consultas, por escrito, a:
Intellectual Property Licensing
Legal and Intellectual Property Law
IBM Japan Ltd.
19-21, Nihonbashi-Hakozakicho, Chuo-ku
Tokio 103-8510, Japón
El siguiente párrafo no se aplica al Reino Unido ni a ningún otro país donde
tales disposiciones sean incompatibles con la legislación local:
INTERNATIONAL BUSINESS MACHINES CORPORATION PROPORCIONA
ESTA PUBLICACIÓN "TAL CUAL" SIN GARANTÍA DE NINGUNA CLASE, NI
EXPLÍCITA NI IMPLÍCITA, INCLUYENDO, PERO SIN LIMITARSE A, LAS
GARANTÍAS IMPLÍCITAS DE NO INFRACCIÓN, COMERCIALIZACIÓN O
IDONEIDAD PARA UN PROPÓSITO DETERMINADO. Algunos países no
permiten la declaración de limitación de responsabilidad de las garantías explícitas
o implícitas en determinadas transacciones, por lo que puede esta declaración no
se aplique a su caso.
Esta información puede contener imprecisiones técnicas o errores tipográficos.
Periódicamente se realizan cambios en la información aquí contenida; estos
cambios se incorporarán en nuevas ediciones de la publicación. IBM puede realizar
en cualquier momento mejoras o cambios en los productos o programas descritos
en esta publicación sin previo aviso.
© Copyright IBM Corp. 2015
379
Todas las referencias hechas en este documento a sitios web que no son de IBM se
proporcionan únicamente a título informativo y no representan en modo alguno
una recomendación de dichos sitios web. Los materiales que se encuentran en estos
sitios web no forman parte de los materiales de este producto IBM y su utilización
es por cuenta y riesgo del usuario.
IBM puede utilizar o distribuir cualquier información que se le proporcione en la
forma que considere adecuada, sin incurrir por ello en ninguna obligación para con
el remitente.
Los titulares de licencias de este programa que deseen obtener información sobre el
mismo con el fin de permitir: (i) el intercambio de información entre programas
creados independientemente y otros programas (incluido éste) y (ii) el uso mutuo
de información que se ha intercambiado, deben ponerse en contacto con:
IBM Corporation
2Z4A/101
11400 Burnet Road
Austin, TX 78758 EE.UU.
Tal información podría estar disponible, de acuerdo con los términos y condiciones
adecuados, e incluir en algunos casos el pago de una tarifa.
El programa bajo licencia que se describe en este documento y todo el material
bajo licencia disponible los proporciona IBM bajo los términos de las Condiciones
Generales de IBM, el Acuerdo Internacional de Programas Bajo Licencia de IBM o
cualquier acuerdo equivalente entre las partes.
Los datos de rendimiento incluidos en este documento se han obtenido en un
entorno controlado. Por tanto, los resultados obtenidos en otros entornos
operativos pueden variar de forma significativa. Algunas mediciones pueden
haberse efectuado en sistemas a nivel de desarrollo y no es seguro que esas
mediciones sean las mismas en sistemas disponibles a nivel general. Además,
algunas mediciones pueden haberse calculado mediante extrapolaciones. Los
resultados reales pueden variar. Los usuarios de este documento deben verificar
los datos aplicables a su entorno específico.
La información relativa a productos que no son de IBM se ha obtenido de los
proveedores de estos productos, sus anuncios publicados y otras fuentes
públicamente disponibles. IBM no ha probado esos productos y no puede
confirmar la exactitud del rendimiento, la compatibilidad ni ninguna otra
declaración relacionada con productos que no sean de IBM. Las preguntas sobre
las características de productos que no son de IBM deben dirigirse a los
proveedores de dichos productos.
Todas las declaraciones relativas a la dirección o intención futura de IBM están
sujetas a cambio o pueden retirarse sin previo aviso y representan sólo propósitos
y objetivos.
Todos los precios de IBM mostrados son precios actuales de venta al por menor
sugeridos por IBM y sujetos a modificaciones sin previo aviso. Los precios de los
distribuidores pueden variar.
Esta información sólo está destinada a la planificación. La información incluida en
este documento puede cambiar antes de que los productos descritos estén
disponibles.
380
IBM Operations Analytics - Log Analysis: Guía de instalación, configuración y administración
Esta información contiene ejemplos de datos e informes utilizados en operaciones
comerciales cotidianas. Para ilustrarlos del modo más completo posible, los
ejemplos incluyen nombres de personas, empresas, marcas y productos. Todos
estos nombres son ficticios y cualquier similitud con los nombres y las direcciones
utilizados por una empresa real es pura coincidencia.
LICENCIA DE COPYRIGHT:
Esta información contiene programas de aplicación de ejemplo escritos en lenguaje
fuente, que ilustran técnicas de programación para diversas plataformas operativas.
Puede copiar, modificar y distribuir libremente estos programas de ejemplo, sin
pagar por ello a IBM, con la finalidad de desarrollar, utilizar, comercializar o
distribuir programas de aplicación conformes a las interfaces de programación de
aplicaciones para la plataforma operativa para la que se han escrito los programas
de ejemplo. Estos ejemplos no se han probado de forma exhaustiva en todas las
condiciones. Por lo tanto, IBM no puede garantizar ni certificar la fiabilidad, el
servicio o el funcionamiento de estos programas. Los programas de ejemplo se
proporcionan "TAL CUAL", sin garantía de ningún tipo. IBM no es responsable de
ningún daño resultante de la utilización de los programas de ejemplo por parte del
usuario.
© Copyright IBM Corp. 2015. Reservados todos los derechos.
Marcas registradas
IBM, el logotipo de IBM e ibm.com son marcas registradas o marcas comerciales
registradas de International Business Machines Corp., registradas en muchas
jurisdicciones en todo el mundo. Otros nombres de productos y servicios pueden
ser marcas registradas de IBM o de otras compañías. En la web encontrará una
lista actualizada de marcas registradas de IBM, en www.ibm.com/legal/
copytrade.shtml.
Términos y condiciones de la documentación del producto
El permiso para utilizar estas publicaciones se otorga de acuerdo a los siguientes
términos y condiciones.
Aplicabilidad
Estos términos y condiciones son adicionales a los términos y condiciones de uso
del sitio web de IBM.
Uso personal
Puede reproducir estas publicaciones para su uso personal, no comercial, siempre y
cuando se conserven todos los avisos de propiedad. No puede distribuir, mostrar
ni realizar trabajos derivados de estas publicaciones, ni de ninguna parte de las
mismas, sin el consentimiento explícito de IBM.
Uso comercial
Puede reproducir, distribuir y visualizar estas publicaciones únicamente dentro de
su empresa, siempre y cuando se preserven todos los avisos de propiedad. No
puede llevar a cabo ningún trabajo derivado de estas publicaciones ni reproducir,
distribuir ni exponer estas publicaciones, ni ninguna parte de éstas, fuera de la
empresa sin el consentimiento explícito de IBM.
Avisos
381
Derechos
Salvo si se indica lo contrario expresamente en este permiso, no se otorgan más
permisos, licencias o derechos, expresos o implícitos, para las publicaciones o la
información, datos, software y otras propiedades intelectuales contenidos en este
documento.
IBM se reserva el derecho de revocar los derechos otorgados por medio de este
documento en cualquier momento en que, a su discreción, el uso de las
publicaciones vaya en detrimento de su interés o, según determine IBM, las
instrucciones indicadas anteriormente no se cumplan de forma adecuada.
No puede descargar, exportar o volver a exportar esta información a menos que
cumpla todas las leyes y regulaciones pertinentes, incluidas todas las leyes y
regulaciones de exportación de Estados Unidos.
IBM NO GARANTIZA EL CONTENIDO DE ESTAS PUBLICACIONES. LAS
PUBLICACIONES SE PROPORCIONAN "TAL CUAL" Y SIN GARANTÍA DE
NINGUNA CLASE, NI EXPLÍCITA NI IMPLÍCITA, INCLUYENDO PERO SIN
LIMITARSE A, LAS GARANTÍAS IMPLÍCITAS DE COMERCIALIZACIÓN, NO
VULNERACIÓN E IDONEIDAD Y ADECUACIÓN A UN PROPÓSITO
DETERMINADO.
Declaración de privacidad en línea de IBM
Consideraciones sobre la política de privacidad
Los productos de software de IBM, incluido el software como solución de servicios,
(“Ofertas de software”), pueden utilizar cookies u otras tecnologías para recopilar
información de uso del producto, ayudar a mejorar la experiencia de usuario final,
adaptar las interacciones al usuario final, o a otros fines. En muchos casos, las
Ofertas de software no recopilan información de identificación personal. Algunas
de nuestras ofertas de software pueden ayudarle a recopilar información de
identificación personal. Si esta Oferta de software utiliza cookies para recopilar
información de identificación personal, a continuación se muestra información
específica sobre la utilización de cookies por parte de esta oferta.
En función de las configuraciones desplegadas, esta Oferta de software puede
utilizar cookies de sesión y persistentes que recopilen el nombre de usuario y la
contraseña de cada usuario para fines de gestión de sesiones, autenticación, mejora
de la usabilidad del usuario y configuración de inicio de sesión único. Estas
cookies no pueden inhabilitarse.
Si las configuraciones desplegadas para esta Oferta de software le ofrecen como
cliente la posibilidad de recopilar información de identificación personal de los
usuarios finales mediante cookies y otras tecnologías, debe buscar asesoramiento
jurídico sobre la legislación aplicable a esa recopilación de datos, que incluye
cualquier requisito de aviso y consentimiento.
Para obtener más información sobre el uso de diversas tecnologías, incluidas las
cookies, para estos fines, consulte la política de privacidad de IBM en
http://www.ibm.com/privacy y la Declaración de privacidad en línea de IBM en
http://www.ibm.com/privacy/details en las secciones “Cookies, Web Beacons and
Other Technologies” e “IBM Software Products and Software-as-a-Service Privacy
Statement” en http://www.ibm.com/software/info/product-privacy.
382
IBM Operations Analytics - Log Analysis: Guía de instalación, configuración y administración
Marcas registradas
IBM, el logotipo de IBM e ibm.com son marcas registradas de International
Business Machines Corp., registradas en muchas jurisdicciones en todo el mundo.
Otros nombres de productos y servicios pueden ser marcas registradas de IBM o
de otras compañías. Una lista actual de las marcas registradas de IBM está
disponible en la web en “Copyright and trademark information” en
www.ibm.com/legal/copytrade.shtml.
Adobe, Acrobat, PostScript y todas las marcas registradas basadas en Adobe son
marcas registradas de Adobe Systems Incorporated en EE.UU. y/o en otros países.
Java y todas las marcas registradas y los logotipos basados en Java son
marcas registradas de Oracle y/o sus filiales.
Linux es una marca registrada de Linus Torvalds en EE.UU. y/o en otros países.
Microsoft, Windows, Windows NT y el logotipo de Windows son marcas
registradas de Microsoft Corporation en EE.UU. y/o en otros países.
UNIX es una marca registrada de The Open Group en EE.UU. y en otros países.
Otros nombres de productos y servicios pueden ser marcas registradas de IBM o
de otras compañías.
Avisos
383
384
IBM Operations Analytics - Log Analysis: Guía de instalación, configuración y administración
IBM®
Número de Programa:
Impreso en España
Descargar