Sistemas de representación de mapas de posicionamiento bursátiles. Aplicaciones a empresas del IBEX 35. MAPIBEX Autor: ROBERTO ALONSO LUNA MADRID, JUNIO DE 2007 Autorizada la entrega del proyecto del alumno: Roberto Alonso Luna 20 de junio de 2007 EL DIRECTOR DEL PROYECTO Fdo.: Carlos Maté Jiménez Vº Bº del Coordinador de Proyectos Fdo.: Claudia Meseguer Velasco Fecha: 20/ 06 / 07 Agradecimientos A Jacobo, Oliver y don Eugenio que con su colaboración desinteresada han colaborado a elaborar este proyecto, y especialmente a mi madre. Resumen del Proyecto Actualmente los mercados bursátiles han cobrado especial importancia, debido al aumento del número de inversores. Estos inversores ya no sólo son los broker y las compañías financieras, sino también familias y pequeños inversores. Según las teorías tradicionales de inversión, las habilidades necesarias para obtener beneficios de una inversión son psicología, manejo del dinero y método. Y la mayoría de los métodos coinciden en la necesidad de manejar una información adecuada. Sin embargo, la información que habitualmente se ofrece requiere un gran nivel de conocimiento de los mercados financieros y no es muy intuitiva, por lo que muchos pequeños inversores tendrán problemas para el análisis de dicha información. MAPIBEX pretende simplificar dicho análisis y hacerlo accesible a un mayor número de usuarios. Los antecedentes son los mapas preceptuales usados en Marketing, obtenidos mediante análisis de correspondencias, cuyas principales cualidades son su claridad y ser muy intuitivos. Partiendo de la realidad anterior, y la investigación desarrollada hasta la fecha por el equipo del Profesor Carlos Maté en el área de investigación de mercados, el proyecto consiste en el desarrollo de un sistema informático para tratar adecuadamente la información disponible de las cotizaciones en Yahoo Finanzas. El desarrollo del sistema se ha realizado utilizando para ello la plataforma estadística Xlstat y el programa Matlab, ambos muy extendidos entre investigadores de ámbito tanto profesional como académico. Aprovechando las posibilidades de este entorno, el sistema proporciona mapas del mercado financiero español que permite evaluar el posicionamiento de las empresas, e índices respecto a sus variaciones, y la influencia en el mercado de su volumen monetario negociado y del reparto de dividendos. Todo este sistema está acompañado de una propuesta de interfaz de usuario realizada con Matlab, una plataforma y lenguaje de programación que permitirá una extensión del producto a ámbitos más generales. El proyecto actual continúa un trabajo de investigación y desarrollo iniciado cuatro años antes del inicio del mismo. Surge como idea a partir de una herramienta ya existente en el mercado, que incorpora alguna de las características desarrolladas a lo largo del proyecto, sin embargo su aplicación al análisis de los mercados financieros resulta completamente novedosa y permite obtener unos resultados muy satisfactorios. Abstract Nowadays financial markets are becoming very important, due to the increase of the number of investors. These investors are not only brokers and large investment banks, there also many families and small investors. According to traditional investment theories, the requested skills to obtain benefits of an invest, are mind, money management and method. And the most of these methods agree that is extremely necessary managing appropriate information. However the information that is usually given requires a large knowledge about financial markets, in fact it is a hard work to analyze financial news. Therefore many small investors will have a problem in order to analyze this information. MAPIBEX tries to simplify this analysis and to make it accessible to a large number of investors. The antecedents of this project are perceptual maps used in Marketing. These maps are designed applying correspondence analysis and some main characteristics of perceptual maps are polyvalency and also to be very intuitive. Taking into consideration the already described situation, and the research undertaken up to date by Prof. Carlos Maté in the marketing research area, the current project consists on development of a new software to adequately treat the financial market information available in Yahoo Finanzas. The development of the system has been done making an intensive use of Xlstat and Matlab, which are widely used both in corporative and educational environments. Taking advantage of this environment, the developed software offers Spanish financial markets maps that allow investors to evaluate the company and index positioning, with regard to variation, and the influence in the equity´s prize of the dealt volume and giving dividends. A graphical user interface prototype for the system has been designed using the Matlab environment. This platform permits an easy portability of the current system to other operating systems or hardware settings. The following project continues the investigative and developing work started four years before. An existing product in the market with some of the features developed in the current system gave the idea for this project. However applying in financial markets in analysis is absolutely new and obtains very satisfactory results. Índice 1 Motivación y Objetivos del proyecto 1 1.1 Motivación 1 1.2 Objetivos 2 2 Las bolsas de valores 4 2.1) La bolsa en España 4 2.1.1) Historia de la bolsa en España 4 2.1.2) Funcionamiento de la bolsa en España 6 2.1.3) El sistema SIBE 9 2.2) El IBEX-35 11 2.3) Otros índices 14 2.3.1) Índices nacionales 14 2.3.2) Índices internacionales 15 3 Técnicas gráficas de inversión bursátil 21 3.1 Tendencia 21 3.2 Tipos de gráficos 21 3.2.1 Gráficos lineales 23 3.2.2 Gráficos de barra 24 3.2.3 Gráfico de punto y cifra 35 3.2.4 Gráficos de subida bajada 37 3.3 Indicadores técnicos 38 3.3.1 Medias móviles 39 3.3.2 Osciladores 41 4 Parámetros bursátiles 45 4.1 Volatilidad 45 4.1.1) Técnicas para predecir la volatilidad 46 4.2) Correlación 49 4.3) Riesgo y estrategias de gestión de carteras 50 4.3.1) Riesgo de una cartera 50 4.3.2) Estrategias de gestión de carteras 51 4.4) Creación de valor 53 4.5) Volumen bursátil 55 5 Métodos de análisis multivariante usados en el análisis de mercados 57 5.1 Análisis de Correspondencias 57 5.1.1) Matriz de correspondencias y filas y columnas marginales 60 5.1.2) Perfiles marginales y condicionales 62 5.1.3) Dependencia e interdependencia mediante Pearson Chi-Cuadrado 64 5.1.4) Inercia total 65 5.1.5) Coordenadas de los perfiles fila y columna 66 5.1.6) Contribuciones parciales a la Inercia Total 67 5.1.7) Cosenos al cuadrado 68 5.1.8) Principio de la distribución equivalente 69 5.1.9) Aproximación generalizada de los menores cuadrados 69 5.1.10) Filas y columnas de desviaciones y autovectores 70 5.2) Escalado Multidimensional 70 5.2.1) Proceso del escalado multidimensional 72 5.2.2) Interpretación de los resultados del escalado multidimensional 77 5.3 Análisis de Componentes principales 5.3.1) Proceso del análisis de Componentes Principales 78 80 5.3.2) Representación gráfica del análisis de componentes principales 81 5.4 Análisis Factorial 82 5.4.1) El Análisis Factorial frente a otros métodos de análisis 83 5.4.2) Formulación del problema de Análisis Factorial 84 5.4.3) Proceso del Análisis Factorial 85 5.4.4) Rotación de factores 86 5.4.5) Representación gráfica del análisis factorial 88 5.5 Análisis Cluster 89 5.5.1) Proceso del análisis Cluster 90 5.5.3) Métodos jerárquicos frente no jerárquicos 95 5.6) Mapas Perceptuales 5.6.1) Interpretación de los mapas perceptuales 96 96 6 Desarrollo de la herramienta y caso práctico 99 6.1) Software empleado 99 6.1.1) Excel 99 6.1.2) Matlab 100 6.1.3) Xlstat 101 6.2) Técnicas empleadas 102 6.2.1) Análisis de Correspondencias 102 6.2.2) Técnicas de Interdependencia 103 6.2.3) Coeficiente de variación 105 6.3) Niveles de la herramienta 106 6.4) Caso práctico 108 7 Manual del Usuario 117 7.1) Pasos previos al uso de MAPIBEX 117 7.2) Captura y transformación de los datos 118 7.3) Obtención de la tabla de contingencia. Niveles de uso. 121 7.4) Obtención del mapa de representación y análisis de dependencia 125 8) Conclusiones 129 8.1) Conclusiones generales derivadas del uso de MAPIBEX 129 8.2) Conclusiones particulares derivadas del uso de MAPIBEX 130 9) Bibliografía 131 10) Anexos 133 Índice de figuras 2.1) Organización del mercado español 8 3.1) Gráfico lineal de nivel del IBEX-35 24 3.2) Construcción de un gráfico de barras 25 3.3) Gráfico de barras con información del volumen negociado 26 3.4) Dos candlestick de cierre mayor que apertura y de apertura mayor que cierre 26 3.5) Martillo (hammer) 28 3.6) Martillo invertido (invertid hammer) 28 3.7) Hombre colgado (hanging man) 29 3.8) Estrella fugaz seguida de martillo 29 3.9) Envolvente alcista 30 3.10) Envolvente bajista 31 3.11) Nube oscura (dark cloud cover) 32 3.12) Harami 33 3.13) Estrella 34 3.14) Lucero del alba (morning star) 34 3.15) Estrellas Doji 35 3.16) Mañana Doji Star 35 3.17) Estrella vespertina ( evening star) 36 3.18) Estrella Doji de por la tarde 36 3.19) Gráfico de punto y cifra 37 4.1) Diagrama de dispersión: indica una posible relación lineal 50 5.1) Gráfico de los factores en el espacio factorial rotado 88 5.2) Dendograma 89 5.3) Mapa perceptual 82 6.1) Mapa perceptual 115 7.1) Descarga de copia de evaluación Xlstat 117 7.2) Se han de rellenar varios datos para descargar el Xlstat 117 7.3) Instalación del Xlstat, se deberá especificar la localización 118 7.4) Captura de datos de Yahoo Finanzas 118 7.5) Inicio de MAPIBEX 121 7.6) Pantalla de inicio de MAPIBEX 122 7.7) Selección de número de empresas y resultados a obtener 122 7.8) Selección de empresas y semanas límites de estudio 123 7.9) Fecha límite, si la fecha de origen del estudio es 07/05/2007 se deberá introducir como origen en Acerinox el número de fila, esto es,2. 123 7.10) Error causado por un error en la introducción de fechas 124 7.11) En caso de que aparezca este símbolo en Matlab tras una lectura de datos o al obtener resultados se deberá esperar unos segundos para continuar. 124 7.12) Resultados obtenidos en Excel. 126 7.13) Análisis Factorial de Correspondencias 126 7.14) Representación gráfica 127 7.15) Pruebas de independencia sobre tabla de contingencia 127 Índice de tablas 2.1) Componentes del IBEX-35 13 2.2) Componentes del Dow-Jones Industrial 17 5.1) Tabla de correspondencias 60 5.2) Resumen de términos 61 5.3) Matriz R para los perfiles fila 62 5.4) Matiz C para los perfiles columna 63 5.5) Coordenadas para los perfiles fila en ejes principales fila 67 5.6) Coordenadas para los perfiles columna en ejes principales columna 67 5.7) Medidas de distancias 93 5.8) Comparación de métodos en análisis Cluster 95 6.1) Tabla de contingencia 108 6.2) Medidas de independencia 109 6.3) Medidas sobre tabla de contingencia 109 6.4) Valores propios y porcentaje de varianza 110 6.5) Pesos, distancias al origen e inercias de los puntos fila 111 6.6) Coordenadas de los puntos fila 111 6.7) Medidas de los puntos fila 112 6.8) Medidas de los puntos columna 114 6.9) Coeficientes de variación 115 7.1) Correspondencias entre acrónimos de las empresas y sus respectivos nombres para ser guardadas. 120 7.2) Macros para el cálculo y transformación de datos 120 Capítulo 1 Motivación y objetivos del proyecto En una sociedad como la nuestra, en la que se han de tomar decisiones muy relevantes, para lo cual gozamos de amplia y renovada información, pero eso sí, en un muy corto espacio de tiempo, los gráficos cobran una gran importancia. Éstos tienen la ventaja de ofrecernos bastante información resumida de modo que el usuario podrá interpretarlos en un breve periodo y por tanto tomar decisiones. Además suelen presentar la ventaja de ser bastante intuitivos, por lo que no es estrictamente necesario que un usuario sea un experto para obtener unos resultados satisfactorios. Con todo esto vemos que el campo de acción de los gráficos es inmenso, pero si en un área resultan especialmente críticos es en la representación de los diferentes movimientos que se producen en los mercados bursátiles, pues cumplen todas las condiciones antes citadas. 1.1) Motivación Teniendo en cuenta lo anterior, este proyecto pretende desarrollar una aplicación en MATLAB con el fin de generar y analizar datos sobre los movimientos de las cotizaciones de las empresas del IBEX-35, aunque la intención es que sea lo suficientemente polivalente como para que fuera usado con otros índices, tales como el Dow Jones o el Nasdaq. Los resultados obtenidos nos deberán informar sobre la rentabilidad presente, e incluso, sobre la tendencia futura de las diferentes empresas analizadas. Este proyecto se enmarca dentro del trabajo de investigación que el profesor Carlos Maté lleva desarrollando varios años, aunque hasta ahora el enfoque de estas investigaciones iba encaminado hacia el Marketing. Los factores que llevaron al autor a realizar este proyecto fueron: 1 El centro: el IIT – Instituto de Investigación tecnológica es un reconocido centro que destaca por la calidad, innovación y trascendencia de sus trabajos El director: goza entre el alumnado de fama de eficiente y de poseer elevados conocimientos en el campo de la estadística y el análisis de datos El software: MATLAB es sin duda uno de los programas más extendidos y valorados internacionalmente gracias a su potencia, versatilidad y posibilidades gráficas. Además se ofrece la posibilidad de trabajar con un programa como el R que aunque se encuentra en sus primeros pasos de desarrollo, no sería extraño que dentro de no muchos años sea uno de los lenguajes de programación dominantes en el campo de la estadística. El objeto de estudio: los mercados bursátiles, debido a su importancia, dinamismo, y al amplio despliegue tecnológico que últimamente su estudio requiere, resultan un campo de lo más interesante. La originalidad: si bien precisamente por la tecnología usada en su estudio hacen que sea un campo donde un ingeniero pueda trabajar satisfactoriamente, se aleja bastante de las tareas más usuales de un ingeniero. El aprendizaje: este proyecto supone un reto diferente, y además ofrece la posibilidad de aprender bastante acerca del mundo de las finanzas. El futuro: sin duda la tendencia es que cada vez cobrará más valor el análisis de datos, ya que a medida que las tecnologías avancen y se hagan más accesibles al gran público, tendremos un mayor y más reciente número de datos, por lo que serán necesarias aplicaciones que nos ayuden a sacar las conclusiones adecuadas de éstos. 1.2) Objetivos 1. Desarrollar un sistema de captura automática de información bursátil y posterior almacenamiento de ésta, de forma que definiéndole unos parámetros de búsqueda, y aprovechando las posibilidades que Internet ofrece nos provea de los datos deseados. 2. Desarrollar una aplicación fiable y potente para realizar mapas de posicionamiento bursátiles, y que sea lo suficientemente polivalente como para 2 poder analizar varias características diferentes y en diversos periodos de tiempo. Se ofrecerá la posibilidad de varios niveles de uso (nivel pequeño usuario, nivel broker) para hacer que la herramienta se adapte mejor a los potenciales clientes. También con objeto a la posterior distribución de la herramienta se cuidará especialmente el interfaz para hacer atractivo el producto. Una vez desarrollada la herramienta, se determinará la estrategia de comercialización con el objeto de llegar a un mayor y más diversificado número de clientes 3 Capítulo 2 Las bolsas de valores Conocidas como bolsa, su origen se remonta a la edad media con la aparición de las lonjas en las principales europeas. Su nombre [LAROU97] rememora a la familia de banqueros Van der Bursen que en el siglo XIII realizaba reuniones de carácter mercantil, siendo el escudo de armas de dicha familia tres bolsas de plata. Así entre los ss. XV y XVIII se fueron formando las principales bolsas europeas y americanas: Amberes (1847), Amsterdam (1561), Lyon (1595), Berlín (1685), París (1724), Nueva York (1792) o Madrid (1831) que permitieron financiar los grandes proyectos industriales tales como los ferrocarriles, siderúrgicas, metalúrgicas o textiles canalizando el ahorro hacia estas inversiones. En las bolsas de valores tiene lugar el intercambio de ofertas y demandas de valores mobiliarios por mediación de los agentes de cambio. Las sociedades anónimas han acudido al ahorro para financiar sus inversiones, a través de la colocación de acciones y obligaciones e incluso también el estado puede acudir. 2.1) La bolsa en España 2.1.1) Historia de la bolsa en España En 1809 José Bonaparte decide crear la primera bolsa de España en Madrid en el convento iglesia de San Felipe el Real, en la Puerta del Sol. Sin embargo hasta 1831 y con Fernando VII no se constituiría el mercado bursátil. Así la primera jornada de cotización se produce el 20 de Octubre de dicho año, siendo la cotización en reales. En este periodo la bolsa estuvo lastrada por el intervencionismo estatal, la debilidad y el atraso de la economía española, las continuas crisis, el excesivo peso de la deuda. Al igual que en ferrocarriles y minería, y gracias a las ayudas y ventajas fiscales empezó la inversión extranjera con ejemplos tales como Rothschild y Péreire. Sin embargo la 4 resistencia a adoptar el patrón oro (frente al patrón oro-plata) y el poco interés por parte de las autoridades poco contribuyeron a modernizar la institución y sí a su aislamiento. En 1845 con la reforma de Mon-Santillán se trató de que en la anárquica economía española se impusiesen algunos atributos que hoy se consideran fundamentales tales como: equidad, generalidad, legalidad, simplicidad, suficiencia y flexibilidad. Los resultados no fueron espectaculares, pero se empezó con una buena práctica: desde 1854 se emite el Boletín Oficial de Contratación. Uno de los problemas más acuciantes de la segunda mitad del XIX fue la deuda pública. La emisión de deuda pública para cubrir gastos no fue una solución, pues a un incremento de déficit, se emitía más deuda pública, por la que había que pagar elevados intereses. Tanto es así, que los valores más negociados, con un 90% eran los estatales, desplazando a los industriales y agrícolas. Otros hechos destacados de este periodo son el nacimiento de la peseta o la construcción del actual Palacio de la Bolsa de Madrid. Sin embargo este siglo se despedirá con una nueva crisis provocada por la pérdida de Cuba, Puerto Rico y Filipinas, cayendo la contratación y el precio de las acciones. Sin embargo en 1900 la repatriación de los capitales de dichas colonias supuso un espaldarazo. Durante la Primera Guerra Mundial continuó abierta y con un ritmo de ligero crecimiento. El crack de la bolsa de Nueva York del 29 no supuso una caída inmediata de la bolsa, sin embargo, el periodo republicano fue muy negativo para los cotizaciones. Desde 1936 hasta 1940 la bolsa permanece cerrada debido a la Guerra Civil. El 5 de Marzo de 1940 la bolsa abre las puertas a un periodo marcado por la autarquía que impuso el régimen, aunque desde 1953 se produce una paulatina apertura al exterior que va incrementando su volumen de contratación. Entre 1959 y 1970 como consecuencia del Plan de Estabilización la bolsa sube apoyada por la inversión extranjera. Desde 1974 se comienza con el nuevo sistema de liquidación de operaciones, base del actual sistema de anotación en cuenta. 1975 es un año negro para la bolsa con grandes pérdidas debidas a la muerte de Franco, la crisis del petróleo y el inicio de la transición democrática. Esta tendencia se invierte a partir de 1978 gracias a las mejoras técnicas introducidas que alientan a la inversión extranjera. Por su parte el periodo comprendido entre la superación del golpe de estado (1982) y la adhesión a la 5 Comunidad Económica Europea (1987) es el de mayor y más rápido crecimiento, con fuertes revalorizaciones de las acciones. En 1988 se crea la Ley del Mercado de Valores que transforma la Bolsa española. Los Agentes de Cambio y Bolsa son sustituidos por Sociedades y Agencias de Valores. Se crea la Sociedad Rectora de la Bolsa y la Comisión Nacional del Mercado de Valores (CNMV). En 1989 comienza a funcionar el mercado continuo para acciones CATS (computer assisted trading sistem) con 7 valores, que se convierten en 51 a final de dicho año, con lo que poco a poco se van relegando los tradicionales corros del parquet por la contratación electrónica hasta que en 1993 todas las operaciones se hacen de forma electrónica. Sin embargo este sistema se sustituye en 1995 por el SIBE (sistema de interconexión bursátil español). Esta mejora, junto con la rebaja de los tipos de interés, la inversión colectiva, la privatización de grandes empresas y el auge de la inversión colectiva se tradujeron en un gran aumento de la contratación y de la cotización. Desde el 1 de Enero de 1999 la moneda de cotización es el euro, poniéndose en marcha el Latibex, Mercado de Valores Latinoamericanos. El siglo XXI se inicia con fuertes incrementos debidos al mercado tecnológico, sin embargo el descubrimiento de grandes escándalos financieros, sobre todo en Estados Unidos, junto a las pérdidas de las sobrevaloradas empresas tecnológicas condujo a un proceso de pérdidas. En 2002 se constituye Bolsas y Mercados Españoles (BME) que aglutina el 100% de las Bolsas de Madrid, Barcelona, Valencia y Bilbao. A día de hoy los mercados españoles se encuentran en máximos de actividad y capitalización. 2.1.2) Organización de la bolsa en España En España existen cuatro bolsas de valores [INFOBOLSA]: la de Madrid (65% del total de la cotización bursátil), Barcelona (20%), Bilbao(10%) y Valencia (5%) que están reguladas por la ley del mercado de valores de 1988, cuyos objetivos fueron permitir una mayor transparencia en las operaciones e implantar una reforma en la organización de los profesionales que participan en la bolsa. Dicha ley es complementada en 2003 con la “Ley de Transparencia”, que establece nuevos requisitos de información y la obligación 6 de dotarse de un conjunto de mecanismos en materia de gobierno corporativo. El organismo que fija las reglas de mercado es la CNMV (Comisión Nacional del Mercado de Valores). Por su parte la sociedad que integra las diferentes empresas que dirigen y gestionan los mercados de valores y sistemas financieros en España BME (Bolsas y Mercados Españoles), agrupa bajo la misma unidad de acción, decisión y coordinación, los mercados de renta variable, de renta fija derivados y sistemas de compensación y liquidación españoles. La figura 2.1 es representativa de la organización del mercado español. Figura 2.1 Organización del mercado español 7 Para la admisión de valores a cotización oficial, las sociedades, personas jurídicas, fondos de inversión y demás personas físicas emisoras de títulos dirigen su solicitud a la junta sindical de la bolsa, concretando las distintas características de los títulos y aportando diversa documentación esencial sobre la personalidad del solicitante. Las juntas sindicales pueden establecer las condiciones mínimas para la admisión a cotización oficial. Una vez admitidos los valores a cotización éstos podrán ser de cotización calificada si cotizan como mínimo en un 60% de las sesiones o en más de 100 sesiones al año, registrando un volumen de contratación del 1,5% del capital social en las acciones y un 0,5% en las obligaciones. Si no cumplen los requisitos citados serán valores de cotización simple, salvo en valores emitidos o avalados por el estado. Sea cual sea la naturaleza de la cotización, las sociedades están obligadas a remitir a la junta sindical información económica y contable de la empresa, como estados financieros, pago de dividendos, aumentos y disminuciones de capital. Las bolsas españolas se limitan a negociar con títulos de renta fija y variable, y en mucha menor medida con metales preciosos, divisas, mercancías y efectos comerciales. Las operaciones se realizan a partir del último cambio cotizado las juntas sindicales pueden proponer unos intervalos de variaciones en las cotizaciones a partir de los cuales puede suspenderse la sesión bursátil. Acaba la sesión la junta publica en boletín de cotización oficial. La persona o grupo que desea realizar una operación debe transmitir una orden al intermediario precisando los detalles de la operación: número y naturaleza de los títulos, precio, validez temporal, al contado o a plazo. Dichas órdenes pueden ser al primer precio, al más favorable de la sesión, a un precio fijo o dejando cierto margen. El agente deberá responder a su cliente en el mismo día si son operaciones al contado, o enviando una cuenta de liquidación en las operaciones a plazo. Estas operaciones implican un gasto en concepto de aranceles o comisiones de el 1,25 por mil en valores del estado y del 1,75 8 por mil en el resto, estando también sujetos al pago del impuesto sobre transmisiones patrimoniales 2.1.3) Sistema SIBE Es donde se concentra la negociación de las acciones de las empresas más representativas de la economía española y con mayor volumen de contratación. Se trata de un sistema de interconexión bursátil [BORSABCN] de ámbito estatal integrado por una red informática que conecta las bolsas de Madrid, Barcelona, Bilbao y Valencia para la negociación de aquellos valores que acuerde la CNMV. En este sistema electrónico de negociación multilateral y automático la prioridad del cierre de operaciones viene dada en primer lugar por el precio, y en caso de igualdad de este por el orden temporal en que se dieron las órdenes, siendo la unidad de estas operaciones la acción, el derecho de suscripción o el warrant. Las sesiones se celebrarán días hábiles de lunes a viernes y el horario en que se podrán desarrollar las operaciones serán: Subasta de apertura: entre las 8:30 y las 9, será cuando se introduzcan, modifiquen y cancelen propuestas. No se cruzarán operaciones Sesión abierta: entre las 9 y las 17:30 se efectuar la contratación continuada Subastas de volatilidad: duran unos 5 minutos más un final aleatorio de un máximo de 30 segundos y se realizan antes de que se registren operaciones cuyos precios pudieran alcanzar o sobrepasar los límites máximos de variación estipulados (rangos estático y dinámico). Subasta de cierre: Entre las 17.30 y las 17.35 horas, destinada a la introducción, modificación y cancelación de órdenes. No se cruzan operaciones. Las variaciones de precios en cada sesión vendrán dadas por unas mínimas de 0,01 o 0,05 euros según el precio alcance o supere los 50 euros. Las 9 máximas vendrán dadas por el precio y rango estático (durante toda la sesión) y por el precio y el rango dinámico (en sesión abierta y en subasta de cierre). Así el precio estático es el precio dominante de la última subasta y su rango es la máxima variación permitida respecto a este precio calculándose esta en función de la volatilidad histórica de cada valor. Análogamente el precio dinámico es el último precio negociado de un valor, por lo que se actualiza continuamente durante la sesión. Su rango se calcula en función de la serie histórica de variaciones de precios durante la sesión. La fijación de precios y asignación de unidades de contratación será diferente durante la sesión de apertura que durante la sesión abierta. En la primera a la vista de los precios introducidos durante el periodo de ajuste , el primer precio será aquel que permita negociar un mayor número de unidades de contratación; si dos o más precios permiten negociar el mismo número, el primer precio será el que produzca el menor desequilibrio, entendiéndose por desequilibrio la diferencia entre el volumen ofrecido y el volumen demandado a un mismo precio. Si no hay desequilibrio o si los desequilibrios son iguales, se escogerá el precio del lado que tenga mayor volumen. Si las tres condiciones anteriores coinciden, será precio de la subasta, de las dos posibles, el más cercano al último negociado con las excepciones de que el último precio negociado esté dentro de la horquilla de los dos posibles precios de la subasta, el precio de la subasta será ese último precio negociado. La otra excepción se dará en el caso de que no haya último precio negociado o que se encuentre fuera de la horquilla de precios del rango estático, en cuyo caso el precio de la subasta será el más cercano al precio estático. Una vez fijado el primer precio, se cumplimentarán, en primer lugar, las órdenes de mercado y por lo mejor, a continuación las limitadas con precios mejores que el de subasta y, finalmente, el resto de órdenes limitadas al precio de subasta, en la medida que sea posible, según el orden temporal en el que se introdujeron en el sistema. 10 Durante la sesión abierta se negociará si finalizada la subasta de apertura no coincidieron la oferta y la demanda. Aquí el cierre de operaciones se deberá al rango de precios, y en caso de igualdad, a la prioridad temporal 2.2) El IBEX-35 Un índice es un concepto estadístico, que agrupa en un solo dato numérico resultados de caracteres diferentes que se refieren a un mismo fenómeno. Un índice puede ser simple, en cuyo caso se podría asimilar a la media aritmética o ponderado, cuando se da más peso a unos caracteres que a otros en función se su importancia. Es evidente que es un concepto de gran utilidad y con grandes aplicaciones, sobre todo en el ámbito de la economía como podría ser el IPC (índice de precios al consumo). En la bolsa se llevan usando índices desde hace más de un siglo, pues es una forma simple y clara de reflejar las variaciones de valor o de rentabilidades promedio de las acciones que lo componen. Las acciones que compondrán un índice deberán cumplir unos requisitos tales como: pertenecer a una misma bolsa de valores, tener una capitalización bursátil similar o pertenecer a un mismo sector, por ejemplo, al tecnológico. Gran parte de su importancia es que suelen ser tomados como referencias para carteras y fondos. Este proyecto se centrará especialmente en las empresas que componen el IBEX-35, que son empresas que cotizan a través del sistema SIBE anteriormente citado. Este índice es ponderado de capitalización bursátil, es decir, no todas las empresas que lo forman tienen el mismo peso. Se puso en marcha el 29 de diciembre de 1989 [BOLSAMADRID] con una base de 3000 puntos. Como se dijo antes, su cálculo atiende a la capitalización bursátil, que es el precio por el número de acciones de las empresas 11 consideradas, pero con un coeficiente de ajuste para que operaciones financieras excepcionales no alteren el valor del índice. La expresión que nos dará el valor exacto será: IBEX 35(t ) IBEX 35(t 1) Capitalización(t ) Capitalización(t 1) J Siendo J la cantidad utilizada para ajustar el valor del índice por ampliaciones de capital o otras contingencias extraordinarias. El criterio que marca para una empresa la entrada en el IBEX-35 atiende a la liquidez, entendiendo ésta por el volumen de contratación, tanto en cantidad de euros como de órdenes, lo que se podría resumir en que Para que un valor forme parte del Ibex 35 es necesario que su capitalización media supere el 0,3% de la del Ibex 35 en el período analizado y que dicho valor haya sido contratado por lo menos en la tercera parte de las sesiones de ése período. Así la formación del IBEX-35 se revisa cada seis meses, a 1 de enero y 1 de julio no ajustándose necesariamente por dividendos, aunque sí lo hará por ciertas operaciones financieras de los valores que lo componen: ampliaciones de capital, reducciones de capital por amortización de acciones, variaciones de valor nominal, fusiones y absorciones. A 18 de Septiembre del año 2006 los valores que lo componen, el número de acciones y su cotización se muestran en la siguiente tabla [BOLSAMADRID]: 12 VALOR ABERTIS INFRAESTRUCTURAS, SERIE A ACCIONA ACERINOX ACS ACTIVIDADES CONST.Y SERVICIOS ALTADIS ANTENA 3 DE TELEVISION BANCO BILBAO VIZCAYA ARGENTARIA BANCO DE SABADELL BANCO ESPAñOL DE CREDITO BANCO POPULAR ESPAñOL BANCO SANTANDER CENTRAL HISPANO BANKINTER CINTRA CONC.INFRA.DE TRANSPORTE CORPORACION MAPFRE ENAGAS ENDESA FADESA INMOBILIARIA FERROVIAL FOMENTO CONSTR.Y CONTRATAS(FCC) GAMESA CORPORACION TECNOLOGICA GAS NATURAL SDG GESTEVISION TELECINCO IBERDROLA IBERIA IND. DE DISEÑO TEXTIL (INDITEX) INDRA, SERIE A METROVACESA NH HOTELES PROMOTORA DE INFORMACIONES RED ELECTRICA DE ESPAÑA REPSOL YPF SACYR VALLEHERMOSO SOGECABLE TELEFONICA UNION FENOSA TÍTULOS COTIZACIÓN 456.777.479 19,85 50.840.000 114,35 259.500.000 14,49 352.873.134 36,10 256.121.426 37,35 133.334.400 16,50 3.390.852.043 17,77 306.003.420 28,55 138.866.020 14,56 1.215.432.540 12,51 6.254.296.579 12,22 78.585.044 54,20 294.669.676 10,64 191.120.565 15,46 238.734.260 18,34 1.058.752.117 28,32 90.650.239 25,24 112.211.794 57,50 78.340.490 60,20 243.299.904 16,36 268.665.617 27,45 147.985.114 20,32 901.549.181 31,50 947.893.931 2,07 373.998.240 34,67 145.652.313 16,74 81.429.740 78,30 123.782.898 16,56 131.287.500 12,56 135.270.000 29,94 1.220.863.463 21,65 170.781.727 30,82 82.303.082 26,75 4.921.130.397 13,01 243.743.461 38,50 Tabla 2.1 Composición del IBEX-35 13 2.3) Otros Índices 2.3.1) Índices nacionales Ibex Médium Cap: El Índice IBEX MEDIUM CAP se compone de los 20 valores cotizados en los Segmentos de Contratación General y Nuevo Mercado del Sistema de Interconexión Bursátil de las cuatro Bolsas Españolas que, excluidos los 35 valores componentes del índice IBEX 35, tengan la mayor capitalización ajustada por capital flotante y cumplan los siguientes requisitos de liquidez: rotación anualizada sobre capital flotante superior al 15% y porcentaje de capital flotante superior al 15% rotación. Por rotación se entiende la relación entre el volumen de contratación en Euros en el mercado de órdenes (Segmentos de Contratación del Sistema de Interconexión Bursátil denominados Contratación General y Nuevo Mercado) y la capitalización ajustada por flotante. El cálculo del índice y las reglas que lo rigen son similares a las del IBEX 35 Ibex Small Cap: El Índice IBEX SMALL CAP se compone de los 30 valores cotizados en los Segmentos de Contratación General y Nuevo Mercado del Sistema de Interconexión Bursátil de las cuatro Bolsas Españolas que, excluidos los 35 valores componentes del índice IBEX 35 y los 20 valores componentes del índice IBEX MEDIUM CAP, tengan la mayor capitalización ajustada por capital fl otante y cumplan en el periodo de control, los mismos requisitos de liquidez que el IBEX MEDIUM CAP. El cálculo del índice las reglas que lo rigen son similares a las del IBEX 35. Ibex Nuevo Mercado: El Indice IBEX NUEVO MERCADO se compone de los valores incluidos en el segmento de contratación del Sistema de Interconexión Bursátil español denominado Nuevo Mercado. El Comité Asesor Técnico elegirá como componentes del mismo aquellos valores más representativos atendiendo a la liquidez y considerando que el Indice no tiene un número limitado de valores. La normativa aplicable al IBEX NUEVO MERCADO para su cálculo y organización es igual que la del IBEX 35 14 Latibex: se trata del único mercado internacional para valores latinoamericanos. Nace en Diciembre de 1999 siendo aprobado por el Gobierno español y regulado bajo la vigente Ley del Mercado de Valores española. Actualmente está integrado en la oferta de servicios y productos de Bolsas y Mercados Españoles. Latibex trata de canalizar de manera eficaz las inversiones europeas hacia Latinoamérica, pues permite a los inversores europeos comprar y vender las principales empresas latinoamericanas a través de un único mercado, con un único sistema operativo de contratación y liquidación, con gran transparencia y seguridad y en una sola divisa: el euro. Se apoya en la plataforma de negociación (SIBE) y liquidación de valores de BME, de tal forma que los valores de América Latina cotizados en él, se contratan y liquidan como cualquier valor español. Por otro lado, permite a las principales empresas de América Latina un acceso sencillo y eficiente al mercado de capitales europeo. 2.3.2) Índices internacionales Dow Jones: se trata del padre del resto de los índices, y sin duda del de mayor importancia. El nacimiento del Dow Jones Industrial Average, se debió a la iniciativa de Charles Henry Dow y de Edward D. Jones. Ambos periodistas, junto con Charles Bergstresser, fundaron en 1882 Dow Jones & Company, un servicio de noticias financieras que, dos años mas tarde, lanzó el primer índice de cotizaciones en la Bolsa de New York, siendo publicado por el prestigioso diario financiero “The Wall Street Journal” , del cual Charles Dow era editor, siendo su objetivo original el establecimiento de un barómetro medidor de la actividad económica, y no el análisis de la tendencia de los valores, aplicación por la que ha ganado merecida reputación con el paso de los años. En 1902 muere Dow y William P. Hamilton que fuera su socio y posterior sucesor al frente del Wall Street Journal y, despúes, Robert Rhea recopilaron, sistematizaron y desarrollaron los hallazgos de Charles Dow creando la conocida como Teoría de Dow, extendiendo su campo de acción a la identificación de tendencias y a la prognosis de los mercados de valores. El índice Dow comprende apenas 30 acciones, sobre el total de unas 10,000 empresas que cotizan. Dow estableció dos medias o índices sectoriales: un 15 índice industrial (Dow Jones Industrial Average) y un índice de transportes (Dow Jones Transportation Average). Esta división se entiende observando la teoría desarrollada por Dow, según la cual cuando la actividad económica atraviesa un período de auge. las empresas industriales experimentan un aumento de producción y incrementando sus beneficios. Por esto adquieren un mayor atractivo para los inversores, aumentando la demanda de sus acciones, y el precio de sus acciones comienza a progresar. A medida que el sector industrial avanza en su expansión, la demanda de servicios de transporte aumenta y con ello los beneficios de las empresas transportistas. Como en el caso de las sociedades industriales, esta evolución positiva habría de atraer inversores que con su actividad compradora incidirían en la recuperación del precio de las acciones del sector transporte. Posteriormente se incluiría el Promedio de Utilidades Dow Jones (DJUA). Originalmente Dow incluyó en el índice industrial (DJIA) 12 valores representativos de distintas industrias. Este número se incremento en 1916 a 20, para quedar fijado finalmente en 30 a partir de 1928. A diferencia del IBEX-35 los promedios del Dow se calculan sobre la base del precio y no de la capitalización. Por tanto, el peso de los componentes varía de acuerdo al precio de las acciones, sin tener en cuenta el número de acciones en circulación. En principio, su valor era calculado simplemente por la suma del precio de todos los componentes de cada índice y dividiéndolo por el número de componentes del mismo. Luego, se inició la práctica de utilizar un divisor para suavizar los efectos de la división de acciones (stock split) y otras estrategias corporativas. 16 Ticker Nombre Última transacción Variación Volumen AA ALCOA INC 27,49 $ 22:01 0,03 (0,11%) 6.504.400 AIGAMER INTL GROUP INC 66,84 $ 22:01 0,36 (0,54%) 5.539.400 AXP AMER EXPRESS INC 56,65 $ 22:01 1,39 (2,39%) 19.254.700 BA BOEING CO 82,80 $ 22:02 1,06 (1,30%) 2.796.200 C 50,62 $ 22:02 0,71 (1,42%) 20.70 CAT CATERPILLAR INC 60,42 $ 22:01 1,42 (2,41%) 21.272.300 DD DU PONT E I DE NEM 45,45 $ 22:01 0,48 (1,07%) 3.709.500 DISWALT DISNEY-DISNEY C 31,28 $ 22:01 0,17 (0,54%) 8.290.900 GE GEN ELECTRIC CO 35,53 $ 22:01 0,06 (0,17%) 26.070.000 GMGEN MOTORS 35,19 $ 22:03 1,85 (5,55%) 17.704.100 HD HOME DEPOT INC 36,24 $ 22:02 0,25 (0,69%) 11.491.100 42,09 $ 22:01 0,39 (0,94%) 3.512.800 HPQ HEWLETT PACKARD CO 39,87 $ 22:01 0,49 (1,24%) 14.709.000 IBMINTL BUSINESS MACH 91,56 $ 22:00 1,08 (1,19%) 8.830.700 INTC INTEL CP 21,45 $ 22:01 0,12 (0,56%) 53.069.819 JNJJOHNSON AND JOHNS DC 69,10 $ 22:01 0,48 (0,70%) 8.879.00 JPM JP MORGAN CHASE CO 47,39 $ 22:03 0,27 (0,57%) 8.732.500 KO COCA COLA CO THE 47,28 $ 22:00 0,53 (1,13%) 15.032.700 MCD MCDONALDS CP 42,14 $ 22:01 0,67 (1,62%) 12.573.600 MMM 3M COMPANY 80,09 $ 22:02 1,62 (2,06%) 5.274.900 MOALTRIA GROUP INC 80,16 $ 22:00 0,49 (0,62%) 12.798.900 MRK MERCK CO INC 45,70 $ 22:00 0,06 (0,13%) 11.977.500 MSFT MICROSOFT CP 28,45 $ 22:01 0,02 (0,07%) 48.438.046 PFEPFIZER INC 27,73 $ 22:00 0,05 (0,18%) 30.796.500 PG PROCTER GAMBLE CO 63,28 $ 22:00 0,60 (0,96%) 7.295.900 T AT&T INC. 34,71 $ 22:01 0,27 (0,78%) 29.911.800 UTXUNITED TECH 64,98 $ 22:02 0,04 (0,06%) 2.529.800 VZ VERIZON COMMUN 38,02 $ 22:00 0,22 (0,58%) 9.716.900 WMT WAL MART STORES 51,28 $ 22:00 1,91 (3,87%) 52.321.600 XOM EXXON MOBIL CP 69,92 $ 22:01 0,37 (0,53%) 16.991.000 CITIGROUP INC HON HONEYWELL INTL INC Tabla 2.3 Componentes del Dow Jones Industrial 17 Nasdaq: el Nasdaq propiamente dicho no es un índice, sino el mercado electrónico más grande del mundo, también el primero. Sus negociaciones se realizan a través de un sofisticado sistema de computadoras y canales de telecomunicación. Por medio de esta tecnología se trasmiten cotizaciones en tiempo real y datos de transacción a más de 1,3 millones de usuarios en 83 países. El carecer de limitaciones geográficas hace que millones de participantes tengan acceso a negociar las acciones de una empresa. El Nasdaq Stock Market cubre dos tipos de mercado: El Nasdaq National Market, en el cual cotizan acciones de empresas con una mayor capitalización, y el Nasdaq Smallcap Market, en el cual cotizan los títulos de pequeñas empresas con capacidad de crecimiento. En la actualidad el Nasdaq cubre los títulos de alrededor de 4.100 empresas. La mayoría de estos títulos pertenecen al sector tecnológico, de las telecomunicaciones, banca, minoristas y otras industrias en crecimiento. Las negociaciones del Nasdaq no se limitan a un número específico de participantes lo que facilita la accesibilidad a las empresas de inversión conectarse a la red y competir. Otra característica peculiar es que no se obliga a los inversores a utilizar una sola entidad financiera para comprar y vender acciones, el Nasdaq conecta a una variedad de negociadores y deja que los participantes elijan con cual de ellos van a negociar. Para ello, estos negociadores deben tener una certificación de la Comisión de Valores de los Estados Unidos (SEC) y deben estar registradas de acuerdo a las regulaciones del Nasdaq y el NASD. En este existen varios índices que agrupa un número de empresas de ese mercado: El Nasdaq Composite en un índice de capitalización bursátil de funcionamiento similar al IBEX-35 , a diferencia del Dow Jones, que es un promedio de precios El Composite también representa una proporción, basada en la relación que existe entre el valor total de mercado de todas las acciones que conforman el índice hoy, y el valor total de las mismas el día que el índice empezó a funcionar. Para calcular el valor del índice, se divide el valor de mercado actual, esto es la suma de los precios por el total de acciones en circulación de cada 18 valor que cotiza en el índice y se divide entre el valor de mercado el primer día del índice. Nasdaq 100 Index Este índice incluye 100 de las empresas más grandes, locales e internacionales, que cotizan en el Nasdaq y que no pertenecen al sector financiero. Este índice refleja la evolución de empresas pertenecientes al sector de la informática, telecomunicaciones, minoristas / mayoristas y biotecnología. Las compañías pertenecientes al sector financiero, incluyendo las de inversión, no son consideradas en este índice. El Nasdaq 100 se calcula por medio de una metodología basada en el peso por capitalización. Nasdaq Financial-100 Index El Nasdaq Financial-100 mide la actividad de 100 de las mayores organizaciones financieras, tanto nacionales como internacionales, que cotizan en el Nasdaq. Al igual que los anteriores, este índice representa el peso de las empresas sobre la base de su capitalización e incluye instituciones pertenecientes al sector de banca, ahorros y casas matrices relacionadas, compañías de seguros, compañías de inversión y servicios financieros. Nikkei 225: índice que refleja desde el 16 de Mayo de 1949 y por iniciativa del periódico económico japonés Nihon Keizai Shinbun de cuyas iniciales toma el nombre, la evolución de los 225 principales valores que cotizan en la bolsa de Tokio. Su cálculo se basa en la suma de las cotizaciones de sus 225 compañías. La evolución del índice refleja la diferencia en porcentaje de la suma de las cotizaciones de un día frente a la del día anterior. No considera, por tanto, la capitalización de cada uno de los valores, como suele ser habitual en los índices de Bolsa. El hecho de que no se tenga en cuenta la capitalización y de que sea un índice apenas renovado (aunque la lista se renueva cada año) hizo que se lanzase el Nikkei 300, que ponderaba la capitalización bursátil y, por tanto, era más representativo. Sin embargo, este 19 nuevo índice, en el que tienen una mayor representación los bancos, no ha logrado el éxito esperado. Eurostoxx 50: se trata del índice más importante de las compañías de la zona euro. Los encargados de calcularlo son por la compañía Stoxx Limited, de la que son parte el grupo Deutsche Boerse (bolsa alemana), el grupo SWX (bolsa suiza) y Dow Jones & Company. Se trata de un índice ponderado por capitalización bursátil, pues las compañías con mayor capitalización tienen mas peso en el mismo. Se crea en febrero de 1998, partiendo de una base de 1000 puntos a 31 de diciembre de 1991. Para calcular el Eurostoxx 50 se utiliza una formula en la que se incluyen las 50 compañías que lo componen, se opera su capitalización bursátil, precio por numero de acciones, y se aplica un coeficiente de ajuste divisor, para asegurar que ciertas operaciones corporativas que se produzcan, no alteraran el valor del índice. Su composición se revisa una vez al año, en septiembre. Se ajusta por dividendos y por ciertas operaciones financieras en las compañías del índice, como ampliaciones de capital o escisiones. 20 Capítulo 3 Técnicas gráficas de inversión bursátil Se trata de uno de los instrumentos más útiles para determinar y predecir las oscilaciones de los precios bursátiles. Los gráficos tratan de adivinar cambios de tendencia y de anticiparse a esos cambios y se representan en un sistema de abcisas y ordenadas en donde aparecen la contratación y cotización de un valor durante períodos de tiempo, que el usuario con la aplicación de indicadores numéricos, que tratan de predecir la tendencia futura en función de lo ocurrido antes en el mercado, tales como: medias móviles, osciladores, indicadores de tendencia y otros. Así, puesto que el fin último de los gráficos es sacar conclusiones para poder anticiparnos a la tendencia futura, y por tanto, poder obrar correctamente, será interesante definir el más detalladamente el concepto de tendencia antes de entrar en los tipos de gráficos. 3.1) Tendencia La tendencia [ELACCIONISTA] es la dirección en la que se mueven los activos estudiados. La causa por la que existe la tendencia es el equilibrio entre la oferta y la demanda. Los activos nunca se moverán en línea recta, sino en zigzag, pudiendo moverse estos zigzags en tres direcciones distintas: alcista, bajista y horizontal. Tendencia alcista: Gráficamente una tendencia alcista se caracteriza porque los niveles máximos y los niveles mínimos formados por el movimiento zigzag, se superan unos a otros sucesivamente. Es síntoma de exceso de inversores comprando en el mercado Tendencia bajísta: Gráficamente una tendencia bajista se caracteriza porque los niveles máximos y los niveles mínimos formados en el movimiento zigzag, van descendiendo. Es síntoma de exceso de inversores vendiendo en el mercado. 21 Tendencia horizontal: Gráficamente una tendencia horizontal se caracteriza porque todos sus máximos se encuentran a los mismos niveles y lo mismo sucede con todos sus mínimos. Es síntoma de equilibrio entre los inversores que compran y los inversores que venden. Las tendencias pueden ser clasificadas en a largo plazo, a medio plazo y a corto plazo, siendo esta clasificación muy subjetiva. Normalmente se considera que una tendencia es a largo plazo si dura más de un año. Una tendencia es a medio plazo cuando dura más de un mes, pero menos de un año. Por úlitmo una tendencia a corto plazo va de una semana a un mes. Cada gráfica podrá tener unos puntos característicos. Así a los puntos máximos del zigzag estudiado se les da el nombre de resistencia y a los puntos mínimos se les da el nombre de soporte. Análogamente un soporte se forma cuando, a un nivel, existen en el mercado los suficientes compradores como para que la tendencia bajista del activo haga una pausa. Una resistencia se producirá cuando, a un nivel, existen en el mercado los suficientes vendedores como para que la tendencia alcista del activo haga una pausa. Las principales propiedades de los soportes y de las resistencias son: Los soportes y resistencias son señales de posibles cambios de tendencia. Si en la tendencia alcista o bajista de un activo, existe una resistencia o soporte que no se consigue superar, es factible un cambio de tendencia. Los soportes y resistencias pueden invertir sus funciones, cuando una resistencia es superada se convierte en un nivel de soporte y cuando un soporte es roto, se convierte en un nivel de resistencia. Los números redondos suelen actuar como soportes y resistencias siendo bastante común que números redondos como los terminados en 50 y 00 actúen como soportes y resistencias. Una formación asociada a las resistencias y a los soportes son los canales. Se dan cuando se pueden trazar líneas de soporte y resistencia que son paralelas o que estén muy cerca de serlo. Las formaciones de canal se pueden traducir tanto en tendencia alcista, como en una bajista y horizontal. Cuando en un 22 activo hay un canal, éste tiende a moverse dentro de él, tocando sucesivamente la línea de soporte y de resistencia. Su importancia radica en que dan señales claras de cuando hay posibilidad de entrar a comprar activos y cuando hay que vender los activos. 3.2) Tipos de gráficos [MILLARD91] 3.2.1) Gráficos lineales Se representa en el eje horizontal la escala de tiempos, y en el vertical la escala de precios, equivaliendo las divisiones de ambas escalas al mismo número de días o de variación de precio respectivamente. Luego se une el valor de cierre de las acciones mediante una línea continua. Su principal ventaja es su sencillez. Sin embargo no refleja la evolución de la acción durante la sesión, permite comparar cambios porcentuales fácilmente. Aunque para solucionar este problema se puede utilizar una escala semilogarítmica (esta solución también se podrá adoptar en los gráficos de barras que luego se mostrarán). Para la escala del tiempo se seguirá empleando una escala lineal, utilizando una logarítmica para lo de precios. De este modo la distancia que separa por ejemplo 100 y 200 puntos en el eje de precios es la misma que hay entre 200 y 400 puntos, por lo que el cambio porcentual permanece constante al subir por la escala vertical. Esto será muy ventajoso en el análisis de tendencias en los gráficos a largo plazo y principalmente para comparar dos inversiones. Sin embargo presenta el inconveniente de que el cero y los valores negativos carecen de significado. 23 Figura 3.1: Gráfico lineal del nivel del IBEX35 3.2.2) Gráficos de barra: Son lo más extendidos actualmente. Distinguiremos entre dos tipos, los tradicionales y una variación de estos que cobra fuerza como son los candlestick (gráficos de velas japonesas). En los tradicionales la evolución diaria de los precios de una acción se representa mediante una barra vertical que refleja la cotización máxima, mínima y el precio de cierre y el precio de apertura que ha registrado un determinado valor a lo largo de cada jornada bursátil. Para su construcción de este tipo se trazan dos ejes, en el eje de ordenadas se refleja la escala de precios del valor, y en el de abscisas las unidades de tiempo o fechas correspondientes. Una vez trazados estos ejes de coordenadas, se marcará el máximo y mínimo precios de un día determinado y unirlos mediante un trazo de barra vertical. El precio de cierre mediante un pequeño trazo horizontal hacia la derecha de la barra y análogamente el de apertura con un trazo a la izquierda. Para continuar la gráfica en el tiempo, basta con desplazarse una división en la escala horizontal de tiempos y repetir el proceso anterior. 24 Figura 3.2: Construcción de un gráfico de barras Se podrán añadir informaciones adicionales como el volumen y el interés abierto (no lo desarrollamos porque se utiliza sobre todo para la negociación de contratos de futuro de materias primas, divisas, productos energéticos). El volumen representa la actividad total desarrollada en cada sesión en torno a un valor, esto es el total negociado cada jornada. Puede expresarse en términos de número de acciones que cambian de mano, o en términos de volumen monetario negociado. En ambos casos la representación gráfica de este dato se realiza trazando una línea vertical debajo de la barra diaria de precios. La dimensión de la barra de volumen es proporcional a al cantidad de acciones negociadas. Así, una barra más larga representa una mayor actividad negociadora. 25 Figura 3.3: Gráfico de barras con información del volumen negociado Por su parte los candlestick o gráficos de velas japonesas están en pleno auge desde que se empezaron a usar para gráficos bursátiles hace unas dos décadas. Sin embargo se llevan empleando desde antes del año 1700 en Japón para predecir el precio del arroz [ELACCIONISTA]. Para su construcción al igual que para los gráficos de barras se necesitarán el precio de apertura, el de cierre, el valor máximo alcanzado y el mínimo. Sin embargo los candlestick presentan un cuerpo entre el rango de apertura y de cierre. Si el cuerpo es negro representa que el cierre fue más bajo que la apertura, (normalmente tendencia bajista) y si el cuerpo es blanco significa que el cierre fue más alto que la apertura (normalmente tendencia alcista). Las líneas verticales delgadas por encima y por debajo del cuerpo se denominan sombras y representa el precio máximo alcanzado y el mínimo respectivamente. 26 (a) (b) Figura 3.4: Dos “candlestick” de cierre mayor que apertura (a) y de cierre menor que apertura (b) Se puede dar el caso que un gráfico no presente cuerpo en el caso de que el valor de apertura y de cierre sea el mismo o muy parecido, en cuyo caso la longitud de la línea vertical determinará la diferencia de valores alcanzados por la acción. Los modelos de reversión de velas dentro del contexto del mercado anterior nos pueden ayudar a identificar un cambio en la tendencia, aunque también es posible que el mercado decida flotar lateralmente. Es importante remarcar que una vela por si misma carece de significado se deben estudiar siempre con relación a una tendencia definida, de forma que una misma vela puede tener significado diferente dependiendo del contexto. Las formaciones más habituales son: Martillo (hammer): vela con una sombra más baja larga y el cuerpo real pequeño. El cuerpo puede ser negro o blanco, pero la condición fundamental es que esta vela aparezca en una tendencia a la baja o en un mercado sobrevendido. No será muy significativo si aparece en ligera bajada o en una bajada de dos o tres días. Se puede dar una venta en la subida desde el martillo, entonces el mercado irá a probar el soporte realizado por el martillo. Cuanto más larga la sombra más fiabilidad tendrá la figura. 27 Figura 3.5: Martillo (hammer) Martillo invertido (invertded hammer): se asemeja a una estrella fugaz. En Una tendencia bajista puede ser una reversión señalada no siendo dominante el color crítico Figura 3.6: Martillo invertido (invertid hammer) Hombre colgado (hanging man): aparentemente igual al martillo, pero se da en el contexto de una tendencia alcista. Cuerpo real pequeño, blanco o negro y sombra inferior muy larga. Para confirmar la reversión bajista observaremos el cierre de la sesión siguiente, si éste está por debajo del cuerpo real del hombre colgado significa que todo aquel que compró en la apertura o el cierre del hombre colgado está ahora perdiendo dinero. Con este panorama los compradores lo normal es que decidan liquidar, arrastrando así al mercado a la baja 28 Figura 3.7. Hombre colgado (hanging man) Estrella fugaz: se caracteriza por un cuerpo real pequeño cerca del extremo más bajo del rango, con una sombra superior larga. El color del cuerpo no es crítico. No es tanto una señal de la reversión mayor, sino una advertencia. Tiene una sombra superior larga y un cuerpo real pequeño y situado cerca del extremo inferior de la banda de fluctuación Figura 3.8. Estrella fugaz seguida de martillo Envolvente alcista (Engulfing Patterns): constará de dos velas y se forma cuando, durante una tendencia bajista, un cuerpo real blanco envuelve a uno 29 negro. La definición básica de una pauta envolvente es que el segundo cuerpo real debe envolver un cuerpo real de distinto color. Su efecto es mayor si la primera vela es más pequeña y el cuerpo de la segunda vela es mayor y envuelve por completo a la anterior incluyendo las sombras o lo que es lo mismo tiene un mínimo por debajo y un máximo por encima de la vela anterior. Figura 3.9. Envolvente alcista Envolvente bajista (Bearish): constará de dos velas. La alcista se forma cuando, durante una tendencia alcista, un cuerpo real negro envuelve a uno blanco. 30 Figura 3.10. Envolvente bajista Nube oscura (Dark Cloud Cover) es síntoma de que el mercado tiene pocas oportunidades de subir. La primera vela de la cubierta de nube oscura es una sesión blanca fuerte. En la siguiente sesión el mercado abre por encima pero cae, cerrando por debajo del centro de la sesión anterior. Cuanto más abajo cierre mayor será la tendencia bajista y si cierra por encima de la mitad muchos operadores esperarán a la siguiente sesión, donde si los precios cierran por debajo, entonces se confirmará la tendencia bajista. Sin embargo esta tendencia será menor que en la envolvente bajista. 31 Figura 3.11. Nube Oscura (Dark Cloud Cover) Pauta penetrante (Piercing pattern): es el fenómeno opuesto a la cubierta de nube oscura. Se da en una tendencia bajista, cuando la primera vela tiene un cuerpo negro y la segunda tiene un cuerpo largo y blanco. Este último día abre con bajadas pronunciadas, por debajo del mínimo del día negro anterior. Sin embargo el precio de cierre estará sobre el 50% del cuerpo negro del día anterior. Es menos alcista que la envolvente alcista (Ver figura 3.10 donde se aprecia una pauta penetrante) Harami: el harami está formado por un cuerpo real largo y otro corto dentro de su banda. El harami es el fenómeno opuesto a la pauta envolvente. El harami es un cuerpo muy largo seguido de un cuerpo real pequeño. El color no es crítico, sin embargo tras una tendencia bajista, un harami negro-blanco o blanco-blanco se considerará más alcista que uno negro-blanco o negro-negro. Esto se debe a que una vela blanca larga se considera alcista por si misma, con lo que tiende a contrarrestar la tendencia bajista del mercado. Para comprobar la fiabilidad de la figura se comprobará: a) Si el segundo cuerpo real se encuentra hacia el medio de la banda de fluctuación del primer cuerpo real. Si después de una subida, el segundo 32 cuerpo real del harami está cerca del extremo superior del primer cuerpo real, lo más probable es que el mercado fluctúe de forma lateral . Si está abajo es más probable que gire. b) Si la banda completa del cuerpo real y sombras están dentro del cuerpo real previo, es más probable que el mercado gire. c) Cuanto más corto sea el cuerpo real y las sombras de las egunda vela más nos acercamos al caso óptimo, esto es, un doji. Figura 3.12. Harami Estrellas: consisten en un cuerpo real pequeño que abre con gap del cuerpo real que lo precede. El cuerpo real de la estrella no solapará el cuerpo real anterior estrella no siendo crítico el color. Se suelen dar en cimas y fondos. 33 Figura 3.13. Estrella Lucero del Alba (morning star): nos indica una reversión de la tendencia alcistas . La formación estará formada de 3 velas. La primera vela es negra con el cuerpo real alto, la segunda, con un cuerpo real pequeño que abre en gap. La tercera vela es un cuerpo real blanco que pasa al cuerpo de la primera vela negra de la formación. Figura 3.14. Lucero del alba (morning star) Estrellas Doji (Doji Stars): Si un doji abre con gap sobre un cuerpo real en una tendencia al alza, o con gap bajo un cuerpo real en un mercado bajista, ese doji en particular se llama una estrella doji. Dos estrellas doji populares son la estrella de la tarde y la mañana.. 34 Figura 3.15 Estrellas Doji Estrella Doji de la mañana (Morning doji star): se trata de una estrella del tipo doji en una tendencia bajista seguida por un cuerpo real largo, blanco que cierra en el cuerpo negro anterior. Si la vela después de la estrella del doji es negra y con gaps a la baja entonces el doji no es válido Figura 3.16. Mañana doji star 35 Estrella vespertina (Evening Star): Se compone de tres velas, la primera vela es blanca y larga, la segunda tiene un cuerpo real pequeño de cualquier color, donde el primer cuerpo y el segundo no se tocan, la tercera vela es un cuerpo real negro que normalmente no toca al segundo cuerpo y además cierra dentro de la linea de la vela blanca que constituye la primera vela de esta pauta. Si la segunda vela en vez de ser un cuerpo real pequeño es un doji, esta formación será una doji vespertina . Figura 3.17. Estrella vespertina (Evening Star) Estrella doji de la tarde (Doji Star Evening) Se da cuando aparece una estrella doji en una tendencia alcista, seguida por un cuerpo real largo, negro que cierra el cuerpo real blanco precedente . Si la vela después de la estrella doji es blanca y presenta un gap más alto, la reversión a la baja del doji no es válida. 36 Figura 3.18. Estrella Doji de la tarde 3.2.3) Gráficos de punto y cifra: Populares sobre todo en Estados Unidos. Se caracterizan porque si el precio no cambia no se registra ningún punto en el gráfico, por lo que son una buena medida de la volatilidad de un valor. Tienen una escala vertical lineal, pero en lugar de que una línea horizontal corresponda al precio, éste será el hueco entre las líneas. Se caracterizan además por tener otro valor cuantitativo, la inversión de recuadro. El valor más habitual es la inversión de tres recuadros, pero el valor puede ser cualquiera desde un recuadro para arriba. Cuanto mayor sea el número de recuadros menos sensible será el gráfico a la variación en el precio. Por convenio se suelen usar “X” para precio al alza y “O” para un precio a la baja 37 Figura 3.19. Gráfico de punto y cifra 3.2.4) Gráficos de subida-bajada Tienen un eje temporal pero carecen de eje precio. El eje vertical es un indicador del sentido y sus divisiones son una medida de cuanto tiempo ha continuado la evolución del precio de la acción en un sentido. No tiene en cuenta la cuantía de la subida o bajada, sólo el mero hecho de la subida o bajada. Es por esto que es un gráfico muy útil para determinar los cambios de sentido del precio de la acción. 3.3) Indicadores técnicos Se trata de un conjunto de técnicas complementarias a las gráficas presentadas en apartados anteriores. Suelen ser cantidades numéricas calculadas a partir del precio de la acción o de otros datos como el número de acciones que suben o bajan en el periodo de tiempo estudiado y otros incluso no requieren cálculo alguno. El objetivo de este conjunto de técnicas será poner de manifiesto la tendencia real de la acción, eliminando en la medida de lo posible aquellos fenómenos que podrían dificultar la interpretación de la evolución de la acción, y además poder hacer predicciones acerca del comportamiento futuro de dicha acción y del mercado. Se pueden distinguir 38 básicamente dos tipos de indicadores técnicos, los promedios móviles y los osciladores. 3.3.1) Medias móviles Media móvil simple: se trata de una técnica básica de análisis bursátil y de ella se derivan otros indicadores y conceptos de uso frecuente. Es una media de los precios de cierre de n días, que se va recalculando a medida que se van incorporando nuevas cotizaciones manteniendo para el cálculo de forma constante el mismo número de cierres que indica el periodo. Así las expresiones que se tienen para su cálculo son: MediaMóvil p1 p 2 ..... p n n MediaMóvil hoy MediaMóvil ayer p1 p n1 n n Hay varios valores tradicionalmente extendidos para n, tales como 10, 40 o 200 días dependiendo si queremos analizar a corto, a medio o a largo plazo, aunque en cualquier caso esto es muy subjetivo. En cualquier caso los valores obtenidos se interpretarán como un soporte en un mercado alcista, y como una resistencia en un mercado bajista. Con todo esto se interpreta que la función de dicha media es suavizar la serie de datos sobre la que se calcula, permitiendo observar de forma más clara la dirección actual, esto es, la tendencia. Una interesante propiedad de la media móvil simple será, que en el caso que la acción estudiada tenga una fluctuación periódica, si tomamos un n suficientemente grande, dicha variación será eliminada. Sin embargo este método presenta la desventaja de que su valor puede depender demasiado de antiguos valores, siendo en este caso más adecuado el uso de las medias ponderadas o exponenciales. Este método nos permite crear sistemas automáticos de gestión de acciones, así se generarán señales de compra si los precios cortan al alza el valor de la 39 media móvil. Sin embargo si cortan a la baja dicha media se generarán señales de venta. Media móvil ponderada: se trata de una técnica que deriva de la media móvil simple, sin embargo se da progresivamente más importancia a los últimos datos obtenidos frente a los primeros. Así se multiplica cada cierre por un peso que desciende de manera progresiva, aplicándose el mayor peso al cierre más próximo. Tiene propiedades similares a la media móvil simple, sin embargo se ajusta más a la serie de precios al otorgar más importancia a los cierres más recientes y por tanto es más sensible a los movimientos en sus cercanías. Se deberá tener cuidado al aplicarse en mercados planos o sin tendencia pues generará una gran cantidad de señales falsas. Las expresiones con las que se obtiene son: MediaMóvilPonderada n p1 n 1 p 2 ...... 2 p n 1 p n n (n 1) ........ 2 1 Para ir calculándola en días sucesivos: Total hoy Total ayer p1 p n 1 Numeradorhoy Numeradorayer np1 Total ayer MediaMóvilPonderada hoy Numeradorhoy n (n 1) .... 2 1 Media móvil exponencial: se trata de un indicador que se deriva de la media móvil simple en un intento de otorgar importancia progresiva a las cotizaciones más recientes utilizando un sistema de ponderación o suavizado exponencial, y que tiene en cuenta todos los datos de la serie. El periodo se utilizar para calcular el factor de suavizado, de forma que si el periodo es P, el factor de suavizado será demás tiene características similares a las 2 . Por lo P 1 medias móviles anteriormente presentadas. Las expresiones son: 40 MediaMóvil exp onencial p1 (1 ) p 2 (1 ) 2 p3 .... 1 (1 ) (1 ) 2 .... MediaMóvil exp onencial hoy p (1 ) MediaMóvil exp onencial ayer Bandas de Bollinger: es un indicador inventado por John Bollinger en los años 80. A partir de una de las medias móviles anteriormente explicadas sobre el precio de cierre se trazan dos bandas que se obtienen de sumar y restar a la media un numero n de desviaciones estándar. Los valores que se suelen usar habitualmente son 21 para la media y dos n=2 para las desviaciones estándar, y aunque estos valores no son fijos, si debemos guardar una proporción entre los valores de la media y de las desviaciones. Así para una media de 50 valores (largo plazo) tomaremos n=2.5, mientras que para 10 valores (corto plazo) n=1.5. Con dichas bandas conseguimos ubicar el precio de la acción en relación a sus valores pasados, determinar la volatilidad de una acción y establecer niveles de precios, identificando cuando nos podemos encontrar en una resistencia y cuando en un soporte. Así un valor que se encuentra por encima de la media y próximo a la banda superior es muy posible que se encuentre sobrecomprado y si llega a superar dicha banda es síntoma de fortaleza, y por el contrario si esta por debajo de la media y próximo a la banda inferior se encontrará sobrevendido, siendo síntoma de debilidad que baje por debajo de dicha banda. Por su parte la amplitud de las bandas nos informará de la volatilidad de la acción. 3.3.2) Osciladores Los osciladores son modelos matemáticos aplicados a la acción del precio, basados en alguna observación específica sobre el comportamiento del mercado. Normalmente se grafican por debajo de la gráfica de cotizaciones, ya sea como líneas o histogramas, y miden la fortaleza de las tendencias o movimientos en el precio. Cuando se detecta debilidad en la tendencia, se sospecha que podría estar cerca de revertirse. Así los osciladores cobran 41 especial importancia cuando las medias móviles más problemas tienen, esto es, en mercados planos o sin una tendencia clara aparente. Momento: es un oscilador que estudia la variación absoluta entre dos cierres en un periodo determinado. Por su construcción lleva implícito el concepto de velocidad de aceleración, por lo que trata de adelantarse a los giros que se producirán. Con esto conseguimos saber con que fuerza sube o baja la cotización de un valor, que puede ser ascendente o descendente y acelerando o desacelerando respectivamente. Se trata de un valor no normalizado, por lo que lo importante no es su valor, si no su dirección y sentido. Viene dado por las expresiones: Momento Cierre hoy Cierre n diasantes También se define el índice de cambio como: Indicedecambio Cierrehoy Cierren diasantes Cierren diasantes Índice de Fuerza Relativa (RSI): Se trata del indicador técnico más extendido creado por Welles Wilder y publicado por primera vez en 1978. Su nombre no es del todo apropiado, pues dicha fuerza relativa no se calcula respecto a otros valores o índices, sino respecto a sí mismo. Tiene una presentación lineal y normalizada, independiente de la acción o índice que se utilice. Este indicador agrupa los precios en precios ascendentes y precios descendentes, soliendo elegirse periodos de 14 días. Para obtener la cantidad que llamaremos arriba se suman todas las subidas de precio. Para la cantidad abajo sumamos toas las bajadas de precio durante el mismo periodo y operamos: Welles Wilder 100 100 arriba 1 abajo 42 Su valor estará siempre entre 0 y 100. Es resistente a las fluctuaciones a corto plazo pues los términos arriba y abajo ya van promediados. Así si el valor sube por encima de 70 se considera que se está sobrecomprando mientras que por debajo de 30 se esta sobrevendiendo. Es además un indicador anticipado, da la señal antes de que el precio de la acción cambie de sentido, en contraposición a la media móvil que da la señal cuando la acción ya ha cambiado de sentido Oscilador Estocástico: es un indicador desarrollado por George Lane en los años 50 compuesto por dos líneas que se conocen como %K y %D. Esta basado en la observación de que cuando los precios suben el pecio de cierre se aproxima más a los máximos del día, y cuando los precios bajan el precio de cierre se encuentra más cercano a los mínimos de la sesión. Así trata de establecer en % como está el precio de cierre de la sesión respecto al rango de precios del periodo de cálculo. El indicador tiene funcionalidad cuando los valores no se encuentran en tendencias fuertes y se emplea para determinar los distintos zig-zags en los que se van moviendo los precios, y proporcionar señales de compra y venta. Es un indicador normalizado que se mueve dentro de una escala de 0 a 100 y presenta dos áreas o niveles que adquieren especial importancia cuando son alcanzadas por el indicador. Estas áreas o niveles son entre 0 y 20 y entre 80 y 100. A veces según preferencias se amplían estos límites hasta 30 y hasta 70, siendo estas las áreas de sobreventa y sobrecompra respectivamente. Los parámetros por defecto que se utilizan son 14 para %K y 7 para %D, en donde 14 es el periodo en días que se toma de referencia para los cálculos y 7 para calcular la versión allanada de %K. El indicador proporciona señal de compra cuando se produce un corte de la línea %K por encima de %D en la zona de sobreventa 0-20(30). El indicador activa una señal de venta cuando se produce un corte de la línea %K por debajo de %D en la zona de sobrecompra (70) 80-100. También se utiliza mucho para el análisis de 43 divergencias. Sus cortes de líneas siempre marcan un cambio de dirección en los precios, el problema estrjoiba en que no es posible cuantificar la amplitud del movimiento. Se obtiene con las expresiones: %K Cierrehoy Cierremasbajo n dias Cierremasalto n dias Cierremasbajo n dias Por su parte %D es la media móvil simple de 3 días de K MACD: Convergencia/Divergencia de medias móviles, Se trata de un indicador basado en la diferencia de amplitud de dos medias exponenciales de diferente periodo a la que se aplica una nueva media exponencial creado por Gerard Appel y que posteriormente fue desarrollado por Tomas Aspray. Se componen de dos líneas que oscilan alrededor de la línea de 0, la primera de ellas es la diferencia entre las dos medias móviles y la segunda es la media móvil exponencial de la diferencia. A la media móvil exponencial de la diferencia se la conoce como línea de señal. A veces se grafica también la diferencia entre estas dos líneas en el mismo gráfico en forma de histograma. Como otros indicadores basados en las medias móviles su utilidad es la de proporcionar señales de compra y venta cuando el mercado está en tendencia. Permite encontrar divergencias entre el oscilador y el gráfico de precios y también marcar momentos o niveles de sobrecompra o sobreventa. Los valores por defecto de los periodos de las medias que se utilizan para el cálculo son 12 para la media exponencial rápida, 26 para la media exponencial lenta y 9 para la media exponencial de la diferencia. Los cruces de las dos líneas son las que marcan las compras y las ventas. Si el MACD cruza a la línea de señal al alza, es posible el inicio de un movimiento al alza y se activa una compra. Si el MACD cruza la línea de señal a la baja, se incrementa la posibilidad del inicio de un movimiento a la baja y se activa una venta. 44 Capítulo 4 Parámetros bursátiles 4.1) Volatilidad La volatilidad [MERCADOS04] se puede definir como la desviación estándar del cambio en el valor de un instrumento financiero con un horizonte temporal determinado. Se usa con frecuencia para cuantificar el riesgo del instrumento a lo largo de dicho período temporal. La volatilidad se expresa típicamente en términos anualizados. Así la volatilidad se incrementa según la raíz cuadrada del tiempo conforme aumenta el tiempo. Esto se debe a que existe una probabilidad creciente de que el precio del instrumento esté más alejado del precio inicial conforme el tiempo aumenta. Matemáticamente se podrá expresar como: (R n 1 i R) 2 n Donde: Ri es el rendimiento activo R es el promedio de rendimientos n es el número de datos o observaciones Para evitar errores derivados de una tasa de variación constante, y para simplificar los cálculos se suele usar la expresión, que asume que el rendimiento medio es cero, por lo que la medida de la volatilidad vendrá dada por la distancia de cada uno de los rendimientos hasta cero: Ri2 n Por su parte para convertir en anual obtenida a partir de datos diarios multiplicaremos la desviación típica por la raíz cuadrada del número de observaciones 45 AÑO DIA 252 (Teniendo en cuenta 252 sesiones anuales) AÑO SEMANA 52 4.1.1) Técnicas para predecir la volatilidad Tenemos dos grandes familias de métodos [MEDIDAS 93], por un lado están las técnicas fundamentales y por otro aquellas basadas en comportamientos históricos. a) Técnicas fundamentales También denominadas volatilidad implícita se basan en descubrir y analizar de dónde proviene en términos económicos la volatilidad. Así el valor de las acciones viene determinado por el valor actual de los flujos de caja que esperamos recibir en un futuro: V CFn Vn CF1 ......... 1 r (1 r ) n Siendo CFn la caja que genera la empresa cada año n y Vn el valor residual de la empresa en el año n. A su vez r, esto es, la tasa de descuento, dependerá de: Los tipos de interés al plazo adecuado La estructura financiera del balance de la empresa (a mayor apalancamiento, mayor tasa de descuento) Riesgo del negocio: a mayor incertidumbre, mayor tasa de descuento En resumen la incertidumbre en el precio de las acciones vendrá de: La percepción del riesgo del negocio La evolución de la estructura financiera de la empresa La estimación de los flujos de caja La tasa de descuento Por tanto inferir valores de la volatilidad, será estimar como van a evolucionar los cambios de todas estas variables. 46 B) Técnicas basadas en comportamientos pasados b1) Volatilidad histórica Se trata de una de las técnicas más usadas en los mercados, y consiste en tomar una muestra de datos (20, 60, 120 sesiones) e inferir como volatilidad futura, la de la ventana elegida. Esta técnica toma la hipótesis de que la varianza del rendimiento de las acciones no depende del tiempo, si no que se mantiene constante. Sin embargo frente a su sencillez presenta inconvenientes tales como la distorsión producida por construir la volatilidad como un promedio de distancias o también la cantidad de observaciones a tomar. En el caso concreto del IBEX-35 parece que lo más adecuado es tomar una muestra de 365 días, teniendo en cuenta también los días festivos, pues según el estudio de Fernández e Yzaguirre, los cambios que se producen el lunes reflejan el cambio de tres días, y no sólo de uno. Otro de los problemas que presenta esta técnica es que da el mismo valor a las últimas observaciones tomadas que a las primeras, pudiendo solucionar esto mediante la volatilidad histórica ponderada. b2) Volatilidad histórica ponderada Con esta técnica conseguimos dar más peso a las observaciones más recientes en detrimento de las observaciones más anticuadas. La expresión matemática de esta técnica será: n t t 1 n t 1 Rt2 t El valor de λ debe ser inferior a uno, y en el caso que n sea muy grande se puede aproximar por: n t 1 t ( 2 ........ n ) 1 1 b3) Volatilidades históricas ponderadas por los precios de cierre, los precios máximos y los mínimos diarios 47 La principal ventaja que presentan estas técnicas es que las anteriores sólo tienen en consideración los precios de cierre de los activos, sin embargo, los precios máximos y mínimos alcanzados durante la sesión nos darán pistas sobre el futuro de la volatilidad. La utilidad de este tipo de volatilidad reside en que permite captar los momentos puntuales de mayor movimiento en precio, que suelen venir reflejados en cambios bruscos en las volatilidades implícitas negociadas dentro del mismo día. Las diferentes expresiones con las que calcular dichas volatilidades son: n 1 n t 1 Alto t ln Bajo t 4 ln 2 2 1 n Altot ln n t 1 Bajot Cierret ln Bajot 2 ln 2 1 Alto 1 2 ln Bajot t Cierret (2 ln 2 1) ln Apertura t n 2 b4) Volatilidades ARCH Y GARCH ARCH Y GARCH son acrónimos respectivamente de heterocedasticidad condicional autoregresiva y heterocedasticidad condicional autoregresiva generalizada. Estos modelos consisten en asumir que los rendimientos de los activos financieros oscilan alrededor de una media según una distribución de probabilidad Normal con media cero, y varianza la volatilidad de dichos rendimientos, por lo que se toma la hipótesis de que el rendimiento futuro de un activo es puramente aleatorio. Esto se expresa mediante las expresiones: Rt R t donde t N (0, t ) 48 Recurriendo a la definición primera de volatilidad la distancia de cada punto a la media será la perturbación ε por lo que se podrá definir la varianza histórica como: t2 1 t21 t2 2 ........ t2 n n Por su parte el modelo GARCH hará depender la varianza en un instante dado de un término constante 0 , de la distancia del último rendimiento a la media t21 y de la varianza histórica de los periodos anteriores t21 según la expresión: t2 0 1 t21 2 t21 Los coeficientes se obtendrán mediante técnicas econométricas tales como la de Máxima Verosimilitud a partir de datos históricos, por lo que podremos cuantificar en que medida la varianza futura depende de la pasada. 4.2) La correlación. Aplicación a los mercados financieros. Se expresa numéricamente mediante el coeficiente ρ y es una medida de la intensidad de la asociación de dos variables, en este caso entre dos acciones o índices bursátiles. La asociación que mostrará entre las dos variables será la relación lineal existente entre ellas. El valor obtenido del análisis deberá estar comprendido entre [-1,1], de forma que cuanto más próximo este dicho coeficiente a -1 ó 1 se explicará en mayor medida el movimiento de una acción por el movimiento de la otra. Sin embargo si dicho valor es cero o un valor muy próximo podremos concluir que apenas si hay relación lineal entre las variables estudiadas. Por su parte el signo de dicho coeficiente nos indica el sentido de la relación, esto es, será de signo positivo si el valor de ambas variables crece a la vez, y de signo negativo si cuando una variable crece la otra decrece. Para el cálculo matemático de dicho coeficiente es muy recomendable partir de un diagrama de dispersión que represente las variables en un mapa cartesiano, y que indicará a simple vista si tiene sentido el cálculo de dicho coeficiente o si por el contrario los valores no parecen presentar ningún orden definido. 49 Figura 4.1: Diagrama de dispersión. Indica una posible relación lineal La fórmula que relacionará las dos series financieras será: ( x, y ) cov( x, y ) donde cov( x, y ) E x E ( x) y E ( y ) x y 4.3) Riesgo de una cartera y estrategias de gestión. 4.3.1) Riesgo Se trata de uno de los campos donde más útil resulta el estudio de las correlaciones entre varias acciones. Por cartera entendemos el conjunto de acciones de diferentes títulos que posee un sujeto. Así mientras el riesgo de un solo título viene dado por la varianza de sus rendimientos, de forma análoga, el riesgo de una cartera será la varianza de los rendimientos de dicha cartera, viniendo dado el peso que representa cada título sobre el total de la cartera por wi : c2 E Rc Rc E wi ri wi ri E wi (ri ri ) 2 2 2 Y generalizando para una cartera de n acciones: 50 n n c2 wi w j ij i 1 j 1 Los diferentes casos que se nos presentarán en función del valor del coeficiente de correlación: Correlación perfecta y positiva entre los activos (ρ=1): el riesgo de la cartera es una media ponderada del riesgo de los dos activos y por tanto es imposible reducir el riesgo por debajo de aquel que lo tenga menor Correlación perfecta y negativa entre los activos (ρ=-1): en este caso podremos encontrar incluso una cartera con riesgo nulo jugando con los pesos de cada acción. Correlación no perfecta entre los activos (ρ≠1,-1): oscilaremos entre el máximo riesgo obtenido en caso de correlación perfecta y el nulo. 4.3.2) Estrategias de gestión de carteras Existen dos estrategias contrapuestas de gestión de carteras [JOURFIN93]: Las estrategias contrarias de gestión de carteras Las estrategias basadas en los beneficios pasados o en índices de fuerza relativa. Ambas estrategias son contrapuestas, pero ambas se pueden aplicar con resultados beneficiosos, dependiendo del periodo de tiempo pasado en el que analicemos el comportamiento de la acción, y del tiempo durante el que mantengamos la estrategia desde la formación de la cartera. Por un lado las estrategias contrarias se basan en comprar acciones “perdedoras” o cuyo comportamiento no ha sido bueno en el pasado y vender títulos “ganadores” que han tenido unos buenos rendimientos en el pasado”. Los periodos adecuados para la aplicación de dicha estrategia parecen ser o a muy largo plazo, comprando acciones con rendimientos pobres en los últimos 3-5 años que se comportarán favorablemente en los siguientes 3-5 años, o por el contrario a corto plazo, con acciones cuyo comportamiento no haya sido satisfactorio en la última semana o mes, y manteniéndolas durante un mes o una semana. 51 La otra familia de tácticas son aquellas basadas en la inercia o en la fuerza relativa, con ejemplos tales como los dados en los rankings elaborados por Value Line o por los fondos de inversión de Grinblatt y Titman. Estas estrategias basadas en comprar acciones que en pasado tuvieron beneficios o “ganadores” o como sostiene Levy, aquellas acciones cuyos precios actuales sean sustancialmente más altos que la media de las últimas 27 semanas, vendiendo aquellas que menos beneficios han producido. Éstas técnicas producen beneficios especialmente en periodos que van de 3 a 12 meses desde la creación de la cartera. Sin embargo dichos beneficios se desvanecen en los siguientes dos años. Un punto importante para unos resultados precisos es dejar una semana entre la formación de la cartera y el comienzo del estudio de la misma, para evitar el efecto de la oferta-demanda, la presión del precio y reacciones retrasadas del precio de la acción a algunos factores. El por qué dos estrategias antagónicas pueden producir igualmente beneficios se explica por: Los beneficios actuales no se deben a los beneficios obtenidos en el pasado o que estos tienden al engaño. Diferencia que se da en las estrategias contrarias entre los periodos de tiempo recomendados en la teoría y los que se usan en la práctica. Tienen rangos de aplicación muy diferentes, mientras que aquellas estrategias basadas en beneficios pasados son principalmente aplicadas en periodos de 3-12 meses, las estrategias contrarias se usan en rangos tan dispares Un aspecto importante es la influencia de la información sobre el precio de las acciones. Si dichos precios tienden a reaccionar en demasía o si por el contrario no reaccionan, en ese caso las técnicas basadas en las ganancias pasadas tendrán sentido. Una aplicación de esta técnica se presenta en este artículo, ordenando las acciones que componen la cartera cada principio de mes en orden ascendente, de manera que cada principio de mes variamos la composición de nuestra cartera comprando aquellas acciones que se consideran “ganadoras” y vendiendo aquellas de resultados más pobres. 52 A pesar de que el propósito fundamental del proyecto no es la elaboración de estrategias futuras de gestión de carteras, sino la representación simplificada de las acciones en base a unos atributos determinados, si nos puede servir como apoyo para trazar dichas estrategias gracias a la representación de la rentabilidad de las acciones en los mapas teniendo en cuenta el periodo de análisis. En primer lugar deberemos elegir la técnica con la que trabajar, o bien una basada en la fuerza relativa o una estrategia contraria. Si nos decantamos por la de fuerza relativa deberemos representar los datos de rentabilidad de las últimas 27 semanas, resultando interesantes aquellas acciones cuya rentabilidad haya sido mayor en dicho periodo, y vendiendo las que peores resultados obtengan. Si por el contrario elegimos una estrategia contraria, deberemos decidir también si queremos resultados a muy corto, corto o largo plazo, para representar los datos de una semana, un mes o 3-5 años respectivamente, resultando interesantes aquellas acciones que hayan tenido peor comportamiento, y desprendiéndonos de aquellas que mayor crecimiento hayan tenido. 4.4) Creación de valor La creación de valor vendrá dada por la diferencia entre aquellos factores que suponen un beneficio para el accionista, menos aquellos asociados al riesgo asumido y a la oportunidad perdida, siendo estos: Rentabilidad de los activos de renta fija. Prima de riesgo del mercado. La beta: coeficiente que compara el riesgo sistemático de un valor, medido por su volatilidad, frente al mercado. Por su parte aquellos factores que suponen un beneficio para el accionista serán principalmente: Revalorización bursátil Los dividendos pagados Las ampliaciones y amortizaciones de capital. 53 Sin embargo hay que matizar varios aspectos. Uno de ellos es que en muchas ocasiones, y con más incidencia en los últimos tiempos, la creación de valor se origina a partir de la existencia de una OPA. Sin embargo es dudoso que este modelo sea sostenible. Las soluciones para cuantificar este hecho serían por un lado un estudio en el que lo más importante fuera la tendencia, frente a un valor puntual y por otro establecer algún tipo de coeficiente que penalizase el crecimiento mediante este procedimiento. Otros hechos muy a tener en cuenta son el reparto de dividendos. Frente a otros factores tales como el atractivo de los negocios, el éxito de las operaciones de expansión, la fortaleza de las cuentas de resultados o una saneada estructura de balance, se aprecia en mayor medida el reparto de dividendos. Esto se debe a que: Se suele relacionar con la capacidad de la empresa de obtener beneficios estables y sostenibles. Supone un retorno seguro de la inversión. Sirve para alimentar el interés del mercado, lo que favorece su revalorización y por tanto la creación de riqueza, independientemente de que el ciclo bursátil sea bueno o malo. Por todo esto puede ser interesante, que en el caso de aquellas empresas en las que se compruebe que habitualmente suelen repartir dividendos bonificarlas mediante un coeficiente. Además es interesante comparar el ciclo bursátil de referencia con el tipo de valor estudiado. Así se denominarán blue chips a los valores estrella de cualquier mercado, siendo grandes empresas con balances saneados y que al margen de sus beneficios puedan fluctuar con el ciclo económico, sin riesgo financiero. Por el contrario los “chicharros” son valores de baja calidad, los pequeños muy manipulados e incluso empresas con situaciones financieras muy delicadas, con los que se especula ferozmente. Según varios estudios, los blue chips en periodos bajistas destruyen mucho valor para el accionista, puesto que suelen recortar el reparto de dividendos y se vuelven más volátiles. Sin embargo en periodos alcistas su comportamiento es muy potente creando riqueza. Otro tipo de compañías son aquellas que son muy constantes creando 54 valor para el accionista. Se comportan mejor en periodos irregulares, pero no se puede esperar de ellas repuntes de rentabilidad. 4.5) Volumen bursátil Se puede definir el volumen como el número de contratos casados, durante una sesión o una semana. Dado que para que se efectúe una compra, es necesario que alguien venda, al final de cada sesión el número de contratos comprados tiene que ser igual al de contratos vendidos. Por su parte se puede definir el volumen monetario negociado, como el número de contratos de compra venta, por el precio al que se han firmado. La importancia del volumen, además de por ser un indicador del grado de actividad bursátil, viene dada porque puede ser utilizado como un elemento de análisis para definir el grado de fortaleza de las tendencias que siguen los precios de las acciones. Así por ejemplo se dan los siguientes casos según tendencia: Tendencia alcista sólida: el volumen sube mientras la cotización sigue subiendo. Tendencia alcista débil: la cotización sube pero el volumen va disminuyendo Tendencia bajista fuerte: el volumen sube mientras la cotización sigue bajando. Tendencia bajista débil: la cotización baja pero el volumen se va reduciendo De este análisis se pueden extraer conclusiones de gestión de carteras, resumidas en indicadores de volúmenes de forma que cada día se suma el volumen de acciones negociadas si el precio cierra al alza, y se resta si el 55 precio baja. Si el balance de volumen va subiendo es debido a que la tendencia alcista es predominante, por lo que conviene comprar. Si por el contrario el balance del volumen va bajando es porque predomina la tendencia descendente, por lo que es el momento de vender. 56 Capítulo 5 Métodos de Análisis Multivariante usados en el estudio de mercados El análisis Multivariante es el conjunto de métodos estadísticos y matemáticos para analizar, describir e interpretar las medidas múltiples de cada individuo o objeto sometido a investigación, pudiendo ser estas medidas de tipo cuantitativo, cualitativo o una mezcla de ambas [CUADRAS96]. En este capítulo se describen las principales técnicas que abarca el Análisis Multivariante, incidiendo más en el Análisis de Correspondencias que se presentará en primer lugar. Por último se abordará la representación gráfica de los resultados obtenidos, esto es, los mapas perceptuales. 5.1) Análisis de Correspondencias El Análisis de correspondencias (CA) es una técnica estadística de interdependencia. Se trata de una técnica de composición pues obtendrá una representación gráfica, llamada mapa perceptual, que se basa en la asociación entre objetos y un conjunto de características descriptivas o atributos especificados por el investigador, todo esto partir de tablas de contingencia. Las variables se representan como puntos en el mapa. Lo que determina el grado de relación entre las variables es la proximidad entre puntos, de forma que a mayor cercanía, más relacionadas están las variables. Las principales aplicaciones del análisis de correspondencias se centrarán en por un lado establecer las ventajas o desventajas competitivas de una empresa respecto a otras, encontrando sus puntos débiles y sus fortalezas, y por otro lado el posicionamiento ideal del mercado, y por tanto poder, establecer que empresas se encuentran más cercanas a dicha área ideal. Se trata de un tipo de análisis [PEDRET00] que en origen es un caso particular del análisis factorial de componentes principales (que posteriormente será estudiado), del que se diferencia en: 57 Frente al análisis de componentes principales trata de simplificar las variables del análisis mediante la construcción de nuevas variables más sintéticas, el análisis de correspondencias trata de analizar las formas que adoptan las relaciones entre las variables, esto es, descubrir las dimensiones estructurales que revelan un conjunto de datos. Se puede analizar cualquier matriz de números no negativos, independientemente de su escala de medida, por lo que es especialmente apropiado para tratar variables cualitativas. Su objetivo básico es analizar las relaciones entre dos conjuntos de variables (generalmente a partir de matrices), donde un grupo en nuestro caso serán las empresas del IBEX-35 y por otro lado los atributos analizados. Representa simultáneamente dos conjuntos de variables en un mismo espacio. Esta representación se basa no en los valores absolutos, sino en las correspondencias entre las características, esto es, en valores relativos. . Realiza la reducción dimensional de la misma forma que el análisis multidimensional o el análisis factorial, representando el resultado obtenido en un mapa perceptual en los que las categorías se encuentran representadas en espacio multidimensional. Como paso previo al análisis se deberá efectuar el siguiente tratamiento previo de los datos: Los valores calculados en porcentajes según filas Los valores calculados en porcentajes según columnas El peso de cada fila y de cada columna La reducción del número de atributos intercorrelacionados a un número más pequeño de dimensiones independientes. Una vez realizado el tratamiento previo de los datos, los pasos básicos que deberemos seguir para utilizar esta técnica son [HAIR99]: 1) Determinación del objetivo básico, pudiendo darse dos casos: Asociación entre categorías de columna o fila: el CA puede utilizarse para examinar la asociación entre las categorías de sólo una fila o columna. Las categorías pueden compararse para ver si dos de ellas 58 pueden ser combinadas, es decir, están muy próximas en el mapa, o si por el contrario ofrecen discriminación, con lo que estarán muy alejadas en el mapa perceptual. Asociación entre categorías de filas y columnas: es el objetivo más usual y su fin es representar la asociación entre categorías de filas y columnas, como por ejemplo sería tratar de averiguar la relación entre las subidas de una empresa, y que esta pertenezca al sector de la construcción. 2) Diseño de la investigación mediante análisis de correspondencias: este análisis requerirá una matriz de datos rectangular de tabulación cruzada y entradas no negativas, llamada matriz de correspondencias. Este concepto se explica más detalladamente en el apartado 4.1.1. 3) Supuestos del análisis de correspondencias: goza de una relativa libertad respecto a sus supuestos básicos. El uso de datos estrictamente no métricos puede representar relaciones lineales y no lineales. Sin embargo la falta de supuestos no exime de buscar la comparabilidad de objetos y a considerar la generalidad de los atributos utilizados. 4) Obtención de resultados con análisis de correspondencias y valoración del ajuste conjunto: con la tabulación cruzada, las frecuencias para cualquier combinación de filas y columnas de las categorías están relacionadas con otras combinaciones basadas en frecuencias marginales. Con este método obtendremos una expectativa condicionada, esto es, un valor chi-cuadrado. Obtenidos dichos valores, se estandarizan y se convierten en una distancia métrica y a continuación se definen soluciones de dimensiones reducidas. Estos factores relacionan simultáneamente filas y columnas en un mismo gráfico. Para evaluar el ajuste conjunto, se identificará el número óptimo de dimensiones y su importancia, siendo el máximo número de estas uno menos el número más pequeño de filas y de columnas (si por ejemplo tenemos 4 filas y 3 columnas tendremos como máximo dos dimensiones). Para obtener la contribución relativa de cada dimensión a la variación de las categorías obtendremos los autovalores o valores singulares. Otra medida de la variación explicada es la inercia. 59 5) Interpretación de los resultados: se podrá identificar una asociación de categorías con otras categorías por su proximidad, tras hacer la normalización adecuada. 6) Validación de los resultados: se tratará de asegurar la generalización mediante el análisis split o multimuestra. La generalidad de los objetos individuales y como conjunto la evaluaremos mediante la sensibilidad de los resultados a la adición o sustracción de un objeto o atributo. Con este método sabremos si el análisis es dependiente de unos pocos objetos o atributos 5.1.1) Matriz de correspondencias y filas y columnas marginales Como se expuso antes se trata de una matriz de datos rectangular (tabulación cruzada) de entradas no negativas. Las filas y las columnas no tienen significados predefinidos, esto es, los atributos no tienen que ser siempre filas, pero si representan las respuestas de una o más variables categóricas. El análisis comienza con la tabla de correspondencias que nos informa de la frecuencia de cada suceso observado, que se denominará O. 1 2 ........... c Marginal Fila 1 o 11 o 12 2 o 11 o 11 . . . . . . . . . ........... o 1C o 1 ........... o 11 o 2 . . . . . . . . . r o R1 Marginal o .1 o R2 o .2 o 11 ........... o RC ........... o .c o R 1 Columna Tabla 5.1. Tabla de correspondencias 60 En esta tabla observamos oij = nij/n representa la frecuencia relativa del caso ij, donde n es el numero total de casos estudiados y nij la frecuencia del caso ij. Las filas de densidad marginal vendrán representadas por oi· = ni·/n siendo las columnas de densidad marginal referidas por o·j = n·j/n. En ambos casos ni· y n·j son la fila y columna de frecuencias absolutas marginales, n n c Estas expresiones se obtendrán respectivamente de: 1,2,…..r y n respectivamente. i. j 1 ij , siendo i= i 1 nij siendo j=1,2,….c. Por su parte designaremos como r al r j. vector fila marginal (r x 1) que se obtienen de oi·, i = 1, 2, . . . , r, y de forma análoga como c al vector columna marginal. La forma de obtener c y r es respectivamente: r O ec y c O´ er siendo eye c r son la columna y la fila unidad respectivamente. La fila y la columna marginal se podrán usar para construir matrices diagonales Dr(r x r) y Dc(c x c) respectivamente. Las nomenclaturas usadas para cada elemento se resumen en la tabla 5.2 Elemento Nomenclatura Tamaño Matriz de O (r xc) Comentarios correspondencias Vector fila unitario e e (r x 1) Formado por 1s (c x 1) Formado por 1s r (r x 1) Columna de densidad c (c x 1) r Columna fila unitario c Fila de densidad marginal marginal Matriz diagonal de filasDr (r x r) marginales Matriz diagonal por los términos de r de D c (c x c) columnas marginales Matriz transpuesta La diagonal formada La diagonal formada por los términos de c X´ Cualquiera La transpuesta de X se notará como X´ Tabla 5.2. Resumen de términos 61 5.1.2) Perfiles marginales y condicionales Los perfiles marginales describen la distribución marginal de las variables fila (r) y columna (c). Con ambas distribuciones podremos obtener las matrices R y C que agrupan los perfiles condicionales. Estos describen las distribuciones condicionadas asociadas a la tabla de correspondencias, Los perfiles fila describen las distribuciones condicionadas de las variables j=1,2,…..c, condicionadas por i=1,2,….r. Por su parte los perfiles columna describen las distribuciones de las variables i=1,2,……r condicionadas por j=1,2,….c 1 1 2 . . . n 2 11 n n 21 n 12 1. n n 22 2. . . . n ........... c ........... n Total 1c n 1. n n ........... 2c 2. . . . 1 1. n 1 2. . . . . . . . . . r Total n r1 n .1 n n n r2 n r. n .2 ........... n rc r. ........... n n .c n 1 r. 1 n Tabla 5.3. Matriz R para los perfiles fila 62 1 n 1 n 2 . . . 2 11 21 n n 12 .1 n n 22 .1 . . . n ........... c ........... n Total 1c .2 n n ........... 2c .2 . . . n n 1. .c n n . . . . . 2. .c n n . . . . n r Total r1 n n r2 .1 1 n 1 n ........... .2 ........... rc n n .c 1 r. n 1 Tabla 5.4. Matriz C para los perfiles columna Con estas dos matrices y la matriz de correspondencia podremos obtener una medida de la desviación de la independencia de los factores. Bajo la hipótesis de dependencia el producto de las matrices fila y columna de densidades marginales deberá ser aproximadamente igual a la matriz de correspondencias. Por lo tanto la expresión (O − rc′) nos dará una medida de la desviación de la independencia. Se puede obtener un perfil fila medio, usando una media ponderada de los r perfiles dados por ri, i = 1, 2, . . . , r. Este perfil fila medio se obtiene de r i 1 ri ( ni . n ) =c, que es el (c x 1) vector marginal columna. Este perfil fila medio se muestra en la tabla 4.3. Análogamente se podrá definir un perfil columna medio, que se representa en la tabla 4.4, que es la media ponderada de los c perfiles columna, obtenidos con la expresión c j 1 cj( n. j n ) =r Al igual que obtuvimos antes una medida de la independencia, la resta de matrices (R − erc′) y (C − ecr′) representan la desviación de los perfiles de la media de los perfiles. Estas matrices también son medida de la independencia. 63 5.1.3) Dependencia e interdependencia mediante Pearson Chi-Cuadrado La existencia de relación de algún tipo entre las variables fila y columna se analiza mediante contrastes de hipótesis sobre la independencia de dichas variables. El test de hipótesis habitualmente utilizado es el de la Chi-Cuadrado de Pearson. En dicho test la hipótesis nula es H0: las variables fila y las variables columna son independientes y la alternativa es H1: las variables son dependientes. El test se basa en comparar los perfiles fila y columna con los perfiles marginales correspondientes, teniendo en cuenta que si H0 es cierta todos los perfiles fila (resp. columna) son iguales entre sí e iguales al perfil marginal de fila (resp. columna). El estadístico del test viene dado por la expresión: Donde: A simple vista se intuye que valores del estadístico pequeños significarán valores de n ij y e ij son de magnitud parecida, con lo que aceptamos la hipótesis nula, mientras que en caso de valores grandes aceptaremos la hipótesis alternativa. Bajo la hipótesis nula el estadístico se distribuye según una distribución: viniendo el p-valor del test dado por: donde es el valor observado en la muestra del estadístico. Para un nivel de significación 0< α <1 la hipótesis nula se rechaza si dicho p valor es menor o igual que α. De esta forma si rechazamos la hipótesis nula las variables de las filas y las columnas son dependientes. En este caso conviene analizar los perfiles condicionales fila y columna así como los residuos del modelo para estudiar qué tipo de dependencia existe entre 64 ellas. Los residuos más utilizados son los llamados residuos tipificados corregidos que vienen dados por la expresión: n Si toman valores grandes en valor absoluto se deberá a que los valores e ij ij y son muy diferentes. Los residuos se distribuyen asintóticamente según una N(0,1) la hipótesis nula y a un nivel de confianza del 95% residuos con un valor absoluto mayor que dos se consideran como valores anormalmente altos 5.1.4) Inercia total Es una medida del grado total de dependencia entre variables y se expresa y se obtiene de G 2 n . También se puede interpretar como una medida de la desviación media total de la columna o de la fila. La forma matricial de expresar la inercia total es: . La teoría de la descomposición del valor singular generalizado se puede obtener para obtener una relación entre la inercia total y una aproximación a la matriz de desviaciones (O − rc′). Para la matriz (O − rc′) la descomposición del valor singular generalizado sujeto a las condiciones y viene dado por: Donde las columnas de A (r x K) y B (c x K) se designan ak y bk, donde μ1, μ2,……….., μk son los elementos de la diagonal de la matriz Dμ (K x K) siendo K el rango de la matriz descompuesta, que será el mínimo de (r-1) ó (c-1). Los vectores ak siendo k=1,2,……,K son denominados ejes principales de las 65 columnas de (O − rc′) y análogamente los vectores bk siendo k=1,2…..K los ejes principales de las filas de (O − rc′). Los elementos diagonales μ1, μ2,……….., μk de Dμ son llamados los valores singulares de (O − rc′). Con todo esto podremos expresar la inercia total como la suma de las medias de los valores singulares: 5.1.5) Coordenadas de los perfiles fila y columna Para la descomposición del valor singular generalizado de (O − rc′) dada por ADµB′ las columnas de las matrices A y B proporcionan los ejes principales para las filas y columnas de (O − rc′) respectivamente. Cada fila de (O − rc′) se podrá expresar como una combinación lineal de filas de columnas de B (filas de B transpuesta) y por consiguiente las coordenadas de las filas de (O − rc′) en el espacio que generan las filas de B transpuesta vienen dadas por ADµ. Las coordenadas de la i-ésima fila de (O − rc′) vienen dadas por la i-ésima columna de ADµ. Análogamente las coordenadas de las columnas de (O − rc′) con respecto al espacio generado por las columnas de A se obtiene de DµB′. Con las expresiones: y se obtendrán las coordenadas para las desviaciones del perfil fila y del perfil columna. Otras expresiones análogas son: A partir de r´V=0 y c´V=0, las coordenadas de las desviaciones del perfil fila y del perfil columna se relacionan mediante las ecuaciones: y 66 Las coordenadas para las r desviaciones del perfil fila vienen dadas por los elementos de Vik, i = 1, 2, . . . , r, k = 1, 2, . . . , k de V que se resumen en la tabla 4.5 Tabla 5.5. Coordenadas para los perfiles fila en ejes principales fila Análogamente procederemos para las c desviaciones del perfil columna que vienen dada por los elementos wjk, j = 1, 2, . . . , c, k = 1, 2, . . . , k, de W que se resumen en la tabla 4.6 Tabla 5.6. Coordenadas para los perfiles columna en ejes principales columna Cada fila de V de la tabla 4.5 proporciona las coordenadas para una desviación del perfil fila con respecto a los K ejes principales dados por las columnas de B. Cada columna de V proporciona las coordenadas de las r desviaciones perfil respecto a un eje principal particular o columna de B. Esto será aplicable de modo análogo a las coordenadas halladas en la tabla 4.6. Las coordenadas para los dos primeros ejes principales (vi1, vi2), i = 1, 2, . . . , r se podrán usar para localizar las r desviaciones perfil en un espacio bidimensional definido por los dos ejes principales. Para las desviaciones de los perfiles columna, las coordenadas de los primero ejes principales vienen dadas por (wj1,wj2), j = 1, 2, . . . , c. 67 5.1.6) Contribuciones parciales a la Inercia Total Una media ponderada de las coordenadas en una columna de V dada por r´V produce el vector cero, y por consiguiente la media de cada columna de V es cero. La media del cuadrado de los elementos en una columna de V es dada por la expresión: Por consiguiente usando las filas marginales como términos, las coordenadas con respecto a cada eje principal tienen de media cero y de varianza μ 2K , k = 1, 2, . . . ,K. A partir de que los cuadrados de los valores singulares vienen dados por μ 2K y de que K k 1 μ 2K representa la inercia total, se puede concluir que las varianzas ponderadas de las columnas de V muestran la contribución de cada eje principal a la inercia total. La inercia total se podrá representar: Por consiguiente oi. i 1Vik2 nos da la contribución de la i-ésima desviación del perfil fila a la inercia total. De la misma forma, los elementos de W relacionarán la inercia total de las desviaciones de los perfiles columna y sus ejes principales. 5.1.7) Cosenos al cuadrado Para cada desviación del perfil fila la inercia oi. i 1Vik2 puede ser asignada a las K dimensiones como oi21 , oi22 ,…….., oik2 . Las proporciones muestran la asignación de la desviación del perfil fila a la k-ésima división. Esta proporción representa el cuadrado del coseno del ángulo entre la dimensión k 68 y una linea que une el origen con el punto que representa el perfil fila. La expresión que permitirá hallar dicho ángulo será: La interpretación de este resultado es que cuanto más cercano sea su valor a 1, más próximo esta el i-ésimo punto fila a el k-ésimo eje, y por consiguiente más importante es este eje para esa dimensión. Si efectuamos este proceso con todos los puntos fila podremos representar estos puntos en un gráfico llamado mapa perceptual. 5.1.8) Principio de la distribución equivalente Esta propiedad de la Chi-Cuadrado muy usada en CA dice que si dos perfiles fila son idénticos, se podrán remplazar por un solo perfil fila que será la suma de los perfiles, no afectando esto a los perfiles columna. De la misma forma, un perfil fila se podrá dividir en dos o más filas. Si dos perfiles son idénticos, estarán situados en el mismo lugar del espacio fila. Con esto se asegura la independencia de la solución con respecto a la codificación inicial de las variables. 5.1.9) Aproximación generalizada de los menores cuadrados El objetivo del CA es sustituir la matriz de desviaciones (O − rc′) por una aproximación más simple que dicha matriz, de forma que tenga un menor numero de ejes principales de la descomposición generalizada de valores singulares, siendo el resultado una matriz X (r x C). Normalmente, X vendrá dada por los dos primeros términos de K k 1 a k bk´ k con lo que será una aproximación de segundo orden de (O − rc′). Minimizando: entre todas las matrices X de segundo orden o menores se consigue la ecuación: 69 Por consiguiente, la descomposición generalizada de valores singulares ofrece una aproximación a las desviaciones de (O − rc′). Esta aproximación maximiza la proporción de la inercia total que puede ser asignada a las dos dimensiones. Por tanto sólo necesitaremos las dos primeras columnas de las tablas 4.5 y 4.6 para obtener la representación. La primera columna de la tabla 4.5 dará los lugares en los primeros ejes principales fila, mientras que la segunda columna dará lo mismo a lo largo de los segundos ejes principales. Para la tabla 5.6 se procederá igual, pero esta vez para las columnas. 5.1.10) Filas y columnas de desviaciones y autovectores Las expresiones: y junto con las coordenadas de los vectores para las desviaciones de las filas y columnas proporcionan las ecuaciones de los autovalores. Estos autovalores reflejan la relación entre el vector de coordenadas y los autovalores y autovectores de las dos matrices simétricas: y 5.2) Escalado Multidimensional El escalado multidimensional son un conjunto de técnicas estadísticas cuyo fin suele ser la representación gráfica de un conjunto de datos. Se basa en las comparaciones entre objetos. Estos objetos tendrán varias dimensiones, debiendo diferenciar entre dimensiones objetivas y subjetivas. Así por ejemplo la cotización de una acción en un periodo de tiempo será una acción será una dimensión objetiva, mientras que la confianza de los inversores en que esta acción tenga un comportamiento alcista será una dimensión subjetiva. Las dos diferencias principales entre estas dimensiones son [HAIR99]: Diferencias individuales: las dimensiones percibidas por el individuo, en este caso los inversores, pueden no coincidir con las dimensiones objetivas supuestas. Así los individuos pueden considerar diferentes conjuntos de características objetivas y variar la importancia dada a 70 cada dimensión. Así en nuestro ejemplo, puede que una acción haya sufrido pérdidas en la última semana. Sin embargo un inversor basándose en la impresión personal que le transmite la empresa y en experiencias pasadas considera que lo más probable es que dicha acción entre en un ciclo alcista. Interdependencia: las evaluaciones de las dimensiones pueden no ser independientes y pueden no concordar. Las dimensiones objetivas como las percibidas pueden interactuar con el resto creando evaluaciones inesperadas. Por ejemplo una acción puede considerarse un mejor “valor refugio” que otra, a pesar de que está probado que tiene una mayor volatilidad y es más sensible a los cambios del mercado. Los objetivos del escalado multidimensional serán: Construir un espacio métrico Conseguir el menor número de dimensiones posibles Conseguir el mayor grado posible de fidelidad Dicho de otra forma, el análisis de escalas multidimensionales estudiará como de similares (próximos) están las empresas cotizadas. Otro de los principales fines es el posicionamiento de las empresas, esto es, establecer aquellas características que diferencian a unas empresas de otras El escalado multidimensional [PEÑA02] arranca cuando tenemos una matriz cuadrada (n x n) de distancias o disimilitudes entre los n elementos de un conjunto. Estas distancias pueden haberse obtenido a partir de ciertas variables, o pueden ser el resultado de una estimación directa, por ejemplo haciendo un sondeo a varios inversores. El objetivo que se pretende es representar esta matriz mediante un conjunto de variables ortogonales, y1 ,..,y p llamadas coordenadas principales donde p <n, de manera que las distancias euclídeas entre las coordenadas de los elementos respecto a estas variables sean iguales (o los más próximas posibles) a las distancias o disimilaridades de la matriz original. Es decir, a partir de la matriz D se pretende obtener una matriz X, de dimensiones n × p, que pueda interpretarse como la matriz de p variables en los n individuos, y donde la distancia euclídea entre los elementos reproduzca, aproximada-mente, la matriz de distancias D inicial. Cuando p >2, 71 las variables pueden ordenarse en importancia y suelen hacerse representaciones gráficas en dos y tres dimensiones para entender la estructura existente. Podemos comparar el escalado multidimensional con otras técnicas de interdependencia como el análisis factorial o el análisis de componentes principales. El análisis factorial agrupa variables en valores teóricos que definen las dimensiones subyacentes del conjunto original de variables, agrupando conjuntamente aquellas variables que estén muy correlacionadas. Por su parte el estudio de componentes principales considera la matriz (p x p) de correlaciones o covarianzas entre variables e investiga su estructura y el análisis cluster agrupa observaciones de acuerdo con su perfil sobre un conjunto de variables (valor teórico cluster) en la cual las observaciones muy cercanas se agrupan juntas. Frente a estos métodos el escalado multidimensional, a diferencia del análisis cluster puede obtener una solución para cada individuo y no utiliza el valor teórico, con lo que se reduce la influencia del investigador al no exigir la especificación de las variables que se utilizan la comparación de objetos. Por su parte frente al análisis de componentes principales se puede decir que tienen enfoques complementarios pues mientras que con componentes principales se considera la matriz ( p x p) de correlaciones o covarianzas entre variables e investiga su estructura, el escalado dimensional estudia la estructura de la matriz (n x n) de distancias entre individuos 5.2.1) Proceso del escalado multidimensional Las técnicas de análisis multivariante se agrupan en dos conjuntos principales: análisis de proximidades y análisis de preferencias. Si partimos de similitudes o diferencias entre las empresas se aplicará el análisis de proximidades, para evaluar dichas similitudes. Por el contrario, si el dato de partida es una clasificación de las empresas, ordenadas según algún factor, se utilizará el análisis de preferencias. Los datos de entrada pueden ser métricos o no métricos, en cuyo caso se asumirá que los datos son cuantitativos o cualitativos (ordinales), respectivamente. 72 a) Análisis de proximidades. Las etapas de las que consta el análisis de proximidades son [PEDRET00]: 1) Diseño del análisis: los datos sobre los que se efectúa este análisis se expresan mediante una matriz de similitudes o de disimilitudes entre objetos. A partir de las similitudes entre n objetos pertenecientes a un conjunto E E 1,......, j , k ,......n . A cada par de objetos está asociada una semejanza S jk que aumenta cuando la semejanza entre j y k aumenta. Este índice de similitud cumplirá las siguientes propiedades: 0 S jk S max siendo S max el valor máximo de similitud fijado por el investigador. S jj S max j E S jk S kj j , k E De forma análoga se podrá asociar a cada par de objetos un índice de disimilitud DS jk que aumenta a medida que los objetos j y k son menos parecidos. Las propiedades de los índices de disimilitud son: 0 DS jk DS max siendo S max el valor máximo de similitud fijado por el investigador. DS jj 0j E DS jk DS kj j , k E 2) Procedimiento de resolución: dada una medida de disimilitud entre los n elementos de un conjunto finito de objetos (empresas) se trata de buscar una configuración de los n objetos en un espacio, que tenga el menor número posible de dimensiones, de forma que las distancias entre los puntos calculados en este espacio sean lo más parecidas posible a las medidas de disimilitudes iniciales. Así se parte de la matriz de disimilitudes DS ds jk para determinar: Las dimensiones r, r <n, siendo n el número de objetos inicial La configuración de n vectores X 1 ,....., X j , X k ,.... X n R r , donde cada vector representa las coordenadas de cada empresa en las r 73 dimensiones, tales que si las distancia entre dos objetos X j y X k R r viene dada por d 2jk ( X j X k )´( X j X k ) la ordenación dada por los s jk sea idéntica a la dada por los d jk debiéndose cumplir: - ( j , k ) y ( j´, k´) E - ds jk ds j´k ´ d jk d j´k ´ (condición de monotonía) - (ds jk d jk ) 2 sea una cantidad mínima j k Para analizar si la configuración de los n objetos en las r dimensiones respeta la configuración de los índices disimilitud iniciales, se dispone del índice de llamado stress que indica el grado de monotonía en la relación entre la ordenación engendrada por las disimilitudes ds jk y la ordenación dada por las distancias d jk 1 (ds jk d jk ) 2 2 jk St estando dicho valor comprendido entre 0 y 1, siendo 2 ds jk jk mejor el ajuste cuanto más próximo a 0, debiendo ser siempre menor para considerarse aceptable que 0,2 3) Selección del número de dimensiones: se asocia al número de ejes a conservar, siendo esta decisión más subjetiva que estadística, siendo determinante el conocimiento previo del estudio. Criterios: Criterio estadístico: se basa en la medida del stress, eligiéndose aquella dimensionalidad para la que se obtenga el menor valor de stress, aunque ya que este decrece a medida que se aumentan las dimensiones, será necesario buscar un equilibrio entre el valor de dicho índice y las dimensiones a incluir. Facilidad de interpretación: generalmente bastará con dos dimensiones, pero puede darse el caso de que sea fácilmente interpretable con 3 pero no con 2 Facilidad de uso: suele ser más fácil trabajar con 2 dimensiones 74 4) Interpretación de las dimensiones: esta interpretación puede partir de la posición de los objetos en el espacio resultante (aproximación subjetiva) o por métodos estadísticos (aproximación objetiva): Aproximación subjetiva: se establece que una dimensión no existe si no se puede interpretar, basándose la interpretación en la posición de los objetos en el espacio resultante, identificando que empresas ocupan los extremos del espacio, y posteriormente identificando un atributo o propiedad que explique las posiciones relativas del objeto en el espacio. Aproximación objetiva: si se identifica alguna variable que guarda una relación sistemática con la posición de las empresas, será razonable tratar de utilizar esta variable para explicar la configuración. En el caso de que no sirva sólo con interpretar las dimensiones, sino que también sea necesario saber cómo se posicionan las empresas respecto a los atributos se procederá de la siguiente forma: 1) Obtener la puntuación media de cada objeto en los atributos investigados. 2) Efectuar una regresión múltiple del tipo: ai 0 1 X i1 .... r X ir 3) Analizar el coeficiente de correlación múltiple de la ecuación anterior, si el valor es alto se determinará que se usó el atributo al hallar las matrices de similitud. 4) Obtención de los cosenos directores de los vectores atributo con mayores coeficientes de correlación simple: i i 2 i siendo i=1,2,…,r. Por su parte R 2 indica el porcentaje de variación de la puntuación de cada tipo de programación es explicado por la posición de la cadena en la configuración de dos dimensiones 75 b) Análisis de preferencias Se basa en que para cada sujeto existe por lo menos una combinación perfecta de las características de un objeto. Se pueden interpretar dichas combinaciones como que reflejan la mayor o menor proximidad de los objetos al punto ideal. Desde el punto de vista de la representación geométrica, cada individuo está representado en un punto, de forma que los objetos más próximos son los preferidos. También se puede representar al sujeto en forma de vector de forma que ahora el orden de preferencias se determina por el orden de las proyecciones. Las etapas del análisis de preferencias son: 1) Diseño del análisis: sea E 1,...., j , k ,.......n un conjunto de empresas e I 1,...., i,.......m un conjunto de individuos. La obtención de información sobre las preferencias de los individuos suele efectuarse mediante los siguientes métodos: a) Ranking de preferencias: cada individuo asignará un ranking de preferencia de 1 a n a cada objeto, siendo n el número total de objetos. Dicho ranking se representa por: Pmn pij donde pij es el ranking dado por el individuo i al objeto j b) Comparaciones por pares: los datos toman la forma de una relación binaria, la cual representa la relación de preferencias del individuo. Se representa para un individuo i por Am,n ai , jk en donde ai , jk =1 j preferido a k si j>k ai , jk =0 k preferido a j si k > j ai , jk =1/2 k y j son diferentes si k = j a i , jj =1 A su vez en el análisis de preferencias podrá distinguirse ente el análisis interno, que trata de estimar las similitudes entre objetos y puntos ideales, partiendo de las preferencias expresadas por los individuos. Por el contrario en el análisis externo las similitudes de los objetos han sido obtenidas anteriormente, tratándose únicamente de estimar los puntos ideales 76 2) Procedimiento de resolución: dada una configuración de n objetos en un espacio R r se deberán determinar la posición de los m individuos en este espacio, de forma que las posiciones relativas de los objetos y de los individuos en el espacio de representación se correspondan con las preferencias expresadas previamente. Sea X= ( X 1 ,....., X j ,.... X n ) , siendo Xj un vector que representa las coordenadas del punto-objeto j en las r dimensiones seleccionadas. Se tratará de encontrar en R r la configuración de los puntos individuo o puntosY ( y1 ,.........., y i ,...... y m ) e yi un vector de R r que ideales Y, siendo representa las coordenadas del punto-individuo i. Se pretende asociar a cada individuo I un punto, tal que el orden de las distancias entre x j e y i sea lo más parecida posible al orden inicial de preferencias del individuo i. Siendo: Pi ,n pij el orden de preferencias del individuo i sobre los n objetos Di , n d ij el orden de las distancias en el espacio R r entre el punto ideal y i del individuo i y cada uno de los n objetos, siendo la representación de las preferencias del individuo i en las r dimensiones: 1 r 2 d ij ( y it x jt ) 2 siendo adecuada esta representación si Pi ,n Di ,n t 1 3) Interpretación de resultados: el principal objetivo es hallar la vulnerabilidad de las diferentes empresas analizadas. Dicho grado de vulnerabilidad se puede medir por la distancia entre los puntos ideales y las empresas 5.2.2) Interpretación de los resultados del escalado multidimensional Al igual que en otros métodos, la relación de los objetos representados en el mapa perceptual vendrá dada por la proximidad de estos objetos en dicho mapa. Del mismo modo cuanto más alejados se encuentren, menor es la relación entre dichos objetos. 77 Una vez tenemos todas las distancias entre todos los objetos del mapa, deberemos determinar cuantas dimensiones son necesarias para explicar el modelo. Deberemos añadir dimensiones hasta que no se produzcan mejoras sustanciales, En esta interpretación deberemos tener en cuenta las limitaciones del método. Una es que no está garantizado que logremos un conjunto de dimensiones significativas. Además factores psicológicos pueden falsear los resultados si no son manejados convenientemente 5.3 Análisis de Componentes principales El Análisis de Componentes Principales (ACP) es una técnica estadística de síntesis de la información, o reducción de la dimensión (número de variables). Es decir, ante un banco de datos con muchas variables (p), el objetivo será reducirlas a un menor número perdiendo la menor cantidad de información posible. Los nuevos componentes principales o factores serán una combinación lineal de las variables originales, y además serán independientes entre sí. Un aspecto clave en ACP es la interpretación de los factores, ya que ésta no viene dada a priori, sino que será deducida tras observar la relación de los factores con las variables iniciales (habrá, pues, que estudiar tanto el signo como la magnitud de las correlaciones). Esto no siempre es fácil, y será de vital importancia el conocimiento que el experto tenga sobre la materia de investigación. Una propiedad interesante es que los primeros componentes explican la mayor parte de la variación de las variables originales. Normalmente los componentes se disponen en orden descendente, de forma que cada componente explica la mayor parte que puede de la variable original, siendo esta información cada vez menor según vamos avanzando componentes. Por tanto se decidirá cual 78 es número apropiado de componentes para representar la información que originalmente se tenían. El análisis de componentes principales se puede interpretar como una rotación de los ejes existentes a una nueva posición. En esta nueva rotación no habrá correlación entre las nuevas variables definidas por la rotación. El requisito que se debe cumplir es que todos los componentes deben ser ortogonales, por lo que no habrá relación entre ellos. Esto significa que cada componente cuantifica diferentes dimensiones de los datos dados. Por otro lado las variables deben estar relacionadas entre ellas para que se puedan resumir en un número reducido de componentes. Cada componente principal puede ser expresada en función de las p variables observadas que están correlacionadas entre ellas usando las ecuaciones: Para evitar la influencia de la escala de medida original, es normal normalizar los valores originales antes de extraer los componentes principales. La versión normalizada de las anteriores ecuaciones es: En ambos casos los coeficientes λ representan los pesos o coeficientes de saturación de las diferentes variables observadas en cada componente principal. 79 Los coeficientes e λ k1, λ k2, . . . , λ deberán cumplir las siguientes kp condiciones: Primer componente principal: combinación lineal de PC1 que maximiza Var(PC1) y || λ 1||=1 Segundo componente principal: combinación lineal de PC2 que maximiza Var(PC2 ) y || λ 2||=1 y Cov (PC1, PC2)=0 j-ésimo componente principal: combinación lineal de PCj que maximiza Var(PCj) y || λ j||=1 y Cov (PCk, PCj)=0 para todo k<j Esto significa que los componentes principales de estas combinaciones lineales que maximizan la varianza de la combinación lineal y que tienen una covarianza nula con el componente anterior. El porcentaje de la variación total de cada uno de los componentes es dado por la expresión: %Variación j j 100 p i 1 i Existen muchos algoritmos de calculo para hallar los Componentes Principales. Dado el mismo punto inicial producirán los mismos resultados salvo en un caso: cuando en un punto halla dos o mas rotaciones posibles que contienen la misma variación máxima, está indeterminado cual usar. En dos dimensiones la nube de dispersión de los datos parecerá un círculo en lugar de una elipse. En un círculo cualquier rotación será equivalente. Mientras en una nube de dispersión de datos elíptica el primer componente será paralelo al eje principal de la elipse. Por consiguiente la mayoría de los mapas obtenidos con esta técnica ofrecen un gráfico elíptico de los diferentes elementos representados, permitiendo una optima interpretación del mapa. Para una mayor seguridad en los coeficientes de correlación, es importante que la muestra tenga al menos cinco casos para cada variable observada 5.3.1) Proceso del análisis de Componentes Principales Los pasos a dar serán: 1) Conseguir los datos necesarios 80 2) Restar la media: para un proceso correcto es necesario restar la media de cada una de las dimensiones de datos, siendo esta media la media de cada dimensión. Con esto se consigue un conjunto de datos cuya media es cero 3) Calcular la matriz de covarianzas: para un conjunto de datos de n dimensiones se obtiene a partir de la expresión: Donde C nxn es una matriz de n filas y n columnas, y Dim x es la x-ésima dimensión. Para n=3 la matriz tendrá el siguiente aspecto: Esta matriz será simétrica, mientras que en la diagonal principal se encuentran los valores de la varianza de cada dimensión. 4) Calcular los autovalores y autovectores de la matriz de covarianzas: se pueden interpretar como las direcciones fundamentales de un conjunto de datos, ofreciendo una valiosa información sobre el modelo de los datos. El primer autovector muestra como dos conjuntos de datos están relacionados a lo largo de una línea. El segundo da otro modelo que siguen los datos, siendo menos importante que el primero. En este segundo modelo todos los puntos siguen la misma línea principal pero algunos están a un lado de la línea principal. Por su parte los autovalores pueden ser considerados como una evaluación de cuan representativo es un componente los datos. El mayor autovalor de un componente será el más representativo. También ofrecen una medida del porcentaje de la varianza total explicada. Sin embargo esto depende de lo adecuados que sean los componentes para resumir los datos. En teoría la suma de todos los componentes debería explicar el 100% de la variabilidad de los datos, sin embargo esto raramente se consigue. 81 Por consiguiente con los autovalores de la matriz de covarianzas se consiguen líneas que caracterizan los datos, con lo que el resto del proceso perseguirá transformar los datos en términos de las líneas. 5) Elección de los componentes y formación del vector característico: obtenidos los autovalores, se procederá a ordenar de mayor a menor, con lo que los componentes se ordenan en orden de importancia, lo que simplifica la elección de los componentes, pues aquellos cuyos autovalores sean menores aportarán menos información, con lo que se podrán despreciar, con lo que el conjunto final de datos será de una dimensión menor a la dimensión p inicial. 5.3.2) Representación gráfica del análisis de componentes principales La interpretación gráfica habitual de este análisis son los planos compuestos generalmente por dos dimensiones por motivos de simplicidad. En ellos se representan tanto los puntos fila, como los puntos columna, con respecto a las dos dimensiones elegidas de que aquellas que hayan resultado del análisis. Y aunque el criterio para interpretar dichos mapas es la proximidad de los puntos, no se deberá comparar directamente la proximidad entre puntos fila y puntos columna. El método correcto para comparar puntos de diferente naturaleza es observar los cosenos de los ángulos que forman los vectores de dirección de los puntos, pudiendo concluir que aquellos puntos fila y columna que presenten cosenos de valor parecido se encuentran próximos o aparecerán con frecuencia juntos. Para determinar la validez de la representación gráfica se puede calcular las varianzas de los puntos filas y columnas con respecto a las dimensiones halladas y la correlación entre las mismas para cada punto fila o columna. Así una varianza elevada supone una mayor incertidumbre sobre la posición de los puntos de una población. Por otro lado, valores elevados de las correlaciones entre dimensiones respecto a un punto determinado indican que dicho punto puede asociarse a más de una dimensión. 82 5.4 Análisis Factorial El Análisis Factorial [HAIR99] es el nombre genérico que se da a una serie de métodos estadísticos multivariantes cuyo propósito principal es obtener la estructura subyacente en una matriz de datos. Analiza la estructura de las interrelaciones entre un gran número de variables no exigiendo ninguna distinción entre variables dependientes e independientes. Utilizando esta información calcula un conjunto de dimensiones latentes, conocidas como factores, que buscan explicar dichas interrelaciones. Es, por lo tanto, una técnica de reducción de datos dado que si se cumplen sus hipótesis la información contenida en la matriz de datos puede expresarse, sin mucha distorsión, en un número menor de dimensiones representadas por dichos factores. Un Análisis Factorial tiene sentido si se cumplen dos condiciones: Parsimonia e Interpretabilidad. 5.4.1) El Análisis Factorial frente a otros métodos de análisis El Análisis Factorial (AF) difiere de las técnicas de dependencia anteriormente expuestas, en que se consideran una o más variables explícitamente como las variables de criterio o dependientes, siendo las demás variables de predicción o independientes. En el AF los valores teóricos (los factores) se forman para maximizar la explicación la serie de variables entera, y no para predecir una variable dependiente. Así en el resto de técnicas de dependencia, cada una de las variables observadas sería una variable dependiente que es una función de una serie de funciones (dimensiones) subyacentes que están compuestas por todas las otras variables, por lo que cada variable es predicha por todas las demás. Por el contrario en el AF se puede considerar cada factor (valor teórico) como una variable dependiente que es función del conjunto entero de las variables observadas. Como resumen se podría decir que mientras que las técnicas de dependencia tienen como objetivo la predicción, las técnicas de interdependencia buscarán la identificación de la estructura 83 El AF también se diferencia bastante de técnicas como el Escalado Multidimensional o el análisis Cluster. Así mientras el AF se suele aplicar a la matriz de correlaciones, los otros métodos son más generales y se pueden aplicar a cualquier matriz de medidas similares. Sin embargo estos métodos no pueden enfrentarse a propiedades de la matriz de correlaciones tales como la proyección de variables. Además el AF puede reconocer ciertas propiedades de las correlaciones, pues estas se consideran simplemente medidas similares. 5.4.2) Formulación del problema de Análisis Factorial Se seleccionan [GORSUCH83] las variables a analizar así como los elementos de la población en las que dichas variables van a ser observadas. Aunque pueden realizarse análisis factoriales con variables discretas y/o ordinales lo habitual será que las variables sean cuantitativas continuas. Es importante que dichas variables recojan los aspectos más esenciales de la temática de estudio y su selección deberá estar marcada por la teoría subyacente al problema. No tiene sentido incluir variables que no vengan fundamentadas por los aspectos teóricos del problema porque se corre el riesgo de que los resultados obtenidos tengan una estructura muy complicada con la consiguiente dificultad de interpretación. Por eso es importante tener una idea previa al análisis de los factores a medir, y las variables que mejor los van a reflejar y no al revés pues puede suceder que los factores queden mal estimados por una mala selección de las variables. Así mismo, la muestra debe ser representativa de la población objeto de estudio y del mayor tamaño posible. Como regla general deberán existir por lo menos cuatro o cinco veces más observaciones (tamaño de la muestra) que variables. Si el tamaño de la muestra es pequeño y esta relación es menor, los resultados deben interpretarse con precaución. Conviene hacer notar, finalmente, que los resultados del análisis no tienen por qué ser invariantes a cambios de origen y escala por lo que se deberá normalizar los datos antes de realizar el análisis, especialmente cuando las unidades de medida de las variables no son comparables. 84 5.4.3) Proceso del Análisis Factorial Los pasos a seguir para la realización de un análisis factorial son: 1) Definir los objetivos deseados: básicamente son la identificación de la estructura mediante un resumen de datos o bien la reducción de datos. En el primer caso podremos distinguir entre: a) Análisis factorial R: es el más usual y se aplica a la matriz de correlación de las variables. En él se analiza una serie de variables para identificar las dimensiones que no son fácilmente observadas b) Análisis factorial Q: se aplica a la matriz de correlación de las observaciones individuales, y es un método que persigue combinar o condensar grandes grupos de individuos en grupos claramente diferenciados dentro de una población mayor. Este método presenta bastantes dificultades operativas, por lo que será más recomendable realizar un análisis Cluster. En cuanto a la reducción de datos podremos con el análisis factorial podremos tanto identificar las variables suplentes de una serie de variables más grande para su utilización en análisis multivariantes posteriores o crear una serie de variables completamente nueva más pequeña en número para reemplazar parcial o completamente la serie original de variables para su inclusión en técnicas posteriores. 2) Diseño de un análisis factorial: implicará el cálculo de los datos de entrada, esto es, una matriz de correlación. Deberemos determinar también el número de variables, las propiedades de medición de dichas variables y los tipos de variables permisibles y por último el tamaño muestral necesario. En cuanto a esto último, además de lo expuesto anteriormente, no se tomará una muestra inferior a 50 observaciones, y preferiblemente debería ser mayor de 100 observaciones. Supuestos en el análisis factorial: será deseable que haya un cierto grado de multicolinealidad pues el objetivo es identificar series de variables interrelacionadas. Se deberá determinar la justificación del uso del AF: 85 Test de esfericidad de Barlett [INVESTIGACION96]: comprueba si la matriz de correlaciones es una matriz identidad. Serán validos aquellos resultados que arrojen un valor elevado del test y cuya fiabilidad sea menor que 0,05. Coeficiente de correlación parcial: es una medida de la intensidad de la relación entre dos variables, eliminando la influencia de otras variables. Si las variables tienen factores comunes, el coeficiente de correlación parcial entre estas variables deberá ser muy bajo, pues se eliminan los efectos lineales de otras variables, siendo recomendable observar el número de celdas no pertenecientes a la matriz diagonal cuyo valor es superior a 0,05 ó 0,1 Índice de Kaiser-Meyer-Olkin (KMO): compara los coeficientes de correlación simple con los coeficientes de correlación parcial, cuyos valores oscilan entre 0 y 1. La interpretación de dicho índice se efectuará según estos parámetros: 1≥ KMO ≥ 0,9: Muy Bueno 0,9 ≥ KMO ≥ 0,8: Meritorio 0,8 ≥ KMO ≥ 0,7: Mediano 0,7 ≥ KMO ≥ 0,6: Mediocre 0,6 ≥ KMO ≥ 0,5: Bajo 0,5 ≥ KMO: Inaceptable 3) Estimación de los factores y valoración del ajuste general: el número de factores a extraer es crítico, pues deben ser suficientes para explicar la estructura, pero si son demasiados o insuficientes harán más oscura la estructura. Los criterios que se suelen aplicar son: Criterio de raíz latente: es la más frecuente y sencilla de aplicar. Dice que cualquier factor individual debería justificar la varianza de por lo 86 menos una única variable. Cada variable contribuye con un valor de 1 para el autovalor total. Por eso sólo se considerarán autovalores mayores que 1, desestimando los menores. Criterio de a priori: se establece un número factores a extraer y se para el análisis cuando se alcanza dicho número. Criterio de porcentaje de la varianza: se basa en obtener un porcentaje acumulado especificado de la varianza total extraída. No se debería detener hasta alcanzar al menos un 95% de la varianza. 4) Interpretación de los factores: se calculará la matriz inicial de factores no rotados para obtener una indicación preliminar de los factores a obtener. Sin embargo no suele suministrar un patrón significativo por lo que será aconsejable rotar los factores pues disminuye la ambigüedad. Finalmente se evaluará si hay que especificar un nuevo modelo o el existente es válido. 5.4.4) Rotación de factores La matriz de factores que muestra la relación entre las variables y los factores suele ser de difícil interpretación, pues suele haber muchas variables que tienen un valor alto de coeficiente en más de un factor. Sin embargo para comprender todos los datos de la matriz de factores el objetivo será que casi toda la varianza de una variable sea explicada por un único factor. Por consiguiente un coeficiente cuyo valor sea próximo a 0 significará que no hay relación entre una variables y un factor, mientras que si el coeficiente tiene un valor absoluto próximo a 1, supondrá la existencia de relación. Uno de los métodos que nos permite identificar estas situaciones es la rotación de factores. La rotación es una forma de girar los ejes principales para aproximar las variables empíricas y simplificar la interpretación. El objetivo será que cada variable quede mejor definida por una de las dimensiones que por el resto. Por tanto, como el número de componentes permanece constante, sólo varía la composición de los diferentes factores. Con esta operación no afectamos a los autovalores, pero si alterará los autovalores de los factores y la carga de los factorial (correlaciones entre cada 87 variable y el factor), y por tanto el porcentaje de variación explicada. Los tipos de rotación son: a) Rotación ortogonal: parte de que cada factor es independiente de los otros, por tanto, mantiene los ejes de los factores perpendiculares entre ellos. Algunos de los métodos de este tipo son: Varimax: es el método más usado. Trata de simplificar la estructura de los factores maximizando la varianza de los coeficientes de los factores al cuadrado en cada uno de los factores ( ij2 ). Normalmente estos factores suelen usarse normalizados. Quartimax: es similar al anterior, pero aplica el procedimiento entre variables representadas en las filas de la matriz en oposición de las columnas, que son usadas en el método anterior. Es más simple que el anterior, pero muestra la separación entre los diferentes factores de una forma menos clara. Equimax: es una mezcla de los anteriores, trata de simplificar tanto las filas como las columnas de la matriz, sin embargo no es muy usado b) Rotación oblicua: es aplicado cuando toda la información ha sido normalizada, siendo el resultado de la combinación de dos criterios, Quartimin, que es similar a Quartimax pero minimizando y Covarimin, que minimiza las covarianza de los coeficientes de los factores al cuadrado. Hay dos procesos de este tipo: Oblimax que trata de maximizar el numero de grandes y pequeños coeficientes, reduciendo el rango medio Promax, que es un método nuevo que aplica métodos ortogonales para encontrar la matriz deseada. 5.4.5) Representación gráfica del Análisis Factorial La representación más habitual es la representación de los factores en el espacio factorial rotado, que consiste en un mapa en que se exponen las 88 cargas factoriales de cada atributo, lo que puede ayudar a la interpretación del análisis. Para simplificar dicho gráfico normalmente no se representan más de dos factores. En nuestro ejemplo representamos los atributos P17 respecto a los factores resultantes de la aplicación de un análisis factorial, esto es, el Factor 1 y el Factor 2. Factor 1 P17_09 P17_13 P17_06 P17_08 P17_12 Factor 2 0,8426 0,103 0,133 1,107 -0,215 Gráfico de los factores en el espacio factorial rotado Factor 2 1,2 1 0,8 P17_09 0,6 P17_13 0,4 0,2 P17_06 0 -0,2 0 P17_08 P17_12 0,5 1 -0,4 Factor 1 Figura 5.1: Gráfico de los factores en el espacio factorial rotado 5.5 Análisis Cluster Por análisis Cluster se conoce al grupo de técnicas multivariantes cuyo objetivo es agrupar objetos basándose en las características que poseen. Por tanto este análisis clasifica los objetos en conglomerados, dentro de los cuales cada objeto es muy parecido al resto de componentes respecto a algún criterio de selección predeterminado. Por tanto los conglomerados de objetos resultantes 89 deben mostrar un alto grado de homogeneidad interna (dentro del conglomerado) y un alto grado de heterogeneidad externa (entre conglomerados). Si esto se cumple, en la representación gráfica los objetos de un mismo conglomerado se encontrarán muy próximos, mientras que los diferentes conglomerados se encontrarán muy alejados. Una de las formas típicas de representación son los dendogramas, siendo un ejemplo el de la figura 5.5 Figura 5.2. Dendograma La principal ventaja que ofrece este análisis es su facilidad para clasificar y agrupar toda clase de objetos o individuos. Sin embargo el análisis Cluster puede definirse como descriptivo, ateórico y no inferencial. Este análisis no tiene bases estadísticas sobre las que deducir inferencias estadísticas para una población a partir de una muestra, por lo que se utiliza fundamentalmente como una técnica exploratoria. El análisis Cluster siempre creará conglomerados, 90 independientemente de la existencia de una estructura real de datos. Además es totalmente dependiente de las variables utilizadas como base para la medición de similitud, lo que añade un alto grado de subjetividad al análisis. 5.5.1) Proceso del análisis Cluster Los pasos a seguir para la realización de un análisis cluster adecuado serán: 1) Elección de las variables: la selección de las variables a incluir en el valor teórico del análisis cluster debe hacerse con relación a consideraciones teóricas, conceptuales y prácticas. Así se deberán incluir aquellas variables que caracterizan los objetos que se están agrupando, y que se refieren más específicamente a los objetivos que buscamos con el análisis, esto es, diferenciar claramente unos conglomerados de otros. Esto se debe a que el análisis cluster es muy sensible a la inclusión de una o mas variables inapropiadas o escasamente diferenciadas. Otro problema que plantea el análisis cluster es la existencia de valores atípicos o “outliers”. Estos valores pueden observaciones que o bien no son representativas de la población en general o una muestra reducida del grupo de la población que provoca una representación de los grupos de la muestra. En ambos casos el análisis se presentará distorsionado y de difícil interpretación. La mejor forma de detección de estos valores atípicos es una representación preliminar. Una vez detectados se presenta la incógnita de qué hacer con ellos. Si gozamos de una muestra lo suficientemente amplia, y estos valores están arbitrariamente distribuidos lo mejor será su eliminación. En caso contrario, los valores se incluirán en el análisis, pues su eliminación podría suponer una reducción drástica de la muestra y producir resultados falseados. Otra disyuntiva que se presenta en este análisis es la de normalizar las variables. Normalmente se mantendrán en su estado original si son del mismo rango y no hay grandes diferencias entre los valores. Sin embargo si procederemos a su normalización en caso contrario y si se usa el método K 91 2)Elección de métodos de análisis: se podrá distinguir entre procedimientos jerárquicos y no jerárquicos, que se aplicarán a una matriz de distancias. Los métodos jerárquicos consisten en la construcción de una estructura en forma de árbol. Dentro de estos métodos se puede diferenciar entre: Métodos de aglomeración: el conglomerado por aglomeración empieza con cada objeto en un grupo separado. Los conglomerados se forman al agrupar los objetos en conjuntos cada vez más grandes. Este proceso continúa hasta que todos los objetos formen parte de un solo grupo Métodos de división: todos los objetos agrupados en un solo conjunto. Los conglomerados se dividen hasta que cada objeto sea un grupo independiente. Puesto que el método más extendido es el aglomerativo, nos centraremos en él, siendo sus algoritmos más usuales [HAIR99]: Encadenamiento simple: se basa en la distancia mínima, encuentra los dos objetos separados por la distancia más corta y los coloca en el primer conglomerado. A continuación encuentra la distancia más corta o une un tercer elemento al conglomerado y así sucesivamente. La distancia entre dos conglomerados cualquiera será la distancia más corta desde cualquier punto de un conglomerado a cualquier punto en el otro. Encadenamiento completo: análogo al anterior salvo que se basa en la distancia máxima. Encadenamiento medio: también es similar a los anteriores, pero esta vez el criterio es la distancia media de todos los individuos de un conglomerado con los individuos de otro. Método de Ward: en él la distancia entre conglomerados es la suma de los cuadrados entre dos conglomerados sumados para todas las variables. En cada paso se 92 minimiza la suma de los cuadrados dentro del conglomerado. Método del centroide: la distancia entre los dos conglomerados es la distancia entre sus centroides. Los centroides de los grupos son los valores medios de las observaciones de las variables en el valor teórico del conglomerado. Cada vez que se agrupa a los individuos se calculará un nuevo centroide. La ventaja de este método es su resistencia a valores atípicos. En cuanto a los métodos no jerárquicos no implican la construcción de árboles, sino que se asignan los objetos a conglomerados una vez que el número de conglomerados a formar está identificado. El primer paso será seleccionar una semilla de conglomerado como centro del conglomerado inicial y todos los objetos se situarán dentro de una distancia umbral especificada. Luego se designa otra semilla y se siguen situando objetos y así sucesivamente hasta que todos los objetos queden clasificados. Estos métodos se suelen denominar de la K-media. Estos procesos [MATE03] se caracterizan por que no requiere una relación inicial entre los casos. La “K” se refiere a un cierto número elegido por el analista para desarrollar el proceso, mientras que la media se refiere a que la media de las observaciones o centroide reprensentan un conglomerado particular. Los métodos que se suelen usar son: Umbral secuencial: se empieza seleccionando una semilla e incluye a todos los objetos que caen dentro de una distancia previamente especificada. A continuación se define una nueva semilla y se procede de la misma forma que antes, y así sucesivamente. Umbral paralelo: se seleccionan varias semillas de conglomerado simultáneamente al principio y se asigna objetos dentro de la distancia umbral hasta la semilla más cercana. A medida que el proceso avanza se puede ajustar las distancias umbral para incluir más o menos objetos en los conglomerados. 93 Optimización: es análogo a los anteriores, salvo que permite la reubicación de los objetos. Si en el curso de la asignación de los objetos, un objeto se acerca más a otro conglomerado que no es el que tiene asignado en este momento, entonces se cambia el objeto al conglomerado más cercano 3)Elección de las medidas de distancia y proximidad: se podrá trabajar con dos posibles matrices: Una matriz de casos y variables (n x p), cuando los caso están representados por sus atributos en las variables. Una matriz de proximidad para cada par de objetos, tanto de casos (n x n) como de variables (p x p). Esta matriz también podrá ser una matriz de distancias si mide la distancia entre dos objetos, o una matriz de similitudes cuando las similitudes o diferencias entre objetos están clasificadas. A mayores valores, mayores similitudes. Las diferentes medidas de distancia que se podrán usar para construir la matriz de distancia o similitudes será vendrán dadas en la tabla 4.7 Medida de distancia Expresión Distancia Euclídea Cudrado de la distancia Euclídea Mahalanobis D 2 Distancia Manhattan Distancia Chebychev Distancia Minkowsky Potencia métrica absoluta Tabla 5.7 Medidas de distancias 94 4)Decisión del número de conglomerados: hay varios métodos para efectuar esta operación: Criterio teórico: este método basa su fortaleza en un criterio teórico usado para determinar la decisión de un número específico de conjuntos. Se recomienda no quedarse con los primeros resultados obtenidos, sino evaluar los diferentes resultados obtenidos y quedarse con aquella de mayor significado teórico y estadístico. Coeficientes de conglomeración: se trata de buscar variaciones significativas en los valores de los coeficientes que indiquen el número apropiado de conjuntos. El número de conjuntos vendrá dado por el numero de conjuntos anteriores a un gran salto en el valor de los coeficientes de conglomeración. Mediante un gráfico “scree”: el criterio para determinar el número de conjuntos está dado por una nivelación en la pendiente de los datos mostrados en el gráfico, siendo este número el de los conjuntos que se representan antes de dicha nivelación Mediante dendogramas: uno de los gráficos más gráficos del análisis jerárquico. Usando programas específicos, tales como CLUSTAN 5)Presentación e Interpretación de los resultados: se hará tanto gráficamente como con tablas de resultados, difiriendo éstas según se haya usado el método jerárquico o el no jerárquico. Así en el método jerárquico se podrá elegir entre tablas de pertenencia de conglomerados y tablas históricas de conglomerados. Mientras, los métodos no jerárquicos incluyen tablas de centroides, tablas ANOVA y tablas resumen. Por su parte la representación gráfica ofrece una forma clara y fácil de interpretar los resultados, y de la misma forma que con las tablas, habrá diferentes posibilidades según el método elegido. Los dendogramas y los gráficos de carámbanos son los más 95 útiles para métodos jerárquicos, mientras que en los no jerárquicos se mostrarán los resultados en un gráfico de pertenencia de conjuntos. 6)Validación de los resultados: se debe asegurar que la solución es representativa de la población en general. La forma más directa es realizar un análisis cluster para varias muestras, siendo esto costoso en tiempo y medios. Algo más simple es dividir la media en dos grupos, analizando cada conglomerado por separado y comparando después los resultados. También se puede establecer una validez predictiva, seleccionando una variable no utilizada para formar los conglomerados pero que se sabe que cambia a lo largo del conglomerado. 5.5.2) Análisis Cluster. Comparación de métodos jerárquicos frente a los no jerárquicos. Jerárquicos No jerárquicos No exigen la definición del número Exigen definir el número de clusters de cluster a priori que se desean Llevan a cabo un proceso iterativo de abPoseen algunos índices que indican abajo hacia arriba con n-1 pasos, el número de clusters optimo partiendo de n grupos para terminar en 1 Permite obtener resultados gráficos distintos y tipos numéricos Dan de los valores de los centroides de que los grupos lo que facilita la facilitan al interpretación de los clusters interpretación Requieren gran cantidad de cálculos, Dan lo soluciones de tipo óptimo que limita sus posibilidades a muestras no muy grandes Se pueden aplicar a las observaciones Sólo pueden aplicarse sobre las y a las variables Observaciones realizando grupos de individuos Tabla 5.8 Comparación de métodos en el análisis Cluster 96 5.6) Mapas Perceptuales Abarcan un conjunto de técnicas gráficas que surgen en el ámbito del marketing y cuyo objetivo es representar las percepciones de clientes o potenciales clientes, y donde se suelen representar un objeto frente a su competidores, con lo que podremos obtener una imagen clara de en que características se diferencian o se asemejan (dichas similitudes o divergencias no siempre son evidentes) y de su percepción general. Deberemos diferenciar entre las representaciones obtenidas a partir del análisis multidimensional y el análisis de correspondencias, ambos presentados en puntos anteriores. Así mientras el análisis de correspondencias presenta un medio de comparación directa de similitud y diferencia de objetos de estudio y de sus atributos asociados mientras que el análisis multidimensional se ciñe a la comparación entre objetos. Sin embargo el análisis de correspondencias presenta la desventaja que la solución está condicionada por los atributos incluidos por el investigador, con lo que se añade un cierto grado de subjetividad. En un principio se supone que todos los atributos son apropiados para todas los objetos y que se aplica la dimensión para cada objeto, y esto puede no ser del todo cierto. Por eso el resultado obtenido sólo deberá ser evaluado en el contexto de los objetos y los atributos incluidos en el análisis. 5.6.1) Interpretación de los mapas perceptuales En resumen un mapa perceptual es una forma de representar gráficamente un conjunto de objetos relacionando dos o más factores. Esta comparación se lleva a cabo mediante un mapa cartesiano. En el análisis de un mapa preceptual se distinguen dos objetos, el espacio perceptual y el propio mapa perceptual. El espacio perceptual es la representación gráfica de los factores más importantes que son de interés en el análisis. Estos factores son atributos que se asocian a los objetos, y son usados como el lugar donde los diferentes objetos serán situados luego, comparándose entre ellos. Esto hace que en un mapa perceptual no tenga de por sí zonas mejores o peores, sino puede que un lugar sea el adecuado que queríamos para un determinado objeto, o por el contrario, que no lo sea. 97 Por consiguiente el primer paso al desarrollar un mapa perceptual es definir el espacio perceptual. Se necesita definir un mapa cartesiano donde distribuir los atributos que modelarán posteriormente a los objetos, según los atributos que se les aplique a estos. El conjunto del espacio perceptual, a la situación de los objetos en él configurarán el mapa perceptual completo. La longitud de un vector atributo es igual a la raíz cuadrada de la suma de los cuadrados de las correlaciones con las dimensiones. Esta longitud no podrá ser nunca que uno, y la longitud relativa de vector atributo en dos dimensiones cualquiera es una medida de cuanto explican dichas dimensiones ese atributo. Una vez se ha determinado la aportación de cada atributo a las dimensiones, se podrá obtener el grado en el que cada objeto es explicado por cada atributo, lo que emplea para representar cada objeto en el mapa. La media de todos los objetos respecto a cada atributo y a cada dimensión son cero. Esto se traduce gráficamente en que el centro de gravedad de todos los productos es el centro del mapa perceptual. Finalmente podremos definir la similitud entre objetos y los atributos que se les suponen midiendo la proximidad (o en caso contrario lejanía) respecto a estos. Symmetric plot (axes F1 and F2: 93,39 %) Bankinter 0,2 0,1 Bajista Muy bajista F2 (31,54 %) Valencia Popular Sabadell BBVA Alcista Santander IBEX 0 Muy alcista -0,1 Estable -0,2 Banesto Guipuzcoano -0,3 -0,5 -0,4 -0,3 -0,2 -0,1 0 0,1 0,2 0,3 0,4 F1 (61,85 %) Columns Rows Figura 5.3: Mapa perceptual que representa el sector bancario español frente al IBEX35 98 Capítulo 6 Desarrollo de la herramienta y caso práctico 6.1) Software empleado Para el desarrollo de la herramienta se emplearon tres programas diferentes: Excel Matlab Xlstat La utilización de dicha cantidad podría suponer una desventaja, pues podría añadir restricciones y restar fiabilidad al sistema. Sin embargo, en este caso supone todo lo contrario. Además de emplear cada programa para aquello que es más potente, con lo que se ahorra tiempo en operaciones intermedias, dichos programas tienen la virtud de ser compatibles, contando con comandos que los comunican de una manera fácil y segura. 6.1.1) Excel El conocido programa de cálculo y manejo de datos disponible con el paquete de utilidades Microsoft Office será el soporte para la descarga de los datos necesarios, y tras varias operaciones, para la posterior muestra de resultados. En primer lugar las tablas correspondientes a cada empresa se descargarán de http://es.finance.yahoo.com/q/cp?s=%5EIBEX, obteniéndose una tabla en formato Excel, de la que los valores que se utilizarán serán la semana, la apertura y el cierre. Posteriormente dichos valores de apertura y cierre, mediante un función de Visual Basic para Excel se transformarán en una columna de variaciones semanales, datos que ya pueden ser exportados a Matlab para su tratamiento. De este proceso podemos extraer todas las ventajas que aporta trabajar con Excel: Fácil acceso a los datos. 99 Claro manejo de tablas de datos y posibilidad de actualizar dichas tablas de forma automática. Empleo de funciones de Visual Basic, y automatización de éstas y de otras labores mediante el empleo de Macros. Sobre todo serán útiles para el cálculo de las variaciones semanales y del volumen monetario de la semana, y posteriormente corregir dichas columnas y la columna de precio de cierre, pues en aquellas filas dónde se representan el reparto de dividendos se producirá un error, que de no ser corregido asignándole un número determinado, no podrá ser tratado por Matlab. 6.1.2) Matlab Una vez obtengamos las columnas de las variaciones semanales, de volumen monetario negociado en la semana y del precio de cierre semanal de cada valor, se procederá a formar la tabla de contingencia que permitirá analizar las relaciones entre los atributos de variación y volumen y las empresas seleccionadas por un lado, y la columna con los valores de los coeficientes de correlación por otro. Para importar los datos de Excel a Matlab se recurrirá al comando xlsread (muy importante que la carpeta de trabajo de Matlab esté en la carpeta que contenga los archivos de Excel a importar). Por ejemplo: Variacion1:xlsread(‘ACS’,’Hoja1’,’i2:i18’) Volumen1:xlsread(‘ACS’,’Hoja1’,’k2:k18’) Cierre1: xlsread(‘ACS’,’Hoja1’,’l2:l18’) Posteriormente para eliminar aquellos datos que representan dividendos, aplicaremos a cada columna una función de filtro, por ejemplo: Variacion1:filtrovar(Variacion1) Volumen1:filtrovolumen(Volumen1) Cierre1: filtrocotizacion(Cierre1) Procediendo de manera análoga para cada empresa a analizar (muy importante que los datos de todas las empresas estén referidos al mismo 100 periodo), se obtienen las diferentes columnas de las matrices de variaciones semanales, volúmenes medios negociados semanalmente y cierres semanales, ensamblándose dichas columnas de la siguiente forma: Variaciones=[Variacion1 Variacion2……VariaciónN] Volumenes=[Volumen1 Volumen2……..VolumenN] Cierres=[Cierre1 Cierre2……….CierreN] Para transformar la matriz de variaciones y de volúmenes en una sola tabla de contingencia se recurre a una función que tendrá como argumento dichas matrices: resultado=contingencia(Variaciones,Volúmenes) Por su parte, para obtener la columna con los coeficientes de correlación de las diferentes empresas, que pueden ser muy útiles en la interpretación del mapa de posicionamiento: Coeficientes=coefvariacion(Cierres) Por último, se debe exportar dicho resultado a Excel para su análisis final, lo que se efectuar mediante el comando xlswrite: xlswrite( ‘Resultadofinal’,resultado,’Hoja1’,’b2’). xlswrite(‘Resultadofinal’,Coeficientes,’Hoja2’,’b2’) Las ventajas que subyacen del empleo de Matlab son: Facilidad de trabajo con matrices. Empleo de funciones (M. files) que dotan al sistema de polivalencia y simplifican su uso. Interfaz gráfica (Ver apartado 7) 6.1.3) Xlstat Una vez se tiene la tabla de contingencia, en una hoja de Excel se procederá al Análisis de Correspondencias y a otros test de independencia como el de la 101 V de Cramer mediante el Xlstat. Dicha herramienta es una barra de herramientas que trabaja sobre archivos de Excel, dando de una manera sencilla un resultado completo. La elección del Xlstat se fundamenta en: La variedad de técnicas estadísticas disponibles y la comodidad de su realización. Se muestran los resultados de una manera clara y completa. La posibilidad de automatizar parcialmente alguno de los pasos a dar mediante la implementación con Macros de Excel. 6.2) Técnicas estadísticas empleadas Las principales técnicas estadísticas empleadas son el Análisis de Correspondencias y la V de Cramer, partiendo ambas de la tabla de contingencia obtenida. 6.2.1) Análisis de Correspondencias Como se expuso anteriormente en el capítulo 5 se trata de una técnica de interdependencia que a partir de una tabla de contingencia halla las relaciones entre los atributos definidos y las variables de estudio, en este caso las empresas del IBEX-35, y que valiéndose de varios tipos de test y de medidas como las de inercia o autovalores, halla unas nuevas variables sintéticas y representa en un mapa cartesiano tanto las atributos como las empresas estudiadas. Los principales resultados obtenidos del análisis son: Test de independencia: mediante un contraste de hipótesis donde la hipótesis nula (Ho) será la independencia entre atributos y empresas, y la hipótesis alternativa (Ha), la existencia de dicha relación. El valor de significación α será habitualmente del 5% (pero se puede modificar). Dicho valor se comparará con el P-value que es la probabilidad de obtener un resultado como el observado o mayor si la hipótesis nula es cierta, rechazándose la hipótesis nula si dicho valor es menor que α, siendo el riesgo de rechazar Ho siendo cierta menor que el del P-value 102 Inercia total: medida del grado de dependencia entre variables. Dicha inercia total se podrá desglosar en inercias parciales que representarán la contribución de cada eje principal a la inercia total. Autovalores: determinan la contribución relativa de cada nueva variable al mapa. Para simplificar se representarán las dos variables con mayor valor de autovalor. Cosenos al cuadrado: la interpretación de este resultado es que cuanto más cercano sea su valor a 1, más próximo esta el atributo o la empresa a la variable artificial, y por consiguiente más importante es este eje para este atributo o empresa. 6.2.2) Técnicas de independencia Su importancia nace de la conveniencia para dotar de sentido estadístico al estudio de la tabla de contingencia de que exista cierto grado de relación entre los atributos asignados referentes a la variación y al volumen y las empresas estudiadas. De hecho la inclusión en el estudio responde a dicha necesidad, habiéndose testado la posibilidad de añadir como atributo el reparto de dividendos con resultados insatisfactorios. a)V de Cramer Se trata de una medida estadística basada en la distribución Chi-Cuadrado, que nos determinará de manera muy adecuada para las tablas de contingencia un grado de independencia total (V=0) o absoluto (V=1). Se consideran aceptables valores por debajo de 0,3 para aceptar independencia entre variables, aceptándose dependencia a partir de dicho valor. Sin embargo, dicho valor deberá ser analizado desde la perspectiva del P-valor que es la práctica habitual en estadística aplicada. b) Chi-Cuadrado La existencia de relación de algún tipo entre las variables fila y columna se analiza mediante contrastes de hipótesis sobre la independencia de dichas variables. El test de hipótesis habitualmente utilizado es el de la Chi-Cuadrado de Pearson. En dicho test la hipótesis nula es H0: las variables fila y las variables columna son independientes y la alternativa es H1: las variables son dependientes. El test se basa en comparar los perfiles fila y columna con los 103 perfiles marginales correspondientes, teniendo en cuenta que si H0 es cierta todos los perfiles fila (resp. columna) son iguales entre sí e iguales al perfil marginal de fila (resp. columna). El estadístico del test viene dado por la expresión: Donde: A simple vista se intuye que valores del estadístico pequeños significarán valores de n ij y e ij de magnitud parecida, con lo que aceptamos la hipótesis nula, mientras que en caso de valores grandes aceptaremos la hipótesis alternativa. Bajo la hipótesis nula el estadístico se distribuye según una distribución: viniendo donde el p-valor del test dado por: es el valor observado en la muestra del estadístico. Para un nivel de significación 0< α <1 la hipótesis nula se rechaza si dicho p-valor es menor o igual que α. De esta forma si rechazamos la hipótesis nula las variables de las filas y las columnas son dependientes. En este caso conviene analizar los perfiles condicionales fila y columna, así como los residuos del modelo para estudiar qué tipo de dependencia existe entre ellas. Los residuos más utilizados son los llamados residuos tipificados corregidos que vienen dados por la expresión: 104 n Si toman valores grandes en valor absoluto se deberá a que los valores e ij ij y son muy diferentes. Los residuos se distribuyen asintóticamente según una N(0,1) la hipótesis nula y a un nivel de confianza del 95% residuos con un valor absoluto mayor que dos se consideran como valores anormalmente altos. En resumen, se rechazará la hipótesis nula Ho cuando el valor del coeficiente observado sea mayor que el crítico para el nivel de significación escogido. c) Tau de Goodman Kruskal La Tau de Goodman y Kruskal indica la reducción en el error de clasificación de los elementos para una de las variables (dependiente) cuando se tiene información sobre el comportamiento de la otra (independiente). d) Coeficiente de contingencia Se define como C 2 Esta medida de asociación no se ve afectada por 2 n el tamaño de la muestra y está acotada entre 0 y 1, de forma que si las variables son independientes se tiene C=0, pero en caso de asociación perfecta nunca alcanza el valor 1. En el caso de que la tabla sea cuadrada de dimensión R x R se puede calcular la cota superior que es R 1 R e) Phi de Pearson Se trata de una modificación de la Chi cuadrado de Pearson, y sus valores oscilan entre 0 para la inexistencia de relación y 1 para la relación total entre las variables estudidas. 6.2.3) Coeficiente de variación Habitualmente se denomina coeficiente de variación a la medida de variabilidad relativa g s x 100 donde el valor de la media no es nulo. Sin embargo en este caso se prescindirá del valor absoluto, empleando la media 105 con signo, pues así nos informará del sentido de cambio del valor de cierre de las cotizaciones. Típicamente deberá ser menor que 100. 6.3) Niveles de la herramienta La herramienta constará de varios niveles de uso para adaptarse a las diferentes necesidades del público a la que va enfocada: Nivel amateur: los niveles de variación para clasificar las acciones serán: -Muy alcista: variación ≥3 -Alcista: 1< variación ≤3 - Estable: -1< variación ≤1 -Bajista: variación -3< variación ≤-1 -Muy bajista: variación ≤-3 Nivel avanzado: se clasificarán las variaciones en 8 rangos de valores -Extremadamente alcista: variación > 4 -Muy alcista: 2.5< variación ≤4 -Alcista: -Ligeramente alcista: 1< variación ≤2.5 -Ligeramente alcista: 0< variación ≤1 -Ligeramente bajista: -1< variación ≤0 -Bajista: -2.5< variación ≤-1 -Muy bajista: -4< variación ≤-2.5 -Extremadamente bajista: variación ≤-4 Nivel Personalizado: el usuario podrá definir los límites de los ocho rangos presentados en el nivel avanzado. -Extremadamente alcista: variación > límite1 -Muy alcista: límite2< variación ≤límite1 -Alcista: -Ligeramente alcista: límite3< variación ≤límite2 -Ligeramente alcista: límite4< variación ≤límite3 -Ligeramente bajista: límite5< variación ≤límite4 106 -Bajista: límite6< variación ≤límite5 -Muy bajista: límite7< variación ≤límite6 -Extremadamente bajista: variación ≤límite7 Por su parte el volumen monetario negociado será clasificado según su pertenencia a las diferentes cuartilas definidas por dichas observaciones del volumen en el nivel avanzado: 0 < Volumen ≤ Q1 Q1 < Volumen ≤ Q2 Volumen=2 Q2< Volumen ≤ Q3 Volumen > Q3 Volumen=1 Volumen=3 Volumen=4 En el nivel amateur, la clasificación del volumen monetario negociado se hará mediante la medina: 0 < Volumen ≤ Mediana Volumen=1 Volumen > Mediana Volumen=2 La mediana [ESTADISTICA97] es una medida estadística de tendencia central, tal que, ordenados en magnitud los datos, el 50% es menor que ella y el 50% es mayor a ella, de forma que para n datos, la mediana será n impar y X n 1 2 2 X n 2 X n 1 2 para para n par. Una de las ventajas que nos ofrece es que no es excesivamente sensible a los valores atípicos. Análogamente se definen las cuartilas, sin embargo en lugar de quedar el 50% de las observaciones a cada lado de la medida como sucedía con la mediana, entre cada uno de los cuatro rangos de valores de definidos entre 0, Q1, Q2 y Q3 quedarán el 25% de las observaciones. La función de la herramienta es calcular para cada semana los valores de la mediana, o de Q1, Q2 y Q3 según el modo de uso, de los volúmenes monetarios totales negociados, para a continuación poder clasificar el volumen de cada empresa en el rango que le corresponda esa 107 semana. Una vez obtenida la tabla de observaciones, se lo podrá aplicar el análisis de correspondencias. *Observaciones respecto al volumen monetario 1) Por simplicidad de cálculos se ha utilizado una aproximación para el cálculo de dicho volumen: volumen _ monetario n º acciones _ negociadas Pr ecioapertura Pr eciocierre 2 2) No se recomienda el estudio conjunto de la evolución del IBEX-35 y del volumen monetario negociado de las empresas, pues el IBEX-35 es una índice estadístico en cuyo caso influye decisivamente el volumen de todas las empresas, lo que falsearía el estudio, y además su medida es un puntos, no en euros. 6.4) Caso práctico Para ilustrar este proceso, se visualizará el mapa perceptual obtenido mediante análisis de correspondencias y se comentarán las medidas asociadas, para los datos de variación semanal desde 02/01/2007 hasta el 19/03/2007 (13 semanas) para las siguientes 7 empresas: Acerinox Altadis Endesa Gas Natural Iberia Mapfre Telefónica La elección de dichas empresas no es casual, sino que responde a que a priori presentan comportamientos contrapuestos de volatilidad, porcentaje de variación o volumen. Para obtener una mayor claridad en los resultados dicho análisis se hará a nivel amateur. 108 Tras las operaciones oportunas descritas en epígrafes anteriores la tabla de contingencia obtenida es la siguiente: Muy bajista Bajista Estable Alcista Muy alcistaMuy poco volumenEscaso volumenBastante volumenMucho volumen Acerinox Altadis Endesa Gas Natural Iberia Mapfre Telefonica Tabla 6.1 Tabla de contingencia Aplicando a dicha tabla un análisis de interdependencia obtenemos el valor de la V de Cramer y otras medidas de interdependencia: Coeficiente Phi de Pearson V de Cramer T de Tschuprow Coeficiente de contingencia U de Theil (R|C) U de Theil (C|R) U de Theil medio Tau de Goodman & Kruskal (R|C) Tau de Goodman & Kruskal (C|R) Tau de Goodman & Kruskal medio Valor 0,773 0,316 0,294 0,612 0,100 0,103 0,101 Tabla 6.2 Medidas de independencia Dicho valor, que para 0 indicaría independencia absoluta entre las variables y para 1 un grado de relación total, al ser superior a 0,3, se puede considerar que existe un cierto grado de relación entre las empresas y los atributos asignados. Por su parte, el valor de Phi de Pearson (0,773) o el del coeficiente de contingencia (0,612) parecen confirmar la existencia de dependencia entre los atributos estudiados. A continuación se aplicará el análisis correspondencias a la tabla de contingencia. Pruebas de independencia entre las filas y columnas de la tabla de contingencia: Prueba del Chi-cuadrado: Chi-cuadrado (valor observado) Chi-cuadrado (valor crítico) GDL 108,845 65,171 109 de p-value unilateral Alpha < 0,0001 Conclusión: Al umbral de significación Alfa=0,050 se puede rechazar la hipótesis nula de independencia entre las filas y columnas. Dicho de otro modo, la dependencia entre las filas y columnas es significativa. Prueba de la razón de verosimilitud del Chi-cuadrado (G² de Wilks): G² de Wilks (valor observado) G² de Wilks (valor crítico) GDL p-value unilateral Alpha 130,822 65,171 < 0,0001 Conclusión: Al umbral de significación Alfa=0,050 se puede rechazar la hipótesis nula de independencia entre las filas y columnas. Dicho de otro modo, la dependencia entre las filas y columnas es significativa. Tabla de estadísticas que prueba la independencia filas/columnas: Valor GDL 108,845 130,822 Chi-cuadrado G² de Wilks p-value < 0,0001 < 0,0001 Tabla 6.3: Medidas de independencia Mediante los diferentes análisis de hipótesis se confirma la existencia de un cierto grado de dependencia entre atributos y empresas. Esta conclusión también la confirma el hecho de que el valor Chi-Cuadrado observado sea mayor que el del valor crítico para un alpha de 0,05. Posteriormente se muestran los autovalores, que nos informan sobre el grado de explicación obtenido con las variables artificiales obtenidas, lo que se visualiza mejor en el scree plot. En este caso tenemos un 83,68% de variación explicada con las nuevas variables artificiales F1 y F2, lo que se considera bastante bueno, pues se considerará aceptable a partir de un 60%. Valores propios y porcentaje de varianza: F1 Valor propio % varianza 0,409 68,326 F2 0,092 15,356 F3 F4 0,049 8,261 F5 0,033 5,540 F6 0,013 2,243 0,002 0,275 110 % acumulado 68,326 83,681 91,942 Número de valores propios triviales suprimidos: 2 97,482 99,725 100,000 Tabla 6.4: Valores propios y porcentaje de varianza Posteriormente se nos muestra la aportación individual de cada empresa e índice a la inercia total y su distancia al punto de origen, que tiene la propiedad de ser el centro de gravedad de todas las variables. Pesos, distancias al origen e inercias de los puntos-filas: Acerinox Altadis Endesa Gas Natural Iberia Mapfre Telefonica Peso Distancia d d² Inercia Inercia normalizada 0,143 0,744 0,553 0,079 0,132 0,143 0,751 0,564 0,081 0,135 0,143 0,870 0,758 0,108 0,181 0,143 0,512 0,262 0,037 0,063 0,143 0,842 0,709 0,101 0,169 0,143 0,941 0,885 0,126 0,211 0,143 0,674 0,455 0,065 0,109 Tabla 6.5: Pesos, distancias al origen e inercias de los puntos fila. A continuación, tras hallar las distancias Chi-cuadrado de las empresas e índices, nos presenta sus coordenadas definitivas respecto a las 4 variables artificiales construidas, aunque sólo se representarán en el mapa aquellas variables que aporten mayor grado de información: Coordenadas de los puntos-filas: 111 Acerinox Altadis Endesa Gas Natural Iberia Mapfre Telefonica F1 F2 -0,415 0 0,726 0,034 0,805 -0,160 -0,229 0,294 -0,689 -0,261 -0,794 -0,364 0,597 -0,106 F3 F4 -0,010 0,029 -0,193 -0,082 0,390 -0,331 0,197 F5 0,247 -0,135 0,049 -0,339 -0,056 0,068 0,166 F6 -0,031 0,111 -0,210 0,004 -0,101 0,092 0,134 -0,018 -0,073 0,007 0,047 -0,016 -0,006 0,058 Tabla 6.6: Coordenadas de los puntos fila También se ofrece el grado de contribución de cada variable a la construcción de dichas variables artificiales y su respectiva inercia, además de las coordenadas estandarizadas: Coordenadas estandarizadas de los puntos-filas: Acerinox Altadis Endesa Gas Natural Iberia Mapfre Telefonica F1 F2 F3 -0,650 1,860 -0,047 1,135 0,112 0,130 1,260 -0,529 -0,868 -0,359 0,969 -0,368 -1,078 -0,861 1,757 -1,241 -1,202 -1,490 0,933 -0,349 0,886 F4 F5 1,359 -0,741 0,266 -1,861 -0,310 0,374 0,912 F6 -0,265 0,960 -1,810 0,037 -0,873 0,796 1,155 -0,444 -1,792 0,1 1,154 -0,390 -0,141 1,434 Inercias de los puntos-filas: F1 Acerinox Altadis Endesa Gas Natural Iberia Mapfre Telefonica F2 0,025 0,075 0,093 0,008 0,068 0,090 0,051 F3 0,045 0,000 0,004 0,012 0,010 0,019 0,002 F4 0,000 0,000 0,005 0,001 0,022 0,016 0,006 F5 0,009 0,003 0,000 0,016 0,000 0,001 0,004 F6 0,000 0,002 0,006 0,000 0,001 0,001 0,003 0,000 0,001 0,000 0,000 0,000 0,000 0,000 Contribuciones de los puntos-filas (%): F1 Acerinox Altadis Endesa Gas Natural Iberia Mapfre Telefonica F2 F3 F4 49,43 18,41 22,66 16,60 22,02 12,44 F5 13,16 46,81 10,77 13,41 10,59 20,65 F6 26,40 49,49 44,08 31,72 11,22 45,88 19,02 10,89 11,89 19,07 29,36 112 Cosenos cuadrados de los puntos-filas: F1 Acerinox Altadis Endesa Gas Natural Iberia Mapfre Telefonica F2 0,312 0,933 0,856 0,200 0,670 0,711 0,783 F3 0,575 0,002 0,034 0,328 0 0,150 0,025 F4 0,000 0,001 0,049 0,026 0,215 0,124 0,085 F5 0,111 0,032 0,003 0,437 0,004 0,005 0,061 F6 0,002 0,022 0,058 0,000 0,014 0,010 0,039 0,001 0,009 0,000 0,008 0,000 0,000 0,007 Tabla 6.7: Medidas de los puntos fila En la tabla de cosenos al cuadrado observamos que, como cabía esperar para la variable F1 la mayoría de los valores están por encima de 0,5 y alguno próximo a uno. Sin embargo, para F2 el análisis empeora sensiblemente (mientras que F1 aporta un 68% de la información, F2 aporta el 15%). Todo el análisis anterior se repite de forma análoga para los atributos designados Pesos, distancias al origen e inercias de los puntos-columnas: Muy bajista Bajista Estable Alcista Muy alcista Muy poco volumen Escaso volumen Bastante volumen Mucho volumen Peso Distancia d d² Inercia Inercia normalizada 0,060 0,891 0,793 0,048 0,080 0,088 0,606 0,367 0,032 0,054 0,159 0,507 0,25 0,041 0,068 0,071 0,449 0,201 0,014 0,024 0,121 0,575 0,331 0,040 0,067 0,137 1,024 1,050 0,144 0,241 0,066 0,920 0,847 0,056 0,093 0,033 1,312 1,722 0,057 0,095 0,264 0,793 0,628 0,166 0,277 Coordenadas de los puntos-columnas: Muy bajista Bajista Estable Alcista Muy alcista Muy poco volumen Escaso volumen Bastante volumen F1 -0,640 0,001 0,429 -0,008 -0,241 -0,948 -0,856 -0,624 F2 -0,119 0,501 0,001 -0,359 -0,094 -0,305 0,266 1, F3 F4 0,221 0,554 -0,209 -0,087 -0,240 -0,042 -0,160 0,145 0,451 -0,244 -0,183 -0,146 -0,010 0,159 0,147 0,008 F5 F6 0,117 0,254 -0 -0,134 -0,017 0,049 -0,101 -0,266 -0,005 0,014 -0,038 0,086 -0,008 0,012 -0,089 0,097 113 Mucho volumen 0,786 -0,046 0,080 0,036 0,033 0,004 Coordenadas estandarizadas de los puntos-columnas: Muy bajista Bajista Estable Alcista Muy alcista Muy poco volumen Escaso volumen Bastante volumen Mucho volumen F1 F2 F3 -1,001 -0,392 0,995 0,001 1,654 -0,940 0,671 0,004 -1,078 -0,013 -1,186 -0,718 -0,377 -0,311 2,031 -1,483 -1,007 -0,825 -1,339 0,877 -0,046 -0,976 3,661 0,660 1,229 -0,153 0,359 F4 F5 3,044 -0,477 -0,231 0,796 -1,341 -0,804 0 0,041 0,195 F6 1,008 2,1 -0,962 -1,160 -0,144 0,427 -0,876 -2,293 0,283 -0,131 0,350 -0,943 2,128 -0,204 0,294 -2,182 2,400 0,092 Inercias de los puntos-columnas: Muy bajista Bajista Estable Alcista Muy alcista Muy poco volumen Escaso volumen Bastante volumen Mucho volumen F1 F2 F3 0,025 0,001 0,003 0,000 0,022 0,004 0,029 0,000 0,009 0,000 0,009 0,002 0,007 0,001 0,025 0,123 0,013 0,005 0,048 0,005 0,000 0,013 0,041 0,001 0,163 0,001 0,002 F4 F5 0,019 0,001 0,000 0,001 0,007 0,003 0,002 0,000 0,000 F6 0,001 0,006 0,002 0,001 0,000 0,000 0,001 0,002 0,000 0,0 0,000 0,000 0,001 0,000 0,000 0,001 0,000 0,000 Contribuciones de los puntos-columnas (%): F1 Muy bajista Bajista Estable Alcista Muy alcista Muy poco volumen Escaso volumen Bastante volumen Mucho volumen F2 F3 F4 F5 F6 55,99 24,06 42,22 14,76 18,50 14,15 32,35 10,05 49,86 30,22 11,83 21,73 13,92 44,19 31,40 18,99 17,34 39,86 Cosenos cuadrados de los puntos-columnas: Muy bajista Bajista Estable Alcista Muy alcista F1 F2 F3 0,516 0,018 0,062 0,000 0,684 0,119 0,716 0,000 0,223 0,000 0,642 0,126 0,175 0,027 0,616 F4 F5 0,38 0,021 0,007 0,104 0,180 F6 0,017 0,175 0,048 0,090 0,001 0,000 0,001 0,006 0,037 0,000 114 Muy poco volumen Escaso volumen Bastante volumen Mucho volumen 0,856 0,865 0,226 0,983 0,089 0,083 0,715 0,003 0,032 0,000 0,012 0,010 0,020 0,030 0,000 0,002 0,002 0,012 0,041 0,002 0,000 0,009 0,006 0,000 Tabla 6.8: Medidas de los puntos columna Por último y finalmente obtenemos el mapa perceptual que relaciona empresas, índices y atributos: Gráfico simétrico (ejes F1 y F2: 83,68 %) 1,5 B astante vo lumen 1 A cerino x 0,5 Escaso vo lumen B ajista Gas Natural Estable 0 M uy bajista M uy alcista Iberia M uy po co vo lumen M apfre A ltadis M ucho vo lumen Telefo nica Endesa Filas activas Co lumnas activas A lcista -0,5 -1 -1,5 -1,5 -1 -0,5 0 0,5 1 1,5 - - e je F 1 ( 6 8 ,3 3 %) - - > Figura 6.1: Mapa Perceptual De este mapa podremos extraer las siguientes conclusiones: El eje en el que se representa la variable artificial F1 parece representar la volatilidad. Se puede concluir que los valores menos volátiles tienen un mejor comportamiento que aquellos más proclives a grandes variaciones. De hecho, el atributo Muy alcista se encuentra próximo a Muy bajista y también a Bajista. Parecen comportarse mejor y tener menor volatilidad aquellas empresas de mayor volumen monetario negociado. La zona más favorable del mapa parece ser el cuadrante de F1 positivo y F2 negativo. 115 Por último, y como ayuda adicional para la interpretación del mapa, se incluyen los coeficientes de variación de las empresas: Acerinox Altadis Endesa Gas Natural Iberia Mapfre Telefonica Coef Variacion 4,333318008 7,882541649 3,137789131 5,517422991 9,585445284 2,72668864 2,818183262 Tabla 6.9: Coeficientes de variación Confirma las conclusiones del mapa, salvo por Altadis que tiene una variación excesiva, sobre todo comparada con las otras empresas y MAPFRE, que sin embargo presenta un coeficiente de variación más bajo de lo que cabría esperar. 116 Capítulo 7 Manual del Usuario 7.1) Pasos previos al uso de MAPIBEX MAPIBEX es una herramienta que combina aplicaciones tanto de Excel y de su herramienta estadística Xlstat, como de Matlab, por lo que se hace necesaria la instalación de dichos programas. Se podrá obtener una copia de evaluación de la herramienta Xlstat en la página web www.xlstat.com escogiendo la opción descargar versión de evaluación. MAPIBEX se entregará en forma de archivo en formato .zip, por lo que para empezar a trabajar se deberá descomprimir en la ubicación que elija el usuario la carpeta MAPIBEX, que contendrá todas las funciones de Matlab que realizan el análisis, la interfaz gráfica y las tablas de datos de las cotizaciones. Figura 7.1: Descarga de copia de evaluación Xlstat 117 Figura 7.2: Se han de rellenar varios datos para descargar el Xlstat Figura 7.3: Instalación del Xlstat, se deberá especificar la localización 7.2) Captura y transformación de los datos Las tablas de datos en formato Excel, que contienen la información acerca de las cotizaciones y el volumen de títulos negociados de las empresas del IBEX35 se pueden descargar http://es.finance.yahoo.com/q/cp?s=%5EIBEX, de la página seleccionando en web cada empresa cotizada, obtener los precios históricos y a su vez las variaciones semanales. 118 Figura 7.4: Captura de datos de Yahoo Finanzas Respecto a la selección de variaciones semanales, cabe destacar que si bien MAPIBEX en sus modos de uso Amateur y Avanzado ha sido programado para trabajar con datos semanales, dado que cuenta con una opción de uso Broker donde el usuario puede definir los límites de las variaciones, éste podrá definir dichas variaciones para trabajar con variaciones diarias. Las tablas que se obtendrán para cada empresa deberán ser nombradas de la siguiente forma para que MAPIBEX las reconozca y pueda leer sus datos: ANA Acciona FER ABE IBE Ferrovial Abertis Iberia ACX IBLA ACS ITX Acerinox Iberdrola ACS Inditex AGS AguasBarcelona ALT Altadis A3TV Antena3 SAB BancoSabadell BBVA BBVA BTO Banesto BKT Bankinter POP BancoPopular SAN BancoSantander CIN Cintra ENG Enagas ELE Endesa FAD Fadesa FCC FCC GAM Gamesa GAS GasNatural TL5 Telecinco 119 MAP Mapfre MCV Metrovacesa NHH NHH Hoteles REP Repsol YPF REE Red Eléctrica Española SYV Sacyr Vallehermoso SGC Sogecable TEF Telefónica UNF Unión Fenosa IBEX IBEX35 DJI Dow Jones Industrial Tabla 7.1: Correspondencias entre acrónimos de las empresas y sus respectivos nombres para ser guardadas. Una vez obtenidas las tablas, se deberán obtener la variación (en %), la variación corregida (en caso de reparto de dividendos se produce un mensaje de error que posteriormente no es reconocido por Matlab, por lo que es necesario tratarlo previamente), el volumen, el volumen corregido y el cierre corregido. Dichas operaciones se pueden realizar mediante las macros que ejecutan las funciones de Visual Basic para Excel variación y volumen, y a su vez en caso de error cambian dicho mensaje por un número previamente asignado. Calcula la variación y su columna Módulo1.Variación corregida Calcula el volumen y su columna Volumen corregida Calcula el cierre corregido Corrección cierre 120 Tabla 7.2: Macros para el cálculo y transformación de datos 7.3) Obtención de la matriz de contingencia. Niveles de uso. La obtención de mapas preceptúales se basa en la aplicación del análisis de correspondencias a una matriz de contingencia, por lo que dicha matriz es especialmente crítica. Para esto se ha desarrollado una interfaz que guiará y hará más cómoda la labor al usuario. El primer paso será abrir Matlab y teclear en la command window “principal”. Es muy importante que tanto los archivos de Excel que contienen los datos, como los m.files que soportan las funciones que efectuarán las operaciones y los archivos de Matlab de la interfaz se encuentren en una misma carpeta. Además, se deberá fijar dicha carpeta como directorio de trabajo en el Current Directory de la pantalla principal de Matlab. Figura 7.5: Inicio de MAPIBEX Una vez hemos tecleado principal nos aparecerá una pantalla que permitirá elegir el nivel de uso, y donde se adjuntan descripciones de dichos niveles. 121 Figura 7.6: Pantalla de inicio de MAPIBEX Una vez seleccionamos el nivel de uso deseado aparecerá una pantalla donde se debe seleccionar el número de empresas a estudiar (entre 4 y 8) y los resultados a lograr, esto es, estudiar sólo las variaciones semanales de el número de empresas elegidas, las variaciones y los volúmenes monetarios negociados o simultáneamente las variaciones, los volúmenes y el reparto de dividendos. 122 Figura 7.7 Selección de número de empresas y resultados a obtener En caso de analizar los volúmenes, no tiene sentido la inclusión de índices como el IBEX35 o el Dow Jones en el estudio. Por su parte en caso de analizar los dividendos se recomienda estudiar un periodo de al menos 2 ó 3 años para que exista un número significativo de dividendos. En la siguiente pantalla se seleccionarán las empresas a estudiar, de las que previamente se habrán introducido los números de las filas que corresponden con la semana de origen y de fin del estudio y una vez introducidas se podrá obtener la matriz de contingencia es la hoja de Excel llamada Resultado. 123 Figura 7.8 Selección de empresas y semanas límites de estudio Figura7.9 Fecha límite, si la fecha de origen del estudio es 07/05/2007 se deberá introducir como origen en Acerinox el número de fila, esto es, 2. Es extremadamente importante que tanto las semanas de origen como de fin de estudio de todas las empresas coincidan. De no hacerlo las dimensiones de las matrices no coincidirán y se producirá un mensaje de error en la pantalla de Matlab 124 Figura 7.10 Error causado por un error en la introducción de fechas La secuencia que se debe seguir para introducir los datos es en primer lugar definir el origen1 y el fin1 y posteriormente introducir la Empresa1 y así sucesivamente. Y una vez introducidas todas las empresas y sus límites se procederá a obtener los resultados en una hoja de Excel pulsando en Obtener Resultado en Hoja de Excel, denominada Resultado por defecto. A este respecto hacer dos observaciones: El proceso de introducir las empresas y de obtener los resultados en Excel, tarda unos segundos. Se aconseja paciencia al usuario y para comprobar que puede seguir operando con el programa, vigilar en la parte inferior izquierda de la pantalla de Matlab si aparece el símbolo “Busy” Figura 7.11 En caso de que aparezca este símbolo en Matlab tras una lectura de datos o al obtener resultados se deberá esperar unos segundos para continuar. Si se quieren hacer varios análisis se aconseja renombrar los archivos Resultados.xls para evitar que se sobrescriban, 125 En el caso que el nivel de usuario elegido sea el Personalizado, además del las fechas límites de estudio se deberán introducir los límites superiores e inferiores que delimitarán la franja de variación correspondiente a cada atributo, de forma que después cada variación estudiada sea asignada a su correspondiente zona y por tanto a su atributo correspondiente. Variación > Limite1 (Extremadamente Alcista) Limite2 < Variación <= Limite1 (Muy Alcista) Limite3 < Variación <= Limite2 (Alcista) Limite4 < Variación <= Limite3 (Ligeramente Alcista) Limite5 < Variación <= Limite4 (Ligeramente Bajista) Limite6 < Variación <= Limite5 (Bajista) Limite7 < Variación <= Limite6 (Muy Bajista) Variación<= Limite7 (Extremadamente Bajista) Además de aconsejar sentido común en la elección de los límites, es obvio que se deberá cumplir: Limite1 > Limite2 >………..> Limite7 7.4) Obtención del mapa de representación y análisis de dependencia Una vez se han dado todo los pasos anteriores se obtendrán por una parte en la Hoja1 la matriz de contingencia y en la Hoja2 una columna con los coeficientes de variación de las empresas analizadas. 126 Figura 7.12 Resultados obtenidos en Excel. El siguiente paso y último será efectuar el análisis de correspondencias, para ello se cargará la barra del Xlstat y posteriormente se seleccionará la opción de Análisis Factorial de Correspondencias y se seleccionará la matriz Figura 7.13 Símbolo para cargar Xlstat y Análisis Factorial de Correspondencias Finalmente se obtendrá el mapa y todas sus medidas asociadas. 127 Figura 7.14 Representación gráfica Por otra parte, para obtener las pruebas que ayudarán a validar la existencia de dependencia entre atributos elegimos la opción pruebas en las tablas de contingencia y seleccionamos la matriz, obteniendo una hoja con los principales test de independencia. Figura 7.15 Pruebas de independencia sobre tabla de contingencia 128 Capítulo 8 Conclusiones del proyecto Las conclusiones que a continuación se van a presentar se derivan de la realización de decenas de casos y de su posterior análisis. 8.1) Conclusiones generales derivadas del uso de MAPIBEX Dado que el análisis de correspondencias, técnica matemática en la que se basa MAPIBEX, trata de establecer relaciones entre las diferentes variables de estudio, es fundamental la existencia de cierto grado de relación entre las mismas. Sin embargo, cuando sólo se comparan variaciones entre las mismas, a menudo el análisis ofrece que dichas variables son independientes. Por el contrario si se incluye el volumen monetario negociado, si se obtendrá cierto grado de relación entre los atributos estudiados. Al respecto es importante señalar, que si bien el uso de MAPIBEX con volúmenes resulta matemáticamente más válido, esto puede ir en detrimento de la claridad del mapa, con el condicionante añadido de que no tiene sentido la representación conjunta de volúmenes y de índices como el IBEX35 o el Dow Jones, circunstancias que hacen que el análisis exclusivo no sea una opción desdeñable. La recomendación de elegir un periodo de representación de más de dos años, en el caso del análisis de dividendos, se justifica por la necesidad de que exista un número suficiente de observaciones de dividendos. Así además podrán establecerse más diferencias entre las empresas estudiadas. De elegir un periodo más corto, es posible, que el mapa resulte muy difuso, y que todos los valores se concentren en el centro del mismo. Para que un mapa sea considerado como aceptable en cuanto al nivel de información representada, dicho valor deberá ser superior al 60%, siendo considerada una buena representación por encima del 80%. La contribución que a dicho valor hacen las nuevas variables artificiales 129 producto del análisis de correspondencias vendrá representada por los ejes F1 (horizontal) y F2 (vertical). En la mayoría de los casos el eje F1 será el que aporte mayor información para establecer el análisis, con valores que suelen estar comprendidos entre 40% y 60%. Además dicho eje se suele poder identificar con la volatilidad de las empresas representadas. En la otra mano, el eje F2 suele aportar mucha menos información (20%, 30%), y si bien su interpretación no resulta tan clara como en el caso de F1, a menudo separa aquellas empresas con un comportamiento más positivo de manera continuada, de aquellas que acumulan más caídas. Aunque MAPIBEX tiene la capacidad de representar aquellas empresas que desee el usuario, resulta especialmente potente en la representación de análisis sectoriales, de forma que se representen conjuntamente los bancos o las constructoras por ejemplo. 8.2) Conclusiones particulares derivadas del uso de MAPIBEX Las conclusiones que a continuación se representan, surgen de la realización de decenas de casos, centrándose especialmente en algunos de los valores más importantes o más reveladores incluidos: Aquellos atributos que representan fuertes subidas, fuertes bajadas y bajadas, suelen quedar representados en el mapa muy próximos. De esto se concluye que aquellas empresas con mayor volatilidad por regla general tienden más perder valor que a ganarlo. Esto es especialmente cierto en aquellas empresas de menor volumen. Ejemplos al respecto pueden ser Bankinter, Sogecable o Ferrovial. En la otra mano, los atributos que representan tendencias alcistas, bastante alcistas y estables, suelen estar próximos, formando un triángulo cuyo vértice más cercano al origen es el atributo que representa a las tendencias estables. Además dichos valores suelen venir representados en el mismo cuadrante del mapa y suelen ser empresas de gran volumen. Valores que suelen venir asociados a esta zona suelen ser Banco Santander, Endesa o ACS. 130 La inclusión de índices resulta positiva para establecer puntos de referencia en el análisis, especialmente el IBEX35, pues suele representar la zona más estable del mapa, y de hecho a menudo suele estar situado próximo al origen. Sin embargo, el Dow Jones, aunque próximo al IBEX35 se suele representar más alejado del resto de los valores, y próximo a la tendencia estable. De esto se extrae, que existe cierto grado de relación de las empresas con el Dow Jones (especialmente de las empresas de gran volumen que a menudo tienen más intereses internacionales) pero menos del esperado. Resultan especialmente interesantes aquellas empresas que reparten dividendos entre sus accionistas, pues suelen ser aquellas empresas que presentan comportamientos alcistas, tales como de nuevo el Banco Santander, Acerinox o Sacyr Vallehermoso. 131 Bibliografía [ANALDATOS95] Uriel E. “Análisis de Datos: Series Temporales y Análisis Multivariante” Colección Plan Nuevo. Editorial AC 1995. [ANALISIS95] Fernández, P.; Yzaguirre, J.: “IBEX-35, Análisis e Investigaciones”. Ediciones Internacionales Universitarias. 1995 [CUADRAS96] Cuadras, Carles M. “Métodos de Análisis Multivariante” Ed. EUB, 1996 [ESTADISTICA97] Peña Sánchez de Rivera, “Estadística, modelos y métodos” Ed. Alianza 1997 [GORSUCH83] Gorsuch , R “Factor Analysis”. Second Edition. Ed. LEA, 1983 [HAIR99] Hair, Joseph F.; Anderson, Rolph E.; Tantham, Ronald L.; and Back, William C. “ Análisis Multivariante”. Ed. Prentice Hall, 1999 [JOURFIN93] N. Jegadeesh y S. Titman “Returns to Buying Winners and Selling Losers: Implications for Stock Market Efficiency” The Journal of Finance 1993 [LAROU97] Enciclopedia “Larousse 2000” Ed. Planeta 1997 [MATE03] Maté, Carlos. “Análisis de Conglomerados” 2003 [MERCADOS04] “Los mercados financieros y sus matemáticas” Juan Pablo Jimeno Moreno Editorial Ariel 2004 [MEDIDAS93] Peña, I: "Medidas de Volatilidad en Mercados Financieros", Primer Foro de Finanzas 1993. [MILLARD95] Millard, Brian J. “Técnicas gráficas para rentabilizar inversiones en bolsa” Ed. Díaz de Santos, 1995 132 [MIQUEL96] Salvador Miquel, Enrique Bigné “Investigación de mercados” Salvador Miquel, Enrique Bigné… Ed. McGraw-Hill 1996 [PEDRET00] R. Pedret, L. Sagnier, F. Camp “Herramientas para segmentar mercados y posicionar productos” Ed. Deusto 2000 Páginas Web [BOLSAMADRID06] Bolsa de Madrid http://www.bolsamadrid.es [BOLSAVALENCIA06] Bolsa de Valencia http://www.bolsavalencia.es [BORSABCN06] Bolsa de Barcelona http://www.borsabcn.es [CIBER06] Lecciones de economía http://ciberconta.unizar.es [ElACCIONISTA06] El accionista http://elaccionista.com [ESTADISTICO06] El portal estadístico de habla hispana http://www.estadistico.com [WIKI06] Wikipedia: la enciclopedia libre http://www.wikipedia.org [YAHOO07] Yahoo finanzas http://es.finance.yahoo.com/ 133 Apéndice A Condiciones del proyecto Las condiciones y cláusulas fijadas en este documento tienen que ver con el préstamo de las aplicaciones desarrolladas en este proyecto a una persona física o legal. El cumplimiento de estas condiciones fuerza a las dos partes. Las condiciones son: 1) Ambas partes estas obligadas, desde la fecha de la firma del contrato, a cumplir todo lo próximo que está estipulado. 2) Cualquier queja, disputa o controversia que surja de o relativa a este acuerdo, su interpretación, o el incumplimiento, terminación, o validez deberá ser resuelto en el juzgado si no se alcanza otro acuerdo. 3) El vendedor debe facilitar a la otra parte cualquier información que pudiera contribuir a mejorar la instalación y ejecución del sistema, si así fuera requerido. 4) El cliente por el contrario debe explicar a los desarrolladores del sistema todas las características del sistema donde la aplicación será ejecutada, con el fin de facilitar su instalación. Ninguna responsabilidad se adquirirá por parte del proveedor si algún defecto resultase del incumplimiento de esta obligación. 5) Habrá un plazo de pago de dos meses desde la fecha de la firma del contrato. 6) Si la entrega se retrasase más de dos meses, el cliente puede cancelar el contrato, siendo indemnizado por todos los pagos hechos. 7) El sistema está garantizado por un año, desde la fecha de entrega del sistema. La garantía será cancelada tras dicho periodo o en caso de uso incorrecto, tales como instalación incorrecta o no usar el sistema para sus usos normales. 8) El periodo para empezar a usar el sistema no será superior a seis semanas desde la fecha de entrega. 134 9) La garantía sólo será válida si el sistema ha sido correctamente instalado, y a ha sido correctamente usado. La garantía termina si hay manipulaciones en el sistema por parte de personal no autorizado, siendo el personal autorizado explícitamente designado por el proveedor. 10) El proveedor no asumirá responsabilidad alguna sobre la compra de productos por ninguna cantidad de daños sobre la cantidad pagada por los productos bajo este acuerdo, no se pagarán indemnizaciones por otros daños directos o indirectos al personal o materiales. A2) Condiciones Económicas 1) El valor de la venta será acordado por las dos partes 2) Los plazos de pago serán los siguientes: 20% cuando el contrato esté firmado 60% cuando el sistema sea entregado 20% 45 días después de la entrega del sistema. 3) Cualquier retraso respecto a los pagos estipulados será penalizado con un 5% de interés anual. 4) Los gastos de envío y empaquetamiento serán responsabilidad del vendedor. 5) El vendedor asume cualquier responsabilidad sobre cualquier defecto o daño causado durante su transporte. 6) Hasta la expiración de la garantía, todos los gastos causados por reparaciones serán cubiertos por el vendedor. A3) Condiciones particulares y técnicas 1) El ordenador debe cumplir con todas las regulaciones efectivas en España en la fecha de entrega del presente proyecto. 2) El teclado del equipamiento estará en español. 3) La localización de la instalación debe cumplir las condiciones de humedad y temperatura recomendadas por el fabricante del ordenador. 4) La alimentación del sistema debe hacerse a 220V y 50 Hz, debiendo ajustarse a lo que está estipulado en el Reglamento de Baja Tensión. 5) El cliente necesita una licencia para el uso de las aplicaciones del sistema. 135 6) El cliente debe tener una licencia para todos los productos de software requeridos para la operación del sistema. Apéndice B Presupuesto del Proyecto El presupuesto del proyecto se desglosará en tres tipos de costes: Costes de ingeniería Inversión y costes de material Costes comerciales B1) Costes de ingeniería Un ingeniero suficientemente cualificado para el desarrollo del proyecto gana alrededor de 2500€/mes, más el 30% de de dicho sueldo destinado a pagar la seguridad social. Dicho ingeniero trabaja 8 horas/día y 22 días/mes, lo que hace un total de 176 horas/mes, con lo que si dividimos el coste total entre las horas se obtiene que el coste por hora es 18,48€/h. Por su parte el tiempo necesario para la realización del proyecto se divide en: Documentación previa: 50 horas. Entrevistas: 50 horas Programación: 500 horas Documentación: 200 horas Pruebas y mejoras: 200 horas Sumando todas las duraciones se obtienen 1000 horas, con lo que los gastos de ingeniería ascenderán a 18460 €. 136 B2) Inversión y costes de material Los útiles necesarios para el desarrollo de este proyecto serán un equipo informático y software: Elemento Precio PC 1200€ Software requerido 1890 € Otros gastos (conexión de Internet, materiales de oficina) 100€ Gastos materiales 3190€ Se considerará amortizada la herramienta tras un periodo de uso de 10.000 horas, con un porcentaje de uso del 85%, lo que da lugar a la siguiente tabla: Concepto Total Horas de uso del material 8500 horas Coste por hora 0,19 € Amortización total de los costes materiales 1615€ Si se asume que la inversión hecha ronda alrededor del 5% de los gastos de ingeniería, los gastos de la inversión suman 923€. Por tanto el coste total del proyecto, que es la suma de los gastos de ingeniería, de material y la inversión, se estima en 20998€ B3) Gastos comerciales Los gastos comerciales se dividen en gastos de administración, de ventas y costes de interés variable. Los gastos de administración se suponen alrededor del 6% del proyecto, siendo los gastos de ventas el doble de los de administración. Por último, se considerarán alrededor del 5% de los costes totales del proyecto Clase de coste Total Gastos de administración 1259,88€ Gastos de ventas 2519,76€ Gastos de interés variable 1049,5€ Total de gastos comerciales 4829,54€ 137 Por consiguiente, el coste total suma de los costes del proyecto y de los comerciales, asciende a 25827,54€ 138