CAPITULO II. MARCO TEÓRICO Antecedentes Los sistemas expertos proceden inicialmente de la inteligencia artificial, y se comportan como un experto humano en un campo particular. Desde hace algún tiempo, se han desarrollado sistemas expertos computarizados para diagnosticar problemas, predecir acontecimientos futuros, diseñar nuevos productos y sistemas y aumentar la calidad de la atención a la salud. Los primeros indicios de los sistemas expertos a nivel mundial, comenzaron en la década de los 60 con el desarrollo de aplicaciones que se dedicaban a explorar diversas representaciones de problemas, técnicas de búsqueda y heurísticas generales para resolver situaciones sencillas como es el caso de uno de los programas más influyentes denominado “Solucionador General de Problemas” (GPS) [Newell, Shaw y Simon, 1959, y Newel y Simon, 1963]. Los intentos de escalar estos programas y sus técnicas, empleándolos en aplicaciones de importancia práctica, revelaron que solo valían para resolver “problemas de juguete”. La construcción de sistemas más potentes requería la inclusión de mucho más conocimiento sobre el dominio de aplicación. Los últimos años de la década de los 70 y los primeros de la década de los 80 vieron el desarrollo de programas más realistas, que contenían el conocimiento necesario para mimetizar el comportamiento de los expertos humanos en tareas tales como: el diagnóstico, el diseño y el análisis. Fueron explorados y desarrollados varios métodos para la representación de conocimiento especifico del problema. El programa a que se atribuye el mérito de ser el primero que demostró la importancia de recoger grandes cantidades de conocimiento específico del dominio fue DENDRAL, un sistema para predecir la estructura de moléculas orgánicas a partir de su fórmula química y de su espectrograma de masas [Feigenbaum; Buchanan, Lederberg, 1971, y Lindsay et al., 1980] [8]. Es así como a principios de la década de los 70, en la Universidad de Stanford, Feigenbaum y Shortliffe desarrollaron MYCIN, sistema experto en el campo de la medicina diseñado para diagnosticar enfermedades infecciosas en la sangre y recomendar los antibióticos adecuados para cada infección, ajustando la dosis según el peso del paciente. Este sistema operaba usando bases de conocimiento y técnicas de inferencia simple, constituyendo aproximadamente 500 reglas; reforzando su precisión al realizar preguntas de carácter dicotómico. Los resultados obtenidos a partir de este sistema tenían una tasa de diagnósticos correctos del 65% frente a médicos no especialistas en esta área y del 80% con respecto a médicos que fueron considerados expertos en el ramo [9]. De la misma manera INTERNIST es un programa de computadora experimental, desarrollado en 1982 por Miller, Pople y Myers en la Universidad de Pittsburg, capaz de hacer múltiples y completos diagnósticos en el área de medina interna u hospitalaria. Éste difiere de la mayoría de los sistemas de diagnóstico automático por el tamaño y la diversidad de su base de conocimiento. El trabajo de este sistema comienza cuando se le transmite a la computadora el historial médico del enfermo, los síntomas y los resultados de pruebas y análisis; con esta información el sistema experto relaciona los datos de forma muy elaborada y comienza por desechar posibles diagnósticos hasta que llega a los que parecen muy probables; finalmente elige uno y lo da a conocer con todo el detalle del proceso. Luego justifica su elección y el por qué de la posible enfermedad: cuadro clínico, tratamiento, posibilidades de error, entre otras. Sus capacidades fueron evaluadas a través de una serie de 19 ejercicios clínico patológicos (Obtenidos de las historias clínicas del hospital general de Massachusetts), en las que se determinaron ciertos aspectos mejorables, los cuales una vez corregidos le permitieron convertirse en la base de los sistemas expertos comerciales que actualmente existen en el área de la medicina, como es el caso de QMR (Quick Medical Reference, Referencia médica rápida) [10]. En 1990, Fernández, Cristóbal y López, patrocinados por la Comunidad Europea, AIM (Advanced Informatics in Medicine: Avances Informáticos en Medicina) y ECAI (European Center for Artificial Inteligente: Centro Europeo para Inteligencia Artificial) de UNISYS España, desarrollaron el proyecto GAMES: A general Architecture for Medical Expert Systems (Una arquitectura general para Sistemas Expertos Médicos), en el que se diseñaron y desarrollaron sistemas de apoyo a la toma de decisiones en varios campos de la Medicina (inicialmente, anemia y cáncer de mama), combinando modelos de simulación cualitativa, razonamiento sobre casos, teoría de la utilidad y razonamiento no monotónico, con técnicas de sistemas de conocimiento (médico y de control), interfaces de usuario, interfaces de instrumentación e interfaces con bases de datos [11]. Posteriormente en 1993, en Brasil, la Fundación Bahiana de Cardiología (FBC) en colaboración con la Coordinación de Recursos para Postgrado y Emprendedores y la Universidad General de Río de Janeiro (COPPE/UFRJ), desarrollaron el sistema SEC (Sistema Especialista en Cardiología), el cual tiene como objetivo apoyar a médicos no especialistas en cardiología, o en formación de la especialidad (internos o residentes), en el diagnóstico de eventos agudos de la cardiopatía isquémica. Fue diseñado para ser utilizado en unidades de atención periférica urbana, de naturaleza primaria de la red pública de salud brasileña, ayudando al auxiliar o médico no especialista en la orientación de pacientes que requieran atención en una unidad especializada. El SEC, es un sistema experto basado en reglas con tratamiento de incertidumbre. El sistema da apoyo en la formulación diagnóstica del problema del paciente y en la determinación del tipo y forma de atención que le deberá ser suministrada, en función de la gravedad de su cuadro clínico. Al final del proceso es ofrecido al usuario o médico según sea el caso, un diagnóstico y una sugerencia de la medida a ser tomada que se sitúa en cuatro fases: dar de alta al paciente en caso de encontrarse en condiciones normales, dar de alta al paciente solicitando su retorno en un tiempo de hasta seis horas para un nuevo examen, mantener al paciente en observación en la unidad o enviarlo inmediatamente a una unidad especializada [12]. Simultáneamente dentro del ámbito nacional, en la Universidad de los Andes, Ana Arriaga desarrolló SIEXIM (sistema experto para el diagnóstico y tratamiento del infarto miocárdico y sus complicaciones hemodinámicas). El sistema parte con un diagnóstico inicial (análisis de los signos electrocardiográficos, clínicos y de laboratorio), donde se pueda llegar a una de las siguientes conclusiones: sospecha de infarto, infarto o bien no existe evidencia de enfermedad. Una vez realizado este diagnóstico, los pacientes con infarto confirmado o con sospecha de infarto deben ser hospitalizados en la unidad de cuidados intensivos, entrando en un periodo de vigilancia de su estado de salud: electrocardiogramas periódicos, ecocardiografía, radiografía de tórax, vigilancia clínica y monitoreo hemodinámico. Es por medio de los resultados de estos exámenes, que el sistema experto diagnóstica a tiempo cualquier complicación hemodinámica que se pueda presentar y sugiere administrarle al paciente el tratamiento adecuado [13]. En el ámbito local se destacan en el 2002, en la Universidad Nacional Experimental del Táchira, Castillo y Uzcátegui, quienes desarrollaron un estudio que partiendo de la cardiopatía isquémica como un problema de salud actual y en particular el infarto agudo al miocardio, concretaron una aplicación que analiza el segmento ST en señales electrocardiográficas, aprovechando las posibilidades que ofrecen los sistemas expertos. El sistema permitía capturar directamente la señal electrocardiográfica usando la base de datos de arritmias del Instituto Tecnológico de Massachussets y el Hospital Beth-Israel (MITBIH), proponiendo el diagnóstico que consideraba pertinente ante alguna variación del segmento ST, de acuerdo a la base de conocimiento obtenida a partir de entrevistas al especialista y consultas a la bibliografía especializada. Las pruebas realizadas por el médico arrojaron respuestas bastante confiables en la detección de los puntos significativos de la señal ECG, que permiten la correcta ubicación del segmento ST, así como el cálculo de su pendiente y desnivel con respecto a la línea isoeléctrica [14]. Finalmente, en el 2005, Mora y Oliveros en la misma casa de estudios elaboraron PROFEMUR (Sistema de Apoyo al Proceso de Planificación Preoperatoria en el Manejo de Fracturas de Fémur), el cual permitía almacenar registros de casos médicos, reducir el tiempo de planificación preoperatoria y generar información estadística para fortalecer la toma de decisiones por parte del cirujano. El mismo podía ser visitado vía Web para permitir disponibilidad al médico planificador desde cualquier computador con acceso a Internet. La base de datos contaba inicialmente con registros de casos médicos, recopilados a través de una investigación aplicativa y de campo, en instituciones hospitalarias del país [15]. Los trabajos expuestos anteriormente sustentan la importancia de la incursión de la informática para dar solución a problemas reales, más específicamente en el sector de la salud, gracias a que mejora la forma de razonamiento y simula el comportamiento de un experto humano. Específicamente el uso de sistemas expertos de diagnóstico y tratamiento en las diferentes áreas de la medicina, hacen notar que su propósito está dirigido a la orientación de los pacientes de acuerdo al resultado obtenido en el estudio físico realizado y así determinar que tipo y forma de atención será suministrada, obteniendo como beneficio un diagnóstico a tiempo y además la posibilidad de contrastar el caso con una cantidad de información ya existente en una base de datos, disminuyendo así la tasa de error en el diagnóstico. Cabe destacar que estos sistemas actúan como soporte a la toma de decisiones médica, dejando de parte del especialista la responsabilidad de ajustar dicha sugerencia a las variables externas que puede tener cada paciente. Los modelos de simulación cualitativa, el razonamiento basado en casos, la teoría de la utilidad y el razonamiento no monotónico, fueron algunas de las técnicas, teorías y métodos, usados para el desarrollo de estos trabajos, lo que las convierte en la base para discernir cuales técnicas y metodologías se ajustan al caso de estudio, así como también son referencia en cuanto al análisis de los estudios realizador a diversas partes del cuerpo humano. De igual forma las pruebas correspondientes a esta investigación serán realizadas de forma similar a las efectuadas en las investigaciones expuestas, para tomar como marco de referencia: la identificación de la muestra y el cálculo de las tasas de acierto y de error. Bases Teóricas El Corazón, su estructura y funciones. El Corazón, en anatomía, es un órgano muscular hueco que recibe sangre de las venas y la impulsa hacia las arterias. El corazón humano tiene el tamaño aproximado de un puño. Se localiza por detrás de la parte inferior del esternón, y se extiende hacia la izquierda de la línea media del cuerpo. Es de forma más o menos cónica, con la base dirigida hacia arriba, hacia el lado derecho y algo hacia atrás; la punta está en contacto con la pared del tórax en el quinto espacio intercostal. Se mantiene en esta posición gracias a su unión a las grandes venas y arterias, y a estar incluido en el pericardio, que es un saco de pared doble con una capa que envuelve al corazón y otra que se une al esternón, al diafragma y a las membranas del tórax. En el interior del corazón del adulto hay dos sistemas paralelos independientes, cada uno formado por una aurícula y un ventrículo. Respecto a su posición anatómica, estos sistemas reciben el nombre de corazón derecho y corazón izquierdo. El corazón es una bomba doble en la que la sangre circula por dos sistemas cerrados y separados. La sangre cargada de oxígeno abandona el ventrículo izquierdo a través de la aorta. Circula por el cuerpo y retorna, desoxigenada, hasta la aurícula derecha por las venas cavas superior e inferior. El ventrículo derecho bombea la sangre por la arteria pulmonar hasta los pulmones, donde intercambia dióxido de carbono por oxígeno. La sangre oxigenada retorna después por las venas pulmonares a la aurícula izquierda, lista para la circulación arterial. [16] Estructura y Funciones La sangre del organismo, sangre venosa, retorna a la aurícula derecha a través de dos grandes venas, la vena cava inferior y la cava superior. Además, la sangre que irriga el músculo cardiaco drena directamente en la aurícula derecha a través de los senos coronarios. El regreso de la sangre venosa a la aurícula derecha tiene lugar durante todo el ciclo cardiaco de contracción (sístole) y relajación (diástole), mientras que el paso desde la aurícula derecha al ventrículo derecho ocurre sólo durante el periodo de relajación o diástole, cuando las dos cavidades derechas forman una cámara común. Al final de la diástole la contracción de la aurícula derecha completa el llenado del ventrículo derecho con sangre. Las contracciones rítmicas del ventrículo derecho impulsan la sangre a través de las arterias pulmonares hacia los capilares pulmonares, donde la sangre se oxigena (Respiración). Posteriormente los capilares pulmonares se vacían en las venas pulmonares, que a su vez desembocan en la aurícula izquierda. El retorno de sangre por las venas pulmonares a la aurícula izquierda y su paso hacia el ventrículo izquierdo se produce de forma simultánea, de la misma manera que el retorno venoso a las cavidades derechas. La contracción del ventrículo izquierdo impulsa de forma rítmica la sangre hacia la aorta y desde ésta a todas las arterias del organismo, incluyendo las arterias coronarias que irrigan el músculo cardiaco (miocardio). Para evitar que la sangre impulsada desde los ventrículos durante la sístole, o contracción, refluya durante la diástole, hay válvulas localizadas junto a los orificios de apertura de la arteria aorta y de la arteria pulmonar. Estas válvulas, llamadas sigmoideas o semilunares, están formadas por tres repliegues membranosos semilunares incurvados en la dirección del flujo de sangre, que se abren con rapidez bajo presión en dicha dirección. Cuando la presión original cesa, la presión que retrocede favorece la unión de los bordes de los repliegues. Otras válvulas que impiden el reflujo de la sangre son la válvula tricúspide, interpuesta entre la aurícula derecha y el ventrículo derecho, compuesta por tres repliegues membranosos triangulares, y la válvula bicúspide o mitral, entre la aurícula y el ventrículo izquierdos, formada por dos repliegues. Las bases de los repliegues en las dos válvulas se unen a un surco que existe en la unión de la aurícula y el ventrículo, su borde libre está anclado por cuerdas tendinosas, denominadas chordae tendinae, a la pared muscular del corazón. Los repliegues permanecen abiertos hasta que los ventrículos se llenan de sangre. Cuando comienza la contracción del ventrículo la válvula se cierra por presión. Las chordae tendinae previenen la inversión de los repliegues durante este periodo de presión sistólica. [17] La frecuencia de los latidos del corazón está controlada por el sistema nervioso vegetativo, de modo que el sistema simpático la acelera y el parasimpático la retarda. Los impulsos nerviosos se originan de forma rítmica en un nodo o nudosidad nerviosa especial, conocido como seno o nodo sinoauricular, localizado en la aurícula derecha junto a la desembocadura de la vena cava superior. Existen distintas vías internodales que conectan el nodo sinoauricular con el nódulo auriculoventricular, donde tiene lugar un retardo en la conducción del impulso nervioso para facilitar el vaciado de las aurículas antes de que tenga lugar la activación ventricular. El impulso eléctrico continúa a través del haz de His que enseguida se divide en dos ramas, que a su vez se subdividen en las llamadas fibras de Purkinge, en el espesor de las paredes ventriculares. Aunque la excitación nerviosa, algunos fármacos (Estimulantes) y ciertas sustancias químicas de tipo hormonal que segrega el corazón influyen sobre la frecuencia cardiaca, el músculo cardiaco es por sí mismo contráctil y continúa latiendo con una frecuencia regular y constante, incluso cuando se interrumpen todas las conexiones con el sistema nervioso. En el embrión el corazón deriva de la fusión de las dos aortas ventrales, que forman un órgano pulsátil único. Más tarde se formará un tabique interauricular y un tabique interventricular (partición) que lo dividirá en corazón izquierdo y derecho. Sin embargo, la separación no se completa hasta que los pulmones comienzan a funcionar tras el parto. Antes del nacimiento la sangre se oxigena en la placenta y regresa a la aurícula derecha a través de la vena cava inferior. Más tarde, la válvula de Eustaquio la dirige a través del agujero oval, que es un orificio persistente en el tabique interauricular. Después del nacimiento, la válvula de Eustaquio involuciona convirtiéndose en un vestigio y, por lo general, el agujero oval se cierra aunque puede persistir en el adulto con tamaño variable en una quinta parte de la población. El corazón produce dos sonidos en cada ciclo del latido. El primer tono es sordo, y está causado por la vibración de las válvulas auriculoventriculares y por la contracción de las fibras musculares ventriculares. El segundo tono es más agudo y se debe al cierre repentino de las válvulas aórticas y pulmonares. En las enfermedades cardiacas estos ruidos regulares pueden ser reemplazados o estar acompañados por soplos, originados por el paso violento de la sangre a través de orificios o válvulas anómalas. La identificación de dichos soplos tiene gran importancia para el diagnóstico. [18] Figura 1. Diagrama del Corazón. Tomado de “Integrative Biology” por Alan Garfinkel UCLA, 2005. [19] Función Cardiaca La actividad del corazón consiste en la alternancia sucesiva de contracción (sístole) y relajación (diástole) de las paredes musculares de las aurículas y los ventrículos. Durante el periodo de relajación, la sangre fluye desde las venas hacia las dos aurículas, y las dilata de forma gradual. Al final de este periodo la dilatación de las aurículas es completa. Sus paredes musculares se contraen e impulsan todo su contenido a través de los orificios auriculoventriculares hacia los ventrículos. Este proceso es rápido y se produce casi de forma simultánea en ambas aurículas. La masa de sangre en las venas hace imposible el reflujo. La fuerza del flujo de la sangre en los ventrículos no es lo bastante poderosa para abrir las válvulas semilunares, pero distiende los ventrículos, que se encuentran aún en un estado de relajación. Las válvulas mitral y tricúspide se abren con la corriente de sangre y se cierran a continuación, al inicio de la contracción ventricular. La sístole ventricular sigue de inmediato a la sístole auricular. La contracción ventricular es más lenta, pero más enérgica. Las cavidades ventriculares se vacían casi por completo con cada sístole. La punta cardiaca se desplaza hacia delante y hacia arriba con un ligero movimiento de rotación. Este impulso, denominado el latido de la punta, se puede escuchar al palpar en el espacio entre la quinta y la sexta costilla. Después de que se produzca la sístole ventricular el corazón queda en completo reposo durante un breve espacio de tiempo. El ciclo completo se puede dividir en tres periodos: en el primero las aurículas se contraen; durante el segundo se produce la contracción de los ventrículos; en el tercero las aurículas y ventrículos permanecen en reposo. En los seres humanos la frecuencia cardiaca normal es de 72 latidos por minuto, y el ciclo cardiaco tiene una duración aproximada de 0,8 segundos. La sístole auricular dura alrededor de 0,1 segundos, y la ventricular 0,3 segundos. Por lo tanto, el corazón se encuentra relajado durante un espacio de 0,4 segundos, aproximadamente la mitad de cada ciclo cardiaco. En cada latido el corazón emite dos sonidos, que se continúan después de una breve pausa. El primer tono, que coincide con el cierre de las válvulas tricúspide y mitral y el inicio de la sístole ventricular, es sordo y prolongado. El segundo tono, que se debe al cierre brusco de las válvulas semilunares, es más corto y agudo. Las enfermedades que afectan a las válvulas cardiacas pueden modificar estos ruidos, y muchos factores, entre ellos el ejercicio, provocan grandes variaciones en el latido cardiaco, incluso en la gente sana. La frecuencia cardiaca normal de los animales varía mucho de una especie a otra. En un extremo se encuentra el corazón de los mamíferos que hibernan que puede latir sólo algunas veces por minuto; mientras que en el otro, la frecuencia cardiaca del colibrí es de 2.000 latidos por minuto. [20] Origen de los Latidos Cardiacos La frecuencia e intensidad de los latidos cardiacos están sujetos a un control nervioso a través de una serie de reflejos que los aceleran o disminuyen. Sin embargo, el impulso de la contracción no depende de estímulos nerviosos externos, sino que se origina en el propio músculo cardiaco. El responsable de iniciar el latido cardiaco es una pequeña fracción de tejido especializado inmerso en la pared de la aurícula derecha, el nodo o nódulo sinusal. Después, la contracción se propaga a la parte inferior de la aurícula derecha por los llamados fascículos internodales: es el nodo llamado auriculoventricular. Los haces auriculoventriculares, agrupados en el llamado fascículo o haz de His, conducen el impulso desde este nodo a los músculos de los ventrículos, y de esta forma se coordina la contracción y relajación del corazón. Cada fase del ciclo cardiaco está asociada con la producción de un potencial eléctrico detectable con instrumentos eléctricos configurando un registro denominado electrocardiograma. [16] Enfermedades del Corazón Los trastornos del corazón son responsables de mayor número de muertes que cualquier otra enfermedad en los países desarrollados. Pueden surgir como consecuencia de defectos congénitos, infecciones, estrechamiento de las arterias coronarias, tensión arterial alta o trastornos del ritmo cardiaco. Las cardiopatías congénitas incluyen la persistencia de comunicaciones que existían en el transcurso de la vida fetal entre la circulación venosa y arterial, como el ductus arteriosus, que es un vaso que comunica la arteria pulmonar con la aorta, únicamente hasta que se produce el nacimiento. Otras anomalías importantes del desarrollo afectan a la división del corazón en cuatro cavidades y a los grandes vasos que llegan o parten de ellas. En los “bebés azules” la arteria pulmonar es más estrecha y los ventrículos se comunican a través de un orificio anormal. En esta situación, conocida como cianosis, la piel adquiere una coloración azulada debido a que la sangre recibe una cantidad de oxígeno insuficiente. En la antigüedad la expectativa de vida para dichos lactantes era muy limitada, pero con el perfeccionamiento del diagnóstico precoz y el avance de las técnicas de hipotermia, es posible intervenir en las primeras semanas de vida, y mejorar la esperanza de vida de estos lactantes. Anteriormente, las cardiopatías reumáticas constituían una de las formas más graves de enfermedad cardiaca durante la infancia y la adolescencia, por afectar al corazón y a sus válvulas. Esta enfermedad aparece después de los ataques de fiebre reumática. El uso generalizado de antibióticos eficaces contra los estreptococos ha reducido mucho su incidencia, pero todavía en los países en vías de desarrollo sigue siendo la primera o una de las primeras causas de cardiopatía. La miocarditis es la inflamación o degeneración del músculo cardiaco. Aunque suele ser consecuencia de diversas enfermedades como sífilis, bocio tóxico, endocarditis o hipertensión, puede aparecer en el adulto como enfermedad primaria, o en el anciano como enfermedad degenerativa. Puede asociarse con dilatación (aumento debido a la debilidad del músculo cardiaco) o con hipertrofia (crecimiento excesivo del músculo cardiaco). [21] La principal forma de enfermedad cardiaca en los países occidentales es la aterosclerosis. En este trastorno, los depósitos de material lipídico denominados placas, formados por colesterol y grasas, se depositan sobre la pared interna de las arterias coronarias. El estrechamiento gradual de las arterias a lo largo de la vida restringe el flujo de sangre al músculo cardiaco. Los síntomas de esta restricción pueden consistir en dificultad para respirar, en especial durante el ejercicio, y dolor opresivo en el pecho que recibe el nombre de angina de pecho (angor pectoris). La placa de ateroma puede llegar a ser lo bastante grande como para obstruir por completo la arteria coronaria, y provocar un descenso brusco del aporte de oxígeno al corazón. La obstrucción, denominada también oclusión, se puede originar cuando la placa se rompe y tapona el conducto en un punto donde el calibre de la arteria es menor o cuando se produce un coágulo sobre la placa, proceso que recibe el nombre de trombosis. Éstas son las principales causas de los ataques cardiacos, o infartos de miocardio, que frecuentemente tienen consecuencias mortales. Las personas que sobreviven a un infarto deben realizar una rehabilitación integral. El desarrollo de placas de ateroma se debe en gran medida a la ingestión excesiva de colesterol y grasas animales en la dieta. Se cree que un estilo de vida sedentario favorece la aterosclerosis, y la evidencia sugiere que el ejercicio físico puede ayudar a prevenir que el corazón resulte afectado. El temperamento perfeccionista, luchador, que se refiere como personalidad tipo A se ha asociado también con un riesgo mayor de infarto de miocardio, (Alteraciones producidas por el estrés), al igual que el consumo de tabaco. La aparición de un infarto de miocardio es más probable en quienes tienen hipertensión. En el proceso que precipita el ataque pueden estar implicados productos que secretan las plaquetas en la sangre. Se han realizado estudios clínicos para comprobar si las personas que han padecido un infarto estarán protegidas frente al riesgo de un segundo ataque una vez que se emplean fármacos que bloquean la acción de las plaquetas. Los factores de riesgo a los que se ha hecho referencia se pueden clasificar en primarios (hipertensión arterial, hipercolesterolemia y tabaco), secundarios (sedentarismo y estrés) y terciarios (antecedentes familiares y otros). [22] Muchas personas que padecen una angina grave debido a enfermedad aterosclerótica pueden recibir tratamiento mediante fármacos, como los betabloqueantes (por ejemplo, propanolol) y nitratos, que reducen la carga del corazón. Los pacientes que no mejoran con medidas farmacológicas suelen recibir tratamiento a través de una técnica quirúrgica denominada bypass coronario. En este procedimiento, que fue implantado en la década de 1970, se sutura un trozo de una vena de la pierna (safena) a la arteria coronaria ocluida para formar un puente que evite la zona aterosclerótica. En la mayoría de los pacientes la intervención alivia el dolor de la angina y en muchos de ellos evita un infarto mortal. [21] Un segundo procedimiento quirúrgico que se desarrolló durante la década de 1970 para tratar la aterosclerosis coronaria fue la cateterización y dilatación con balón, o angioplastia coronaria transluminal percutánea. En esta intervención se introduce en la arteria coronaria un conducto hueco (catéter) con un balón en su extremo. Cuando el balón alcanza la zona aterosclerótica se insufla. La placa se comprime y se restablece el flujo normal. Se calcula que una de cada seis intervenciones de bypass puede ser sustituida por este método menos agresivo. [22] Ciertas personas que fallecen de infarto de miocardio no presentan aterosclerosis clara. Las investigaciones han demostrado que una disminución del flujo de sangre al corazón puede deberse a una vasoconstricción espontánea de una arteria coronaria en apariencia sana (vasoespasmo), que puede contribuir a la aparición de algunos infartos de miocardio en colaboración con la aterosclerosis. La frecuencia cardiaca responde a las necesidades del organismo y está sujeta a un amplio intervalo de variaciones que, por lo general, se encuentran dentro de los límites normales. Las variaciones pequeñas en el ritmo cardiaco suelen tener un significado patológico mínimo. La alteración del ritmo cardiaco normal recibe el nombre de arritmia. Cuando además supone una elevación del ritmo se denomina taquiarritmia (fibrilación ventricular, auricular y sacudidas), mientras que cuando lo retarda se denomina bradiarritmia (bloqueos auriculoventriculares y de rama). La causa inmediata de muerte en muchos infartos de miocardio, haya o no aterosclerosis, es la fibrilación ventricular, que conduce a una parada cardiaca. Este tipo de taquiarritmia origina la contracción rápida e ineficaz de los ventrículos. El ritmo cardiaco normal se puede restablecer con la aplicación de una descarga eléctrica sobre el tórax. Los defectos graves en el nodo sinoauricular o en las fibras que transmiten los impulsos al músculo cardiaco pueden provocar vértigo, desmayos y en ocasiones la muerte. El trastorno más grave es el bloqueo cardiaco completo. Éste se puede corregir por medio de la colocación de un marcapasos artificial, un dispositivo que emite descargas eléctricas rítmicas para provocar la contracción regular del músculo cardiaco. La mayor parte del resto de las arritmias no son peligrosas excepto en quienes padecen una enfermedad cardiaca subyacente. En estos pacientes, en especial en los que ya han sufrido un infarto, las arritmias requieren un tratamiento a base de antiarrítmicos como propanolol, lidocaína y disopiramida, entre otros. Otra patología frecuente entre las personas de edad avanzada es la afección cardiopulmonar, que suele ser el resultado de una alteración pulmonar como el enfisema, o de una enfermedad que afecta a la circulación pulmonar, como la arteriosclerosis de la arteria pulmonar. Otro trastorno presente en los ancianos es la insuficiencia cardiaca congestiva, en la cual, la función de bombeo de los ventrículos está disminuida. Las paredes musculares de los ventrículos se dilatan esforzándose por impulsar un volumen mayor de sangre hacia la circulación, dando origen a una cardiomegalia (aumento de tamaño) característico de este síndrome. Las personas con este trastorno suelen mejorar con uno de los derivados de la digitalina (Digitalis), que aumenta la eficacia de la función de bombeo del corazón. [21] Síndromes Coronarios Agudos El término síndrome coronario agudo (SCA) hace referencia a toda el conjunto de cuadros clínicos relacionados con la isquemia miocárdica aguda. En los últimos 20 años, el mejor conocimiento de la patogenia del SCA ha modificado significativamente tanto al diagnostico como el tratamiento y el pronostico intrahospitalario de los diferentes SCA. En la actualidad, se sabe que la mayoría de los SCA son debidos a una reducción en el aporte de oxigeno miocárdico, como consecuencia de la erosión o rotura de una placa ateroesclérotica, asociada a trombosis, vasoconstricción y microembolización distal, provocando así la aparición de angina inestable (AI) o infarto agudo de miocardio (IAM). Así pues, la AI y el IAM tienen un nexo fisiopatológico común, con unas manifestaciones clínicas que pueden ser inicialmente difíciles de diferenciar hasta la realización de un ECG. Es importante resaltar que el ECG permite subdividir a los pacientes en dos grandes bloques según si elevan o no el segmento ST. [21] Diagnóstico El electrocardiógrafo, un instrumento que registra la corriente eléctrica producida por el músculo cardiaco durante las distintas fases de la contracción, es una herramienta importante de diagnóstico. La eficacia del corazón como bomba se puede determinar con precisión mediante el cateterismo cardiaco. En esta técnica se introduce un catéter a través de una vena o una arteria, o ambas, en las cavidades cardiacas derechas, izquierdas, o en ambas, en la arteria pulmonar y en la aorta. Este proceso permite determinar la tasa de flujo sanguíneo y registrar la presión sanguínea intracardiaca y en los grandes vasos, y hace posible detectar comunicaciones anómalas entre las cavidades cardiacas derecha e izquierda. Con la ayuda de otra técnica diagnóstica, llamada angiocardiografía o cinefluoroscopia, es posible obtener imágenes de las cavidades cardiacas y del trayecto y contorno de los vasos pulmonares y de la aorta y sus ramificaciones. Esta técnica implica la inyección de una sustancia opaca a los rayos X en una vena. Hay otra técnica nueva que permite obtener una delineación incluso más exacta de zonas del corazón con flujo sanguíneo reducido, mediante la visualización del flujo de un isótopo radiactivo del talio en el músculo cardiaco. Una cámara computerizada registra el grado de penetración del talio durante el ciclo cardiaco de sístole-diástole, mostrando con precisión las pequeñas áreas de tejido lesionado. Otra técnica que se utiliza mucho hoy es la obtención de imágenes mediante ultrasonidos (ecocardiografía). [21] Cateterización cardiaca El cateterismo cardiaco es un procedimiento invasivo que consiste en la inserción de un tubo extenso y fino, o catéter, en la arteria femoral, al nivel de la ingle, el brazo o la muñeca. El catéter es guiado hasta el corazón y luego es usado para inyectar un líquido de contraste que permite visualizar las arterias del corazón, bajo exposición de rayos X. Las imágenes de rayos X aportan un mapa detallado del corazón y revelan posibles obstrucciones en las arterias afectadas, así como su ubicación. Este procedimiento se combina con mediciones de la fuerza muscular a través de pruebas de esfuerzo y la presión arterial, y es parte integral del diagnóstico cardiaco. [23] Figura 2. Cateterización Cardíaca (Vista General). Tomado de “MedlinePlus Información de Salud para usted” por Animated Dissection of Anatomy for Medicine (ADAM), 2004. [23] El cateterismo cardíaco es uno de los estudios más profundos del corazón, mediante el cual se pueden apreciar las arterias que nutren al corazón o coronarias, medir el bombeo del corazón, las presiones dentro de sus cavidades y en el sistema pulmonar. De manera adicional, se pueden evaluar las válvulas, deformidades, aneurismas o dilataciones, trastornos en su contracción, tumores o masas internas y muchas cardiopatías congénitas. Generalmente este procedimiento se realiza para obtener información diagnóstica sobre el corazón o los vasos sanguíneos, para evaluar el funcionamiento del corazón y el suministro de sangre o anomalías congénitas del corazón, para brindar tratamiento en ciertos tipos de enfermedades cardíacas o para determinar la necesidad de una cirugía cardiaca [24]. El cateterismo cardíaco se puede emplear para determinar la presión y el flujo sanguíneo en las cámaras del corazón, tomar muestras de sangre dentro del mismo y examinar las arterias por medio de una técnica de rayos X llamada fluoroscopia. La fluoroscopia permite la visualización inmediata ("en tiempo real") de las imágenes de rayos X en una pantalla y suministra un registro permanente del procedimiento. Una vez que el catéter está en el lugar indicado, se inyecta un material de contraste o colorante para visualizar las estructuras y vasos de corazón y se toman las imágenes. Figura 3. Cateterización Cardíaca (Vista Detalle). Tomado de “MedlinePlus Información de Salud para usted” por Animated Dissection of Anatomy for Medicine (ADAM), 2004. [23] Tipos de Cateterismo Cardiaco Hay varios tipos de cateterismo cardíaco y pueden hacerse por separado o combinados. Todas las formas de cateterismo cardíaco se hacen con una muy delgada y flexible sonda llamada catéter, la cual se introduce en una arteria o vena a través de la piel, utilizando una aguja o introductor especial, previa limpieza y aplicación de anestésico local. Los sitios de punción más usuales son las ingles, aunque en algunas ocasiones se usen las arterias de los brazos. Con el cateterismo cardiaco derecho, se estudia lo que corresponde al lado derecho del corazón y el sistema pulmonar, así como muchas de las cardiopatías congénitas. En este caso el catéter se introduce por la vena, casi siempre la femoral a la altura de la ingle izquierda o derecha, y se desplaza hasta el interior de la aurícula y ventrículo derecho y la arteria pulmonar. En cada una de estas estructuras se pueden medir presiones e inyectar una solución de contraste yodada, opaca a los rayos X, los cuales se utilizan para tomar radiografías y filmar el estudio en un proceso que se llama cine angiografía ("cine" por película en movimiento, "angio" por vasos sanguíneos y "grafía" por grabado). [25] Figura 4.Cateterismo Cardiaco Derecho. Tomado de “Cardiocaribe.com” por Orlando Navarro Ulloa, 2001 [25]. En el caso del cateterismo cardíaco izquierdo, el catéter se introduce por la arteria femoral, se desplaza hacia el corazón siguiendo la artería ilíaca y luego la aorta hasta el ventrículo izquierdo. Se miden presiones en la aorta y en el ventrículo y si es necesario se inyecta medio de contraste en estas estructuras; cuando se hace en la aorta se llama aortograma y cuando se hace en el ventrículo, ventriculograma. Hay catéteres especiales para canalizar las coronarias izquierda y derecha, las cuales nacen en la raíz o porción inicial de la aorta, muy cerca de su salida del corazón. [25] Figura 5. Cateterismo Cardiaco Izquierdo. Tomado de “Cardiocaribe.com” por Orlando Navarro Ulloa, 2001 [25]. Los valores normales bajo los cuales se realiza el estudio que establecen los parámetros de medición se dan con relación al tamaño, movimiento, consistencia y presión normales del corazón; al igual que un suministro normal de sangre. [7] La inyección del contraste (suministrada a través de catéter) en cada coronaria se denomina Coronariografía, siendo posible visualizarlas en toda su magnitud, tanto las ramas principales como las colaterales, precisando sus características y anormalidades, en especial sus obstrucciones parciales o totales, debidas a acumulación de colesterol (ateromas) o a trombos. [25] Figura 6. Coronariografía. Tomado de“Cardiocaribe.com” por Orlando Navarro Ulloa, 2001 [25]. Con la coronariografía se determina si hay enfermedad coronaria y su severidad, para tomar decisiones trascendentales en el manejo del paciente. [10]. Durante el Cateterismo Cardiaco, el corazón es vigilado de forma muy precisa y cualquier cambio que ocurra es documentado y estudiado, pudiéndose determinar de manera exacta, el trastorno de ritmo y la solución más apropiada del mismo. El procedimiento es realizado por personal especializado y bien entrenado conformado por cardiólogos electrofisiólogos, anestesiólogos, técnicos cardiopulmonares y personal de enfermería. Figura 7. Fluoroscopia. Tomado de “Cardiocaribe.com” por Orlando Navarro Ulloa, 2001 [25]. Toda vez que se ha finalizado el procedimiento, el cual puede tener una duración promedio entre 2 a 4 horas, son retirados los catéteres y se realiza presión manual en los sitios de inserción de los mismos por aproximadamente 10 minutos sin la necesidad de puntos de sutura. El paciente debe permanecer acostado por alrededor de 4 a 6 horas para permitir que estos sitios queden sellados espontáneamente. En la gran mayoría de los casos, el paciente puede ser dado de alta al día siguiente y reintegrarse a sus actividades normales en 72 horas más. Sin embargo se recomienda evitar el levantamiento de objetos pesados y realizar solo actividades ligeras por pocos días. [26] Inteligencia Artificial (IA) La inteligencia artificial, en una definición amplia y un tanto circular, tiene por objeto el estudio del comportamiento inteligente en las máquinas. A su vez, el comportamiento inteligente supone percibir, razonar, aprender, comunicarse y actuar en entornos complejos. Una de las metas a largo plazo de la IA es el desarrollo de máquinas que puedan hacer todas estas cosas igual, o incluso mejor, que los humanos. Otra meta de la IA es llegar a comprender este tipo de comportamiento, sea en las máquinas, en los humanos o en los animales. Por lo tanto, la IA persigue al mismo tiempo metas científicas y metas de ingeniería. [27] La inteligencia artificial combina varios campos, como la robótica, los sistemas expertos y otros, los cuales tienen un mismo objetivo: tratar de crear máquinas que puedan razonar por sí solas, lo que origina que hasta la fecha existan varios estudios y aplicaciones, dentro de las que se encuentran las redes neurales, el control de procesos como los sistemas de producción (robots empaca comestibles o configuradores de sistemas de computación) o los algoritmos genéticos. Es por esto que la inteligencia artificial se clasifica en cuatro categorías: • Sistemas que piensan como humanos: Están referidos a la automatización de actividades vinculadas con procesos de pensamiento humano, tales como toma de decisiones, resolución de problemas y aprendizaje. Lo interesante de esta categoría es lograr que las computadoras piensen, es decir, conseguir máquinas con mente. • Sistemas que actúan como humanos: Son los obtenidos a partir del estudio de cómo lograr que las computadoras realicen funciones cuyo desarrollo requiere de inteligencia humana. • Sistemas que piensan racionalmente: Son los que estudian las capacidades mentales y las representan a través de modelos computacionales. • Sistemas que actúan racionalmente: Son los que emulan la inteligencia humana y automatizan su comportamiento [28]. ¿Cómo trabaja la IA? El funcionamiento de la inteligencia artificial se sustenta en ciertas premisas, las cuales contemplan: • La información simbólica preferente a la numérica. • Los métodos heurísticos preferentes a los algorítmicos. • El uso de conocimiento específico-declarativo. • Las informaciones incompletas o con incertidumbre. • La aplicabilidad a diversas disciplinas [28]; a las cuales se hará referencia en las siguientes secciones. Áreas de Aplicación de la IA Los avances conseguidos a través de la IA se aplican en sistemas reales en una gran variedad de ramas y problemas: • Gestión y control: análisis inteligente, fijación de objetivos. • Fabricación: diseño, planificación, programación, monitorización, control, gestión de proyectos, robótica simplificada y visión computarizada. • Educación: adiestramiento práctico, exámenes y diagnóstico. Ingeniería: diseño, control y análisis. • Equipamiento: diseño, diagnóstico, adiestramiento, mantenimiento, configuración, monitorización y ventas. • Cartografía: interpretación de fotografías, diseño, resolución de problemas cartográficos. • Profesiones: abogacía, medicina, contabilidad, geología, química. Software: enseñanza, especificación, diseño, verificación, mantenimiento. • Sistemas de armamento: guerra electrónica, identificación de objetivos, control adaptativo, proceso de imágenes, proceso de señales. Proceso de datos: educación, interfase en lenguaje natural, acceso inteligente a datos y gestores de bases de datos, análisis inteligente de datos. • Finanzas: planificación, análisis, consultoría. Aplicaciones comerciales de la inteligencia artificial. Sin embargo, la inteligencia artificial ya cuenta con frutos en diferentes mercados: • Configuración: selección de distribución de los componentes de un sistema de computación. • Diagnosis: hardware informático, redes de ordenadores, equipos mecánicos, problemas médicos, averías telefónicas, instrumentación electrónica, circuitos electrónicos, averías automovilísticas. • Interpretación y análisis: datos geológicos para prospección petrolífera, compuestos químicos, análisis de señales, problemas matemáticos complejos, evaluación de amenazas militares, análisis de circuitos electrónicos, datos biológicos (coronarios, cerebrales y respiratorios), información de radar, sonar e infrarrojos. • Monitorización: equipos, monitorización de procesos, fabricación y gestión de procesos científicos, amenazas militares, funciones vitales de pacientes hospitalizados, datos financieros en tiras de papel perforado por teleimpresora, informes industriales y gubernamentales. • Planificación: gestión de activo y pasivo, gestión de cartera, análisis de créditos y préstamos, contratos, programación de trabajos de taller, gestión de proyectos, planificación de experimentos, producción de tarjetas de circuito impreso. • Interfaces inteligentes: hardware (fiscal) de instrumentación, programas de computadora, bases de datos múltiples, paneles de control. • Sistemas de lenguaje natural: interfaces con bases de datos en lenguaje natural, gestión de impuestos (ayudas para contabilidad), consultoría en temas legales, planificación de fincas, consultoría de sistemas bancarios. • Sistemas de diseño: integración de microcircuitos en muy alta escala, síntesis de circuitos electrónicos, plantas químicas, edificios, puentes y presas, sistemas de transporte. • Sistemas de visión computarizada: selección de piezas y componentes, ensamblado, control de calidad. • Desarrollo de software: programación automática. [29] La inteligencia artificial y el conocimiento. En algunos casos, el conocimiento se caracteriza por ser voluminoso, impreciso o incierto, o por sufrir cambios constantemente, razones por las cuales se hace necesario establecer una forma de representarlo para cotejar estas contrariedades [30] Representación del conocimiento. La representación del conocimiento debe ser capaz de captar generalizaciones, ser comprensible, fácilmente modificable, permitir diversos grados de detalle, captar la incertidumbre y focalizar el conocimiento relevante; para conseguir de forma sencilla la solución a un problema determinado. Más específicamente, en lo que a inteligencia artificial se refiere es una combinación de estructuras de datos que junto con mecanismos interpretativos permiten manipular el conocimiento representado, para generar soluciones al problema en cuestión. [30] Los diferentes tipos de lógicas a partir de las cuales se formulan las expresiones que representan el conocimiento se muestran en la tabla 1. Tabla 1. Tipos de Lógica para representación del conocimiento. Lógica Representación Estados de Conocimiento Proposicional Hechos Verdadero/ falso/ desconocido Predicados Hechos, objetos y relaciones Verdadero/ falso/ desconocido Temporal Hechos, objetos relaciones y tiempo Verdadero/ falso/ desconocido Probabilidad Hechos Grado de creencia 0..1 Difusa Grados de verdad Grado de creencia 0..1 Fuente: Lógica de Predicados. Rodríguez, 2005. [30] Lógica de predicados. La lógica de predicados es una forma lógica general, a partir de la cual se pueden representar todos los detalles expresados en sentencias, las cuales expresan relaciones entre objetos, así como cualidades y atributos de tales objetos (personas, objetos físicos o conceptos). Dichas relaciones se denominan predicados, y los objetos se denominan argumentos o términos del predicado. Al construir los predicados se asume que su veracidad está basada en su relación con el mundo real; aunque, el establecer como verdadero un predicado es suficiente para que así sea considerado [30]. Con esto es importante resaltar que el presente estudio estará enfocado en el uso de la lógica de predicados, debido a que es una lógica más general y permite la representación detallada de las sentencias, para que las mismas no pierdan su significado en el caso de ser complejas como ocurre con la lógica proposicional. Resolución de problemas en la IA Muchos de los problemas de interés práctico en inteligencia artificial son resueltos a través de los mecanismos de búsqueda, ya que permiten el estudio de cada una de las posibles soluciones a un caso específico, mediante el recorrido de la trayectoria en un conjunto de nodos dispuestos en una red, en la que cada uno de ellos representa un estado de la solución. La fase de selección del mecanismo de búsqueda a usar incluye la revisión de las siguientes interrogantes: ¿Es la búsqueda la mejor manera de resolver el problema?, ¿Cuáles métodos de búsqueda resuelven el problema?, ¿Cuál método de búsqueda es el más eficiente para este problema?; cuya respuesta es dada mediante el estudio de los tipos de búsqueda: Búsqueda a Ciegas También conocida como búsqueda sin información, es aquella que no utiliza conocimiento previo del problema. Los métodos que incluye esta búsqueda son: • Búsqueda primero en anchura - Breadth-first search • Búsqueda en profundidad - Depth First Search • Búsqueda en profundidad iterativa - Iterative deepening search • Búsqueda de costo uniforme - Uniform cost search • Búsqueda Bidireccional - Bidirectional search [31] Búsqueda Heurística También llamada búsqueda informada, es la que utiliza información previa del problema para su resolución, de forma tal que se pueda ordenar la búsqueda evaluando primero los nodos más prometedores. Esta búsqueda contempla los siguientes métodos: • Búsqueda del mejor primero - best-first search • Búsqueda avara - beam search • Búsqueda más informada – More informed search • Búsqueda en ascenso de cima • Búsqueda ascenso a la cima • Endurecimiento simulado • Búsqueda A* - A* Search • Búsqueda A* con profundidad iterativa – Iterative deepening A* search [32] Para efectos del presente estudio se hace necesario el uso de de la búsqueda Heurística, la cuál permitirá encontrar la solución óptima que se adapte al caso médico tratado, sustentada en la base de conocimientos existente. El proceso de Razonamiento El proceso de razonamiento en un sistema basado en reglas es una progresión desde un conjunto inicial de afirmaciones y reglas hacia una solución, respuesta o conclusión. Como se llega a obtener el resultado, sin embargo, puede variar significativamente: • Se puede partir considerando todos los datos conocidos y luego ir progresivamente avanzando hacia la solución. Este proceso se lo denomina guiado por los datos o de encadenamiento progresivo (forward chainning). • Se puede seleccionar una posible solución y tratar de probar su validez buscando evidencia que la apoye. Este proceso se denomina guiado por el objetivo o de encadenamiento regresivo (backward chainning). [32] Razonamiento Progresivo En el caso del razonamiento progresivo, se empieza a partir de un conjunto de datos colectados a través de observación y se evoluciona hacia una conclusión. Se chequea cada una de las reglas para ver si los datos observados satisfacen las premisas de alguna de las reglas. Si una regla es satisfecha, es ejecutada derivando nuevos hechos que pueden ser utilizados por otras reglas para derivar hechos adicionales. Este proceso de chequear reglas para ver si pueden ser satisfechas se denomina interpretación de reglas. La interpretación de reglas es realizada por una maquina de inferencia en un sistema basado en conocimiento. [32] Los Sistemas como soporte a la toma de decisiones Sistemas de Información Un Sistema de Información puede definirse técnicamente como un conjunto de componentes interrelacionados que permiten capturar, procesar, almacenar y distribuir la información para apoyar la toma de decisiones y el control en una institución. Además, para apoyar a la toma de decisiones, la coordinación y el control, los sistemas de información pueden también ayudar a los administradores y al personal a analizar problemas, visualizar cuestiones complejas y crear nuevos productos. Los sistemas de información pueden contener datos acerca de personas, lugares y cosas importantes dentro de la Institución y el entorno que la rodea. [33] Los sistemas de información son desarrollados con propósitos diferentes dependiendo de las necesidades del negocio, de esta forma se pueden clasificar en • Sistemas de procesamiento de transacciones (TPS): son sistemas de información computarizados desarrollados para procesar gran cantidad de datos para transacciones rutinarias de los negocios, tales como nómina e inventario. • Sistemas de automatización de oficina (OAS): dan soporte a los trabajadores de datos, quienes por lo general no crean un nuevo conocimiento sino que usan la información para analizarla y transformar datos, o para manejarla en alguna forma y luego compartirla o diseminarla formalmente por toda la organización. • Sistemas de manejo de conocimiento (KWS): dan soporte a los trabajadores profesionales tales como científicos, ingenieros y doctores, les ayudan a crear un nuevo conocimiento que contribuya a la organización o a toda la sociedad. • Sistemas de información gerencial (MIS): son sistemas de información computarizada debido a la interacción resuelta entra las personas y las computadoras. Requieren que las personas, el software y el hardware trabajen al unísono. • Sistemas de apoyo a decisiones de grupo (GDSS): están orientados para reunir a un grupo, a fin de que se resuelva un problema con la ayuda de varios apoyos como votaciones, cuestionarios, aportación de ideas y creación de escenarios. • Sistemas de apoyo a ejecutivos (ESS): ayuda a los ejecutivos a organizar sus interacciones con el ambiente externo, proporcionando apoyo de gráficos y comunicaciones en lugares accesibles tales como salas de juntas y oficinas personales corporativas. • Sistemas de apoyo a decisiones (DSS): tiene como fuente una base de datos determinada y en cada una de sus fases tiene como premisa la toma de decisiones, aún cuando la decisión final queda por parte de la persona responsable. • Sistemas expertos: es un caso muy especial de un sistema de información cuyo uso ha sido factible para lo negocios a partir de la reciente y amplia disponibilidad de hardware y software tal como las microcomputadoras. Los sistemas expertos, también llamados sistemas basados en conocimiento, capturan en forma efectiva y usan el conocimiento de un experto para resolver un problema particular experimentado en una organización. La diferencia de un Sistema Experto con un DSS, es que el sistema experto selecciona la mejor solución a un problema o a una clase específica de problemas. [34] De acuerdo a los tipos de sistemas de información estudiados, se evidencia que la investigación a realizar se enmarca dentro de las especificaciones de un sistema experto, puesto que pretende dar soporte al especialista en la generación de diagnósticos y tratamientos a una afección cardiaca determinada, a partir de una amplia base de conocimientos. A continuación, se abordará este tipo de sistemas de información para profundizar sobre su estructura y funcionamiento. Sistemas Expertos Los sistemas expertos son aplicaciones informáticas que simulan el comportamiento de un experto humano, partiendo de la premisa de que precisamente ese experto quien tiene el conocimiento o habilidades profundas en un campo determinado. Actualmente, ellos “transfieren” todos sus conocimientos y experiencias a una computadora, la cual pese a los esfuerzos realizados aun no se puede catalogar como un ente con inteligencia natural. Los sistemas expertos se aplican por norma general en problemas que implican un procedimiento basado en el conocimiento, es decir, que comprende la utilización de normas o estructuras que contengan conocimientos y experiencias de expertos, deducción lógica de conclusiones, capacidad de interpretar datos ambiguos y la manipulación de conocimientos afectados por la probabilidad. Componentes de un Sistema Experto. Aunque los componentes de un Sistema Experto no se manejan de forma estándar, su estructura puede ser representada a través de un modelo tradicional. Figura 8. Modelo de un Sistema Experto. Tomado de la "Universidad de Oviedo" por Julián Lombarde - UCM, 2005. [34] A continuación se explican de forma individual cada uno de los componentes, iniciando con el subsistema de adquisición de conocimientos. • Subsistema de adquisición de Conocimientos: es quien permite que se puedan añadir, eliminar o modificar elementos de conocimiento (en la mayoría de los casos reglas) en el sistema experto. • Base de Conocimientos: La base de conocimientos contiene el conocimiento especializado extraído del experto en el dominio. Es decir, contiene conocimiento general sobre el dominio en el que se trabaja. El enfoque más común para representar el dominio del conocimiento que se requiere para un Sistema Experto son las reglas de producción. Estas pueden ser referidas como reglas “situación-acción” o “if-then”. De esta forma, con frecuencia una base de conocimientos esta fraguada principalmente de reglas, las cuales son invocadas por un enlace de patrones con las particularidades de las tareas circunstanciales que van apareciendo en la base de datos global. Existen reglas de producción que indican bajo que condiciones deben considerarse unas reglas en vez de otras, estas reglas son conocidas como Metareglas. La fuerza de un Sistema Experto yace en el conocimiento específico del dominio del problema. Casi todos los sistemas existentes basados en reglas contienen un centenar de ellas y generalmente se obtienen de entrevistas con expertos durante un tiempo largo. En cualquier Sistema Experto, las reglas se conectan una a otra por ligas de asociación para formar redes de reglas. Una vez que han sido ensambladas tales redes, entonces se tiene una representación de un cuerpo de conocimientos que es substancial. • Base de Datos o Base de Hechos: La base de datos o base de hechos es una parte de la memoria del ordenador que se utiliza para almacenar los datos recibidos inicialmente para la resolución de un problema. Contiene conocimiento sobre el caso concreto en que se trabaja. También se registrarán en ella las conclusiones intermedias y los datos generados en el proceso de inferencia. Al memorizar todos los resultados intermedios, conserva el vestigio de los razonamientos efectuados; por lo tanto, se puede utilizar para explicar las deducciones y el comportamiento del sistema. • Motor de Inferencia: El motor de inferencia es el "supervisor", un programa que está entre el usuario y la base de conocimientos, y que extrae conclusiones a partir de los datos simbólicos que están almacenados en las bases de hechos y de conocimiento. Se pueden diferenciar dos mecanismos de inferencia: Encadenamiento hacia delante y encadenamiento hacia atrás. La llamada "técnica de encadenamiento hacia adelante" consiste en aplicar al conocimiento-base (organizado en forma de reglas de producción), junto con otro conocimiento disponible, el esquema inferencial modus ponens. Esta estrategia también es conocida como "razonamiento de datos dirigidos", porque comienza con los datos conocidos y aplica el modus ponens sucesivamente hasta obtener los resultados que se siguen. Las reglas se aplican "en paralelo", o sea, en cualquier iteración una regla toma los datos cuales eran al principio del ciclo, por lo tanto el conocimiento-base y el sistema no dependen del orden en el que las reglas son establecidas, almacenadas o procesadas. Esta técnica suele utilizarse cuando la cantidad de datos es potencialmente muy grande, y resulta de interés algún conocimiento específico tomado en consideración La técnica del "encadenamiento hacia atrás" consiste en tratar de probar un dato (o conocimiento) engarzándolo en las reglas-base con el esquema de inferencia modus ponens, o sea, tomando al dato como un consecuente y buscando en el conocimiento-base el correspondiente antecedente, a través de los pasos correspondientes. Estas dos formas de inferencia se corresponden con los dos métodos lógicos clásicos conocidos por varios nombres: método resolutivo / método compositivo; análisis / síntesis. La distinción se basa en la relación direccional entre objetivos y datos. Y ambas formas pueden combinarse en el razonamiento. • Interfaz Hombre-Máquina: La interfaz establece una comunicación sencilla entre el usuario y el sistema. El usuario puede consultar con el sistema a través de menús, gráficos, o algún otro tipo de interfaces, y éste le responde con resultados. También es interesante mostrar la forma en que extrae las conclusiones a partir de los hechos. En sistemas productivos se cuida la forma de presentar al operador las órdenes obtenidas del sistema experto, debido a que información excesiva o confusa dificulta la actuación en tiempo real. • Adicionalmente se cuenta con el componente de explicación que es el que permite justificar y explicar el análisis completo del problema y las soluciones propuestas, así como la semejanza o diferencia entre dicha solución y las de los casos históricos [35] Tipos de Sistemas Expertos. Los principales tipos de sistemas expertos son: • Basados en reglas: obtienen la solución al problema aplicando reglas heurísticas apoyadas generalmente en lógica difusa para su evaluación y aplicación. • Basados en casos o CBR (Case Based Reasoning): obtienen la solución aplicando el razonamiento basado en casos, donde la solución a un problema similar planteado con anterioridad se adapta al nuevo problema. • Basados en redes bayesianas: en los cuales se obtiene la solución aplicando redes bayesianas, basadas en estadística y el teorema de Bayes Campos de Aplicación de los Sistemas Expertos. Un sistema experto es muy eficaz cuando tiene que analizar una gran cantidad de información, interpretándola y proporcionando una recomendación a partir de la misma, a continuación en la tabla 2 se expone el uso de los Sistemas Expertos ante distintos problemas [36]. Tabla 2. Modelos Funcionales de los Sistemas Expertos. Categoría Interpretación Tipo de Problema Deducir situaciones a partir de datos observados Predicción Inferir posibles consecuencias a partir de una situación. Diagnóstico Deducir fallos a partir de sus efectos. Diseño Configurar objetos bajo ciertas especificaciones Desarrollar planes para llegar a unas metas Planificación Monitorización o supervisión Depuración Controlar situaciones donde hay planes vulnerables Uso Análisis de imágenes, reconocimiento del habla, inversiones financieras Predicción meteorológica, previsión del tráfico, evolución de la Bolsa. Diagnóstico médico, detección de fallos en electrónica. Diseño de circuitos, automóviles, edificios. Programación de proyectos e inversiones. Planificación militar. Control de centrales nucleares y factorías químicas. Desarrollo de Software y circuitos electrónicos. Reparar sistemas informáticos, automóviles. Corrección de errores, enseñanza. Estrategia militar, control del tráfico aéreo. Preescribir soluciones para funcionamientos erróneos Reparación Efectuar lo necesario para hacer una corrección Instrucción Diagnóstico, depuración y corrección de una conducta. Control Mantener un sistema por un camino previamente trazado, interpreta, predice y supervisa su conducta Enseñanza Recoger el conocimiento Aprendizaje de experiencia. mostrado Fuente: Sistemas Expertos y Modelos de Redes Probabilísticas. Castillo, 2001[36] Programación Orientada a Objetos (POO) Joyanes (2000) expone que la programación orientada a objetos (POO) es un conjunto de técnicas que permiten el desarrollo de programas de computadora más eficientes. Por su parte, Grady Booch (citado por joyanes, 2000) la define con un método en el cual los programas se organizan como colecciones cooperativas de objetos, los cuales son a su vez instancias de alguna clase, y cuyas clases son todas miembros de una jerarquía de clases unidas mediante relaciones de herencia [37]. Características de la POO Los Objetos. Un Objeto es una abstracción de cosas (entidades) del mundo real, tales que: todas las cosas del mundo real consideradas como un conjunto tienen las mismas características y todas siguen las mismas reglas. Desde el punto de vista informático, son tipos abstractos de datos. Se dice que un objeto es la unidad que engloba las operaciones y los datos que se maneja para un conjunto de variables comunes. Consta de: Estado (atributos) y sus operaciones o comportamiento (métodos invocados por mensajes). Por definición, todos los objetos que existen dentro de una clase heredan sus atributos y las operaciones disponibles para la manipulación de los atributos Según Shlaer, Mellor y Coad/Yourdon los objetos se pueden ubicar dentro de alguna de las siguientes categorías: cosas tangibles, roles o papeles jugados o representados por personas, organizaciones, incidentes, interacciones, especificaciones o lugares [37]. Las Clases. Una clase es la descripción de un conjunto de objetos. Contiene los métodos y datos con los que operan dichos objetos, es decir, una clase es la declaración de un tipo de objeto. Permiten la construcción de un tipo de dato dado por las características del objeto en sí. De esta forma, cuando se crea un objeto, se crea lo que se llama una Instancia de la clase, es decir, los objetos no son más que instancias de una clase determinada. Las principales características de las clases son: • Encapsulación: es la propiedad mediante la cual se realiza el ocultamiento de la información de una clase particular. Una clase debe tener dos partes, la interfase o parte pública, y la implementación o parte privada. • Herencia: esta dada por la capacidad de un objeto para utilizar las estructuras de datos y los métodos previstos en antepasados o ascendientes, cumpliendo así el objetivo final de reutilizabilidad o reutilización del código desarrollado. Una clase se puede derivar de otra, y en ese caso hereda todas sus variables y métodos. Una clase derivada puede añadir nuevas variables y métodos y/o redefinir las variables y métodos heredados. • Polimorfismo: en su forma más simple, es el uso de un nombre o símbolo (por ejemplo, un operador) para representar o significar más de una acción [37]. Las relaciones entre objetos. Los objetos se relacionan entre sí para lograr objetivos comunes, y mantener las abstracciones tomadas a partir de su comportamiento en el mundo real, las cuales según su forma pueden ser: • Asociación: Expresa una conexión bidireccional entre dos clases dadas. • Agregación: es el tipo de relación que representa las relaciones entre el todo y sus partes, en el que éstas son “parte de” ese todo. • Composición: Mantiene la lógica de las relaciones de agregación, con la diferencia de que en este caso éstas son más dependientes, ya que las partes solo tienen sentido como parte del todo • Generalización: La generalización es una relación entre un elemento más general y un elemento más específico y sirve para representar la herencia entre clases [37]. Modelado de Objetos en Lenguaje de Modelado Unificado (UML) UML Unified Modeling Language (Lenguaje de modelado unificado) es un lenguaje estándar para crear planos de software, que permite hacer una rápida transición de los modelos al código. Recoge lo mejor de diferentes sistemas de modelamiento, hecho que lo hace adaptable a casi cualquier sistema. Además, puede ser utilizado en la mayoría de las fases de un proyecto, lo que a su vez permite que se tenga información consistente en cada fase. Por otra parte, se base en el paradigma de la Programación Orientada a Objetos (POO), lo que hace que el modelamiento de los aspectos del mundo real que se quieran plasmar en el sistema, pueda ser más exacto gracias a las características de abstracción de dicho conjunto de técnicas. El modelamiento en UML está dado por un conjunto de diagramas, siendo éstos el medio a través del cual el usuario visualiza y manipula los elementos del modelado, en el detalle en que dicho modelo haya sido construido [38]. Los diagramas que se manejan en UML son: Diagrama de Clases Corresponde a la vista estática del funcionamiento de un Sistema, en la que los objetos son observables gracias a sus atributos (características puntuales) y su comportamiento (operaciones que se realizan o sufren). Una clase es definida por un conjunto de objetos con iguales atributos y comportamiento (operaciones). Observando los objetos, es posible determinar su clase (es clave la observación de objetos antes que intentar observar las posibles clases) En los diagramas de clases, las conexiones semánticas entre las clases están dadas por las relaciones que pueden ser: asociación, generalización, composición, agregación, o abstracción [38]. Diagrama de Casos de Uso Los casos de uso sirven para representar la funcionalidad de un sistema, al mismo tiempo en que muestran los requerimientos funcionales que éste debe cumplir. Este tipo de diagrama no muestra dinamismo del sistema en estudio, solo la forma en que se llevan a cabo las operaciones. Muestra la relación de interacción de las funciones que implementará el sistema con lo actores, quienes son los elementos que se utilizan para indicar las personas o empresas de índole interno o externo que interactúan con el sistema. Además de las relaciones de los casos de uso con los actores del sistema, también es posible representar relaciones entre casos de usos, las cuales pueden ser: generalización, inclusión y extensión [38] Diagrama de Secuencia Es el tipo de diagrama en el que se puede observar la participación de objetos para la consecución de una tarea especifica (sus roles) sobre una escala de tiempo con una secuencia lógica. Permite indicar la comunicación entre los objetos a través de mensajes y operaciones enviados entre las instancias de los mismos, haciendo que la observación de llamadas y operaciones concurrentes sea un poco mas clara y precisa. [39] La Metodología de UML Hasta este punto solo se han mencionado aspectos relacionados al modelamiento propuesto por UML, sin embargo, resulta necesario denotar la metodología usada para conseguir dichos modelos. El Proceso Unificado Rational (RUP por sus siglas en inglés) es una guía de cómo usar UML, que define las actividades llevadas a cabo en cada una de las fases del proyecto [38]. Rational Unified Process (RUP). Booch, Martin y Newkirk (1998) definen RUP como un proceso de desarrollo de software basado en la asignación de tareas y responsabilidades a cada uno de los miembros del equipo de desarrollo de una empresa, centrado en la producción y mantenimiento de modelos del sistema para asegurar la producción de software de calidad dentro de plazos y presupuestos predecibles, más que en la producción de documentos. Permite la implementación de las mejores prácticas actuales en ingeniería de Software: desarrollo iterativo de Software, administración de requerimientos, uso de arquitecturas basadas en componentes, modelamiento visual del Software, verificación de la calidad del Software y control de cambios. Fases de RUP. El proceso de desarrollo, según la metodología RUP, se divide en ciclos, al final de cada uno de los cuales se consigue un producto determinado. Durante cada ciclo se llevan a cabo cuatro (4) fases: inicio, elaboración, construcción y transición, y cada una de ella finaliza con un hito para llevar a cabo la toma de decisiones con respecto al trabajo realizado. Las primeras fases están referidas al análisis y determinación de los requerimientos del sistema. Por otra parte, las fases finales se avocan en el desarrollo, prueba e implementación del trabajo final [40]. Fases Inicio Elaboración Construcción Transición Modelación de Negocios Requerimientos Análisis y Diseño Implementación Prueba Desarrollo Admin. Configuración Administración Ambiente Iteraciones Preliminares Iter. #1 Iter. #2 Iter. #n Iter. Iter. #n+1 #n+2 Iter. #m Iter. #m+1 Iteraciones Figura 9. Estructura de RUP. Tomado de “Object Oriented Analysis and Design with Applications” por G. Booch, R. Martin y J. Newkirk, 1998. • Inicio: Define el alcance del proyecto. En esta fase se identifica las partes que interactúan con el producto a realizar interna y externamente; se identifican los requerimientos generales, criterios de éxito y los riesgos en el proyecto; se estiman los recursos a usar y se elabora un plan que contemple las demás fases y actividades del desarrollo. • Elaboración: se establece los aspectos que definen la arquitectura del sistema, se desarrolla un plan de proyecto y se suprimen o mitigan los elementos de riesgo que a largo, mediano o corto plazo pueden afectar el éxito del proyecto. • Construcción: se desarrollan los componentes y se incorporan al producto, se realizan pruebas piloto cuya intensidad dependerá de las características del producto desarrollado, se elaboran los manuales de usuario y de sistema. . • Transición: se realizan pruebas de validación y verificación del producto y se evalúa la concordancia en los logros del producto por parte de las personas involucradas [40]. Herramientas de Programación A continuación será presentada la descripción de las distintas herramientas de programación bajo las cuales será desarrollado el asistente que propone la presente investigación. La selección de estas herramientas, está dada a partir de las características bajo las cuales se plantea el proyecto: ambiente web, uso de bases de conocimiento y técnicas de inferencia simple. Lenguajes de Programación JAVA. Es una tecnología orientada al desarrollo de software con el cual se pueda realizar cualquier tipo de programa. Hoy en día, la tecnología Java ha cobrado mucha importancia en el ámbito de Internet gracias a su plataforma J2EE. La tecnología Java está compuesta básicamente por 2 elementos: el lenguaje Java y su plataforma, siendo esta ultima la máquina virtual de Java (Java Virtual Machine). Una de las principales características que favoreció el crecimiento y difusión de este lenguaje, es su capacidad para que el código funcione sobre cualquier plataforma de software y hardware, lo que quiere decir que un mismo programa escrito en Java puede ser ejecutado en Linux o Windows (o cualquier otro Sistema Operativo) sin ningún problema. [42] PHP. Es el acrónimo de Hypertext Preprocessor. Es una tecnología orientada a crear páginas Web. Con PHP se pueden crear aplicaciones Web que se ejecuten en variados servidores Web, de múltiples plataformas, ya que es en esencia un lenguaje multiplataforma. Las páginas PHP aportan dinamismo a las paginas HTML, ya que permiten insertar código embebido en éstas. Este tipo de páginas, puede ser desarrolladas en cualquier tipo de editor, y serán ejecutadas en el servidor, mostrando la salida obtenida en el Terminal del usuario. [43] Herramientas de Desarrollo Web HTML. Es el acrónimo de HyperText Markup Language (Lenguaje de Marcado de Hipertexto). Es el lenguaje que le indica a un navegador determinado como debe mostrar el contenido de una página Web. Consta de dos partes: el contenido, que es el texto que se verá en la pantalla de un ordenador, y las etiquetas y atributos que estructuran el texto de la página Web en encabezados, párrafos, listas, enlaces, entre otros. Dichas etiquetas, son un conjunto de caracteres que rodean partes del documento, están formadas por el símbolo “<”, una directiva (en minúsculas), cero o más parámetros y el símbolo”>”. Para delimitar dónde aparece cada parte del documento se utilizan etiquetas por parejas, por ejemplo <title>El título de la página web va aquí. </title>. La estructura básica de un documento HTML es la siguiente: comienza con la etiqueta <html>, que termina con su respectivo par </html>, quienes enmarcan el cuerpo de todo el documento. Luego, se encuentra el encabezamiento de la página delimitado por <head> y </head>, en el que se definen valores que van a ser válidos en todo el documento y finalmente el <body> y </body> que contiene la información en si del documento y de las operaciones que en él se realizan [41] APPLET. Es un programa escrito en Java que puede ser incluido en una página HTML, de la misma forma como es incluida una imagen en una página. Cuando se utiliza un navegador para ver una página que tiene incluido un applet, su código es transferido al sistema y ejecutado por en navegador de la Máquina Virtual de Java (JVM) [44] Herramientas de Base de Datos MySQL. Es un manejador de código abierto de base de datos relacionales. Está basado en SQL, el cual es usado para agregar, remover, y modificar información en una base de datos. Puede ser usado para una gran variedad de aplicaciones, sin embargo, es comúnmente encontrado en servidores Web. Un sitio determinado que usa MySql puede incluir páginas Web que acceden a la información de una base de datos, siendo éstas denominadas páginas dinámicas [45]. Lenguaje de Inferencia Prolog. Es la abreviatura para Programming Logic (Logica de Programación). Es un lenguaje de programación de alto nivel basado en fórmulas lógicas, es decir, no en la forma común de secuencia de comandos. Se compone de hechos (datos) y un conjunto de reglas, es decir, relaciones entre los objetos de la base de datos. El proceso básico de operación parte al realizar una pregunta en forma interactiva a partir de la cual el intérprete genera por inferencia los resultados que se deducen a partir del contenido de la base de datos. Dichos resultados son obtenidos a raíz de una búsqueda en profundidad de un árbol, que contiene todas las posibles soluciones. [46] En prolog es posible realizar operaciones de dos modos: • Modo consulta, se introducen nuevas relaciones (hechos) en el almacenamiento dinámico de la base de datos. • Modos pregunta, se ejecuta un intérprete basado en pilas para evaluar las preguntas del usuario. Finalmente es importante destacar, que este lenguaje de inferencia es ampliamente utilizado para el desarrollo de aplicaciones de inteligencia artificial, particularmente en sistemas expertos. [47] Glosario de Términos Angina: Es el síntoma primario de la enfermedad coronaria y en casos graves, de un infarto de miocardio: Normalmente se experimenta un dolor en el pecho Aparato de Rayos X: Un aparato que utiliza radiaciones para obtener imágenes del interior del cuerpo. Arritmia: Llámese en general, arritmia cardiaca a cualquier trastorno del ritmo que no sea de origen sinusal, o que aún siéndolo, se manifiesta con amplias oscilaciones en el intervalo R-R Arteriosclerosis: llamada comúnmente "endurecimiento de las arterias"; son diversas condiciones producidas por el depósito de grasa o de calcio en las paredes de las arterias que causa su engrosamiento. Arteria: Vaso sanguíneo que lleva la sangre oxigenada desde el corazón al resto del cuerpo. Ateroma: Acumulación local de fibras y lípidos, principalmente colesterol, en la pared interna de una arteria, con estrechamiento de su luz y con posible infarto del órgano correspondiente. Capilares: Vasos sanguíneos diminutos localizados entre las arterias y las venas que distribuyen la sangre rica en oxígeno por el cuerpo. Cardíaco: Relativo al corazón. Cardiovascular: Relativo al sistema formado por el corazón y los vasos sanguíneos (sistema circulatorio). Código: Conjunto de sentencias elaboradas bajo un lenguaje de programación. Edema pulmonar: Una condición en la que existe una acumulación de líquido en los pulmones causada por un mal funcionamiento del corazón. Electrocardiograma: Un examen que registra la actividad eléctrica del corazón, muestra los ritmos anormales (arritmias o disritmias) y detecta lesiones del músculo cardiaco. Factor de riesgo: Una condición, elemento o actividad que pueda afectar de forma adversa al corazón. Fiebre Reumática: Una enfermedad infantil que podría dañar las válvulas cardiacas o el revestimiento exterior del corazón. Fracción de eyección: La medición de la sangre que bombean los ventrículos. Gasto cardiaco: La cantidad de sangre que recorre el sistema circulatorio en un minuto. Heurística: Es la capacidad de un sistema para realizar de forma inmediata innovaciones positivas para sus fines. La capacidad heurística es un rasgo característico de los humanos, que puede describirse como el arte y la ciencia del descubrimiento y de la invención o de resolver problemas mediante la creatividad y el pensamiento. Hipertensión: Presión alta de la sangre. Indicadores: Medida utilizada para señalar la descripción de un aspecto especifico del diagnóstico y tratamiento a cada caso. Insuficiencia cardiaca: Una condición en la que el corazón no es capaz de bombear toda la sangre que recibe, con lo que se acumula sangre en los vasos y líquido en los tejidos del cuerpo. Isquemia: Disminución del flujo de sangre oxigenada a un órgano debido a la obstrucción de una arteria. Interfaz de usuario: Módulo de aplicación dirigido al usuario Javascript: Es el lenguaje que nos permite interactuar con el navegador de manera dinámica y eficaz, proporcionando a las páginas Web dinamismo y vida. Nodos: Espacio real o subestracto en el que confluyen parte de las conexiones de otros espacios reales o abstractos que comparten sus mismas características y que a su vez también son nodos. Todos estos nodos se interrelacionan entre sí de una manera no jerárquica y conforman lo que en términos sociológicos o matemáticos se llama red Presión de la sangre: La fuerza o presión que ejerce el corazón cuando bombea la sangre; también, la presión de la sangre en las arterias. Red: Es la disposición física de los nodos en un espacio. Reglas: Conjunto de normas por las cuales se rige un proceso. Simpático: Se dice de una de las dos partes del sistema neurovegetativo, cuyos centros radican en las regiones torácica y lumbar de la médula espinal y cuya acción es antagonista del sistema parasimpático Parasimpático: Se dice de una de las dos partes del sistema neurovegetativo, cuyos centros radican en los extremos del eje cerebroespinal y cuya acción es antagonista del sistema simpático. Procedimiento invasivo: Un esfuerzo o tratamiento diagnóstico en el que es necesario penetrar en el cuerpo ni perforar la piel. Procedimiento no invasivo: Un esfuerzo o tratamiento diagnóstico en el que no es necesario entrar en el cuerpo ni perforar la piel. Puente o by-pass aortocoronario: Un procedimiento quirúrgico que consiste en trasplantar un vaso sanguíneo sano de otra parte del cuerpo al corazón para sustituir o "derivar" a un vaso enfermo. Reflujo: Retroceso de la sangre debido a una válvula cardiaca defectuosa. Sistema de Soporte de Decisión: Sistema interactivo basado en computadora el cual ayuda a los tomadores de decisiones a utilizar datos modelos para resolver problemas. Soplo: Un sonido áspero o soplido que se oye al escuchar el corazón, y que puede o no indicar problemas en el corazón o en el sistema circulatorio. Stent: Un dispositivo que se implanta en un vaso sanguíneo para mantenerlo abierto. Válvulas: (Las válvulas del corazón son la tricúspide, la pulmonar, la mitral y la aórtica). Son las "puertas" entre las cavidades del corazón. Vena: Un vaso sanguíneo que lleva la sangre desde el cuerpo devuelta al corazón. Vértigo: Trastorno del sentido del equilibrio caracterizado por una sensación de movimiento rotatorio del cuerpo o de los objetos que lo rodean.