CAPITULO II. MARCO TEÓRICO Antecedentes

Anuncio
CAPITULO II. MARCO TEÓRICO
Antecedentes
Los sistemas expertos proceden inicialmente de la inteligencia artificial, y se
comportan como un experto humano en un campo particular. Desde hace algún tiempo, se
han desarrollado sistemas expertos computarizados para diagnosticar problemas, predecir
acontecimientos futuros, diseñar nuevos productos y sistemas y aumentar la calidad de la
atención a la salud. Los primeros indicios de los sistemas expertos a nivel mundial,
comenzaron en la década de los 60 con el desarrollo de aplicaciones que se dedicaban a
explorar diversas representaciones de problemas, técnicas de búsqueda y heurísticas
generales para resolver situaciones sencillas como es el caso de uno de los programas más
influyentes denominado “Solucionador General de Problemas” (GPS) [Newell, Shaw y
Simon, 1959, y Newel y Simon, 1963]. Los intentos de escalar estos programas y sus
técnicas, empleándolos en aplicaciones de importancia práctica, revelaron que solo valían
para resolver “problemas de juguete”. La construcción de sistemas más potentes requería la
inclusión de mucho más conocimiento sobre el dominio de aplicación. Los últimos años de
la década de los 70 y los primeros de la década de los 80 vieron el desarrollo de programas
más realistas, que contenían el conocimiento necesario para mimetizar el comportamiento
de los expertos humanos en tareas tales como: el diagnóstico, el diseño y el análisis. Fueron
explorados y desarrollados varios métodos para la representación de conocimiento
especifico del problema. El programa a que se atribuye el mérito de ser el primero que
demostró la importancia de recoger grandes cantidades de conocimiento específico del
dominio fue DENDRAL, un sistema para predecir la estructura de moléculas orgánicas a
partir de su fórmula química y de su espectrograma de masas [Feigenbaum; Buchanan,
Lederberg, 1971, y Lindsay et al., 1980] [8].
Es así como a principios de la década de los 70, en la Universidad de Stanford,
Feigenbaum y Shortliffe desarrollaron MYCIN, sistema experto en el campo de la
medicina diseñado para diagnosticar enfermedades infecciosas en la sangre y recomendar
los antibióticos adecuados para cada infección, ajustando la dosis según el peso del
paciente. Este sistema operaba usando bases de conocimiento y técnicas de inferencia
simple, constituyendo aproximadamente 500 reglas; reforzando su precisión al realizar
preguntas de carácter dicotómico. Los resultados obtenidos a partir de este sistema tenían
una tasa de diagnósticos correctos del 65% frente a médicos no especialistas en esta área y
del 80% con respecto a médicos que fueron considerados expertos en el ramo [9].
De la misma manera INTERNIST es un programa de computadora experimental,
desarrollado en 1982 por Miller, Pople y Myers en la Universidad de Pittsburg, capaz de
hacer múltiples y completos diagnósticos en el área de medina interna u hospitalaria. Éste
difiere de la mayoría de los sistemas de diagnóstico automático por el tamaño y la
diversidad de su base de conocimiento. El trabajo de este sistema comienza cuando se le
transmite a la computadora el historial médico del enfermo, los síntomas y los resultados de
pruebas y análisis; con esta información el sistema experto relaciona los datos de forma
muy elaborada y comienza por desechar posibles diagnósticos hasta que llega a los que
parecen muy probables; finalmente elige uno y lo da a conocer con todo el detalle del
proceso. Luego justifica su elección y el por qué de la posible enfermedad: cuadro clínico,
tratamiento, posibilidades de error, entre otras. Sus capacidades fueron evaluadas a través
de una serie de 19 ejercicios clínico patológicos (Obtenidos de las historias clínicas del
hospital general de Massachusetts), en las que se determinaron ciertos aspectos mejorables,
los cuales una vez corregidos le permitieron convertirse en la base de los sistemas expertos
comerciales que actualmente existen en el área de la medicina, como es el caso de QMR
(Quick Medical Reference, Referencia médica rápida) [10].
En 1990, Fernández, Cristóbal y López, patrocinados por la Comunidad Europea,
AIM (Advanced Informatics in Medicine: Avances Informáticos en Medicina) y ECAI
(European Center for Artificial Inteligente: Centro Europeo para Inteligencia Artificial) de
UNISYS España, desarrollaron el proyecto GAMES: A general Architecture for Medical
Expert Systems (Una arquitectura general para Sistemas Expertos Médicos), en el que se
diseñaron y desarrollaron sistemas de apoyo a la toma de decisiones en varios campos de la
Medicina (inicialmente, anemia y cáncer de mama), combinando modelos de simulación
cualitativa, razonamiento sobre casos, teoría de la utilidad y razonamiento no monotónico,
con técnicas de sistemas de conocimiento (médico y de control), interfaces de usuario,
interfaces de instrumentación e interfaces con bases de datos [11].
Posteriormente en 1993, en Brasil, la Fundación Bahiana de Cardiología (FBC) en
colaboración con la Coordinación de Recursos para Postgrado y Emprendedores y la
Universidad General de Río de Janeiro (COPPE/UFRJ), desarrollaron el sistema SEC
(Sistema Especialista en Cardiología), el cual tiene como objetivo apoyar a médicos no
especialistas en cardiología, o en formación de la especialidad (internos o residentes), en el
diagnóstico de eventos agudos de la cardiopatía isquémica. Fue diseñado para ser utilizado
en unidades de atención periférica urbana, de naturaleza primaria de la red pública de salud
brasileña, ayudando al auxiliar o médico no especialista en la orientación de pacientes que
requieran atención en una unidad especializada. El SEC, es un sistema experto basado en
reglas con tratamiento de incertidumbre. El sistema da apoyo en la formulación diagnóstica
del problema del paciente y en la determinación del tipo y forma de atención que le deberá
ser suministrada, en función de la gravedad de su cuadro clínico. Al final del proceso es
ofrecido al usuario o médico según sea el caso, un diagnóstico y una sugerencia de la
medida a ser tomada que se sitúa en cuatro fases: dar de alta al paciente en caso de
encontrarse en condiciones normales, dar de alta al paciente solicitando su retorno en un
tiempo de hasta seis horas para un nuevo examen, mantener al paciente en observación en
la unidad o enviarlo inmediatamente a una unidad especializada [12].
Simultáneamente dentro del ámbito nacional, en la Universidad de los Andes, Ana
Arriaga desarrolló SIEXIM (sistema experto para el diagnóstico y tratamiento del infarto
miocárdico y sus complicaciones hemodinámicas). El sistema parte con un diagnóstico
inicial (análisis de los signos electrocardiográficos, clínicos y de laboratorio), donde se
pueda llegar a una de las siguientes conclusiones: sospecha de infarto, infarto o bien no
existe evidencia de enfermedad. Una vez realizado este diagnóstico, los pacientes con
infarto confirmado o con sospecha de infarto deben ser hospitalizados en la unidad de
cuidados intensivos, entrando en un periodo de vigilancia de su estado de salud:
electrocardiogramas periódicos, ecocardiografía, radiografía de tórax, vigilancia clínica y
monitoreo hemodinámico. Es por medio de los resultados de estos exámenes, que el
sistema experto diagnóstica a tiempo cualquier complicación hemodinámica que se pueda
presentar y sugiere administrarle al paciente el tratamiento adecuado [13].
En el ámbito local se destacan en el 2002, en la Universidad Nacional Experimental
del Táchira, Castillo y Uzcátegui, quienes desarrollaron un estudio que partiendo de la
cardiopatía isquémica como un problema de salud actual y en particular el infarto agudo al
miocardio, concretaron una aplicación que analiza el segmento ST en señales
electrocardiográficas, aprovechando las posibilidades que ofrecen los sistemas expertos. El
sistema permitía capturar directamente la señal electrocardiográfica usando la base de datos
de arritmias del Instituto Tecnológico de Massachussets y el Hospital Beth-Israel (MITBIH), proponiendo el diagnóstico que consideraba pertinente ante alguna variación del
segmento ST, de acuerdo a la base de conocimiento obtenida a partir de entrevistas al
especialista y consultas a la bibliografía especializada. Las pruebas realizadas por el médico
arrojaron respuestas bastante confiables en la detección de los puntos significativos de la
señal ECG, que permiten la correcta ubicación del segmento ST, así como el cálculo de su
pendiente y desnivel con respecto a la línea isoeléctrica [14].
Finalmente, en el 2005, Mora y Oliveros en la misma casa de estudios elaboraron
PROFEMUR (Sistema de Apoyo al Proceso de Planificación Preoperatoria en el Manejo
de Fracturas de Fémur), el cual permitía almacenar registros de casos médicos, reducir el
tiempo de planificación preoperatoria y generar información estadística para fortalecer la
toma de decisiones por parte del cirujano. El mismo podía ser visitado vía Web para
permitir disponibilidad al médico planificador desde cualquier computador con acceso a
Internet. La base de datos contaba inicialmente con registros de casos médicos, recopilados
a través de una investigación aplicativa y de campo, en instituciones hospitalarias del país
[15].
Los trabajos expuestos anteriormente sustentan la importancia de la incursión de la
informática para dar solución a problemas reales, más específicamente en el sector de la
salud, gracias a que mejora la forma de razonamiento y simula el comportamiento de un
experto humano. Específicamente el uso de sistemas expertos de diagnóstico y tratamiento
en las diferentes áreas de la medicina, hacen notar que su propósito está dirigido a la
orientación de los pacientes de acuerdo al resultado obtenido en el estudio físico realizado y
así determinar que tipo y forma de atención será suministrada, obteniendo como beneficio
un diagnóstico a tiempo y además la posibilidad de contrastar el caso con una cantidad de
información ya existente en una base de datos, disminuyendo así la tasa de error en el
diagnóstico. Cabe destacar que estos sistemas actúan como soporte a la toma de decisiones
médica, dejando de parte del especialista la responsabilidad de ajustar dicha sugerencia a
las variables externas que puede tener cada paciente.
Los modelos de simulación cualitativa, el razonamiento basado en casos, la teoría de
la utilidad y el razonamiento no monotónico, fueron algunas de las técnicas, teorías y
métodos, usados para el desarrollo de estos trabajos, lo que las convierte en la base para
discernir cuales técnicas y metodologías se ajustan al caso de estudio, así como también son
referencia en cuanto al análisis de los estudios realizador a diversas partes del cuerpo
humano. De igual forma las pruebas correspondientes a esta investigación serán realizadas
de forma similar a las efectuadas en las investigaciones expuestas, para tomar como marco
de referencia: la identificación de la muestra y el cálculo de las tasas de acierto y de error.
Bases Teóricas
El Corazón, su estructura y funciones.
El Corazón, en anatomía, es un órgano muscular hueco que recibe sangre de las
venas y la impulsa hacia las arterias. El corazón humano tiene el tamaño aproximado de un
puño. Se localiza por detrás de la parte inferior del esternón, y se extiende hacia la
izquierda de la línea media del cuerpo. Es de forma más o menos cónica, con la base
dirigida hacia arriba, hacia el lado derecho y algo hacia atrás; la punta está en contacto con
la pared del tórax en el quinto espacio intercostal. Se mantiene en esta posición gracias a su
unión a las grandes venas y arterias, y a estar incluido en el pericardio, que es un saco de
pared doble con una capa que envuelve al corazón y otra que se une al esternón, al
diafragma y a las membranas del tórax.
En el interior del corazón del adulto hay dos sistemas paralelos independientes, cada
uno formado por una aurícula y un ventrículo. Respecto a su posición anatómica, estos
sistemas reciben el nombre de corazón derecho y corazón izquierdo.
El corazón es una bomba doble en la que la sangre circula por dos sistemas cerrados
y separados. La sangre cargada de oxígeno abandona el ventrículo izquierdo a través de la
aorta. Circula por el cuerpo y retorna, desoxigenada, hasta la aurícula derecha por las venas
cavas superior e inferior. El ventrículo derecho bombea la sangre por la arteria pulmonar
hasta los pulmones, donde intercambia dióxido de carbono por oxígeno. La sangre
oxigenada retorna después por las venas pulmonares a la aurícula izquierda, lista para la
circulación arterial. [16]
Estructura y Funciones
La sangre del organismo, sangre venosa, retorna a la aurícula derecha a través de
dos grandes venas, la vena cava inferior y la cava superior. Además, la sangre que irriga el
músculo cardiaco drena directamente en la aurícula derecha a través de los senos
coronarios. El regreso de la sangre venosa a la aurícula derecha tiene lugar durante todo el
ciclo cardiaco de contracción (sístole) y relajación (diástole), mientras que el paso desde la
aurícula derecha al ventrículo derecho ocurre sólo durante el periodo de relajación o
diástole, cuando las dos cavidades derechas forman una cámara común. Al final de la
diástole la contracción de la aurícula derecha completa el llenado del ventrículo derecho
con sangre. Las contracciones rítmicas del ventrículo derecho impulsan la sangre a través
de las arterias pulmonares hacia los capilares pulmonares, donde la sangre se oxigena
(Respiración). Posteriormente los capilares pulmonares se vacían en las venas pulmonares,
que a su vez desembocan en la aurícula izquierda. El retorno de sangre por las venas
pulmonares a la aurícula izquierda y su paso hacia el ventrículo izquierdo se produce de
forma simultánea, de la misma manera que el retorno venoso a las cavidades derechas. La
contracción del ventrículo izquierdo impulsa de forma rítmica la sangre hacia la aorta y
desde ésta a todas las arterias del organismo, incluyendo las arterias coronarias que irrigan
el músculo cardiaco (miocardio).
Para evitar que la sangre impulsada desde los ventrículos durante la sístole, o
contracción, refluya durante la diástole, hay válvulas localizadas junto a los orificios de
apertura de la arteria aorta y de la arteria pulmonar. Estas válvulas, llamadas sigmoideas o
semilunares, están formadas por tres repliegues membranosos semilunares incurvados en la
dirección del flujo de sangre, que se abren con rapidez bajo presión en dicha dirección.
Cuando la presión original cesa, la presión que retrocede favorece la unión de los bordes de
los repliegues. Otras válvulas que impiden el reflujo de la sangre son la válvula tricúspide,
interpuesta entre la aurícula derecha y el ventrículo derecho, compuesta por tres repliegues
membranosos triangulares, y la válvula bicúspide o mitral, entre la aurícula y el ventrículo
izquierdos, formada por dos repliegues. Las bases de los repliegues en las dos válvulas se
unen a un surco que existe en la unión de la aurícula y el ventrículo, su borde libre está
anclado por cuerdas tendinosas, denominadas chordae tendinae, a la pared muscular del
corazón. Los repliegues permanecen abiertos hasta que los ventrículos se llenan de sangre.
Cuando comienza la contracción del ventrículo la válvula se cierra por presión. Las chordae
tendinae previenen la inversión de los repliegues durante este periodo de presión sistólica.
[17]
La frecuencia de los latidos del corazón está controlada por el sistema nervioso
vegetativo, de modo que el sistema simpático la acelera y el parasimpático la retarda. Los
impulsos nerviosos se originan de forma rítmica en un nodo o nudosidad nerviosa especial,
conocido como seno o nodo sinoauricular, localizado en la aurícula derecha junto a la
desembocadura de la vena cava superior. Existen distintas vías internodales que conectan el
nodo sinoauricular con el nódulo auriculoventricular, donde tiene lugar un retardo en la
conducción del impulso nervioso para facilitar el vaciado de las aurículas antes de que
tenga lugar la activación ventricular. El impulso eléctrico continúa a través del haz de His
que enseguida se divide en dos ramas, que a su vez se subdividen en las llamadas fibras de
Purkinge, en el espesor de las paredes ventriculares.
Aunque la excitación nerviosa, algunos fármacos (Estimulantes) y ciertas sustancias
químicas de tipo hormonal que segrega el corazón influyen sobre la frecuencia cardiaca, el
músculo cardiaco es por sí mismo contráctil y continúa latiendo con una frecuencia regular
y constante, incluso cuando se interrumpen todas las conexiones con el sistema nervioso.
En el embrión el corazón deriva de la fusión de las dos aortas ventrales, que forman
un órgano pulsátil único. Más tarde se formará un tabique interauricular y un tabique
interventricular (partición) que lo dividirá en corazón izquierdo y derecho. Sin embargo, la
separación no se completa hasta que los pulmones comienzan a funcionar tras el parto.
Antes del nacimiento la sangre se oxigena en la placenta y regresa a la aurícula derecha a
través de la vena cava inferior. Más tarde, la válvula de Eustaquio la dirige a través del
agujero oval, que es un orificio persistente en el tabique interauricular. Después del
nacimiento, la válvula de Eustaquio involuciona convirtiéndose en un vestigio y, por lo
general, el agujero oval se cierra aunque puede persistir en el adulto con tamaño variable en
una quinta parte de la población.
El corazón produce dos sonidos en cada ciclo del latido. El primer tono es sordo, y
está causado por la vibración de las válvulas auriculoventriculares y por la contracción de
las fibras musculares ventriculares. El segundo tono es más agudo y se debe al cierre
repentino de las válvulas aórticas y pulmonares. En las enfermedades cardiacas estos ruidos
regulares pueden ser reemplazados o estar acompañados por soplos, originados por el paso
violento de la sangre a través de orificios o válvulas anómalas. La identificación de dichos
soplos tiene gran importancia para el diagnóstico. [18]
Figura 1. Diagrama del Corazón. Tomado de “Integrative Biology” por Alan Garfinkel UCLA, 2005. [19]
Función Cardiaca
La actividad del corazón consiste en la alternancia sucesiva de contracción (sístole)
y relajación (diástole) de las paredes musculares de las aurículas y los ventrículos. Durante
el periodo de relajación, la sangre fluye desde las venas hacia las dos aurículas, y las dilata
de forma gradual. Al final de este periodo la dilatación de las aurículas es completa. Sus
paredes musculares se contraen e impulsan todo su contenido a través de los orificios
auriculoventriculares hacia los ventrículos. Este proceso es rápido y se produce casi de
forma simultánea en ambas aurículas. La masa de sangre en las venas hace imposible el
reflujo. La fuerza del flujo de la sangre en los ventrículos no es lo bastante poderosa para
abrir las válvulas semilunares, pero distiende los ventrículos, que se encuentran aún en un
estado de relajación. Las válvulas mitral y tricúspide se abren con la corriente de sangre y
se cierran a continuación, al inicio de la contracción ventricular.
La sístole ventricular sigue de inmediato a la sístole auricular. La contracción
ventricular es más lenta, pero más enérgica. Las cavidades ventriculares se vacían casi por
completo con cada sístole. La punta cardiaca se desplaza hacia delante y hacia arriba con un
ligero movimiento de rotación. Este impulso, denominado el latido de la punta, se puede
escuchar al palpar en el espacio entre la quinta y la sexta costilla. Después de que se
produzca la sístole ventricular el corazón queda en completo reposo durante un breve
espacio de tiempo. El ciclo completo se puede dividir en tres periodos: en el primero las
aurículas se contraen; durante el segundo se produce la contracción de los ventrículos; en el
tercero las aurículas y ventrículos permanecen en reposo. En los seres humanos la
frecuencia cardiaca normal es de 72 latidos por minuto, y el ciclo cardiaco tiene una
duración aproximada de 0,8 segundos. La sístole auricular dura alrededor de 0,1 segundos,
y la ventricular 0,3 segundos. Por lo tanto, el corazón se encuentra relajado durante un
espacio de 0,4 segundos, aproximadamente la mitad de cada ciclo cardiaco.
En cada latido el corazón emite dos sonidos, que se continúan después de una breve
pausa. El primer tono, que coincide con el cierre de las válvulas tricúspide y mitral y el
inicio de la sístole ventricular, es sordo y prolongado. El segundo tono, que se debe al
cierre brusco de las válvulas semilunares, es más corto y agudo. Las enfermedades que
afectan a las válvulas cardiacas pueden modificar estos ruidos, y muchos factores, entre
ellos el ejercicio, provocan grandes variaciones en el latido cardiaco, incluso en la gente
sana. La frecuencia cardiaca normal de los animales varía mucho de una especie a otra. En
un extremo se encuentra el corazón de los mamíferos que hibernan que puede latir sólo
algunas veces por minuto; mientras que en el otro, la frecuencia cardiaca del colibrí es de
2.000 latidos por minuto. [20]
Origen de los Latidos Cardiacos
La frecuencia e intensidad de los latidos cardiacos están sujetos a un control
nervioso a través de una serie de reflejos que los aceleran o disminuyen. Sin embargo, el
impulso de la contracción no depende de estímulos nerviosos externos, sino que se origina
en el propio músculo cardiaco. El responsable de iniciar el latido cardiaco es una pequeña
fracción de tejido especializado inmerso en la pared de la aurícula derecha, el nodo o
nódulo sinusal. Después, la contracción se propaga a la parte inferior de la aurícula derecha
por los llamados fascículos internodales: es el nodo llamado auriculoventricular. Los haces
auriculoventriculares, agrupados en el llamado fascículo o haz de His, conducen el impulso
desde este nodo a los músculos de los ventrículos, y de esta forma se coordina la
contracción y relajación del corazón. Cada fase del ciclo cardiaco está asociada con la
producción de un potencial eléctrico detectable con instrumentos eléctricos configurando
un registro denominado electrocardiograma. [16]
Enfermedades del Corazón
Los trastornos del corazón son responsables de mayor número de muertes que
cualquier otra enfermedad en los países desarrollados. Pueden surgir como consecuencia de
defectos congénitos, infecciones, estrechamiento de las arterias coronarias, tensión arterial
alta o trastornos del ritmo cardiaco.
Las cardiopatías congénitas incluyen la persistencia de comunicaciones que existían
en el transcurso de la vida fetal entre la circulación venosa y arterial, como el ductus
arteriosus, que es un vaso que comunica la arteria pulmonar con la aorta, únicamente hasta
que se produce el nacimiento. Otras anomalías importantes del desarrollo afectan a la
división del corazón en cuatro cavidades y a los grandes vasos que llegan o parten de ellas.
En los “bebés azules” la arteria pulmonar es más estrecha y los ventrículos se comunican a
través de un orificio anormal. En esta situación, conocida como cianosis, la piel adquiere
una coloración azulada debido a que la sangre recibe una cantidad de oxígeno insuficiente.
En la antigüedad la expectativa de vida para dichos lactantes era muy limitada, pero con el
perfeccionamiento del diagnóstico precoz y el avance de las técnicas de hipotermia, es
posible intervenir en las primeras semanas de vida, y mejorar la esperanza de vida de estos
lactantes.
Anteriormente, las cardiopatías reumáticas constituían una de las formas más graves
de enfermedad cardiaca durante la infancia y la adolescencia, por afectar al corazón y a sus
válvulas. Esta enfermedad aparece después de los ataques de fiebre reumática. El uso
generalizado de antibióticos eficaces contra los estreptococos ha reducido mucho su
incidencia, pero todavía en los países en vías de desarrollo sigue siendo la primera o una de
las primeras causas de cardiopatía.
La miocarditis es la inflamación o degeneración del músculo cardiaco. Aunque
suele ser consecuencia de diversas enfermedades como sífilis, bocio tóxico, endocarditis o
hipertensión, puede aparecer en el adulto como enfermedad primaria, o en el anciano como
enfermedad degenerativa. Puede asociarse con dilatación (aumento debido a la debilidad
del músculo cardiaco) o con hipertrofia (crecimiento excesivo del músculo cardiaco). [21]
La principal forma de enfermedad cardiaca en los países occidentales es la
aterosclerosis. En este trastorno, los depósitos de material lipídico denominados placas,
formados por colesterol y grasas, se depositan sobre la pared interna de las arterias
coronarias. El estrechamiento gradual de las arterias a lo largo de la vida restringe el flujo
de sangre al músculo cardiaco. Los síntomas de esta restricción pueden consistir en
dificultad para respirar, en especial durante el ejercicio, y dolor opresivo en el pecho que
recibe el nombre de angina de pecho (angor pectoris). La placa de ateroma puede llegar a
ser lo bastante grande como para obstruir por completo la arteria coronaria, y provocar un
descenso brusco del aporte de oxígeno al corazón. La obstrucción, denominada también
oclusión, se puede originar cuando la placa se rompe y tapona el conducto en un punto
donde el calibre de la arteria es menor o cuando se produce un coágulo sobre la placa,
proceso que recibe el nombre de trombosis. Éstas son las principales causas de los ataques
cardiacos, o infartos de miocardio, que frecuentemente tienen consecuencias mortales. Las
personas que sobreviven a un infarto deben realizar una rehabilitación integral.
El desarrollo de placas de ateroma se debe en gran medida a la ingestión excesiva de
colesterol y grasas animales en la dieta. Se cree que un estilo de vida sedentario favorece la
aterosclerosis, y la evidencia sugiere que el ejercicio físico puede ayudar a prevenir que el
corazón resulte afectado. El temperamento perfeccionista, luchador, que se refiere como
personalidad tipo A se ha asociado también con un riesgo mayor de infarto de miocardio,
(Alteraciones producidas por el estrés), al igual que el consumo de tabaco. La aparición de
un infarto de miocardio es más probable en quienes tienen hipertensión. En el proceso que
precipita el ataque pueden estar implicados productos que secretan las plaquetas en la
sangre. Se han realizado estudios clínicos para comprobar si las personas que han padecido
un infarto estarán protegidas frente al riesgo de un segundo ataque una vez que se emplean
fármacos que bloquean la acción de las plaquetas. Los factores de riesgo a los que se ha
hecho referencia se pueden clasificar en primarios (hipertensión arterial,
hipercolesterolemia y tabaco), secundarios (sedentarismo y estrés) y terciarios
(antecedentes familiares y otros). [22]
Muchas personas que padecen una angina grave debido a enfermedad
aterosclerótica pueden recibir tratamiento mediante fármacos, como los betabloqueantes
(por ejemplo, propanolol) y nitratos, que reducen la carga del corazón. Los pacientes que
no mejoran con medidas farmacológicas suelen recibir tratamiento a través de una técnica
quirúrgica denominada bypass coronario. En este procedimiento, que fue implantado en la
década de 1970, se sutura un trozo de una vena de la pierna (safena) a la arteria coronaria
ocluida para formar un puente que evite la zona aterosclerótica. En la mayoría de los
pacientes la intervención alivia el dolor de la angina y en muchos de ellos evita un infarto
mortal. [21]
Un segundo procedimiento quirúrgico que se desarrolló durante la década de 1970
para tratar la aterosclerosis coronaria fue la cateterización y dilatación con balón, o
angioplastia coronaria transluminal percutánea. En esta intervención se introduce en la
arteria coronaria un conducto hueco (catéter) con un balón en su extremo. Cuando el balón
alcanza la zona aterosclerótica se insufla. La placa se comprime y se restablece el flujo
normal. Se calcula que una de cada seis intervenciones de bypass puede ser sustituida por
este método menos agresivo. [22]
Ciertas personas que fallecen de infarto de miocardio no presentan aterosclerosis
clara. Las investigaciones han demostrado que una disminución del flujo de sangre al
corazón puede deberse a una vasoconstricción espontánea de una arteria coronaria en
apariencia sana (vasoespasmo), que puede contribuir a la aparición de algunos infartos de
miocardio en colaboración con la aterosclerosis.
La frecuencia cardiaca responde a las necesidades del organismo y está sujeta a un
amplio intervalo de variaciones que, por lo general, se encuentran dentro de los límites
normales. Las variaciones pequeñas en el ritmo cardiaco suelen tener un significado
patológico mínimo. La alteración del ritmo cardiaco normal recibe el nombre de arritmia.
Cuando además supone una elevación del ritmo se denomina taquiarritmia (fibrilación
ventricular, auricular y sacudidas), mientras que cuando lo retarda se denomina
bradiarritmia (bloqueos auriculoventriculares y de rama). La causa inmediata de muerte en
muchos infartos de miocardio, haya o no aterosclerosis, es la fibrilación ventricular, que
conduce a una parada cardiaca. Este tipo de taquiarritmia origina la contracción rápida e
ineficaz de los ventrículos. El ritmo cardiaco normal se puede restablecer con la aplicación
de una descarga eléctrica sobre el tórax.
Los defectos graves en el nodo sinoauricular o en las fibras que transmiten los
impulsos al músculo cardiaco pueden provocar vértigo, desmayos y en ocasiones la muerte.
El trastorno más grave es el bloqueo cardiaco completo. Éste se puede corregir por medio
de la colocación de un marcapasos artificial, un dispositivo que emite descargas eléctricas
rítmicas para provocar la contracción regular del músculo cardiaco. La mayor parte del
resto de las arritmias no son peligrosas excepto en quienes padecen una enfermedad
cardiaca subyacente. En estos pacientes, en especial en los que ya han sufrido un infarto, las
arritmias requieren un tratamiento a base de antiarrítmicos como propanolol, lidocaína y
disopiramida, entre otros.
Otra patología frecuente entre las personas de edad avanzada es la afección
cardiopulmonar, que suele ser el resultado de una alteración pulmonar como el enfisema, o
de una enfermedad que afecta a la circulación pulmonar, como la arteriosclerosis de la
arteria pulmonar. Otro trastorno presente en los ancianos es la insuficiencia cardiaca
congestiva, en la cual, la función de bombeo de los ventrículos está disminuida. Las
paredes musculares de los ventrículos se dilatan esforzándose por impulsar un volumen
mayor de sangre hacia la circulación, dando origen a una cardiomegalia (aumento de
tamaño) característico de este síndrome. Las personas con este trastorno suelen mejorar con
uno de los derivados de la digitalina (Digitalis), que aumenta la eficacia de la función de
bombeo del corazón. [21]
Síndromes Coronarios Agudos
El término síndrome coronario agudo (SCA) hace referencia a toda el conjunto de
cuadros clínicos relacionados con la isquemia miocárdica aguda. En los últimos 20 años, el
mejor conocimiento de la patogenia del SCA ha modificado significativamente tanto al
diagnostico como el tratamiento y el pronostico intrahospitalario de los diferentes SCA.
En la actualidad, se sabe que la mayoría de los SCA son debidos a una reducción en
el aporte de oxigeno miocárdico, como consecuencia de la erosión o rotura de una placa
ateroesclérotica, asociada a trombosis, vasoconstricción y microembolización distal,
provocando así la aparición de angina inestable (AI) o infarto agudo de miocardio (IAM).
Así pues, la AI y el IAM tienen un nexo fisiopatológico común, con unas manifestaciones
clínicas que pueden ser inicialmente difíciles de diferenciar hasta la realización de un ECG.
Es importante resaltar que el ECG permite subdividir a los pacientes en dos grandes
bloques según si elevan o no el segmento ST. [21]
Diagnóstico
El electrocardiógrafo, un instrumento que registra la corriente eléctrica producida
por el músculo cardiaco durante las distintas fases de la contracción, es una herramienta
importante de diagnóstico. La eficacia del corazón como bomba se puede determinar con
precisión mediante el cateterismo cardiaco. En esta técnica se introduce un catéter a través
de una vena o una arteria, o ambas, en las cavidades cardiacas derechas, izquierdas, o en
ambas, en la arteria pulmonar y en la aorta. Este proceso permite determinar la tasa de flujo
sanguíneo y registrar la presión sanguínea intracardiaca y en los grandes vasos, y hace
posible detectar comunicaciones anómalas entre las cavidades cardiacas derecha e
izquierda. Con la ayuda de otra técnica diagnóstica, llamada angiocardiografía o
cinefluoroscopia, es posible obtener imágenes de las cavidades cardiacas y del trayecto y
contorno de los vasos pulmonares y de la aorta y sus ramificaciones. Esta técnica implica la
inyección de una sustancia opaca a los rayos X en una vena. Hay otra técnica nueva que
permite obtener una delineación incluso más exacta de zonas del corazón con flujo
sanguíneo reducido, mediante la visualización del flujo de un isótopo radiactivo del talio en
el músculo cardiaco. Una cámara computerizada registra el grado de penetración del talio
durante el ciclo cardiaco de sístole-diástole, mostrando con precisión las pequeñas áreas de
tejido lesionado. Otra técnica que se utiliza mucho hoy es la obtención de imágenes
mediante ultrasonidos (ecocardiografía). [21]
Cateterización cardiaca
El cateterismo cardiaco es un procedimiento invasivo que consiste en la inserción de
un tubo extenso y fino, o catéter, en la arteria femoral, al nivel de la ingle, el brazo o la
muñeca. El catéter es guiado hasta el corazón y luego es usado para inyectar un líquido de
contraste que permite visualizar las arterias del corazón, bajo exposición de rayos X. Las
imágenes de rayos X aportan un mapa detallado del corazón y revelan posibles
obstrucciones en las arterias afectadas, así como su ubicación. Este procedimiento se
combina con mediciones de la fuerza muscular a través de pruebas de esfuerzo y la presión
arterial, y es parte integral del diagnóstico cardiaco. [23]
Figura 2. Cateterización Cardíaca (Vista General). Tomado de “MedlinePlus Información
de Salud para usted” por Animated Dissection of Anatomy for Medicine (ADAM), 2004.
[23]
El cateterismo cardíaco es uno de los estudios más profundos del corazón, mediante
el cual se pueden apreciar las arterias que nutren al corazón o coronarias, medir el bombeo
del corazón, las presiones dentro de sus cavidades y en el sistema pulmonar. De manera
adicional, se pueden evaluar las válvulas, deformidades, aneurismas o dilataciones,
trastornos en su contracción, tumores o masas internas y muchas cardiopatías congénitas.
Generalmente este procedimiento se realiza para obtener información diagnóstica sobre el
corazón o los vasos sanguíneos, para evaluar el funcionamiento del corazón y el suministro
de sangre o anomalías congénitas del corazón, para brindar tratamiento en ciertos tipos de
enfermedades cardíacas o para determinar la necesidad de una cirugía cardiaca [24]. El
cateterismo cardíaco se puede emplear para determinar la presión y el flujo sanguíneo en
las cámaras del corazón, tomar muestras de sangre dentro del mismo y examinar las arterias
por medio de una técnica de rayos X llamada fluoroscopia. La fluoroscopia permite la
visualización inmediata ("en tiempo real") de las imágenes de rayos X en una pantalla y
suministra un registro permanente del procedimiento. Una vez que el catéter está en el lugar
indicado, se inyecta un material de contraste o colorante para visualizar las estructuras y
vasos de corazón y se toman las imágenes.
Figura 3. Cateterización Cardíaca (Vista Detalle). Tomado de “MedlinePlus Información de
Salud para usted” por Animated Dissection of Anatomy for Medicine (ADAM), 2004. [23]
Tipos de Cateterismo Cardiaco
Hay varios tipos de cateterismo cardíaco y pueden hacerse por separado o
combinados. Todas las formas de cateterismo cardíaco se hacen con una muy delgada y
flexible sonda llamada catéter, la cual se introduce en una arteria o vena a través de la piel,
utilizando una aguja o introductor especial, previa limpieza y aplicación de anestésico local.
Los sitios de punción más usuales son las ingles, aunque en algunas ocasiones se usen las
arterias de los brazos.
Con el cateterismo cardiaco derecho, se estudia lo que corresponde al lado
derecho del corazón y el sistema pulmonar, así como muchas de las cardiopatías
congénitas. En este caso el catéter se introduce por la vena, casi siempre la femoral a la
altura de la ingle izquierda o derecha, y se desplaza hasta el interior de la aurícula y
ventrículo derecho y la arteria pulmonar. En cada una de estas estructuras se pueden medir
presiones e inyectar una solución de contraste yodada, opaca a los rayos X, los cuales se
utilizan para tomar radiografías y filmar el estudio en un proceso que se llama cine
angiografía ("cine" por película en movimiento, "angio" por vasos sanguíneos y "grafía"
por grabado). [25]
Figura 4.Cateterismo Cardiaco Derecho. Tomado de “Cardiocaribe.com” por Orlando
Navarro Ulloa, 2001 [25].
En el caso del cateterismo cardíaco izquierdo, el catéter se introduce por la arteria
femoral, se desplaza hacia el corazón siguiendo la artería ilíaca y luego la aorta hasta el
ventrículo izquierdo. Se miden presiones en la aorta y en el ventrículo y si es necesario se
inyecta medio de contraste en estas estructuras; cuando se hace en la aorta se llama
aortograma y cuando se hace en el ventrículo, ventriculograma. Hay catéteres especiales
para canalizar las coronarias izquierda y derecha, las cuales nacen en la raíz o porción
inicial de la aorta, muy cerca de su salida del corazón. [25]
Figura 5. Cateterismo Cardiaco Izquierdo. Tomado de “Cardiocaribe.com” por Orlando
Navarro Ulloa, 2001 [25].
Los valores normales bajo los cuales se realiza el estudio que establecen los
parámetros de medición se dan con relación al tamaño, movimiento, consistencia y presión
normales del corazón; al igual que un suministro normal de sangre. [7]
La inyección del contraste (suministrada a
través de catéter) en cada coronaria se
denomina Coronariografía, siendo posible visualizarlas en toda su magnitud, tanto las
ramas principales como las colaterales, precisando sus características y anormalidades, en
especial sus obstrucciones parciales o totales, debidas a acumulación de colesterol
(ateromas) o a trombos. [25]
Figura 6. Coronariografía. Tomado de“Cardiocaribe.com” por Orlando Navarro Ulloa,
2001 [25].
Con la coronariografía se determina si hay enfermedad coronaria y su severidad,
para tomar decisiones trascendentales en el manejo del paciente. [10]. Durante el
Cateterismo Cardiaco, el corazón es vigilado de forma muy precisa y cualquier cambio que
ocurra es documentado y estudiado, pudiéndose determinar de manera exacta, el trastorno
de ritmo y la solución más apropiada del mismo. El procedimiento es realizado por
personal especializado y bien entrenado conformado por cardiólogos electrofisiólogos,
anestesiólogos, técnicos cardiopulmonares y personal de enfermería.
Figura 7. Fluoroscopia. Tomado de “Cardiocaribe.com” por Orlando Navarro Ulloa, 2001
[25].
Toda vez que se ha finalizado el procedimiento, el cual puede tener una duración
promedio entre 2 a 4 horas, son retirados los catéteres y se realiza presión manual en los
sitios de inserción de los mismos por aproximadamente 10 minutos sin la necesidad de
puntos de sutura. El paciente debe permanecer acostado por alrededor de 4 a 6 horas para
permitir que estos sitios queden sellados espontáneamente. En la gran mayoría de los casos,
el paciente puede ser dado de alta al día siguiente y reintegrarse a sus actividades normales
en 72 horas más. Sin embargo se recomienda evitar el levantamiento de objetos pesados y
realizar solo actividades ligeras por pocos días. [26]
Inteligencia Artificial (IA)
La inteligencia artificial, en una definición amplia y un tanto circular, tiene por
objeto el estudio del comportamiento inteligente en las máquinas. A su vez, el
comportamiento inteligente supone percibir, razonar, aprender, comunicarse y actuar en
entornos complejos. Una de las metas a largo plazo de la IA es el desarrollo de máquinas
que puedan hacer todas estas cosas igual, o incluso mejor, que los humanos. Otra meta de la
IA es llegar a comprender este tipo de comportamiento, sea en las máquinas, en los
humanos o en los animales. Por lo tanto, la IA persigue al mismo tiempo metas científicas y
metas de ingeniería. [27]
La inteligencia artificial combina varios campos, como la robótica, los sistemas
expertos y otros, los cuales tienen un mismo objetivo: tratar de crear máquinas que puedan
razonar por sí solas, lo que origina que hasta la fecha existan varios estudios y aplicaciones,
dentro de las que se encuentran las redes neurales, el control de procesos como los sistemas
de producción (robots empaca comestibles o configuradores de sistemas de computación) o
los algoritmos genéticos. Es por esto que la inteligencia artificial se clasifica en cuatro
categorías:
•
Sistemas que piensan como humanos: Están referidos a la automatización de
actividades vinculadas con procesos de pensamiento humano, tales como toma de
decisiones, resolución de problemas y aprendizaje. Lo interesante de esta categoría
es lograr que las computadoras piensen, es decir, conseguir máquinas con mente.
•
Sistemas que actúan como humanos: Son los obtenidos a partir del estudio de cómo
lograr que las computadoras realicen funciones cuyo desarrollo requiere de
inteligencia humana.
•
Sistemas que piensan racionalmente: Son los que estudian las capacidades mentales
y las representan a través de modelos computacionales.
•
Sistemas que actúan racionalmente: Son los que emulan la inteligencia humana y
automatizan su comportamiento [28].
¿Cómo trabaja la IA?
El funcionamiento de la inteligencia artificial se sustenta en ciertas premisas, las
cuales contemplan:
•
La información simbólica preferente a la numérica.
•
Los métodos heurísticos preferentes a los algorítmicos.
•
El uso de conocimiento específico-declarativo.
•
Las informaciones incompletas o con incertidumbre.
•
La aplicabilidad a diversas disciplinas [28]; a las cuales se hará referencia en las
siguientes secciones.
Áreas de Aplicación de la IA
Los avances conseguidos a través de la IA se aplican en sistemas reales en una gran
variedad de ramas y problemas:
•
Gestión y control: análisis inteligente, fijación de objetivos.
•
Fabricación: diseño, planificación, programación, monitorización, control, gestión
de proyectos, robótica simplificada y visión computarizada.
•
Educación: adiestramiento práctico, exámenes y diagnóstico.
Ingeniería: diseño, control y análisis.
•
Equipamiento: diseño, diagnóstico, adiestramiento, mantenimiento, configuración,
monitorización y ventas.
•
Cartografía: interpretación de fotografías, diseño, resolución de problemas
cartográficos.
•
Profesiones: abogacía, medicina, contabilidad, geología, química.
Software: enseñanza, especificación, diseño, verificación, mantenimiento.
•
Sistemas de armamento: guerra electrónica, identificación de objetivos, control
adaptativo, proceso de imágenes, proceso de señales.
Proceso de datos: educación, interfase en lenguaje natural, acceso inteligente a datos
y gestores de bases de datos, análisis inteligente de datos.
•
Finanzas: planificación, análisis, consultoría.
Aplicaciones comerciales de la inteligencia artificial. Sin embargo, la inteligencia
artificial ya cuenta con frutos en diferentes mercados:
•
Configuración: selección de distribución de los componentes de un sistema de
computación.
•
Diagnosis: hardware informático, redes de ordenadores, equipos mecánicos,
problemas médicos, averías telefónicas, instrumentación electrónica, circuitos
electrónicos, averías automovilísticas.
•
Interpretación y análisis: datos geológicos para prospección petrolífera,
compuestos químicos, análisis de señales, problemas matemáticos complejos,
evaluación de amenazas militares, análisis de circuitos electrónicos, datos
biológicos (coronarios, cerebrales y respiratorios), información de radar, sonar e
infrarrojos.
•
Monitorización: equipos, monitorización de procesos, fabricación y gestión de
procesos científicos, amenazas militares, funciones vitales de pacientes
hospitalizados, datos financieros en tiras de papel perforado por teleimpresora,
informes industriales y gubernamentales.
•
Planificación: gestión de activo y pasivo, gestión de cartera, análisis de créditos
y préstamos, contratos, programación de trabajos de taller, gestión de proyectos,
planificación de experimentos, producción de tarjetas de circuito impreso.
•
Interfaces inteligentes: hardware (fiscal) de instrumentación, programas de
computadora, bases de datos múltiples, paneles de control.
•
Sistemas de lenguaje natural: interfaces con bases de datos en lenguaje natural,
gestión de impuestos (ayudas para contabilidad), consultoría en temas legales,
planificación de fincas, consultoría de sistemas bancarios.
•
Sistemas de diseño: integración de microcircuitos en muy alta escala, síntesis de
circuitos electrónicos, plantas químicas, edificios, puentes y presas, sistemas de
transporte.
•
Sistemas de visión computarizada: selección de piezas y componentes,
ensamblado, control de calidad.
•
Desarrollo de software: programación automática. [29]
La inteligencia artificial y el conocimiento.
En algunos casos, el conocimiento se caracteriza por ser voluminoso, impreciso o
incierto, o por sufrir cambios constantemente, razones por las cuales se hace necesario
establecer una forma de representarlo para cotejar estas contrariedades [30]
Representación del conocimiento. La representación del conocimiento debe ser
capaz de captar generalizaciones, ser comprensible, fácilmente modificable, permitir
diversos grados de detalle, captar la incertidumbre y focalizar el conocimiento relevante;
para conseguir de forma sencilla la solución a un problema determinado. Más
específicamente, en lo que a inteligencia artificial se refiere es una combinación de
estructuras de datos que junto con mecanismos interpretativos permiten manipular el
conocimiento representado, para generar soluciones al problema en cuestión. [30]
Los diferentes tipos de lógicas a partir de las cuales se formulan las expresiones que
representan el conocimiento se muestran en la tabla 1.
Tabla 1.
Tipos de Lógica para representación del conocimiento.
Lógica
Representación
Estados de Conocimiento
Proposicional
Hechos
Verdadero/ falso/ desconocido
Predicados
Hechos, objetos y relaciones
Verdadero/ falso/ desconocido
Temporal
Hechos, objetos relaciones y
tiempo
Verdadero/ falso/ desconocido
Probabilidad
Hechos
Grado de creencia 0..1
Difusa
Grados de verdad
Grado de creencia 0..1
Fuente: Lógica de Predicados. Rodríguez, 2005. [30]
Lógica de predicados. La lógica de predicados es una forma lógica general, a partir
de la cual se pueden representar todos los detalles expresados en sentencias, las cuales
expresan relaciones entre objetos, así como cualidades y atributos de tales objetos
(personas, objetos físicos o conceptos). Dichas relaciones se denominan predicados, y los
objetos se denominan argumentos o términos del predicado. Al construir los predicados se
asume que su veracidad está basada en su relación con el mundo real; aunque, el establecer
como verdadero un predicado es suficiente para que así sea considerado [30].
Con esto es importante resaltar que el presente estudio estará enfocado en el uso de
la lógica de predicados, debido a que es una lógica más general y permite la representación
detallada de las sentencias, para que las mismas no pierdan su significado en el caso de ser
complejas como ocurre con la lógica proposicional.
Resolución de problemas en la IA
Muchos de los problemas de interés práctico en inteligencia artificial son resueltos a
través de los mecanismos de búsqueda, ya que permiten el estudio de cada una de las
posibles soluciones a un caso específico, mediante el recorrido de la trayectoria en un
conjunto de nodos dispuestos en una red, en la que cada uno de ellos representa un estado
de la solución. La fase de selección del mecanismo de búsqueda a usar incluye la revisión
de las siguientes interrogantes: ¿Es la búsqueda la mejor manera de resolver el problema?,
¿Cuáles métodos de búsqueda resuelven el problema?, ¿Cuál método de búsqueda es el
más eficiente para este problema?; cuya respuesta es dada mediante el estudio de los tipos
de búsqueda:
Búsqueda a Ciegas
También conocida como búsqueda sin información, es aquella que no utiliza
conocimiento previo del problema. Los métodos que incluye esta búsqueda son:
•
Búsqueda primero en anchura - Breadth-first search
•
Búsqueda en profundidad - Depth First Search
•
Búsqueda en profundidad iterativa - Iterative deepening search
•
Búsqueda de costo uniforme - Uniform cost search
•
Búsqueda Bidireccional - Bidirectional search [31]
Búsqueda Heurística
También llamada búsqueda informada, es la que utiliza información previa del
problema para su resolución, de forma tal que se pueda ordenar la búsqueda evaluando
primero los nodos más prometedores. Esta búsqueda contempla los siguientes métodos:
•
Búsqueda del mejor primero - best-first search
•
Búsqueda avara - beam search
•
Búsqueda más informada – More informed search
•
Búsqueda en ascenso de cima
•
Búsqueda ascenso a la cima
•
Endurecimiento simulado
•
Búsqueda A* - A* Search
•
Búsqueda A* con profundidad iterativa – Iterative deepening A* search [32]
Para efectos del presente estudio se hace necesario el uso de de la búsqueda
Heurística, la cuál permitirá encontrar la solución óptima que se adapte al caso médico
tratado, sustentada en la base de conocimientos existente.
El proceso de Razonamiento
El proceso de razonamiento en un sistema basado en reglas es una progresión desde
un conjunto inicial de afirmaciones y reglas hacia una solución, respuesta o conclusión.
Como se llega a obtener el resultado, sin embargo, puede variar significativamente:
•
Se puede partir considerando todos los datos conocidos y luego ir progresivamente
avanzando hacia la solución. Este proceso se lo denomina guiado por los datos o de
encadenamiento progresivo (forward chainning).
•
Se puede seleccionar una posible solución y tratar de probar su validez buscando
evidencia que la apoye. Este proceso se denomina guiado por el objetivo o de
encadenamiento regresivo (backward chainning). [32]
Razonamiento Progresivo
En el caso del razonamiento progresivo, se empieza a partir de un conjunto de datos
colectados a través de observación y se evoluciona hacia una conclusión. Se chequea cada
una de las reglas para ver si los datos observados satisfacen las premisas de alguna de las
reglas. Si una regla es satisfecha, es ejecutada derivando nuevos hechos que pueden ser
utilizados por otras reglas para derivar hechos adicionales. Este proceso de chequear reglas
para ver si pueden ser satisfechas se denomina interpretación de reglas. La interpretación
de reglas es realizada por una maquina de inferencia en un sistema basado en conocimiento.
[32]
Los Sistemas como soporte a la toma de decisiones
Sistemas de Información
Un Sistema de Información puede definirse técnicamente como un conjunto de
componentes interrelacionados que permiten capturar, procesar, almacenar y distribuir la
información para apoyar la toma de decisiones y el control en una institución. Además, para
apoyar a la toma de decisiones, la coordinación y el control, los sistemas de información
pueden también ayudar a los administradores y al personal a analizar problemas, visualizar
cuestiones complejas y crear nuevos productos.
Los sistemas de información pueden contener datos acerca de personas, lugares y
cosas importantes dentro de la Institución y el entorno que la rodea. [33]
Los sistemas de información son desarrollados con propósitos diferentes
dependiendo de las necesidades del negocio, de esta forma se pueden clasificar en
•
Sistemas de procesamiento de transacciones (TPS): son sistemas de información
computarizados desarrollados para procesar gran cantidad de datos para
transacciones rutinarias de los negocios, tales como nómina e inventario.
•
Sistemas de automatización de oficina (OAS): dan soporte a los trabajadores de
datos, quienes por lo general no crean un nuevo conocimiento sino que usan la
información para analizarla y transformar datos, o para manejarla en alguna forma y
luego compartirla o diseminarla formalmente por toda la organización.
•
Sistemas de manejo de conocimiento (KWS): dan soporte a los trabajadores
profesionales tales como científicos, ingenieros y doctores, les ayudan a crear un
nuevo conocimiento que contribuya a la organización o a toda la sociedad.
•
Sistemas de información gerencial (MIS): son sistemas de información
computarizada debido a la interacción resuelta entra las personas y las
computadoras. Requieren que las personas, el software y el hardware trabajen al
unísono.
•
Sistemas de apoyo a decisiones de grupo (GDSS): están orientados para reunir a un
grupo, a fin de que se resuelva un problema con la ayuda de varios apoyos como
votaciones, cuestionarios, aportación de ideas y creación de escenarios.
•
Sistemas de apoyo a ejecutivos (ESS): ayuda a los ejecutivos a organizar sus
interacciones con el ambiente externo, proporcionando apoyo de gráficos y
comunicaciones en lugares accesibles tales como salas de juntas y oficinas
personales corporativas.
•
Sistemas de apoyo a decisiones (DSS): tiene como fuente una base de datos
determinada y en cada una de sus fases tiene como premisa la toma de decisiones,
aún cuando la decisión final queda por parte de la persona responsable.
•
Sistemas expertos: es un caso muy especial de un sistema de información cuyo uso
ha sido factible para lo negocios a partir de la reciente y amplia disponibilidad de
hardware y software tal como las microcomputadoras. Los sistemas expertos,
también llamados sistemas basados en conocimiento, capturan en forma efectiva y
usan el conocimiento de un experto para resolver un problema particular
experimentado en una organización. La diferencia de un Sistema Experto con un
DSS, es que el sistema experto selecciona la mejor solución a un problema o a una
clase específica de problemas. [34]
De acuerdo a los tipos de sistemas de información estudiados, se evidencia que la
investigación a realizar se enmarca dentro de las especificaciones de un sistema experto,
puesto que pretende dar soporte al especialista en la generación de diagnósticos y
tratamientos a una afección cardiaca determinada, a partir de una amplia base de
conocimientos. A continuación, se abordará este tipo de sistemas de información para
profundizar sobre su estructura y funcionamiento.
Sistemas Expertos
Los sistemas expertos son aplicaciones informáticas que simulan el comportamiento
de un experto humano, partiendo de la premisa de que precisamente ese experto quien tiene
el conocimiento o habilidades profundas en un campo determinado. Actualmente, ellos
“transfieren” todos sus conocimientos y experiencias a una computadora, la cual pese a los
esfuerzos realizados aun no se puede catalogar como un ente con inteligencia natural.
Los sistemas expertos se aplican por norma general en problemas que implican un
procedimiento basado en el conocimiento, es decir, que comprende la utilización de normas
o estructuras que contengan conocimientos y experiencias de expertos, deducción lógica de
conclusiones, capacidad de interpretar datos ambiguos y la manipulación de conocimientos
afectados por la probabilidad.
Componentes de un Sistema Experto. Aunque los componentes de un Sistema Experto no
se manejan de forma estándar, su estructura puede ser representada a través de un modelo
tradicional.
Figura 8. Modelo de un Sistema Experto. Tomado de la "Universidad de Oviedo" por Julián
Lombarde - UCM, 2005. [34]
A continuación se explican de forma individual cada uno de los componentes,
iniciando con el subsistema de adquisición de conocimientos.
•
Subsistema de adquisición de Conocimientos: es quien permite que se puedan
añadir, eliminar o modificar elementos de conocimiento (en la mayoría de los casos
reglas) en el sistema experto.
•
Base de Conocimientos: La base de conocimientos contiene el conocimiento
especializado extraído del experto en el dominio. Es decir, contiene conocimiento
general sobre el dominio en el que se trabaja.
El enfoque más común para representar el dominio del conocimiento que se requiere
para un Sistema Experto son las reglas de producción. Estas pueden ser referidas como
reglas “situación-acción” o “if-then”. De esta forma, con frecuencia una base de
conocimientos esta fraguada principalmente de reglas, las cuales son invocadas por un
enlace de patrones con las particularidades de las tareas circunstanciales que van
apareciendo en la base de datos global.
Existen reglas de producción que indican bajo que condiciones deben considerarse
unas reglas en vez de otras, estas reglas son conocidas como Metareglas.
La fuerza de un Sistema Experto yace en el conocimiento específico del dominio del
problema. Casi todos los sistemas existentes basados en reglas contienen un centenar de
ellas y generalmente se obtienen de entrevistas con expertos durante un tiempo largo. En
cualquier Sistema Experto, las reglas se conectan una a otra por ligas de asociación para
formar redes de reglas. Una vez que han sido ensambladas tales redes, entonces se tiene una
representación de un cuerpo de conocimientos que es substancial.
•
Base de Datos o Base de Hechos: La base de datos o base de hechos es una parte de
la memoria del ordenador que se utiliza para almacenar los datos recibidos
inicialmente para la resolución de un problema.
Contiene conocimiento sobre el caso concreto en que se trabaja. También se
registrarán en ella las conclusiones intermedias y los datos generados en el proceso
de inferencia. Al memorizar todos los resultados intermedios, conserva el vestigio
de los razonamientos efectuados; por lo tanto, se puede utilizar para explicar las
deducciones y el comportamiento del sistema.
•
Motor de Inferencia: El motor de inferencia es el "supervisor", un programa que
está entre el usuario y la base de conocimientos, y que extrae conclusiones a partir
de los datos simbólicos que están almacenados en las bases de hechos y de
conocimiento.
Se pueden diferenciar dos mecanismos de inferencia: Encadenamiento hacia
delante y encadenamiento hacia atrás. La llamada "técnica de encadenamiento hacia
adelante" consiste en aplicar al conocimiento-base (organizado en forma de reglas
de producción), junto con otro conocimiento disponible, el esquema inferencial
modus ponens. Esta estrategia también es conocida como "razonamiento de datos
dirigidos", porque comienza con los datos conocidos y aplica el modus ponens
sucesivamente hasta obtener los resultados que se siguen. Las reglas se aplican "en
paralelo", o sea, en cualquier iteración una regla toma los datos cuales eran al
principio del ciclo, por lo tanto el conocimiento-base y el sistema no dependen del
orden en el que las reglas son establecidas, almacenadas o procesadas. Esta técnica
suele utilizarse cuando la cantidad de datos es potencialmente muy grande, y resulta
de interés algún conocimiento específico tomado en consideración
La técnica del "encadenamiento hacia atrás" consiste en tratar de probar un
dato (o conocimiento) engarzándolo en las reglas-base con el esquema de inferencia
modus ponens, o sea, tomando al dato como un consecuente y buscando en el
conocimiento-base el correspondiente antecedente, a través de los pasos
correspondientes.
Estas dos formas de inferencia se corresponden con los dos métodos lógicos
clásicos conocidos por varios nombres: método resolutivo / método compositivo;
análisis / síntesis. La distinción se basa en la relación direccional entre objetivos y
datos. Y ambas formas pueden combinarse en el razonamiento.
•
Interfaz Hombre-Máquina: La interfaz establece una comunicación sencilla entre el
usuario y el sistema. El usuario puede consultar con el sistema a través de menús,
gráficos, o algún otro tipo de interfaces, y éste le responde con resultados. También
es interesante mostrar la forma en que extrae las conclusiones a partir de los hechos.
En sistemas productivos se cuida la forma de presentar al operador las órdenes
obtenidas del sistema experto, debido a que información excesiva o confusa
dificulta la actuación en tiempo real.
•
Adicionalmente se cuenta con el componente de explicación que es el que permite
justificar y explicar el análisis completo del problema y las soluciones propuestas,
así como la semejanza o diferencia entre dicha solución y las de los casos históricos
[35]
Tipos de Sistemas Expertos. Los principales tipos de sistemas expertos son:
•
Basados en reglas: obtienen la solución al problema aplicando reglas heurísticas
apoyadas generalmente en lógica difusa para su evaluación y aplicación.
•
Basados en casos o CBR (Case Based Reasoning): obtienen la solución aplicando el
razonamiento basado en casos, donde la solución a un problema similar planteado
con anterioridad se adapta al nuevo problema.
•
Basados en redes bayesianas: en los cuales se obtiene la solución aplicando redes
bayesianas, basadas en estadística y el teorema de Bayes
Campos de Aplicación de los Sistemas Expertos. Un sistema experto es muy eficaz
cuando tiene que analizar una gran cantidad de información, interpretándola y
proporcionando una recomendación a partir de la misma, a continuación en la tabla 2 se
expone el uso de los Sistemas Expertos ante distintos problemas [36].
Tabla 2.
Modelos Funcionales de los Sistemas Expertos.
Categoría
Interpretación
Tipo de Problema
Deducir situaciones a partir de
datos observados
Predicción
Inferir posibles consecuencias
a partir de una situación.
Diagnóstico
Deducir fallos a partir de sus
efectos.
Diseño
Configurar objetos bajo ciertas
especificaciones
Desarrollar planes para llegar a
unas metas
Planificación
Monitorización o
supervisión
Depuración
Controlar situaciones donde
hay planes vulnerables
Uso
Análisis de imágenes,
reconocimiento del habla,
inversiones financieras
Predicción meteorológica,
previsión del tráfico,
evolución de la Bolsa.
Diagnóstico médico,
detección de fallos en
electrónica.
Diseño de circuitos,
automóviles, edificios.
Programación de proyectos
e inversiones. Planificación
militar.
Control de centrales
nucleares y factorías
químicas.
Desarrollo de Software y
circuitos electrónicos.
Reparar sistemas
informáticos, automóviles.
Corrección de errores,
enseñanza.
Estrategia militar, control
del tráfico aéreo.
Preescribir soluciones para
funcionamientos erróneos
Reparación
Efectuar lo necesario para
hacer una corrección
Instrucción
Diagnóstico, depuración y
corrección de una conducta.
Control
Mantener un sistema por un
camino previamente trazado,
interpreta, predice y supervisa
su conducta
Enseñanza
Recoger el conocimiento
Aprendizaje de experiencia.
mostrado
Fuente: Sistemas Expertos y Modelos de Redes Probabilísticas. Castillo, 2001[36]
Programación Orientada a Objetos (POO)
Joyanes (2000) expone que la programación orientada a objetos (POO) es un
conjunto de técnicas que permiten el desarrollo de programas de computadora más
eficientes.
Por su parte, Grady Booch (citado por joyanes, 2000) la define con un método en el
cual los programas se organizan como colecciones cooperativas de objetos, los cuales son a
su vez instancias de alguna clase, y cuyas clases son todas miembros de una jerarquía de
clases unidas mediante relaciones de herencia [37].
Características de la POO
Los Objetos. Un Objeto es una abstracción de cosas (entidades) del mundo real,
tales que: todas las cosas del mundo real consideradas como un conjunto tienen las mismas
características y todas siguen las mismas reglas.
Desde el punto de vista informático, son tipos abstractos de datos. Se dice que un
objeto es la unidad que engloba las operaciones y los datos que se maneja para un conjunto
de variables comunes. Consta de: Estado (atributos) y sus operaciones o comportamiento
(métodos invocados por mensajes). Por definición, todos los objetos que existen dentro de
una clase heredan sus atributos y las operaciones disponibles para la manipulación de los
atributos
Según Shlaer, Mellor y Coad/Yourdon los objetos se pueden ubicar dentro de
alguna de las siguientes categorías: cosas tangibles, roles o papeles jugados o representados
por personas, organizaciones, incidentes, interacciones, especificaciones o lugares [37].
Las Clases. Una clase es la descripción de un conjunto de objetos. Contiene los
métodos y datos con los que operan dichos objetos, es decir, una clase es la declaración de
un tipo de objeto. Permiten la construcción de un tipo de dato dado por las características
del objeto en sí. De esta forma, cuando se crea un objeto, se crea lo que se llama una
Instancia de la clase, es decir, los objetos no son más que instancias de una clase
determinada. Las principales características de las clases son:
•
Encapsulación: es la propiedad mediante la cual se realiza el ocultamiento de la
información de una clase particular. Una clase debe tener dos partes, la interfase
o parte pública, y la implementación o parte privada.
•
Herencia: esta dada por la capacidad de un objeto para utilizar las estructuras de
datos y los métodos previstos en antepasados o ascendientes, cumpliendo así el
objetivo final de reutilizabilidad o reutilización del código desarrollado. Una
clase se puede derivar de otra, y en ese caso hereda todas sus variables y
métodos. Una clase derivada puede añadir nuevas variables y métodos y/o
redefinir las variables y métodos heredados.
•
Polimorfismo: en su forma más simple, es el uso de un nombre o símbolo (por
ejemplo, un operador) para representar o significar más de una acción [37].
Las relaciones entre objetos. Los objetos se relacionan entre sí para lograr objetivos
comunes, y mantener las abstracciones tomadas a partir de su comportamiento en el mundo
real, las cuales según su forma pueden ser:
•
Asociación: Expresa una conexión bidireccional entre dos clases dadas.
•
Agregación: es el tipo de relación que representa las relaciones entre el todo y sus
partes, en el que éstas son “parte de” ese todo.
•
Composición: Mantiene la lógica de las relaciones de agregación, con la diferencia
de que en este caso éstas son más dependientes, ya que las partes solo tienen sentido
como parte del todo
•
Generalización: La generalización es una relación entre un elemento más general y
un elemento más específico y sirve para representar la herencia entre clases [37].
Modelado de Objetos en Lenguaje de Modelado Unificado (UML)
UML Unified Modeling Language (Lenguaje de modelado unificado) es un
lenguaje estándar para crear planos de software, que permite hacer una rápida transición de
los modelos al código. Recoge lo mejor de diferentes sistemas de modelamiento, hecho que
lo hace adaptable a casi cualquier sistema. Además, puede ser utilizado en la mayoría de las
fases de un proyecto, lo que a su vez permite que se tenga información consistente en cada
fase. Por otra parte, se base en el paradigma de la Programación Orientada a Objetos
(POO), lo que hace que el modelamiento de los aspectos del mundo real que se quieran
plasmar en el sistema, pueda ser más exacto gracias a las características de abstracción de
dicho conjunto de técnicas.
El modelamiento en UML está dado por un conjunto de diagramas, siendo éstos el
medio a través del cual el usuario visualiza y manipula los elementos del modelado, en el
detalle en que dicho modelo haya sido construido [38]. Los diagramas que se manejan en
UML son:
Diagrama de Clases
Corresponde a la vista estática del funcionamiento de un Sistema, en la que los
objetos son observables gracias a sus atributos (características puntuales) y su
comportamiento (operaciones que se realizan o sufren).
Una clase es definida por un conjunto de objetos con iguales atributos y
comportamiento (operaciones). Observando los objetos, es posible determinar su clase (es
clave la observación de objetos antes que intentar observar las posibles clases)
En los diagramas de clases, las conexiones semánticas entre las clases están dadas
por las relaciones que pueden ser: asociación, generalización, composición, agregación, o
abstracción [38].
Diagrama de Casos de Uso
Los casos de uso sirven para representar la funcionalidad de un sistema, al mismo
tiempo en que muestran los requerimientos funcionales que éste debe cumplir. Este tipo de
diagrama no muestra dinamismo del sistema en estudio, solo la forma en que se llevan a
cabo las operaciones. Muestra la relación de interacción de las funciones que implementará
el sistema con lo actores, quienes son los elementos que se utilizan para indicar las personas
o empresas de índole interno o externo que interactúan con el sistema. Además de las
relaciones de los casos de uso con los actores del sistema, también es posible representar
relaciones entre casos de usos, las cuales pueden ser: generalización, inclusión y extensión
[38]
Diagrama de Secuencia
Es el tipo de diagrama en el que se puede observar la participación de objetos para
la consecución de una tarea especifica (sus roles) sobre una escala de tiempo con una
secuencia lógica.
Permite indicar la comunicación entre los objetos a través de mensajes y
operaciones enviados entre las instancias de los mismos, haciendo que la observación de
llamadas y operaciones concurrentes sea un poco mas clara y precisa. [39]
La Metodología de UML
Hasta este punto solo se han mencionado aspectos relacionados al modelamiento
propuesto por UML, sin embargo, resulta necesario denotar la metodología usada para
conseguir dichos modelos. El Proceso Unificado Rational (RUP por sus siglas en inglés) es
una guía de cómo usar UML, que define las actividades llevadas a cabo en cada una de las
fases del proyecto [38].
Rational Unified Process (RUP). Booch, Martin y Newkirk (1998) definen RUP
como un proceso de desarrollo de software basado en la asignación de tareas y
responsabilidades a cada uno de los miembros del equipo de desarrollo de una empresa,
centrado en la producción y mantenimiento de modelos del sistema para asegurar la
producción de software de calidad dentro de plazos y presupuestos predecibles, más que en
la producción de documentos. Permite la implementación de las mejores prácticas actuales
en ingeniería de Software: desarrollo iterativo de Software, administración de
requerimientos, uso de arquitecturas basadas en componentes, modelamiento visual del
Software, verificación de la calidad del Software y control de cambios.
Fases de RUP. El proceso de desarrollo, según la metodología RUP, se divide en
ciclos, al final de cada uno de los cuales se consigue un producto determinado. Durante
cada ciclo se llevan a cabo cuatro (4) fases: inicio, elaboración, construcción y transición, y
cada una de ella finaliza con un hito para llevar a cabo la toma de decisiones con respecto al
trabajo realizado.
Las primeras fases están referidas al análisis y determinación de los requerimientos
del sistema. Por otra parte, las fases finales se avocan en el desarrollo, prueba e
implementación del trabajo final [40].
Fases
Inicio
Elaboración
Construcción
Transición
Modelación de Negocios
Requerimientos
Análisis y Diseño
Implementación
Prueba
Desarrollo
Admin. Configuración
Administración
Ambiente
Iteraciones
Preliminares
Iter.
#1
Iter.
#2
Iter.
#n
Iter.
Iter.
#n+1 #n+2
Iter.
#m
Iter.
#m+1
Iteraciones
Figura 9. Estructura de RUP. Tomado de “Object Oriented Analysis and Design with
Applications” por G. Booch, R. Martin y J. Newkirk, 1998.
•
Inicio: Define el alcance del proyecto. En esta fase se identifica las partes que
interactúan con el producto a realizar interna y externamente; se identifican los
requerimientos generales, criterios de éxito y los riesgos en el proyecto; se estiman
los recursos a usar y se elabora un plan que contemple las demás fases y actividades
del desarrollo.
•
Elaboración: se establece los aspectos que definen la arquitectura del sistema, se
desarrolla un plan de proyecto y se suprimen o mitigan los elementos de riesgo que a
largo, mediano o corto plazo pueden afectar el éxito del proyecto.
•
Construcción: se desarrollan los componentes y se incorporan al producto, se
realizan pruebas piloto cuya intensidad dependerá de las características del producto
desarrollado, se elaboran los manuales de usuario y de sistema. .
•
Transición: se realizan pruebas de validación y verificación del producto y se evalúa
la concordancia en los logros del producto por parte de las personas involucradas
[40].
Herramientas de Programación
A continuación será presentada la descripción de las distintas herramientas de
programación bajo las cuales será desarrollado el asistente que propone la presente
investigación. La selección de estas herramientas, está dada a partir de las características
bajo las cuales se plantea el proyecto: ambiente web, uso de bases de conocimiento y
técnicas de inferencia simple.
Lenguajes de Programación
JAVA. Es una tecnología orientada al desarrollo de software con el cual se pueda
realizar cualquier tipo de programa. Hoy en día, la tecnología Java ha cobrado mucha
importancia en el ámbito de Internet gracias a su plataforma J2EE. La tecnología Java está
compuesta básicamente por 2 elementos: el lenguaje Java y su plataforma, siendo esta
ultima la máquina virtual de Java (Java Virtual Machine). Una de las principales
características que favoreció el crecimiento y difusión de este lenguaje, es su capacidad
para que el código funcione sobre cualquier plataforma de software y hardware, lo que
quiere decir que un mismo programa escrito en Java puede ser ejecutado en Linux o
Windows (o cualquier otro Sistema Operativo) sin ningún problema. [42]
PHP. Es el acrónimo de Hypertext Preprocessor. Es una tecnología orientada a crear
páginas Web. Con PHP se pueden crear aplicaciones Web que se ejecuten en variados
servidores Web, de múltiples plataformas, ya que es en esencia un lenguaje
multiplataforma. Las páginas PHP aportan dinamismo a las paginas HTML, ya que
permiten insertar código embebido en éstas. Este tipo de páginas, puede ser desarrolladas
en cualquier tipo de editor, y serán ejecutadas en el servidor, mostrando la salida obtenida
en el Terminal del usuario. [43]
Herramientas de Desarrollo Web
HTML. Es el acrónimo de HyperText Markup Language (Lenguaje de Marcado de
Hipertexto). Es el lenguaje que le indica a un navegador determinado como debe mostrar el
contenido de una página Web. Consta de dos partes: el contenido, que es el texto que se
verá en la pantalla de un ordenador, y las etiquetas y atributos que estructuran el texto de la
página Web en encabezados, párrafos, listas, enlaces, entre otros. Dichas etiquetas, son un
conjunto de caracteres que rodean partes del documento, están formadas por el símbolo
“<”, una directiva (en minúsculas), cero o más parámetros y el símbolo”>”. Para delimitar
dónde aparece cada parte del documento se utilizan etiquetas por parejas, por ejemplo
<title>El título de la página web va aquí. </title>. La estructura básica de un documento
HTML es la siguiente: comienza con la etiqueta <html>, que termina con su respectivo par
</html>, quienes enmarcan el cuerpo de todo el documento. Luego, se encuentra el
encabezamiento de la página delimitado por <head> y </head>, en el que se definen valores
que van a ser válidos en todo el documento y finalmente el <body> y </body> que contiene
la información en si del documento y de las operaciones que en él se realizan [41]
APPLET. Es un programa escrito en Java que puede ser incluido en una página
HTML, de la misma forma como es incluida una imagen en una página. Cuando se utiliza
un navegador para ver una página que tiene incluido un applet, su código es transferido al
sistema y ejecutado por en navegador de la Máquina Virtual de Java (JVM) [44]
Herramientas de Base de Datos
MySQL. Es un manejador de código abierto de base de datos relacionales. Está
basado en SQL, el cual es usado para agregar, remover, y modificar información en una
base de datos. Puede ser usado para una gran variedad de aplicaciones, sin embargo, es
comúnmente encontrado en servidores Web. Un sitio determinado que usa MySql puede
incluir páginas Web que acceden a la información de una base de datos, siendo éstas
denominadas páginas dinámicas [45].
Lenguaje de Inferencia
Prolog. Es la abreviatura para Programming Logic (Logica de Programación). Es un
lenguaje de programación de alto nivel basado en fórmulas lógicas, es decir, no en la forma
común de secuencia de comandos. Se compone de hechos (datos) y un conjunto de reglas,
es decir, relaciones entre los objetos de la base de datos. El proceso básico de operación
parte al realizar una pregunta en forma interactiva a partir de la cual el intérprete genera
por inferencia los resultados que se deducen a partir del contenido de la base de datos.
Dichos resultados son obtenidos a raíz de una búsqueda en profundidad de un árbol, que
contiene todas las posibles soluciones. [46]
En prolog es posible realizar operaciones de dos modos:
•
Modo consulta, se introducen nuevas relaciones (hechos) en el almacenamiento
dinámico de la base de datos.
•
Modos pregunta, se ejecuta un intérprete basado en pilas para evaluar las preguntas
del usuario.
Finalmente es importante destacar, que este lenguaje de inferencia es ampliamente
utilizado para el desarrollo de aplicaciones de inteligencia artificial, particularmente en
sistemas expertos. [47]
Glosario de Términos
Angina: Es el síntoma primario de la enfermedad coronaria y en casos graves, de un infarto
de miocardio: Normalmente se experimenta un dolor en el pecho
Aparato de Rayos X: Un aparato que utiliza radiaciones para obtener imágenes del interior
del cuerpo.
Arritmia: Llámese en general, arritmia cardiaca a cualquier trastorno del ritmo que no sea
de origen sinusal, o que aún siéndolo, se manifiesta con amplias oscilaciones en el intervalo
R-R
Arteriosclerosis: llamada comúnmente "endurecimiento de las arterias"; son diversas
condiciones producidas por el depósito de grasa o de calcio en las paredes de las arterias
que causa su engrosamiento.
Arteria: Vaso sanguíneo que lleva la sangre oxigenada desde el corazón al resto del
cuerpo.
Ateroma: Acumulación local de fibras y lípidos, principalmente colesterol, en la pared
interna de una arteria, con estrechamiento de su luz y con posible infarto del órgano
correspondiente.
Capilares: Vasos sanguíneos diminutos localizados entre las arterias y las venas que
distribuyen la sangre rica en oxígeno por el cuerpo.
Cardíaco: Relativo al corazón.
Cardiovascular: Relativo al sistema formado por el corazón y los vasos sanguíneos
(sistema circulatorio).
Código: Conjunto de sentencias elaboradas bajo un lenguaje de programación.
Edema pulmonar: Una condición en la que existe una acumulación de líquido en los
pulmones causada por un mal funcionamiento del corazón.
Electrocardiograma: Un examen que registra la actividad eléctrica del corazón, muestra
los ritmos anormales (arritmias o disritmias) y detecta lesiones del músculo cardiaco.
Factor de riesgo: Una condición, elemento o actividad que pueda afectar de forma adversa
al corazón.
Fiebre Reumática: Una enfermedad infantil que podría dañar las válvulas cardiacas o el
revestimiento exterior del corazón.
Fracción de eyección: La medición de la sangre que bombean los ventrículos.
Gasto cardiaco: La cantidad de sangre que recorre el sistema circulatorio en un minuto.
Heurística: Es la capacidad de un sistema para realizar de forma inmediata innovaciones
positivas para sus fines. La capacidad heurística es un rasgo característico de los humanos,
que puede describirse como el arte y la ciencia del descubrimiento y de la invención o de
resolver problemas mediante la creatividad y el pensamiento.
Hipertensión: Presión alta de la sangre.
Indicadores: Medida utilizada para señalar la descripción de un aspecto especifico del
diagnóstico y tratamiento a cada caso.
Insuficiencia cardiaca: Una condición en la que el corazón no es capaz de bombear toda la
sangre que recibe, con lo que se acumula sangre en los vasos y líquido en los tejidos del
cuerpo.
Isquemia: Disminución del flujo de sangre oxigenada a un órgano debido a la obstrucción
de una arteria.
Interfaz de usuario: Módulo de aplicación dirigido al usuario
Javascript: Es el lenguaje que nos permite interactuar con el navegador de manera
dinámica y eficaz, proporcionando a las páginas Web dinamismo y vida.
Nodos: Espacio real o subestracto en el que confluyen parte de las conexiones de otros
espacios reales o abstractos que comparten sus mismas características y que a su vez
también son nodos. Todos estos nodos se interrelacionan entre sí de una manera no
jerárquica y conforman lo que en términos sociológicos o matemáticos se llama red
Presión de la sangre: La fuerza o presión que ejerce el corazón cuando bombea la sangre;
también, la presión de la sangre en las arterias.
Red: Es la disposición física de los nodos en un espacio.
Reglas: Conjunto de normas por las cuales se rige un proceso.
Simpático: Se dice de una de las dos partes del sistema neurovegetativo, cuyos centros
radican en las regiones torácica y lumbar de la médula espinal y cuya acción es antagonista
del sistema parasimpático
Parasimpático: Se dice de una de las dos partes del sistema neurovegetativo, cuyos centros
radican en los extremos del eje cerebroespinal y cuya acción es antagonista del sistema
simpático.
Procedimiento invasivo: Un esfuerzo o tratamiento diagnóstico en el que es necesario
penetrar en el cuerpo ni perforar la piel.
Procedimiento no invasivo: Un esfuerzo o tratamiento diagnóstico en el que no es
necesario entrar en el cuerpo ni perforar la piel.
Puente o by-pass aortocoronario: Un procedimiento quirúrgico que consiste en
trasplantar un vaso sanguíneo sano de otra parte del cuerpo al corazón para sustituir o
"derivar" a un vaso enfermo.
Reflujo: Retroceso de la sangre debido a una válvula cardiaca defectuosa.
Sistema de Soporte de Decisión: Sistema interactivo basado en computadora el cual ayuda
a los tomadores de decisiones a utilizar datos modelos para resolver problemas.
Soplo: Un sonido áspero o soplido que se oye al escuchar el corazón, y que puede o no
indicar problemas en el corazón o en el sistema circulatorio.
Stent: Un dispositivo que se implanta en un vaso sanguíneo para mantenerlo abierto.
Válvulas: (Las válvulas del corazón son la tricúspide, la pulmonar, la mitral y la aórtica).
Son las "puertas" entre las cavidades del corazón.
Vena: Un vaso sanguíneo que lleva la sangre desde el cuerpo devuelta al corazón.
Vértigo: Trastorno del sentido del equilibrio caracterizado por una sensación de
movimiento rotatorio del cuerpo o de los objetos que lo rodean.
Descargar