inteligencia_artificial_ISC - Servidor de Apoyo al Sistema

Anuncio
Inteligencia Artificial
Unidad
Temas
1
Fundamentos.
1.1
1.2
1.3
1.4
1.5
1.6
1.7
2
Representación del
conocimiento y
razonamiento.
2.1
2.2
2.3
2.4
2.5
2.6
2.7
2.8
2.9
3
Sistemas de
razonamiento lógico.
Subtemas
El propósito de la IA y su
evolución histórica.
Las habilidades cognoscitivas
según la psicología. Teorías de la
inteligencia (conductismo,
Gardner, .
El proceso de razonamiento
según la lógica (Axiomas,
Teoremas, demostración).
El modelo de adquisición del
conocimiento según la filosofía.
El modelo cognoscitivo.
El modelo del agente inteligente.
El papel de la heurística.
Mapas conceptuales.
Redes semánticas.
Razonamiento monótono.
La lógica de predicados: sintaxis,
semántica, validez e inferencia.
La demostración y sus métodos.
El método de Resolución de
Robinson
Conocimiento no-monótono y Otras
lógicas.
Razonamiento probabilístico.
Teorema de Bayes.
3.1 Reglas de producción.
3.2 Sintaxis de las reglas de
producción.
- A1  A2 ...  An => C
- representación objeto-atributovalor
3.3 Semántica de las reglas de
producción
3.3.1 Conocimiento causal.
3.3.2 Conocimiento de diagnóstico.
3.4 Arquitectura de un sistema de
Producción (SP) (ó Sistemas
basados en reglas, SBR).
3.4.1 Hechos.
3.4.2 Base de conocimientos.
3.4.3 Mecanismo de control.
3.5 Ciclo de vida de un sistema de
Producción.
4
Búsqueda y satisfacción 4.1 Problemas y Espacios de estados.
de restricciones.
4.2 Espacios de estados
determinísticos y espacios no
determinísticos.
4.3 Búsqueda sistemática.
4.3.1 Búsqueda de metas a
profundidad.
4.3.2 Búsqueda de metas en
anchura
4.3.3 Búsqueda óptima.
4.4 Satisfacción de restricciones.
4.5 Resolución de problemas de
juegos.
Unidad1. Fundamentos.
1.8 El propósito de la IA y su evolución histórica.
El propósito de la Inteligencia Artificial es hacer computacional el conocimiento
humano no analítico por procedimientos simbólicos o conexionistas.
El propósito de la Inteligencia Artificial es equipar a las Computadoras con "Inteligencia
Humana" y con la capacidad de razonar para encontrar soluciones. Otro factor fundamental del
diseño, la capacidad de la Computadora para reconocer patrones y secuencias de
procesamiento que haya encontrado previamente, (programación Heurística) que permita a la
Computadora recordar resultados previos e incluirlos en el procesamiento, en esencia, la
Computadora aprenderá a partir de sus propias experiencias usará sus Datos originales para
obtener la respuesta por medio del razonamiento y conservará esos resultados para
posteriores tareas de procesamiento y toma de decisiones. El conocimiento recién adquirido le
servirá como base para la próxima serie de soluciones.
Características Principales











Mayor velocidad.
Mayor miniaturización de los elementos.
Aumenta la capacidad de memoria.
Multiprocesador (Procesadores interconectados).
Lenguaje Natural.
Lenguajes de programación: PROGOL (Programming Logic) y LISP (List Processing).
Máquinas activadas por la voz que pueden responder a palabras habladas en diversas
lenguas y dialectos.
Capacidad de traducción entre lenguajes que permitirá la traducción instantánea de
lenguajes hablados y escritos.
Elaboración inteligente del saber y número tratamiento de datos.
Características de procesamiento similares a las secuencias de procesamiento
Humano.
La Inteligencia Artificial recoge en su seno los siguientes aspectos fundamentales:
A. Sistemas Expertos
Un sistema experto no es una Biblioteca (que aporta información), si no un consejero o
especialista en una materia (de ahí que aporte saber, consejo experimentado).
Un sistema experto es un sofisticado programa de computadora, posee en su memoria
y en su estructura una amplia cantidad de saber y, sobre todo, de estrategias para
depurarlo y ofrecerlo según los requerimientos, convirtiendo a el sistema en un
especialista que está programado.
Duplica la forma de pensar de expertos reconocidos en los campos de la medicina,
estrategia militar, exploración petrolera, etc... Se programa a la computadora para
reaccionar en la misma forma en que lo harían expertos, hacia las mismas preguntas,
sacaba las mismas conclusiones iniciales, verificaba de la misma manera la exactitud
de los resultados y redondeaba las ideas dentro de principios bien definidos.
B. Lenguaje natural
Consiste en que las computadoras (y sus aplicaciones en robótica) puedan
comunicarse con las personas sin ninguna dificultad de comprensión, ya sea oralmente
o por escrito: hablar con las máquinas y que éstas entiendan nuestra lengua y también
que se hagan entender en nuestra lengua.
C. Robotica
Ciencia que se ocupa del estudio, desarrollo y aplicaciones de los robots. Los Robots
son dispositivos compuestos de sensores que reciben Datos de Entrada y que están
conectados a la Computadora. Esta recibe la información de entrada y ordena al Robot
que efectúe una determinada acción y así sucesivamente.
Las finalidades de la construcción de Robots radican principalmente en su intervención
en procesos de fabricación. ejemplo: pintar en spray, soldar carrocerías de autos,
trasladar materiales, etc...
D. Reconocimiento De La Voz
Las aplicaciones de reconocimiento de la voz tienen como objetivo la captura, por parte de una
computadora, de la voz humana, bien para el tratamiento del lenguaje natural o para cualquier
otro tipo de función.
http://www.monografias.com/trabajos11/hisco/hisco.shtml
I.
¿QUE ES LA INTELIGENCIA ARTIFICIAL?
Podríamos definir la IA como una disciplina tecnológica que tiene por objeto el
diseño y la construcción de máquinas y programas capaces de realizar
complejas con pericia igual o mayor que la de un ser humano. Teniendo en
cuenta que aquellas tareas que parecen más simples, por ejemplo, hablar, ver,
escuchar, son precisamente las más complejas de realizar.
El computador es una poderosa herramienta por su capacidad para representar
cualquier sistema discreto de símbolos físicos. Pero la meta final no es para esta
"ciencia cognoscitiva" el computador o sus programas, sino el estudio de la
conducta inteligente y, en particular, de la conducta humana.
Este es el motivo por el cual la IA enlaza con tantas otras ciencias. Así, en el
estudio de la conducta humana intervienen ciencias naturales como la
neurofísiología y ciencias humanas como la psicología; en el estudio de los
procesos de aprendizaje, la pedagogía; en otros aspectos importantes, como el
reconocimiento del lenguaje natural, la lingüística; y en la realización práctica
de los modelos, la informática y en todo su entorno.
Aún cuando la IA es un campo relativamente joven y no existen definiciones
estrictas sobre lo que es o representa, he aquí como la definen algunos
expertos:
1. Para M. Minsky profesor del MIT, "la IA es la ciencia de hacer máquinas
que hacen cosas que realizadas por el hombre requieren el uso de
inteligencia".
2. No obstante, P.H. Winston director del Laboratorio de IA del MIT escribe,
" El objetivo de la IA se puede definir como conseguir ordenadores más
útiles para comprender los principios que hacen posible la inteligencia".
3. N. Nilsson jefe del Departamento de Ciencia de Ordenadores de la
Universidad de Stanford dice: "El campo de la IA tiene su principal
contenido en aquellos procesos comunes que reúnen percepción y
conocimiento, esperando que el proceso sea comprendido y estudiado
científicamente".
4. Tanto B.G. Buchanan (profesor adjunto e investigador de ciencia de
ordenadores) como E.A. Feigenbaun (investigador principal del proyecto
de investigación sobre Heurística), ambos de la Universidad de Stanford,
escriben "la investigación sobre IA es la parte de la ciencia de
computadores que investiga procesos simbólicos, razonamientos no
algorítmicos y representaciones simbólicas de conocimiento usados en
máquinas inteligentes".
Actualmente existen dos tendencias en cuanto al desarrollo de sistemas de IA:
los sistemas expertos y las redes neuronales. Los sistemas expertos intentan
reproducir el razonamiento humano de forma simbólica. Las redes neuronales
lo hacen desde una perspectiva más biológica (recrean la estructura de un
cerebro humano mediante algoritmos genéticos). A pesar de la complejidad de
ambos sistemas los resultados distan mucho de un auténtico pensamiento
inteligente.
Muchos científicos se muestran escépticos acerca de la posibilidad de que
alguna vez pueda desarrollarse una verdadera IA. El funcionamiento de la
mente humana todavía no ha llegado a conocerse en profundidad y, en
consecuencia, el diseño informático seguirá siendo esencialmente incapaz de
reproducir esos procesos desconocidos y complejos.
I.
EVOLUCION HISTORICA
Prehistoria de la IA
Así como de alguna forma los soportes mecánicos para la automatización de
cálculos aritméticos se sitúan en la prehistoria de los computadores, la
prehistoria de la inteligencia artificial abarca desde los primeros tiempos de
nuestra civilización hasta mediados del siglo veinte. En este período se
producen hechos que podemos agrupar en dos líneas: Una de ellas,
directamente relacionada con al construcción de autómatas que simulaban
desde el punto de vista externo el comportamiento humano o animal, y que
solían funcionar en ayuda de su amo. La otra línea, referente a la información y
automatización del razonamiento lógico y matemático.
En relación con los autómatas, siempre se ha relacionado la inteligencia con los
aparatos mecánicos complejos. Los hombres, intuitivamente, han comparado la
complejidad del funcionamiento de una máquina con su propia vida mental.
La tradición judía creó el mito del "golem", figura humanoide hecha de arcilla a
la que un rabino podía insuflar vida propia, convirtiéndola en un perfecto
criado. Sin embargo, se requería la intervención divina para conseguir estos
espectaculares resultados.
Al llegar el relacionista siglo XVIII, el siglo de los autómatas por antonomasia,
las cosas fueron muy diferentes. Como es sabido, Descartes había defendido la
tesis del "animal-máquina": los seres vivos, salvo el hombre, son meros
mecanismos.
El escritor Capek difunde en 1920 una palabra destinada a tener gran éxito:
"robot". En su obra "RUR" aparecen unos seres creados para realizar las tareas
que el hombre no quiere hacer, que acaban siendo más poderosos que el
mismo hombre, llegando a poner en peligro su existencia.
Hasta la llegada de los ordenadores electrónicos no dispusieron los científicos y
técnicos de una herramienta que permitiera la ejecución de tareas más
complejas por parte de dispositivos mecánicos; que hiciera posible, por así
decir, la construcción de golems y robots.
La automatización del conocimiento: Al llegar al siglo XIX, los matemáticos
sienten por su parte la necesidad de abandonar la institución como fundamento
de su ciencia y buscar para su razonamiento más sólidas bases. La aparición de
las paradojas lleva al desarrollo de los sistemas formales y de lógica
matemática. Las escuelas de Rusell o de Hilbert reducen el razonamiento a la
manipulación abstracta de cadenas de símbolos.
Las teorías de la computabilidad y de los autómatas proporcionaron el vínculo
entre la formalización del razonamiento y las máquinas que estaban a punto de
surgir tras la Segunda Guerra Mundial. En este ambiente, no es extraño que la
aparición de las primeras máquinas electrónicas de computo fuera seguida
inmediatamente por los intentos de aplicarlas a la que hoy llamamos IA.
Un último elemento importante es la cibernética. Esta influyó en muchos
campos debido a su naturaleza fundamentalmente interdisciplinaria, ligado
entre sí la fisiología neuronal. Las ideas de los creadores de la cibernética
llegaron a ser parte del espíritu del tiempo, e influyeron fuertemente en los
primeros investigadores de la IA.
El nacimiento de la IA
El fracaso de la mayoría de los problemas que intentaban resolver eran
demasiado complicados, tanto teórica como tecnológicamente. La lógica teórica
fue considerada como el primer programa de IA y usada para resolver
problemas de búsqueda heurística.
Durante el decenio de 1950 se celebraron congresos, proliferaron los grupos de
investigación y en 1954 uno de ellos afirmó haber creado un programa que
traducía del ruso al inglés. La verdad es que los resultados prácticos fueron
descorazonadoramente escasos.
De todas formas, el resultado más espectacular de este período fue el
programa de Samuel para Jugar a las damas, que se presentó en 1961 y era
capaz de aprender de su experiencia, es decir, tener en cuenta sus errores y
éxitos pasados, para determinar sus jugadas en la partida posterior.
Los años difíciles
Tales habían sido las expectativas levantadas por la IA, y tantos sus fracasos,
que el desánimo sucedió al optimismo inicial. El mundo exterior se desentendió
de los trabajos de investigación, y la financiación de muchos proyectos se volvió
problemática, tanto en América como en Europa. No obstante, la IA se fue
consolidando y, aprendiendo de sus fracasos, buscó nuevos enfoques para los
viejos problemas.
En el año 1964 se publicó una tesis doctoral sobre el sistema STUDENT, que es
un programa de lenguaje natural que comprende y resuelve problemas
elevados de álgebra.
Es en 1966 cuando se publica, en Comunicaciones de la Asociación para
Máquinas Calculadoras, un programa de ordenador para el estudio de
comunicación hombre-máquina mediante lenguaje natural interactivo, ELIZA,
que fue creado como un programa de psicología que simula respuestas de un
terapista en dialogo interactivo con un paciente. Las personas que dialogaban
con ELIZA creían que hablaban con un psicólogo auténtico.
A partir de 1970, el énfasis se trasladó de las reglas y procedimientos generales
de deducción a la acumulación de conocimientos concretos acerca de un campo
bien delimitado en la realidad. El célebre programa SHRDLU era una parte de
un proyecto de comprensión del lenguaje natural capaz de comprender y
ejecutar correctamente órdenes dadas en inglés acerca de un "mundo de
bloques". Ello era posible porque el programa tenía todos los conocimientos
necesarios acerca de su limitado y simplificado mundo.
Los sistemas expertos alcanzaron una sorprendente efectividad a la hora de
responder a complicadas cuestiones de diagnóstico médico o prospección
minera. Esto se conseguía limitando el razonamiento a un ámbito restringido
del mundo real, acumulando en el programa una gran cantidad de
conocimientos. En esta época, una de las principales actividades fue el diseño
de sistemas expertos. La llamada Ingeniería del conocimiento fue acumulando
técnicas y herramientas para la representación, recolección y empleo de
conocimiento experto en un campo dado.
Los trabajos hasta 1973, tuvieron como herramientas básicas de trabajo los
conceptos de tiempo compartido en ordenadores y procesamiento de palabra.
La investigación más normal incluye: visón con ordenador, todas las áreas de la
robótica, sistemas expertos, lenguaje natural y arquitectura de ordenadores.
La investigación en visión artificial a través del Programa de Comprensión de
Imagen, incluye un desarrollo de la teoría de la visión y del hardware para
procesado de imágenes.
Se lanzaron ataques contra la IA basándose en la introspección, afirmó que
ciertos aspectos del pensamiento humano son esencialmente inimitables por
parte de los ordenadores, dando varias razones de apoyo a esta tesis: de una
parte, los ordenadores son máquinas discretas, mientras que el pensamiento
aparece en nuestra introspección como continuo; además, los ordenadores
carecen de "corporeidad", por lo que no pueden relacionarse como nosotros
con el espacio físico; por último, los ordenadores no comparten nuestras
experiencias, nuestro contexto humano, por lo que no pueden ser como los
seres humanos.
En cualquier caso, las controversias no desanimaron a los investigadores, que
empezaban a alcanzar resultados tangibles. En esto les ayudaba grandemente
el acelerado progreso del soporte material, con la aparición de los circuitos y el
aumento consiguiente de capacidad y potencia de cálculo. También el soporte
lógico empezaba a adaptarse a las necesidades de la IA. La aparición de
lenguajes declarativos fue un paso importante para la IA.
El AM es un programa típico de aprendizaje que define y evalúa conceptos
matemáticos con teoría de conjuntos y números.
El desarrollo actual
Las instituciones públicas y los gobiernos percibieron los grandes adelantos
que, calladamente, había realizado la IA en el decenio de los años setenta. Las
empresas y organizaciones se vieron seducidas por las posibilidades que los
sistemas expertos y la "ingeniería del conocimiento" tenían para aumentar su
eficiencia.
Por todo ello, la IA volvió a ser tema de moda, y el impulso definitivo vino de
Japón. En 1979, el Ministerio de Industria y Comercio Internacional del Japón
decidió desarrollar una nueva generación de ordenadores que cumplieran las
necesidades previsibles para la década de los noventa. Aquel mismo año se
creó un grupo de trabajo para estudiar la cuestión. En 1981 se publicaba el
informe elaborado con las contribuciones de unas 150 personas, aprobando el
gobierno japonés los créditos presupuestarios para los que se llamó el Proyecto
de la Quinta Generación de Computadores.
Los demás países respondieron con escepticismo al desafío japonés. Los
americanos, conscientes de su adelanto de varios años y de su mayor potencia
económica y científica, no parecieron muy preocupados. La firma IBM no ha
mostrado en los últimos tiempos un interés excesivo por la IA; aunque acaso
esté reconsiderando su postura.
Investigación y desarrollo en áreas de la IA
Las aplicaciones tecnológicas en las que los métodos de IA usados han
demostrado con éxito que pueden resolver complicados problemas de forma
masiva, se han desarrollado en sistemas que:
1. Permiten al usuario preguntar a una base de datos en cualquier lenguaje
que sea, mejor que un lenguaje de programación.
2. Reconocen objetos de una escena por medio de aparatos de visión.
3. Generar palabras reconocibles como humanas desde textos
computarizados.
4. Reconocen e interpretan un pequeño vocabulario de palabras humanas.
5. Resuelven problemas en una variedad de campos usando conocimientos
expertos codificados.
Los países que han apadrinado investigaciones de IA han sido: EEUU. , Japón,
Reino Unido y la CEE; y lo han llevado a cabo a través de grandes compañías y
cooperativas de riesgo y ventura, así como con universidades, para resolver
problemas ahorrando dinero.
http://www.uap.edu.pe/Fac/02/trabajos/02206/isi%2033/go1/ia.h
tml
INTRODUCCIÓN
La finalidad de la inteligencia artificial consiste en crear teorías y modelos que muestren la
organización y funcionamiento de la inteligencia. Actualmente, el mayor esfuerzo en la
búsqueda de la inteligencia artificial se centra en el desarrollo de sistemas de procesamientos
de datos que sean capaces de imitar a la inteligencia humana, realizando tareas que requieran
aprendizaje, solución de problemas y decisiones. A veces llamada inteligencia de máquina, la
inteligencia artificial o AI (Artificial Intelligence) cubre una vasta gama de teorías y prácticas.
1.1 La base de la inteligencia artificial
La inteligencia artificial se basa en dos áreas de estudio: el cuerpo humano y el ordenador
electrónico. Puesto que la meta es copiar la inteligencia humana, es necesario entenderla. Sin
embargo, a pesar de todos los progresos en Neurología y Psicología, la inteligencia del hombre
se conoce poco, exceptuando sus manifestaciones externas. Muchos estudiosos de la
inteligencia artificial se han vuelto – para obtener su modelo de inteligencia – hacia el estudio
de la Psicología cognoscitiva, que aborda la forma de percibir y pensar de los seres humanos..
Después comprueban sus teorías programando los ordenadores para simular los procesos
cognoscitivos en el modelo. Otros investigadores intentan obtener teorías generales de la
inteligencia que sean aplicables a cualquier sistema de inteligencia y no solo al del ser humano.
1.2 ¿Pueden pensar las máquinas?
En 1950 el matemático inglés Alan M. Turing publicó un ensayo que comenzaba así: "Quiero
proponer una pregunta: ¿Pueden pensar las máquinas?." Como la pregunta era demasiado
vaga (¿Qué entendemos por "pensar"?), Turing desarrolló un experimento basado en un juego
de salón en el que una persona formula a dos jugadores escondidos (un hombre y una mujer)
preguntas que le servirán para descubrir cuál de los dos es la mujer. Turing propuso sustituir
uno de los dos jugadores escondidos por una máquina inteligente capaz de conversar. Si el
examinador, que se servía de un teletipo para comunicarse, no podían distinguir cuál de los
dos jugadores era la máquina, ello evidenciaría – según Turing – que la máquina podía pensar.
En la actualidad, este experimento de Turing podría ser superado, en situaciones limitadas, por
muchos programas de ordenador estudiados para dialogar con el usuario.
Investigaciones acerca de la inteligencia artificial realizadas en la Universidad de Yale (EE.UU.)
han llevado al desarrollo de programas de ordenador mediante los cuales éstos pueden
aprender y razonar. Otros estudiosos de la inteligencia artificial están poniendo a punto
sistemas para dotar a los ordenadores de capacidad visual y auditiva. Una importante área de
investigación es la del lenguaje normal, que permite a los ordenadores comunicarse mediante
lenguaje humano en lugar de hacerlo en lenguaje de máquina. Es decir, la mayoría de los
ordenadores están programados para recibir e interpretar instrucciones de este tipo:
S#DYR=48-56, LOC=AS NOT SW, EN=RALSTON". Únicamente personas preparadas son
capaces de comunicarse eficazmente de esta forma. Pero si un ordenador programado para
gestionar la documentación de una compañía petrolífera pudiese entender la orden
dactilografiada (traducción de la anterior) "Encuéntrame toda la documentación relativa a las
perforaciones de los pozos de Arabia Saudita entre 1948 y 1956, pero únicamente la de los
pozos en que trabajó Ralston, no los de la zona surocciodental del país", muchas personas
podrían utilizarlo.
1.3 Los fines de la IA
Las primeras investigaciones acerca de la inteligencia artificial estaban principalmente dirigidas
al hallazgo de una técnica universal para la solución de problemas. Este intento a gran escala
ha sido abandonado y las investigaciones actuales están dirigidas al diseño de numerosos
programas para ordenadores capaces de imitar los procesos de toma de decisiones de
expertos, como médicos, químicos, basados en los conocimientos de especialistas en cada
materia, son ahora utilizados para diagnosticar enfermedades, identificar moléculas químicas,
localizar yacimientos de minerales e incluso diseñar sistemas de fabricación. Investigaciones
acerca de la percepción han sido aplicadas a los robots y se han diseñado algunos capaces de
"ver". La meta final consiste en crear un sistema capaz de reproducir todas las facetas de la
inteligencia humana.
2. HISTORIA Y EVOLUCIÓN DE LA INTELIGENCIA ARTIFICIAL
La Inteligencia Artificial "nació" en 1943 cuando Warren McCulloch y Walter Pitts propusieron
un modelo de neurona del cerebro humano y animal. Estas neuronas nerviosas abstractas
proporcionaron una representación simbólica de la actividad cerebral.
Más adelante, Norbert Wiener elaboró estas ideas junto con otras, dentro del mismo campo,
que se llamó "cibernética"; de aquí nacería, sobre los años 50, la Inteligencia Artificial.
Los primeros investigadores de esta innovadora ciencia, tomaron como base la neurona
formalizada de McCulloch y postulaban que:
"El cerebro es un solucionador inteligente de problemas, de modo que imitemos al cerebro".
Pero si consideramos la enorme complejidad del mismo esto es ya prácticamente imposible, ni
que mencionar que el hardware de la época ni el software estaban a la altura para realizar
semejantes proyectos.
Se comenzó a considerar el pensamiento humano como una coordinación de tareas simples
relacionadas entre sí mediante símbolos. Se llegaría a la realización de lo que ellos
consideraban como los fundamentos de la solución inteligente de problemas, pero lo difícil
estaba todavía sin empezar, unir entre sí estas actividades simples.
Es en los años 50 cuando se logra realizar un sistema que tuvo cierto éxito, se llamó el
Perceptrón de Rossenblatt. Éste era un sistema visual de reconocimiento de patrones en el
cual se asociaron esfuerzos para que se pudieran resolver una gama amplia de problemas,
pero estas energías se diluyeron enseguida.
Fue en los años 60 cuando Alan Newell y Herbert Simon, que trabajando la demostración de
teoremas y el ajedrez por ordenador logran crear un programa llamado GPS (General Problem
Solver: solucionador general de problemas). Éste era un sistema en el que el usuario definía un
entorno en función de una serie de objetos y los operadores que se podían aplicar sobre ellos.
Este programa era capaz de trabajar con las torres de Hanoi, así como con criptoaritmética y
otros problemas similares, operando, claro está, con microcosmos formalizados que
representaban los parámetros dentro de los cuales se podían resolver problemas. Lo que no
podía hacer el GPS era resolver problemas ni del mundo real, ni médicos ni tomar decisiones
importantes. El GPS manejaba reglas heurísticas (aprender a partir de sus propios
descubrimientos) que la conducían hasta el destino deseado mediante el método del ensayo y
el error.
En los años 70, un equipo de investigadores dirigido por Edward Feigenbaum comenzó a
elaborar un proyecto para resolver problemas de la vida cotidiana o que se centrara, al menos,
en problemas más concretos. Así es como nació el sistema experto.
El primer sistema experto fue el denominado Dendral, un intérprete de espectrograma de masa
construido en 1967, pero el más influyente resultaría ser el Mycin de 1974. El Mycin era capaz
de diagnosticar trastornos en la sangre y recetar la correspondiente medicación, todo un logro
en aquella época que incluso fueron utilizados en hospitales (como el Puff, variante de Mycin
de uso común en el Pacific Medical Center de San Francisco, EEUU).
Ya en los años 80, se desarrollaron lenguajes especiales para utilizar con la Inteligencia
Artificial, tales como el LISP o el PROLOG. Es en esta época cuando se desarrollan sistemas
expertos más refinados, como por el ejemplo el EURISKO. Este programa perfecciona su
propio cuerpo de reglas heurísticas automáticamente, por inducción.
Desarrollo Histórico (según Jackson, 1986)
1950-1965 Periodo "clásico"







Gestación (McColluck y Pitts, Shannon, Turing)
Inicio - reunión de Darmouth College en 1956 (Minsky, McCarthy)
Redes neuronales, robótica (Shakey)
Búsqueda en un espacio de estados, Heurísticas, LISP
Solucionador general de problemas (GPS) (Newell, Simon)
Juegos, prueba de teoremas
Limitaciones de pura búsqueda, explosión combinatoria.
1965-1975 Periodo "romántico"

Representación "general" del conocimiento.







Redes semánticas (Quillian)
Prototipos (frames) (Minsky)
Perceptrón (Minsky y Papert)
Lógica (Kowalski)
Mundo de bloques (SHDRLU) (Winograd)
Compresión de lenguaje, visión, robótica.
Dificultades de representación "general", problemas de "juguete".
1975-Hoy Periodo "moderno". Inteligencia "especifica" vs. "general"




Representación explícita del conocimiento específico del dominio.
Sistemas expertos o basados en conocimiento.
Regreso de redes neuronales (Hopfield, Rumelhart, Hinton), algoritmos genéticos
(Holland, Goldberg) Reconocimiento de voz (HMM), incertidumbre (RB, Lógica difusa),
planeación, aprendizaje. Aplicaciones "reales" (medicina, finanzas, ingeniería, exploración,
etc.).
Limitaciones: conocimiento "superficial"
Desarrollo Histórico (según Russell y Norvig, 1995):
Gestación (1943-1956):







McCullock y Pitts (1943)
Hebb (1949)
Shannon (1950)
Turing (1953)
Minsky y Edmonds (1951)
Darmouth College (1956)
McCarthy, Newell y Simon, « The Logic Theorist »
Entusiasmo y grandes expectativas (1952-1969):










Samuel - checkers (1952)
McCarthy (1958): LISP: time sharing, Programs with common sense.
Minsky y McCarthy en MIT moldearon mucho del área.
Minsky, Evans, Student, Waltz, Winston, Winograd, etc.
Trabajo en RN: Hebb, Widrow, Rosenblatt
Dosis de realidad (1966-1974):
Simon predecía que en 10 años se tendría una máquina inteligente.
Predicciones similares en traducción automática y ajedrez.
Teoría de NP- completness.
Experimentos en machine evolution (ahora algoritmos genéticos; estaban bien
fundados pero no produjeron nada.) (Friedberg, 1958)
Minsky y Papert Perceptrons (1969) (aunque irónicamente el mismo año se descubrió
backpropagation (Bryson y Ho))
Sistemas basados en conocimiento (1969-1979):

Dendral, Mycin, HPP, Prospector, Winograd, SHDRLU, Shank (no hay sintáxis),
frames, Prolog, Planner
IA como industria (1980-1988):

R1/XCON, proyecto de la quinta generación, shells y máquinas de LISP.
Regreso de redes neuronales (1986-presente):

Hopfield, Rumelhart y Hinton y descenso de los SE
Eventos recientes (1987-presente):

Cambio gradual hacia los técnicos y lejos de los rudos (implica cierto grado de madurez
y estabilidad) ej., reconocimiento de voz (HMM), incertidumbre (Bayes), planeación (Tweak),
robótica, aprendizaje (PAC), etc.
3. CARACTERÍSTICAS DE LA INTELIGENCIA ARTIFICIAL
1. Una característica fundamental que distingue a los métodos de Inteligencia Artificial de
los métodos numéricos es el uso de símbolos no matemáticos, aunque no es suficiente
para distinguirlo completamente. Otros tipos de programas como los compiladores y
sistemas de bases de datos, también procesan símbolos y no se considera que usen
técnicas de Inteligencia Artificial.
2. El comportamiento de los programas no es descrito explícitamente por el algoritmo. La
secuencia de pasos seguidos por el programa es influenciado por el problema
particular presente. El programa especifica cómo encontrar la secuencia de pasos
necesarios para resolver un problema dado (programa declarativo). En contraste con
los programas que no son de Inteligencia Artificial, que siguen un algoritmo definido,
que especifica, explícitamente, cómo encontrar las variables de salida para cualquier
variable dada de entrada (programa de procedimiento).
3. El razonamiento basado en el conocimiento, implica que estos programas incorporan
factores y relaciones del mundo real y del ámbito del conocimiento en que ellos operan.
Al contrario de los programas para propósito específico, como los de contabilidad y
cálculos científicos; los programas de Inteligencia Artificial pueden distinguir entre el
programa de razonamiento o motor de inferencia y base de conocimientos dándole la
capacidad de explicar discrepancias entre ellas.
4. Aplicabilidad a datos y problemas mal estructurados, sin las técnicas de Inteligencia
Artificial los programas no pueden trabajar con este tipo de problemas. Un ejemplo es
la resolución de conflictos en tareas orientadas a metas como en planificación, o el
diagnóstico de tareas en un sistema del mundo real: con poca información, con una
solución cercana y no necesariamente exacta.
La Inteligencia Artificial incluye varios campos de desarrollo tales como: la robótica, usada
principalmente en el campo industrial; comprensión de lenguajes y traducción; visión en
máquinas que distinguen formas y que se usan en líneas de ensamblaje; reconocimiento de
palabras y aprendizaje de máquinas; sistemas computacionales expertos.
Los sistemas expertos, que reproducen el comportamiento humano en un estrecho ámbito del
conocimiento, son programas tan variados como los que diagnostican infecciones en la sangre
e indican un tratamiento, los que interpretan datos sismológicos en exploración geológica y los
que configuran complejos equipos de alta tecnología.
Tales tareas reducen costos, reducen riesgos en la manipulación humana en áreas peligrosas,
mejoran el desempeño del personal inexperto, y mejoran el control de calidad sobre todo en el
ámbito comercial.
3.1 Programa fijo y programa modificado por el procesamiento
Existen grandes diferencias entre el funcionamiento de las máquinas y el del cerebro: algunas
son evidenciadas en el esquema bajo estas líneas. Las máquinas y el cerebro se diferencian
en muchos aspectos: el primero es ligado a la arquitectura del sistema de memoria y a la
elaboración realizada por la inteligencia natural, que influye en los programas sucesivos al ser
almacenada en la memoria que mantiene disponibles todos los hechos que se han ido
acumulando a lo largo del tiempo. Abajo a la izquierda se muestra el esquema de
funcionamiento de un sistema artificial: procesa datos que recibe del exterior y que le son
presentados ya seleccionados. Los procesa mediante un programa fijo, siempre elegido y
construido por el hombre, es decir, desde el exterior.
Este programa es sencillo comparado con los utilizados por el cerebro humano. A lo largo del
tiempo, un mismo programa que procese los mismos datos obtendrá siempre los mismos
resultados. Sin embargo, este sistema es muy veloz cuando se le piden secuencias de
operaciones. Contrariamente, el cerebro humano es capaz de procesar al mismo tiempo todas
las informaciones contenidas en una imagen, y el resultado de dicho procesamiento puede
servir para modificar el programa, que para posteriores utilizaciones será más completo. La
observación de una imagen muestra la diferencia fundamental entre el modo de procesar los
datos del cerebro humano y el de la máquina. El cerebro humano no actúa teniendo en cuenta
un programa prefijado, sino más bien uno de naturaleza variable en el tiempo; las variaciones
dependen de los resultados procedentes. De hecho, el cerebro tiene la propiedad de recordar
imágenes similares; una vez vista la figura, extrae de su memoria imágenes similares
previamente almacenadas y los resultados de los análisis realizados sobre ellas. Estos
resultados sirven para mejorar el programa según el cual sacará conclusiones aplicadas al
examen de la figura.
4. FUNCIONAMIENTO BÁSICO DE LA INTELIGENCIA ARTIFICIAL
Diferentes teorías:
1. Construir réplicas de la compleja red neuronal del cerebro humano (bottom-up).
2. Intentar imitar el comportamiento del cerebro humano con un computador (top-down).
4.1 Símbolos vs. Métodos Numéricos
El primer período de la Inteligencia Artificial, llamado sub-simbólico, data de aproximadamente
1950 a 1965. Este período utilizó representaciones numéricas (o sub-simbólicas) del
conocimiento. Aunque la mayor parte de los libros de Inteligencia Artificial enfatizan el trabajo
realizado por Rosenblatt y Widrow con redes neuronales durante este período, la realidad es
que otra importante escuela sub-simbólica data también de la misma época y estos son los
algoritmos evolutivos.
La escuela clásica dentro de la Inteligencia Artificial, utiliza representaciones simbólicas
basadas en un número finito de primitivas y de reglas para la manipulación de símbolos. El
período simbólico se considera aproximadamente comprendido entre 1962 y 1975, seguido por
un período dominado por los sistemas basados en el conocimiento de 1976 a 1988. Sin
embargo, en este segundo período las representaciones simbólicas (por ejemplo, redes
semánticas, lógica de predicados, etc.) siguieron siendo parte central de dichos sistemas.
La Programación Lógica tiene sus orígenes más cercanos en los trabajos de J. A. Robinson
que propone en 1965 una regla de inferencia a la que llama resolución, mediante la cual la
demostración de un teorema puede ser llevada a cabo de manera automática.
La resolución es una regla que se aplica sobre cierto tipo de fórmulas del Cálculo de
Predicados de Primer Orden, llamadas cláusulas y la demostración de teoremas bajo esta regla
de inferencia se lleva a cabo por reducción al absurdo.
Otros trabajos importantes de esa época que influyeron en la programación lógica, fueron los
de Loveland, Kowalski y Green, que diseña un probador de teoremas que extrae de la prueba
el valor de las variables para las cuales el teorema es válido.
Estos mecanismos de prueba fueron trabajados con mucho entusiasmo durante una época,
pero, por su ineficiencia, fueron relegados hasta el nacimiento de Prolog, que surge en 1971 en
la Universidad de Marsella, Francia.
La Lógica de Primer Orden, es uno de los formalismos más utilizados para representar
conocimiento en Inteligencia Artificial. La Lógica cuenta con un lenguaje formal mediante el
cual es posible representar fórmulas llamadas axiomas, que permiten describir fragmentos del
conocimiento y, además consta de un conjunto de reglas de inferencia que aplicadas a los
axiomas, permiten derivar nuevo conocimiento.
4.2 Alfabeto del Lenguaje de la Lógica de Primer Orden
Contiene dos tipos de símbolos:
a. Símbolos lógicos, entre los que se encuentran los símbolos de constantes
proposicionales true y false; los símbolos de operadores proposicionales para la
negación, la conjunción, la disyunción y las implicaciones (=>, <=); los símbolos de
operadores de cuantificación como el cuantificador universal; el cuantificador
existencial; y los símbolos auxiliares de escritura como corchetes [,], paréntesis (,) y
coma.
b. Símbolos no lógicos, agrupados en el conjunto de símbolos constantes; el conjunto de
símbolos de variables individuales; el conjunto de símbolos de funciones n-arias; y el
conjunto de símbolos de relaciones n-arias.
A partir de estos símbolos se construyen las expresiones válidas en el Lenguaje de Primer
Orden: los términos y las fórmulas.
Un término es cualquiera de las tres expresiones siguientes: una constante, por ejemplo, el
número "100", la palabra "alfredo" y la letra "c"; o una variable, por ejemplo, "X" o bien una
expresión de la forma "f(t1,...,tn)" donde "f" es un símbolo de función n-aria y t1,...,tn son
términos. Ejemplos de funciones son: f(100,X), padre(Y) y sucesor(X).
Las fórmulas atómicas o elementales son expresiones de la forma R(t1,...,tn) donde R es un
símbolo de relación n-aria y t1,...,tn son términos.
Ejemplos de fórmulas son:
positivo(3),not(igual(4,doble(2))), recetar(X,aspirina)<=tiene(X,fiebre), tiene(X,cefalea).
Esta última establece una regla que dice que, si X tiene fiebre y cefalea (dolor de cabeza), X
debe tomar una aspirina.
El Lenguaje de Primer Orden posee un amplio poder de expresión, los términos permiten
nombrar los objetos del universo, mientras que las fórmulas permiten afirmar o negar
propiedades de éstos o bien establecen las relaciones entre los objetos del universo.
Puede decirse que la Programación Lógica utiliza la Lógica de Primer Orden como lenguaje de
programación. Prolog es un ejemplo de lenguaje basado en la Lógica de Primer Orden y
aunque toma su nombre de este término ("PROgramming in LOGic"), no abarca toda la riqueza
de la Lógica de Primer Orden para resolver problemas, pues está restringido al uso de cierta
clase de fórmulas denominadas cláusulas definidas o cláusulas de Horn.
Un programa lógico está formado por un conjunto finito de cláusulas de programa que son
hechos o reglas. Por ejemplo:
padre(luis,miguel). hecho
padre(miguel,jose). hecho
padre(jose,juan). hecho
abuelo(X,Y):-padre(X,Z), padre(Z,Y). regla
Este programa está formado por cuatro cláusulas de programa, las tres primeras son del tipo
hecho y definen la relación padre/2 y la cuarta una regla que define la relación abuelo/2.
Nótese el uso de las variables X,Y y Z en esta cláusula, las cuales permiten definir de manera
general en Prolog la relación "ser abuelo de", pues la lectura declarativa de dicha cláusula es la
siguiente: "Para cualesquiera X,Y,Z se cumple que: X abuelo de Y, si X padre de Z y Z padre
de Y".
En Prolog es posible hacer preguntas sobre objetos y relaciones del dominio y estas preguntas
se formulan como objetivos o metas, que son evaluadas por el intérprete de Prolog utilizando
su mecanismo de inferencia interno, el cual determina si la meta a demostrar es una
consecuencia lógica del programa, aplicando reglas de deducción para obtener la respuesta.
Por ejemplo, del programa anterior, utilizando la cláusula de tipo meta ?abuelo(X,juan), para
preguntar ¿quién es el abuelo de Juan? o bien ¿quiénes son los abuelos de Juan?, es posible
deducir que Luis es abuelo de Juan, aunque implícitamente no existe en el programa ningún
hecho que así lo afirme.
En este ejemplo de análisis de oraciones, podemos observar de qué manera se analiza una
oración ingresada por el usuario y cómo el ordenador lo traduce en un lenguaje lógico de
primer orden.
En este caso la ejecución del programa, para dicha meta, arrojaría como resultado que X=luis.
El método de deducción utilizado por Prolog, para dar respuesta a los objetivos planteados, se
basa en el uso de una única regla de inferencia: el Principio de Resolución.
Los primeros trabajos de prueba automática de teoremas utilizaban la resolución, aplicada a
cláusulas cualesquiera, pero el problema de las deducciones con cláusulas generales es el
gran número de combinaciones posibles para llevar a cabo las resoluciones.
Por ello Prolog restringe el conjunto de cláusulas, lo que le permite llevar a cabo una prueba
dirigida y, en la mayoría de los casos, con un universo de posibilidades explorable en tiempo de
ejecución.
5. FUNCIONAMIENTOS GENERALES DE LA INTELIGENCIA ARTIFICIAL
5.1 Tipos de Algoritmos Utilizados
Cuando una tarea se realiza por medio de un algoritmo perfectamente definido de
almacenamiento, clasificación o cálculo, lo puede hacer un computador. Este concepto de
algoritmo, secuencial, fijo y de determinadas operaciones, es incapaz de manejar problemas
donde el camino del razonamiento es variable y donde deben afrontarse situaciones diversas
sin haber sido especificadas.
La Inteligencia Artificial hace uso de un tipo de lenguaje diferente como es el caso de LISP y
PROLOG.
En 1932, Cannon visualizó la evolución natural como un proceso de aprendizaje. Alan Turing
reconoció, en 1950, que debe haber una conexión obvia entre el aprendizaje de máquina y la
evolución, y señaló que se podrían desarrollar programas para jugar ajedrez usando esta
técnica. Campbell conjeturó en 1960 que en todos los procesos que llevan a la expansión del
conocimiento, se involucra un proceso ciego de variación y supervivencia selectiva.
Los primeros intentos de aplicar de manera formal la teoría de la evolución, a problemas
prácticos de ingeniería, apareció en las áreas de control de procesos estadísticos, aprendizaje
de máquina y optimización de funciones. Tal vez el primer intento serio de este tipo se dio en el
trabajo que realizaron Box y sus colegas en 1957, en el desarrollo de una técnica que
denominaron operación evolutiva, la cual se aplicó a una planta de manufactura, y que se
implanto sobre la base de los votos de un comité de jefes técnicos. Bajo este esquema, la
calidad del producto avanzaba a través de mutaciones aleatorias y la selección era
determinada por el comité.
Por su parte, Friedberg intentó, en 1958, hacer que un programa en lenguaje máquina se
mejorara a sí mismo, seleccionando instrucciones que se asociaran más frecuentemente con
un resultado exitoso. Aunque Friedberg nunca mencionó explícitamente estar simulando la
evolución natural, esa es la interpretación más comúnmente aceptada de su trabajo, y a pesar
de que tuvo cierto éxito evolucionando manipuladores de bits y determinando las
interconexiones de una caja negra de 1400 terminales, la comunidad de Inteligencia Artificial de
la época prestó poca atención a su trabajo. Por ejemplo, Minsky lo criticó duramente,
argumentando que una búsqueda puramente aleatoria era mucho mejor que el algoritmo de
Friedberg.
El trabajo de Bremermann, en 1958, se enfocó más a la optimización, introduciendo el
importante manejo de un valor de aptitud, y definiendo a un individuo como una cadena de
símbolos binarios (unos y ceros). Bremermann advirtió, acertadamente, que la mutación jugaba
un papel importante en la evolución, pues impedía el estancamiento en mínimos locales.
Aunque muchas de sus ideas se usan hoy en día, Bremermann cometió el error de tratar de
optimizar funciones lineales y convexas, obteniendo resultados decepcionantes, pues sus
algoritmos evolutivos tenían que ser complementados con otras heurísticas para converger en
una solución. Hoy sabemos que los algoritmos evolutivos difícilmente pueden competir con las
técnicas tradicionales de optimización en esos dominios.
Barricelli ofreció, en 1954, una de las primeras simulaciones que usaba principios evolutivos,
utilizando los mismos procedimientos generales que se usan hoy en día en la disciplina
conocida como vida artificial. Sin embargo, en este trabajo, así como el que Reed realizó
posteriormente en 1967, se concluyó que la cruza no parecía mejorar la velocidad de la
adaptación selectiva, y el operador primordial era la mutación.
Fue Fogel el que introdujo la primera técnica evolutiva que realmente funcionó más o menos
dentro de los lineamientos actuales de la computación evolutiva. Su programación evolutiva
consistía en hacer evolucionar autómatas de estados finitos por medio de mutaciones. Fogel
introdujo los importantes conceptos de población y selección, y aunque las revisiones iniciales
de su trabajo fueron favorables, algunos investigadores, como Solomonoff, enfatizaron que el
método de Fogel no debía verse en su estado actual (en 1966) como algo particularmente útil
para resolver problemas, a excepción de los más simples posibles. Solomonoff vio a la
programación evolutiva como una especie de búsqueda escalando la colina modelada
mediante autómatas, y otros investigadores como Holland, Kieras, Rada y Lenat compartieron
esa opinión.
Otra técnica evolutiva dirigida particularmente a la optimización de funciones continuas de alta
complejidad se desarrolló en Alemania, en 1965, por Rechenberg y Schwefel. Esta técnica,
llamada estrategia evolutiva, se utilizó inicialmente para resolver problemas de ingeniería que
desafiaban a los métodos de optimización tradicionales, como el gradiente conjugado, y se
basa en la modificación sistemática de un vector de números reales (representando las
variables de decisión del problema) mediante operadores probabilísticos, usando ciertos
criterios para decidir en qué dirección dirigir la búsqueda. La estrategia evolutiva utiliza como
operador principal a la mutación, y en su versión más reciente usa la cruza como operador
secundario.
Aunque el australiano Fraser propuso, desde fines de los 50, un procedimiento muy similar al
que John Holland llamó planes evolutivos a fines de los 60, es al segundo al que se le suele
atribuir la creación de la técnica que se conoce como algoritmo genético, a raíz de que Holland
publicara el libro "Adaptation in Natural and Artificial Systems" en 1975.
5.1.1 Algoritmo Genético
La principal diferencia del algoritmo genético con las técnicas antes mencionadas, es que
utiliza la cruza como operador principal y a la mutación como operador secundario (e incluso
opcional). El algoritmo genético, al igual que las redes neuronales, funciona como una caja
negra que recibe ciertas entradas y produce (tras una cantidad de tiempo indeterminada) las
salidas deseadas. Sin embargo, a diferencia de éstas, los algoritmos genéticos no necesitan
entrenarse con ejemplos de ningún tipo, sino que son capaces de generar sus propios
ejemplos y contraejemplos que guíen la evolución a partir de poblaciones iniciales totalmente
aleatorias.
Los mecanismos de selección del más apto y de reproducción sexual del algoritmo genético,
son los encargados de preservar las características más adecuadas de cada individuo a fin de
hacer converger a la población en soluciones óptimas.
Los algoritmos genéticos se distinguen también por no quedar atrapados fácilmente en
mínimos locales, como la mayor parte de las técnicas de búsqueda clásicas, además de usar
operadores probabilísticos más robustos que los operadores determinísticos, que las otras
técnicas suelen usar.
No obstante, siendo una heurística, tampoco pueden garantizar encontrar siempre la solución
óptima, si bien la experiencia acumulada hasta la fecha parece demostrar que, cuando se
utilizan apropiadamente, pueden proporcionar soluciones muy aceptables y, en la mayoría de
los casos, superiores a las encontradas con otras técnicas de búsqueda y optimización.
Aunque aún atacados por algunos sectores de la comunidad de Inteligencia Artificial, los
algoritmos genéticos, al igual que las redes neuronales, se han ido ganando poco a poco, y
sobre la base de la efectividad de sus resultados en aplicaciones prácticas, el reconocimiento
de los investigadores como una técnica efectiva en problemas de gran complejidad, como lo
demuestra un número creciente de conferencias y publicaciones especializadas alrededor del
mundo, en los últimos años.
5.2 Sistemas Basados en Conocimiento
Los métodos generales desarrollados para la resolución de problemas y técnicas de búsqueda
al inicio de la era de la Inteligencia Artificial demostraron no ser suficientes para resolver los
problemas orientados a las aplicaciones, ni fueron capaces de satisfacer los difíciles
requerimientos de la investigación.
A este conjunto de métodos, procedimientos y técnicas, se lo conoce como Inteligencia
Artificial Débil. La principal conclusión que se derivó de este trabajo inicial fue que los
problemas difíciles sólo podrían ser resueltos con la ayuda del conocimiento específico acerca
del dominio del problema.
La aplicación de estas ideas dio lugar al desarrollo de los denominados Sistemas Basados en
Conocimiento (Knowledge Based Systems) y al aparecimiento de la Ingeniería Cognoscitiva,
como una rama de la Inteligencia Artificial, que estudia los sistemas basados en el
conocimiento. La definición de un sistema basado en conocimiento puede ser la siguiente:
Componentes: software de interfaz, base de datos, programa computacional.
Una relativamente nueva categoría de sistemas de información orientada al servicio es el
sistema experto, llamado así porque su base de datos guarda una descripción de habilidades
en la toma de decisiones de experiencias humanas en un estrecho dominio de procedimientos,
tales como interpretación médica de imagen, impuestos, diseño de piping, configuración de
hardware en un sistema de computadores, equipamiento para reparar malfuncionamientos o,
en la preparación de cerveza.
La motivación para construir sistemas expertos es el deseo de replicar el escaso, in
estructurado y quizás el pobremente documentado conocimiento empírico de especialistas que
de este modo puede ser rápidamente usado por otros.
Un programa computacional que usa inteligencia artificial resuelve problemas en un dominio
especializado que ordinariamente requiere experiencia humana.
El primer sistema experto fue desarrollado en 1965 por Edward Feigenbaum y Joshua
Lederberg de la Universidad de Standford en California, EEUU, y se lo llamó Dendral. Fue
diseñado para analizar componentes químicos.
Dado que cada condición que puede ser encontrada puede ser descrita por una regla, los
sistemas expertos basados en reglas no pueden manejar eventos no anticipados, pero pueden
evolucionar con el uso, y permanece limitado a un estrecho dominio de problemas.
Otra variante de sistemas expertos, uno que no posee esta limitación, emplea una base de
conocimiento que consiste de descripciones estructuradas de situaciones, de problemas del
mundo real y de decisiones actualmente hechas por expertos humanos.
En medicina, por ejemplo, el registro de un paciente contiene descripciones de datos
personales, exámenes físicos y de laboratorio, diagnóstico clínico, tratamiento propuesto, y los
resultados de tales tratamientos.
Dada una gran base de datos con tales registros en una especialidad médica, el médico puede
indagar acerca de eventos análogos a los relacionados con el paciente. Esto en contraste con
el sistema que idealmente intenta reemplazar al ser humano, ya que en casos como estos sólo
podría usarse este tipo de conocimiento como una herramienta que ayuda en la toma de
decisiones.
El software requerido para este tipo de sistemas se ha ido complicando con el tiempo ya que su
desarrollo demanda tiempo, un buen equipo de programadores y un buen producto final.
Se percibe este trabajo como una tarea para el ingeniero y consiste de:






Identificación y análisis de los requerimientos del usuario.
Desarrollo de las especificaciones del sistema (software y hardware).
Diseño del software.
Implementación
Testeo
Mantenimiento
Tareas típicas para sistemas expertos involucran clasificación, diagnóstico, monitoreo, diseño,
inventario y planificación para esfuerzos especializados.
5.2.1 Niveles de conocimiento
A pesar de no disponerse de un modelo general comúnmente aceptado, existe unanimidad en
cuanto a la aprobación de tres niveles distintos de conocimientos, a los que corresponde tres
fases diferentes de estudio y sobre los que se basa, en general, la concepción de un sistema
experto. Esos niveles son el de estructuración, el conceptual y el cognoscitivo. El primero es el
que define el mecanismo que genera la certeza. Este mecanismo varía según el campo al que
se aplique el sistema experto, ya que las evidencias asociadas a cada campo no son idénticas.
La determinación del nivel de estructuración permite definir un formalismo de representación
del conocimiento así como un mecanismo adecuado de deducción. El nivel conceptual es el
que determina el conjunto de los conceptos que emplea el experto humano en la materia; cada
uno de ellos corresponde a un nudo del razonamiento del experto. Se le asocia un descriptor
que se experimenta con el formalismo correspondiente al nivel de estructuración. Finalmente,
el nivel cognoscitivo corresponde al conjunto de los conocimientos que el experto humano pone
en práctica para la resolución del problema planteado. Este conjunto de conocimientos debe
poder traducirse al lenguaje definido mediante el formalismo de representación del
conocimiento adoptado. En cuanto al desarrollo actual de la investigación en el campo de los
sistemas expertos, la primera fase corresponde al desarrollo de sistemas y programas que
traten directamente el lenguaje natural, si bien persisten todavía dos escollos importantes. Por
un lado, el problema de cómo emplear de un modo eficaz una gran cantidad de información sin
necesidad de echar mano de la combinatoria; es decir, cómo conseguir un sistema dotado de
conocimientos (metaconocimientos) que le permitan utilizar los conocimientos del sistema y
que, a su vez, le permitan deducir automáticamente nuevos conocimientos, ya que no cabe
pensar en la reunión de todos los conocimientos necesarios en casos de campos tan
sumamente vastos como el del diagnóstico en la medicina.
5.3 Sistemas Expertos
Los sistemas expertos se basan en la simulación del razonamiento humano. El razonamiento
humano tiene para ellos, un doble interés: por una parte, el del análisis del razonamiento que
seguiría un experto humano en la materia a fin de poder codificarlo mediante el empleo de un
determinado lenguaje informático; por otra, la síntesis artificial, de tipo mecánico, de los
razonamientos de manera que éstos sean semejantes a los empleados por el experto humano
en la resolución de la cuestión planteada.
Estos dos campos de interés han conducido a los investigadores que trabajan en el campo de
la inteligencia artificial (de la cual los sistemas expertos son un campo preferente) a intentar
establecer una metodología que permita verificar el intercambio con los expertos humanos y
aislar los diversos tipos de razonamiento existentes (inductivo, deductivo, formal, etc.), así
como construir los elementos necesarios para modelizarlos. Los sistemas expertos son, por lo
tanto, intermediarios entre el experto humano, que transmite sus conocimientos al sistema, y el
usuario de dicho sistema, que lo emplea para resolver los problemas que se le plantean con la
competencia de un especialista en la materia y que, además, puede adquirir una destreza
semejante a la del experto gracias a la observación del modo de actuar de la máquina. Los
sistemas expertos son, pues, simultáneamente, un sistema de ejecución y un sistema de
transmisión del conocimiento. Asimismo, los sistemas expertos se definen mediante su
arquitectura; obtienen, por lo tanto, una realidad palpable. Mientras que en las operaciones de
programación clásicas se diferencia únicamente entre el propio programa y los datos, en el
caso de los sistemas expertos se diferencian tres componentes principales. Son los siguientes:
La base de conocimientos aloja la totalidad de las informaciones específicas relativas al campo
del saber deseado. Está escrita en un lenguaje específico de representación de los
conocimientos que contiene y en el cual el experto puede definir su propio vocabulario técnico.
A la inversa de lo que sucede en los programas clásicos, en la base de conocimientos las
informaciones entran tal como llegan, ya que el orden no influye en los resultados obtenidos.
Sucede así porque cada elemento de conocimiento es comprensible por sí mismo tomado de
forma aislada y, por lo tanto, no es necesario referirse al contexto en el cual está inserto. La
información se representa, por regla general, mediante reglas de producción o redes
semánticas. Las reglas de producción constituyen el método más utilizado para construir bases
de conocimientos en los sistemas expertos. Llamadas también implicaciones lógicas, su
estructura es la siguiente: para unas ciertas causas, unos efectos; o, para determinadas
condiciones, ciertas consecuencias. Junto a cada regla, se almacena también su porcentaje en
forma de probabilidad. Éste indica, mediante un tanto por ciento, el grado de certeza de las
consecuencias que se obtienen como resultado de la aplicación de la regla de producción. En
cuanto a las redes semánticas, se trata de un método de construcción de bases de
conocimientos en el cual los conocimientos se muestran mediante un grafo en el que los
vértices representan los conceptos u objetos y las aristas indican las relaciones entre ellos.
Además el sistema dispone de la llamada base de hechos, que alberga los datos propios
correspondientes a los problemas que se desea tratar con la ayuda del sistema. Asimismo, a
pesar de ser la memoria de trabajo, la base de hechos puede desempeñar el papel de memoria
auxiliar. La memoria de trabajo memoriza todos los resultados intermedios, permitiendo
conservar el rastro de los razonamientos llevados a cabo. Puede, por eso, emplearse para
explicar el origen de las informaciones deducidas por el sistema en el transcurso de una sesión
de trabajo o para llevar a cabo la descripción del comportamiento del propio sistema experto. Al
principio del período de trabajo, la base de hechos dispone únicamente de los datos que le ha
introducido el usuario del sistema, pero, a medida que va actuando el motor de inferencias,
contiene las cadenas de inducciones y deducciones que el sistema forma al aplicar las reglas
para obtener las conclusiones buscadas.
El último elemento, el motor de inferencias, es un programa que, mediante el empleo de los
conocimientos puede resolver el problema que está especificado. Lo resuelve gracias a los
datos que contiene la base de hechos del sistema experto. Por regla general, el tipo de reglas
que forman la base de conocimientos es tal que, si A es válido, puede deducirse B como
conclusión. En este caso, la tarea que lleva a cabo el motor de inferencias es la de seleccionar,
validar y activar algunas reglas que permiten obtener finalmente la solución correspondiente al
problema planteado.
El sistema experto establecido se compone, por lo tanto, de dos tipos bien diferenciados de
elementos, los propios del campo de los expertos relacionados con el problema concreto (es
decir, la base de conocimientos y la base de hechos) y el que se puede aplicar de forma
general a una gran variedad de problemas de diversos campos (como el caso del motor de
inferencias). Sin embargo, el motor de inferencias no es un mecanismo universal de deducción,
ya que hay dos tipos diverso: los que emplean el razonamiento aproximativo (para el cual el
resultado puede ser erróneo) y aquellos que emplean un tipo de razonamiento capaz de
obtener un resultado (si llegan a él), con toda seguridad, verdadero.
5.3.1 Fases del proceso
Sin embargo, a pesar de no existir una metodología generalmente aceptada en cuanto a la
concepción de los sistemas expertos, se admite por regla general un esquema que consta de
tres fases. En la primera fase, la discusión con el experto o los expertos humanos en la cual se
intenta, por un lado, delimitar el problema a resolver y, por el otro, los modos de razonamiento
que se emplearán para su solución. La segunda fase comprende el desglose del formalismo de
expresión del conocimiento y la determinación del motor de inferencias adecuado a dicho
formalismo. Por último, la tercera etapa, corresponde a la creación de la base de conocimientos
(en colaboración con los expertos humanos), así como a la comprobación y ajuste del
funcionamiento del sistema experto mediante el empleo de ejemplos.
6. LA VIDA ARTIFICIAL
La Vida Artificial se puede considerar como la parte de la Inteligencia Artificial que pretende
reproducir los procesos y comportamientos típicos de los seres vivos. También podemos
definirla como el intento de crear vida, o algo parecido a la vida, mediante la combinación de
símbolos (datos) y procesos de símbolos (programas) independientemente del soporte físico de
estos símbolos y procesos.
Por una parte están los intentos "hardware" de emulación de vida. Por ejemplo, es posible
construir un pequeño robot con aspecto de ratón capaz de encontrar la salida de un laberinto.
Por otra parte están las simulaciones "software". Éstas tienen la ventaja de que permiten
construir un gran número de seres vivos y entornos en los que estos existen, de manera que es
más fácil estudiar comportamientos sociales.
Podemos construir los seres artificiales con el objetivo de solucionar los problemas que a
nosotros nos interesen, y que aprendan o colaboren entre ellos hasta conseguir el resultado
deseado.
De esta forma, se puede considerar la Vida Artificial (VA) como un paso más allá después de la
Programación Orientada a Objetos (POO), y sin embargo, siendo la VA un caso particular de la
POO. Es decir, si un objeto es un elemento que encapsula datos y procedimientos, una entidad
artificial es un elemento que encapsula un objetivo, unos sentidos, unas acciones y unas
creencias. A esto le podemos llamar Programación Orientada a Agentes.
En muchos campos de estudio se plantea la posibilidad de realizar simulaciones para intentar
predecir o ayudar a la toma de decisiones acerca de ciertos aspectos del mundo real. Hay dos
formas de enfocar estas simulaciones.
La primera de ellas se basa en la observación de la realidad, centrando la atención en los
aspectos "a más alto nivel", es decir, precisamente en los que se pretenden predecir o
modificar, y también en aquellos que aparentemente están más relacionados con éstos. El
cerebro humano elabora una teoría acerca de cómo todos estos aspectos varían. Esta teoría
se formaliza en fórmulas, reglas o algo parecido, y se simula en un ordenador ante diversas
condiciones iniciales. Se observa si el modelo, ante datos históricos del pasado, ofrece salidas
(resultados) que se ajustan a lo esperado según los datos históricos, y en ese caso, se utiliza
para la toma de decisiones en el futuro, ajustando continuamente el modelo según el error
obtenido. En caso de obtener resultados muy alejados de la realidad, se revisa la teoría inicial,
reescribiéndola por completo, ajustando ciertos aspectos o detallando con mayor nivel de
profundidad los que parecen ser generalizaciones excesivas.
La segunda de ellas se basa en la observación de la realidad, centrando la atención en los
aspectos "a más bajo nivel" del problema, buscando los aspectos más sencillos y a la vez con
una alta multiplicidad. Es decir, el cerebro humano identifica aquellas características sencillas
que están presentes en muchas entidades del problema. Mediante fórmulas, reglas o algo
parecido, se define un tipo genérico de entidad que admita estas características, y en un
ordenador se realiza una simulación basada en la generación de un alto número de estas
entidades capaces de interactuar entre sí, con la esperanza en que de esta interacción emerja
el comportamiento complejo que se pretende estudiar. Inicialmente los agentes genéricos se
definen tan sencillos como sea posible sin dejar de ajustarse al problema. Se observa si el
modelo, ante datos históricos del pasado, ofrece salidas (resultados) que se ajustan a lo
esperado según los datos históricos, y en ese caso, se utiliza para la toma de decisiones en el
futuro, ajustando continuamente el modelo según el error obtenido. En caso de obtener
resultados muy alejados de la realidad, se deduce que la definición del agente genérico (más
su entorno, etc.) es demasiado sencilla y se va complicando, añadiendo detalles hasta
ajustarse suficientemente a la realidad.
6.1 Cuestión Filosófica de la Vida Artificial
Para ver el gráfico seleccione la opción ¨Bajar trabajo¨ del menú superior
La Vida Artificial también nos ofrece una "visión privilegiada" de nuestra realidad. No hace falta
que las simulaciones por ordenador sean todavía más complejas, para poder tener el derecho
a preguntarnos acerca de si nuestro propio mundo no será también una "simulación dentro de
un cosmo-ordenador". De hecho, esta pregunta se ha planteado, desde tiempos remotos, de
infinidad de maneras.
Si los ordenadores son capaces de simular universos artificiales poblados por organismos que
mediante la reproducción, las mutaciones y la selección natural, evolucionan y se hacen cada
vez más inteligentes y conscientes, podríamos interpretar nuestro propio mundo como un
"superordenador" donde nosotros mismos somos los "seres artificiales" que lo habitan,
siguiendo el curso de evolución que El Programador ha deseado.
En el caso de que existiera un creador y una intencionalidad, es decir, si El Programador que
nos ha creado lo ha hecho con algún objetivo, no sería extraño que ese mismo programador
hubiera implementado mecanismos para que sus "entidades" (nosotros) no escapen a su
control. Por ejemplo, podría haber marcado límites a su movimiento (¿la velocidad de la luz?
¿la gravedad?) en su ordenador (nuestro universo) ...¿O tal vez el límite de 300.000 km/seg
corresponde con los MHz del ordenador en el que vivimos?.
Pero las limitaciones que el programador fija para controlar a sus entidades pueden no ser
suficientes. Algunos programadores de Vida Artificial quedan a menudo gratamente
sorprendidos por el inesperado comportamiento de sus pequeñas creaciones, más inteligentes
y capaces de lo que cabría esperar en un primer momento.
Además, los "bugs" (errores) en programación son probablemente una constante en todos los
universos, dimensiones y realidades posibles, así que tal vez el "programador" haya dejado
algún hueco por donde podamos colarnos; es decir, que es posible que en nuestro mundo
existan acciones, comportamientos, o razonamientos con efectos maravillosos, que están ahí,
accesibles, pero que aún nadie ha realizado, ya sea por ignorancia, mala suerte, o porque
provocan la muerte a quien llega a adquirirlos. Un ejemplo de esto último se encuentra en
"Creced y Multiplicaos", de Isaac Asimov.
6.2 Perspectivas Futuras de la Vida Artificial
Con poco más de diez años de antigüedad, la Vida Artificial se ha convertido en un punto de
referencia sólido de la ciencia actual.
En septiembre de 1987, 160 científicos en informática, física, biología y otras disciplinas se
reunieron en el Laboratorio Nacional de Los Álamos para la primera conferencia internacional
sobre Vida Artificial. En aquella conferencia se definieron los principios básicos que han
marcado la pauta desde entonces en la investigación de esta disciplina.
Un concepto básico dentro de este campo es el de comportamiento emergente. El
comportamiento emergente aparece cuando se puede generar un sistema complejo a partir de
reglas sencillas. Para que se dé este comportamiento se requiere que el sistema en cuestión
sea reiterativo, es decir, que el mismo proceso se repita de forma continua y además que las
ecuaciones matemáticas que definen el comportamiento de cada paso sean no lineales.
Por otra parte, un autómata celular consiste en un espacio n-dimensional dividido en un
conjunto de celdas, de forma que cada celda puede encontrarse en dos o más estados,
dependiendo de un conjunto de reglas que especifican el estado futuro de cada celda en
función del estado de las celdas que le rodean.
Hay dos posturas dentro de la Vida Artificial: la fuerte y la débil.
Para los que apoyan la postura débil, sus modelos son solamente representaciones simbólicas
de los síntomas biológicos naturales, modelos ciertamente muy útiles para conocer dichos
sistemas, pero sin mayores pretensiones.
Para los que defienden la versión fuerte, dicen que se puede crear vida auténtica a partir de un
programa de ordenador que reproduzca las características básicas de los seres vivos.
Desde este punto de vista, la vida se divide en vida húmeda, que es lo que todo el mundo
conoce como vida, vida seca, formada por autómatas físicamente tangibles, y vida virtual,
formada por programas de computador. Las dos últimas categorías son las que integran lo que
genéricamente se conoce como Vida Artificial.
Para defender un punto de vista tan radical, los defensores de la postura fuerte, aluden a un
conjunto de reglas que comparten las tres categorías anteriores:





La biología de lo posible: La Vida Artificial no se restringe a la vida húmeda tal como
la conocemos, sino que "se ocupa de la vida tal como podría ser". La biología ha de convertirse
en la ciencia de todas las formas de vida posibles.
Método sintético: La actitud de la Vida Artificial es típicamente sintética, a diferencia
de la biología clásica, que ha sido mayoritariamente analítica. Desde este punto de vista, se
entiende la vida como un todo integrado, en lugar de desmenuzarlo en sus más mínimas
partes.
Vida real (artificial): La Vida Artificial es tal porque son artificiales sus componentes y
son artificiales porque están construidos por el hombre. Sin embargo, el comportamiento de
tales sistemas depende de sus propias reglas y en ese sentido es tan genuino como el
comportamiento de cualquier sistema biológico natural.
Toda la vida es forma: la vida es un proceso, y es la forma de este proceso, no la
materia, lo que constituye la esencia de la vida. Es absurdo pretender que sólo es vida genuina
aquella que está basada en la química del carbono, como es el caso de la vida húmeda.
Construcción de abajo hacia arriba: la síntesis de la Vida Artificial tiene lugar mejor
por medio de un proceso de información por computador llamado programación de abajo hacia
arriba. Consiste en partir de unos pocos elementos constitutivos y unas reglas básicas, dejar
que el sistema evolucione por sí mismo y que el comportamiento emergente haga el resto.
Poco a poco el sistema se organiza espontáneamente y empieza a surgir orden donde antes
sólo había caos.
Esta clase de programación contrasta con el principio de programación en la Inteligencia
Artificial. En ella se intenta construir máquinas inteligentes hechos desde arriba hacia abajo, es
decir, desde el principio se intenta abarcar todas las posibilidades, sin dejar opción a que el
sistema improvise.
El principio de procesamiento de información en la Vida Artificial se basa en el paralelismo
masivo que ocurre en la vida real. A diferencia de los modelos de Inteligencia Artificial en los
que el procesamiento es secuencial, en la Vida Artificial es de tipo paralelo, tal y como ocurre
en la mayoría de fenómenos biológicos.
7. LAS REDES NEURONALES
Si se pudieran explicar los procesos cognitivos superiores de una manera intrínseca, es decir,
si se pudiera demostrar que los procesos mentales inteligentes que realiza el hombre se
producen a un nivel superior (o intermedio) con independencia de las capas subyacentes que
existen hasta la constitución física del ente inteligente, se demostraría que es posible crear mediante un sistema de símbolos físicos-, una estructura artificial que imite perfectamente la
mente humana mediante una arquitectura de niveles, ya que se podría construir dicho nivel
superior mediante la combinación de elementos que no necesariamente han de ser los que
forman el nivel inferior en los humanos (que por ejemplo, podemos suponer que son las
neuronas).
En cambio, si sólo se pudieran explicar los procesos cognitivos superiores mediante una
descripción al más bajo nivel (comportamiento neuronal), sólo se podría imitar la inteligencia
humana mediante la construcción de neuronas artificiales. Para ser exactos, esta afirmación
está condicionada por la certeza de la suposición (bastante común) según la cual el neuronal
es el más bajo de los niveles relevantes para la formación de los procesos cognitivos.
Arbitrariamente, se podría haber elegido otro nivel aún más bajo (moléculas, átomos). Llevado
al extremo, se podría reescribir la afirmación, sustituyendo "neuronas" por "la más pequeña
partícula de nuestro universo", si este fuera discreto (no infinitamente divisible).
Las denominaciones "nivel superior" y "nivel inferior" son arbitrarias en cuanto a que parece
que se puede encontrar con facilidad un nivel que esté aún más bajo que el que hemos
llamado "nivel inferior" -el nivel atómico es inferior al neuronal- y lo simétrico respecto al nivel
superior -la conciencia colectiva es superior a la individual-. La existencia de una conciencia
colectiva capaz de comunicarse a un nivel superior al del individuo parece evidente en los
estudios sobre el comportamiento de algunos insectos, siempre que hagamos el esfuerzo de
no interpretar el término "conciencia colectiva" desde nuestro punto de vista subjetivo como
individuos. ¿Cómo conseguir esto? No es difícil, si se usa una analogía bajando un nivel.
Imaginemos dos células (concretamente, dos neuronas) de nuestro cuerpo charlando
amistosamente acerca de la posibilidad de que el conjunto de células forme una "conciencia
colectiva". Las neuronas podrían hablar sobre esta "conciencia colectiva", ponerla en duda o
intentar argumentar su existencia, pero difícilmente podrían llegar a comprenderla, no puede
ser un concepto familiar para ellas.
Una Red Neuronal es usada para aprender patrones y relaciones de datos. Los datos pueden
ser el resultado del esfuerzo de una investigación de mercado, el resultado de un proceso de
producción dando variación a las condiciones de operación, o las decisiones de un prestamista
dado un conjunto de aplicaciones de préstamo, utilizando una Red Neuronal es una salida
considerable parecida a un enfoque tradicional. Tradicionalmente un programador o un analista
especifican "códigos" de cada faceta del problema en orden para la computadora pueda
"entender" la situación. Redes Neuronales no requieren el código explícito del problema. Por
ejemplo, para generar un modelo que lleve acabo un pronóstico de ventas, una Red Neuronal
solo necesita que le den los datos sin preparar relacionados con el problema. Los datos sin
preparar podrían consistir en: historias de ventas pasadas, precios, precios de la competencia y
otras variables económicas. La Red Neuronal escoge entre esta información y produce un
acuerdo de los factores que influyen en las ventas. El modelo puede entonces ser llamado para
dar una predicción de ventas futuras dado un pronóstico de los factores claves. Estos
adelantos son debidos a la creación de reglas de aprendizaje de una Red Neuronal, que son
los algoritmos usados para "aprender" las relaciones de los datos. Las reglas de aprendizaje
habilitan a la red para "ganar conocimiento" desde datos disponibles y aplica ese conocimiento
para asistir al gerente para hacer decisiones claves.
Aunque su estructura varía según el tipo de red, lo más usual es que haya tres capas de
neuronas, una de entrada, que recoge los estímulos, otra oculta, que procesa la información, y
otra de salida, que ejecuta la respuesta. La figura siguiente muestra esta disposición:
7.1 Red Neuronal Artificial
Las Redes Neuronales Artificiales son el resultado de investigaciones académicas que utilizan
fórmulas matemáticas para modelar operaciones del sistema nervioso, es decir, es un modelo
de procesamiento de información que es inspirado por el modo de un sistema nervioso
biológico, tal como el cerebro procesa información. El elemento clave de este paradigma es la
estructura original del sistema de procesamiento de información. Este se compone de un gran
número de elementos interconectados procesando y trabajando en armonía para resolver
problemas específicos. Las Redes Neuronales Artificiales, como la gente, aprenden con
ejemplos. Una Red Neuronal Artificial es configurada para una aplicación específica, tal como
el reconocimiento de patrones o clasificación de datos, a través de un proceso de aprendizaje.
Aprender en sistemas biológicos implica ajustes para las conexiones sinópticas que existen
entre las neuronas. Esto lo hace una Red Neuronal Artificial.
También, las Redes Neuronales Artificiales se han aplicado a un gran número de problemas
reales de complejidad considerable. Su ventaja más importante está en resolver problemas que
son demasiado complejos para tecnologías convencionales, problemas que no tienen un
algoritmo de solución o que su algoritmo de solución es muy difícil de encontrar. En general, a
causa de su abstracción del cerebro biológico, las Redes Neuronales Artificiales son aptas para
resolver problemas que la gente puede resolver, pero las computadoras no pueden. Estos
problemas incluyen reconocimiento de patrones y pronósticos (los cuales requieren el
reconocimiento de tendencias de datos).
El hecho de suponer que el comportamiento inteligente en el hombre se produce a un nivel
superior con independencia de los niveles inferiores está íntimamente relacionado con el
debate entre holismo o creencia en que "el todo es más que la suma de sus partes" y el
reduccionismo, o creencia en que "un todo puede ser comprendido completamente si se
entienden sus partes, y la naturaleza de su suma."
Los esfuerzos desarrollados en Arquitecturas Generales de Inteligencia son puramente
reduccionistas. Por el contrario, el holismo subyacente en los modelos conexionistas como las
Redes Neuronales Artificiales, sugiere el aspecto de la interdependencia entre algunos niveles,
o lo que es lo mismo, la imposibilidad de sustituir un nivel (las conexiones neuronales, como
sistema sub-simbólico) por otro que realice sus mismas funciones (sistema simbólico). Sin
embargo, también las Redes Neuronales Artificiales pueden ser consideradas reduccionistas si
tenemos en cuenta otros niveles aún más bajos.
7.2 Modelos de Redes Neuronales
Los modelos de redes neuronales también conocidos como modelos de procesamiento
distribuido en paralelo ó sistemas neuromorfológicos tienen su principio de funcionamiento
basado en la interconexión de alta densidad de elementos sencillos de cómputo. La estructura
de las redes neuronales ha sido desarrollada de acuerdo a nuestra comprensión del sistema
nervioso biológico. Estos modelos de redes han tenido gran auge en áreas como el
reconocimiento de imágenes y sonido, ya que dichas redes procesan simultáneamente varias
hipótesis a través de redes paralelas compuestas de elementos de cómputo conectados a las
variables ponderables. Los elementos de cómputo o nodos utilizados en las redes neuronales
son generalmente no lineales y analógicos, además están caracterizados por un umbral y offset
interno. Algunas de las no linealidades más comunes son: los limitadores lógicos del umbral y
las no linealidades sigmoidales. Los nodos más complejos incluyen temporal y otras
operaciones matemáticas más complejas. Los módulos de redes neuronales son especificados
de acuerdo a la topología de la red, las características de los nodos y las reglas de
entrenamiento o aprendizaje. Estas reglas indican un grupo inicial de valores y como deben
modificarse esos valores para obtener un mejor resultado. La mayoría de los algoritmos de las
redes neuronales realizan lecturas de los valores a analizar a lo largo del tiempo para obtener
bases en resultados actuales, valores más confiables. Esto con el propósito que el aprendizaje
y la adaptación sean lo más óptimo posible. Para este fin se utilizan clasificadores, los cuales
tienen un grado de robustez determinado por la capacidad de adaptabilidad de la red, mayor
que los clasificadores estadísticos. Mediante la utilización de las redes neuronales constituidas
por una gran cantidad de circuitos simples de procesamiento operando en paralelo se ha
logrado obtener la capacidad de procesamiento requerida hoy en día.
7.3 Granja de Evolución
La evolución en la naturaleza fue la clave para mejorar los organismos y desarrollar la
inteligencia. Michael Dyer, investigador de Inteligencia Artificial de la Universidad de California,
apostó a las características evolutivas de las redes neuronales y diseñó Bio-Land.
Bio-Land es una granja virtual donde vive una población de criaturas basadas en redes
neuronales.
Los biots pueden usar sus sentidos de la vista, el oído e incluso el olfato y tacto para encontrar
comida y localizar parejas. Los biots cazan en manadas, traen comida a su prole y se apiñan
buscando calor.
Lo que su creador quiere que hagan es hablar entre ellos, con la esperanza de que desarrollen
evolutivamente un lenguaje primitivo.
A partir de ese lenguaje, con el tiempo podrían surgir niveles más altos de pensamiento.
8. APLICACIONES Y PROYECTOS
8.1 Principales Ramas de la IA

Lógica difusa: Consiste en una nueva forma de entender la lógica, en la que los
enunciados dejan de ser cien por cien verdaderos o falsos, para tomar valores fraccionarios. En


el campo concreto de la IA esto supone evitar las paradojas lógicas que pueden bloquear el
sistema, y hacer que el ajuste entre las variables sea más fino.
Robótica: Hoy por hoy, el mayor problema consiste en conseguir que la supervivencia
de las máquinas sea superior a unas horas. Por otra parte, su coeficiente intelectual sólo les
permite realizar tareas simples, como salvar obstáculos y recoger objetos del suelo.
Realidad virtual: En los últimos tiempos han surgido sistemas de realidad virtual, que
simulan comportamiento inteligente, a un coste mucho menor que el de los robots. Como
ejemplo está Homer, un submarino virtual creado por Steven A. Vere, del Centro de Inteligencia
Artificial de Lockheed, en Palo Alto. Homer es capaz de evitar obstáculos en su deambular por
el ciberespacio e informar sobre lo que ve. Como conclusión, todavía no disponemos de
respuesta a la pregunta con que empezamos el artículo. Cuanto más se complican los
sistemas de IA, más compleja se nos revela la capacidad intelectual humana. Del mismo modo
que el agua se alejaba del sediento Tántalo, cada vez que éste se aproximaba a ella, también
el sueño de un sistema artificial inteligente se ve más lejano cuanto más nos acercamos a él.
En cualquier caso esta complejidad ha de tener un límite por fuerza, por lo que es de esperar
que antes o después la IA alcanzará sus máximos objetivos.
8.2 Jugadores inteligentes
Esta rama dentro de la IA es la de los programas jugadores de juegos inteligentes. En una
fecha tan temprana como 1946, Arthur Samuel desarrolló un programa que no sólo jugaba a
las damas, sino que mejoraba su juego a medida que jugaba.
La historia de este programa no tiene desperdicio, en la medida que su autor protagonizó una
de las versiones más chocantes del cuento de la lechera. Por aquellos años, Samuel deseaba
que su facultad adquiriese un ordenador, pero su presupuesto resultaba insuficiente. Ni corto ni
perezoso elaboró el siguiente plan: construiría un pequeño ordenador, y a partir de éste un
programa capaz de jugar a las damas, que vencería sin dificultad el campeonato mundial de
damas; la publicidad que obtendría sería suficiente como para garantizarle una subvención
estatal que le permitiría la adquisición de su querido ordenador. Si Samuel escogió las damas
fue porque lo consideró un juego sencillo de programar. Al fin y al cabo, hay un único tipo de
ficha, que se mueve de la misma forma. Pese a esta aparente simplicidad, la gran cantidad de
estrategias que se pueden plantear a partir de una posición dada complican notablemente el
problema. El resultado de su sueño fue más que previsible: cuando llegó la fecha del
campeonato no estaba concluido ni el ordenador ni el programa.
Para ver el gráfico seleccione la opción ¨Bajar trabajo¨ del menú superior
Tres años después, el investigador Claude Shannon, famoso por su teoría de la información,
escribía la primera obra sobre programación del ajedrez. De esta manera, se daba el
pistoletazo de salida a una carrera cuya máxima meta era la creación de un programa que
conquistara el título mundial de ajedrez; cosa que aún dista mucho de conseguirse.
¿Cómo funciona un programa capaz de jugar a un juego de inteligencia, tal como el ajedrez o
las damas?
La palabra clave es programación en árbol. La figura 1 muestra una hipotética situación. Las
letras A, B y C representan sendas fichas. Para cada una tenemos uno o varios movimientos,
que a su vez provocarán movimientos en las piezas de nuestro contrincante. Los números
representan la puntuación de cada jugada. Para calcular la jugada óptima se toman cada una
de las jugadas propias y a su puntuación se le resta la de la jugada del oponente. Por ejemplo,
una jugada de la pieza A nos reporta 9 puntos, pero a continuación la del contrincante le puede
suponer 11 puntos, de forma que quedan -2 puntos globales. Por otra parte, una jugada de la
figura C nos supone sólo 2 puntos, pero al restarle los -2 de la jugada más óptima del
contrincante nos da una ganancia neta de 4 puntos. De esta manera, se puede encontrar la
mejor jugada en aquella que proporciona una puntuación neta mayor.
Con sólo dos niveles de profundización se tiene un nivel de juego comparable al de un niño de
seis años. Ampliando el número de niveles se puede ir mejorando el nivel de juego, a costa de
un mayor tiempo de cómputo. Por ello, se han desarrollado técnicas para "podar" el árbol, y
eliminar aquellas ramas que a priori se puede saber que no van a dar puntuaciones altas.
8.3 Programas que razonan
Esta rama es la encargada de desarrollar sistemas con capacidad real o aparente de dialogar
de forma inteligente y, consecuentemente, de razonar. Desde siempre ha supuesto la máxima
aspiración de los investigadores en este campo (como botón de muestra se puede repasar la
definición de ordenador de quinta generación en la introducción al artículo), y coincide con la
idea de que la mayor parte de la gente tiene de un sistema inteligente. Sin embargo, es
importante destacar que, fieles a la filosofía del test de Turing, los investigadores no se
preocupan en nuestros días por la cuestión de si tal sistema comprende realmente lo que se le
dice o si tiene conciencia de sí mismo, sino de que nosotros podamos comprender lo que él
nos dice.
Dentro de este apartado, destacan tres programas que han supuesto auténticos hitos en el
proceso de desarrollo de la IA. Por orden cronológico son el programa Eliza, el programa
Shrdlu y el programa Racter.
Para ver el gráfico seleccione la opción ¨Bajar trabajo¨ del menú superior
ELIZA
Corría el año de 1966 cuando Joseph Weizenbaun, a la sazón profesor de informática del MIT,
daba los últimos toques a su programa Eliza. Durante dos años había trabajado en él, con el
único objetivo de crear un programa que parodiase a los psiquiatras de la escuela de Carl
Rogers. Estos psiquiatras son los que aparecen con frecuencia en las películas
norteamericanas, y que practican una terapia basada en el diálogo de libre asociación de los
pacientes, propio del psicoanálisis no directivo.
El programa simula una sesión con un psiquiatra rogeliano; al ejecutarlo, tenemos que
introducir unas frases, a las que el programa tiene que dar respuesta. Para lo cual busca en la
cadena alfanumérica que se le introduce algunas frases clave, para las que tiene una batería
de respuestas estándar, de las que selecciona una al azar. Caso de no encontrar una frase
clave busca una palabra clave y, en función de ésta, vuelve a seleccionar al azar una de las
respuestas que tiene programadas. Si tampoco encontrase una palabra clave, mira a ver si
tiene almacenada una frase dicha con anterioridad por el usuario, y en función de ésta
construye su respuesta.
Por ejemplo, supongamos que en un momento dado se introduce la frase "Mi mujer me odia".
El programa toma la frase que viene a continuación de Mi y la almacena tras intercambiar las
personas de pronombres y posesivos. Cuando más adelante el programa no encuentre una
frase o palabra clave puede recuperar la frase almacenada y contestar algo así como: "¿Tiene
eso que ver con el hecho de que su mujer le odia?". Finalmente, si tampoco tiene almacenada
ninguna frase el programa, selecciona al azar una frase del tipo "Eso es muy interesante" u
otras similares, para mantener la conversación.
SHRDLU
Creado en 1971 por Terry Winograd, un investigador del MIT. A diferencia de Eliza, Shrdlu no
se limita a seleccionar respuestas al azar ante cada entrada, sino que lleva a cabo un auténtico
proceso de razonamiento. En el mundo de Shrdlu existen tan sólo las figuras geométricas de
diferentes colores, figuras que se pueden disponer con distinto orden. Cuando el usuario da las
órdenes oportunas mediante un lenguaje coloquial, el programa lleva a cabo las
transformaciones que se le piden, e informa de la nueva situación creada.
Fragmento de conversación entre un usuario y el programa:
Humano: ¿Quieres, por favor, apilar los dos bloques rojos, por un lado, y un cubo verde o una
pirámide, por otro?
Shrdlu: De acuerdo
Humano: ¿Qué cubo descansa sobre la mesa?
Shrdlu: El cubo grande verde que soporta a la pirámide roja
Humano: ¿Hay algún bloque grande detrás de una pirámide?
Shrdlu: Sí, hay tres: uno grande rojo, un cubo grande verde y el azul
Aunque el diálogo prosigue, este fragmento es suficiente para captar la neta superioridad de
este programa frente al de sus antecesores; no sólo parece comprender correctamente las
órdenes que se le dan, sino que en todo momento tiene una idea clara de las relaciones
espaciales entre los bloques que maneja. ¿Cómo consigue tal cosa? Parafraseando a
Dewdney, en el artículo comentado antes "La organización interna de Shrdlu..., está formada
por subsistemas que analizan gramaticalmente, interpretan y construyen frases, llevan a cabo
búsquedas en un diccionario, efectúan análisis semánticos y deducciones lógicas. Todos estos
subsistemas están estrechamente entretejidos, en modo sumamente estructurado, cuyo efecto
conjunto nos da la impresión de una verdadera inteligencia que analizara el mundo de bloques
depositados en el tablero".
RACTER
Creado en 1980 por Thomas Etter, un programador-analista de San Francisco y William
Chamberlain, un escritor neoyorquino. La intención de ambos era crear un programa que
crease cuentos. Posteriormente, lo modificaron para permitirle mantener conversaciones con
seres humanos, veamos un extracto de una conversación entre Racter y Chamberlain.
Racter: ¿Hemos hablado antes?
Chamberlain: No
Racter: ¿De qué sexo eres?
Chamberlain: Masculino
Racter: ¿Cuál es tu nombre completo?
Chamberlain: Bill Chamberlain
Racter: ¿Qué eres?
Chamberlain: Cronorreflectometrista
Racter: ¿De dónde eres?
Chamberlain: De la ciudad de Nueva York
Racter: Ya veo. Así que cronorreflectometrista, ¿verdad? Escucha. Gritemos juntos con
decisión. Me gusta la cautivadora música italiana. ¿Qué clase de música te gusta a ti?
Chamberlain: el jazz
Racter: El jazz está bien. ¿qué me dices de la clásica?
Chamberlain: Me gusta la música clásica
Racter: ¿Y de qué nacionalidad?
Chamberlain: También me gusta la música italiana
Racter: A mí, personalmente, Palestrina me inflama. Además de Italia, otros países produjeron
en el siglo XVII embelesados músicos. Sewall fue un importante y furibundo maestro del
Renacimiento. América fue su nación. Yo saco de la música amoroso placer.
El diálogo prosigue por similares derroteros, mezclando sin pudor Bach con el rodaballo y las
lechugas. Al comparar este diálogo con el que yo mismo he mantenido con el programa Doctor
se aprecia una diferencia; el diálogo de Racter es mucho más rico y fluido que el de Doctor, si
bien es bastante más disparatado.
En el test de Turing Racter podría pasar por un humano con una marcada tendencia a la
divagación. ¿Cuál es el funcionamiento de Racter? Al principio de la conversación hace una
serie de preguntas a su interlocutor, cuyas respuestas va almacenando en una base de datos.
En cuanto juzga que dispone de suficiente información empieza a elaborar frases, en las que
combina los elementos de que dispone en su memoria con aquellos que ha recibido de su
interlocutor, con lo que logra implicarlo en la conversación. Para construir las frases sigue un
mismo esquema gramatical, en el que los sustantivos, adjetivos y verbos se eligen al azar entre
una amplia variedad que pertenecen a una misma categoría, y los artículos se adecuan a la
forma gramatical correspondiente. Esto hace que las frases sean sintácticamente correctas,
pero en tanto los sustantivos, adjetivos y verbos se escogen al azar el sentido suele ser
disparatado.
8.4 Sistemas históricos y sistemas actuales
Sistemas históricos
GPS - Newell, Shaw y Simon
Perceptron - Minsky y Papert Chekers - A. Samuel
MACSYMA AM - D. Lenat
ELIZA - Weisenbaum
Shakey - SRI
SHDRLU - Winogard
MYCIN - E. Shortliffe
Prospector - Duda, Hart
Hearsay II - Erman, Hayes-Roth, Lesser, Reddy
CYC - D. Lenat, R. Guha
Sistemas actuales
PEGASUS - Hace reservas de transporte por teléfono (Zue et al. ´94)
MARVEL - Sistema experto en tiempo real que maneja la información de Voyager y ayuda a
diagnosticar fallas (Schwuttke ´92)
MYCIN - Sistema de diagnóstico de medicina interna con capacidad de explicar sus razones a
los expertos (Heckerman, 1991)
NAVLAB - Vehículo autónomo que viaja en forma automática de un extremo a otro de EEUU
(Pomerlau, 1993)
Sistema de visión que monitorea el tráfico en Paris y reconoce accidentes con los cuales llama
a servicios de emergencia (Koller, 1994)
DEEP BLUE - máquina paralela que juega ajedrez y primera en derrotar al campeón mundial
(IBM 1997)
MYCIN
El MYCIN (desarrollado entre 1972 y 1980, Universidad de Stanford) es un sistema interactivo
experto que ayudaba a los físicos en la selección de un apropiada terapia antimicrobiana para
los pacientes de los hospitales con bacteremia, meningitis e infecciones de cistitis. El sistema
diagnosticaba la causa de la infección usando el conocimiento relativo a la infección de los
microorganismos con historiales de pacientes, síntomas y los resultados de los test de
laboratorio. El sistema recomendaba un tratamiento de medicinas (tipo y dosificación) acorde a
los procedimientos seguidos por la experiencia de los físicos en las terapias.
El sistema MYCIN fue desarrollado originalmente en la consulta y diagnosis de una terapia
para infecciones. Desde el principio, en el proyecto se habían impuesto una serie de
obligaciones
- Tenía que ser funcional (esto implicaba competencia y consistencia). El área de uso era
elegido según una necesidad demostrada. (Por ejemplo, a principios de los 70 a una cuarta
parte de la población de USA se le recetaba penicilina, el 90 % de esas prescripciones eran
innecesarias).
- El programa tenía que ser diseñado con un énfasis de sus soportes de roles como una
utilidad para un físico, a pesar de reemplazar sus propios procesos de razonamiento.
- El programa debía albergar una cantidad ingente de información técnica.
- El sistema tenía que interactuar mediante diálogos, tenía que dar una explicación concreta de
su razonamiento para llegar a la solución propuesta.
- Velocidad, accesibidad y facilidad de uso.
¿Cómo de éxitoso fue MYCIN? ¿Qué nuevos conceptos de desarrollo se realizaron?
MYCIN introducía nuevas formas las cuales procedían de los mejores sistemas expertos hasta
el momento. Primero, su base de conocimiento consistía en cientos de reglas. Segundo, esas
reglas eran probabilísticas. MYCIN era lo bastante robusto como para determinar
correctamente conclusiones cuando algunas evidencias eran incompletas o incorrectas.
Tercero, MYCIN podía explicar sus propios procesos de razonamiento. El usuario (un físico)
podía preguntar de muchas formas - preguntando, porque al realizar una cuestión concreta o
como había llegado a una determinada conclusión, por ejemplo. Fue uno de los primeros
sistemas genuinamente amigables. Cuarto, y crucial, MYCIN actualmente funciona. El trabajo
que realiza supone para un humano muchos años de entrenamiento.
MYCIN se extendió la noción de base de conocimiento separadamente del motor de inferencia,
y su base de reglas y motor de inferencia fueron construidos mediante retro-chaining, o "goaldirected", estrategia de control.
¿Fue MYCIN comercialmente exitoso o se introdujo por pura rutina?
MYCIN produjo resultados de alta calidad; su forma igualaba a la de los especialistas. Aunque
MYCIN debía ser usado por físicos, hizo aparecer numerosos clones de diagnósticos médicos,
que eran utilizados rutinariamente.
¿Qué otros sistemas nacieron a partir del MYCIN?
Del MYCIN partió TEIRESAS (explicaba fácilmente los conceptos), EMYCIN (primer intérprete),
PUFF, CENTAUR, VM, GUIDON (tutorial inteligente), SACON y hasta ONCOCIN y ROGET.
GPS
Después del Teórico de Lógica, Newell y Simon llevaron a cabo juntos otro proyecto, proyecto
que concluyó en 1957. Esta vez no trataron de investigar el posible funcionamiento del cerebro
humano, sino que se apretaron a la potencia (de aquel entonces) ofrecida por los ordenadores
y las matemáticas. Así nació el GPS (General Problem Sover) [Solucionador General de
Problemas]. Se trataba de un programa, al que se le podían ofrecer pequeños problemas
(como el típico del mono que debe coger un plátano que se encuentra colgado del techo), y
este (el programa) deberá describir todos los pasos que realiza hasta conseguir su fin, es decir,
completar el problema positivamente (en este caso llegar a una altura que le permita coger el
plátano). Se puso en practica el análisis medios-fines, un principio de la retroalimentación de
Wiener llevado a un mayor nivel de abstracción. El análisis medios-fines consiste en detectar
las diferencias entre un objetivo deseado y la situación actual y reducir después esas
diferencias. También se aplicó por primera vez el Backtracking [vuelta atrás] (probar si funciona
y si no, volver atrás y probar otra cosa) que se convirtió desde aquel momento en una
herramienta básica de la I.A.
9. LA INTELIGENCIA ARTIFICIAL Y EL MUNDO
Para ver los gráficos seleccione la opción ¨Bajar trabajo¨ del menú superior
10. LA INTELIGENCIA ARTIFICIAL EN LA ARGENTINA
"Si la Argentina la impulsase, podría ganar 300 millones de dólares por año en exportaciones
gracias a la inteligencia artificia", dice Juan Chamero, ingeniero electromecánico, uno de los
disertantes en una conferencia que se realizó los primeros días de abril de este año en el
Centro Argentino de Ingenieros.
La conferencia contó con la presencia de profesores y estudiantes universitarios en ingeniería y
medicina, y psicólogos sociales, entre otros. Sirvió para explicar en qué consiste la inteligencia
artificial, que se define como "la comprensión científica de los mecanismos subyacentes al
pensamiento y comportamiento inteligente y su integración en máquinas".
En la Argentina, el área de inteligencia artificial y sus aplicaciones es incipiente, según comentó
el ingeniero Chamero. Sin embargo, enfatizó en que podría pegar un salto. "Hay más de 5.000
programadores y equipamiento actualizados. Por lo cual, están dadas las condiciones para que
se incentiven desarrollos en inteligencia artificial".
Las aplicaciones de la inteligencia artificial —que trata de conseguir que los ordenadores
simulen en cierta manera la inteligencia humana— son variadas. Por ejemplo, se usa en
robots, en sistemas de administración de conocimiento y en buscadores. En el mundo, el
mercado de la inteligencia artificial ya factura 40 mil millones de dólares al año.
Como expositores, también estuvieron los ingenieros Raimundo Osvaldo D'Aquila y Osvaldo
Aníbal Pérez Guzmán y el licenciado Alejandro de Montmollin.
Para continuar con la difusión de la inteligencia artificial, se dio un seminario que empezó en
mayo en el Centro Argentino de Ingenieros. Se desarrolló en 80 horas, incluyendo una práctica
que fue asistida por los profesores que dictaron el seminario a través de una red sobre Internet.
Los asistentes al seminario pudieron realizar las prácticas en sus propias empresas,
instituciones o estudios y con temas de aplicación local inmediata.
11. EL CINE Y LA INTELIGENCIA ARTIFICIAL
En el mundo de la ciencia-ficción, a veces no tan ciencia, a veces no tan ficción, se han tratado
con amplia gama de variedades las interrelaciones entre hombre e inteligencias artificiales
(I.A.). El cine ha copiado, imitado, e incluso fagocitado esta variedad.
El mundo del cine está lleno de referencias a la inteligencia artificial, ordenadores o máquinas
que aprenden y crecen como Hall de "2001". El superordenador de "Terminator" que adquiere
conciencia y con ella la terrorífica idea, para nosotros, de la amenaza que suponen los
hombres para su subsistencia, decisión que comparte la más estúpida de "Juegos de Guerra",
que hace tablas consigo mismo a tres en raya. Otros ordenadores de I.A. deciden enamorarse
cono en "Electrical Dreams". Algunos son menos I.A. y más textura humana y compuesto
robótico, como las tres versiones que aparecen en la saga de "Alien", el primero fiel seguidor
de las directrices que le da la compañía. El 2º más humanizado, más perfeccionado como el
mismo se califica. La 3ª, la extraña y pequeña Wynnona, que es una I.A. sentimental y un poco
enfadada.
Terminator II El día del juicio final
Para ver el gráfico seleccione la opción ¨Bajar trabajo¨ del menú superior
Uno de los favoritos, de los más impresionantes, de los más conseguidos en la historia del cine
son los replicantes de "Blade Runner", capaces de sentir emociones como el amor, el odio y el
miedo a la muerte. Y finalmente capaces de PERDONAR, amando más a la vida que a
cualquier otra cosa. Por su parte, quien no recuerda el único anhelo de Hall, que sabiendo que
va a ser destruido, solo quiere saber si soñará en la segunda parte "2010", a fin de cuentas,
desde su punto de vista es lo único que le falta para ser humano. Del mismo modo, el
autodestructivo de "Electrical Dreams" y su peculiar sentido del humor, se enamora de la rubia
estupenda (Virginia Madsen) y antepone la felicidad de ésta a la suya, y en cierto modo una
extraña amistad con su dueño.
Robocop, mente humana
y cuerpo de máquina,
¿nos quedaremos limitados a esto?
En ocasiones una nave espacial es el punto de partida. Voyager hace un largo y extraño viaje
hasta convertirse en un I.A. en "Star Treck", donde se habla de un planeta de máquinas donde
modifican al Voyager. Y en una reciente cinta, "Horizonte Final" quien tiene vida propia es
precisamente la nave.
A veces son simplemente robots, aunque aprenden y tienen hasta algo de psicosis, "mieditis" y
humor, como la sin par pareja R2D2 y su compañero C3PO de la espectacular "La Guerra de
las Galaxias".
Hay quien considera que el día, cada vez más cercano, en que estas I.A. existan, bastará con
que se cumplan las tres leyes de Asimov. La pregunta es si un I.A. con conciencia de sí mismo
no es en cierto modo un ser humano, ya que adquiere "CONCIENCIA". Quizás simplemente
queremos crear (¿qué hay de los clones de los que tanto se habla ahora?), queremos tener el
poder de un dios, creando no sólo animales sino también vida inteligente.
Como último apunte, posiblemente todo esto tiene en parte su origen en la película "Metrópolis"
primera en que aparece un I.A. y no me resisto a hacer un pequeño homenaje al primer
chistoso de las máquinas pre-I.A., Charlot en "Tiempos Modernos".
Algunos de los más olvidados son el autogenerativo de "Superman III", que tuvo un "hijo" en un
capítulo de "Expediente X", éste con mayor éxito o suerte pues sobrevive.
12. BIBLIOGRAFÍA










http://alek.pucp.edu.pe/ma_cont
http://delicias.dia.fi.upm.es
http://www.dia.fi.upm.es
http://www.fortunecity.com/skyscraper/chaos/279/principal.htm
http://go.to/inteligencia_artificial
http://www.itba.edu.ar
http://www.publispain.com/supertutoriales/matematica/inteligencia_artificial
http://www.redcientifica.com/doc/doc200106170001.html
MARTÍN BONAFIO, Redes neuronales y Sistemas Difusos, Madrid, Ediciones
Alfaomega, 2001.
Enciclopedia CLARÍN, La Ciencia Explicada, Buenos Aires, Editorial Clarín, 1995.
http://www.monografias.com/trabajos16/inteligencia-artificial-historia/inteligenciaartificial-historia.shtml
1.9 Las habilidades cognoscitivas según la psicología.
Teorías de la inteligencia (conductismo, Gardner, .
INTRODUCCIóN
Pocos conceptos son tan polémicos como el de inteligencia. Desde los primeros estudios científicos sobre la inteligencia,
iniciados por Galton, las controversias entre las distintas teorías de la inteligencia han ido aumentando. Aun hoy en día
existen psicólogos para los que el término inteligencia es una palabra vacía de significado psíquico.
 DEFINICIONES
Existen tantas y variadas definiciones que es difícil seleccionar alguna con un amplio grado de aceptación.
Kohler la define como "la capacidad para adquirir conocimientos nuevos". Stern como "la capacidad de adaptar el
pensamiento a necesidades del momento presente". Wenzl la definió como "la capacidad de comprender y establecer
significaciones, relaciones y conexiones de sentido".
Algunos psicólogos, antes de definirla, prefieren destacar algunos rasgos:

Algunas teorías la considera como la diferente capacidad de adaptación que poseen lo individuos sobretodo
ante nuevas situaciones, adaptación no solo por mecanismos automáticos sino también por el uso de la
mente. Se destacan así la versatilidad y adaptabilidad como rasgos esenciales de la inteligencia.

Otras consideran que ser inteligente es saber resolver problemas de la manera más satisfactoria posible. Esto
exige una capacidad de pensar y decidir estrategias para resolver el problema. De esta manera se resalta la
originalidad y el pensamiento creativo.

Ciertas teorías cognitivas insisten en que la inteligencia es la capacidad de procesar racionalmente la
información. Esto destaca las funciones del razonamiento y pensamiento lógico.
Ante la posibilidad de que la palabra inteligencia fuera polisémica Thorndike destacó tres tipos de inteligencia: la
inteligencia práctica, la conceptual y la social.
En resumen podemos decir que el concepto de inteligencia engloba un conjunto de aptitudes (aprendizaje, memoria,
almacenamiento de información, percepción selectiva, habilidades sociales, etc.) que permite al ser humano adaptarse
al mundo que le rodea y solucionar sus problemas con eficacia.
 TEORIAS SOBRE LA INTELIGENCIA
 Las primeras investigaciones
A finales del siglo XIX, aparecen las primeras investigaciones científicas sobre la inteligencia. Esos primeros intentos
fueron influidos por el darwinismo social, auténtica moda del siglo.
Los psicólogos que basaban su teoría en el darwinismo decían que la inteligencia era la capacidad de adaptación del ser
humano a su medio. Los más inteligentes alcanzaban mejor adaptación que los pocos inteligentes, así explicaban las
diferencias intelectuales entre las personas. También se asociaba la riqueza o pobreza con el nivel intelectual, y lo
mismo para la raza blanca sobre las demás o unos países sobre los otros.
A principios de siglo, cambió la línea de investigación sobre la inteligencia. El tema central siguió siendo la explicación
de las diferencias individuales, pero abordado ahora desde una nueva perspectiva: la creación de técnicas y pruebas
que pudieran dar cuenta de tales diferencias. Aparecen así, con Binet y Simon, los que entonces se denominaron tests
mentales.
 Teorías factoriales
El auge de la psicometría propició la aparición de numerosas teorías que intentaban analizar los componentes
implicados en la actividad intelectual. Pronto se extendió el llamado análisis factorial, a través del cual se pretendía
determinar el número y la naturaleza de los factores actuantes en el rendimiento intelectual.
Sperman dio a conocer su famosa teoría sobre la inteligencia, la teoría bifactorial. Según esta, existe una inteligencia
general que se caracteriza por estar presente en todos los procesos intelectuales llevados a cabo por los seres
humanos. Además de esta existe otro factor específico responsable de la habilidad necesaria para la realización de una
tarea concreta.
En la actualidad la mayoría de los especialistas se decantan por teorías multifactoriales, es decir, la inteligencia se
compone de numerosas aptitudes lo suficientemente diferenciadas y relativamente independientes entre sí.
El primero en proponer un modelo semejante fue Thurstone, quien aisló los siguientes factores de la inteligencia:

La aptitud espacial.

La capacidad de comprender significados lingüísticos.

La fluidez verbal.

La rapidez en la percepción visual.

Las capacidades de inducción u deducción.
Tras él, numerosos psicólogos propusieron modelos multifactoriales de la inteligencia, pero el esfuerzo dedicado a
desvelar los procesos mentales de la inteligencia fue escaso.
 Teorías cognitivas
Inspirándose en las investigaciones de Piaget y en las investigaciones sobre procesamiento de la información, los
enfoques cognitivos han propuesto nuevos modelos de la inteligencia.
Estas teorías proponen una nueva perspectiva para explicar los mecanismos funcionales de la inteligencia: según ellos,
ser inteligente significa en puridad ser capaz de comprender.
En la compresión, entendida como resultado global de la inteligencia, influyen factores cognitivos no cuantificables,
tales como esquemas, estructuras mentales, expectativas, motivaciones, etc.
Un ejemplo de teoría que adopta este tipo de enfoque es la teoría triárquica, ya que según esta existen tres tipos de
inteligencia:

La componencial: consiste en establecer relaciones con el mundo interno de sujeto..

La experiencial: son las experiencias vitales del sujeto.

La social: tiene que ver con los procesos de socialización del sujeto, permitiendo su adaptación al medio
humano en el que se desenvuelve.
En resumen estos enfoques intentan analizar la inteligencia desde el marco global de la comprensión.
 LOS TESTS DE INTELIGENCIA
 Características generales
Un test de inteligencia es una prueba diseñada específicamente para medir aptitudes, comnocimientos y capacidades
del individuo. Consta de un conjunto de prehuntas o ejercicios comunes para todos lo sujetos, llamados items, cuya
función es determibbar cuantitativamente los conocimientos o destrezas. El test se evalúa por comparación: se compara
la puntuación de un individuo específico con la de un grupo de sujetos que ha sido sometido a la misma prueba.
Generalmente, los items se disponen en un orden de dificultad creciente.
 El Cociente de Inteligencia (CI)
Es la medida de la inteligencia más utilizada por los psicólogos.
El CI establece una relación entre la edad cronológica y la edad mental de un individuo. La edad mental es un supuesto
teórico basado en una hipótesis de Binet, según la cual las personas poseen un nivel mental específico para cada edad
cronológica. Actualmente, por pura convección científica, se considera que la edad mental de un individuo puede
expresarse numéricamente; exactamente es la puntuación obtenida por ese individuo en un test de inteligencia
diseñado para calcular es medida.
Universalmente se aceptan unas tablas que relacionan el CI con ciertos estados intelectuales. Así:

Deficientes:
o Idiocia 0-24
o Imbecilidad 25-49
o Debilidad mental 50-69

Casos limites o bordelines 70-79

Normales:

Superiores:
o Superior 120-129
o Muy superior 130-140
o Superdotado De 140 en adelante
o
o
o
Normal-mediocre 80-89
Normal-medio 90-109
Normal-superior 110-119
 ¿Qué miden los tests?
Podemos dividir los tests en dos grandes grupos:

Tests para medir la inteligencia general

Baterías o conjunto de tests diseñados para cuantificar las distintas aptitudes involucradas en la inteligencia.
 Criticas a los tests de inteligencia
Muchos psicólogos han llamado la atención sobre las connotaciones puramente académicas de los tests de inteligencia.
Según ellos, sirven para medir el rendimiento académico pero no la inteligencia general.
También se les acusa de etnocentrismo, es decir, de estar elaborados según el concepto occidental de inteligencia. Los
que defienden teorías genetistas rechazan este tipo de criticas, ya que para ellos la inteligencia medida por los tests se
halla mucho más determinada por la herencia que por influjos ambientales o educativos.
Otra crítica habitual es la que se refiere a la pretendida homogeneidad o consistencia interna de los tests. Algunos
psicólogos han señalado que es muy difícil probar que todos los items de una prueba concreta midan una misma
habilidad.
 LA INTELIGENCIA ARTIFICIAL
Es la ciencia y técnica que versa sobre el conocimiento general de la inteligencia con el objetivo de fabricar máquinas
inteligentes. Entendemos por máquinas inteligentes, artilugios que puedan llevar a cabo procesos específicamente
humanos como razonamientos, resolución creativa y no puramente mecánica de problemas, toma de decisiones, etc.
http://html.rincondelvago.com/inteligencia_2.html
Conductismo y cognitivismo, ruptura entre dos teorías
1.
2.
3.
4.
Introducción
Los conceptos: naturaleza, función y estructura
El programa conductista
La revolución cognitiva
5.
6.
Conclusión
Bibliografía
La intención de este trabajo es, por un lado, analizar la postura de dos teorías y explicar el
enfoque seguido por las mismas con respecto al tema de la formación de conceptos. Ellas son:
el CONDUCTISMO y el COGNITIVISMO,en particular el PROCESAMIENTO DE
INFORMACIÓN.
Por otro lado, me he abocado al análisis de estas dos corrientes desde una perspectiva
histórica, haciendo hincapié en sus diferencias, momento de ruptura y aplicando un enfoque
epistemológico: el programa de investigación de Lakatos, con respecto a su estructura.
1 - INTRODUCCIÓN.
La adquisición de los conceptos ha sido un tema importante dentro de las teorías del
Aprendizaje. Se ha tratado de explicar esta adquisición a lo largo del tiempo recurriendo a
diversas teorías cuyas bases se remontan a preguntas tales como: ¿Los conceptos son
innatos? ¿Se forman a través de la experiencia? ¿ Son una respuesta al estímulo perceptivo?.
Mi interés en estas dos teorías: Conductismo y Cognitivismo, nace del hecho que la primera
(Empírica) ha sido una corriente muy fuertemente arraigada en el pensamiento durante el siglo
XX, superada por la segunda (Cognitiva), lo cual representa una interesante ruptura desde el
punto de vista científico. Me ha interesado trabajar sobre el origen de ambas, su abarcatividad
y también sus puntos débiles.
CONDUCTA y MENTE: ¿Cuál es más confiable para basar un estudio psicológico? ¿Sobre
cuál de las dos es posible la obtención del conocimiento científico? La primera es observable y
no así la segunda. ¿En qué se basaron los defensores de la postura conductista para
considerar la conducta y no la mente su campo de estudio? Estas son preguntas que trataré de
responder a continuación.
1.1 -EPISTEMOLOGÍA Y CONOCIMIENTO
Las teorías clásicas del conocimiento se han planteado ante todo la pregunta: "¿Cómo es
posible el conocimiento?", que rápidamente se diferenció en una pluralidad de problemas,
referidos a la naturaleza y a las condiciones previas del conocimiento lógico-matemático, del
conocimiento experimental, del psicofísico, etc.. El postulado común para las diversas
epistemologías tradicionales es que el conocimiento es un hecho y no un proceso y que si
nuestras diferentes fórmulas de conocimiento son siempre incompletas y nuestras diversas
ciencias todavía incompletas, lo que se ha adquirido está adquirido y puede entonces ser
estudiado estáticamente. (Piaget, J., 1998)
Por otro lado, actualmente, bajo la influencia convergente de una serie de factores, se tiende a
considerar día a día al conocimiento como un proceso, más que como estado. La razón
proviene, en parte, de la epistemología de las filosofías de las ciencias.
Los cambios, dentro de las ciencias, no se dan sin ser acompañados de crisis y obligan en
todos los casos a un trabajo constante de reorganización reflexiva, de forma tal que la
epistemología científica se ha convertido progresivamente en una cuestión de los propios
científicos: los problemas de la "fundamentación" se han incorporado más y más al sistema de
cada una de las ciencias en cuestión.
Por ejemplo, si se decide dar cuenta del conjunto de los conocimientos sólo a través de la
"experiencia" no se puede justificar tal tesis sin intentar el análisis de qué es la experiencia,
entonces se llega a recurrir a las percepciones, a las asociaciones, a los hábitos, que son
procesos psicológicos. Pero como las filosofías empiristas nacieron mucho antes que la
psicología experimental, se contentaron con las nociones del sentido común y con una
descripción ante todo especulativa, lo que impidió ver que la experiencia es siempre
asimilación a estructuras. (Piaget, j. 1998)
En cuanto a las epistemologías platonizantes, racionalistas o aprioristas creyeron encontrar,
cada una de ellas, algún instrumento fundamental de conocimiento ajeno, superior o anterior a
la experiencia.
La epistemología es la teoría del conocimiento válido y aun cuando este conocimiento, según
Piaget (Piaget, J. 1998), no sea jamás un estado y constituya siempre un proceso, este
proceso es esencialmente un pasaje de una validez menor a una validez superior.
1.2 - ANTECEDENTES HISTÓRICOS.
Pozo, en Teorías Cognitivas del Aprendizaje, (1997) explica que Ebbinghaus opinaba que la
psicología tiene un largo pasado, pero una corta historia. Si bien el crecimiento de la Historia
de la Psicología se ha producido "hacia delante", con los sucesivos cambios metodológicos y
conceptuales habidos en este siglo, también, de alguna manera, la Historia de la Psicología se
ha prolongado "hacia atrás" recuperando como propios los problemas y vicisitudes de más de
veinte siglos de tradición filosófica occidental. Los cambios habidos, especialmente en los
últimos cuarenta años, han convencido, según Pozo, a muchos psicólogos de que la Historia
de su disciplina comenzó mucho antes de lo que la frase de Ebbinghaus hacía suponer.
Esto no significa que la ciencia psicológica haya nacido en la Grecia antigua, pero es
interesante analizar temas y conceptos que ya se tenían en cuenta, que despertaban
inquietudes en los pensadores de aquellas épocas, que tuvieron origen en el pensamiento
humano siglos antes de la aparición de la Psicología como ciencia social y moderna tal como la
conocemos en el presente.
Muy acertada es la mención que Pozo hace en la introducción al libro anteriormente
mencionado de la idea de Jorge Luis Borges, según la cual son los sucesores los que crean a
los precursores. Los sucesores de aquellas ideas originadas por los precursores han sido los
que les han dado forma, las han insertado en un marco de investigación científica y no han
quedado en mera especulación.
Me ha resultado de sumo interés hurgar en los orígenes lejanos de las concepciones
racionalistas y empiristas, mente y experiencia, y es por eso que, al menos la historia de mi
análisis me lleva a épocas tan lejanas de lo que sería realmente la aparición de la Psicología
moderna como ciencia social.
Esta historia, entonces, se remonta al siglo IV antes de Cristo, cuando en la Grecia Antigua se
debatían cuestiones y conceptos que, muchos siglos después, pasarían a constituir el núcleo
de los problemas que estudiaría la Psicología Cognitiva. La escuela de filosofía fundada por
Platón para difundir las ideas de Sócrates, reflexionó sobre la naturaleza del conocimiento y
sobre su origen. Platón presenta al conocimiento como proyección de nuestras ideas innatas.
Cuando se aprende, se lleva hasta la conciencia aquellas ideas que desde siempre estaban en
el alma. Esta doctrina platónica resurgirá en la tradición filosófica occidental en el pensamiento
racionalista e idealista de Descartes, Leibniz o Kant, y será recuperada para la psicología por
algunos autores representativos del movimiento cognitivista actual, como Fodor y Chomsky,
entre otros.(Pozo, 1997)
Frente a la corriente racionalista iniciada por Platón se levanta otra tradición que tiene su origen
precisamente en el discípulo predilecto de éste, Aristóteles, quien rechaza la doctrina de las
ideas innatas, sustituyéndola por la de la "tabula rasa" sobre la cual se van imprimiendo las
sensaciones. De esta forma, el conocimiento procede de los sentidos que dotan a la mente de
imágenes, que se asocian entre sí según tres leyes: la contigüidad, la similitud y el contraste
(Carpio, 1974). Así, Aristóteles puede ser considerado como el padre del asociacionismo, que
en los siglos XVII y XVIII alcanzará con Hobbes, Locke y Hume su máxima expresión dentro de
la filosofía, dominará el pensamiento del conductismo, teniendo una influencia decisiva en la
Historia de la Psicología y específicamente, en la Psicología del Aprendizaje.
1.3 - EL SIGLO XX.
A grandes rasgos, el siglo XX estaría caracterizado por el dominio, primero, del
CONDUCTISMO, y segundo, por la PSICOLOGÍA COGNITIVA. Esta historia de la psicología
en el siglo XX está amparado en las ideas de KUHN con respecto al desarrollo y el cambio en
los movimientos científicos, la cual narra la existencia de dos revoluciones paradigmáticas,
seguidas por su correspondiente período de ciencia normal. La primera revolución se produce
en la segunda década del siglo y da lugar a la aparición del conductismo, como respuesta al
subjetivismo y al abuso del método introspectivo. El conductismo se consolida a partir de 1930
entrando en un período de ciencia normal, caracterizado por la aplicación de su paradigma
objetivista, basado en los estudios de aprendizaje mediante condicionamiento, que considera
innecesario el estudio de los procesos mentales superiores para la comprensión de la
conducta humana.
La expansión del paradigma, que desemboca en múltiples anomalías empíricas, junto al
empuje de diversos factores externos a la psicología, como son las nuevas tecnologías
cibernéticas que vienen de la mano de la Teoría de la Comunicación, la Lingüística y la propia
Cibernética, harán que el paradigma conductista entre en crisis a partir de 1950. A mediados
de esta década, será sustituido por el Procesamiento de Información que, apoyándose en la
metáfora del ordenador, hará posible el estudio de los procesos mentales que el conductismo
marginaba. De esta forma se entra en un nuevo período de ciencia normal, esta vez bajo el
dominio de la psicología cognitiva. Este período alcanza hasta nuestros días.
El Procesamiento de Información constituye el paradigma dominante dentro del enfoque
cognitivo actual. Pero su validez está siendo contestada desde posiciones cognitivas, y son
abundantes las críticas a sus insuficiencias, limitaciones y promesas incumplidas (Pozos, j.
1997).
1.4 - LOS PARADIGMAS: KUHN Y LAKATOS.
La teoría de las revoluciones científicas de Kuhn nace como respuesta a la pretensión
popperiana de que la ciencia avanza mediante la falsación sistemática de los enunciados que
formula (Pozos, l978). Con sus análisis históricos Kuhn logra demostrar no sólo que los
científicos no buscan por sistema falsar sus teorías, sino incluso que éstas perviven con
considerables pruebas empíricas en su contra. De esta forma, Kuhn desacredita a la
experimentación como la causa fundamental del progreso científico. Según su concepción, no
es la fuerza de los datos la que hace que un paradigma sea sustituido por otro, ya que los
paradigmas son en sí mismos inconmensurables. Esa sustitución respondería más a criterios
externos, ya sean generacionales o de demandas sociales, que a criterios de racionalidad
científica. Pozos explica que esta última idea será rechazada por Lakatos, cuyo falsacionismo
metodológico puede concebirse como un intento de síntesis entre las posiciones de Popper y
Kuhn.
Lakatos coincide con Kuhn en el predominio de los paradigmas (en su terminología,
"Programas de Investigación Científica") sobre los datos, pero admitirá con Popper que son
finalmente los datos los que constituyen los árbitros del cambio en las teorías científicas. Según
Lakatos, todo programa de investigación consta de dos componentes distintos: un núcleo
firme, constituído por las ideas centrales y un cinturón protector de ideas auxiliares, cuya
misión es precisamente impedir que el núcleo pueda ser refutado empíricamente. Lakatos
considera que nunca una teoría puede ser falsada por un hecho. Los datos en contra de una
teoría son simples "anomalías". Toda teoría, en la medida que no explica todo, convive con
numerosas anomalías simultáneamente. Ante ellas puede reaccionar de dos formas distintas:
sencillamente desentendiéndose de ellas o incorporándolas al cinturón protector. En cualquier
caso, el núcleo de la teoría o programa de investigación se mantiene intacto. La falsación de
una teoría no la producen los datos empíricos sino la aparición de una teoría mejor. Según
Lakatos, una teoría es mejor que otra cuando: 1- puede predecir hechos que la anterior no
predecía, 2- explica el éxito de la teoría anterior, 3 – corrobora empíricamente su contenido.
Lo que caracteriza a una buena teoría, o según Lakatos: "Programa de Investigación
Progresivo", es su capacidad para predecir e incorporar hechos nuevos, frente a otras teorías o
"Programas de Investigación Regresivos", que se limitan a explicar lo conocido. Un programa
puede ser progresivo teóricamente, cuando realiza predicciones nuevas aunque no sean
corroboradas, o empíricamente, cuando corrobora alguna de esas predicciones. Un programa
progresivo puede dejar de serlo cuando agota su capacidad predictiva y se muestra incapaz de
extenderse hacia nuevos dominios. Y, a la inversa, un programa regresivo puede convertirse
en progresivo si logra hacer nuevas predicciones parcialmente corroboradas.
Lakatos piensa que una nueva teoría se impondrá sobre otra vigente, cuando, entonces,
además de explicar todos los hechos relevantes que ella explicaba, se enfrenta con éxito a
algunas de las anomalías de las que la teoría anterior no podía dar cuenta. Así se asegura una
continuidad entre las teorías sucesivas. Esta continuidad es consistente con el carácter
acumulativo del progreso del conocimiento científico.
En cuanto a las Teorías del Aprendizaje, el marco epistemológico de Lakatos es el más
adecuado. En el presente trabajo analizaremos las siguientes cuestiones: ¿Qué constituye el
núcleo del programa conductista? ¿En qué se diferencia este programa del enfoque cognitivo?
Este será el tema de reflexión de las siguientes páginas, con respecto al campo de estudio que
representa el área de la Adquisición de los conceptos.
2. - LOS CONCEPTOS: NATURALEZA, FUNCIÓN Y ESTRUCTURA.
La definición de CONCEPTO es harto compleja. Por ejemplo, Los filósofos empiristas
como Mill, suponían que las personas adquirimos conceptos mediante un proceso de
abstracción que suprime los detalles idiosincráticos que difieren de un ejemplo a otro.
(Laird, l990). En consecuencia, la mayoría de los experimentos han utilizado una
técnica en la cual los sujetos tienen que descubrir el elemento común que subyace a
un concepto. Sin embargo, los conceptos cotidianos, no consisten en la conjunción o
disyunción de características, sino más bien en relaciones entre ellas. Laird da el
ejemplo de "tabla", no como una mera conjunción de patas y tablero, sino como que las
patas "soportan "al tablero.
Otro aspecto de los conceptos de la vida diaria es que sus ejemplos puede que no
tengan un elemento en común. Wittgestein, en sus "Investigaciones Filosóficas"
presenta el ejemplo de lo que denominamos "juegos". Según su postura, no hay nada
que sea común a todos los juegos, excepto similitudes y relaciones (Laird, l990).
Además, sostuvo que los conceptos dependen, no de elementos comunes, sino de
redes de similitudes que son como las semejanzas entre los miembros de una familia.
Esta idea obtuvo popularidad en los años setenta. Los teóricos plantearon que el
mundo se conceptualiza en términos de estereotipos, prototipos, marcos o guiones. No
vamos a dedicarnos a cada uno de éstos, tarea sobre la cual habría que explayarse
largamente, pero sí podemos decir que, aunque la terminología difiere, las teorías
subyacentes son extraordinariamente semejantes: un concepto especifica las
características típicas de los miembros de la clase; dicho concepto no tiene
condiciones necesarias y suficientes, y tampoco tiene límites claros
2.1 – LA CONCEPCIÓN CLÁSICA. (ENFOQUE CONDUCTISTA)
Veamos que dice Gardner al respecto de la categorización del mundo (Gardner, l996).
Ya los griegos clasificaban en grupos a los objetos comunes y corrientes del mundo.
Estos grupos son diferenciables por determinados atributos que sirven de criterios
definitorios.
En la teoría clásica de la formación de conceptos encontramos las siguientes
características: 1- Las categorías son arbitrarias. Los rubros pueden agruparse de
cualquier cantidad de modos a fin de constituir categorías. 2 - Las categorías poseen
atributos definitorios o críticos. Todos los miembros de esta categoría comparten estos
atributos, ningún miembro de otra categoría los comparte, y no existe superposición
alguna entre los miembros de una categoría y los que no lo son. 3 - La "intensión" (o
suma de atributos) de una categoría determina su "extensión" (la cantidad de objetos
del mundo que la integran en calidad de miembros). Por lo tanto, no tiene ningún
sentido pensar que una categoría puede estar dotada de una estructura interna tal que
algunos de sus ítems sobresalgan respecto de los demás como miembros "mejores".
Los límites son estrictos y no hay confusión posible: un triángulo es grande y rojo o no
lo es.
Estas premisas están presentadas en sus formas más puras, pero ya desde la época
de los empiristas ingleses - rama de la filosofía que adoptará el conductivismo- se
plantearon objeciones frente a esta visión extrema de las categorías. Esta posición
clásica tuvo amplio arraigo hasta mediados de este siglo, cuando Ludwig Wittgestein y
sus seguidores lanzaron contra ella un desafío que en las últimas décadas recibió
considerables refuerzos de los trabajos llevados a cabo en las ciencias de la conducta.
Eleanor Rosch, fue posiblemente la cognitivista que más socavó con sus críticas la
concepción clásica. Se le asesta a esta teoría un rudo golpe a través de una serie de
trabajos pertenecientes a un dominio que, inicialmente la concepción clásica había
adoptado como propio: el de la designación de los colores. Aquí se comprueba, por
ejemplo, que desde un punto de vista puramente físico, nada nos indica dónde termina
la designación de un color y donde empieza la del otro (Leech,1978).
En síntesis, el espacio cromático, lejos de ser un dominio adecuado para estudiar los
efectos que el lenguaje tiene sobre el pensamiento, parecía constituir un ejemplo
primordial de la influencia de ciertos factores cognitivos perceptuales subyacentes
sobre la formación y referencia de las categorías lingüísticas. Podemos mencionar aquí
que los procesos cognitivos no eran objeto de estudio del conductismo, el cual sí
adhería a la teoría clásica de formación de conceptos, esto lo profundizaremos cuando
analicemos el programa de investigación de esta teoría.
Volviendo al tema de Rosch, ¿Por qué desbarataron estos hallazgos la formación
clásica de la formación de conceptos? La razón es la siguiente: durante muchos años
se había presupuesto que las líneas demarcatorias de los colores eran trazadas en
forma arbitraria por cada cultura, y que los individuos no hacían más que reflejar estos
límites en sus propias clasificaciones. Ahora, Rosch ponía en tela de juicio estas
argumentaciones: niega la existencia de límites fijos o rotundos entre las categorías:
muchos de sus miembros se hallan entre dos o más categorías por sobre sus fronteras.
2. – LOS PROTOTIPOS Y LOS EJEMPLARES (ENFOQUE COGNITIVO)
La idea de que los conceptos no tienen una estructura determinística asimilable a una
lógica de clases no es nueva en psicología. En lugar de clases lógicamente definidas,
se postula la existencia de un mecanismo automático de categorización de estímulos
basado en prototipos. Wittgestein, por ejemplo, rechaza la concepción clásica de que
todos los ejemplares de un concepto tienen una serie de atributos comunes y propone
que lo que une a esos ejemplares dentro de un mismo concepto es un cierto parecido
"familiar", basado en una semejanza no transitiva entre los miembros de la categoría.
Pozo cita a Rosch en su definición de prototipo: " Por prototipos de categorías se
entienden en general los casos más claros de pertenencia a la categoría, definidos
operacionalmente por los juicios de la gente con respecto a la bondad de pertenencia a
esta categoría ". (Pozo, l997, pag.101)
Rosch, como ya mencionamos anteriormente, retoma esta idea en sus estudios sobre
formación de conceptos naturales, que serán un nuevo punto de partida de un nuevo
enfoque en el aprendizaje de conceptos.
Incompatibles con la posición clásica, se han ido desarrollando modelos que asumen
una posición probabilística, según la cual, la posesión de los atributos del concepto por
parte de un ejemplar y su pertenencia a la categoría no son una cuestión de "todo o
nada", sino de grados o probabilidades. Según la concepción probabilística, la
mayoría de los conceptos son como miembros de una familia, no siempre tienen
atributos comunes suficientes, no todos son ejemplares igualmente representativos de
la categoría y las fronteras del concepto son borrosas.
Rosch considera que el mundo percibido no contiene atributos o rasgos independientes
entre sí, sino que está estructurado según tres principios. En primer lugar, los atributos
no ocurren por separado. Rosch considera que el mundo posee en sí mismo una
estructura correlacional que es la base de las categorías naturales.
En segundo lugar, esta estructuración no sólo alcanza a las relaciones entre rasgos,
sino también a la existencia de niveles de abstracción o de inclusión jerárquica. Se cree
en la existencia de un nivel básico de abstracción, en el que la economía cognitiva en
la categorización sería óptima. Por último, Rosch piensa que, aunque la estructura
correlacional del mundo no es perfecta, siendo de hecho un continuo estimular, la
estructura de las categorías se ve completada mediante su representación en forma de
los ya mencionados prototipos, que además de preservar esa estructura correlacional,
permiten fragmentar el continuo estimular en unidades discretas.
Según estos principios, los conceptos poseen una doble estructura. En primer lugar,
tienen una estructura vertical, según la cual, todo concepto está incluido en una
jerarquía de niveles de abstracción que comprende tres niveles: un nivel básico, en el
cual los sujetos aprenden fácilmente los nombres, tienen pronto acceso a éstos, los
recuerdan de inmediato, etc. Los objetos pertenecientes a este nivel básico dentro de
una categoría comparten similitudes perceptuales y rasgos funcionales. Por ejemplo,
en el ámbito del mobiliario, una silla es un objeto de nivel básico; en el del mundo
animal, lo es un perro o un pájaro. Los objetos de nivel básico contrastan con los de un
nivel superior llamado supraordinado (el mobiliario, respecto de la silla; el reino
animal, respecto del pájaro o perro), y también con otro nivel subordinado (la
mecedora, respecto de la silla; el tordo, respecto del pájaro). Los niños pequeños
tienen gran propensión a designar todos los objetos en el nivel básico. En definitiva, los
individuos llegan a ser capaces de designar y clasificar objetos pertenecientes a estos
diversos niveles, pero tienden a adherir siempre al nivel básico de organización.
Al proponer estas ideas, se desafían cada uno de los principios fundamentales en que
se sustentaba la concepción clásica. Antes que arbitrarias, las categorías son vistas
como motivadas. Ellas reflejan la estructura perceptual del sujeto, el sujeto no es
pasivo, se enfatiza la clase de acciones que una persona puede llevar a cabo y la
estructura física y material del mundo. No están conformadas por características
definitorias, como ya hemos visto, sino que albergan prototipos y los miembros menos
prototípicos de ellas son aprehendidos según el grado en que se asemejen a éste. Las
categorías poseen una estructura interna y esto a su vez tiene consecuencias
psicológicas: como ya fue mencionado, los conceptos del nivel básico resultan los más
prontamente designados y recordados.
En cuanto a su formación, Rosch postula que los conceptos se desarrollan a través de
los mismos principios que gobiernan la formación de las propias categorías: "la
maximización" de la validez de las claves y del parecido categorial (Pozos, l997). La
validez de las claves es un concepto propuesto por Rosch para explicar la adquisición
de los conceptos. Según la cual "la validez de una clave dada x como predictora de
una categoría y la probabilidad condicionada x/y se incrementa a medida que
aumenta la frecuencia con la que la clave x se asocia a la clase y "y" disminuye a
medida que aumenta la frecuencia con la que la clave x se asocia a otras
categorías distintas de y". (Rosch, 1978, en Pozo, l997, pag. 97). El prototipo sería,
según la formulación de Rosch, el ejemplar, real o ideal, de los atributos más
frecuentes.
En todos estos procederes y acciones, se postula la presencia de la mente como
motora del proceso perceptual, mientras que en la teoría clásica, adoptada por el
enfoque conductista, es la conducta la que da el significado al concepto, una vez que
ésta ha sido disparado.
Según Rosch, como ya hemos mencionado, la formación de conceptos se inicia en las
categorías básicas; se aprenden por medio de la percepción visual y la interacción
sensoriamotriz con el objeto y, de esta forma, serían las primeras divisiones del mundo.
Aunque no es parte del presente trabajo, se puede mencionar en este punto que lo
anteriormente expuesto nos llevaría más adelante al proceso constructivista, donde el
sujeto es activo en la construcción de la realidad que lo rodea.
Por otro lado, los partidarios de la teoría del ejemplar, son aquellos que interpretan
que las categorías están representadas por aquél concepto (el ejemplar) que recoge
los rasgos más comunes en la misma. Estos conceptos se adquieren y almacenan
como casos individuales. La atribución de un estímulo nuevo a una categoría se
produce por un proceso de comparación con los ejemplares almacenados en la
memoria, componente presente en la teoría cognitiva del PROCESAMIENTO DE LA
INFORMACIÓN. La formación de conceptos se basa entonces, en un proceso de
comparación de similaridad en la memoria de trabajo. Los conceptos no se almacenan,
sino que se forman de manera ad hoc en el momento de su uso.
Los defensores de la teoría del ejemplar no son muy específicos con respecto a los
procesos de aprendizaje. Rechazan la abstracción como proceso básico para la
adquisición de conceptos, pero no formulan ninguna alternativa coherente a la
abstracción, que es el proceso aceptado por posiciones asociacionistas. Pozos
considera que en su formulación es insuficiente como teoría de conceptos. Sin
embargo, se muestra como una teoría eficaz desde el punto de vista representacional y
se ajusta a las demandas de las nuevas teorías computacionales, basadas en
representaciones implícitas más que explícitas (modelos mentales o de memoria
distribuida en lugar de esquemas o prototipos).
Este éxito empírico y esta adecuación con respecto a las nuevas teorías
computacionales puede resultar engañoso, ya que estas teorías no pueden dar cuenta
de la formación de conceptos más allá del laboratorio. Las situaciones experimentales
son restrictivas: pruebas de retención a corto plazo, situaciones artificiales en lugar de
naturales y otras variables de interacción.
Datos empíricos y estudios llevados a cabo por enfoques cognitivistas, nos dicen que
los conceptos son una abstracción, y ésta es la idea de los partidarios del prototipo,
cuyas características ya han sido presentadas.
2.2.1 – LUDWIG WTTGESTEIN: LA PRECISIÓN.
A comienzos del siglo, Wittgetein (Gardner, l998) – que no sólo fue uno de los
sostenedores del Círculo de Viena, sino su inspirador – había subrayado la importancia
de la lógica y la necesidad de precisión en el lenguaje, así como la conveniencia de
guardar silencio cuando fuera imposible alcanzar esa precisión lingüística.
Para mencionado autor, el lenguaje es un conjunto vago y fragmentario de elementos,
y un medio de comunicación indispensable para los individuos; pero tanto puede
iluminar las cosas como oscurecerlas, ya que es la red a través de la cual pasa
necesariamente cualquier otra experiencia. Los conceptos no son ni constructos
mentales ni ideas abstractas existentes en el mundo, sino que deben ser
capacidades que los individuos pueden emplear de una manera aceptable para el resto
de su comunidad; dicho en términos generales, los conceptos no son sino una manera
de realizar cosas.
Wittgestein era escéptico al respecto: lo máximo que un analista puede esperar, es
comprender mejor cómo opera el sistema de la lengua y cómo han llegado a plasmarse
nuestras ideas merced a prácticas lingüísticas de nuestra comunidad. Todo empeño
por averiguar lo que realmente acontece, dejando de lado el lenguaje y tomando los
conceptos como entidades aisladas, está condenado al fracaso. Y la glorificación de
la lógica o de conceptos abstractos desprovistos de utilidad dentro de la comunidad a
la que pertenece es irrelevante y carece de fundamentos filosóficos.
Sea como fuere, como ya fue dicho anteriormente, la formación de conceptos en la
mente humana ha sido y será fuente de investigación y debate. De hecho, comienza a
aceptarse la idea de que en la formación de conceptos conviven dos tipos de estructura
y de procesos. Por un lado, los conceptos tienen un procedimiento de identificación que
responde a los modelos probabilísticos; por otro lado, tienen un núcleo que parece
adoptar una estructura lógica, consistente con la posición clásica. De esta forma han
comenzado a surgir modelos duales de la formación de conceptos, que asumen la
coexistencia entre ambos tipos de estructuras.
Veremos ahora un análisis de los programas que intentaron explicar la formación de
conceptos desde su enfoque particular. Me limitaré a la presentación del programa
Conductista y al programa Cognitivo del Procesamiento de Información.
3. - EL PROGRAMA CONDUCTISTA.
3.1 - PRESENTACIÓN HISTÓRICA DEL CONDUCTISMO Y CARACTERÍSTICAS.
En 1913, John Watson lanzó la revolución conductista, afirmando que el tema de
estudio adecuado de la psicología no era el funcionamiento de la mente sino el examen
de la conducta objetiva y observable. Basándose en estudios fisiológicos, propuso que
todas las actividades psicológicas podían explicarse comprendiendo los reflejos que se
establecen en las porciones superiores del sistema nervioso. Esta era una psicología
molecular, pura y simple, que iba de lo particular a lo general.
Watson rechazaba gran parte del programa de la psicología tradicional y casi todos su
métodos: no más sensaciones o intenciones, a partir de entonces, sólo era pertinente
la observación de la conducta manifiesta. La descripción y explicación de los estados
y contenidos de la conciencia debía ser reemplazada por la predicción y eventualmente
el control de la conducta. Los términos mentalistas quedaban expulsados del
vocabulario del psicólogo.
Toda una generación de científicos se formó en esta órbita: Clark Hull, B.F. Skinner,
Kenneth Spence, E.L. Thorndike contribuyeron a asegurar que entre 1920 y 1950 la
psicología en los Estados Unidos fuera conductista. Acá podemos hablar de una
ruptura entre las posiciones anteriores y las ya mencionadas aceptadas por la
comunidad científica del momento. Una autoridad tan eminente como el New York
Times declaraba en 1942 que el conductismo había inaugurado una nueva época
intelectual del hombre. La ruptura se había dado con respecto al método científico
implementado anteriormente a esta revolución: la introspección, vale decir, la
autoreflexión de un observador bien adiestrado acerca de la naturaleza y decurso de
sus propias pautas de pensamiento. Aunque esta introspección fue sugestiva, no
generó esa acumulación de saber que es decisiva para toda ciencia. El
introspeccionismo, entonces cayó bajo su propio peso y fue derribado agresivamente
por el programa de investigación que en ese momento lo superó.
Un elemento decisivo del canon conductista era la supremacía y el poder determinante
del medio. Consideraban que los individuos no actuaban de la manera en que lo hacían
a raíz de sus propias ideas y propósitos, o porque su aparato cognitivo poseyera
ciertas tendencias estructurantes autónomas, sino que operaban como reflectores
pasivos de diversas fuerzas y factores presentes en el medio. Se postularon los
principios de condicionamiento y refuerzo para describir cómo se producía el
aprendizaje. Los conceptos, por ejemplo, según la tradición clásica descripta
anteriormente, se adquirirían a través de cadenas asociativas simples entre un
estímulo y una respuesta.
2. – EL NÚCLEO CENTRAL DEL PROGRAMA CODUCTISTA.
El núcleo central del conductismo está constituido por su concepción
antimentalista. Es la versión más cruda del asociacionismo. Situado en la
tradición asociacionista que nace con Aristóteles, el conductismo comparte la
teoría del conocimiento del empirismo inglés, cuyo exponente es Hume, quien
postuló que el conocimiento humano está constituido exclusivamente de
impresiones recibidas a través de los sentidos (Carpio, l977). Las ideas que se
forman de esas impresiones son copias que recoge la mente y que perduran
una vez que desaparecen las impresiones. El conocimiento se alcanza
mediante la asociación de ideas según los principios de semejanza,
contigüidad espacial y temporal y causalidad. Estos son los principios
básicos del pensamiento en el empirismo de Hume. Con diversas variantes,
todos los conductistas se basan en estos principios para la descripción y
explicación de la conducta humana y animal (Crystal, 1971).
Dado que inicialmente somos, según el conductismo, una "tabula rasa" y todo
lo adquirimos del medio por mecanismos asociativos, reforzados por la
recompensa y el castigo, es lógico que esta teoría tomara como área
fundamental de estudio el aprendizaje. La estructura de la conducta es una
copia de las contingencias o covariaciones ambientales.
Analicemos la concepción antimentalista de este programa. No es que
nieguen la existencia de la mente, sí rechazan el uso de la introspección. El
estudio científico debe ser llevado a cabo, como fue presentado anteriormente,
a través de métodos objetivos, es decir, índices conductuales. La mente, de
existir, es necesariamente una copia de la realidad, un reflejo de ésta y no al
revés. Este es el principio de correspondencia que también sería uno de los
rasgos nucleares del conductismo. El control de la conducta reside en el
medio: se considera que el aparato mental es un sustituto interno de las
contingencias del ambiente.
Otro rasgo importante de esta corriente es el anticonstructivismo, por lo cual
el sujeto es pasivo, sujeto a una reacción estímulo-respuesta, simple y
atomista. Se define al aprendizaje como "cambio de la conducta" e implica una
conducta por parte del sujeto como respuesta al estímulo dado (Bayés,1980).
El principio motor de la conducta está fuera del individuo. El aprendizaje
siempre es iniciado y controlado por el ambiente y se realiza por asociación.
Este enfoque simple, que desprecia las diferencias individuales – el
conductismo establece la equivalencia entre todos los organismos de una
misma especie (todas la "tabulas rasas" se parecen) – se complementa bien
con la teoría clásica de los conceptos, donde el conjunto de atributos definen
en forma demarcativa y diferencia un concepto de otro, lo cual como ya vimos,
no es tan simple en la psiquis humana.
3. – LA CRISIS DEL CONDUCTISMO.
A pesar de disponer de un núcleo teórico y metodológico común, consistente en un
antimentalismo y asociacionismo psicológico, y una concepción positivista del método
científico, el conductismo fue incapaz de elaborar la teoría unitaria del aprendizaje que
buscaba.
Este programa dejó de ser progresivo, en la terminología de Lakatos, siendo incapaz de
predecir hechos nuevos, sino incluso de explicar las múltiples anomalías que en el curso de
sus experimentos sobre condicionamiento iban surgiendo. En estas condiciones, el programa
conductista se hallaba escasamente preparado para afrontar la irrupción de un nuevo enfoque
psicológico: EL PROCESAMIENTO DE LA INFORMACIÓN.
Como vemos, los excesos en que incurrió el introspeccionismo a principios de siglo fueron
reemplazados, a su vez por los excesos del conductismo de la primera parte del siglo XX.
4 - LA REVOLUCIÓN COGNITIVA.
A mediados del siglo XX se hallaban en camino de ser develados dos de los mayores misterios
de la época antigua: la naturaleza de la materia física y de la materia viva. Pero aún debía
alcanzarse una elucidación semejante para un tercer misterio que también fascinó a los
antiguos: el enigma de la mente humana. (Gardner, 1996) Aquí comienza un camino que data
de épocas antiguas, de ideas innatas, que asociamos con los griegos. Ya a comienzos de la
Edad Moderna, Descartes se presenta como el antecedente filosófico de la ciencia cognitiva,
quien otorgó un lugar de privilegio a la mente, la cual concebía las ideas de los individuos
(Carpio, l974). Como vemos, este interés por el estudio de la mente no es tan reciente, sin
embargo, se vio retrasado por diferentes causas que veremos a continuación.
El lanzamiento apropiado de una ciencia de la cognición fue impedido por diversos factores,
desde el auge del conductismo, como ya hemos visto, a causas presentadas por otras
escuelas filosóficas como el positivismo, el fisicalismo, el verificacionismo, que descartaban
toda entidad (como un concepto o una idea) que no pudiera ser fácilmente observable y
mensurable.
Por otro lado, y no menos interesante, la situación política mundial ejerció un efecto
inhabilitante sobre la ciencia. En primer lugar, la comunidad científica europea fue desgarrada
por el auge del totalitarismo, y en cuanto a los Estados Unidos, se le pidió que dejara de lado
sus programas teóricos a fin de contribuir al esfuerzo bélico. Es así como se produce la
revolución tecnológica impulsada por las necesidades bélicas de la Segunda Guerra Mundial,
dando como resultado un perfeccionamiento en el uso de las computadoras y la apertura del
nuevo mundo científico abierto por "las ciencias de lo artificial".
El año 1956 suele concensuarse como fecha de inicio de la nueva psicología cognitiva. Ese
año se publicaron algunos de los trabajos fundacionales del nuevo movimiento que ayudaron al
triunfo de la revolución.
Por ejemplo, las ideas de la Teoría de la Comunicación sostenían que los seres humanos
tenemos capacidades de recepción de información a través de "canales". En ese año Miller
publica su artículo "El Mágico Número Siete" donde explica nuestra capacidad para procesar
información precisamente gracias a esos canales. También aquel año Chomsky daba a
conocer sus ideas sobre la nueva lingüística, basada en reglas formales y sintácticas, próximas
a las formalizaciones matemáticas (Lyons,1977). Además de otros autores como Newell y
Simon, quienes presentaron un programa de ordenador capaz de hacer la demostración de un
teorema. Comienza aquí la marcha de la inteligencia artificial.
La invención de la computadora contribuía a resolver el clásico problema de la relación mentecuerpo: software o soporte lógico y hardware o soporte técnico. Era clara la analogía con el
sistema humano y los procesos de pensamiento. Los seres humanos, al igual que las
computadoras, albergaban programas y era posible invocar el mismo lenguaje simbólico para
describir los programas de ambas entidades. Por ejemplo, se puede concebir un programa
alimentado con conceptos de una de las teorías probabilísticas mencionadas: el ejemplar.
Estos sistemas simbólicos son entidades materiales capaces de procesar, transformar, elaborar
y manipular símbolos de diversas especies.
Como vemos, al núcleo antimentalista del programa conductista se le opone el núcleo mental
del nuevo programa que analizaremos a continuación.
4.1 – EL PROCESAMIENTO DE INFORMACIÓN: AUTORES
REPRESENTATIVOS.
La psicología cognitiva refiere la explicación de la conducta a entidades mentales, a estados,
procesos y disposiciones de naturaleza mental. De acuerdo a esta definición de psicología
cognitiva, no sólo entraría el procesamiento de información, sino el constructivismo de autores
como Piaget y Vygotski. He recortado el objeto de estudio al primero por una cuestión de
extensión en el análisis. Sin embargo, cabe aquí mencionar que todos ellos coinciden en que la
acción del sujeto está determinada por sus representaciones. El procesamiento de información
en su versión fuerte propone que estas representaciones están constituidas por algún proceso
de cómputo.
La concepción del ser humano como procesador de información se basa en la aceptación de la
analogía entre la mente humana y el funcionamiento de una computadora. Se adoptan los
programas de una computadora como metáfora del funcionamiento cognitivo humano ya que
ambos, mente y computadora, procesan información.
Según esta idea, el ser humano y la computadora, son sistemas de propósitos generales
equivalentes, que intercambian información con su entorno mediante la manipulación de
símbolos. Ambos son sistemas cognitivos cuyo alimento es la información; y aquí ésta tiene un
significado matemático muy preciso de reducción de la incertidumbre.
Tanto Chomsky, como Fodor, dos cognitivistas cabales, por ejemplo, han intentado representar
en forma matemática y precisa este contenido abstracto de nuestro aparato mental. Chomsky,
por un lado, se ha explayado en su concepción sintáctica de la estructura profunda del
lenguaje. Fodor, por otro lado, postula que las actividades cognitivas se constituyen en la
manipulación de los símbolos o representaciones mentales, entidades abstractas, que no
mantienen ninguna relación configuracional con las entidades que denotan. Fodor cree en la
existencia de un "lenguaje del pensamiento" y afirma que lo que debe hacer una teoría de la
mente consiste en caracterizar este lenguaje. Este autor explica que si los procesos mentales
son computacionales, debe haber representaciones en las cuales se ejecuten tales
computaciones. Así también, postula el carácter innato de este lenguaje del pensamiento: las
personas nacen con un conjunto completo de representaciones en el cual pueden acuñar toda
nueva forma de información que emerja de su experiencia en el mundo, es por eso que, según
Fodor, los lenguajes naturales son fáciles de aprender.
Tanto Fodor como Chomsky, entonces, postulan que el individuo viene equipado con un
dispositivo bien especificado y construído de manera tal que permite el aprendizaje de
información nueva.
4.2 – DESCRIPCIÓN DEL PROGRAMA DEL PROCESAMIENTO DE
INFORMACIÓN.
Siguiendo a Lakatos en la descripción del programa de investigación de este enfoque cognitivo,
en el paso del conductismo al procesamiento de información, se han introducido cambios
radicales en cuanto al núcleo mentalista, así también como en su cinturón protector.
Así como el conductismo se centraba en el estudio del aprendizaje mediante teorías basadas
en el análisis de los estímulos y las respuestas, el procesamiento de información, en la medida
en que se ocupa del estudio de las representaciones, ha generado ante todo teorías de la
memoria. La propia metáfora computacional a la que ya nos hemos referido, conduce
necesariamente a considerar la memoria como la estructura básica del sistema de
procesamiento.
Las ideas reduccionistas del conductismo se reemplazan por procesos cognitivos causales.
En lugar de posiciones ambientalistas, el procesamiento de información defiende la
interacción de las variables del sujeto y las variables de la tarea o situación ambiental a la
que está enfrentado el sujeto. Por último, el sujeto del conductismo, pasivo y receptivo, se
convierte en un procesador de la información que busca y reelabora activamente
información. Además, los procesos cognitivos son descomponibles en unidades u operaciones
más simples.
Otro elemento importante en la descripción de este programa - aunque actualmente debatido
en su contundencia y sobre el cual no voy a realizar crítica adversa por una cuestión de
magnitud, lo cual, aunque importante, excedería el propósito de este trabajo -, es la idea que
tanto los programas de las computadoras y el funcionamiento cognitivo humano están definidos
por leyes sintácticas, como ya fue mencionado cuando se hizo referencia a Noam Chomsky.
Estas leyes se ocupan de determinar las reglas mediante las que estas unidades se agregan
hasta constituir procesos complejos. Esto significa, y aquí lo discutible, que tanto el ser humano
como las computadoras están concebidos como sistemas lógicos o matemáticos de
procesamiento de información, constituidos exclusivamente por procedimientos formales. Esta
naturaleza sintáctica del sistema queda reflejada en su definición como un procesador de
propósitos generales: la lógica computacional es suficiente por sí misma para representar
cualquier conocimiento.
En cuanto a la "intencionalidad" del sujeto, en este sistema de procesamiento no hallamos
propósitos ni intenciones, únicamente la satisfacción de ciertas condiciones que dispara la
búsqueda de ciertas metas. Se caracteriza por remitir la explicación de las acciones y
representaciones del sistema a entidades mentales tales como la memoria a largo plazo, filtros
atencionales, capacidades de procesamiento limitadas, etc. Al no admitir la intencionalidad, el
procesamiento de información no puede asumir la subjetividad de los estados mentales, aquí
encontramos una limitación en el programa dado que la intención en el ser humano es
primordial en el proceso de aprendizaje.
Siguiendo la línea crítica con respecto a este programa, podemos agregar que es improbable
que el procesamiento de información pueda dar cuenta de estados mentales ya que éstos
tienen un carácter semántico y todos los procesos postulados son de carácter sintáctico.
Además, no puede explicar el origen de las estructuras de conocimiento que determinan la
conducta de los sujetos. Aquí está su paradoja, por un lado, afirma que los sujetos construyen
su propio conocimiento a partir de estructuras y procesos cognitivos, pero no explica cómo se
efectúa la construcción de esas estructuras y procesos iniciales.
De esta manera, el procesamiento de información puede explicar cómo actúa el sujeto ante
una tarea de decisión léxica, atribuyéndole ciertas estructuras de memoria semántica, pero no
puede explicar cómo se han adquirido los conocimientos almacenados en la memoria
semántica.
Otro elemento importante en el programa es el asociacionismo, diferenciado del
asociacionismo conductista en cuanto a que el primero es computacional: con una
extraordinaria capacidad de cómputo posibilitada por la cibernética. Otra paradoja aquí es que
la computadora se presenta como un espejo de la mente sin tener mente. La memoria
semántica está constituida por redes asociativas. Una computadora manipula información, no
significados y ésta se mide en términos de probabilidad matemática o de reducción de la
incertidumbre. Los significados necesitan una mente que los interprete, por lo tanto, lo que el
procesamiento de información puede hacer es ocuparse de señales, o sea, de signos vacíos,
no de signos, de significantes portadores de sentido. Haciendo un paralelo con el programa
anteriormente descripto, desde un punto de vista semántico, los símbolos con los que opera
una computadora son equivalentes a la campana de los célebres experimentos de Pavlov:
señales que "disparan" acciones; no son vehículos de conocimiento ni de comprensión.
Ante todo lo presentado, queda claro que el procesamiento de información en su forma
cibernética: la inteligencia artificial, no puede dar cuenta de procesos de aprendizaje o
formación de conceptos, tema subyacente de este trabajo de análisis comparativo.
La imposibilidad del asociacionismo para proporcionar una teoría del aprendizaje lingüístico ha
sido reconocida por diversos autores. Mencionaremos aquí nueva y brevemente a Noam
Chomsky y a Jerry Fodor, quienes postulan el innatismo como única explicación ante los
procesos de aprendizaje. Fodor, por ejemplo, considera que la idea de una teoría de un
aprendizaje de conceptos es inicialmente confusa y que no se puede explicar la aparición de
significados nuevos. Como el sistema es incapaz de generar nuevos primitivos semánticos,
todos los significados han de ser innatos, a la espera de ser "fijados" o "descubiertos".
¡Volvemos aquí a las ideas innatas de Platón!
Los procesadores computacionales, entonces, no aprenden, sino que se limitan a descubrir el
conocimiento que siempre ha anidado, oculto en ellos. Según el procesamiento de información,
no construímos significados, simplemente lo reconocemos y lo "activamos".
Como ya ha sido mencionado anteriormente, el tema de la adquisición de conceptos es
extenso, así como lo es también el tema de la psicología cognitiva. Por motivos de extensión
no vamos a mencionar otros autores, que si bien son importantes, su presentación excedería el
objetivo del presente trabajo. Queda por destacar, sí, la importancia de las investigaciones en
el campo de la ciencia cognitiva, que día a día aumentan en cantidad y calidad.
Para finalizar, mencionaremos reflexiones de Pozos con respecto a la diferencia del programa
conductista y el procesamiento de información en su versión computacional. De acuerdo con
Pozos (1997), la imposibilidad de proporcionar una teoría del aprendizaje por parte del
procesamiento de información, se origina en el propio núcleo conceptual del programa, que,
según el autor mencionado, a pesar de su apariencia revolucionaria, continua con la tradición
del conductismo. Aquí podríamos concordar, ya que realmente, ambos programas son
netamente mecanicistas. Pozos afirma que el programa no es progresivo y que sus limitaciones
son las que precisamente aquejaban al conductismo.
En cuanto a limitaciones se refiera, es interesante mencionar lo que ha sido denominada la
"paradoja computacional". Irónicamente, la aplicación rigurosa de los métodos y modelos
extraídos del ámbito computacional ha llevado a los científicos a comprender en qué aspectos
los seres humanos no se asemejan a las computadoras. Esto no significa, por supuesto, que
no haya procesos cognitivos semejantes a los de las máquinas cibernéticas; pero significa que
la concepción lógica y racional sobre la cognición humana no describe en forma apropiada gran
parte del pensamiento y la conducta de los hombres.
La ciencia cognitiva puede seguir adelante, pero surge el interrogante de si debemos buscar
modelos más verídicos del pensamiento humano. Así, la ciencia cognitiva se encuentra ante un
desafío y se espera de ella que logre una articulación entre los aspectos computacionales, los
aspectos cognitivos del lenguaje y la percepción, los antropológicos y los neurocientíficos,
tarea vasta para los años por venir.
CONCLUSIÓN.
En los últimos siglos dos temas importantes han aparecido recurrentemente en la filosofía. El
primero se refiere a la tensión entre racionalistas y empiristas. Los racionalistas creen que la
mente posee un poder de razonamiento y que impone ese poder al mundo de la experiencia
sensorial; los empiristas, por otro lado, creen que los procesos mentales reflejan las
impresiones sensoriales externas o se construyen sobre las bases de éstas.
Tanto Platón como Descartes adhirieron al extremo racionalista de esta polaridad, en tanto que
muchos de los empiristas posteriores, Hume entre otros, reaccionaron frente a ellos. En el siglo
XX, el programa de investigación conductista – siguiendo la nomenclatura de Lakatos- fue el
resultado de este enfoque empirista y válido por muchos años en el campo de la psicología
tanto animal como humana. Este programa adhirió a la concepción clásica de los conceptos,
como abstracciones de atributos, con límites definidos y claros. El aprendizaje se desarrollaba
en bases asociacionistas y su recorte de estudio fue la conducta observable, la mente un
reflejo de la realidad que no valía la pena estudiarse. Su núcleo fue, entonces, antimentalista.
A partir de la segunda mitad del siglo XX, se produce un cambio de programa de investigación,
dado que el nuevo presenta un núcleo diferente del anterior. Era menester demostrar las
insuficiencias del enfoque conductista y, en segundo lugar, el advenimiento de la computadora
daría el impulso final para esta nueva ciencia. Nos referimos aquí al cognitivismo, cuyo núcleo
es la mente. Los cognitivistas abrazan al racionalismo. Las cuestiones planteadas por
Descartes y sus contemporáneos, se han convertido, unos siglos más tarde, en el objeto de
psicólogos, lingüistas y neurocientíficos. No sólo eso, las reflexiones cartesianas como posible
autómata son hoy centrales en toda la esfera de la inteligencia artificial.
Si bien dentro del cognitivismo, el procesamiento de información no puede dar total cuenta de
la formación de conceptos y el aprendizaje, se ha abierto un camino para futuras
investigaciones dentro de esta área. La concepción clásica de los conceptos se ha visto
reemplazada por teorías probabilísticas, donde el concepto ya no es delimitado, sino que posee
límites difusos y forma parte de una red en la cual, podríamos decir, "interactúa".
Así como el programa conductista fue reemplazado, a causa de sus limitaciones y anomalías,
por el nuevo programa cognitivista, debemos recordar que el conductismo surge de los
excesos y anomalías no resueltas del programa anterior. Cabe destacar, entonces, que si bien
el nuevo programa puede presentarse como progresivo, en términos de Lakatos, es notable y
evidente nunca está dada la última palabra en cuanto a conocimiento se refiere. Seguiremos,
entonces, haciéndonos la pregunta que no ha sido totalmente contestada:
¿Cómo llega una persona a conocer algo?
http://www.monografias.com/trabajos15/conductismocognitivismo/conductismo-cognitivismo.shtml
De los años 20 a los 50
El concepto de inteligencia emocional, aunque esté de actualidad, tiene a nuestro parecer un
claro precursor en el concepto de Inteligencia Social de Thorndike (1920, p. 228) quien la
definió como "la habilidad para comprender y dirigir a los hombres y mujeres, muchachos y
muchachas, y actuar sabiamente en las relaciones humanas". Para Thorndike además de la
inteligencia social existen también otros dos tipos de inteligencias: la abstracta -habilidad para
manejar ideas- y la mecánica- habilidad para entender y manejar objetos- .
En los años 30 con el auge del conductismo entramos en una larga etapa de "silenciamiento"
de los procesos no directamente observables como la inteligencia. No obstante, aparecen
algunos trabajos en esta época como los de Wechsler con el diseño de las dos baterías de
pruebas de inteligencia: para adultos (1939) -WAIS- y el de niños (1949) -WISC-. Ambas
siguen siendo utilizadas hoy en día.
De los 50 a la actualidad
El debilitamiento de las posturas conductistas y la emergencia de los procesos cognitivos
aparecen con el estructuralismo. Los trabajos de Piaget y su teoría sobre el desarrollo
intelectual contrasta visiblemente de las posturas psicometricistas y del procesamiento de la
información (Hardy, 1992).
Desde el procesamiento de la información se desarrollan dos enfoques: por un lado, el de los
correlatos cognitivos en el que el estudio de la inteligencia se ha llevado a cabo seleccionando
una capacidad que pueda medirse en un test; por otro lado, el de los componentes cognitivos
en el que su interés estriba más bien en conocer qué es lo que mide un test de inteligencia.
Aparece el modelo computacional y el interés por el estudio de la inteligencia artificial. Con ello
llega, a nuestro juicio, uno de los errores más graves de las teorías cognitivas. Cuando se
estudian los procesos cognitivos sobre inteligencia artificial lo que estudiamos es la inteligencia
computacional y no la humana.
Siguiendo a Marina (1993), si bien es cierto que las ciencias cognitivas han realizado
aportaciones valiosas muy aprovechables, la labor pendiente es la elaboración de una ciencia
de la inteligencia humana, donde no se trate sólo de lógica formal, sino también de lógica
inventiva, no sólo de razón sino también de emoción y de sentimientos.
La idea que subyace a la inteligencia actualmente es la capacidad de adaptación (Sternberg,
1997). Es como si la idea de la globalización hubiese llegado a este campo de estudio de la
Psicología, donde la inteligencia está muy vinculada con la emoción, la memoria, la creatividad,
el optimismo, la personalidad y en cierto sentido con la salud mental.
Cómo llegamos al concepto de IE
En 1983, Gardner publica "Frames of Mind", donde reformula el concepto de inteligencia a
través de la teoría de Inteligencias Múltiples. De esta manera, Gardner sostiene que poseemos
7 tipos de inteligencia distintas, cada una de ellas relativamente independiente de las otras Inteligencia musical, I. quinestésica-corporal; I. lógico-matemática; I. Lingüística; I.
Intrapersonal e I. Interpersonal- (Gardner, 1983; Walters y Gardner, 1986; Krechevsky y
Gardner, 1990). Esta teoría, introdujo dos tipos de inteligencias muy relacionadas con la
competencia social, y hasta cierto punto emocional, la Inteligencia Interpersonal y la
Inteligencia Intrapersonal. Gardner (1983,1993) definió a ambas como sigue:
"La Inteligencia Interpersonal se construye a partir de una capacidad nuclear para sentir
distinciones entre los demás: en particular, contrastes en sus estados de ánimo,
temperamentos, motivaciones e intenciones. En formas más avanzadas, esta inteligencia
permite a un adulto hábil leer las intenciones y deseos de los demás, aunque se hayan
ocultado... " (Gardner, 1993: 40)
Y a la Inteligencia Intrapersonal como "el conocimiento de los aspectos internos de una
persona: el acceso a la propia vida emocional, a la propia gama de sentimientos, la capacidad
de efectuar discriminaciones entre las emociones y finalmente ponerlas un nombre y recurrir a
ellas como un medio de interpretar y orientar la propia conducta..." (Gardner 1993: 42) Quizás
esta última, tiene algo más de relación tiene con nuestro constructo teórico de interés, la
inteligencia emocional.
En la actualidad, Goleman (1996, p. 74), interpreta y resume estas dos capacidades,
propuestas por Gardner, como "la capacidad de discernir y responder apropiadamente a los
estados de ánimo, temperamentos, motivaciones y deseos de las demás personas" en
referencia a la inteligencia interpersonal, y en cuanto a la inteligencia intrapersonal como "la
capacidad de establecer contacto con los propios sentimientos, discernir entre ellos y
aprovechar este conocimiento para orientar nuestra conducta".
El concepto de inteligencia emocional nace con la necesidad de responder a una cuestión que
puede parecer simple: ¿Por qué hay personas que se adaptan mejor que otras a las diferentes
contingencias de la vida?
En 1966, Leuner desarrolla un trabajo en el que vincula el papel de la familia y el desarrollo de
la IE en la etapa preverbal del niño, aunque el concepto de IE no queda suficientemente
desarrollado.
El concepto de IE fue más desarrollado Peter Salovey, quien la definió como "un tipo de
inteligencia social que incluye la habilidad de supervisar y entender las emociones propias y las
de los demás, discriminar entre ellas, y usar la información para guiar el pensamiento y las
acciones de uno" (Mayer y Salovey, 1993: 433). Según Salovey y Mayer (1990), este concepto
de IE subsume a los conceptos de inteligencia intrapersonal e interpersonal que propone
Gardner (1983), dándole además un enfoque menos cognitivo, pero añadiéndole el
componente emocional que Gardner obvia, probablemente por estar inmerso del "Zeitgeist" de
la época, a principios de los ochenta cuando Gardner define estas inteligencias por primera
vez, donde la Psicología Cognitiva predominaba como paradigma. Este concepto propuesto por
Salovey y Mayer incluye además el hecho de que son metahabilidades que pueden ser
categorizadas en cinco competencias o dimensiones (Salovey y Mayer, 1990; Mayer y Salovey,
1993, Mayer y Salovey, 1995, Goleman, 1996 y Goleman 1998):
1.- El conocimiento de las propias emociones. Es decir, el conocimiento de uno mismo, la
capacidad de reconocer un mismo sentimiento en el mismo momento en que aparece,
constituyendo la piedra angular de la IE
2.- La capacidad para controlar las emociones. La conciencia de uno mismo es una
habilidad básica que nos permite controlar nuestros sentimientos y adecuarlos al momento.
3.- La capacidad de motivarse a sí mismo. Con esto Salovey y Mayer, y más tarde Goleman,
quieren hacernos entender que el control de la vida emocional y su subordinación a una meta
puede resultar esencial para "espolear" y mantener la atención, la motivación y la creatividad.
Es decir, esta habilidad ayuda a aumentar la competencia no sólo social sino también la
sensación de eficacia en las empresas que se acometen. Este aspecto se relaciona también
con el concepto de Inteligencia Exitosa propuesto actualmente por Sternberg (1998).
4.- El reconocimiento de las emociones ajenas. La empatía, es decir, la capacidad para
poder sintonizar con las señales sociales sutiles indican qué necesitan o qué quieren los
demás.
5.- El control de las relaciones. Es una habilidad que presupone relacionarnos
adecuadamente con las emociones ajenas.
http://www.capitalemocional.com/articulos/iemo_constructo.htm
Definición y concepción básica ¿qué es el conductismo?
No hay unanimidad de criterios al denominar al conductismo o a la terapia
conductista. En general no se la considera una escuela psicológica sino más bien
como una orientación clínica, que se enriquece con otras concepciones. La historia
de esta terapia ha evolucionado bastante por lo que hoy sería difícil que una
persona se autodefina como un conductista puro o clásico. Por esta razón otros
autores no conductistas llaman a los continuadores de los lineamientos conductistas
como “neo-conductistas”, pero esto tampoco satisface a los protagonistas.
Cuando se habla de conductismo aparece una referencia a palabras tales como
“estímulo” “respuesta” “refuerzo”, “aprendizaje” lo que suele dar la idea de un
esquema de razonamiento acotado y calculador. Pero ese tipo de palabras se
convierten en un metalenguaje científico sumamente útil para comprender la
psicología. Actualmente nadie acotaría la terapéutica solamente esos ordenadores
teóricos, hasta los clínicos que se definen como conductistas usan esos elementos
como punto de partida, pero nunca se pierde de vista la importancia interpersonal
entre el paciente y el terapeuta, ni la vida interior de un ser humano, ni otros
elementos, técnicas, teorías, inventivas que sirven para la tarea terapéutica. En
este sentido, en los comienzos del conductismo se desechaba lo cognitivo, pero
actualmente se acepta su importancia y se intenta modificar la rotulación cognitiva
(expectativas, creencias actitudes) para reestructurar las creencias irracionales del
cliente buscando romper los marcos de referencia que pueden ser desadaptativos.
Frente a determinados estímulos, se puede mostrar un repertorio conductual
adecuado pero puede responderse erróneamente a otros. Un ejemplo común al
respecto es cuando un padre entrena sin quererlo a su hijo en algún tipo de
estímulo discriminatorio inadecuado, por ejemplo cuando afirma sobre su hijo que
este solo le hace caso cuando se le grita. En este proceso, aunque las respuestas
estén bien aprendidas, suelen ser desadaptativas. Para modificarlas se elabora un
plan con respuestas potenciales ante un problema dado. Ocurre que el hábito que
se quiere cambiar, es una conducta que en determinados casos se convierte o se
constituye directamente como desadaptativa.
Es importante estructurar la terapia con el cliente, describir el modo de aprendizaje
social de la conducta desadaptativa, explicar en que consiste el tratamiento, cuales
son las etapas etc.
El objetivo se convierte en la modificación de las conductas, y es clave determinar
claramente este y otros objetivos, es decir cuales son las conductas desadaptativas
que deben modificarse.
En primer lugar se prepara al cliente sobre los lineamientos de un tratamiento,
luego se seleccionan situaciones conflictivas que se deben cambiar en las cuales se
evidencia la problemática a tratar, para esto primero se llega a imaginar situaciones
interpersonales en el consultorio, luego a simular estas circunstancias probando
una modificatoria de la conducta propiamente dicha, para poder lograr
paulatinamente el desempeño de nuevas conductas frente a situaciones reales. Más
tarde se insistirá en la llamada “exposición en vivo”, que es la exposición gradual a
situaciones análogas a las que fueron tratadas durante la desensibilización
imaginaria. Se busca así un nuevo desempeño frente a un nuevo rol en situaciones
reales, al seguir con éxito una pauta formulada en el consultorio, pero ahora
ensayada en vivo.
Hay que tener en cuenta que en las conductas aparecen refuerzos, que es cuando
un acontecimiento acrecienta la posibilidad de la conducta a la que sigue. Hay
refuerzos positivos y negativos (si disminuye la probabilidad de la conductas que
continúa). En el consultorio se pautan cuales son los refuerzos positivos y cuales los
negativos, como llegar a condicionar mediante estos refuerzos la evitación de
conductas desadaptativas y el fomento de otras que no lo son.
Es común que los clientes se manejen dentro de un contexto de “autoconcepto
negativo”, lo que constituye una actitud negativa respecto a la propia conducta. Por
ello se debe trabajar en la eficacia de las conductas de interrelación del cliente. En
este sentido la falta de asertividad, suele implicar un déficit conductual adecuado,
por lo que se utilizan técnicas para fomentarla, y crear un marco social más
favorable.
Es claro que el terapeuta influye de manera significativa durante las sesiones de
terapia, se pasa de operar en primer lugar en un ambiente controlado (por ejemplo
el consultorio) para llegar a una aplicabilidad significativa en la vida del cliente,
mediante un condicionamiento operante en el ámbito interpersonal.
Una de las técnicas empleadas es la utilización de metodologías de relajación. Esta
actitud se basa en la concepción que los pensamientos y sentimientos tienen una
localización en lo muscular. Por lo tanto el entrenamiento de la relajación reduce la
ansiedad. Se persigue así la llamada “desencibilización sistemática” para reducir la
ansiedad injustificada ante ciertas situaciones, con la consigna de relajarse ante la
aparición de tensión.
La terapia conductista se centra en el presente del sujeto, aunque no niega el
pasado ni lo descarta, pero considera que ese pasado no continúa siendo activo en
el presente de un paciente, aunque reconoce la importancia de las experiencias de
aprendizaje previas.
Por el contrario de escuelas como las de C. Rogers, que plantean el autocontrol y la
“no dirección” del cliente, el conductismo cree que si alguien requiere ayuda es
porque necesita intervenciones terapéuticas dirigidas y sistemáticas, que deberán
realizarse basadas en la inventiva profesional.
Concepto de caja negra
la lectura pragmática de Watzlawick et al. (1965) da lugar, paradójicamente, a una
versión interaccional de la "caja negra" del conductismo. De hecho, el grupo de Palo
Alto reivindica explícitamente el concepto de caja negra y afirman que: Si bien es
cierto que algunas relaciones permiten hacer deducciones con respecto a lo que
"realmente" sucede en el interior de la caja, tal conocimiento no resulta esencial
para estudiar la función del aparato dentro del sistema más amplio del que forma
parte (Watzlawick et al., 1965, p. 44).
http://www.clinicapsi.com/conductismo.html
Durante más de dos mil años la psicología ha sido entendida en su sentido etimológico de
"disciplina que tiene por objeto el alma". En efecto, "psique", quiere decir alma, y por
consiguiente psicología significa "el estudio del alma".
Cuando en 1700 y luego en 1800 empezó a abrirse camino la idea de que la psique podía
conocerse mejor a través del análisis basado en la experiencia, se crearon las premisas para
un cambio en el método de investigación que habrían dado paso al nacimiento de la psicología
científica. Pero el objeto de la psicología continuó siendo el mismo, es decir, la psique, aunque
su carácter de sustancia (el alma) se había ido sustituyendo por su aspecto fenoménico (la
conciencia) y muchos investigadores parecían preferir el análisis de reacciones precisas antes
que el examen introspectivo de la conciencia. Probablemente, muy pocos habrían puesto en
duda que la psicología podía tener otro objeto de estudio, ya que, al renegar de dicho objeto,
se habría negado a sí misma por definición.
El conductismo representa la revolución más radical en el enfoque de estudio de la psicología,
ya que no sólo considera que le compete también la conducta observable, sino que llega a
rechazar a veces que se tenga que ocupar de la conciencia. Desde cierta perspectiva, se
podría decir que el conductismo propone una nueva disciplina con un diverso objeto de estudio,
a no ser porque su propósito, de explicar todos los temas afrontados por la psicología antigua
de un modo más satisfactorio y científicamente satisfactorio, presenta al conductismo como la
única manera de hacer ciencia a la psicología.
En otras palabras, el objeto psique es explicado en los contenidos psicológicos (emoción,
hábito, aprendizaje, personalidad, etc.) y se propone su estudio a través de su manifestación
observable en términos de comportamientos emotivos, comportamientos habituales,
comportamientos de aprendizaje, comportamientos constitutivos de la personalidad etc.
El conductismo es un movimiento en la psicología que
avoca el uso de procedimientos estrictamente experimentales para la observación de
conductas (respuestas) con relación al ambiente (estímulo). El conductismo se desarrolla en
los principios del siglo XX por el psicólogo americano John B. Watson. En ese entonces la
psicología era considerada predominantemente como el estudio de las experiencias internas o
sentimientos a través de métodos subjetivos o introspectivos. Watson no negaba la existencia
de experiencias internas o emociones, pero insistía que estas experiencias no podían ser
estudiadas porque eran imposibles de observar.
Watson propuso convertir el estudio de la psicología en ciencia utilizando solo procedimientos
objetivos, como experimentos de laboratorio diseñados para producir resultados estadísticos
significativos. El estudio conductivista lo hizo formular una teoría conocida como estímulorespuesta. En esta teoría todas las formas complejas de conducta, tales como emociones y
hábitos, son estudiadas como compuestas por cambios musculares y glandulares simples, que
pueden ser observados y medidos.
En mediados del siglo XX otro psicólogo americano B. F. Skinner desarrollo una posición
conocida como Conductismo Radical o Conductismo Base. Él estaba de acuerdo con la opinión
de Watson de que la psicología es el estudio de conductas observables en individuos
interactuando con el ambiente. Aunque sostenía que los procesos internos, como los
sentimientos, debían de ser estudiados también a través de los procesos científicos usuales,
con un énfasis en particular en los experimentos controlados utilizando animales y humanos.
Desde 1950, los psicólogos conductistas han producido una impresionante cantidad de
estudios dirigidos a entender como se producen y mantienen los diferentes tipos de conductas.
Estos estudios han estudiado cuatro partes en especial:
1. Las interacciones que preceden una conducta, como los procesos
preceptúales y el periodo de atención que brinde el individuo.
2. Cambios en la conducta en sí, como la formación de habilidades.
3. Interacciones que se producen a partir de la conducta como los efectos de los
premios o castigos.
4. Condiciones que prevalecen a través de los eventos, como el stress emocional.
Los estudios realizados utilizando los principios conductistas han arrojado principalmente
conocimientos sobre la modificación de la conducta, o análisis aplicado de la conducta, útiles
en especial para la terapia de la conducta, métodos de enseñanza y entrenamiento, y los
efectos de las drogas en la conducta.
ORIGENES DEL CONDUCTISMO
El conductismo nace oficialmente en 1913, año en que J. B. Watson publicaba un artículo
programático con el título Pscycology as the Behaviorist Views It. Sin embargo, como han
observado muchos, Watson fue más bien el organizador, el radical propugnador y el hábil
divulgador de una serie de ideas y temas que hacía tiempo iban madurando.
Watson había sido el primer doctor en psicología de la Universidad de Chicago (1903), cabe la
cual se esteba dibujando el movimiento funcionalista, y que más tarde el mismo Watson
reconociera haber elaborado el "verdadero funcionalismo.
Quien lea el ensayo de Watson citado se dará cuenta inmediatamente de la influencia ejercida
sobre el conductismo por la experimentación con los animales. El evolucionismo darwiniano
había clarificado que entre el hombre y las demás especies animales no había una diferencia
radical, por la que el hombre tuviera un alma y los animales no. Por ello era plausible hacer
investigación psicológica con los animales, lo cual presentaba una serie de ventajas
incomparables debidas a la posibilidad de estudiar algunos hechos en organismos menos
complejos a la oportunidad de controlar variables concomitantes (cantidad y tipo de
alimentación, horas de reposos y actividad, condiciones de vida, etc.), a la posibilidad de
conocer y mantener bajo control la influencia de la experiencia pasada en las acciones
realizadas por el individuo examinado, a la libertad en los procedimientos (experimentaciones
largas y pesadas, disponibilidad del sujeto para el momento y el ambiente deseados, etc.),
finalmente, al carácter manipulable del organismo (lesión de las funciones sensoriales,
operaciones quirúrgicas, etc.). Entre fines del siglo XIX y comienzos del siglo XX, muchos
estudiosos de primer plano se habían ocupado de psicología animal: entre ello Romanes, Loeb,
Donaldson, Jennings, Lloyd-Morgan, Uexkull, Thorndike, Washburn, Yerkes, Small y Hunter.
Estudiar la psicología de los animales podía significar varias cosas. En particular, si el objeto de
la psicología es la conciencia, se tendría que haber llegado a conocer la naturaleza de la
conciencia animal. Pero partiendo del examen del comportamiento observable (los animales no
tienen un lenguaje a través del cual explicitar sus contenidos mentales), esto sólo se podía
obtener de un modo precario e indirecto. Watson afirmaba que la verdadera psicología de los
animales tenía simplemente que considerar su comportamiento, por el hecho de que el objeto
de toda la psicología se identificada sin más que el comportamiento. Ya en la investigación
llevada a cabo para su tesis doctoral, Watson tendía a juntar esta opción metodológica con otra
de contenido, orientada a negar importancia a la conducta. El aprendizaje que se verificaba en
un ratón adiestrado a recorrer un laberinto parecía consistir en la adquisición de una serie de
movimientos más que de nociones. De este modo dos tendencias distintas de fines del siglo
XIX (evolucionismo y fisicismo) encontraban una confluencia armónica. El animal empezaba a
ser considerado como conejillo de Indias, ideal para el conocimiento psicológico del hombre.
Thorndike, otro psicólogo norteamericano da un gran impulso a la experimentación animal. Sus
investigaciones con los animales, llevadas a cabo a fines del siglo pasado, fueron realizadas
con aparatos como el laberinto en forma de T y la jaula. En el laberinto el animal, después de
haber recorrido las patas de tantas T, se halla ante lugares de opción y tiene que aprender cuál
de las dos direcciones es la adecuada. En cambio lo que se exige al animal encerrado en la
jaula es aprender que para salir de la misma y encontrar comida e preciso mover una
manecilla. Observando a los gatos empeñados en esta última operación, Thorndike llegó a la
conclusión de que su aprendizaje se verificaba gradualmente, a través de una serie de ensayos
y errores que llevaba a la consolidación de las reacciones del organismo que habían sido
recompensadas (ley del efecto).
La "Ley del Efecto" de Thorndike se caracteriza claramente por un enfoque de tipo
conductista. Con el mismo el autor creía especificar una característica básica de la "inteligencia
animal". En efecto, podríamos considerar que la inteligencia consiste en comprender la relación
que existe entre el acto de presionar la manecilla y la posibilidad de salir, pero lo que
observamos efectivamente es que dicho acto se verifica tanto más a menudo mientras más va
seguido por una recompensa. El primer modo de describir la situación constituye una pura
inferencia sacada del segundo modo, que, en cambio se limita a los hechos. La ley empírica
del efecto nos dice que "una acción acompañada o seguida de un estado de satisfacción
tenderá a volverse a presentar más a menudo, una acción seguida de un estado de
insatisfacción tenderá a volverse a presentar menos a menudo". Pero, si esta ley explica
nuestras observaciones y es capaz de predecir lo que probablemente haremos en el futuro no
hay motivo para sustituirla por otra.
La ley del efecto subrayaba en primer lugar el carácter adaptativo y utilitarista de la acción
humana, cuya manifestación aparecía simplemente vinculada a la posibilidad de ser
recompensada. Muchos psicólogos habrían negado que el aprendizaje se verifique sólo en
presencia de recompensa y entre ellos incluso algunos pertenecientes a la tradición
conductista. En segundo lugar, el análisis de los tiempos exigidos al gato para llegar a la
presión de la manecilla sugería a Thorndike que el aprendizaje era gradual. Muchos
experimentos realizados por los psicólogos de la Gestalt y nuestro mismo sentido común nos
hubieran hecho pensar que el aprendizaje tendría que haberse verificado por medio de una
comprensión bastante repentina de la manera como era posible salir de la jaula. En este caso
el gato mentalmente diría algo así: "Ah, ya entendí"
Las curvas de aprendizaje trazadas por Thorndike, partiendo de sus datos, eran favorables a la
idea de que el aprendizaje es gradual, y no fruto de una comprensión repentina. En efecto en
este último caso tendría que haber pasado que, al principio, el gato no lograse salir o hallarse
casualmente la respuesta adecuada y, por tanto, tuviese necesidad de mucho tiempo, y que
luego –con el descubrimiento de la solución, el tiempo necesario para salir se volviese mínimo.
En cambio, Thorndike observó que con el paso de las pruebas, el tiempo necesario para un
gato salir de la jaula decrecía regular y gradualmente, sin caídas bruscas, y esto le hizo llegar a
la conclusión de que el animal no captaba la solución, sino que más bien iba a pequeños pasos
sucesivos, imprimiéndose las respuestas adecuadas y borrando las equivocadas.
Sin embargo, Thorndike no adoptó una postura decidida contra los que hacían una psicología
distinta de la suya, cosa que, en cambio hizo poco años después Watson. Éste había dejado
en 1904 la universidad de Chicago por la John’s Hopkins University y había continuado la
experimentación animal, colaborando también con Carr y Yerkes, el cual en 1909 había
introducido con Morgulis la obra de Pavlov en el ámbito norteamericano. Es indudable que la
escuela rusa ejerció una gran influencia sobre el conductismo.
En 1912, Watson anticipaba en una serie de conferencias en la Columbia University sus ideas,
expresadas luego más claramente en diversos ensayos y en tres volúmenes teóricos, el
primero Watson, 1914 inspirado en la psicología animal, el segundo Watson, 1919 enriquecido
con las observaciones llevadas a cabo con niños, el tercero Watson 1925 caracterizado por un
mayor interés aplicativo y por la batalla ambientalista.
Toda la obra de Watson está penetrada de una brillante y emotiva vena polémica y radical. El
primer blanco contra el que dirigió sus ataques fue el método introspectivo. En sentido amplio,
la introspección significa "mirar dentro de sí" y en este aspecto había constituido la base de
acopio de informaciones para la psicología tradicional.
Prescindiendo del hecho de que los demasiado pequeños progresos llevados a cabo con dicho
método por la psicología ponían en duda su capacidad efectiva de avance cognoscitivo,
Watson consideraba no científica la introspección por dos motivos fundamentales:
1. Por el hecho de que el observador se identificaba con lo observado (esto
significa, por ejemplo, que desde el mismo momento en que el observador
empezaba a observar la conciencia cambiaba por definición su objeto de
observación, ya que éste incluía la conciencia de estar observando.
2. Por el hecho de que la observación introspectiva era realizada por una persona
que hablaba de cosas que los demás no podían ver directamente (los datos
introspectivos son privados, en contraposición a los datos públicos de las
ciencias naturales). El carácter privado de los datos introspectivos era criticado
no sólo por una cuestión de principio, sino también por una cuestión de hecho:
a través de este método, se llegaba a descripciones completamente
discordantes o insatisfactorias.
La primera guerra mundial tuvo una función central en el desarrollo de la psicología en los
Estados Unidos, haciéndola salir de los estrictos ámbitos académicos y conocer en sus
potenciales contextos aplicativos y a la opinión pública. Si consideramos las relaciones
existentes anteriormente entre industrias y psicología, hasta 1915 habían sido más bien débiles
y episódicos. Durante la guerra, en cambio, se asistió a una especie de boom de la psicología.
La verdadera bomba estuvo representada por la tarea confiada a los psicólogos de someter el
ejército a tests con el fin de seleccionar los mejores soldados, y evitar grandes costes de
entrenamiento para los reclutas con una baja preparación intelectual. En un segundo tiempo los
tests también fueron usados con una intención clasificatoria, es decir, precisar las aptitudes
diferenciadas de los sujetos examinados.
El programa de selección llevó a examinar más de 1,727,000 hombres; el relieve y el éxito de
la iniciativa constituyeron la mejor carta de presentación para la psicología.
Los psicólogos de las universidades, primero hostiles a la aplicación, terminaron
progresivamente colaborando en la publicidad, en la organización industrial, en el ejército, etc.,
independientemente de su orientación teórica. Figuras del primer plano en este complejo
movimiento de investigación-aplicación fueron W. D. Scott, Mustenberg y Bingham, pero –en
posición de menor importancia- colaboraron muchisimos más y entre ellos Titchner, Watson y
Thorndike.
En 1920, cuando a causa de un pequeño escándalo terminado con el divorcio de Watson, éste
tuvo que abandonar la John’s Hopkins University, pasé a colaborar directamente con la
industria, metiéndose en problemas publicitarios y empresariales e interesándose cada vez
menos por la psicología. Su libro Behaviorism (1925), que obtuvo un gran éxito también y
especialmente fuera de los ámbitos científicos, representa claramente el nuevo estado
profesional e indica las perspectivas aplicativas del conductismo.
EL CONDUCTISMO WATSONIANO
Entre 1913 y 1930 se desarrolla el conductismo watsoniano. En ese período aparecieron las
primeras aportaciones conductistas de Kuo, Lashley, Weiss, Tolman y otros muchos, pero es
cierto que la obra de Watson fue particularmente central.
La teoría elaborada por Watson no presenta como un sistema orgánico y definido una vez por
todas. Por ejemplo, Watson especificó de modo diferente el objeto de la psicología. El
comportamiento fue explicado en los términos de "adaptación del organismo al ambiente",
"contracciones musculares", "conjunto integrado de movimientos" y "acciones". Se puede, en
cierto modo, decir que la unidad de observación psicológica es para Watson el comportamiento
o la conducta en el sentido de acción compleja manifestada por el organismo en su integridad,
"sea lo que fuere lo que realice, como orientarse hacia una luz o en dirección opuesta, saltar al
oír un sonido, u otras actividades más altamente organizadas como tener hijos, escribir libros,
etc.". Evidentemente esas conductas no se detectan en cada una de las reacciones
psicológicas que el organismo manifiesta (contracción de un músculo, o bien actividades de
órganos individuales como la respiración, la digestión, etc.), que constituyen el objeto
diferenciado de estudio de la fisiología.
En la experimentación psicológica que lleva a cabo, Watson se interesa principalmente por
variables dependientes complejas del tipo que acabamos de mencionar. Su "molecularismo" y
"reduccionismo" teórico se especifican en la idea de que esos comportamientos no son más
que la "combinación" de reacciones más simples, de moléculas constituidas por cada uno de
los movimientos físicos que, en cuanto a tales, son precisamente estudiados por la fisiología y
la medicina. En efecto, los principios de composición de las unidades simples en unidades
complejas no modifican la naturaleza de las primeras, sino que simplemente las componen.
Los principios a que principalmente se refiere Watson son la frecuencia y proximidad y el
condicionamiento. Los principios de la frecuencia y proximidad nos dicen que cuanto tiempo
más a menudo o cuanto más recientemente se ha verificado una asociación, con tanta mayor
probabilidad se verificará.
El condicionamiento empieza a ocupar un lugar central, en la teoría conductista, hacia 1916.
Watson aparece directamente influido no sólo por Pavlov sino también por los reflexólogos
rusos, es decir, por Secenov, que ya hacia 1860 había afirmado que los actos de la vida
consciente e inconsciente no son más que reflejos y por Bectherev que se interesaba de modo
particular por los reflejos musculares.
El principio de condicionamiento parte del descubrimiento del hecho de que en el organismo
existen respuestas incondicionadas a determinadas situaciones. Por ejemplo, un organismo
hambriento que recibe comida seguramente reaccionará salivando, un súbito haz de luz sobre
los ojos provocará seguramente una contracción de la pupila, etc. la comida y el haz de luz se
llaman estímulos incondicionados, es decir, acontecimientos que se producen en el medio
ambiente y que provocan incondicionadamente una determinada respuesta en el organismo.
Pero, otros estímulos que hayan sido asociados a los estímulos incondicionados provocarán
también la reacción incondicionada, aunque no tengan por si mismos relación alguna con ella.
Por ejemplo, el perro de Pavlov salivaba cuando oía el sonido de una campanita, por el sólo
hecho de que ese sonido había sido anteriormente asociado con cierta frecuencia a la
presentación de la comida. La investigación sobre el condicionamiento era de particular
importancia para el conductista porque, por un lado detectaba precisas unidades estímulo (que
permitían definir mejor el ambiente en que el organismo reacciona) y precisas unidades
respuesta, y, por el otro, porque ofrecía un principio clave para explicar la génesis de las
respuestas complejas. En efecto, se podía suponer que los comportamientos complejos,
manifestados por el hombre, eran una larga historia de condicionamientos.
Por este motivo adquirió particular importancia el estudio del aprendizaje empezando por las
primeras adquisiciones infantiles. Al analizar las emociones, Watson expresaba la idea de que
el miedo, la rabia y el amor son las emociones elementales y se definen partiendo de los
estímulos ambientales que las provocan. A partir de estas emociones se construirían las
siguientes emociones. Un caso famoso de aprendizaje de las emociones es el del pequeño
Albert, que Watson estudió junto con R. Rayner. Albert jugaba tranquilamente con un ratoncillo
cuando se le hizo escuchar a sus espaldas un violento ruido. Desde ese momento, el niño
manifestó un gran miedo tanto hacia los ratones como hacia otros animales y objetos peludos.
El ruido era un estímulo incondicionado capaz de producir por sí solo una respuesta de miedo;
su asociación con otro estímulo hacía que el niño fuese condicionado a tener miedo también al
ratoncillo y también a otros objetos con características similares. Estudiando una de las
primeras neurosis experimentales de la historia de la psicopatología, Watson probaba más
adelante que las neurosis no son ni innatas, ni objetos misteriosos, sino que podían definirse
en los términos de respuestas emocionales aprendidas.
Para Watson, las mismas leyes que regulan el aprendizaje emotivo constituyen la base de las
demás adquisiciones y, en particular, de los llamados "hábitos". Si para los "hábitos manuales"
la idea podía ser compartida por muchos, el problema se hacía más difícil cuando se trataba de
explicar procesos psicológicos complejos y en particular el pensamiento y sus relaciones con el
lenguaje. La propuesta metodológica de Watson exigía basarse en la observación de la
conducta, y en este caso de la conducta verbal, y por tanto el pensamiento debería haberse
inferido del lenguaje. Pero la propuesta por así decir "filosófica" era la de negar existencia real
al pensamiento y asimilarlo directamente al lenguaje.
Para Watson, el lenguaje se adquiere por condicionamiento. El niño oye asociar a un objeto su
nombre y por consiguiente el nombre termina por evocar la misma respuesta evocada por el
objeto. Progresivamente todo el sistema de movimientos que provocan la emisión del sonido
palabra puede ser sustituido por una parte de movimientos, por lo que la palabra es sólo
pronunciada en voz baja, o moviendo silenciosamente los labios, o bien mediante simples
"hábitos de laringe". Watson creía que de esta manera se va formando el pensamiento y
sugería que podía ser reducido a un conjunto de hábitos de laringe. En el plano teórico el punto
central estaba representado por el hecho de que la actividad de pensamiento era un resultado
de los aprendizajes comunicativos y no tenía por sí mismo importancia ni interés cognoscitivo.
EL PAPEL DE LA EXPERIENCIA Y
LAS GRANDES TEORIAS DEL APRENDIZAJE
En el segundo y tercer decenio del siglo, las teorías psicológicas más populares en los Estados
Unidos, además de la watsoniana, fueron la de McDougall y la de Freud. Ambas, pero en
particular la primera, se caracterizaban por la importancia atribuida a los instintos hereditarios
en el hombre. Watson en un primer tiempo aceptó esta idea, pero en un segundo tiempo,
influido por la posición radical de Kuo e impresionado por el desacuerdo y la confusión entre los
psicólogos que intentaban clasificar los instintos, optó decididamente por una postura, que por
un lado no reconocía la utilidad y validez psicológica del concepto de instinto y, por el otro,
negaba que el hombre estuviese al momento del nacimiento dotado de un bagaje psicológico
personal. En 1925, Watson llegó a afirmar que el recién nacido tiene un repertorio de
reacciones extremadamente limitado, como reflejos, reacciones postulares, motrices,
glandulares y musculares, pero dichas reacciones afectan al cuerpo y no son rasgos mentales;
el niño nace sin instinto, inteligencia u otras dotes innatas, y será sólo la experiencia ulterior la
que caracterizará su formación psicológica. Watson adoptaba así una posición igualitarista "los
hombres nacen todos iguales" y llena de confianza en poder influir el desarrollo del sujeto
controlando las experiencias a que se expone. Con una afirmación que se hizo famosa, Watson
declaraba que si le hubiesen dado una docena de niños sanos, los habría podido convertir
fácilmente en buenos doctores, magistrados, artistas, comerciantes, independientemente de
sus hipotéticas "tendencias, inclinaciones, vocaciones, raza de los antepasados".
Según esta posición el hombre era totalmente producto de sus experiencias. Por consiguiente,
adquiría importancia central el estudio del aprendizaje, es decir, la manera como el hombre
adquiere un repertorio de comportamientos motores, verbales, sociales, etc., que luego serán
los elementos constitutivos de su personalidad complexiva. Aunque a menudo los psicólogos
de tradición conductista hayan aceptado la idea de que parte de los rasgos psicológicos de una
persona está vinculada a sus predisposiciones hereditarias, es cierto que de su opción
ambientalista surgió el interés dominante por el estudio del aprendizaje.
En efecto, gran parte de las teorías del aprendizaje elaboradas entre 1920 y 1960 se puede
relacionar con el conductismo. Entre las mismas las más famosas son las de Thorndike,
Guthrie, Tolman, Hull, Spence, Skinner, Miller, Estes, Underwood y Postman. Diversos
volúmenes ofrecen una presentación bastante completa de dichas teorías, por lo que solo
estudiaremos a tres de sus más ilustres exponentes, es decir, Tolman, Hull y Skinner.
La obra de Tolman constituye uno de tantos casos anómalos dentro de la escuela conductista,
desde el momento en que fue poco a poco diferenciándose del conductismo watsoniano y
acogiendo ideas cognitivitas o incluso psicoanalíticas. Tolman se vinculó directamente con Holt
y Perry en el intento de especificar el objeto psicológico mejor de lo que creía haber hecho
Watson. En efecto, la posición "molecularista" de Watson tenía el peligro de identificar el
"comportamiento" de las "contracciones musculares" y de remitir su estudio a la fisiología. Por
el contrario, Tolman creía que existía un "específico psicológico" caracterizado por su
"molaridad" (es decir, no descomponible en componentes simples, so pena de desnaturalizarlo)
o bien por su irreductibilidad. Ese "especifico", sin embargo, no era de naturaleza psíquica, sino
de naturaleza comportamental, tal como Watson había afirmado, sólo que se caracterizaba por
el hecho de poseer propiedades emergentes. Para Tolman, si caracterizásemos el
comportamiento, por ejemplo de un ratón que mueve una cuerdecita para acercarse la comida,
solo con los componentes motores habríamos dado una descripción fisiológica. Para llegar a
una descripción psicológica deberíamos tener en cuenta los predicados que emergen del
comportamiento de ese ratón, es decir, del hecho que muestra "cogniciones" e
"intencionalidades" (es decir, está orientado hacia metas).
Podremos seguir mejor la argumentación de Tolman refiriéndonos al predicado de la
intencionalidad que s tan importante en su obra que se ha hablado de ella como un
conductismo intencional. Perry ya había analizado el comportamiento finalizado y había
afirmado que se caracterizaba por la "docilidad" o presencia de un aprendizaje, por el que,
dado un determinado ambiente, la respuesta se presenta sólo si se tiene un determinado
resultado. Para que el individuo sepa que la respuesta lleva precisamente al objetivo deseado,
la conexión si tiene que haberse verificado en el pasado y el individuo tiene que haberla
aprendido. Realizando experimentos con los animales Tolman explicitó en términos empíricos
la problemática inherente a la intencionalidad del comportamiento.
"El objetivo está descriptivamente presente, cuando es necesario la afirmación del objeto meta
para indicar:
1. la constancia del objeto meta, a pesar de las variaciones en la adaptación a los
obstáculos interpuestos; o
2. la variación en la dirección final correspondiente a las posiciones diferentes del
objeto meto; o
3. el cese de la actividad cuando se quita un determinado objeto meta."
En estos tres casos, la descripción del comportamiento sería insatisfactoria si no se hiciese
referencia a un objeto meta. Filosóficamente, introduciendo la noción de "objetivos" y con ella
otras como "expectativa", "signo Gestalt", "mapa cognitivo", etc., Tolman se aparta
indudablemente de la mayor parte de los conductistas. Sin embargo, ha adoptado de ellos la
metodología y el punto de partida: el comportamiento.
Tolman habla a menudo de "variable interventora", reconociendo que un método objetivo
conoce sólo la variable dependiente representada por el comportamiento, y sin embargo,
puede inferir del mismo la presencia y las características de las variables mentales que
intervienen. En efecto, conociendo los valores de las variables independientes (estímulos
ambientales, experiencia anterior, estado pulsional, etc., variables que Tolman propone definir
en términos operacionales) y los valores del comportamiento efectivo, es posible hacer
inferencias sobre las variables interventoras (propiedades que el sujeto atribuye al objeto,
capacidades, etc.) que, como dice Tolman, son entidades objetivas, definidas en los términos
de las funciones "f" que las conectan con las variables independientes por una parte y con el
comportamiento final por la otra.
Como observó Fraisse (1967) la psicología había abandonado muy pronto el ideal de detectar
las conexiones puras por las cuales, dado el estimulo S, se verifica siempre la respuesta R. La
realidad nos dice que S puede provocar respuestas diversas, R1, R2, R3, … R11, que por
consiguiente no pueden ya ser consideradas puramente función de S, según el esquema:
SR
luego R = f (S)
sino que deben referirse también a una variable que interviene entre S y R:
SIR
luego R = f (I x S)
En particular, la superación de la simple conexión S-R se habría dado en primer tiempo en
referencia a la importancia de variables interventoras del organismo, en un segundo tiempo con
referencia a toda la personalidad.
Al aceptar conceptos no observables, la teorización psicológica se dejaba una vez más influir
por el modelo de las ciencias naturales, cuyo debate epistemológico reconocía, cada vez con
mayor claridad, la relación que, dentro de una ciencia, existe entre teoría y datos empíricos.
Dos movimientos epistemológicos conectados entre sí tuvieron, alrededor de 1930, un peso
importante en la psicología: el neopositivismo y el operacionismo. Del neopositivismo muchos
psicólogos sacaron en particular los criterios para construir teorías y modelos fundados y
convalidados sobre datos empíricos, pero que también incluían constructos teóricos (la teoría
hipotético-deductiva de Hull constituiría su ejemplo más destacado), y además la distinción
entre datos empíricos aceptables. Esta distinción iba especialmente bien para los conductistas
e incluso consagraba su opción antiinstrospeccionista. A menudo fue descrita en esa época en
los términos operacionistas, por lo que el científico puede realizar sólo determinadas
"operaciones". En realidad, como demostró Curi (1973), el análisis de las operaciones
científicas había sido originariamente introducido por Bridgman como instrumento heurístico de
conocimiento de la actuación del científico; los conductistas, en cambio, lo aceptaron del modo
que congeniaba más con ellos.
Clark Hull recogió de Watson el conductismo molecular, de Thorndike la idea de que la
recompensa constituye un requisito fundamental del aprendizaje, de Tolman la referencia
metodológica a las variables interventoras. Partiendo de estas premisas y basándose en el
principio del condicionamiento clásico, Hull construyó una teoría hipotético-deductiva que
intentaba para la psicología la misma sistematización lógica y matemática presente en las
ciencias físicas. El sistema de Hull consta de definiciones, postulados, corolarios y teoremas; y
permite hacer predicciones no sólo sobre la dirección sino también sobre los aspectos
cuantitativos del comportamiento. Si pensamos que la psicología halla a menudo dificultades
en predecir si una cosa sucederá (¿se decidirá Pedrito a ir al teléfono?), aparece muy
fascinante el intento de Hull de llegar –a través de sofisticadas ecuaciones- a caracterizar
también cuantitativamente el comportamiento (¿cuanto tiempo empleará Pedrito para llegar
hasta el teléfono?). Está claro entonces por qué el análisis de Hull pudo forzosamente limitarse
a pocas situaciones experimentales, relativas al comportamiento de ratones, y que las
formulaciones tuvieran que someterse a revisiones y a críticas.
La teoría general de Hull apareció en 1943 en un libro con el titulo Principles of Behavior, pero
fue sometida a diversas modificaciones expuestas en una versión menos sistemática en el
volumen póstumo A Behavior System, en 1952. En ese decenio, el impacto de Hull sobre la
psicología experimental norteamericana fue tan grande que casi todos los investigadores se
veían obligados a citarlo en la bibliografía.
Si Hull creía en la utilidad de la teoría, Skinner, en cambio, se mostró -en línea de principiocontrario a la misma. Actualmente Skinner no se oponía a cualquier teoría, sino sólo a las
teorías elaboradas generalmente por los psicólogos, que introducen conceptos "mentalista" que
corren el riesgo de hipostatizar procesos y hechos puramente hipotéticos y son en su opinión
inútiles. Skinner está interesado por la observación del comportamiento y su relación con las
"contingencias de refuerzo", es decir, las ocasiones en que a una determinada respuesta ha
seguido una recompensa. Su idea es que este tipo de análisis puede ser suficiente para
explicar cualquier forma de aprendizaje, incluso el aprendizaje lingüístico. La consecuencia de
ello es que la referencia a procesos que se verificaran en la mente sería inútil y engorrosa,
además de ser difícilmente objetivable. Skinner extrapola su análisis de carácter general
partiendo del estudio del comportamiento de ratones y palomas emitidos en una jaula. Entre las
diversas respuestas que el animal puede dar se escoge una de modo que vaya seguida de un
estímulo reforzador. Se observará que la respuesta seguida de refuerzo tenderá a presentarse
cada vez con mayor frecuencia. Este paradigma se llama "condicionamiento operante" y se
diferencia del estudiado por Pavlov (llamado "clásico" o "de respuesta") por el hecho de que la
respuesta no sigue sino que precede al estímulo crítico. En el caso del perro de Pavlov, el
estímulo incondicionado (comida) o condicionado (campanita asociada a la comida) provoca
necesariamente la respuesta incondicionada. En el caso del ratón de Skinner, el organismo
emite cada vez más a menudo la respuesta a que se ha seguido un refuerzo. Desde los años
30 hasta hoy Skinner y sus colaboradores realizaron muchisimas experimentaciones con el fin
de especificar mejor la relación entre adquisición de comportamientos y hechos reforzadores
en particular por los efectos de "programas" diferentes de refuerzo. El paradigma del
"condicionamiento operante" se ha convertido en un esquema fundamental en psicología
comparada y fisiológica para estudiar también otra variables (como por ejemplo: ¿el fármaco x
tiene efectos colaterales sobre el comportamiento?), y se ha convertido en una clave de
bóveda para explicar aprendizajes complejos que quedaban inexplicados partiendo del
"condicionamiento clásico". En efecto, éste se basaba en la existencia de reacciones
incondicionadas (y en el hombre se han hallado muy pocas) y en la formación de
condicionamientos de segundo orden (la campanita del perro de Pavlov) y por tanto de orden
sucesivo: pero la posibilidad de obtener condicionamiento de cuarto, quinto, etc. orden
quedaba sin demostrar. En cambio está claro que el condicionamiento operante se aplica a
cualquier tipo de respuesta, porque cada uno de ellos puede ser seguido de refuerzo. Skinner,
por consiguiente, se empeñó en estudiar las principales respuestas humanas, buscando los
hechos reforzadores que provocan su mantenimiento o consolidación.
En esta perspectiva Skinner puso de manifiesto el carácter "manipulable" del comportamiento
humano, denunciando por un lado el papel desempeñado por ciertos grandes agentes de
control, como la familia, el Estado y la Iglesia y, por el otro, proponiendo, en una novela
utópica, utilizar con buen resultado esas mismas "reglas de manipulación", de modo que se
llegue a realizar una especie de "república" platónica, gobernada por los sabios.
La pedagogía es muy compleja y se dice que cada maestro y cada escuela es un mundo
aparte con sus propias creencias basadas en sus estrategias de enseñanza diaria. La posición
más común tomada por los directores de las escuelas tanto como por los maestros es la que
describiremos a continuación, conocida como La Educación Tradicional, y que se basa
fuertemente en la teoría conductista.
Un maestro de la educación tradicional cree en lo siguiente:
o Todo estudiante necesita ser calificado con notas, estrellitas, y
otros incentivos como motivación para aprender y cumplir con
los requisitos escolares.
o Cada estudiante debe ser calificado en base a los estándares
de aprendizaje, que la profesora traza para todos los
estudiantes por igual.
o El currículo debe estar organizado por materias de una manera
cuidadosamente y en secuencia y detallado.
Los maestros que aceptan la perspectiva conductista asumen que el comportamiento de los
estudiantes es una respuesta a su ambiente pasado y presente y que todo comportamiento es
aprendido. Por tanto cualquier problema con el comportamiento de un estudiante es visto como
el historial de refuerzos que dicho comportamiento ha recibido. Como para los conductistas el
aprendizaje es una manera de modificar el comportamiento, los maestros deben de proveer a
los estudiantes con un ambiente adecuado para el refuerzo de las conductas deseados.
Las conductas no deseadas de los estudiantes en el aula pueden ser modificados utilizando los
principios básicos de modificación de conducta.
Las siguientes son técnicas aplicadas en la educación tradicional para eliminar conductas no
deseadas en los estudiantes:
1. Refuerzo de las conductas deseadas, que de esta manera competirá con la
conducta no deseada hasta reemplazarla por completo.
2. Debilitar las conductas no deseadas eliminando los refuerzos de estas.
3. La técnica de la "saturación" que implica envolver a un individuo en la misma
conducta no deseada, de manera repetitiva hasta que el individuo se sienta
hastiado del comportamiento.
4. Cambiando la condición del estímulo que produce la conducta no deseada,
influenciando al individuo a tomar otra respuesta a dicho estimulo.
5. Usando castigos para debilitar la conducta no deseada.
Una importante aplicación del condicionamiento operante utilizado en la educación tradicional
es la de Aprendizaje Programado. En esta técnica las materias son divididas en pequeños
simples pedazos o marcos de referencia, en que en cada parte al estudiante se le bombardea
con una cantidad de preguntas a las que el estudiante conoce la respuesta y probablemente
conteste correctamente; luego de una en una se van agregando preguntas al repertorio, dando
premios e incentivando las respuestas correctas.
CONCLUSIÓN
Muchos críticos afirman que el Conductismo "sobre simplifica" la conducta humana y que ve al
hombre como una automatización en vez de una criatura con propósito y voluntad. A pesar de
la opinión de estos críticos, el conductismo ha tenido gran impacto en la psicología. Ha
impulsado la experimentación científica y el uso de procedimientos estadísticos.
Su más importante logro es el que ha
logrado cambiar el propósito principal de la psicología hacia la solución de verdaderas
problemáticas relacionadas con la conducta humana. Como el aprendizaje es una forma de
modificación de conducta, los procedimientos de modificación de conducta desarrollados por
los conductistas han probados ser de gran utilidad para muchos maestros y escuelas durante
las últimas generaciones.
Aunque en desacuerdo con gran parte de la influencia del conductismo en la educación, por la
forma de ver a los estudiantes como individuos vacíos que adquieren conductas y que las que
no son deseadas pueden ser reemplazadas o eliminadas, hay que admitir la gran influencia del
conductismo en la educación tradicional y la gran influencia que seguirá manteniendo sobre
esta.
http://caminantes.metropoliglobal.com/web/pedagogia/conductismo.htm
1.10 El proceso de razonamiento según la lógica
(Axiomas, Teoremas, demostración).
El Proceso de Razonamiento
El proceso de razonamiento en un sistema basado en reglas es una progresión desde un
conjunto inicial de afirmaciones y reglas hacia una solución, respuesta o conclusión. Como se
llega a obtener el resultado, sin embargo, puede variar significativamente:


Se puede partir considerando todos los datos conocidos y luego ir progresivamente
avanzando hacia la solución. Este proceso se lo denomina guiado por los datos o de
encadenamiento progresivo (forward chainning).
Se puede seleccionar una posible solución y tratar de probar su validez buscando
evidencia que la apoye. Este proceso se denomina guiado por el objetivo o de
encadenamiento regresivo (backward chainning).
Razonamiento Progresivo
En el caso del razonamiento progresivo, se empieza a partir de un conjunto de datos
colectados a través de observación y se evoluciona hacia una conclusión. Se chequea cada
una de las reglas para ver si los datos observados satisfacen las premisas de alguna de las
reglas. Si una regla es satisfecha, es ejecutada derivando nuevos hechos que pueden ser
utilizados por otras reglas para derivar hechos adicionales. Este proceso de chequear reglas
para ver si pueden ser satisfechas se denomina interpretación de reglas.
La interpretación de reglas es realizada por una máquina de inferencia en un sistema basado
en conocimiento. La interpretación de reglas, o inferencia, en el razonamiento progresivo
involucra la repetición de los pasos que se indican en la siguiente figura.
Figura 4.1 Proceso de Razonamiento Progresivo
http://www.monografias.com/trabajos/iartificial/pagina4_31.htm
Razonamiento Progresivo...
1. Unificación (Matching).- En este paso, en las reglas en la base de conocimientos se
2.
3.
prueban los hechos conocidos al momento para ver cuáles son las que resulten
satisfechas. Para decir que una regla ha sido satisfecha, se requiere que todas las
premisas o antecedentes de la regla resuelvan a verdadero.
Resolución de Conflictos.- Es posible que en la fase de unificación resulten
satisfechas varias reglas. La resolución de conflictos involucra la selección de la regla
que tenga la más alta prioridad de entre el conjunto de reglas que han sido satisfechas.
Ejecución.- El último paso en la interpretación de reglas es la ejecución de la regla. La
ejecución puede dar lugar a uno o dos resultados posibles: nuevo hecho (o hechos)
pueden ser derivados y añadidos a la base de hechos, o una nueva regla (o reglas)
pueden ser añadidas al conjunto de reglas (base de conocimiento) que el sistema
considera para ejecución.
En esta forma, la ejecución de las reglas procede de una manera progresiva (hacia adelante)
hacia los objetivos finales.
Un conjunto de aplicaciones adecuadas al razonamiento progresivo incluye supervisión y
diagnóstico en sistemas de control de procesos en tiempo real, donde los datos están
continuamente siendo adquiridos, modificados y actualizados. Estas aplicaciones tienen 2
importantes características:
1. Necesidad de respuesta rápida a los cambios en los datos de entrada.
2. Existencia de pocas relaciones predeterminadas entre los datos de entrada y las
conclusiones derivadas.
Otro conjunto de aplicaciones adecuadas para el razonamiento progresivo está formado por:
diseño, planeamiento y calendarización, donde ocurre la síntesis de nuevos hechos basados
en las conclusiones de las reglas. En estas aplicaciones hay potencialmente muchas
soluciones que pueden ser derivadas de los datos de entrada. Debido a que estas soluciones
no pueden ser enumeradas, las reglas expresan conocimiento como patrones generales y las
conexiones precisas entre estas reglas no pueden ser predeterminadas.
http://www.monografias.com/trabajos/iartificial/pagina4_32.htm
Razonamiento Regresivo
El mecanismo de inferencia, o interprete de reglas para el razonamiento regresivo, difiere
significativamente del mecanismo de razonamiento progresivo. Si bien es cierto ambos
procesos involucran el examen y aplicación de reglas, el razonamiento regresivo empieza con
la conclusión deseada y decide si los hechos que existen pueden dar lugar a la obtención de un
valor para esta conclusión. El razonamiento regresivo sigue un proceso muy similar a la
búsqueda primero en profundidad.
El sistema empieza con un conjunto de hechos conocidos que típicamente está vacío. Se
proporciona una lista ordenada de objetivos (o conclusiones), para las cuales el sistema trata
de derivar valores. El proceso de razonamiento regresivo utiliza esta lista de objetivos para
coordinar su búsqueda a través de las reglas de la base de conocimientos. Esta búsqueda
consiste de los siguientes pasos:
1. Conformar una pila inicialmente compuesta por todos los objetivos prioritarios definidos
en el sistema.
2. Considerar el primer objetivo de la pila. Determinar todas las reglas capaces de
3.
satisfacer este objetivo, es decir aquellas que mencionen al objetivo en su conclusión.
Para cada una de estas reglas examinar en turno sus antecedendentes:
a. Si todos los antecedentes de la regla son satisfechos (esto es, cada parámetro
de la premisa tiene su valor especificado dentro de la base de datos), entonces
ejecutar esta regla para derivar sus conclusiones. Debido a que se ha asignado
un valor al objetivo actual, removerlo de la pila y retornar al paso (2).
b. Si alguna premisa de la regla no puede ser satisfecha, buscar reglas que
permitan derivar el valor especificado para el parámetro utilizado en esta
premisa.
c. Si en el paso (b) no se puede encontrar una regla para derivar el valor
especificado para el parámetro actual, entonces preguntar al usuario por dicho
valor y añadirlo a la base de datos. Si este valor satisface la premisa actual
entonces continuar con la siguiente premisa de la regla. Si la premisa no es
satisfecha, considerar la siguiente regla.
Si todas las reglas que pueden satisfacer el objetivo actual se han probado y todas no han
podido derivar un valor, entonces este objetivo quedará indeterminado. Removerlo de la pila y
retornar al paso (2). Si la pila está vacía parar y anunciar que se ha terminado el proceso.
El razonamiento regresivo es mucho más adecuado para aplicaciones que tienen mucho mayor
número de entradas, que de soluciones posibles. La habilidad de la lógica regresiva para trazar
desde las pocas conclusiones hacia las múltiples entradas la hace más eficiente que el
encadenamiento progresivo.
Una excelente aplicación para el razonamiento regresivo es el diagnóstico, donde el usuario
dialoga directamente con el sistema basado en conocimiento y proporciona los datos a través
del teclado. Problemas de clasificación también son adecuados para ser resuelto mediante el
razonamiento regresivo.
http://www.monografias.com/trabajos/iartificial/pagina4_33.htm
Existen dos métodos de razonamiento lógico para probar una proposición: El
método inductivo y el método deductivo.
El Razonamiento Inductivo.
Consiste en observar propiedades específicas de un número limitado de
casos particulares y luego concluir que esas propiedades son generales
para todos los casos. En este razonamiento se procede de lo particular a
lo general. Desafortunadamente, tal razonamiento no siempre nos conduce a
resultados válidos, pues esta
conclusión
inductiva,
o conjetura, es solo
una proposición tentativa de lo que parece ser cierto en lo general, que queda
desacreditado con solo un caso que no cumpla con tal proposición.
Ejemplo de razonamiento inductivo.
Toma un conjunto finito de números impares y realiza las siguientes
operaciones:
(1)² -1 = 0 = 8 (0)
(3)² -1 = 8 = 8 (1)
(5)² -1 = 24 = 8 (3)
(7)² -1 = 48 = 8 (6)
La conjetura que podemos hacer es que “El cuadrado de todo número impar
disminuido en la unidad, es múltiplo de 8”. Si podemos probar que esta
conjetura es cierta para todo impar 2n-1, la podriamos aceptar como
verdadera, veamos:
(2n-1)² - 1 = 4n² - 4n = 4n (n-1)
y como (n) y (n-1) son factores consecutivos, entonces necesariamente uno
de ellos es un número par que multiplicado por 4 producirá un múltiplo de 8,
con lo cual se prueba la veracidad de nuestra conjetura.
El Razonamiento Deductivo.
Es un método que consiste en partir de ciertas
leyes generales para
aplicarlas a casos particulares. En este proceso de razonamiento, hay un
conjunto de hechos conocidos y de suposiciones a partir de los cuales otros
pueden ser deducidos. El conjunto de hechos conocidos son los axiomas, las
definiciones y los teoremas previamente demostrados (que representan las
leyes generales). El conjunto de
suposiciones son los datos
de
la
proposición a demostrar y se llama hipótesis, los hechos que han de ser
deducidos se les denomina conclusión o tésis (que
representan el caso
particular)
El razonamiento deductivo consiste en obtener conclusiones verdaderas a
partir de enunciados dados, a través de tres pasos:
I.
Un enunciado general que se refiera a un conjunto completo o
clase de cosas.
II.
Un enunciado particular acerca de un o
algunos miembros del
conjunto o clase de cosas a que se refiere el enunciado general.
III.
Una deducción que se produce lógicamente cuando el enunciado
general se aplica al
enunciado particular.
Ejemplo 1 :
Todas las aves tienen alas
(Enunciado general)
El águila es una ave
(Enunciado particular)
El águila tiene alas
(Deducción)
A este arreglo de enunciados que nos permite deducir la tercera se le
denomina silogismo y a la técnica que consiste en usar un silogismo para
llegar a una conclusión se le llama razonamiento deductivo.
En un silogismo, al enunciado general se le llama premisa mayor, y al
enunciado particular premisa menor y la deducción es la conclusión.
Ejemplo 2 :
Premisa Mayor:
Todos los perros son animales.
Premisa Menor:
“Campeón” es un perro.
Conclusión :
“Campeón” es un animal.
http://docentes.uacj.mx/flopez/Cursos/Geometria/Unidades/Unidad%203/3.
1%20El%20Razonamiento.htm
DEMOSTRACION DE TEOREMAS
El encontrar una demostración de un teorema presentado como conjetura, en
matemáticas, se considera normalmente como una tarea inteligente. No sólo
requiere la capacidad de extraer deducciones a partir de hipótesis, sino que
exige destrezas intuitivas tales como la de hacer conjeturas sobre que lemas
deberían ser probados antes de facilitar la demostración del teorema principal.
Un matemático hábil utiliza lo que podríamos llamar un criterio (basado en gran
cantidad de conocimiento especializado) para prever con cierta seguridad qué
teoremas previamente demostrados serán útiles en la demostración que se
trata de realizar y fraccionar el problema en sub-problemas en los que pueda
trabajar independientemente. Se han desarrollado programas para la
demostración automática de teoremas que poseen algunas de estas habilidades
en un grado limitado.
El estudio de la demostración de teoremas han tenido mucha importancia en el
desarrollo de los métodos de IA. Por ejemplo, la formalización del proceso
deductivo utilizando el lenguaje de la lógica de predicados nos ayuda a
comprender mejor algo sobre los componentes del razonamiento. Muchas
tareas informales, incluyendo el diagnóstico médico y la recuperación de
información, pueden formalizarse como problemas de demostración de
teoremas. Por esa razón, la demostración de teoremas es una materia
extremadamente importante en el estudio de los métodos de la IA.
http://www.uap.edu.pe/Fac/02/trabajos/02206/isi%2033/go1/ia.h
tml
1.11 El modelo de adquisición del conocimiento según
la filosofía.
El problema crucial
Lo que denominamos problema crucial o estado de la cuestión, consiste en lo
siguiente:
en los actos de comunicación humana están interrelacionados imágenes, texto, voz,
(iconos, signos y símbolos), pero en la programación actual se utilizan como cosas
independientes (pegotes), ligadas espontáneamente en el tiempo y el espacio por el
programador e interpretadas por la semántica natural del usuario.
Nuestro planteamiento:
Estos 'pegotes' de imágenes, textos y sonidos necesitan una filosofía del conocimiento
que fundamente su función interna dentro de la comunicación de conocimientos, o sea
pasar a ser elementos de la estructura de conocimiento y no sólo datos. A esta
filosofía la llamamos idea intuitiva de la comunicación sistema-usuario. Para
deslindar este problema, lo situamos en un contexto de enseñanza de conocimientos, o
sea, Tutores Inteligentes en entornos Multimedia (TIM), que, por otro lado, resulta
uno de los campos privilegiados de las aplicaciones de multimedia. De esta
manera,además, puede contribuir a crear un método para el diseño de tales aplicaciones.
Pero un método, en computación, significa no sólo unas reglas de comportamiento sino,
como es sabido, un esquema de representación, que sirva de plataforma común a IA y
Multimedia. Nuestro esbozo de esquema de representación del conocimiento se basa
en las redes semánticas y, por eso, lo denominamos RESMUL (Redes semánticas para
multimedia).
Multimedia supone una organización general de la arquitectura y dispositivos de
ordenadores y una organización de la programación: un hardware y un software
adecuados. Su orientación a aplicaciones de enseñanza y entrenamiento resulta un
campo privilegiado de experimentación. Pero se necesita que esta orientación tenga un
soporte teórico contrastado. Tal soporte teórico lo constituyen los Tutores Inteligentes
(TI) , que son un tipo de sistemas expertos (SE) con unos módulos especiales (módulo
del alumno, módulo pedagógico) y una reestructuración de los existentes (módulo de
conocimiento, módulo de explicaciones, interfaz). El concepto de TI supone la
existencia de un usuario inteligente con quien dialoga el TI. Para facilitar esta
comunicación el TI necesita disponer de un modelo del alumno y de un interfaz de
comunicación. Así, pues, el TI contiene un modelo de usuario que le sirve de
plataforma de intercomunicación con el usuario real. TI y usuario tienen que
ponerse a un nivel de conocimiento razonable y concordar en el lenguaje, como si se
tratara de dos sujetos cooperativos que van a dialogar sobre objetos convenidos.
La necesidad de un modelo del usuario es patente en los sistemas de comunicación
basados en la semántica (por ejemplo, dependencias conceptuales y scripts: grupo de
Yale), pues tal modelo contiene la interpretación que se espera del usuario.
El modelo de adquisición del conocimiento de J.R. Anderson (ACT* y luego PUPS)
representa una teoría que puede servir de referencia cognitiva (modelo computacional
del alumno) para una presentación en forma de un modelo productivo: modelo de
realización (performance) y modelo de aprendizaje; donde, además, se interrelaciona el
conocimiento declarativo y procesual.
Nuestro planteamiento de los TIM supone una transformación fundamental de la Base
de Conocimiento (BC) y de los Interfaces de los TI. En la BC porque el conocimiento
se articula sobre la estructura de las imágenes (análisis y síntesis), y, en los interfaces,
porque exige distinguir entre el comportamiento del usuario y el del sistema.
De entre los múltiples productos multimedia que hemos analizado detalladamente
señalamos dos porque ilustran bien el estado presente de este tipo de aplicaciones y
herramientas: NAUTILUS (realizado en TOOLBOOK) y TOOLWORKS. El primero
es una especie de enciclopedia y el segundo es una herramienta típica para manejar
ficheros de objetos multimedia. En ambos se ve que, aunque utilicen un cierto método
de diseño basado en STORYBOARD y, en última instancia, en la experiencia
publicitaria y de los comics (lo cual es natural y conveniente), continúan pegándose los
objetos de una manera casi arbitraria y, desde luego, no abordan el llamado problema
crucial al nivel que la IA exige a la representación computacional del conocimiento. En
este caso, como suele suceder, el mercado va por delante de los métodos de
programación proporcionando una experiencia de uso fundamental para el desarrollo de
una técnica científica. Esta manera de proceder está asumida también en la filosofía que
da pié a nuestra llamada idea intuitiva de la comunicación. Y, junto al análisis de
aplicaciones, hemos reflexionado sobre nuestra experiencia de construir 'pantallas', así
como sobre la de otros tan cualificados como el Center for Design of Educational
Computing de la Universidad Carnegie-Mellon. Por otra parte, como es lógico, también
es necesario tener presente el estado que van presentando los distintos recursos
multimedia que tratan de adaptase a los requisitos razonables del uso natural
(dispositivos de captación, procesamiento y tratamiento de imágenes y sonido).
http://www.psico.uniovi.es/REMA/v1n1/a4/p2.html
1.12 El modelo cognoscitivo.
EL MODELO COGNOSCITIVO O INTERPRETATIVO DE
COMPORTAMIENTO
"Todavía existen líderes organizacionales y
educativos que creen en la teoría tradicional
del comportamiento humano, la psicología
del estímulo y respuesta y dirigen sus
empresas de acuerdo con ella."
W. Glasser
Los procesos cognoscitivos tanto situados como complejos, están
explícitamente presentes en todos los modelos que se han desarrollado en los
últimos espacios publicados de esta columna. El modelo económico
frecuentemente toma en cuenta la elección racional, la cual forma parte del
proceso cognoscitivo natural. Una de las observaciones más puntuales de los
fundamentos de la adopción de decisión racional de la teoría económica ha
puesto en evidencia que la gran mayoría de los procesos humanos de
discernimiento y decisión violan frecuentemente los principios de la elección
racional. Por la parte que le corresponde al modelo moral de comportamiento
proviene de su propia narrativa de racionalidad, la cual incluye valores morales
en el cálculo de decisión. Mientras que el modelo de racionalidad retrospectiva
se ocupa de la relación entre la cognición y la acción, pero señala que en
repetidas oportunidades las cogniciones siguen a los actos para racionalizarlos
o justificarlos, en vez de proyectar la acción de manera futurista o de
prospectiva. Lo que realmente diferencia a lo que los científicos sociales han
llamado Modelo Cognoscitivo o Interpretativo de Comportamiento de los
demás es básicamente su atención a los procesos de percepción y
comprensión y el grado hasta el que los investigadores que administran este
método alejan, en ciertos momentos, la cognición de la realidad objetiva. De
esta manera, algunas variantes de este modelo estimulan con cierta relatividad
que las hacen atractivas a los teóricos críticos y otras concepciones
posmodernistas de la ciencia de las organizaciones, que se lamentan de la
cualidad mecanicista de buena parte de las ciencias sociales y de la
investigación de las instituciones.
Existe mucha dificultad para poder sintetizar este modelo, debido que posee
componentes que cada uno de ellos destacan diferentes características del
proceso cognoscitivo. Entre esas particulares sobresalen los aspectos sociales
del proceso de cognición y se manifiestan casi indistinguibles del modelo social
del comportamiento, poniendo mucho énfasis en el contexto social. Algunos
investigadores sociales que defienden y apoyan este modelo de la tradición
cognoscitiva hacen hincapié en la comprensión en retrospectiva basada en
procesos de compromiso y, orientado de esa forma, se hacen similares a los
del modelo de la racionalización de la conducta. Por otra parte, el punto focal
en la cognición se basa de principio a fin en la idea de que las conductas y los
resultados se entienden mejor si nos centramos en los "procesos cognoscitivos
que influyen en tales comportamientos y resultados".
Cuando se le hizo al Dr. K. E. Weick especialista en comportamiento la
siguiente pregunta: "¿qué es una organización?", respondió de la siguiente
manera: "una organización es un cuerpo de pensamiento pensado por
pensadores que piensan..." En consecuencia se puede considerar que las
organizaciones son instantáneas de procesos continuos y que la conciencia y
atención humana seleccionan y controlan estas instantáneas. La conciencia y
la atención, a su vez, pueden verse como instantáneas de procesos
cognoscitivos continuos, en los cuales la mente fija conocimiento de lo que la
rodea. Sin lugar a dudas que en estos procesos epistemológicos, los
participantes construyen interactivamente tanto el conocimiento como el
entorno. Basándose en estas consideraciones el mismo tratadista mencionado
al inicio de este párrafo, reafirmó lo siguiente: "es posible considerar a una
organización como un cuerpo de lenguaje característico que se anexa a la
experiencia o que las organizaciones existen sobre todo en la mente".
Bajo estas realidades comportamentales en las organizaciones, ¿cuál es la
reacción de los gerentes o los líderes de estas instituciones?. Sin temor a
equivocaciones puede afirmarse que el trabajo de la gerencia consiste en
administrar mitos, imágenes, símbolos y rótulos. La bandera más
promocionada desde el punto de vista empresarial, como es la del "renglón de
rentabilidad" de las organizaciones es un símbolo, por no decir un mito. En
consecuencia, los gerentes trafican con imágenes y, como tales, "la función
apropiada del gerente puede ser la de evangelista en lugar de la de contador".
Este enfoque se diferencia en muchos aspectos importantes de otros
tratamientos de la función simbólica de la gerencia y el uso del lenguaje y los
símbolos. En donde prevalece la retórica por un lado y la adopción de
decisiones por el otro.
Las suposiciones de las personas acerca de las relaciones causales en un
marco organizacional se representan en un mapa de causas: "los trabajadores
editan su propia experiencia organizacional en patrones de conocimiento
personal. Una representación de tal conocimiento se denomina mapa
cognoscitivo. Éste consta de los conceptos y las relaciones que un trabajador
usa para entender las situaciones empresariales. Los estudiosos del
comportamiento humano han medido los mapas de causas de los trabajadores
en las organizaciones. En estos mapas –1 indica una relación inversa, 0 indica
ausencia de relación y +1 indica una relación positiva. Las representaciones
cognoscitivas de las organizaciones comienzan cuando los trabajadores
elaboran mapas cognoscitivos empezando con resultados, experimentos
pequeños y consecuencias. Estas regularidades percibidas forman parte de la
materia prima de dichos mapas.
http://gerenciaenaccion.com.ve/Compor_Hum/comport9.htm
1.13 El modelo del agente inteligente.
Agentes inteligentes
1) ¿Qué son?
Agente, del latín agere, es "el que hace". En el ámbito de los negocios, un agente
es "aquel que tiene por oficio gestionar negocios ajenos".
Un agente inteligente es un programa de ordenador que es capaz de hacer lo que
haríamos nosotros si tuvieramos tiempo, o de forma más precisa "un tipo de
programa informático que, por encargo de un usuario u otro programa,
realiza de forma autónoma tareas que requieren cierto grado de
inteligencia y aprendizaje".
2) Características
La mayoría de los agentes poseen las siguientes tres
características: comunicación, inteligencia y autonomía.

Comunicación. El agente puede comunicarse con el usuario, con otros
agentes y con otros programas. Con el usuario se comunica con un
interfaz amigable, mediante el que personaliza sus preferencias. Algunos
agentes permiten comunicarse en lenguaje natural, algo típico de los
chatbots.

El grado de inteligencia varía mucho de unos agentes a otros, que
suelen incorporar módulos con tecnologías procedentes de la Inteligencia
Artificial. Los más sencillos se limitan a recoger las preferencias del usuario, quien debe
personalizarlos. Un ejemplo son los agentes inteligentes basados en tecnología de redes neuronales
especializados en identificar mensajes de correo electrónico sospechosos de contener spam -mensajes
no deseados-. En una primera fase el usuario debe marcarlos como spam, el agente va aprendiendo a
identificar los rasgos que caracterizan a estos mensajes y posteriormente los filtra.

Autonomía. Un agente no sólo debe ser capaz de hacer sugerencias al usuario sino de actuar. En el
ejemplo anterior, el agente que filtra el spam no puede estar continuamente alertando al usuario en
cada mensaje de correo que llega sobre la posibilidad de que sea un mensaje no deseado y su
verdadera utilidad surge cuando elimina de forma autónoma dichos mensajes.
3) Usos y ejemplos
En Botspot (http://www.botspot.com) podemos encontrar una selección de estos
agentes.
a) Representante virtual
Se comunican en lenguaje natural y suplen a los comerciales.
o
o
o
El de la Coca Cola (http://questions.coca-cola.com) pregunta: When do you pay dividends?
IAMS
(http://www.iams.com/en_US/jhtmls/faq/sw_FAQ_page.jhtml?li=en_US&bc=I&pti=FQ&sc=
&lsc=&bsc=) Comprueba que no es lo mismo hello que hell...
El agente virtual de Caja Madrid
(http://www.cajamadrid.es/CajaMadrid/Home/puente?pagina=3447)
b) Como asistentes personales
Nos ayudan como lo haría un ayudante, un "mayordomo virtual".
o
o
o
Agenda inteligente. Si le digo que el sábado voy a la playa, me recuerda que tengo que
llevar la toalla. Por ejemplo estos agentes del MIT
(http://agents.media.mit.edu/projects/tasks/calendar.jpg)
(http://agents.media.mit.edu/projects/tasks/calendar.wmv).
Asesor financiero. En función de nuestra "manera de ser", por ejemplo aversos al riesgo nos
va recomendando unos valores u otros, MIT
(http://agents.media.mit.edu/projects/investing)
Auditor. REMS (http://www.cica.ca/index.cfm/ci_id/1606/la_id/1.htm). Si hay un encargo
nuevo, captura la información del cliente que hay en bases de datos financieras y nos
presenta el cuestionario de auditoría más apropiado. Por ejemplo, si es un cliente que no
exporta se eliminan las cuestiones relativas a exportación.
c) Negociador en mercados electrónicos
Localiza una subasta en Internet, aprende cómo va la puja y realiza la compra por
nosotros. O mira en las tiendas más baratas.
o
Ejemplos en (http://www.botspot.com/BOTSPOT/Windows/Shopping_Bots/Auction_Bots)
d) Agente de búsqueda de información o rastreador
Rastrean en las redes de ordenadores en busca de la información solicitada. Son
parametrizables por el usuario o aprenden de sus hábitos, rastrean la red e
informan por correo electrónico de novedades que consideran pueden ser de interés
para el usuario.
o
Maimai (http://maimai.com) agiliza la búsqueda de los anuncios clasificados tras haber
estudiado el comportamiento de sus visitantes durante varios meses. De esta forma, si un
navegante está buscando un Audi A6 y en ese momento no hay ningún modelo disponible, el
agente de inteligencia relaciona rápidamente este vehículo con otros de características
similares, y así ofrece alternativas razonables. Por otra parte, este programa informático
ofrece la posibilidad de avisar al interesado, mediante un sistema de alerta al correo
electrónico o al teléfono móvil, cuando disponga de alguna oferta que hubiera sido solicitada
previamente.
o
o
o
o
o
o
Googlealert (http://www.googlealert.com)
Copernic (http://www.copernic.com/en/products/agent/download.html) y
(http://www.copernic.com/en/products/agent/screenshots.html) [local versión vieja]
Spypress (http://www.spypress.com)
Tracerlock (http://www.tracerlock.com)
Trademarkbots (http://www.trademarkbots.com) ¿Qué dicen de mi y de mi empresa?
buscan en 11 sitios (blogs, noticias, foros…).
Google News (http://news.google.com). Podemos crear alertas
(http://www.google.com/newsalerts), de forma que nos avisen cuando haya una noticia
sobre la palabra solicitada. Podemnos confeccionar un periódico a medida.
e) Agente secreto o espía
Monitorizan una página web identificada previamente por el usuario -una página
con la información financiera de una empresa, una web oficial con normativa
europea, la página con ofertas de empleo de una empresa, etc.- e informan cuando
se producen cambios en dicha página.
o
o
Changedetection (http://www.changedetection.com)
Spyweb (http://www.spypress.com/spyweb.php)
4) Sistemas multiagente
En general no se trabaja con agentes aislados sino con sistemas multi-agente,
como el de la figura siguiente, tomada del Borrador Documento AECA, Serie Nuevas
Tecnologías y Contabilidad "Inteligencia Artificial y Contabilidad".
O la siguiente, tomada del agente WARREN (http://www2.cs.cmu.edu/~softagents/warren.html) que se compone de varios agentes
simples.
http://ciberconta.unizar.es/LECCION/INTRODUC/482.HTM
1.14 El papel de la heurística.
Búsqueda Heurística
Para resolver muchos problemas difíciles (explosión combinatoria), es necesario muchas veces
llegar a un compromiso de los requerimientos de movilidad y sistematicidad y construir una
estructura de control que no necesariamente garantiza el encontrar la mejor respuesta, sino
que casi siempre encuentra una buena respuesta. Una técnica heurística mejora la eficiencia
del proceso de búsqueda sacrificando, usualmente, exhaustividad.
Las consideraciones que sirven de soporte a un proceso de búsqueda heurística, son:



Rara vez se requiere, en realidad, una solución óptima. Una buena aproximación,
normalmente, sirve muy bien.
A pesar que una aproximación heurística no puede resultar muy buena en el peor de
los casos, raras veces aparecen los peores casos en la práctica.
El tratar de comprender por qué un heurístico funciona o por qué no funciona, a
menudo conduce a una mejor comprensión del problema.
Procesos Heurísticos de Búsqueda
Las técnicas heurísticas de búsqueda son como guías de turismo. Buenas, en el sentido que
señalan aspectos de gran interés general, pero malas ya que pueden no satisfacer aspectos de
interés particular.
Existen varias técnicas heurísticas buenas, de propósito general, que son útiles para una
diversidad de problemas. Adicionalmente, es posible construir heurísticos especiales que
exploten conocimiento específico en cada dominio, para resolver problemas particulares.
http://www.ilustrados.com/publicaciones/EpZVVZkuVlzIqITikQ.php
Heurística: Es la capacidad de detectar virus desconocidos por medio de sondeos del
sistema en busca de "sintomás" clásicos de infección como puede ser fechas extrañas en
ficheros, programas residentes en memoria, configuración extraña del sistema ( como
por ejemplo que Windows 95 tenga activado el modo de compatibilidad MS-DOS ),
etc. El problema de la heurística es que puede dar "falsos positivos" es decir, puede dar
por infectado un fichero que en realidad no lo está.
http://usuarios.lycos.es/urogallo/antivir.html
La heurística es la aplicación de conocimiento derivado de la experiencia a un problema y
también se utiliza para describir software que revisa y filtra mensajes que posiblemente
contengan un virus de computador o contenido no deseado. Software basado en heurística
busca fuentes conocidas, frases de texto usadas comúnmente, y patrones de contenido
y/o transmisión que la experiencia ha demostrado que están asociados con correo
electrónico infectado con virus.
Dado que muchas empresas y/o usuarios reciben un alto volumen de correo electrónico y
que correo válido puede también seguir los patrones, los programas basados en heurística
también arrojan "positivos falsos", desestimando su uso. Los expertos en seguridad
indican que aunque los programas tienen espacio para mejorar, la heurística es una
herramienta valiosa y necesaria.
http://www.gestiopolis.com/delta/term/TER235.html
Unidad 2. Representación del
conocimiento y razonamiento.
2.10 Mapas conceptuales.
Un mapa conceptual es un recurso esquematico para presentar un conjunto de
significados conceptuales incluidos en una estructura de proposiciones". Novak
Los mapas conceptuales son una herramienta para el aprendizaje muy util.
Hay mapas conceptuales que no son tales, son una serie de graficos
diseñados siguiendo criterios esteticos o simbologias personales casi
cabalistiscos o esotericos, un buen mapa es aquel que ayuda a aprender y
que se entiende nada mas mirarlo, si lo que tenemos delante ni lo
entendemos ni nos aclara nada no es tal mapa conceptual
http://www.pacorey.net/mapcon/indicemapas.htm
Mapas Conceptuales
En relación con el tema de mapas conceptuales se hallan en la literatura diversas
expresiones, tales como mapas conceptuales, mapas cognitivos, mapas mentales,
esquemas cognitivos, esquemas conceptuales y otros. En relación con las diversas
acepciones, significados y usos, pueden consultarse entre otros, los sitios y
documentos en Internet incluidos en las referencias.
La forma en que concebimos los mapas conceptuales guarda mayor afinidad con la
de los autores Novak y Gowin (1988), y Skemp (1987, 1989). Usaremos aquí el
término esquema conceptual en el significado de Skemp, según este autor, el
aprendizaje inteligente implica la construcción de esquemas, que son estructuras
cognitivas o intelectuales que representan las relaciones entre conceptos y
procesos, por una parte, y entre varios esquemas, por la otra (Skemp, 1989, pp.
32-48)
La expresión "mapa conceptual" tiene una más amplia difusión en la literatura;
según Skemp (1987, p. 122), corresponde a un tipo particular de esquema, donde
se presenta un orden parcial entre los conceptos según cuales sean necesarios para
adquirir otros y útil en planificación de secuencias instruccionales y en diagnostico.
Novak y Gowin (1988) indican que los mapas conceptuales "tienen por objeto
representar relaciones significativas entre conceptos en forma de proposiciones".
(p. 33)
En la caracterización dada por estos autores a los mapas conceptuales destaca la
idea de jerarquía. Skemp distingue entre conceptos primarios y secundarios, siendo
los segundos casos particulares o ejemplos de los primeros y entonces, de menor
orden. En relación con los mismos establece sus dos principios del aprendizaje de
las matemáticas:
1. Conceptos de un orden mayor que aquellos que ya tiene el estudiante, no
pueden serles comunicados por definiciones, sino por hacerle disponible una
adecuada colección de ejemplos.
2. Como en matemática estos ejemplos son casi invariablemente otros conceptos,
antes debemos asegurarnos que los mismos ya hayan sido adquiridos. (Skemp,
1987, p. 18)
Similarmente, Novak y Gowin, indican que los conceptos mas generales o inclusivos
deben representarse en la parte superior del mapa, y los más específicos o menos
inclusivos, en la inferior. De esta forma, Novak y Gowin explicitan la jerarquía por
la disposición física arriba-abajo de los conceptos en la representación visual de los
mapas. Skemp, por su parte, lo indica mediante flechas entre los conceptos. Novak
y Gowin reservan el uso de flechas "... solo en el caso de que la relación de que se
trate no sea de subordinación entre conceptos" (op. cit. p. 48)
En ambos casos los componentes fundamentales son los conceptos y la relación
entre ellos, sin embargo, la relación que establece Skemp es de orden (en el
sentido dado en los principios 1 y 2) y las líneas con punta de flecha que enlazan
los conceptos tienen ese significado, mientras que Novak y Gowin rotulan las líneas
de enlace con lo que denomina palabras-enlace, las cuales expresan el tipo de
relación, constituyendo así la unidad mínima proposicional: dos conceptos
relacionados por una palabra-enlace.
Aquí nos referiremos con mapa conceptual coincidiendo con Novak y Gowin, a la
representación de un determinado esquema conceptual: "...los mapas conceptuales
constituyen una representación explícita y manifiesta de los conceptos y
proposiciones que posee una persona" (1988, p. 38). Esta acepción de mapa
conceptual es compatible con la de Skemp, en cuanto que el mapa conceptual
elaborado por un docente es la representación de su esquema conceptual o más
precisamente, de parte de varios de sus esquemas conceptuales sobre la asignatura
a enseñar, sus recursos didácticos y sus valores, en el caso especifico de una
instrucción o evaluación a una población determinada.
El esquema conceptual es entonces, un constructo y el mapa conceptual, una
representación de aquel según la percepción de quien lo elabora. En la construcción
de un mapa conceptual interviene entonces el esquema conceptual de quien lo
elabora, de cuál es su idea de una válida organización de conceptos y relaciones, y
sobre la forma de enseñarla o promover su aprendizaje. Este es un factor
determinante en la labor docente, cuando el profesor hace una estimación del
esquema conceptual de sus alumnos y sobre esta base decide una particular
secuencia instruccional.
Ubicamos el mapa conceptual en el contexto del planteamiento de Ausubel sobre el
aprendizaje, de acuerdo a este autor el factor de mayor influencia en el aprendizaje
es lo que el estudiante ya conoce, y la ocurrencia del aprendizaje significativo se da
cuando quien aprende, establece consciente y explícitamente relaciones entre el
nuevo conocimiento y el que ya posee.
En el contexto didáctico, el profesor estima el estado de los esquemas conceptuales
de sus estudiantes mediante la observación de sus conductas, a partir de las cuales
hace una representación (rara vez explícita y consciente) de sus esquemas.
Contando entonces con sus propios esquemas conceptuales y una idea de cómo
debe estar organizado el conocimiento (su mapa conceptual, eventualmente
compartido por una comunidad), selecciona partes de este mapa conceptual para
diseñar una secuencia instruccional con el objeto de incidir en los esquemas
conceptuales de sus alumnos. Distinguimos en nuestra idea de mapa conceptual,
los siguientes elementos:
(1) nodos, en los cuales se indican principalmente conceptos, definidos según
Novak y Gowin como "... una regularidad en los acontecimientos o en los objetos
que se designa mediante algún termino" (op. cit., p. 22). Incluimos también otra
información, como actividades, comentarios, dudas, teorías y otros mapas
conceptuales. En la representación visual, adoptaremos formas y eventualmente
colores distintos para cada uno:
(2) enlace entre dos nodos, en la forma indicada a continuación:
Al enlazar más de dos nodos, distinguimos los siguientes casos:
En general, el sentido (-->) indica el carácter contributivo del concepto antecedente
respecto del consecuente. Una flecha (-->) sin rotulo indica solo esta relación, el
rotulo r sobre el enlace da información adicional.
(3) palabras-enlace, rotulo sobre los enlaces, indicando el carácter de la relación.
Los enlaces ---> no llevan rotulo, el mismo se deduce del antecedente y
consecuente: comentario o duda sobre el consecuente.
(4) proposiciones, unidades semánticas formadas por dos o más conceptos
relacionados por palabras-enlace
Para simplificar visualmente el mapa, abreviamos la indicación de actividades o
comentarios estandarizados o de uso frecuente, mediante un recuadro con símbolos
prefijados y sin línea de enlace, por ejemplo:
(5) numeración de nodos, indicando una posible secuencia instruccional. El uso de
las flechas y numeración de nodos es compatible con la disposicion jerarquica
arriba-abajo de Novak y Gowin, y permite una mayor riqueza y flexibilidad al mapa.
II. ¿Cómo nace un mapa conceptual?
Identificamos, entre otras, dos motivaciones para la elaboración de un mapa
conceptual, la primera se origina a partir de la apreciación de una dificultad en el
aprendizaje de un tema o contenido especifico, representado a veces en un
problema que los alumnos no han podido resolver; la segunda, en el interés en
representar cierta área o bloque de contenidos. Para ejemplificar la primera forma,
consideremos la siguiente situación real. De un total de 559 estudiantes que en una
prueba tenían el problema siguiente:
Determinar el dominio de la función dada por:
209 no desarrollaron respuesta alguna y 31 la respondieron correctamente. De
aquellos que escribieron algo, indicamos algunos de los errores más frecuentes
fueron: interpretación del símbolo "/" como "tal que", introducir la ecuación: 2x4=0 y, considerar f definida como f(x)=1/2 /(2x-4). En esta situación, se planteó
una sesión de trabajo conjuntamente con cinco estudiantes a quienes se presento
una hoja representando conceptos aislados como en la siguiente figura:
A partir de la misma, se elaboró el siguiente mapa conceptual:
Se hace notar que el término "dominio máximo" no se ha encontrado en la
literatura. Este término, sugerido por un estudiante, fue adoptado en esta
actividad, explicando el abuso de lenguaje cometido al pedir determinar el dominio
de una función.
En el siguiente ejemplo queremos poner de manifiesto la idoneidad de los mapas
conceptuales como herramienta para promover la integración de contenidos y la
atención a los ejes transversales, los cuales son dos aspectos resaltantes en la
reciente propuesta de reforma curricular de la escuela básica en Venezuela.
(Ministerio de Educación, 1997)
En este caso consideremos la planificación de una secuencia instruccional en
geometría a estudiantes de la Escuela Básica en un aula integrada con niños con
deficiencia visual.
Leyenda para las abreviaturas:
ETL Eje Transversal Lengua
LH Libro Hablado
VP Variabilidad Perceptiva
VM Variabilidad Matemática
RI Reconciliación Integradora
MC Material Concreto
GR Gráfico en Relieve
TB Texto Braille
ETP Eje Transversal Desarrollo del Pensamiento
El material concreto aquí considerado (MC), consta de varias figuras poligonales en
diversos tamaños, colores y texturas, incluyendo triángulos, rectángulos,
pentágonos y hexágonos.
El problema propuesto inicialmente se plantea en un lenguaje contextual y
relacionado con los intereses del niño. Su interpretación en un lenguaje común,
contribuye al desarrollo de los ejes lengua y desarrollo del pensamiento. La
atención a los valores es promovida por el trabajo en equipo con niños de distintas
capacidades perceptivas.
http://members.tripod.com/DE_VISU/mapas_conceptuales.html
¿Qué son los mapas conceptuales?
Los mapas conceptuales, son una técnica que cada día se utiliza más en los diferentes niveles
educativos, desde preescolar hasta la Universidad, en informes hasta en tesis de investigación,
utilizados como técnica de estudio hasta herramienta para el aprendizaje, ya que permite al
docente ir construyendo con sus alumnos y explorar en estos los conocimientos previos y al
alumno organizar, interrelacionar y fijar el conocimiento del contenido estudiado. El ejercicio de
elaboración de mapas conceptuales fomenta la reflexión, el análisis y la creatividad.
Con relación a lo antes expuesto, del Castillo y Olivares Barberán, expresan que "el mapa
conceptual aparece como una herramienta de asociación, interrelación, discriminación,
descripción y ejemplificación de contenidos, con un alto poder de visualización". (2001,p.1) Los
autores señalados exponen que los mapas no deben ser principio y fin de un contenido, siendo
necesario seguir "adelante con la unidad didáctica programada, clases expositivas, ejerciciostipo, resolución de problemas, tareas grupales... etc.", lo que nos permite inferir que es una
técnica que si la usamos desvinculada de otras puede limitar el aprendizaje significativo,
viendolo desde una perspectiva global del conocimiento y considerando la conveniencia de
usar en el aula diversos recursos y estrategias dirigidas a dinamizar y obtener la atención del
alumno; es por eso que la recomendamos como parte de un proceso donde deben incluirse
otras técnicas como el resumen argumentativo, el análisis critico reflexivo, la exposición,
análisis de conceptos, discusiones grupales...(ver TECLAS )
2. Elementos que componen los mapas conceptuales:
Concepto:
Un concepto es un evento o un objeto que con regularidad se denomina con un nombre o
etiqueta (Novak y Gowin, 1988) Por ejemplo, agua, casa silla, lluvia.
El concepto, puede ser considerado como aquella palabra que se emplea para designar cierta
imagen de un objeto o de un acontecimiento que se produce en la mente del individuo.
(Segovia, 2001). Existen conceptos que nos definen elementos concretos (casa, escritorio) y
otros que definen nociones abstractas, que no podemos tocar pero que existen en la realidad (
Democracia, Estado)
Palabras de enlace: Son las preposiciones, las conjunciones, el adverbio y en general todas las
palabras que no sean concepto y que se utilizan para relacionar estos y así armar una
"proposición" Ej. : para, por, donde, como, entre otras. Las palabras enlace permiten, junto con
los conceptos, construir frases u oraciones con significado lógico y hallar la conexión entre
conceptos.
Proposición: Una proposición es dos o más conceptos ligados por palabras enlace en una
unidad semántica.
Líneas y Flechas de Enlace: En los mapas conceptuales convencionalmente, no se utilizan las
flechas porque la relación entre conceptos esta especificada por las palabras de enlace, se
utilizan las líneas para unir los conceptos..
Las Flechas: Novak y Gowin reservan el uso de flechas "... solo en el caso de que la relación
de que se trate no sea de subordinación entre conceptos", por lo tanto, se pueden utilizan para
representar una relación cruzada, entre los conceptos de una sección del mapa y los de otra
parte del "árbol" conceptual.. La flecha nos indica que no existe una relación de subordinación.
Por ejemplo: agua, suelo, fruta.
Conexiones Cruzadas: Cuando se establece entre dos conceptos ubicados en diferentes
segmentos del mapa conceptual, una relación significativa.
Las conexiones cruzadas muestran relaciones entre dos segmentos distintos de la jerarquía
conceptual que se integran en un solo conocimiento. La representación grafica en el mapa para
señalar la existencia de una conexión cruzada es a través de una flecha.
Cómo se representan los mapas conceptuales:
El mapa conceptual es un entramado de líneas que se unen en distintos puntos, utilizando
fundamentalmente dos elementos gráficos:
3. La elipse u ovalo
Los conceptos se colocan dentro de la elipse y las palabras enlace se escriben sobre o junto a
la línea que une los conceptos.
Muchos autores están empleando algunos símbolos para incluir, además de los conceptos y
proposiciones, otra información como: actividades, comentarios, dudas, teorías... En la
representación visual, adoptan formas y eventualmente colores distintos para cada uno:
Tomado de: Oswaldo Monagas. Universidad Nacional Abierta, Venezuela
julio, 1998
Los mapas conceptuales permiten al estudiante:









Facilita la organización lógica y estructurada de los contenidos de aprendizaje, ya que
son útiles para seleccionar, extraer y separar la información significativa o importante de la
información superficial
Interpretar, comprender e inferir de la lectura realizada
Integrar la información en un todo, estableciendo relaciones de subordinación e
interrelación
Desarrollar ideas y conceptos a través de un aprendizaje interrelacionado, pudiendo
precisar si un concepto es en si válido e importante y si hacen falta enlaces; Lo cual le permite
determinar la necesidad de investigar y profundizar en el contenido Ej. Al realizar el mapa
conceptual de Estado, puede inquirir sobre conceptos como Poder. Democracia, Dictadura....
Insertar nuevos conceptos en la propia estructura de conocimiento.
Organizar el pensamiento
Expresar el propio conocimiento actual acerca de un tópico
Organizar el material de estudio.
Al utilizarse imágenes y colores, la fijación en la memoria es mucho mayor, dada la
capacidad del hombre de recordar imágenes.
Lo expuesto permite afirmar que un mapa conceptual es:
Un resumen esquemático que representa un conjunto de significados conceptuales incluidos en
una estructura de proposiciones". (Joseph D. Novak)
Un Resumen: ya que contiene las ideas más importantes de un mensaje, tema o texto.
Un Esquema: dado que es una representación Grafica, se simboliza fundamentalmente con
modelos simples (líneas y óvalos) y pocas palabras (conceptos y palabras enlace), Dibujos,
colores, líneas, flechas (conexiones cruzadas)
Una Estructura: se refiere a la ubicación y organización de las distintas partes de un todo. En
un mapa conceptual los conceptos más importantes o generales se ubican arriba,
desprendiéndose hacia abajo los de menor jerarquía. Todos son unidos con líneas y se
encuentran dentro de óvalos.
Conjunto de significados: dado que se representan ideas conectadas y con sentido, enunciadas
a través de proposiciones y/o conceptos(frases)
Características de un Mapa Conceptual.



Los MAPAS CONCEPTUALES deben ser simples, y mostrar claramente las relaciones
entre conceptos y/o proposiciones.
Van de lo general a lo específico, las ideas más generales o inclusivas, ocupan el ápice
o parte superior de la estructura y las más específicas y los ejemplos la parte inferior. Aún
cuando muchos autores abogan porque estos no tienen que ser necesariamente simétricos.
Deben ser vistosos, mientras más visual se haga el mapa, la cantidad de materia que
se logra memorizar aumenta y se acrecienta la duración de esa memorización, ya que se





desarrolla la percepción, beneficiando con la actividad de visualización a estudiantes con
problemas de la atención.
Los conceptos, que nunca se repiten, van dentro de óvalos y la palabras enlace se
ubican cerca de las líneas de relación.
Es conveniente escribir los conceptos con letra mayúscula y las palabras de enlace en
minúscula, pudiendo ser distintas a las utilizadas en el texto, siempre y cuando se mantenga el
significado de la proposición.
Para las palabras enlace se pueden utilizar verbos, preposiciones, conjunciones, u otro
tipo de nexo conceptual, las palabras enlace le dan sentido al mapa hasta para personas que
no conozcan mucho del tema.
Si la idea principal puede ser dividida en dos o más conceptos iguales estos conceptos
deben ir en la misma línea o altura.
Un mapa conceptual es una forma breve de representar información.
Los errores en los mapas se generan si las relaciones entre los conceptos son incorrectas.
Es fundamental considerar que en la construcción del mapa conceptual, lo importante son las
relaciones que se establezcan entre los conceptos a través de las palabras-enlace que
permitan configuran un "valor de verdad" sobre el tema estudiado, es decir si estamos
construyendo un mapa conceptual sobre el "Poder Político" la estructura y relaciones de este
deben llevar a representar este concepto y no otro.
Para elaborar mapas conceptuales se requiere dominar la información y los conocimientos
(conceptos) con los que se va a trabajar, lo que quiere indicar que si no tenemos conocimientos
previos por ejemplo sobre energía nuclear mal podríamos intentar hacer un mapa sobre el
tema, y de atrevernos a hacerlo pueden generarse las siguientes fallas en su construcción:




Que sea una representación gráfica arbitraria, ilógica, producto del azar y sin una
estructuración pertinente
Que solo sean secuencias lineales de acontecimientos, donde no se evidencie la
relación de lo más general a lo específico
Que las relaciones entre conceptos sean confusas e impidan encontrarle sentido y
orden lógico al mapa conceptual.
Que los conceptos estén aislados, o lo que es lo mismo que no se de la interrelación
entre ellos.
¿Como hacer un mapa conceptual?
1. – En la medida que se lea debe identificarse las ideas o conceptos principales e ideas
secundarias y se elabora con ellos una lista.
2. - Esa lista representa como los conceptos aparecen en la lectura, pero no como están
conectadas las ideas, ni el orden de inclusión y derivado que llevan en el mapa. Hay que recordar
que un autor puede tomar una idea y expresarla de diversas maneras en su discurso, para
aclarar o enfatizar algunos aspectos y en el mapa no se repetirán conceptos ni necesariamente
debe seguirse el orden de aparición que tienen en la lectura.
3: - Seleccionar los conceptos que se derivan unos de otros.
4. - Seleccionar los conceptos que no se derivan uno del otro pero que tienen una relación
cruzada
5.- Si se consiguen dos o más conceptos que tengan el mismo peso o importancia, estos
conceptos deben ir en la misma línea o altura, es decir al mismo nivel y luego se relacionan con
las ideas principales.
6. - Utilizar líneas que conecten los conceptos, y escribir sobre cada línea una palabra o
enunciado ( palabra enlace) que aclare porque los conceptos están conectados entre sí.
7. _ Ubicar las imágenes que complementen o le dan mayor significados a los conceptos o
proposiciones
8. -. Diseñar ejemplos que permitan concretar las proposiciones y /o conceptos
9- Seleccionar colores, que establezcan diferencias entre los conceptos que se derivan unos de
otros y los relacionados ( conexiones cruzadas)
10. - Seleccionar las figuras (óvalos, rectángulos, círculos, nubes) de acuerdo a la información a
manejar.
11. - El siguiente paso será construir el mapa, ordenando los conceptos en correspondencia al
conocimiento organizado y con una secuencia instruccional. Los conceptos deben ir
representados desde el más general al más especifico en orden descendente y utilizando las
líneas cruzadas para los conceptos o proposiciones interrelacionadas.
http://www.monografias.com/trabajos10/mema/mema.shtml
Qué son los mapas conceptuales?
Los mapas conceptuales son un material sumamente útil para organizar los
contenidos vistos durante una unidad y, además, contribuyen al desarrollo de
habilidades de síntesis y de pensamiento en sistemas. Sin embargo, muchas
veces no existe claridad acerca de su estructura y finalidad. En este artículo se
desarrollan las características de este material didáctico y se entregan una serie
de ejemplos clarificadores.
Este documento se basa en la propuesta realizada por Novak y Gowin (1988) acerca del
conocimiento, el aprendizaje, la realización de mapas conceptuales, las posibilidades sobre su
elaboración y aplicación para el aprendizaje significativo.
Los mapas conceptuales tienen su origen en los trabajos que Novak y sus colaboradores de la
Universidad de Cornell realizaron a partir de la Teoría del Aprendizaje Significativo de Ausubel.
Estos autores comparten la idea, ampliamente aceptada en la investigación educativa realizada
durante los últimos años, de la importancia de la actividad constructiva del estudiante
en el proceso de aprendizaje, y consideran que los conceptos y las proposiciones que
forman los conceptos entre sí son elementos centrales en la estructura del conocimiento y en
la construcción del significado.
Entonces, los mapas conceptuales son un medio de visualizar conceptos y relaciones
jerárquicas entre conceptos. La capacidad humana es muchos más notable para el recuerdo de
imágenes visuales que para los detalles concretos. Con la elaboración de mapas conceptuales
se aprovecha esta capacidad humana de reconocer pautas en las imágenes para facilitar el
aprendizaje y el recuerdo.
Los mapas conceptuales tienen por objeto representar relaciones significativas entre conceptos
en forma de proposiciones. Una proposición consta de dos o más términos conceptuales unidos
por palabras para formar una unidad semántica. En su forma más simple, un mapa conceptual
constaría tan sólo de dos conceptos unidos por una palabra de enlace para formar una
proposición; por ejemplo, «el cielo es azul» representaría un mapa conceptual simple que
forma una proposición válida referida a los conceptos «cielo» y «azul». Los mapas
conceptuales tienen por objeto representar relaciones significativas entre conceptos en forma
de proposiciones.
En relación al aprendizaje, los mapas conceptuales proporcionan un resumen esquemático de
todo lo que se ha aprendido.
Considerando que se produce más fácilmente un aprendizaje significativo cuando los nuevos
conceptos o significados conceptuales se engloban bajo otros conceptos más amplios, más
inclusivos, los mapas conceptuales deben ser jerárquicos; es decir, los conceptos más
generales e inclusivos deben situarse en la parte superior del mapa y los conceptos
progresivamente más específicos y menos inclusivos, en la inferior .
Vale la pena recordar lo que sucede con un número relativamente pequeño de conceptos que
los alumnos y alumnas adquieren muy pronto mediante un proceso de aprendizaje por
descubrimiento, no obstante esto, la mayor parte de los significados conceptuales se
aprende mediante la composición de proposiciones en las que se incluye el concepto
que se va a adquirir. Aunque las ayudas experienciales concretas pueden facilitar el
aprendizaje de conceptos, la regularidad representada por el signo conceptual adquiere un
significado adicional por medio de enunciados proposicionales en los que se incluye el concepto
en cuestión. Así, las frases «la hierba es verde», «la hierba es un vegetal», «la hierba crece»,
«la hierba es una planta monocotiledónea», etc., dan lugar a un incremento en el significado, y
en la precisión del significado, del concepto «hierba».
Un mapa conceptual es, por tanto, un recurso esquemático para representar un conjunto de
significados conceptuales incluidos en una estructura de proposiciones que tiene por objeto
representar las relaciones significativas entre los conceptos del contenido (externo) y del
conocimiento del sujeto.
http://www.educarchile.cl/ntg/planificaccion/1610/propertyvalue40143.html
2.11 Redes semánticas.
Redes semánticas y marcos

Por qué usar redes semánticas y marcos si pueden reducirse a lógica de primer
orden?
o facilidad de comprensión y de visualización de los procesos de inferencia
o facilidad de control
o implementaciones eficientes
Sintaxis y semántica de las redes semánticas





se concentran en categorias de objetos y relaciones entre ellos
históricamente problemas de falta de una semántica bien definida,
frecuentemente semántica inducida del comportamiento
Relaciones member y subset que permiten la herencia de propiedades
relaciones típicas y su traslación a FOL
algoritmos de razonamiento de propósito especial que siguen los links: mas
rápidos que los generales de FOL
Herencia con excepciones


valor por defecto, B es un valor por defecto para la relación R y los miembros
de A Rel(R, A, B): cada miembro de A debe tener una relación R con B a no ser
que intervenga otro A' tal que Rel(R, A', B')
reificación: define la semántica en FOL
o
o
o
o
reificar la relación: se convierte la relación R en un objeto, no en un
predicado como sería lo normal
Rel(R, A, B) es una sentencia atómica. No podemos escribier R(x,B) ya
que R es un objeto y no un predicado
Val(R, x, B) significa que el equivalente de una relación R(x,B) se
introduce explícitamente en la red semántica
como saber que relaciones no se satisfacen?
Herencia múltiple


un objeto puede pertenecer a más de una categoría y heredar propiedades por
varios caminos
necesidad de información adicional para resolver los conflictos
Herencia y cambio

recuérdese la propiedad

la herencia de propiedades es no monótona
o las lógicas no monótonas pueden tratar una proposición como cierta
hasta que una evidencia adicional la hace falsa
o RETRACT y TELL
Implementación de redes semánticas
datatype SEM-NET-NODE
components : NAME, MEMBERSHIPS, ELEMENTS, SUPERS, SUBS
RELS-IN, RELS-OUT, ALL-RELS-IN, ALL-RELS-OUT



los campos REL pueden organizarse con una tabla indexada por relación
cada función sigue los links apropiados para responder a las preguntas
es importante que la implementación no introduzca ambigüedades en la
semántica
Expresividad las redes semánticas


en lo visto no es posible representar negación, disyunción, cuantificadores.
Alternativas:
o extender los esquemas para permitir todo FOL: redes semánticas
particionadas, grafos conceptuales, ...
o enganche procedural: una función (en otro lenguaje) como valor de una
relación
ventajas a pesar de la falta de expresividad
o modulares
o sencillez y de fácil comprensión
o eficientes: se infiere siguiendo los links
http://www.dc.fi.udc.es/.aios/people/barreiro/iadocen/iatema08/node
17.html
REDES SEMÁNTICAS
Estos sistemas de organización del conocimiento estructuran conceptos, no
como jerarquía sino como una red o una web.
Los conceptos son como nodos, con varias relaciones que se ramifican hacia
fuera de ellas. Las relaciones van generalmente más allá del BT, del NT y del
RT estándares, pueden incluir relaciones tipo todo-parte, causa-efecto,
padre-niño, es_un o es_parte.
Las redes semánticas son grafos orientados que proporcionan una
representación declarativa de objetos, propiedades y relaciones. Ejemplo:
http://es.geocities.com/ontologia2004/red.htm
Redes Semánticas
Quillian'66
Modelo de memoria humana para capturar la semántica de las palabras y lograr uso del
significado parecido a los humanos.
Un tipo de red en la cual los nodos representan objetos, conceptos o situaciones y los
arcos representan relaciones entre ellos.
Realmente es una estructura de datos sofisticada y mucho depende del programa que la
mantiene y la usa.
Se llama red semántica porque se usaron originalmente para representar el sentido en
expresiones de lenguaje natural.
Los nodos: conceptos de palabras
Los arcos: ligan conceptos para establecer la definición
Cada palabra o nodo conceptual se consideraba la cabeza de un ``plano'' que tiene su
definición (e.g., si banco tiene 3 significados, entoces existen 3 planos para él).
Las ligas en el plano representan su definición.
Pueden existir apuntadores a: superclases (is-a), modificaciones, disjunciones,
conjunciones y sujeto/objeto.
Apuntadores fuera del plano hacen referencia a otros objetos (y planos) en donde se
definen.
Pruebas: dar dos palabras y buscar intersecciones en las redes, para obtener la relación
(cosas en común) entre ellas.
Esta activación de todo lo que rodea a una palabra se esperaba que representara la
definición completa de un concepto.
Existían 2 ligas pricipales:


subclase (is-a): las clases de ``arriba'' están definidas en términos de conceptos
generales que se asumen que se cumplen en todas sus subclases
modificadores: propiedades particulares de conceptos específicos
Puede existir herencia (e.g., un canario es un animal), y herencia de propiedades (e.g.,
un canario come) e.g.,
El que un canario tiene piel se tarda más en deducir que es amarillo (parece que ésto se
confirma, aunque no concluyentemente, del tiempo de reacción de la memoria humana).
Esto dió pie a la definición de distancia semántica entre conceptos (número de ligas a
recorrer).
Relaciones más complicadas:
piolin- es-un
canario - es-un
ave - tiene
alas
duenio
posesion - es-un
pertenencia - es-un
situacion
es-duenio-de
``Petit Chateau'' - es-un
nido
tiempo-inic
primavera - es-un
tiempo
tiempo-final
septiembre - es-un
El permitir tener un conjunto de arcos de salida también se llama ``case frame''.
posesión es una instancia de pertenencia y hereda los arcos del ``case frame''.
Las redes semánticas permiten tener valores por default y cierta expectación acerca de
los posibles valores de un atributo.
La idea es tratar de tener un conjunto adecuado (pequeño) de nodos y de ``case frames''
genéricos.
El error más común es usar la liga es-un para representar pertenencia a una clase y
propiedades de una clase, e.g.
Existen propiedades que no se heredan a los miembros de la clase, e.g.,
Se pueden hacer preguntas como, Qué es lo que Piolín tiene? o Quién es una ave?
http://www.mor.itesm.mx/~rdec/node79.html
Esquemas de redes semánticas
Los responsables de los primeros esquemas de representación formalizados fueron Quillian
(1968) y Shapiro & Woddmansee (1971). Los esquemas de redes semánticas tienen una
fundamentación psicológica muy sólida, tal y como apuntábamos en el Capítulo 2, por lo que se
han realizado numerosos esfuerzos por llevar a cabo implementaciones importantes basadas
en ellas.
Las redes semánticas han sido muy utilizadas en IA para representar el conocimiento y por
tanto ha existido una gran diversificación de técnicas. Los elementos básicos que encontramos
en todos los esquemas de redes son:
1. Estructuras de datos en nodos, que representan conceptos, unidas por arcos que
representan las relaciones entre los conceptos.
2. Un conjunto de procedimientos de inferencia que operan sobre las estructuras de
datos.
Básicamente, podemos distinguir tres categorías de redes semánticas:
1. Redes IS-A, en las que los enlaces entre nodos están etiquetados.
2. Grafos conceptuales: en los que existen dos tipos de nodos: de conceptos y de
relaciones
3. Redes de marcos: en los que los puntos de unión de los enlaces son parte de la
etiqueta del nodo.
En general, cuando se habla de "redes semánticas" se suele hacer referencia a uno de
estos esquemas, normalmente a las redes IS-A o a los esquemas basados en marcos, que
comparten ciertas características fundamentales. De entre estas características compartidas
destacamos la herencia por defecto (default inheritance). En una red semántica, los
conceptos (o estructuras, clases, marcos, dependiendo del esquema concreto) están
organizados en una red en la que existe un nodo superior (top: T) al que se le asigna uno o
varios nodos hijos, que a su vez tienen otros conceptos hijos y así sucesivamente hasta que se
alcanza el final (bottom: ), cuyos nodos ya no son conceptos sino instancias.
A continuación estudiamos los tres tipos de esquemas de redes semánticas que han tenido
una mayor repercusión. De los tres, el esquema basado en marcos es el que permite una
mayor flexibilidad, y el que ha recibido mayor atención por parte de los investigadores de
ciencia cognitiva y lingüística.
4.3.2.1 Redes IS-A
Sin duda el tipo de red semántica por excelencia es el de redes IS-A. De hecho muchas veces
se menciona este tipo como sinónimo de "red semántica", y los restantes tipos también
incorporan este tipo de enlaces o arcos (links). Esto ha dado lugar a que existan casi tantos
significados para un enlace IS-A como los hay para sistemas de KR (Brachman, 1983).
Una red IS-A es una jerarquía taxonómica cuya espina dorsal está constituida por un
sistema de enlaces de herencia entre los objetos o conceptos de representación, conocidos
como nodos. Estos enlaces o arcos pueden estar etiquetados "IS-A", también "SUPERC",
"AKO", "SUBSET", etc. Los restantes tipos de redes semánticas son en realidad
especializaciones de redes IS-A, por lo que siguen y amplían los conceptos fundamentales que
exponemos en este apartado.
Las redes IS-A son el resultado de la observación de que gran parte del conocimiento
humano se basa en la adscripción de un subconjunto de elementos como parte de otro más
general. Las taxonomías clásicas naturales son un buen ejemplo: un perro es un cánido, un
cánido es un mamífero, un mamífero es un animal. Obteniendo un número de proposiciones:
x (perro (x))
cánido (x);
x (cánido (x))
mamífero (x);
x (mamífero (x))
animal (x);
La estructuración jerárquica facilita que la adscripción de propiedades a una determinada
categoría se reduzca a aquellas que son específicas a la misma, heredando aquellas
propiedades de las categorías superiores de la jerarquía, tradicionalmente de una forma
monotónica. El siguiente ejemplo de red IS-A (Figura 4.11), tomado de (Brachman 1983:31)
ejemplifica una red semántica típica con herencia de propiedades.
Figura 4.11 Ejemplo de red IS-A
El concepto de herencia es fundamental para entender el funcionamiento de las redes
semánticas, así como el del modelo de datos orientado al objeto, que toma prestados estos
mecanismos desarrollados en el ámbito de la IA. Siguiendo a Shastri (1988), definimos la
herencia como el sistema de razonamiento que lleva a un agente a deducir propiedades de un
concepto basándose en las propiedades de conceptos más altos en la jerarquía. 22
Así, en el ejemplo jerárquico de la Figura 411, el agente23 sería capaz de atribuir las
propiedades "breathes" o "has gills" al concepto "shark" sin que éstas se encuentren
específicamente mencionadas. La herencia, por tanto, puede ser definida como el proceso
mediante el cual se determinan unas propiedades de un concepto C, buscando las propiedades
atribuidas localmente a C, si esta información no se encuentra a nivel local, buscando las
propiedades atribuidas a conceptos que se encuentran en los niveles superiores a C en la
jerarquía conceptual.
Como Brachman (1983) recuerda, las nodos de las estructuras IS-A se han usado para
representar muchas cosas, pero la división más importante es la interpretación genérica o
específica de los nodos, es decir, si éstos representan un sólo individuo o varios. Los nodos
situados en lo más bajo de la jerarquía y que denotan individuos son llamados tokens, mientras
que los nodos superiores, que denotan clases de individuos son considerados types. Puesto
que en una misma jerarquía podemos obtener nodos de ambos tipos, se debe hacer explícita
una distinción de los tipos de enlaces. Por un lado existen enlaces que conectan categorías
(genéricas) con otras categorías, y por otro, enlaces entre categorías e individuos. Las
primeras pueden expresar las siguientes relaciones:
1.
2.
3.
4.
5.
6.
Subconjunto/superconjunto
Generalización/especificación
AKO, esto es, "a kind of"
Contenido conceptual
Restricción de valores
Tipo característico del conjunto
Las relaciones genérico/individuales también son de varios tipos:
1.
2.
3.
4.
Pertenencia al conjunto
Predicación
Contenido conceptual
Abstracción
Como recuerda Hodgson (1991), las jerarquías IS-A presentan un número impresionante
de posibilidades, pero también una desventaja: al aumentar el número de enlaces, aumenta
progresivamente la complejidad computacional para seguirlos. Este problema bien conocido ha
dado lugar a que se haya propuesto que, en lugar de establecer esta y otras posibles
taxonomías de enlaces IS-A, se use el enlace IS-A de propósito general, que al ser
programable, permite establecer el tipo de enlace adecuado a cada situación particular, lo que
dota de una gran flexibilidad al esquema de representación. De este modo se puede
representar una semántica compleja, específicamente mediante el uso de prototipos, en los
que una determinada situación se representa mediante nodos y arcos específicos. Por ejemplo,
la aserción "The book rests on the table" se puede representar así:
Figura 4.12 Ejemplo de Prototipos
Estos prototipos o esquemas forman la base de los scripts de Schank y Abelson (1977),
que mencionaremos en el siguiente apartado.
Figura 4.13 Ejemplo de red semántica para lenguaje natural
En la Figura 4.13 exponemos el tipo de diagrama para representar una oración de lenguaje
natural con una notación de redes semánticas, tomando como ejemplo la oración "John hit a
nail with a hammer"
En esta red los nodos son identificadores de las instancias determinadas (tanto verbos
como sustantivos). "Inst" representa una instancia de una clase de entidades (hit, nail,
hammer): "h43" es una instancia de la acción hit, existiendo un paciente, "n53", instancia de la
clase nail, que es el que recibe la acción, mediante un instrumento "ha42", que es una instancia
de la clase hammer (el hecho de que "john" es una instancia de la clase person, no ha sido
representado).
Este tipo de representación de conocimiento es directo y fácil de seguir, pero el
establecimiento de los primitivos adecuados es muy dificultoso y a veces es imposible
representar un sistema de este modo. Además, exige una gran cantidad de trabajo de
inferencia: es relativamente fácil determinar si dos frases significan lo mismo pero no es tan
fácil determinar si una frase es la consecuencia lógica de otra.
Otro problema estriba en la diversidad de tipos de arcos establecidos. Esto provoca que de
red semántica a red semántica el significado de los arcos y los nodos varíe, provocando
ambigüedad en la notación. Por ejemplo, la red semántica de la Figura 4.14 puede tener tres
significados distintos:
Figura 4.14 Ambigüedad en redes semánticas
1. Representa el concepto de un teléfono: tal cosa existe.
2. Representa un teléfono negro específico.
3. Representa la aseveración de la relación entre los teléfonos y el negro: algunos o todos
los teléfonos son negros.
Para concluir este apartado, resumimos los tres problemas más reconocidos de los
esquemas de representación basados en redes semánticas:
1. La elección de los nodos y arcos es crucial en la fase de análisis. Una vez se ha
decidido una estructura determinada, es muy complicado cambiarla.
2. Dificultad para expresar cuantificación. Por ejemplo en expresiones tales como
"algunos pájaros vuelan" o "todos los pájaros pían".
3. Del mismo modo, las redes semánticas presentan grandes dificultades para
representar la dimensión intensional. Por ejemplo en proposiciones tales como "Pedro
cree que Ana sabe conducir".
Esto llevó a idear otros esquemas de representación con una estructura más compleja que
simples nodos y arcos, que fuesen capaces de dar cabida a éstas y otras situaciones.
Concretamente, John Sowa propuso los grafos conceptuales, aunque el esquema de
representación basado en marcos (frames) es el que ha tenido mayor aceptación.
4.3.2.2 Grafos conceptuales
Los grafos conceptuales (conceptual graphs), propuestos por Sowa (1984), se diferencian de
las redes IS-A en que los arcos no están etiquetados, y los nodos son de dos tipos:
1. Nodos de concepto, que pueden representar tanto una entidad como un estado o
proceso.
2. Nodos de relación, que indican cómo se relacionan los nodos de concepto.
Por tanto, son los nodos de relación los que hacen el papel de enlaces entre las entidades.
Existen dos notaciones para los grafos conceptuales, la forma lineal (textual) y los
diagramas o display form, que presentan tres tipos de elementos notacionales:
1. rectángulos, que marcan los nodos de concepto,
2. círculos, que marcan los nodos de relación,
3. flechas direccionadas, que marcan los arcos.
La Figura 4.15 muestra estos tipos de notaciones.
[CONCEPT1]
(REL.)
[CONCEPT2
Figura 4.15 Notaciones de grafos conceptuales
Como mostraremos en el siguiente capítulo, este tipo de modelado conceptual debe mucho
al modelo de Entidad/Relación de Chen (Chen 1976).
La intención del uso de los grafos conceptuales para la representación del lenguaje natural
es mencionada por el propio Sowa, quien dedica un capítulo completo de su obra a la
aplicación de su esquema al análisis del lenguaje. La representación semántica de la frase
"man biting dog" que nos muestra en el capítulo introductorio es indicativo del uso que se le
puede dar (Figura 4.16) (Sowa 1984:8). Sowa apunta que sus grafos conceptuales ponen el
énfasis en la representación semántica (en el sentido lingüístico de la palabra).
Figura 4.16 Ejemplo de grafo conceptual para NL
Una gran ventaja del esquema de Sowa es que permite restringir la generación de
representaciones sin sentido por medio de lo que él denomina grafos canónicos. Tomando
como base la conocida frase de Chomsky
"Colorless green ideas sleep furiously" (Chomsky 1957),
representada por el grafo [SLEEP]
(AGNT)
[IDEA]
(COLOR)
[GREEN], establece
la idea de canon, que está basada en la noción de jerarquía de tipos, según la cual existe una
función tipo que proyecta conceptos sobre un conjunto C cuyos elementos son etiquetas de
tipo. Esta función corresponde a los arcos IS-A que vimos anteriormente. El canon contiene la
información necesaria para derivar otros grafos canónicos y tiene cuatro componentes:
1.
2.
3.
4.
Una jerarquía de tipos T
Un conjunto de indicadores de individuos I
Una relación de conformidad: que relaciona etiquetas en T con indicadores en I
Un conjunto finito de grafos conceptuales B, llamado base canónica, que contiene
todos las etiquetas de tipos en T y todos los referentes, ya sea en I o en el referente
genérico *
Las reglas de formación que permiten que un grafo canónico se derive de otro son las de
copia, unión, restricción y simplificación. Además un grafo puede convertirse en canónico
mediante otros dos procesos:
1. Perception: un grafo es canónico si es construido por el assembler mediante un icono
sensorial.
2. Insight: se pueden concebir los grafos conceptuales arbitrarios como canónicos.
La relación de conformidad es también relevante, porque se refiere al concepto type/token,
que Sowa representa mediante la notación t::i, donde el indicador individual i está relacionado
con el tipo t.
La frase de Chomsky sería bloqueada por los cánones:
Figura 4.17
De este modo se pueden generar grafos bastante complejos para representar conceptos.
Como ejemplo, exponemos el grafo de transacción (Sowa 1984:110) (Figura 4.17).
Figura 4.18 Grafo conceptual para TRANSACTION
El que inicia la transacción es un customer, que es el receptor de un acto de give y el
agente de otro give. El objeto de la transacción es una entity, que es el objeto del primer give.
El instrumento de la transacción es money, que es también el objeto del segundo give. La
fuente de la transacción es un seller que es el agente de un give y el receptor del otro.
Sowa advierte que las reglas canónicas de formación no son reglas de inferencia. La
formación de reglas únicamente asegura las restricciones de selección semánticas, que Sowa
basa en las teorías de Katz y Fodor (1963), pero no garantiza la verdad o falsedad de las
aserciones. Para incorporar la lógica a la teoría de grafos conceptuales, se usa un operador
que proyecta los grafos conceptuales sobre fórmulas de cálculo de predicados de primer orden
(Hodgson 1991).
El canon es por tanto un sistema extremadamente flexible para representar el conocimiento
y, específicamente, el conocimiento lingüístico. De hecho, el sistema de representación léxica
que más éxito ha tenido hasta el presente, las estructuras de rasgos24, comúnmente usadas en
los formalismos gramaticales modernos, pueden ser consideradas como una especialización
de los grafos canónicos de Sowa específicamente aplicadas a la representación del lenguaje.
Su implementación, normalmente en Lisp, también guarda muchas similitudes.
No deberíamos finalizar la exposición de este apartado sin mencionar un esquema de
representación anterior, que si bien no ha tenido la misma repercusión que los grafos
conceptuales, contiene la base que, junto con las ideas de las redes semánticas, usó Sowa
para su esquema. Estamos hablando de las redes de dependencia conceptual (CD:
Conceptual Dependency).
Esta notación fue desarrollada por Schank (Schank 1975) desde finales de los años 60. Al
igual que en los grafos conceptuales, la idea central detrás de la CD es crear una
representación canónica de una frase, en este caso basándose en ciertos primitivos
semánticos. En la teoría original tan sólo se contemplaban siete primitivos, que incluían cinco
acciones físicas: move, propel, ingest, expel y grasp y dos cambios de estado: ptrans
(transferencia física en el espacio) y mtrans (transferencia mental de información). La frase
"John threw a ball to Mary" es representada del modo siguiente (Schank 1975:51):
Figura 4.19 Ejemplo de dependencia conceptual
Esta teoría está enteramente basada en los primitivos semánticos, que son las entidades
básicas usadas para describir el mundo. Las dificultades, por tanto, son las mismas que
presentan todas las teorías lingüísticas basadas en primitivos: la naturaleza totalmente
arbitraria de los primitivos escogidos y la falta de sistematicidad en su uso y adopción. Al igual
que en otras teorías lingüísticas basadas en primitivos semánticos, el número de éstos tendió a
crecer, en el caso de Schank hasta 40. Tampoco él se salva de la sospechosa similitud entre
algunos primitivos y lexemas concretos, como por ejemplo want.
La teoría original de Schank evolucionó para incluir unidades de memoria más
desarrolladas, llamadas scripts (Schank & Abelson 1977). Un script es una secuencia de
esquemas que "cuenta una historia", el ejemplo tradicional es el del restaurante: entrar, pedir la
comida, pagar al camarero, etc., serían los esquemas que conforman el script. Los scripts, sin
embargo, tienen mucho en común con la notación que estudiamos a continuación, los
esquemas de marcos.
4.3.2.3 Esquemas de marcos
El primer proponente de la noción de marco25 (frame) fue el psicólogo cognitivo Marvin Minsky,
en cuyas palabras podemos resumir la esencia de los marcos.
Here is the essence of frame theory: When one encounters a new situation (or makes a substantial change in one’s view of a
problem), one selects from memory a structure called a frame. This is a remembered framework to be adapted to fit reality by
changing details as necessary.
(Minsky 1975: 211)
La fundamentación psicológica de los marcos es parecida a la de los scripts de Schank:
cuando nos enfrentamos con una situación determinada, intentamos ajustarla a otra parecida
de la que ya tenemos experiencia previa y esperamos que aparezcan un número de elementos
comunes y se sucedan algunas situaciones. Por ejemplo, si entramos en una habitación de
hotel, esperamos encontrar una cama, un armario, un baño, etc. Nuestra mente reconocerá las
instancias específicas de la nueva habitación y los acomodará al estereotipo que ya poseemos.
La base de la teoría la conforman, por tanto, las situaciones estereotipadas.
Dejando a un lado esta fundamentación psicológica, la representación basada en marcos
constituye en gran medida la base del modelo orientado al objeto actual, ya que contiene casi
todos los conceptos que éste presenta, aunque estas ideas fueron aplicadas en principio a los
lenguajes de programación más que a lenguajes de representación y consulta. Por esto y por la
enorme importancia que la representación del conocimiento basada en marcos ha tenido y
sigue teniendo, nos detendremos a exponer las características y esquemas propuestos más
relevantes.
Adelantamos ya que, al igual que ocurre en la ontología que nos ha servido de base para
nuestra implementación, la de Mikrokosmos, utilizaremos precisamente un esquema basado en
marcos para nuestra ontología, utilizando para su implementación un lenguaje basado en
marcos moderno, con prestaciones muy superiores a las que aquí expondremos para las
implementaciones clásicas. Los detalles particulares de este lenguaje, KSL, los mostraremos
en el siguiente capítulo.
Informalmente, un marco es una estructura de datos compleja que representa una
situación estereotipada, por ejemplo hacer una visita a un enfermo o acudir a una fiesta de
cumpleaños. Cada marco posee un número de casillas (slots) donde se almacena la
información respecto a su uso y a lo que se espera que ocurra a continuación. Al igual que las
redes semánticas, podemos concebir un marco como una red de nodos y relaciones entre
nodos (arcos). Una base de conocimiento basada en marcos es una colección de marcos
organizados jerárquicamente, según un número de criterios estrictos y otros principios más o
menos imprecisos tales como el de similitud entre marcos. A nivel práctico, podemos
considerar los marcos como una red semántica con un número de posibilidades mucho mayor,
entre las que destacan especialmente, la capacidad de activación de procesos (triggering) y de
herencia no-monotónica mediante sobrecontrol (overriding).
Formalmente, un marco M es una lista de atributos (slots) y valores (S, V). El valor V de un
slot S puede ser:


un valor simple, cuyo tipo se halla determinado por el slot mismo, por una función que
devuelve un valor de ese tipo, o por un puntero al valor de otro slot de la jerarquía
una lista de atributos:valores, donde los atributos son funciones booleanas y los valores
pueden ser funciones que devuelven valores del tipo del valor del slot, o constantes del
tipo del valor del slot.
Como es evidente, la representación de conocimiento basada en marcos debe mucho a las
redes semánticas. Sin embargo, los esquemas de representación basados en marcos insisten
en una organización jerárquica de éstos, mientras que las redes semánticas no requieren tal
organización. La estructura de nodos de los marcos es también mucho más rica que la de las
redes semánticas, conteniendo sistemas de triggering de procedimientos. Esto ocurre cuando
en lugar de llenar un slot con un valor determinado, se indica un procedimiento que será el
encargado de devolver un determinado valor. En el entorno de los marcos, a este tipo de
procedimientos se les denomina attached procedures, servants, demons o methods,
utilizándose a veces el término disparador en el discurso en lengua española. Estos
procedimientos son especialmente útiles cuando el cálculo de un valor determinado requiere un
tiempo alto de computación, cuando el valor es susceptible de cambiar con el tiempo o cuando
el valor tiene un bajo nivel de acceso: en lugar de computar el valor siempre que el sistema
esté en funcionamiento, se computa sólo cuando es requerido. El término método, se ha
tomado del entorno de los marcos para usarlo en el modelo orientado al objeto para designar
las funciones componentes de una clase, aunque en algunos de los lenguajes de programación
orientados al objeto más importantes, como C++, los métodos son llamados funciones
miembro.
La organización jerárquica de los marcos es una de sus características más destacables.
Los marcos se organizan en jerarquías que presentan los mismos sistemas de herencia que
encontrábamos en las redes IS-A. De hecho, una estructura de marcos no es más que una
ampliación de una estructura de redes IS-A básica (de redes semánticas tradicionales), donde
los nodos han sido reemplazados por grupos estructurados de información (los marcos).
Una jerarquía de marcos es un árbol en el que cada uno de los nodos es un marco. Para
cada nodo hijo, el enlace con el nodo padre es un enlace de herencia. El nodo hijo hereda
todos los slots de su padre a menos que se especifique lo contrario (sobrecontrol). Esta es una
gran diferencia con las redes IS-A, donde la herencia es siempre monotónica, es decir no hay
posibilidad de negar la herencia de propiedades en un contexto o situación determinada (que
puede ser especificada por el resultado de una operación de triggering). Los nodos pueden ser
de dos tipos: nodos de clase y nodos de instancia. Todos los nodos internos (no terminales)
han de ser nodos de clase.
La característica que la herencia trae consigo es el concepto de valores por defecto
(defaults). En un marco se puede especificar un valor determinado o bien un valor por omisión
(también llamados valores locales y valores heredados), en cuyo caso heredará sin más el
valor de su antecesor. Por ejemplo, la clase (nodo de clase) ave, tendrá el valor por omisión
vuela como "cierto", aunque algunos nodos de instancia hijos, por ejemplo avestruz, no posean
esta propiedad. Esta instancia concreta puede ser obligada a no heredar esta propiedad
asignándole el valor "falso", mientras que otras propiedades, como tiene_alas, sí serían
heredadas por defecto (aunque en otras instancias, como en el caso de kiwi, ésta habría de ser
negada).
Esta misma disposición es la que presentan los sistemas orientados al objeto actuales,
aunque en éstos, los nodos de instancia no son considerados nodos, sino objetos. El término
orientación al objeto se comenzó a utilizar con un significado muy parecido al que de él
tenemos hoy por los proponentes de esquemas de representación basados en marcos a finales
de los años 70. Por ejemplo, Bobrow y Winograd (1979) hablan de "object-oriented data
structures".
Podemos resumir las principales características de los marcos en las siguientes (Minsky
1975; Winograd 1975):




Precisión (Explicitness): se precisan los objetos, las relaciones entre objetos y sus
propiedades; en ausencia de evidencia contraria se usan valores por omisión
Activación dinámica de procesos (Triggering): se pueden adjuntar procedimientos a un
marco o alguno de sus componentes y ser llamados y ejecutados automáticamente tras
la comprobación de cambio de alguna propiedad o valor (p. ej. if-needed, if-added)
Herencia por defecto no-monotónica: los marcos están conceptualmente relacionados,
permitiendo que atributos de objetos sean heredados de otros objetos predecesores en
la jerarquía
Modularidad: la base de conocimiento está organizada en componentes claramente
diferenciados
De forma apriorística, su aplicación a la representación de la información léxica parece
garantizada, ya que los marcos permiten una gran flexibilidad de representación. Su soporte
para representar la herencia de propiedades de una forma no monotónica resulta
especialmente atractivo. De hecho, hoy en día, esta propiedad, la herencia por defecto no
monotónica, se considera indispensable para el procesamiento de lenguaje natural (p. ej.
Gazdar & Pullum 1987; Ritchie et al. 1987; Flickinger 1987; Carpenter 1992; Zajac 1992;
Bouma 1992).
El razonamiento en un esquema basado en marcos se lleva a cabo mediante dos
mecanismos básicos: el reconocimiento (recognition o pattern-matching) y la herencia. En el
entorno de los marcos el proceso de reconocimiento de patrones se centra en encontrar el
lugar más apropiado para un nuevo marco dentro de la jerarquía de marcos. Esto requiere que
el mecanismo de reconocimiento sea capaz de recibir información sobre la situación existente
(en forma de marco) y lleve a cabo una búsqueda del marco más adecuado de entre todos los
contenidos en la base de conocimiento. Shastri (1988:16) define este concepto así: "Given a
description consisting of a set of properties, find a concept that best matches this description."
Teniendo en cuenta las características de herencia anteriormente descritas, el conjunto de
propiedades no tiene por qué encontrarse a nivel local, sino que pueden estar atribuidas a
conceptos (marcos) en posiciones superiores en la jerarquía. Podemos decir que estos dos
mecanismos complementarios de razonamiento conforman el núcleo de lo que entendemos por
comportamiento inteligente, y actúan como precursores de procesos de razonamiento más
especializados.
El modo en que estos dos mecanismos básicos de razonamiento interactúan se muestra en
la Figura 4.20 (Shastri 1988:16). En la memoria semántica del agente se encuentran un
número de conceptos (Cn) que poseen un número de propiedades (pn). El punto de entrada ß
corresponde a consultas de reconocimiento, que se inicia cuando un determinado proceso
posee una descripción parcial sobre una entidad X y desea corroborar su identidad o la clase a
la que pertenece. El punto de entrada corresponde a consultas sobre herencia. En este caso el
agente conoce la identidad de X, pero quiere conocer el valor de una o varias de sus
propiedades. Los dos mecanismos interactúan cuando se trata de llevar a cabo procesos
cognitivos más complejos, que implican un número de consultas sucesivas de uno y otro tipo
para llegar a una determinada conclusión.
Los problemas en el proceso de reconocimiento surgen cuando los valores por omisión no
son cumplidos. Por ejemplo, un gato tiene normalmente cuatro patas y una cola, pero a un gato
determinado le puede faltar la cola y una de sus patas; en este caso el algoritmo reconocedor
(matcher) debe ser lo suficientemente inteligente para ser capaz de averiguar que el mejor
marco de los posibles (best fit) es el del gato, aunque dos de sus principales características no
se cumplan.
Figura 4.20 Herencia y reconocimiento de patrones en marcos
Ésta es la situación conflictiva típica en la que algún proceso interno posee una descripción
parcial de una entidad desconocida y además necesita determinar el valor de una o varias
propiedades de esta entidad. Primero llevaría a cabo el reconocimiento parcial hasta
determinar al menos la clase a la que la entidad pertenece, a continuación atribuiría las
propiedades de sus clases predecesoras en la jerarquía y volvería a intentar el reconocimiento
individual hasta llegar a su ubicación y determinación de propiedades heredadas y locales
completa.
En nuestra exposición del sistema de KBMT Mikrokosmos (ver apartado 3.3.6), vimos cómo
existía un algoritmo que calculaba la "distancia" entre dos conceptos o instancias y devolvía un
índice. Este tipo de operaciones abstractas es otra de las características que dan a los
esquemas basados en marcos su gran potencia y expresividad.
Como apunta Shastri (1988:17), en un proceso cognitivo complejo, como la comprensión
del lenguaje natural (NLU: Natural Language Understanding), los mecanismos de herencia y de
reconocimiento de patrones son absolutamente imprescindibles. Por ejemplo, para la
adjudicación de restricciones de selección a un determinado actante con el objeto de reconocer
un patrón sintáctico-semántico determinado de un verbo polisémico y eliminar la posible
ambigüedad semántica. Una organización del léxico en campos semánticos con dimensiones y
subdimensiones jerarquizadas con herencia de propiedades léxicas puede ser representada
como una red semántica de conceptos a modo de marcos. Esta representación es válida
independientemente del modo de implementación que usemos, siempre y cuando éste se
acomode a los requisitos de jerarquización de entidades. En el capítulo siguiente mostraremos
cuál es la utilidad que le hemos dado a nuestra representación basada en marcos de forma
detallada.
Minsky propuso originalmente un esquema de representación para los marcos que
combinaba ideas de las redes semánticas, esquemas procedimentales y la lingüística. Los
lenguajes de representación basados en marcos son hoy día considerados como la forma más
adecuada de representar conocimiento complejo, y en especial para representar el lenguaje
natural.
La similitud entre las teorías lingüísticas de casos y los esquemas de representación
basados en marcos no ha pasado inadvertida. El propio Fillmore (1977) afirmaba que los slots
y los casos verbales eran una y la misma cosa. En el mismo sentido se manifiestan Winston
(1977) y Charniak (1981).
Para finalizar este apartado mostraremos algunas implementaciones de sistemas de
marcos consideradas hoy en día clásicas: KRL, OWL y KL-ONE.
El desarrollo de KRL (Knowledge Representation Language) (Bobrow & Winograd 1977)
estuvo inicialmente motivado por el procesamiento del lenguaje natural. Las unidades básicas
que componen una base de datos KRL son los marcos. La información contenida en los slots
contiene detalles sobre cómo instanciar un marco.
En su implementación hacen uso intensivo de los conceptos de prototipo y primitivos, que
utilizan de un modo un tanto libre en esta primera exposición, pero definen mejor en otras
posteriores (Bobrow & Winograd 1977).
Como su nombre indica, KRL, es a la vez un sistema de KR y un lenguaje de
programación. El lenguaje permite la invocación de procedimientos que se encuentran adjuntos
a las estructuras de datos orientadas a objetos, conteniendo el germen de lo que hoy en día se
conoce por encapsulación, una de las características que hacen de la orientación al objeto tal
vez el modelo computacional más potente y versátil hasta la fecha.
Por su parte, OWL basa sus características en la sintaxis y semántica del inglés, tomando
como principio la Hipótesis Whorfiana de que el idioma de un hablante juega un papel
determinante en su modelo del mundo, y por tanto en la estructuración de su mente.
Una base de conocimiento de OWL puede ser vista como una red semántica cuyos nodos
son expresiones que representan el significado de oraciones en lenguaje natural. Cada nodo,
denominado "concepto", queda definido por un par (genus, specializer), donde el "genus"
especifica el tipo o "superconcepto" y el "specializer" distingue este concepto de todos los
demás que comparten el mismo "genus".
Sin embargo, de entre todos los lenguajes de representación clásicos basados en marcos,
es sin duda KL-ONE (Brachman & Schmolze 1982, 1985) el más relevante en cuanto que a
partir de él han surgido numerosos sistemas de KR que se están desarrollando o usando hoy
en día. De hecho, se suele hacer referencia a los lenguajes de programación/representación
basados en marcos mediante el calificativo "al estilo de KL-ONE". KL-ONE es el producto de
muchos años de investigación de algunos de los que se pueden considerar como padres de la
representación del conocimiento, entre los que destacan Ronald Brachman, Rusty Bobrow,
Hector Levesque, Jim Schmolze o William Woods.
Como viene siendo habitual, una taxonomía de KL-ONE comprende conceptos, con un
número de propiedades atribuidas y una serie de relaciones entre conceptos. Más
concretamente, un nodo (concepto) de KL-ONE consiste en un conjunto de roles
(generalizaciones de las nociones de atributo, parte, constituyente, rasgo, etc.) y un conjunto
de condiciones estructurales que expresan relaciones entre esos roles. Los conceptos están
enlazados a conceptos más generales en una relación especial llamada SUPERC. El concepto
más general en la taxonomía es denominado superconcepto, y subsume (es más general que)
todos los demás.26
Los conceptos y roles de KL-ONE tienen una estructura parecida a las clásicas nociones de
registro y campo para las bases de datos, o de marco y slot en el ámbito en la terminología de
la IA.
La adecuación expresiva fue un objetivo primordial en el desarrollo de KL-ONE, enfatizando
la semántica de la representación y su adecuación para poder hacer distinciones sutiles al
conceptualizar ideas complejas. Tanto es así que Woods (1983) afirma que el proyecto KLONE se llevó a cabo más con el espíritu de una investigación de filosofía aplicada que con el
de investigación en representación del conocimiento y estructuras de datos.
En cualquier caso, la herencia de KL-ONE se ha dejado sentir en todas las
implementaciones posteriores de lenguajes basados en marcos, intentando seguir fiel en
espíritu a esta clásica implementación, al mismo tiempo que se han mejorado los aspectos
técnicos respecto a velocidad de ejecución, optimización de código (hasta muy recientemente
no ha existido ninguna implementación de un lenguaje de marcos que produjese código
compilado) o interfaz a otros lenguajes procedimentales.
Una de estas implementaciones, FLEX, será la que usaremos en nuestra implementación
de la ontología de conceptos. Describiremos este sistema junto con el lenguaje de
programación que le da soporte en el siguiente capítulo.
Como ya hemos visto, los marcos, en su forma más pura han sido utilizados en algunas de
las implementaciones de TA que ya hemos mostrado (Mikrokosmos). Su atractivo como
soporte computacional para diversos sistemas de procesamiento del lenguaje natural en
general ha quedado reflejado en obras tan relevantes como Metzing (1980), Evens (1988) o
Lehrer & Kittay (1992). A continuación mostraremos una serie de esfuerzos destinados a la
consecución de un entorno de representación puramente léxica. Como ya hemos adelantado,
éstos presentan muchos puntos en común con los sistemas de redes semánticas que
acabamos de describir, incorporando además un fuerte componente lógico.
http://elies.rediris.es/elies9/4-3-2.htm
2.12 Razonamiento monótono.
Ver archivo: razonamiento_mono.pdf
2.13 La lógica de predicados: sintaxis, semántica,
validez e inferencia.
LÓGICA DE PREDICADOS
El Cálculo Proposicional, resulta útil para muchas aplicaciones
computacionales, entre las que podemos citar, análisis de circuitos, análisis y
confiabilidad de sistemas mediante árboles lógicos, diversas aplicaciones de
satisfactibilidad a problemas de planeación, etc. Sin embargo, existe una gran
cantidad de aplicaciones donde el Cálculo Proposicional no se considera
suficiente, debido a que cuenta con una deductibilidad limitada y en donde es
preferible un tipo especial de lógica conocido como Lógica de Predicados (ó
Cálculo de Predicados). Para explicar esta situación, consideremos el
argumento conformado con las siguientes sentencias del Cálculo
Proposicional:
P = Todos los mamíferos son mortales
Q= Lassie es un mamífero
==>
R= Lasssie es mortal
Las expresiones P, Q, R, son proposiciones, puesto que todas ellas son
enunciados que pueden ser evaluados como V (verdaderos) o F (falsos). Hay
que hacer notar, sin embargo, que mediante la aplicación de reglas de
inferencia del Cálculo Proposicional, no es posible deducir R a partir de las
premisas P y Q anteriores, ya que el Cálculo Proposicional no tiene acceso a
los elementos comunes que conforman estas proposiciones, como son
mamifero, mortal y Lassie, e indispensables para llegar a la conclusión R
resultante. Sin embargo, esta misma expresión en Cáculo de Predicados, se
podría escribir distinguiendo los elementos constitutivos de cada proposición.
Es decir, el Cálculo de Predicados se aplica para las mismas proposiciones
que pueden ser enunciadas en Cálculo Proposicional, con la diferencia que en
el primero se tiene acceso a los elementos constitutivos de cada proposición.
Una de las aplicaciones más importantes del Cálculo de Predicados es la
especificación formal, la cual permite describir lo que el usuario desea que un
programa realice. Ésta es una aplicación que ha empezado a ser empleada para
el desarrollo de al menos las partes críticas de un sistema. De esta manera
piezas de código especificadas formalmente, pueden ser verificadas, en
principio, matemáticamente, incrementando la confiabilidad del sistema
completo. Existen varios lenguajes de especificación formal basados en
lógica, como Z o VDM, de los cuales se hablará más adelante en este curso.
En el caso de la especificación y verificación formal de programas, las piezas
de código son acompañadas por pre y post condiciones, las cuales se escriben
como fórmulas del Cálculo de Predicados. Las pre y postcondiciones deben
ser válidas, antes y después de que la pieza de código correspondiente se
ejecute. Es decir, si la pieza de código satisface su especificación, entonces se
dice que el programa es correcto.
Por otra parte, dada una pieza de código y sus pre y postcondiciones, se dice
que un algorimo tiene la propiedad de correctividad si se es capaz de decir si
dicha pieza de código es o no correcta. El análisis de la correctividad de
algoritmos es una parte fundamental en Ciencias compuationales.
Formalmente, es necesario asegurar una definición precisa de las pre y post
condiciones, de manera que se interprete de ellas un solo significado; ésto es
logrado escribiendo las pre y post condiciones como fórmulas del Cálculo de
Predicados. Éste es particularmente útil para describir la semántica de los
lenguajes de programación, así como para describir el comportamiento
funcional de un programa o una parte de él.
En el Cálculo de Predicados hay otras diferencias básicas respecto al Cálculo
Proposicional, entre las que podemos citar:
* Se indican postulados sobre objetos individuales:
Ejemplo:
Juan es alto
se puede escribir:
ES_ALTO(JUAN)
Donde ES_ALTO es un símbolo de predicado y JUAN es una constante.
Nótese que el predicado anterior puede ser evaluado como V (verdadero)
o F (falso).
* Se indican postulados relacionando varios objetos. Por ejemplo es posible
expresar:
Juan es tío de María
en la forma:
ES_TIO(MARIA,JUAN)
Donde ES_TIO es un Símbolo de Predicado que tiene como argumentos
a las constantes
MARÍA Y JUAN.
Obsérvese que el predicado anterior podrá ser evaluado como F (falso) o
V (verdadero).
* Se utilizan cuantificadores universales y existenciales.
Ejemplo:
El argumento anterior sobre Lassie se puede
escribir:
for_all (x) MAMÍFERO(x) ==> MORTAL (x)
MAMÍFERO(LASSIE)
===>
MORTAL (LASSIE)
Una posible interpretación de este modelo se presenta a continuación:
i)) En este argumento tenemos las siguientes premisas:
La primera proposición señala que todos los elementos x son
mamiferos implican que x
es mortal.
La segunda expresión indica que es conocido que Lassie es un
mamífero.
ii)) La conclusión de este argumento es:
Lassie es mortal
iii) El único conector lógico de esta expresión es el símbolo ==> el
cual es como en el caso del
Cáculo Proposicional, el de implicación. No obstante en Cálculo de
Predicados se
pueden utilizar todos los conectores lógicos del Cálculo
Proposicional.
Podríamos interpretar este argumento indicando que si las dos
premisas son verdaderas,
entonces se puede deducir que Lassie es mortal
En el Cálculo de Predicados se usan varios tipos de símbolos:
* SÍMBOLOS
DE FUNCIÓN
Ejemplos:
mas(x,y)
padre(x)
* SÍMBOLOS DE PREDICADOS
Ejemplos: MAYOR(más(x,1),x)
* CONSTANTES.
Ejemplos: CASA, MARÍA
* SÍMBOLOS DE VARIABLES.
Ejemplos: x,y
En Cálculo de Predicados, nos referimos a términos cuando hablamos de
constantes, variables o símbolos de función, cuyos elementos sabemos de
antemano que son términos. Así, por ejemplo, la variable x y la constante 1
son términos. Dado el símbolo de función más de dos argumentos, las
siguientes expresiones también son términos:
más (x,1)
más (más(x,1),1)
El primero de ellos se refiere a la suma x +1, mientras que el segundo a la
suma de los términos correspondientes a x+1 con el término 1.
Como para el caso del Cálculo de Proposiciones, se usan también
átomos en el Cálculo de Predicados, los cuales son enunciados simples
(es decir predicados), que están conformados con símbolos de predicados, con
varios términos como argumentos y que pueden ser evaluados como V
(verdaderos) o F (falsos), de manera que no pueden ser descompuestos en
proposiciones más simples. De esta manera las siguientes expresiones son
átomos:
MAMÍFERO(x)
MORTAL (LASSIE)
ES_TIO(JUAN, JOSE)
ES_NIETO(PANCHO_VILLA,
PEDRO_CASISTRANINI)
Es decir, se puede definir término de la siguiente manera:
DEFINICIÓN:
Si P es un símbolo de predicado de n argumentos y t1,t2, ..., tn son
téminos,
entonces
P(t1,t2,...tn) es un término.
Ninguna otra expresión puede ser un témino.
http://w3.mor.itesm.mx/~logica/log9808/log_pred.html
Logica de predicados de primer orden
En lógica proposicional los átomos son los constituyentes de las fórmulas y son: true o
false
Limitación: no puede expresar propiedades generales de casos similares
Símbolos:




Símbolos de predicados (mayúsculas) asociados con su aridad (N) o número de
argumentos (Si aridad = 0
proposiciones (átomos))
Variables: minúsculas (x,y,z)
Símbolos funcionales: minúsculas asociados con su número de argumentos
(funciones con aridad = 0
constantes)
Conectores lógicos


Cuantificadores: universal (para toda x)
Símbolos auxiliares '(', ')', ','.
y existencial (existe una x)
Un término es: una constante, variable o una función de términos
Una fórmula atómica o átomo es un predicado de N términos
Una fórmula bien formada (wff) en lógica de predicados es:





un átomo
si F es wff entonces
también lo es
Si F y G son wff,
Si F es wff y x es una variable libre de F, entonces
variable x se dice ``bound'')
ningúna otra formula es wff
son wff
y
son wff (la
variables libres: sin cuantificadores
Fórmula cerrada (``closed'') u oración (``sentence''): sin variabes libres
El alcance (``scope'') de los cuantificadores
Semántica
En lógica de primer orden se asocia una estructura representando la ``realidad''
(basicamente el dominio)
La estructura S tiene:

un conjunto no vacío de elementos D, llamados el dominio de S

un conjunto de funciones de aridad n definidas en

un conjunto no vació de mapeos, predicados, de Dm a
No se puede saber el valor de verdad de una fórmula hasta que no se especifique con
que elementos de la estructura se deben de asociar los elementos de la fórmula
Una asignación v al conjunto de formulas F dada una estructura S con dominio D es un
mapeo del conjunto de variables en F a D
, donde d es una constante
I(x) = v(x), donde x es una variable
, como antes
es true si existe una asignación para la cual F sea verdadera
es true si para toda una asignación F es verdadera
Mas equivalencias:
Una fórmula cerrada con un modelo se dice satisfacible
Cláusulas
Forma utilizada en prueba de teoremas y programación lógica
Una literal: un átomo o su negación
Una clásula: es una fórmula cerrada de la forma:
Equivalencias:
Se escribe normalmente como:
Interpretación procedural: las A's son las conclusiones y las B's las condiciones
Pasos para pasar una wff a un conjunto de cláusulas:
1.
eliminar implicación
2.
juntar negación
3.
renombrar variables
4.
eliminar cuantificadores existenciales:
Si una variable existencial (y) no está dentro del alcance (scope) de un
cuantificador universal, cambiar la variable por un nuevo símbolo Si está dentro
del alcance de cuantificadores universales con variables
la variable por una función
dependencia (funciones Skolem)
cambiar
que refleje la posible
5.
cambiar a una forma prenex normal (poniendo todos los cuantificadores
universales al frente)
6.
pasar a su forma normal conjuntiva (i.e., una conjunción de fórmulas, cada una
siendo una disjunción)
7.
eliminar cuantificadores universales
8.
pasar a un conjunto de cláusulas
Ejemplo
Una cláusula de Horn: a lo más una literal positiva
A
Razonamiento en lógica: reglas de inferencia
Modus Ponens
--------------------S
Estas reglas solo hacen manipulación sintáctica (son formas procedurales)
Lo interesante es ver las formas procedurales semánticas están relacionadas con las
sintácticas
Una fórmula es robusta/válida (sound) si
entonces
Osea una colección de reglas de inferencia es válida si preserva la noción de verdad
bajo las operaciones de derivación
Una fórmula es completa (complete) si
entonces
Lo importante es: existe un procedimiento de prueba mecánica, usando una colección de
reglas de inferencia que son válidas y completas, que sea capaz de determinar si una
fórmula F puede o no derivarse de un conjunto de fórmulas S?
En 1936, Church y Turing mostraron independientemente que ese procedimiento no
existe para lógica de primer orden: indecibilidad
Solo se puede mostrar que si F es consecuencia lógica de S
Lógica proposicional si es decidible!
Resolución
Es sound y complete
Resolución solo sirve para fórmulas en forma de cláusulas
Idea: prueba por refutación
Para probar:
Ejemplo sencillo
, hacer
y probar que W es insatisfacible
Sean C1 y C2 dos cláusulas con literales L1 y L2 (donde L1 y L2 son complementarias).
La resolución de C1 y C2 produce:
donde:
y
(eliminando literales redundantes)
Ejemplo de derivación
Para lógica de primer orden: substitución y unificación
Una substitución es un conjunto finito de la forma:
xis son variables diferentes y las tis son términos diferentes a las xis.
, donde las
Una expresión es un término, una literal una conjunción o una disjunción de literales
Una substitución ( ) se puede aplicar a una expresión (E), denotado como:
generando una nueva expresión (una instancia de E)
Sea
y
estas substituciones, denotado por:
. La composición de
se obtiene quitando del conjunto:
todos los elementos:
cuales:
Una substitución
,
para los
y todos los elementos sj/yj donde
es un unificador de un conjunto de expresiones
si
Un unificador , es el unificador más general (mgu) de un conjunto de expresiones E,
si para cada unificador de E, existe una substitución tal que
Para hacer resolución en lógica de primer orden tenemos que comparar si dos literales
complementarias unifican. El algoritmo de unificación construye un mgu de un conjunto
de expresiones.
Se tienen que renombrar variables que tengan el mismo nombre en las cláusulas a
resolver
Sean C1 y C2 dos cláusulas con literales L1 y L2respectivamente. Si L1 y
mgu , el resolvente de C1 y C2 es la cláusula:
tienen un
Puede existir más de un resolvente
Si una o más literales en clásula C tienen un mgu
factor de C
, la cláusula
se dice ser un
En su forma general, resolución permite cancelar más de una literal de las cláusulas
padres, al computar el factor de estas
Un resolvente de cláusulas C1 y C2 es:
1.
resolvente de C1 y C2
2.
resolvente de C1 y un factor de C2
3.
resolvente de un factor de C1 y C2
4.
resolvente de un factor de C1 y un factor de C2
El algoritmo de unificación no es determinístico (se pueden seleccionar las cláusulas de
varias formas)
Existen diferentes estrategias de resolución, e.g., semántica, lineal, SLD
http://www.mor.itesm.mx/~rdec/node48.html
2.14 La demostración y sus métodos.
2.15 El método de Resolución de Robinson
1.
2. ANTECEDENTES: DE HERBRAND A ROBINSON
El encontrar un procedimiento general de decisión para verificar la
validez (inconsistencia) de una formula ha sido considerada por mucho
tiempo. El primer intento fue hecho por Leibniz (1646 -1716) seguido por
Peano a finales del siglo XIX y por la escuela de Hilbert en los años
veinte. Sin embargo, no fue hasta 1936 que Church y Turing probaron
de manera independiente que esto era imposible, es decir, que no existe
un procedimiento general de decisión para constatar la validez de las
formulas de primer orden en lógica. Sin embargo, hay procedimientos de
prueba que pueden verificar que una formula es válida si en realidad lo
es. Para formulas invalidas, estos procedimientos en general nunca
terminarán (en base a los resultados de Turing y Church, esto es lo
mejor que se puede esperar de un procedimiento de prueba). Un
enfoque verdaderamente importante para la prueba mecánica de
teoremas fue dado por Herbran en 1930. Por definición, una formula
válida es una fórmula que es verdadera bajo todas las interpretaciones.
Herbrand desarrolló un algoritmo para encontrar una interpretación que
pueda falsear una fórmula dada. Sin embargo, si la formula dada es
realmente valida, tal interpretación no existirá y su algoritmo va a parar
después de un número finito de pruebas. El método de Herbrand es la
base de los procedimientos automáticos de prueba más modernos
[Chin1987].
En 1960 Gilmor fue una de las primeras personas en implementar los
procedimientos de Herbrand en una computadora. Ya que una fórmula
es válida si y solo si su negación es inconsistente, su programa fue
diseñado para detectar la inconsistencia de la negación de una fórmula
dada. Durante la ejecución del programa, se generan fórmulas
proposicionales que periódicamente son generadas y probadas para
determinar su inconsistencia. Si la negación de la formula dada es
inconsistente, el programa detectará el hecho eventualmente. El
programa de Gilmor funciono para unas pocas fórmulas, pero encontró
dificultades con otras formulas de primer orden. Pruebas cuidadosas del
programa demostraron su ineficiencia. El método de Gilmor fue
mejorado por Davis y Putman en 1960 después de unos meses de su
publicación. Sin embargo, esta mejora fue insuficiente ya que muchas
formulas de primer orden no pudieron ser probadas por una
computadora en un tiempo razonable.
Un avance mayor fue realizado por Robinson en 1965 , al introducir el
Principio de Resolución, Este procedimiento fue mucho mejor que
cualquiera de los anteriores. Desde la aparición de este principio
muchos refinamientos han sido propuestos con el fin de aumentar su
eficiencia.
Los procedimientos de prueba de Herbrand y resolución son
procedimientos de refutación. Esto es, en lugar de que de probar la
validez de una formula, se prueba que la negación de una formula es
inconsistente. Esto es por conveniencia, no hay perdida de generalidad
en el uso de métodos de refutación. Más aun estos procedimientos de
refutación son aplicados a una "forma estándar" de una fórmula. La
forma estándar fue introducida por Davis y Putman en 1960. Esta forma
normal consiste en obtener un conjunto de cláusulas que cumplen: estar
en forma estándar de Skolem, {conjunto de cláusulas} en SSF al ser
eliminados los cuantificadores existenciales y universales; estar
previamente preprocesadas en la forma normal prenexa, PNF = [ ´s
´s][Matriz(CNF)], en donde se han separado los cuantificadores de la
matriz que se encuentra en forma normal conjuntiva (CNF).
La Lógica de Primer Orden es, en la actualidad, es una de las
herramientas más importantes para la solución de problemas. Y su
enfoque corresponde a lo que se ha denominado como la Demostración
Automática de Teoremas. En términos generales, la podemos describir
como: ``Los métodos para demostrar que un conjunto de cláusulas es
insatisfactible, basados en los trabajos de Herbrand". Una manera de
describir la mecánica de los métodos mencionados es la siguiente: ``A
partir de un conjunto de cláusulas originales S, se generan conjuntos de
cláusulas base instanciadas (ground instances, también aterrizadas).
Los métodos deben controlar la ``generación combinatorialmente
explosiva" de nuevas cláusulas y obtener un conjunto de cláusulas que
resulte ser insatisfactible.
De Herbrand
Gilmor
Divis y Putman
A Robinson
A partir de un conjunto de
cláusulas originales S, se
generan conjuntos de
cláusulas base instanciadas
Los procedimientos deben
controlar la explosión
combinatori de nuevas
cláusulas y obtener un
conjunto de cláusulas que
resulte ser insatisfactible.
El método de Herbrad, es la
base de muchos
procedimientos automáticos
de prueba que se usan en la
actualidad. Gilmore, en
1960, fué el primero en
presentar una
implementación en una
computadora, del
procedimiento de Herbrand.
Davis y Putnam,
mejoraron el método,
unos meses después de
publicado el trabajo de
Gilmore en 1960.
Aunque estos trabajos ,
resultaron ser un avance
importante, no son
suficientes, pues muchas
fórmulas validas de la
lógica de Primer Orden,
no pudieron ser
probadas por una
computadora en un
tiempo razonable.
A partir de los trabajos de los
precursores, han surgido dos
tendencias para mejorar la
eficiencia de los métodos
mecánicos: Los métodos
basados en las ideas de Prawitz,
1960; y los métodos basados en
el Principio de Resolución de
Robinson, 1965.
Dado un conjunto S de
cláusulas, el algoritmo de
Herbrand genera una
secuencia de conjuntos de
instancias base de S, y
prueba sucesivamente la
insatisfactibilidad de los
conjuntos enerados. El
método se considera teórico
(No es un procedimiento
efectivo).
Considerada la estrategia
exhaustiva, fué la primera
implementación conocida del
método de Herbrand,
generando los conjuntos En
donde es la conjunción de
todas las instancias base
obtenidas de reemplazar
``todas" las variables en S,
por las constantes del iésimo nivel del Universo de
Herbrand. Probar la
inconsistencia ahora, es
asunto de la lógica de
proposiciones, y Gilmore uso
para ello el método
multiplicativo (un método
para el cálculo de
proposiciones).
Dado un conjunto de
cláusulas base S, este
método esencialmente
elimina cláusulas
aplicando cuatro reglas
de simplificación.
Obtiene un conjunto S', y
aplicando el teorema de
Herbrand, se sabe que
S' es insatisfactibles si y
solo si, S es
insatisfactible.
El método de resolución de
Robinson esta considerado
como el precursor de toda una
familia de métodos, que hacen
uso de los conceptos centrales,
pero que, de alguna manera
proponen algún refinamiento.
Consiste esencialmente en una
extensión de la regla de la literal
simple de Davis y Putnam. Se
aplica directamente a cualquier
conjunto de cláusulas (no
necesariamente cláusulas base
o aterrizadas), para probar la
insatisfactibilidad de S. El
aspecto central del método
cosiste en probar que si S
contiene la cláusula vacía,
entonces es incosistente. En
caso de que S no contenga la
cláusula vacía, se intentará
derivarla a partir de las cláusulas
existentes en S. Si la cláusula
vacía es derivada de las
cláusulas existentes, S es
inconsistente.
Aunque el problema de encontrar un procedimiento único para probar la
validez de todas las fórmulas del Cálculo de Primer Orden, es
irresoluble, existen procedimientos de prueba que pueden verificar si
una fórmula es valida (cuando efectivamente lo es), aunque no se pueda
conocer efectivamente cuando una fórmula es invalida. En virtud de los
resultados de Church y Turing, el planteamiento anterior es lo mejor que
podemos esperar obtener de un procedimiento de ``Demostración
Automática de Teoremas". Los procedimientos de demostración de
Herbrand y los basados en resolución, son procedimientos por
refutación; es decir, en lugar de probar que una fórmula es válida, se
probará que la negación de la fórmula es inconsistente.
3. PRINCIPIO DE RESOLUCIÓN
El principio de resolución es debido a J. A. Robinson en 1965. Este principio
puede ser aplicado directamente a cualquier conjunto S de cláusulas, no
necesariamente cláusulas aterrizadas, para probar la insatisfactibilidad de S.
La idea esencial del principio de resolución es constatar si S contiene la
cláusula vacía  , si S contiene a  , entonces S es insatisfactible. Si S no
contiene a  , lo siguiente a constatar es si  puede ser derivada de S. El
constatar la presencia de  es equivalente a contar el número de nodos de un
árbol semántico cerrado de S. S es insatisfactible si y solo si hay un árbol
semántico cerrado T para S. Así, S contiene a  si y solo si T consiste en un
solo nodo - el nodo raíz. Si S no contiene a  , T debe contener más de un
nodo. Sin embargo, si se puede reducir el número de nodos en T a uno,
eventualmente la cláusula vacía  puede ser forzada a aparecer. Esto es lo que
el principio de resolución hace. Por tanto se puede ver el principio de resolución
como una regla de inferencia que puede ser usada para generar nuevas
cláusulas de S. Si se ponen estas cláusulas en S, algunos nodos del T original
pueden ser forzados a ser nodos faltantes. Así, el número de nodos en T puede
ser reducido y la cláusula vacía  será eventualmente derivada.
RESOLUCION
Autores, año.
Semántica
Slagle 1967; Robinson, 1965; Kowalky y Hayes,
1969.
Unitaria
Wos et al, 1964; Chang, 1970.
Estrategia de Conjunto
de Soporte
Wos et al, 1965.
Hiperresolucion
Robinson 1965
Lock
Boyes, 1971.
Lineal
Loveland, 1971; Luckham, 1971; Anderson y
Bledsoe, 1971, Yates et al, 1971; Reiter, 1971;
Kowalsky y Kuherner, 1971.
5.1 RESOLUCIÓN LINEAL
La resolución lineal fue propuesta independientemente por Loveland (1970) y
Luckman (1970). Posteriormente fue reforzada por Anderson y Bledsoe (1970),
Reiter (1971), Kowalski y Kuehner (1971) y Loveland (1972).
Las versiones propuestas por Kowalski y Kuehner (1971) y Loveland
(1972),son las que pueden ser implantadas en una computadora de mejor
manera.
Dado un conjunto S de cláusulas, y una cláusula Cn en S, una Deducción
Lineal de Cn de S con la cláusula inicial.
Donde:
1.Para i= 0, 1, n-1, Ci+1 es un resolvente de Ci (llamada Cláusula Central) y Bi
(Cláusula Lateral)
2.Cada Bi esta en S, o es una Cj para algún j, j < i
3.P   Q
5.2 RESOLUCIÓN DE ENTRADA Y RESOLUCIÓN UNITARIA
Al considerar un refinamiento de resolución, es deseable que éste sea
completo; esto es, garantizar que la cláusula vacía pueda ser siempre derivada
de un conjunto de cláusulas insatisfactible.
La resolución de entrada es un subcaso de la resolución lineal. Es más
simple de implementar y aunque no es completa, es más eficiente que la
resolución lineal. Podemos mostrar que la resolución de entrada es equivalente
a la resolución unitaria. Dado un conjunto de cláusulas S, ya que S es el
conjunto original de entrada, podemos denominar a cada miembro de S una
cláusula de entrada.
1) Una resolución de entrada en una resolución en la cual una de las dos
cláusulas padres es una cláusula de entrada. Una deducción de entrada (para
enfatizar el conjunto S de entrada, se le denomina también deducción de
entrada ) es una deducción en la cual toda resolución es una resolución de
entrada. Una refutación de entrada es una deducción de entrada de la cláusula
vacía  desde S.
Una deducción de entrada es realmente una Deducción Lineal en la cual toda
cláusula de lado es una cláusula de entrada y por lo tanto es un subcaso de la
Deducción Lineal.
Ejemplo.Consideremos el siguiente conjunto de clausulas:
P(x,y,u) P(y,z,v)P(x,v,w)P(u,z,w)
P(g(x,y),x,y)
P(x,h(x,y),y)
P(k(x),x,k(x))
2) La resolución unitaria es una resolución en la cual un resolvente es obtenido
por el uso de al menos una cláusula padre, o un factor unitario de una cláusula
padre. Una deducción unitaria es una deducción en la cual cada resolución es
una resolución unitaria. Una refutación unitaria es una deducción unitaria de la
cláusula vacía  .
La resolución unitaria es esencialmente una extensión de la regla de la literal
simple de Davis y Putnam para la Lógica de Primer Orden.
Esta regla es específicamente importante, ya que para deducir  de un
conjunto dado de cláusulas, se deberán obtener, sucesivamente, cláusulas
menores y la resolución unitaria proporciona los medios para progresar
rápidamente hacia las cláusulas menores.
Se puede demostrar que la resolución unitaria y la resolución de entrada son
equivalentes.
5.3 RESOLUCIÓN LINEAL USANDO CLÁUSULAS ORDENADAS DE
INFORMACIÓN DE LITERALES RESUELTAS.
Podemos reforzar la resolución lineal si introducimos el concepto de cláusulas
ordenadas (de resolución semántica), y se usa la información de las literales
resueltas anteriormente.
En resolución, cuando un resolvente es obtenido, las literales resueltas primero
son borradas. Sin embargo, como lo descubrieron Loveland (1968,1969,1972)
y Kowalski y Kuehner (1971) la información proporcionada por las literales es
muy útil y puede ser usada para mejorar la resolución lineal.
El algoritmo que emplea los conceptos de cláusulas ordenadas y la información
de literales resueltas se denomina Deducción OL (Deducción Ordenada Lineal).
La Deducción OL es escencialmente la misma que Loveland (1968,1969 y
1972) ha denominado el método del modelo de eliminación. La Deducción de
OL es también, esencialmente una Deducción SL especial de Kowalski y
Kuehner (1971).
5.4 RESOLUCIÓN LOCK
La resolución LOCK (Esclusa), es un refinamiento del método de resolución
que usa un concepto similar al de las cláusulas ordenadas.
Dando un conjunto S de cláusulas, esencialmente, la idea de la resolución lock
consiste en usar índices para ordenar las literales en las cláusulas de S. Es
decir, agrega un indexamiento arbitrario a cada ocurrencia de un literal en S, y
asocia a cada una de ellas un entero.
Ocurrencias diferentes de la misma literal, pueden ser indexadas de manera
diferente. La resolución se permite solamente en literales conteniendo los
índices menores en cada una de las cláusulas. Las literales en los resolventes
heredan los índices de sus cláusulas padre. Si una literal en un resolvente tiene
más de un índice heredado posible, el menor de los índices es el que se le
asigna a la mencionada literal.
5.5 RESOLUCIÓN SEMÁNTICA
Al aplicar el principio de resolución, se puede generar muchas cláusulas
irrelevantes y redundantes.
Con el fin de evitar la generación de las cláusulas innecesarias, supóngase que
se puede dividir un conjunto de cláusulas en dos grupos: S1 y S2. Y añada la
restricción de que no se pueden resolver entre sí cláusulas del mismo grupo.
En resolución semántica, se usa una interpretación para dividir las cláusulas.
Es por ésta razón que a este tipo de resolución se le llama resolución
semántica.
Para bloquear más resoluciones, se usa un esquema llamado ordenamiento de
los símbolos de predicados.
5.6 HIPERRESOLUCIÓN Y LA ESTRATÉGIA DEL CONJUNTO SOPORTE
Estos dos procedimientos son casos especiales de la resolución semántica.

Hiperresolución
Consideremos una interpretación I en la que toda literal es la negación de un
átomo. Si se usa esa interpretación, todo electrón y todo PI-resolvente deben
contener únicamente átomos. Similarmente, si toda literal de I es un átomo,
entonces todo electrón y todo PI-resolvente deben contener únicamente
negaciones de átomos. La hiperresolucion se basa en éstas consideraciones:
a. Una cláusula es positiva si no contiene ningún signo de negación. Una
cláusula es negativa, si toda literal de ella contiene el signo de negación.
Una cláusula es mezclada si no es positiva ni negativa.
b. Una hiperresolución positiva es un caso especial de una PI-resolución
en la que toda literal de la interpretación I contiene el signo de negación.
Se le llama hiperresolución positiva por que todos los electrones y todos
los PI-resolventes en este caso son positivos.
c. Una hiperresolución negativa es un caso especial de la PI-resolución en
que la interpretación I no contiene ningún signo de negación. Se le llama
hiperresolución negativa porque todos los electrones y los PI-resolventes
en este caso son negativos.
A menudo, los axiomas de un teorema son representados por cláusulas
positivas y mezcladas, y la negación de la conclusión se representa por una
cláusula negativa. En este caso, la hiperresolución positiva corresponde a
"pensar hacia adelante" (forward), mientras que la hiperresolución negativa
corresponde a "pensar hacia atrás " (backward).

La estratégia del Conjunto Soporte
Un teorema consiste de un conjunto de axiomas Ai y una conclusión B. Para
probar el teorema, se prueba que  Ai B es insatisfactible. Ya que 
Ai,usualmente es satisfactible, es recomendable resolver cláusulas en  Ai.
Esto es precisamente lo que trata de realizar la resolución del conjunto de
soporte.
Un subconjunto T de un conjunto S de cláusulas es llamado conjunto de
soporte de S si, S - T es satisfactible. Una resolución del conjunto de soporte
es una resolución de dos cláusulas que no provienen de S - T. Una deducción
del conjunto de soporte es una deducción en la que toda resolución es una
resolución del conjunto de soporte.
5.7 RESOLUCIÓN SEMÁNTICA USANDO CLÁUSULAS ORDENADAS
Para la lógica proposicional, el ordenamiento de los símbolos de predicados,
usados en conjunción con resolución semántica, es bastante efectivo. Dado un
electrón E, no tenemos, dificultad en aislar una literal de E para ser resuelta.
Sin embargo, para la lógica de primer orden, donde se involucran variables, en
un electrón E puede haber más de una literal que contiene el mismo símbolo
mayor de E. Cualquiera de estas literales es un candidato para ser resuelta.
Sea I una interpretación en la que todas las literales son negativas, y P
cualquier ordenamiento de los símbolos de predicados. Claramente, E, N, es
un PI-choque. Como todas las literales de E contienen el mismo símbolo Q,
todas pueden ser resueltas con N. Por tanto, a partir del PI-choque E, N,
podemos obtener cuatro PI-resolventes:
Para remediar esta situación, consideramos las cláusulas ordenadas. La idea
de las cláusulas ordenadas es la de considerar una cláusula como una
secuencia de literales. Al hacerlo, damos el orden de todas las literales de una
cláusula.
a) Una cláusula ordenada es una secuencia de literales distintas.
b) Una literal se dice que es mayor que una literal en una cláusula ordenada (o
es menor que ), si y sólo si, sigue a en la secuencia especificada por la
cláusula ordenada.
De esta forma, la última literal de una cláusula ordenada siempre será
considerada la mayor de la cláusula. Por ejemplo, si consideramos como una
cláusula ordenada, entonces es la literal mayor.
5.8 RESOLUCIÓN-UR
Es la Regla de Inferencia que aplica a un conjunto de cláusulas, una de las
cuales debe ser una cláusula no unitaria, el resto deben ser cláusulas unitarias.
Además la cláusula no unitaria debe contener exactamente una literal más que
el número de (no necesariamente distinto) las cláusulas unitarias en el conjunto
del cual la Resolución UR es aplicable.
5.9 PARAMODULACIÓN
Es la Regla de Inferencia que aplica a un par de cláusulas y requiere que al
menos una de las dos contenga una literal de igualdad positiva. produce una
cláusula en la cual la sustitución de igualdad correspondiente a la literal de
igualdad que ha ocurrido.
5.10 RESOLUCIÓNES SLD Y SLDNF EN PROGRAMACIÓN LOGICA
La programación lógica es un primer acierto al trabajo de la prueba de
teoremas lógicos. En efecto, la resolución de la prueba de teoremas forma la
base de la mayoría de los sistemas de programación lógica actuales. La idea
principal que acompaña a la programación lógica es el uso de la lógica
matemática como un lenguaje de programación. Introducida por Kowalski a
principios de los setentas, fue llevado a la práctica por Colmerauer a través de
la implementación de PROLOG, el primer lenguaje de programación lógica.
En el procedimiento de interpretación de la programación lógica cada sentencia
Horn con una conclusión positiva es considerada como una declaración de
procedimiento para la conclusión y un conjunto de tales declaraciones forma un
programa. La computación comienza desde una declaración inicial del objetivo
la cual es una sentencia Horn con una conclusión nula. Las cláusulas de
programa son clasificadas de acuerdo a su estructuras sintácticas.
La equivalencia entre semántica declarativa y semántica procedimental. para
programas definidos es básicamente la validez y la completitud de resolución
SLD.
SLDNF-resolución esta pensada como la contraparte de un procedimiento de la
semántica declarativa dada en términos de programas completados. Este
esquema de resolución es, para una extensión larga, la base actual de la
programación lógica. El esquema de resolución es esencialmente una
resolución SLD aumentada por la regla de inferencia NAF (Negation as
Failure). La definición de SLDNF-resolución es una versión inductiva formal
como opuesta a la versión recursiva. Estas facilidades establecen sus
resultados de validez con respecto a los programas completados.
5.11 RESOLUCION DIRECCIONAL
Es una variación del método original de Davis-Putman y analiza el
comportamiento del peor caso como una función de la estructura topológica de
las teorías proposicionales. R. Dechter and I. Rish, 1994.
1. ALGUNOS SISTEMAS EXPERIMENTALES PARA LA PRUEBA DE
TEOREMAS
El sistema OTTER (Organized Techniques for Theorem- proving and
Effective Reseach) es programa de razonamiento computadorizado
basado en la lógica de predicados que posee una gran gama de
aplicación en diferentes problemas tal como la validación y diseño de
circuitos, resolver rompecabezas, corrección de programas, construcción
de objetos, y cualquier problema que necesite colectar información que
fluye lógicamente de un conjunto de hipótesis.
OTTER utiliza la misma sintaxis del cálculo o lógica de predicados y
realiza sus pruebas mayormente por contradicción. Puede aplicar
diferentes tipos de reglas de inferencia como resolución binaria,
hiperresolución, demodulación, paramodulación, y otras variantes de
éstas.
También, es capaz de ejecutar en el proceso de prueba, los algoritmos
para transformar las fórmulas en cláusulas, y el de unificación, es decir,
OTTER sólo necesita el conjunto de axiomas y el teorema o argumento
que queremos demostrar.
Existen varios programas de aplicacion experimental, entre los que
destacan MACE, FINDER, MGTP ,LDPP,SATO, y SEM.
2. APLICACIONES
La Lógica de Predicados, como parte de la Lógica simbólica, es una
herramienta sumamente útil para representar hechos que ocurren en el mundo
real. Su alto grado de expresividad y flexibilidad para el manejo de símbolos
permite resolver problemas que requieren representarse de manera objetiva y
sin ambigüedades. Por esta razón las aplicaciones de la lógica de predicados
se han extendido a diferentes campos de estudio e incluso en problemas de la
vida diaria.
La aplicación de los métodos de resolución es directa en razonamiento
mecanizado, pero éste tiene un sin fin de aplicaciones prácticas. A través de
programas computacionales se pueden resolver problemas y responder a
preguntas sobre razonamiento. Sus aplicaciones están en sistemas de bases
de datos y lenguajes de programación. Esto significa que no sólo sirven para
demostrar teoremas o argumentos de Matemática o Filosofía, sino que también
se pueden aplicar las áreas de Ingeniería, Control industrial y Computación.
Por ejemplo, se puede revisan el diseño de un circuito lógico o electrónico, al
verificar o probar si se satisfacen los requisitos del diseño. También, pueden
probar la validez de un circuito, o sea, probar que las especificaciones del
circuito son correctas. En sistemas de control industriales, se verifica que la
combinación de los componentes de producción sea correcta, gracias a lo cual
pueden evitarse errores que provoquen pérdidas o daños físicos o monetarios
a la industria. En el área de investigación matemática, se ha podido extender
teorías matemáticas, pues permite determinar la validez de nuevos teoremas
en la teoría, como en la teoría de conjuntos y en álgebra booleana.
http://w3.mor.itesm.mx/~logica/log9908/Equipo1-Dic99/tarea7.htm
2.16 Conocimiento no-monótono y Otras lógicas.
Tanto los humanos como los autómatas deben extraer conclusiones que son verdad
en los mejores modelos de los hechos que se han tenido en cuenta. Hay diversos
conceptos de lo que es mejor en sistemas diferentes. Muchos implican la
minimización de algo. A medida que se agregan nuevos hechos, algunas de las
anteriores conclusiones no sobreviven. Por este motivo, el razonamiento que
permitió arribar a esas conclusiones que han decaído, se denomina no-monótono.
http://club.telepolis.com/ohcop/mcnonmon.html
2.17 Razonamiento probabilístico.
Definición
El razonamiento probabilístico es un caso dentro del razonamiento no
monótono. Cuando la probabilidad que la verdad de una oración haya
cambiado con respecto a su valor inicial (por ejemplo 1), otras oraciones que
anteriormente tenían alta probabilidad pueden decaer hasta tener
probabilidad pequeña o nula. Cuando se configuran los modelos
probabilísticos, esto es, cuando se define el espacio para una muestra de
"eventos" susceptibles de recibir diferentes valores de probabilidad, se está
apelando a un razonamiento no-monótono más general, pero la convención
es que esto no lo hace la computadora sino una persona que razona
informalmente.
Resulta aparente que en una situación informática abierta de sentido
común, no existe espacio general alguno para una muestra de eventos.
Apenas se le ponen límites a dicho espacio general de eventos considerados y
se le aplica alguna distribución, se está procediendo a generar teorías
probabilísticas. Las técnicas de razonamiento no-monótono consisten en
técnicas desarrolladas para limitar los fenómenos tenidos en cuenta. Si
queremos limitar los fenómenos considerados, debemos recurrir a técnicas
no-monótonas. (Estoy confesando que no sé cuales serían esas técnicas). Al
formar distribuciones, habría que introducir una regla por defecto por la
cual dos eventos e1 y e2 se deben considerar independientes entre sí salvo
que haya alguna razón para el otro caso. No es posible que e1 y e2 sean
eventos cualesquiera: tienen que ser dos eventos básicos por lo menos en
algun sentido.
http://club.telepolis.com/ohcop/mcrazpro.html
2.18 Teorema de Bayes.
Teorema de Bayes
Si los sucesos Ai son una partición y B un suceso tal que p(B)  0
Demostración
Aplicaciones
Diagnóstico médico (en general clasificaciones no biunívocas): El diagnóstico
consiste en establecer la enfermedad de un paciente, a partir de una serie de
síntomas. Pero los síntomas y las enfermedades no están ligados de un modo
biunívoco.
Llamemos Ei al conjunto de enfermedades
E1: tuberculosis pulmonar; E2 :cáncer de pulmón; E3: bronquitis obstructiva; etc.
y Si a los síntomas y síndromes asociados con las mismas.
S1: tos; S2: estado febril; S3: hemotisis; etc.
La información accesible en los libros de patología, o en un archivo de historias
clínicas es del tipo.
Para E1: algunos (digamos el 20%) tienen hemotisis; muchos (80%) tienen tos;
etc.
y lo mismo para las demás enfermedades.
En términos de probabilidad condicionada, esta información es
p(S3|E1) = 0,2; p(S1|E1) = 0,8 etc.
para diagnosticar la tuberculosis se ha de evaluar, para los síntomas que presenta
el paciente p(E1|Si) para lo que se puede usar el teorema de Bayes si las
enfermedades forman una partición (son mutuamente excluyentes y se consideran
todas las enfermedades compatibles con el síntoma) y se conocen sus
prevalencias.
Nótese que un mismo conjunto de síntomas podría dar lugar a un diagnóstico
diferente en poblaciones en las que las prevalencias fueran diferentes.
Pruebas diagnósticas: Supóngase una prueba diagnóstica, por ejemplo nivel de
glucosa en sangre, en ayunas, para diagnosticar la diabetes. Se considera que la
prueba es positiva si se encuentra un nivel por encima de un cierto valor, digamos
120 mg/l.
Para evaluar la prueba, (habrá que hacerlo para distintos valores de corte) se
somete a la misma a una serie de individuos diabéticos diagnosticados por otro
procedimiento (el patrón de oro o "gold standar") y a una serie de individuos no
diabéticos. Los resultados se pueden representar en una tabla de doble entrada
Patrón de oro
Prueba
NE
E
-
a
b
r
+
c
d
s
t
u
Si la prueba fuera perfecta b=c=0, desgraciadamente nunca ocurre. Se denomina
coeficiente falso-positivo (CFP) al cociente c/t, y es una estimación de la
probabilidad condicionada p(+|NE), se denomina coeficiente falso-negativo (CFN) al
cociente b/u, y es una estimación de la probabilidad condicionada p(-|E). Estos dos
coeficientes cuantifican los dos errores que la prueba puede cometer y caracterizan
a la misma. Simétricamente, los coeficientes que cuantifican los aciertos son la
sensibilidad, p(+|E), y la especificidad p(-|NE).
Cuando la prueba se usa con fines diagnósticos (o de "screening") interesa calcular
p(E|+) y/o p(NE|-).
Como E y NE son una partición, usando el Teorema de Bayes
y
Nótese que ambas dependen de la prevalencia de la enfermedad: una prueba
diagnóstica que funciona muy bien en la clínica Mayo, puede ser inútil en el Hospital
Ramón y Cajal.
Ejemplo 9:
una prueba diagnóstica para la diabetes tiene un CFP de 4% y un CFN del 5%. Si la
prevalencia de la diabetes en la población donde se usa es del 7% ¿cuál es la
probabilidad de que sea diabético un individuo en el que la prueba dé positiva? y
¿de que no lo sea uno en el que dé negativo?
p(+|NE) = 0,04  p(-|NE) = 0,96
p(-|E) = 0,05  p(+|E) = 0,95
p(E) = 0,07  p(NE) = 0,93
y
Pruebas en serie: Cuando se aplican pruebas en serie, para cada prueba p(E) y
p(NE), serán la p(E|+) y p(NE|+) de la prueba anterior (si dio positiva) o p(E|-) y
p(NE|-) si dio negativa.
http://www.hrc.es/bioest/Probabilidad_18.html
Teorema de Bayes.
En el año 1763, dos años después de la muerte de Thomas Bayes (1702-1761), se
publicó una memoria en la que aparece, por vez primera, la determinación de la
probabilidad de las causas a partir de los efectos que han podido ser observados. El
cálculo de dichas probabilidades recibe el nombre de teorema de Bayes.
Teorema de Bayes
Sea A1, A2, ...,An un sistema completo de sucesos, tales que la probabilidad de cada uno
de ellos es distinta de cero, y sea B un suceso cualquier del que se conocen las
probabilidades condicionales P(B/Ai). entonces la probabilidad P(Ai/B) viene dada por
la expresión:
En los problemas relacionados con la probabilidad, y en particular con la probabilidad
condicionada, así como con la probabilidad total y el teorema de Bayes, es aconsejable
que, con la información del problema, construyas una tabla de contingencia o un
diagrama de árbol.
http://thales.cica.es/rd/Recursos/rd98/Matematicas/28/8.html
Ejercicio 8-1:
Tres máquinas, A, B y C, producen el 45%, 30% y 25%, respectivamente, del total de
las piezas producidas en una fábrica. Los porcentajes de producción defectuosa de estas
máquinas son del 3%, 4% y 5%.
a. Seleccionamos una pieza al azar; calcula la probabilidad de que sea defectuosa.
b. Tomamos, al azar, una pieza y resulta ser defectuosa; calcula la probabilidad de
haber sido producida por la máquina B.
c. ¿Qué máquina tiene la mayor probabilidad de haber producido la citada pieza
defectuosa?
Solución:
Sea D= "la pieza es defectuosa" y N= "la pieza no es defectuosa". La información del
problema puede expresarse en el diagrama de árbol adjunto.
a. Para calcular la probabilidad de que la pieza elegida sea defectuosa, P(D), por la
propiedad de la probabilidad total,
P(D) = P(A) · P(D/A) + P(B) · P(D/B) + P(C) · P(D/C) =
= 0.45 · 0.03 + 0.30 · 0.04 + 0.25 · 0.05 = 0.038
b. Debemos calcular P(B/D). Por el teorema de Bayes,
c. Calculamos P(A/D) y P(C/D), comparándolas con el valor de P(B/D) ya
calculado. Aplicando el teorema de Bayes, obtenemos:
La máquina con mayor probabilidad de haber producido la pieza defectuosa es A
Ejercicio 8-2:
Tenemos tres urnas: A con 3 bolas rojas y 5 negras, B con 2 bolas rojas y 1 negra y C
con 2 bolas rojas y 3 negras. Escogemos una urna al azar y extraemos una bola. Si la
bola ha sido roja, ¿cuál es la probabilidad de haber sido extraída de la urna A?
Solución:
Llamamos R= "sacar bola roja" y N= "sacar bola negra". En el diagrama de árbol
adjunto pueden verse las distintas probabilidades de ocurrencia de los sucesos R o N
para cada una de las tres urnas.
La probabilidad pedida es P(A/R). Utilizando el teorema de Bayes, tenemos:
Unidad 3. Sistemas de razonamiento
lógico.
3.6 Reglas de producción.
Tendencia en IA (70's): (i) aplicaciones reales (ii) incorporar grandes cantidades de
conocimiento vs. sistemas genéricos (e.g., GPS)
MYCIN: diagnóstica y recomienda terapia de infecciones bactereológicas de la sangre
Requerimientos:



Util (un área de necesidad reconocida)
Capacidad de considerar una gran cantidad de conocimiento técnico cambiante
(reglas)
Diálogo interactivo (simbólico)
Otros puntos:



velocidad
accesibilidad y facilidad de uso
con énfasis como herramienta de soporte
En el dominio se tienen que tomar desiciones con información incompleta
Alrededor de 200 reglas, 24 funciones y 80 atributos
Cada regla es un pedazo de conocimiento modular y dice explícitamente en sus
condiciones el contexto necesario
Características Principales:




Se usan sólo conjunciones en las condiciones de las reglas
Cada regla puede tener más de una conclusión (acción)
Su mecanismo de inferencia es encadenamiento hacia atrás, con búsqueda depthfirst en un árbol AND/OR
Se consideran todas las reglas que pueden aplicarse

Maneja factores de certeza (o certidumbre). Su regla de combinación es: mínimo
en las condiciones AND y máximo entre opciones (reglas) OR


Factores en rango
se deshechan
Guiado por metas generalizadas: trata de encontrar toda la información
relacionada con la meta
Si no puede deducir la información le pregunta al usuario
Se etiquetan algunas condiciones como preguntables (LABDATA) para evitar
tratar de inferirlas cuando es muy probable que el usuario las conozca.
Intenta primero aplicar reglas con valores conocidos (unity path)
Mantiene lo que va evaluando para evitar tratar de re-evaluar
Se hace una pre-evaluación en las condiciones de las reglas para eliminar las que
sean inmediatamente falsas (preview).
La pre-evaluación involucra ``plantillas'' templates
Tiene ciertas reglas de ``sentido común'' para evitar un proceso largo usando un
encadenamiento hacia adelante.
Usa meta-reglas para ordenar/guiar el proceso deductivo
Uso de contextos: paciente, infección, cultivo y organismo, y propiedades
``básicas'' (a evaluar/preguntar) para guiar el mecanismo de razonamiento









Suposiciones:








Se tiene un formato pre-establecido por lo que es difícil expresar todo el
conocimiento en el.
Se asume que el conocimiento puede describirse en forma de reglas, las reglas y
cómo se usan son suficientes para dar explicaciones, los expertos pueden
reconocer su experiencia en las reglas, las reglas son suficientemente sencillas,
expresivas e intuitivas
Sólo un número reducido de condiciones (6) se consideran por cada regla y cada
condición es independiente de las otras
No se requieren muchas reglas de encadenamiento hacia adelante
El mecanismo de explicación es adecuado
Los expertos pueden expresar su conocimiento en forma de reglas
El mecanismo de rezonamiento modus ponens es adecuado
El vocabulario empleado es adecuado
Evaluación de Reglas como Represenatación de Conocimiento

Desempeño: depende de la cantidad y profundidad de su conocimiento
La modularidad de las reglas es fundamental para un buen desempeño (entre
otros para añadir nuevas reglas, detectar inconsistencias, reglas subsumidas por
otras, etc)
La modularidad implica que toda la información contextual debe de estar
incluída en la regla y ninguna regla llama directamente a otra. Esto puede
provocar reglas demasiado grandes.
En encadenamiento hacia atrás no es fácil mapear un conjunto de pruebas a las
metas (pensar ``al reves'')
El formalismo sólo permite pruebas de predicados (i.e., no puede tener: para
todo organismo ... esto lo tienen ``parchado'' en algunas meta-reglas pero les
complica el sistema de explicación)

Explicación: debe de ser ``natural'' y transparente para los expertos (razones de
usar proceso simbólico y reglas).
Capacidades: (i) mostrar en cualquier momento la regla considerada (ii)
almacenar las reglas utilizadas para propósitos de explicación (iii) encontrar
reglas específicas para contestar algún tipo de pregunta
Extensiones: (i) preguntar porqué no tomo ciertas acciones (ii) combinar la
explicación con ``medidas de información'' para dar explicaciones a diferente
detalle
Aseveración: el nivel de detalle de conocimiento es adecuado porque lo dieron
los expertos

Adquisición: es fácil de formalizar en forma de reglas el dominio médico
Las explicaciones permiten encontrar fallas en la base de conocimiento y
facilitan su modificación
La adquisición se puede hacer en lenguaje natural porque el lenguaje
considerado es suficientemente restringido
La adquisición debe de estar libre de contradicciones, redundancias y
subsumciones. Problemas con contradicciones indirectas, efectos secundarios
(i.e., actualización de información relacionada)
Algunas limitaciones:





algunos conceptos no son fáciles de expresar en forma de reglas
el razonamiento hacia atrás no parece ser adecuado para estructurar grandes
cantidades de conocimiento
La sintaxis de las reglas asume sólo conjunciones de pruebas proposicionales
La información se introduce sólo al responder preguntas
Las suposiciones sobre las cuales se basa el manejo de los factores de certeza
son muy restrictivas
http://www.mor.itesm.mx/~rdec/node75.html
Hay muchas formas de representar el conocimiento en
un sistema experto. El método más utilizado son las
reglas de producción.
Una regla de producción toma la siguiente forma general:
SI <son ciertos determinados hechos>
ENTONCES <se consideran ciertos otros hechos>
Estas reglas residen en la base de conocimientos, en una especie de fichero de
texto. El programa de inferencia, verdadero motor del sistema experto se encarga
de combinar estas reglas, interactuando con el usuario a través del interfaz del
usuario.
http://ciberconta.unizar.es/LECCION/IA/320.HTM
I.
Reglas de producción
A menudo, es conveniente representar la naturaleza dinámica de una
aplicación de la IA por un conjunto de reglas hechas de condiciones y
acciones. Las reglas de producción son un tipo de regla
"Si...entonces...", basada en condiciones y acciones. Una de las reglas
que hace que las acciones de la regla a ejecutar den lugar a nuestras
descripciones producen más acciones (de aquí el nombre de "reglas de
producción"), así hasta que el sistema encuentre la solución o se
detenga.
Un sistema consistente en un conjunto de reglas de producción, son los
operadores en el sistema, es decir, las que se usan para manipular las
bases de datos. Los lenguajes de estos sistemas de producción, tales
como OPS5, facilitan la representación del conocimiento en reglas de
producción. Cada una de estas reglas está embebitada en una pieza de
conocimiento que puede ser añadida o quitada del sistema según las
necesidades. La parte "SI..." y la parte "entonces..." pueden estar
compuestas de más de una frase por ejemplo, "Si es diciembre y estás
en el norte del circulo antártico, entonces necesitas un buen abrigo... y
...una linterna día y noche".
El formato "Si... Entonces..." de las reglas de producción hace
relativamente fácil codificar los sistemas expertos del conocimiento, pero
frecuentemente pensamos sobre la experiencia de una manera: "Si...
Entonces...".
Las reglas de producción en sistemas expertos escritas en el OPS5 no
necesitan acogerse a un orden particular por que el control de flujo en
un programa no está determinado por el orden en el que el programador
ha codificado las reglas. En lugar de eso las reglas son candidatas a
actuar cuando los elementos "Si..." son satisfactorios por el estado actual
del sistema, que continuamente cambia al ir actuando las reglas.
Explícitamente las estructuras de control en algunos programas pueden
también limitar la aplicabilidad de alguna regla en algún momento. La
capacidad para añadir o quitar reglas de producción en algún punto del
sistema sin considerarlas por orden ayuda a desarrollar el trabajo más
fácilmente.
http://www.uap.edu.pe/Fac/02/trabajos/02206/isi%2033/go
1/ia.html
3.7 Sintaxis de las reglas de producción.
- A1  A2 ...  An => C
- representación objeto-atributo-valor
Representación: objeto-atributo-valor
(literalize Objeto Atributo1 Atributo2
AtributoN)
Los atributos solo pueden tener un valor a menos que se declaren como vectores
Instanciaciones de objetos (asignar valores con constantes o con nil)
Las instanciaciones se añaden a la memoria de trabajo y se les asigna un número entero
positivo o etiqueta de tiempo (time-tag)
Para ver los elementos de la memoria de trabajo: (wm) e.g.,
10:(paciente ^nombre Juan ^edad 20
^síntoma fiebre)
Sintaxis:
(p < nombre >< lhs > --> < rhs >)
e.g.,
(p ejemplo
(paciente ^sintoma = fiebre)
(datos-lab ^celulas-T < 100)
-->
(make paciente ^diagnostico sida))
Atributo-predicado-valor
Predicado: <, <=, >=, >, <>, =
Si no se pone ningún predicado se asume que es: =
El interprete aparea condiciones de las reglas con elementos de la memoria de trabajo:
e.g., (paciente ^edad < 70)
Memoria de trabajo:
1: (paciente ^nombre juan ^edad 50)
2: (paciente ^nombre maría ^edad 75)
Extenciones:
(paciente ^edad {> 20 < 50}) (conjunción)
(paciente ^queja << fiebre dolor-de-cabeza >>)
(disjunción)
Acciones:



make: crea un elemento en la memoria de trabajo
remove: elimina un elemento de la memoria de trabajo
modify: cambia un elemento de la memoria de trabajo
Los atributos no mencionados en make se les asigna nil e.g.,
(literalize persona nombre edad)
(make persona ^nombre juan)
1: (persona ^nombre juan ^edad nil)
Remove: e.g.,
(remove 10)
(remove *)
Modify: hace un remove seguido de un make. e.g.,
(literalize persona nombre)
(p chafa
(persona ^nombre anonimo)
-->
(modify 1 ^nombre juan))
1: (persona ^nombre anónimo)
3: (persona ^nombre juan)
Otras instrucciones: openfile, closefile, accept, write
Variables: se ponen entre ``< >'': < x >, < N >,
< cualquier-cosa >, e.g.,
(persona ^nombre = <n > ^edad = 20)
Una variable puede instanciarse a un elemento de la memoria de trabajo: {(persona
^nombre juan) <pers>}, e.g.,
(p ejemplo
{(persona ^nombre juan) <pers >}
-->
(remove <pers >))
(p arteria-pequenias
(arteria ^nombre = <n > ^diametro < 2)
(brazo ^conducto-sanguineo = <n >)
-->
(make arteria-pequenia ^nombre <n >))
Interprete: OPS5 usa encadenamiento hacia adelante
Criterios:


LEX (lexical): preferencia por datos más recientes, las reglas más específicas y
arbitrario
MEA (Means-Ends Analysis): da preferencia a la primera condición (contextos)
Ejemplo (ancestros):
nombre
madre padre
Gaia
-
Caos
Cronos
Gaia
Urano
Rhea
Gaia
Urano
Zeua
Rhea
Cronos
Hephaestus Hera
Zeus
Leto
Febe
Coeus
Hera
Rhea
Cronos
Apolo
Leto
Zeus
(literalize persona nombre madre padre)
En OPS5 no hay recursión, por lo que necesitamos un objeto intermedio para guardar
los ancestros intermedios
(literalize mientras nombre)
Necesitamos otro objeto para empezar todo (es común)
(literalize empieza)
Regla inicializadora:
(p pregunta
{(empieza) <inicia >}
-->
(remove <inicia >)
(write (crlf)
Dame el nombre:
)
(make mientras ^nombre (accept)))
(p ancestro
{(mientras ^nombre {<ancestro > <> nil }) <emt >}
(persona ^nombre <ancestro > ^madre <nombre-m >
^padre <nombre-p >)
-->
(remove <emt >)
(write (crlf) <nombre-m > y <nombre-p > son
ancestros de <ancestro >)
(make mientras ^nombre <nombre-m >)
(make mientras ^nombre <nombre-p >))
También hace falta declarar la tabla de ancestros:
(make persona ^nombre Gaia ^padre Caos)
(make persona ^nombre Cronos ^madre Gaia
^padre Urano)
http://www.mor.itesm.mx/~rdec/node70.html
Representación del conocimiento
2.3.1.1 Representaciones basadas en la lógica de proposiciones extendida
Los tradicionales sistemas de aprendizaje han utilizado con gran asiduidad, para
representar el conocimiento, una extensión de la lógica de proposiciones, denominada
lógica "0+" o representación objeto-atributo-valor. Dentro de la misma, pueden
englobarse métodos de representación equivalentes como los árboles de decisión, las
reglas de producción y las listas de decisión:
Árboles de decisión
Los árboles de decisión son una forma de representación sencilla, muy usada entre los
sistemas de aprendizaje supervisado, para clasificar ejemplos en un número finito de
clases. Se basan en la partición del conjunto de ejemplos según ciertas condiciones que
se aplican a los valores de los atributos. Su potencia descriptiva viene limitada por las
condiciones o reglas con las que se divide el conjunto de entrenamiento; por ejemplo,
estas reglas pueden ser simplemente relaciones de igualdad entre un atributo y un valor,
o relaciones de comparación ("mayor que", etc.), etc.
Los sistemas basados en árboles de decisión forman una familia llamada TDIDT (TopDown Induction of Decision Trees), cuyo representante más conocido es ID3 (
[Quinlan, 86] ).
ID3 (Interactive Dichotomizer) se basa en la reducción de la entropía media para
seleccionar el atributo que genera cada partición (cada nodo del árbol), seleccionando
aquél con el que la reducción es máxima. Los nodos del árbol están etiquetados con
nombres de atributos, las ramas con los posibles valores del atributo, y las hojas con las
diferentes clases. Existen versiones secuenciales de ID3, como ID5R ( [Utgoff, 89] ).
C4.5 ( [Quinlan, 93] , [Quinlan, 96] ) es una variante de ID3, que permite clasificar
ejemplos con atributos que toman valores continuos.
Reglas de producción
Una desventaja de los árboles de decisión es que tienden a ser demasiado grandes en
aplicaciones reales y, por tanto, se hacen difíciles de interpretar desde el punto de vista
humano. Por ello, se han realizado diversos intentos para convertir los árboles de
decisión en otras formas de representación, como las reglas de producción. Aquí
consideramos reglas de producción del tipo si-entonces, basadas en lógica de
proposiciones. El consecuente es una clase, y el antecedente es una expresión
proposicional, que puede estar en forma normal conjuntiva (CNF) o ser simplemente un
término.
En [Quinlan, 87] se propone una técnica para construir reglas de decisión, basadas en
lógica de proposiciones, a partir de árboles de decisión. El problema es que incluso las
reglas de producción así obtenidas pueden resultar demasiado complejas para un
experto humano.
Algunos sistemas como PRISM, descrito en [Cendrowska, 88] , generan directamente
reglas algo más sencillas, sin tener que construir el árbol previamente, mediante un
algoritmo parecido a ID3 y con una precisión similar.
La familia AQ ( [Michalski, 87] ) la forman sistemas (AQ11, AQ15, etc.) que generan
descripciones estructurales, por diferenciarlas de las descripciones de atributos de los
sistemas anteriormente mencionados. Estas descripciones son también reglas de
producción, aunque con mayor capacidad descriptiva, pues su antecedente es una
fórmula lógica. La notación utilizada en estas reglas se denomina VL1 (Variable-valued
Logic system 1, véase [Dietterich y Michalski, 84] ), y permite utilizar selectores
(igualdad entre un atributo y un valor o conjunto de valores), complejos (conjunciones
de selectores) y disyunciones de complejos para construir las reglas de producción.
Listas de decisión
Las listas de decisión son otra forma de representación basada en lógica de
proposiciones. Es una generalización de los árboles de decisión y de representaciones
conjuntivas (CNF) y disyuntivas (DNF). Una lista de decisión es una lista de pares de la
forma
(d1, C1), (d2, C2),..., (dn, Cn)
donde cada di es una descripción elemental, cada Ci es una clase, y la última
descripción Cn es el valor verdadero. La clase de un objeto será Cj cuando dj sea la
primera descripción que lo satisface. Por tanto, se puede pensar en una lista de decisión
como en una regla de la forma "si d1 entonces C1, sino si d2..., sino si dn entonces Cn".
Se usan por ejemplo en el sistema CN2 ( [Clark y Niblett, 89] ) que es una modificación
del sistema AQ, que pretende mejorar el aprendizaje a partir de ejemplos con ruido (al
evitar la dependencia de ejemplos específicos e incorporar una poda del espacio de
búsqueda). Las descripciones elementales de los pares que forman la lista de decisión
tienen la misma forma que los complejos de AQ.
2.3.1.2 Representaciones basadas en la lógica de predicados de primer orden
Aunque las representaciones basadas en lógica de proposiciones han sido usadas con
éxito en muchos sistemas de aprendizaje en ordenadores, tienen algunas importantes
limitaciones ( [Muggleton, 92] ), superadas por la lógica de predicados de primer orden,
que restringen su campo de aplicación:



Potencia expresiva: Las representaciones basadas en lógica de proposiciones
limitan la forma de los patrones que pueden ser representados, ya que, en
general, no pueden expresar relaciones. Así, por ejemplo, no se pueden
representar (al menos de un modo sencillo) patrones en los que se cumpla una
relación de igualdad entre dos atributos (sólo se permitiría expresar la igualdad
entre un atributo y un valor constante).
Conocimiento de base 3 : Es difícil incorporar conocimiento de base en el
proceso de aprendizaje. Una forma sencilla de conocimiento de base la
constituyen restricciones impuestas a las descripciones generadas por el sistema,
aunque ésto puede resultar demasiado restrictivo.
Restricciones en el vocabulario: Las descripciones de los sistemas actuales
vienen limitadas por un vocabulario fijo de atributos proposicionales. Podría ser
muy útil tener la posibilidad de mejorar la representación mediante la invención
de nuevos predicados.
Todas estas limitaciones pueden superarse con una representación del conocimiento más
potente: la lógica de predicados de primer orden. Cada vez hay más sistemas de
aprendizaje en ordenadores que utilizan de algún modo la lógica de primer orden,
surgiendo así un nuevo área de interés llamado programación lógica inductiva (en inglés
Inductive Logic Programming o ILP). El objetivo de la programación lógica inductiva
es construir un programa lógico (en lógica de predicados de primer orden) que, junto al
conocimiento que se tenga del dominio, tenga como consecuencia lógica el conjunto de
entrenamiento del sistema.
La presente tesis se enmarca dentro del paradigma de la programación lógica inductiva,
por ello, en el apartado 2.4 , desarrollaremos este punto en mayor detalle, fijándonos en
algunos de sus sistemas más representativos.
2.3.1.3 Representaciones estructuradas
Las representaciones estructuradas de conocimiento tienen una gran potencia expresiva
(aunque, en teoría, no mayor que la de la lógica de predicados de primer orden) y
permiten una fácil interpretación del mismo. Entre las representaciones estructuradas se
pueden incluir las redes semánticas y los marcos. En cualquier caso, el conocimiento
expresado mediante una de estas representaciones estructuradas puede ser traducido
fácilmente a lógica de predicados de primer orden.
Redes semánticas
El término de red semántica surge a partir del modelo de memoria semántica de Quillian
(1968), con el que pretendía representar el significado de los vocablos del idioma inglés.
En una red semántica la representación consta de un conjunto de nodos (conceptos),
unidos entre sí por diferentes clases de enlaces asociativos (relaciones). A su vez, las
relaciones entre un concepto y su clase, denominadas relaciones de subtipo (ej.
instancia_de, es_un), a veces se representan en una red separada.
La principal ventaja de las redes semánticas es que toda la información relativa a un
objeto concreto se obtiene fácilmente a partir del mismo, siguiendo los arcos que parten
de él.
Para aplicar la minería de datos con redes semánticas, se representa cada ejemplo como
una red semántica, y las operaciones que se realizan consisten en manipular los grafos,
para encontrar los patrones (subgrafos) que cumplen todos los ejemplos de la misma
clase.
Es práctica común el denominar red semántica a todo formalismo con forma de red
usado para representar conocimiento. Sin embargo, es más preciso considerar como
tales sólo las que se dedican a la representación del lenguaje natural, y denominar, en
general, redes asociativas a todas ellas ( [Mira et al., 95] ).
Una red asociativa es una red (conjunto de nodos unidos entre sí por enlaces) en la que
los nodos representan conceptos y los enlaces representan relaciones (de pertenencia,
inclusión, causalidad, etc.) entre los conceptos. Dentro de las redes asociativas se
incluyen: las redes semánticas (destinadas a representar o comprender el lenguaje
natural), las redes de clasificación (representan conceptos mediante una jerarquía de
clases y propiedades) y las redes causales (representan relaciones de influencia,
generalmente de causalidad, entre variables).
Las redes de clasificación pueden considerarse redes semánticas sólo cuando
representan conocimiento taxonómico de conceptos, pero no cuando se utilizan dentro
de un sistema experto basado en marcos para definir clases e instancias.
Las redes causales representan un modelo en el que los nodos corresponden a variables
y los enlaces a relaciones de influencia, generalmente de causalidad. Los modelos
causales se orientan, sobre todo, a problemas de diagnóstico. Las redes bayesianas
pueden considerarse como redes causales a las que se ha añadido una distribución de
probabilidad sobre sus variables.
Marcos
El concepto de marco fue introducido por Minsky (1975) como método de
representación del conocimiento y de razonamiento, intentando superar las limitaciones
de la lógica a la hora de abordar problemas como la visión artificial, la comprensión del
lenguaje o el razonamiento de sentido común ( [Mira et al., 95] ).
Un marco es una estructura de datos, formada por un nombre y un conjunto de campos
(o ranuras, del inglés slots), que se rellenan con valores para cada ejemplo concreto. Las
ranuras pueden llenarse con valores de atributos o con referencias a otros marcos para
expresar las relaciones de subtipo, como la relación es_un, en cuyo caso se heredan los
atributos del marco de nivel superior.
Basándose en el concepto de marco, se desarrolló el lenguaje de programación KRL
(Knowledge Representation Language), para representar el conocimiento de forma
estructurada. La ingeniería del software también heredó de la inteligencia artificial el
concepto de marco para construir la orientación a objetos (puede observarse el gran
parecido entre los objetos de la programación orientada a objetos y los marcos).
Entre los sistemas de aprendizaje que utilizan marcos para representar el conocimiento
adquirido, podemos mencionar el sistema EURISKO ( [Lenat., 84] ).
El conocimiento expresado mediante marcos puede traducirse fácilmente a lógica de
predicados de primer orden, aunque perdiendo la ventaja de ser estructurado.
2.3.1.4 Representaciones basadas en ejemplos
Los sistemas de aprendizaje basado en ejemplos (Instance-Based Learning algorithms)
representan el conocimiento mediante ejemplos representativos, basándose en
"similitudes" entre los datos ( [Aha et al., 91] ). El aprendizaje consiste en la selección
de los ejemplos que mejor representan a los conceptos existentes en la base de datos (se
trata de aprendizaje supervisado); estos ejemplos representativos serán los únicos que se
almacenen, reduciendo así considerablemente el espacio necesario. El principal
problema de estos sistemas es que se necesita una función de "similitud", a veces difícil
de definir, para clasificar los nuevos ejemplos según sea su parecido con los ejemplos
prototipo.
Los algoritmos de aprendizaje basado en ejemplos surgieron a partir de los
clasificadores por vecindad (nearest-neighbor classifier), y han adquirido importancia
más recientemente con los sistemas de razonamiento basado en casos (case-based
reasoning), para diagnóstico y resolución de problemas. Además, pueden utilizarse
como paso previo a otros sistemas de aprendizaje a partir de ejemplos, para entrenarlos
con conjuntos de ejemplos más pequeños y representativos.
2.3.1.5 Redes neuronales
Las redes neuronales ( [Lippmann, 87] , [Freeman y Skapura, 93] , [Hertz et al., 91] ),
incluidas dentro de los modelos conexionistas, son sistemas formados por un conjunto
de sencillos elementos de computación llamados neuronas artificiales. Estas neuronas
están interconectadas a través de unas conexiones con unos pesos asociados, que
representan el conocimiento en la red. Cada neurona calcula la suma de sus entradas,
ponderadas por los pesos de las conexiones, le resta un valor umbral y le aplica una
función no lineal (por ej. una sigmoide); el resultado sirve de entrada a las neuronas de
la capa siguiente (en redes como el perceptrón multicapa).
Uno de los algoritmos más usado para entrenar redes neuronales es el back-propagation,
que utiliza un método iterativo para propagar los términos de error (diferencia entre
valores obtenidos y valores deseados), necesarios para modificar los pesos de las
conexiones interneuronales. El back-propagation puede considerarse como un método
de regresión no lineal ( [Fayyad et al., 96b] ), en el que aplica un descenso de gradiente
en el espacio de parámetros (pesos), para encontrar mínimos locales en la función de
error.
Las redes neuronales han sido utilizadas con éxito en diferentes tipos de problemas:



Auto-asociación: la red genera una representación interna de los ejemplos
aportados, y responde con el más aproximado a su "memoria". Ejemplo:
máquina de Boltzman.
Clasificación de patrones: la red es capaz de clasificar cada entrada en un
conjunto predefinido de clases. Ej.: back-propagation.
Detección de regularidades: la red se adapta a los ejemplos de entrada, tomando
de ellos varias características para clasificarlos; en este caso, el conjunto de
clases no está definido de antemano, por lo que el aprendizaje es no supervisado.
Ej.: red MAXNET, ART1, mapas de Kohonen, red de Oja, etc.
Las tasas de error de las redes neuronales son equivalentes a las de las reglas generadas
por los métodos de aprendizaje simbólicos, aunque son algo más robustas cuando los
datos son ruidosos. Las principales desventajas para usar redes neuronales en la minería
de datos son:



el aprendizaje es bastante más lento que en un sistema de aprendizaje simbólico
( [Shavlik et al., 90] );
el conocimiento obtenido por las mismas no es representable en forma de reglas
inteligibles, sino que lo forma el conjunto de pesos de las conexiones
interneuronales;
además, es difícil incorporar conocimiento de base o interacción del usuario en
el proceso de aprendizaje de una red neuronal.
http://www.gsi.dit.upm.es/~anto/tesis/html/stateart.html
Los sistemas de producción proporcionan una representación adecuada para
las funciones de selección de acciones. Un sistema de producción está
formado por un conjunto de reglas, denominadas reglas de producción. Cada
regla se escribe de la siguiente manera:
Ci ----->
Ai
Donde Ci es la condición y Ai es la acción.
La condición de una regla puede ser cualquier función booleana,
definida sobre el vector de características. La selección de la acción se realiza
de la siguiente manera: se comienza con la primera regla, se busca, siguiendo
el orden establecido en el conjunto de reglas, una de ellas en la que la
evaluación de su condición proporcione el valor 1 (verdadero), y se selecciona
su parte de acción. La parte de acción puede ser una acción primitiva, una
llamada a otro sistema de producción o un conjunto de acciones que tienen
que ser ejecutadas simultáneamente. En la mayor parte de los casos, la última
opción de la regla, tiene como condición el valor 1, y por tanto, si ninguna de
las condiciones de las reglas anteriores toma el valor 1, se ejecuta por defecto
la acción asociada a esta última regla.
Mediante técnicas de búsqueda y procesos de unificación, los sistemas
basados en reglas automatizan sus métodos de razonamiento y proporcionan
una progresión lógica desde los datos iniciales, hasta las conclusiones
deseadas. Esta progresión hace que se vayan conociendo nuevos hechos o
descubriendo nuevas afirmaciones, a medida que va guiando hacia la solución
del problema.
En consecuencia, el proceso de solución de un problema en los
sistemas basados en reglas va realizando una serie de inferencias que crean un
sendero entre la definición del problema y su solución. Las inferencias están
concatenadas y se las realiza en forma progresiva, por lo que se dice que el
proceso de solución origina una cadena de inferencias. Este proceso se puede
realizar de dos formas:
• Se puede partir considerando todos los datos conocidos y luego ir
progresivamente avanzando hacia la solución. Este proceso se lo denomina
guiado por los datos o de encadenamiento progresivo (forward chainning).
• Se puede seleccionar una posible solución y tratar de probar su validez
buscando evidencia que la apoye. Este proceso se denomina guiado por el
objetivo o de encadenamiento regresivo (backward chainning).
http://www.ucv-cv.cl/campus/periodico/Sitio_ML2/ReglasProduccion.html
3.8 Semántica de las reglas de producción
3.8.1 Conocimiento causal.
Conocimiento causal: Es el conocimiento del porqué. Se refiere a la comprensión de
los motivos por los que algo ocurre: por ejemplo, comprender los factores que influyen
en la calidad de un producto o en la satisfacción del cliente. Puede representarse
mediante la descripción de los vínculos causales entre una serie de factores (Schank
1975, Weick y Bougnon 1986), pero normalmente se representa de un modo menos
formalizado a través de vivencias organizacionales (Schank 1990). Compartir
vivencias es un buen medio para desarrollar el consenso sobre qué acciones
particulares deberían emprenderse o cómo alcanzar un determinado objetivo de la
mejor manera posible (Boje 1991).
http://www.esterkaufman.com.ar/varios/mi%20web/Cuadernos%20de%20trabajo%2034.pdf
3.8.2 Conocimiento de diagnóstico.
3.9 Arquitectura de un sistema de Producción (SP) (ó
Sistemas basados en reglas, SBR).
3.9.1 Hechos.
3.9.2 Base de conocimientos.
Bases de conocimiento
La representación del conocimiento, entendido en los términos que presentamos
anteriormente, es un problema central en el más vasto campo de la Inteligencia Artificial, en
cuanto que esta disciplina tiene como principal objetivo el desarrollo de sistemas "inteligentes"
que sean capaces de reproducir lo más fehacientemente posible los mecanismos intelectuales
comunes en los humanos, de forma destacada, la comprensión del lenguaje natural, el
aprendizaje (acumulación de experiencia), el razonamiento lógico, la resolución de problemas y
el reconocimiento de patrones (p. ej. en visión robótica). Una definición representativa de lo que
comúnmente se entiende por "Inteligencia Artificial" es la de Barr y Feigenbaum (1981:4):
Artificial Intelligence (AI) is the part of computer science concerned with designing intelligent computer systems, that is, systems
that exhibit the characteristics we associate with intelligence in human behavior - understanding language, learning, reasoning,
solving problems, and so on.
Las técnicas comunes en IA consisten por tanto en el estudio minucioso de la actividad o
comportamiento que se desea emular, en primer lugar y después, y sobre todo, su
implementación en algún tipo de autómata.
El paradigma actual de "inteligencia", en contraste con el anterior, basado principalmente
en técnicas heurísticas de búsqueda (Goldstein & Papert 1977), acentúa la necesidad de
conocimiento experto para la realización de tareas inteligentes (Mylopoulos & Levesque 1984).
La idea es que lo central para nuestra actividad mental normal es un gran repositorio de
conocimiento experto sobre muy diferentes materias específicas y sobre el mundo en general.
Por tanto, es evidente que si nuestro objetivo es replicar esquemas mentales humanos en un
autómata, éste deberá poseer un repositorio parecido de información del que pueda hacer uso,
mediante diversos dispositivos, para el manejo inteligente de esa información. En suma, la
posesión de conocimiento es absolutamente indispensable para la realización de una tarea
"inteligente".
Sin embargo, como venimos diciendo, esto no fue siempre así. De hecho, podemos
distinguir cuatro fases o "categorías históricas" (Barr & Feigenbaum 1981) en el estudio del
lenguaje natural por parte de los investigadores de IA:
1. Los primeros programas que se realizaron poseían un conocimiento del lenguaje
prácticamente nulo, y estaban limitados a un dominio muy concreto. Simplemente
analizaban el input en busca de palabras clave o de patrones relacionados con alguno
de los temas que "conocían" . El output era formado a través de reglas de dominio
específico llamadas heuristics, de forma que hacían creer que entendían lo que se les
estaba diciendo. El mejor representante de estos programas, es sin duda el Eliza de
Weizenbaum (Weizenbaum 1976), que intentaba simular un consultorio psicológico. El
usuario introduce su problema o preocupación y Eliza responde o intenta extraer más
información (que guarda para usarla cuando la conversación llega a un punto muerto);
también hace uso de un buen número de frases comodín y regala al "paciente" con sus
consejos. Otros programas de estas características son BASEBALL (Green et al. 1963)
o STUDENT (Bobrow 1968).
2. Otros programas parecidos fueron los basados en texto. Éstos, de los cuales
destacamos PROTO-SYNTHEX-I (Simmons et al. 1966) almacenaban el texto mismo
en su base de datos, por lo que no estaban ceñidos a un dominio particular. Sin
embargo, al igual que los anteriores, no poseían capacidades deductivas de ningún
tipo, ni podían analizar el contenido semántico del input; se encontraban restringidos a
responder con el material textual que previamente se les había introducido.
3. En tercer lugar encontramos los sistemas de lógica limitada. Estos sistemas ofrecían
(limitadas) capacidades deductivas, ya que eran capaces de producir información no
almacenada explícitamente en la base de datos. Además, llevaban a cabo una cierta
interpretación semántica, al traducir frases de insumo en lenguaje natural a la notación
lógica interna de la base de conocimiento. Usando el cálculo de predicados, eran
capaces de hacer inferencias del tipo:
– ‘¿Es un avestruz un ave?’
avestruz(x),
(x)[avestruz(x)
ave(x);
– ‘Sí.’
ave(x)],
4. El último tipo son los sistemas de que venimos hablando, los basados en el
conocimiento, cuyo desarrollo está íntimamente ligado a la investigación de IA sobre
representación del conocimiento. Estos sistemas intentan almacenar una gran cantidad
de información para usarla de modos diferentes con el objeto de "entender" el lenguaje
natural, generarlo, deducir, etc. Se basan en la idea básica, ya mencionada de que
para la resolución de un problema complejo dentro de un determinado ámbito, es
preciso un conocimiento experto sobre ese ámbito.
Como esta evolución implica, los sistemas de lenguaje natural de IA hoy día están casi
exclusivamente basados en el conocimiento. Éste, por otra parte, necesita ser estructurado y
debidamente modelado para poder almacenarlo bajo una notación apropiada como repositorio
de información. De hecho, podemos afirmar que la representación de conocimiento es el hilo
conductor de los diferentes campos que abarca la IA (McCalla & Cercone 1983).
A este repositorio de información estructurada que se usa para resolver tareas que
requieren conocimiento experto se le conoce como base de conocimiento. Este concepto,
necesita de una definición más formal . Por ejemplo, dicho así - "repositorio de información
estructurada" - cabría pensar que una enciclopedia impresa, estructurada en artículos, es una
base de conocimiento; sin embargo una KB tiene que poseer otras facultades.
Sin embargo, en lo que respecta a las bases de conocimiento, no existen estándares ni
definiciones. En general se supone que un KBMS, a diferencia de un DBMS, debe ofrecer
estas dos posibilidades fundamentales (Mylopoulos 1986):


Mecanismos de razonamiento: el KBMS debe ser capaz de extraer conclusiones
lógicas a partir de la información y reglas que contiene.
Mecanismos de explicación que permitan al usuario del KBMS averiguar el estado del
mecanismo de razonamiento, obtener consejo, y justificación de una determinada
conclusión obtenida por el mecanismo de razonamiento
A partir de estos requerimientos deberíamos establecer alguna tipología de KBMSs
atendiendo no a su arquitectura (no existen arquitecturas genéricas estándar), sino a su
funcionalidad. Lo que caracteriza a los sistemas de representación de conocimiento es que se
han desarrollado en diversos ámbitos con propósitos específicos. Mientras que un mismo
sistema de bases de datos se puede utilizar para múltiple propósitos, los KBMS no son por lo
general de propósito general. (Jarke et al. 1989) presentan la siguiente tipología de
aplicaciones de IA en las que las bases de conocimiento son utilizadas:




Sistemas expertos
Sistemas de procesamiento de lenguaje natural
Sistemas de visión robótica
Entornos de desarrollo
Son los segundos los que nos interesan, aunque en realidad la mayoría de los sistemas de
IA toman la forma de sistemas expertos. Las relaciones entre el procesamiento del lenguaje
natural y los KBMS han estado siempre motivadas por los intereses de los investigadores en
IA, no por los de lingüistas o lexicógrafos. La aplicación de sistemas basados en el
conocimiento a la TA es muy novedosa, y, según pensamos, los clásicos sistemas de KBMS no
se adaptan a las necesidades de este tipo de aplicaciones, al no conceder la importancia
necesaria a la información detallada en general ni a los aspectos procedimentales. El interés de
los investigadores de IA por el lenguaje natural está centrado casi exclusivamente en la
comunicación hombre-máquina, por tanto su objetivo es la construcción de interfaces en
lenguaje natural que faciliten esta interacción. Éstos son los denominados interfaces de
lenguaje natural (NLI: Natural Language Interfaces).
De hecho, el interés por los sistemas de NLP basados en el conocimiento surgió a raíz de
la necesidad de construir interfaces en lenguaje natural para sistemas expertos. Estos sistemas
son alimentados con toda la información disponible sobre un determinado tema muy específico,
por ejemplo diagnósticos médicos, sistemas de ingeniería. Después, mediante un interfaz
apropiado que acepta un conjunto de estructuras sintácticas y elementos léxicos específico,
son capaces de responder adecuadamente a consultas complejas relacionando la información
que poseen.
Las tareas para las que estos sistemas se desarrollan son, casi por definición, complejas
(Walker et al. 1987). Por tanto, un sistema experto es un sistema computacional capaz de
representar y razonar sobre un dominio determinado que precisa de gran cantidad de
conocimiento, tal como la aeronáutica o la medicina. Se puede distinguir de otros tipos de
aplicaciones de IA en que (Jackson 1986):



trabaja con temas complejos que normalmente requieren una considerable cantidad de
experiencia humana;
debe ser una herramienta práctica y útil; para ello debe ofrecer un alto rendimiento en
cuanto a velocidad de ejecución y fiabilidad;
debe ser capaz de explicar y justificar sus soluciones y consejos para convencer al
usuario de lo correcto de su razonamiento.
Los sistemas expertos son el tipo de aplicación de IA que mejores resultados ha
conseguido. Estos sistemas son usados hoy en día en un amplio abanico de dominios y han
probado ser altamente fiables. Por ello sería deseable la disponibilidad de interfaces en
lenguaje natural que facilitasen la comunicación con el sistema por parte de usuarios no
expertos en computación (médicos, biólogos, ingenieros). Existen tres modos de ver la relación
entre un NLI y el KBMS. La primera es la construcción de un NLI para manejar un KBMS. La
segunda construir un KBMS para implementar un NLI. La tercera construir un NLI (soportado
por el KBMS) para sistemas basados en el conocimiento. Estas relaciones quedan expuestas
en la Figura 4.1.
Figura 4.1 Relaciones NLI / KBMS
Para que un programa pueda ser calificado de NLI debe cumplir las dos condiciones
siguientes:
1. Un subconjunto del input o el output del sistema se realiza en lenguaje natural
2. El procesamiento del input (generación del output) se basa en conocimiento de tipo
sintáctico, semántico y/o pragmático.
Los tres modos anteriormente citados de usar el lenguaje natural en IA reflejan a nuestro
parecer tres estadios de investigación, superando una primera fase en que se pretendía un
análisis extremadamente simplista del lenguaje. Tras observar la enorme complejidad que éste
conlleva, se hizo obvia la necesidad de tratar el lenguaje humano como un objeto de estudio en
sí mismo, para poder siquiera pensar en usarlo como medio de interacción hombre-máquina.
En esta etapa se empezaron a plantear cuestiones que los lingüistas han estado estudiando
desde mucho tiempo atrás. Un KBMS para NLI habrá de integrar los siguientes tipos de
conocimiento (Jarke et al. 1989):




Conocimiento lingüístico.
Conocimiento conceptual.
Conocimiento inferencial.
Conocimiento del usuario.
La Figura 4.2 resume las fuentes de conocimiento lingüístico necesario para el desarrollo
de NLIs según la IA. Este cuadro revela cómo los investigadores de IA contemplan el estudio
del lenguaje natural.
Figura 4.2 Conocimiento requerido por un NLI
Finalmente, en IA se señalan algunas características necesarias en una KB para el
procesamiento de lenguaje natural:



Representación de conocimiento: el sistema de representación10 debería ser un
esquema híbrido que contuviese subesquemas basados en marcos (frames), hechos
de base de datos y reglas de deducción. Las distintas unidades de conocimiento
codificadas en uno de estos esquemas tendrán que ser agregadas a los esquemas
híbridos de una fuente de conocimiento (lingüístico, conceptual, etc.), que a su vez
tendrá que ser agregada a la base de conocimiento global.
Organización del conocimiento: el KBMS deberá organizar al menos dos bases de
conocimiento en el caso de un sistema basado en NLI: la KB del lenguaje natural (NL
KB) y la KB a la que el NLI proporciona acceso mediante lenguaje natural. A su vez, la
NLKB habrá de estar organizada distinguiendo: conocimiento de entorno, conocimiento
específico de trabajo y conocimiento específico de diálogo (ver Figura 4.1)
Entorno de integración: el KBMS deberá proporcionar un entorno que permita la
entrada de datos para las distintas KBs. Este aspecto de adquisición de conocimiento
se puede realizar mediante el NLI una vez se haya construido parcialmente. Lo ideal
para crear la base de conocimiento de lenguaje natural es el trabajo conjunto de
expertos en los dos campos: la lingüística y la IA.
Como observamos, las diferencias de descripción detallada de bases de datos y bases de
conocimiento son abismales. Las bases de datos son sistemas muy bien establecidos en
donde todo lo que puede o no puede llevar a cabo el sistema y cómo llevarlo a cabo está
perfectamente establecido. El trabajo en bases de conocimiento se encuentra aún en una fase
germinal, y por lo general se trata de sistemas específicos para necesidades específicas. La
literatura en torno a las bases de conocimiento es aún altamente programática, intentando
sentar las bases de lo que se supone que estos sistemas serán capaces de hacer. No es
extraño encontrar aserciones contradictorias en distintos autores con distintos fines. Incluso
así, en el siguiente apartado intentaremos mostrar cuáles son las definiciones formales y
arquitecturas que se han propuesto hasta ahora. Ni que decir tiene que el entorno de bases de
datos se encuentra totalmente establecido. Comenzamos pues por exponer la arquitectura
general de bases de datos.
http://elies.rediris.es/elies9/4-1-2.htm
3.9.3 Mecanismo de control.
3.10 Ciclo de vida de un sistema de Producción.
CICLO DE VIDA DE LOS SISTEMAS
El Ciclo de Vida del Desarrollo de Sistemas es un proceso por el cual los analistas de sistemas,
los ingenieros de software, los programadores y los usuarios finales elaboran sistemas de
información y aplicaciones informáticas.
TÉCNICAS y METODOLOGÍAS


o
o
o
o
Técnica: Es un método que aplica herramientas y reglas específicas para completar
una o más fases del ciclo de vida del desarrollo de Sistemas. Ellas se aplican a una parte del
ciclo de vida total.
Metodología es una versión amplia y detallada de un ciclo de vida COMPLETO de
desarrollo de sistemas que incluye:
Reglas, procedimientos, métodos, herramientas
Funciones individuales y en grupo por cada tarea
Productos resultantes
Normas de Calidad
(Whitten, Bentley, Barlow)
Definiciones



Herramientas : son los ambientes de apoyo necesario para automatizar las prácticas de
Ingeniería de Software
Métodos: son las maneras que se efectúan las tareas de Ingeniería de Software o las
actividades del ciclo de vida.
Procedimientos : son los mecanismos de gestión que soportan a los métodos: El
control de los proyectos, el control de la calidad
Objetivos del CICLO DE VIDA de un Proyecto:



Definir las actividades a ser ejecutadas en un proyecto de Procesamiento Electrónico
de Datos (PED)
Introducir coherencia en muchos proyectos de PED de la misma organización
Establecer punto de control para control de gerencia y puntos de control para tomar la
decisión de "continuar o no".
CICLO DE VIDA ESTRUCTURADO PARA EL DESARROLLO DE LOS SISTEMAS
CARACTERISTICAS DE LOS PROYECTOS ESTRUCTURADOS
Las técnicas estructuradas utilizadas en el desarrollo de los Proyectos de Sistemas,
buscaron superar el fracaso en muchos desarrollos convencionales.
Los proyectos estructurados se caracterizan por mejores herramientas para expresar los
requisitos del usuario, énfasis en el proyecto de calidad, sistemas de desarrollo topdown.
TECNICAS ESTRUCTURADAS









Análisis estructurado
Diseño estructurado
Programación estructurada
Desarrollo TOP-DOWN
Equipos de programación
Revisiones estructuradas
ANALISIS ESTRUCTURADO
El Análisis se refiere al "extremo inicial" de un proyecto de desarrollo de sistemas,
durante el tiempo en que los requisitos del usuario son definidos y documentados.
El Análisis estructurado introduce el uso de las herramientas de documentación
gráficas para producir un tipo diferente de especificación funcional: "la especificación
estructurada".
Herramientas de documentación del Análisis
Estructurado









Diagramas de flujo de datos (DFDs)
Diccionario de Datos (DD)
Diagramas de Entidad-Relación (ER)
Diagramas de Transición de Estado (DTEs)
Especificaciones de procesos
DISEÑO ESTRUCTURADO
Durante el desarrollo se determinan "qué módulos, interconectados de qué forma,
solucionarán mejor un problema definido
¿Como se reconoce un buen diseño?
¿Existe una sola manera de realizar un buen diseño?
Elementos del Diseño Estructurado:




Técnicas de documentación
Criterios de evaluación del Diseño
Heurísticas del diseño
Estrategias del Diseño
Técnicas de Documentación:


o
o
o
Incluyen herramientas gráficas y de texto
Herramientas
Flujos de datos
Diagramas Hipo
Diagrama de estructura
o
Especificaciones de módulo y D.D.
Criterios de evaluación de diseño:

o
o
Tiene como objetivo evaluar los defectos del diseño conforme a la documentación del
diagrama Hipo y el diagrama estructural Criterios
Acoplamiento
Cohesión
Heurísticas del diseño:


o
o
o
Siguen reglas prácticas que generalmente son útiles aunque no funcionan en todos los
casos. Se refieren al tamaño del módulo y al control del módulo.
Son
Tamaño del módulo
Fan in Fan out (abanico)
Alcance efecto y alcance de control
Estrategias de diseño:


o
o

















Las estrategias requieren un buen nivel de experiencia, sentido común y decisión
Existe una basada en el flujo de datos y otra basada en la estructura de datos
Análisis transformacional
Análisis transaccional
Programación estructurada
DESARROLLO TOP-DOWN
Es una estrategia de proyecto que divide sucesivamente los problemas grandes y
complejos en problemas menores y menos complejos, hasta que el problema original pueda
ser expresado como una combinación de problemas pequeños y fácilmente solucionables.
REVISIONES ESTRUCTURADAS
Se trata de un procedimiento organizado para que un grupo de examinadores
(Analistas de Sistemas, programadores) revisen el producto técnico para fines de corrección y
garantía de calidad.
La revisión estructurada (walktrough), es conducida por los miembros de un equipo que
trabajan juntos en una base diaria, y su realización puede ser fijada en cualquier momento.
EQUIPOS DE PROGRAMACION
Componentes :
Superprogramador o Programador jefe
Copiloto
Administrador
Abogado de lenguaje de programación
Instrumentador o experto en utilitarios
Bibliotecario
4 razones por la que no es posible implementar
Costo del superprogramador
Conseguir que trabaje para uno un superprogramador


¿qué hacer con el personal que se tiene?
Si codifica con rapidez o no documenta o no se comunica con el usuario
Algunas herramientas:




Herramientas CASE (Computer -Aided Software Engineering:Ingeniería de Software
auxiliada por computadora)
Generadores automáticos de Código.
Control de documentos, versiones y grupos de trabajo
Control y administración de proyecto.
CICLO DE VIDA ESTRUCTURADO
ESTUDIO


La etapa de Estudio de viabilidad o estudio inicial.
Su principal objetivo es el estudio e identificación de
las deficiencias actuales en el ambiente del usuario (a través de relevamientos, en cuentas),
establecer nuevos objetivos, y proponer "escenarios" viables
ANALISIS

Conforme a las alternativas generadas por el estudio, en esta etapa se "Modelan" las
necesidades del usuario a través de DIAGRAMAS especiales (DFD, ER),dando como resultado
las Especificaciones estructuradas.
DISEÑO

En esta etapa se "diseña" el sistema, determinando los módulos componentes del
Sistema, de acuerdo a una jerarquía apropiada, a los procesadores (hardware) y a la función
IMPLANTACION (DESARROLLO)

Esta actividad incluye la codificación e integración de los módulos con técnicas de
programación estructurada
GENERACIÓN DEL TEST DE ACEPTACIÓN

Consiste en preparar un conjunto de casos para efectuar las pruebas del sistema
GARANTIA DE CALIDAD

En esta etapa se efectúa el TEST final de aceptación del Sistema
DESCRIPCION DE PROCEDIMIENTO

Consiste en la elaboración de la "descripción formal" del nuevo sistema: Manuales del
Usuario, Manuales del Sistema, Manuales de procedimiento
CONVERSIÓN DE LA BASE DE DATOS

Esta actividad sólo se realiza cuando existen sistemas funcionando
INSTALACION



Es la actividad FINAL.
Existen varias estrategias de INSTALACION: Gradual, distribuida, completa
Un aspecto importante de esta actividad es la CAPACITACION
Implementación
Radical VS. Conservadora
¿Iniciar una actividad después de concluir la otra?
¿Cuándo utilizar una u otra? Depende:



De la presión por dar resultados
Exactitud en la estimación de recursos
Conocimiento del : software a utilizar,
de la aplicación,
del hardware

Inconstancia del usuario
Ciclo de vida por prototipos
Ejemplo : Analogía lanzamiento del nuevo modelo de auto
Se realiza un sistema provisorio con el conjunto inicial de necesidades e implantarlas
rápidamente con la intención de ir expandiéndolas y refinándolas iterativamente al ir
comprendiendo el sistema el usuario y quien lo desarrolla




Es radical, pero se asume que posteriormente existirá un juego completo de
documentación.
Herramientas requeridas:
D.D. Integrado y medios poderosos de administración de B.D.
Generadores de:
o
o
o
o




o
o



























pantallas,
reportes no guiado por procedimientos (un mandato una función)
consultas y recuperación no guiado por procedimientos
generadores de aplicaciones
Lenguaje de 4ta. Generación (lo que debe más que cómo)
Finalidad
El usuario dice que le gusta y que no mientras testea el sistema.
El usuario verifica la factibilidad del diseño de un sistema
Método de interacción (menúes, teclas especiales)
Formatos de presentación
Características
Es una aplicación que funciona
Identifica y aclara los requerimientos evitando suposiciones del analistas y los usuarios
con respecto a los requisitos del sistema.
Se crea rápidamente.
Evoluciona a través de un sistema iterativo.
¿ Costo de desarrollo bajo?
Se puede usar el mismo sistema cómo prototipo
Se debe documentar los requisitos y no dejar funcionando el prototipo sin
documentación.
Razones por las cuales se utilizan los prototipos
¿Aumento de productividad?
Entusiasmo de usuarios con prototipos (recordar analogía)
Son candidatos las aplicaciones que :
El usuario no quiere examinar DFD.
Se determinan los requerimientos por tanteo
El sistema será interactivo
No existe cantidad de detalles de algoritmo
Existe un alto costo y un alto riesgo de fracaso
La tecnología es nueva.
Recomendación
El ciclo de vida del prototipo involucra el desarrollo de un modelo funcional. Debe
realizarse la documentación de los requerimientos del usuario
Escenarios para la construcción de prototipos
Evaluar la petición del software y determinar si es o no un buen candidato a prototipo
Dado un proyecto candidato aceptable, el analista desarrolla una representación
abreviada de los requerimientos
Después de revisar la r`presentación de requerimientos se crea unas especificaciones
de diseño abreviadas
El software del prototipo se crea prueba y refina
Una vez que el prototipo ha sido probado, se presenta al cliente, el cuál conduce la
prueba de la aplicación y sugiere modificaciones
Los pasos 4 y 5 se repiten iterativamente hasta que todos los requerimientos estén
formalizados o hasta que el prototipo haya sido reemplazado por un sistema de producción
Desarrollo de Actividades
en espiral
DESARROLLO DE SISTEMAS DESDE EL ENFOQUE DE LA
INGENIERIA DE INFORMACION
INGENIERIA DE INFORMACION


Ingeniería es una Ciencia aplicada, o sea un área de conocimiento humano que utiliza
principios matemáticos y físicos para resolver problemas ligados a la construcción de
INGENIOS. Un Ingenio es todo aquello que produce la capacidad creativa del hombre para
atender a un fin determinado
La Ingeniería de la Información se puede definir como una disciplina, o sea un
"conjunto de conocimientos" ligados al tratamiento de la Información y la construcción de
mecanismos formales para la construcción de los "Sistemas de Información".
CARACTERISTICAS DE LA INGENIERIA DE LA INFORMACIÓN





Centrada en los negocios
Participación intensa de los usuarios
Implementación de Técnicas de Modelaje eficaces
Se orienta a la AUTOMATIZACION en los desarrollos de los Sistemas
Propone a la Tecnología como "soporte" de los negocios
LA PIRAMIDE DE LA INGENIERÍA DE LA INFORMACION
Etapas del Ciclo de Vida del Desarrollo de SIs




Planeamiento Estratégico de Informaciones (PEI)
Análisis del Area de Negocios (AAN)
Proyecto de Sistemas de Información (PSI)
Construcción del Sistema de Información (CSI)
Planeamiento Estratégico de Informaciones (PEI)


Es la primera etapa . Consiste en el estudio y definición de las necesidades de
Información que requiere la Organización para alcanzar sus objetivos.
PRODUCTOS: El Modelo Empresarial, los Factores Claves del Exito y los problemas
para alcanzarlos, el Modelo de Datos Corporativo y el Modelo Funcional Corporativo
Análisis del Area de Negocio (AAN)



En esta etapa se realizan los estudios de las "Areas de Negocio" que debe soportar el
SI (tratando de obviar aspectos tecnológicos)
Se vale de técnicas de relevamiento y modelaje de las necesidades de la Organización
PRODUCTOS:"Modelo de Datos", "Diagrama de Descomposición Funcional", DFD.
Proyecto de Sistemas de Información (PSI)


En esta etapa se definen las características técnicas requeridas para soportar las
necesidades del Proyecto (Diseño del Sistema, requerimientos de hardware)
PRODUCTOS: Propuesta del Ambiente Computacional, Diagramas de estructuras de
módulos, Proyecto de la Base de Datos
Construcción del Sistema



Consiste en la conversión de los Modelos de datos en estructuras físicas (software y
hardware).
Aquí se realizan las tareas de programación (o generación automática de código).
PRODUCTOS: El sistema desarrollado, Bases de Datos generadas, Manuales, etc.
LA PIRAMIDE DE LA INGENIERÍA DE LA INFORMACION
El Desarrollo de SIs se base en los 3 pilares fundamentales:
http://www.monografias.com/trabajos4/cicdevida/cicdevida.shtml
Unidad 4. Búsqueda y satisfacción de
restricciones.
4.6 Problemas y Espacios de estados.
5
Arboles de Búsqueda en las Representaciones Espacio-Estado
Un estado es un conjunto de condiciones o valores que describen un
sistema en una punta específico durante el proceso. Una representación
Espacio-Estado es aquella en la que los operadores usan un nuevo
estado, y solo uno, en la base de datos, cada vez que se emplean. Las
representaciones Espacio-Estado, que utilizan varios métodos de
búsqueda a través de la base de datos para alcanzar soluciones, han
sido usadas por juegos de ajedrez, sistemas para encontrar rutas y
problemas que incluyan muchos operadores y muchos posibles estados.
La búsqueda de un camino de solución a través del Espacio-Estado se
puede ilustrar gráficamente mediante nodos y enlaces de conexión. Cada
nodo representa un estado del sistema y los enlaces representan la
acción de un operador para cambiar el sistema de un estado a otro. Los
nodos pueden tener punteros que señalen al nodo origen de forma que
cuando se alcance la solución podamos conocer su camino. En algunos
métodos de búsqueda los punteros también se usan para marcar los
caminos "falsos2.
Los gráficos son dibujos generalmente como arboles o redes. Un árbol es
un gráfico que empieza por la cima con un nodo raíz, de manera que los
nodos de un nivel tienen un solo origen (un solo padre). Esta estructura
presenta solamente un camino desde el nodo raíz a otro nodo
cualquiera. Los enlaces o conexiones entre nodos de un árbol se llaman
ramas (ramificaciones). Los nodos en la parte inferior del árbol se
denominan nodos terminales (hojas). Los nodos en los gráficos de árbol
se denominan algunas veces padres e hijos (descendientes).
Hay potencialmente un árbol de un espacio-estado que representa cada
posible estado del sistema y otro árbol mas limitado del camino que
puede ser construido si el programa busca la respuesta eficientemente.
Puede ser importante encontrar un modo eficiente de búsqueda porque
el espacio potencial de búsqueda puede ser infinito o, al menos, tan
grande que haga el proceso no viable.
http://www.uap.edu.pe/Fac/02/trabajos/02206/isi%2033/go1/ia.h
tml
BÚSQUEDAS EN ESPACIOS DE ESTADOS Y EN ESPACIOS DE
CARACTERÍSTICAS
En este desarrollo se han implementado dos técnicas de Inteligencia Artificial para
simular el comportamiento calificable de inteligente.
La hipótesis de trabajo nos dice que una página que reúna unas condiciones lo más
parecidas posibles a las solicitadas por el usuario nos llevará a otra con muchas
posibilidades de ser de características deseables por el usuario. Esta hipótesis se
basa en el hecho de que las páginas en Internet están desarrolladas temáticamente, y una
página de un tema en concreto normalmente enlaza con otra del mismo campo o tema.
Para ello nos hemos basado en una función heurística (basada en el conocimiento), y
gracias a la representación del conocimiento que da el usuario (o se asigna por defecto)
en sus valoraciones de las distintas capacidades de la búsqueda, nos ayuda a evaluar la
bondad de una página, mediante la asociación de un número a cada página. Dicho
número será obtenido de la multiplicación de una serie de factores que son
determinados por el usuario antes de comenzar la búsqueda.
Por un lado la búsqueda en espacio de estados, que mediante unos algoritmos de
búsquedas en grafos, y modelizando las páginas como vértices de grafo, y los enlaces
como aristas, aplican la función heurística a las páginas recuperadas, determinando
mediante los algoritmos "Búsqueda primero el mejor" y "Beam Search" (igual que el
anterior, pero limitando la frontera de exploración a un determinado número de estados)
cuáles deberán ser las próximas páginas a recuperar.
Imagen "Modelización de un espacio de estados mediante un grafo"
Por el otro lado se encuentra la búsqueda en espacio de características, que aunque
con muchas similitudes difiere de la búsqueda en espacio de estados. En este caso la
evaluación no va a ser lineal, sino que se va a realizar en distintas características
determinables por el usuario. Así la búsqueda deja de ser en un sistema lineal y se
traslada a un espacio vectorial de dimensión N donde N es el número de características
en las que el usuario está interesado, así en función de los valores obtenidos para las
características medidas de la página, esta aparecerá en el espacio de características
como un punto. Las distancias entre puntos de este espacio se calcularán como
distancias euclídeas
La búsqueda basada en las características es una de las aplicaciones más simples del
método de inteligencia Artificial de descripción y pareamiento.
Para identificar los objetos de un espacio de características se utiliza un extractor de
características y un evaluador de características. El extractor mide características
simples como el área de un objeto. Los valores obtenidos por el extractor se convierten
en las coordenadas de un punto de característica en un espacio de características.
Para identificar un objeto desconocido, se comparan las distancias entre su punto de
característica y los puntos de característica de diferentes objetos idealizados. La
identidad más probable del objeto desconocido está determinada por la distancia más
corta. En la figura se muestran los puntos correspondientes a un objeto desconocido y
una familia de placas de caja eléctrica idealizadas en un espacio de características de
placas.
Imagen "Modelización de un espacio de características"
En este proyecto hemos utilizado un extractor de características, en forma de
analizador HTML, pero lo que finalmente se hace no es medir la distancia entre dos
páginas, sino que se aplica una compleja función de evaluación, que calcula un
resultado numérico representativo de la bondad de la página respecto de las
características que previamente han debido ser especificadas por el usuario.
En cualquier caso, aunque no se hace una medida de la distancia de los puntos de
característica de las páginas recuperadas al punto de característica de la página ideal,
(no sería útil en este caso). Al aplicar la función a los valores de las características e
interpretar su valor (mayor valor, página más cercana) es una forma de conseguir el
mismo efecto.
Aunque la forma de actuar no se puede considerar exactamente, como "búsqueda en
espacio de características", sí que se puede decir que este tipo de búsquedas ha
inspirado la forma de proceder.
En cualquier caso, según los estudios realizados por la Universidad de Arizona
(http://ai.bpa.arizona.edu/~mramsey/papers/itsy/spider.html), ambos tipos de
búsqueda dan unos resultados similares, con una pequeña mejoría en la calidad de las
páginas obtenidas (aunque también obtiene páginas "aleatorias", que no tienen nada que
ver con lo solicitado) en el caso de los espacios de características, pero también con
unos mayores consumos de recursos (CPU).
http://pisuerga.inf.ubu.es/lsi/Docencia/TFC/ITIG/icruzadn/Memoria/29.htm
5.1 Espacios de estados determinísticos y espacios no
determinísticos.
5.2 Búsqueda sistemática.
6
Métodos de Búsqueda
Búsqueda hacia en fondo: En esta búsqueda el orden de expansión de
los nodos es desde el nodo inicial descendiendo en un camino dado
hasta que se encuentre la respuesta, o hasta que la búsqueda llegue a
un determinado limite de profundidad. Si la búsqueda excede del limite o
del fin de ese camino el sistema retrocede y la búsqueda continua en el
nodo más cercano. La búsqueda "hacia el fondo" es particularmente
eficaz cuando hay muchos caminos largos que conducen a una solución.
Búsqueda a lo ancho: En esta búsqueda todos los nodos en un mismo
nivel son expandidos antes de bajar a cualquiera de los que están en un
nivel inferior. Si en esta búsqueda debemos bajar hacia un nivel inferior
el proceso comienza desde un lado y moviéndose horizontalmente. La
besuqueada hacia lo ancho se adapta perfectamente a sistemas que
tiene unos pocos caminos de solución evitando mal gastar tiempo.
Búsqueda trepando a la cima: Este método empieza de la misma
forma que el de "Búsqueda hacia el fondo", pero la elección de que
nodos descendientes serán alcanzados se hace estimando cual es el más
cercano a la meta. Esto es suficiente cuando hay alguna manera de
medir distancias a la meta; sin embargo hay condiciones engañosas en
las que la distancia real no esta clara. El método de " Búsqueda trepando
a la cima" proporciona un sistema con medios para superar tales
condiciones, tal como retornar y ensayar un camino que fue abandonado
antes o aplicar mas de una regla antes de evaluar el resultado en orden
a saltar a una parte diferente del espacio de búsqueda.
http://www.uap.edu.pe/Fac/02/trabajos/02206/isi%2033/go1/ia.html
6.1.1 Búsqueda de metas a profundidad.
6.1.2 Búsqueda de metas en anchura
6.1.3 Búsqueda óptima.
6.2 Satisfacción de restricciones.
6.3 Resolución de problemas de juegos.
Juegos
La teoría de juegos se ha estudiado durante muchos años como una parte de
las matemáticas. Sólo recientemente han podido utilizarse los ordenadores
como herramientas para resolver los problemas de juegos que surgen en la
vida cotidiana. Un ejemplo de esto es la aparición de computadores que juegan
al ajedrez, que cuestan relativamente poco dinero y que pueden vencer a
jugadores de diversos niveles. La potencia de cálculo implicada en este tipo de
juegos es enorme. Por otra parte, ocurre que, una vez que un problema ha sido
resuelto (aunque sea parcialmente), no necesita ser resulto de nuevo, pudiendo
ser transferido de una máquina a otra mediante una modificación mecánica
apareciendo en las máquinas más sencillas y baratas.
La resolución de problemas de juegos tiene grandes aplicaciones en la ciencia y
en los negocios. Mediante esta técnica pueden resolverse problemas de
diversos campos tales como la genética o el establecimiento de planes en los
procesos de producción complejos. Hay muchas clases de juegos y muchos
métodos para resolver los problemas que plantean. Por ejemplo, en un solitario,
el jugador intenta alcanzar determinado objetivo a partir de un estado inicial,
mediante una serie de movimientos, sin que exista ninguna competición. En
otros juegos como el ajedrez o los barcos, cada jugador intenta ganar haciendo
la vida lo más difícil posible para su adversario. En tales casos cada movimiento
intenta maximizar las oportunidades de éxito a la vez que minimizar las del
contrario. Esto puede resolverse mediante métodos de tipo "minimax". Muchos
juegos pueden representarse mediante "árboles", en los que cada rama
representa un posible movimiento que lleva el juego de un estado a otro.
La teoría de juegos es muy matemática, llevando a áreas tales como el cálculo
de predicados y la lógica matemática. Nos apartaremos de la teoría,
limitándonos a aclarar algunas de las ideas básicas, considerando una
estrategia sencilla basada en "heurísticos".
http://www.uap.edu.pe/Fac/02/trabajos/02206/isi%2033/go1/ia.html
http://www.monografias.com/trabajos12/inteartf/inteartf.shtml
http://www.monografias.com/trabajos/inteliemo/inteliemo.shtml
www.unirioja.es/dptos/dchs/archivos/Inteligencia.doc
www.infonegocio.com/downcan/todo/interes/psicologia.doc
www.unav.es/fyl/programas04-05/ humanidades/procesospsicologicos.pdf
http://www.universidadabierta.edu.mx/SerEst/Apuntes/BahenaMaria_PsCientifi
ca.htm
http://www.cerebrito.com/depresion.htm
varios de los subtemas se encuentran
el los archivos que estan dentro de la
carpeta de inteligencia artificial
Documentos relacionados
Descargar