Teoría de los refuerzos

Anuncio
República Bolivariana de Venezuela
Ministerio del Poder Popular para la Educación
Universidad Pedagógica Experimental Libertador
Instituto Pedagógico de Maturín
Trabajo de Psicología de la
Educación
Aportes de los condicionamientos Clásicos y Operantes
según Watson, Thorndike y Skinner
29/05/2008
INDICE
PORTADA…………………………………………………………………………..PAG. 1
INDICE…………….…………………………………………………………………PAG. 2
INTRODUCCION…………...……………………………………………………….PAG. 3
DESARROLLO…………………………………………………………………..PAG. 4-24
CONCLUSION……………………………………………………..………………PAG. 25
BIBLIOGRAFIA……………………………………………………………………PAG. 26
2
INTRODUCCIÓN
En el presente trabajo nos enfocaremos en El condicionamiento operante o Teoría de los
Refuerzos, explicando los planteamientos de su autor y descubridor, el Sr. B.F Skinner,
considerado como uno de los psicólogos más influyentes dentro de las teorías del
aprendizaje. Igualmente exploraremos los aportes del condicionamiento clásico de Watson
y Thorndike
Skinner, según lo escrito en su libro "Más allá de la libertad y de la dignidad" de 1971,
tendiente a erradicar en nombre de la ciencia determinista y naturalista, la concepción
tradicional de occidente, que ve en el hombre a un ser libre y responsable; afirma que la
lucha del hombre por su libertad personal, no se debe a su inalienable voluntad, sino a una
serie de procesos conductuales, característicos del organismo humano, cuyo principal
efecto consiste en la tentativa de evitar lo que llama caracteres aversivos del ambiente;
recondicionando adecuadamente estos procesos conductuales. Así, la conducta no es
ningún proceso interno, sino que es la acción del organismo ante las condiciones del mundo
exterior, por esto considera Skinner que "no existe el hombre autónomo".
La conducta, la cual es el objeto de estudio de Skinner, también hace posible relacionar al
hombre con una vida social y armónica que proporciona al individuo seguridad y felicidad,
por lo que él considera a la Libertad, no una ventaja sino más bien una amenaza.
Su influencia de genero neo-conductista, introdujo el concepto Condicionamiento operante;
proceso mediante el cual se aumenta o disminuye la probabilidad de dar una respuesta,
designando Skinner a esto como Reforzamientos, el cual consiste en un Estimulo
Reforzante, que incrementa la posibilidad de un comportamiento, pudiendo ser este
negativo o positivo, dependiendo de la relación que el individuo tenga con el medio
ambiente. Consiste en que un organismo haga algo influenciado por una serie de actos.
Watson por su parte introdujo el término “Conductismo” como una teoría psicológica que
toma como objeto de estudio lo observable y no el alma, la conciencia o cualquier otra
entidad inmaterial y por lo tanto imposible de estudio objetivo.
En este trabajo, veremos su estructura, analizando los distintos tipos de refuerzos y factores
que influyen en ellos, también sus programas de reforzamiento que pueden ser parciales o
continuos.
Skinner también plantea que toda la conducta humana es producto de reforzamientos,
atribuyendo una importancia fundamental al aprendizaje aplicado a la educación y a la vida
diaria.
Por ultimo sabremos cual es el aporte de esta teoría a la Educación tradicional, a través de
los programas más significativos de reforzamiento, clarificando lo que Skinner planteaba al
decir que el profesor es un constructor de conductas. Finalmente se realizaran
observaciones a las objeciones y desacuerdos de esta teoría y se darán a conocer algunas
diferencias con otras teorías.
3
APORTES DEL CONDICIONAMIENTO CLASICO SEGÚN WATSON Y THORNDIKE
John Broadus Watson
Biografía
Nació en 1878 y murió en 1958, obtuvo el primer título de doctor en psicología que otorgó
la Universidad de Chicago y fue el fundador de la escuela de psicología que se conoce
como conductismo, y que ha tenido un gran desarrollo en los países anglosajones.
Sus obras principales y las que exponen el proceso de su pensamiento son Behavior, an
Introduction to Comparative Psychology (1914), La psicología desde el punto de vista del
conductismo (1919) y El conductismo (1925). El conductismo se propone como una teoría
psicológica que toma como objeto de estudio lo observable y no el alma, la conciencia o
cualquier otra entidad inmaterial y por lo tanto imposible de estudio objetivo.
Así, se opone a cualquier forma de introspección (método utilizado generalmente por la
psicología de conciencia del siglo pasado) y toma como base la observación dentro de los
lineamientos del método científico. Llega a decir Watson que la psicología y la fisiología
sólo difieren en el ordenamiento de los problemas. Entre las escuelas y autores que influyen
en el conductismo debemos mencionar la reflexología rusa (Pavlov y Bechterev) y los
estudios de psicología funcional y animal (Woodworth, Cattell y Thorndike).
Una de las ideas centrales de la teoría es la de condicionamiento, proceso por el cual una
respuesta determinada es obtenida en relación con un estímulo originalmente indiferente
con respecto a la misma. Luego se trata de determinar cómo a partir de unos pocos reflejos
y mediante procesos de condicionamiento, se obtiene la enorme gama de conductas que
realizan los hombres. El conductismo se ha planteado también como un programa, lo que
incluye entre sus pretensiones el interés por intervenir sobre la conducta y los hombres a los
efectos de producir una mejor adaptación de los mismos al medio social, lo que ha derivado
en estudios sobre el aprendizaje y un desarrollo importante en el área laboral y en la
propaganda.
Teoría
John B. Watson fue el primer psicólogo norteamericano en usar las ideas de Pavlov. Al
igual que Thorndike, primero comenzó sus estudios con animales y posteriormente
introdujo la observación de la conducta humana.
Watson pensaba que los humanos ya traían, desde su nacimiento, algunos reflejos y
reacciones emocionales de amor y furia, y que todos los demás comportamientos se
adquirían mediante la asociación estímulo-respuesta; esto mediante un acondicionamiento.
El Experimento De Watson
Watson demostró el condicionamiento clásico con un experimento en el que participó un
niño de algunos meses de nacido (de nombre Albert) y una rata blanca. El experimento
consistía en acercar la rata a Albert para que la tocara, al principio Albert no mostraba
temor por el pequeño animal, pero al comenzar a hacer, de repente un fuerte ruido cada vez
que Albert tocaba la rata, al poco tiempo Albert comenzó a mostrar temor por la rata aún
sin hacer el ruido (debido al condicionamiento). Este miedo se generalizó para otros
animales pequeños.
4
Watson después "extinguió" el miedo presentando la rata al niño en repetidas ocasiones sin
hacer el ruido. Algunos hechos del estudio sugieren que el condicionamiento al miedo fue
más poderoso y permanente que el realmente observado. (Harris, 1979; Samelson, 1980, en
Brophy, 1990).
En realidad los métodos de investigación usados por Watson en la actualidad serían
cuestionados, su trabajo demostró el papel del condicionamiento en el desarrollo de la
respuesta emocional para ciertos estímulos. Esto puede dar explicación a determinados
sentimientos, fobias y prejuicios que desarrollan las personas.
A watson se le atribuye el término "conductismo".
El conductismo Watsoniano
Entre 1913 y 1930 se desarrolla el conductismo watsoniano. En ese período aparecieron las
primeras aportaciones conductistas de Kuo, Lashley, Weiss, Tolman y otros muchos, pero
es cierto que la obra de Watson fue particularmente central.
La teoría elaborada por Watson no presenta como un sistema orgánico y definido una vez
por todas. Por ejemplo, Watson especificó de modo diferente el objeto de la psicología. El
comportamiento fue explicado en los términos de "adaptación del organismo al ambiente",
"contracciones musculares", "conjunto integrado de movimientos" y "acciones". Se puede,
en cierto modo, decir que la unidad de observación psicológica es para Watson el
comportamiento o la conducta en el sentido de acción compleja manifestada por el
organismo en su integridad, "sea lo que fuere lo que realice, como orientarse hacia una luz
o en dirección opuesta, saltar al oír un sonido, u otras actividades más altamente
organizadas como tener hijos, escribir libros, etc.". Evidentemente esas conductas no se
detectan en cada una de las reacciones psicológicas que el organismo manifiesta
(contracción de un músculo, o bien actividades de órganos individuales como la
respiración, la digestión, etc.), que constituyen el objeto diferenciado de estudio de la
fisiología.
En la experimentación psicológica que lleva a cabo, Watson se interesa principalmente por
variables dependientes complejas del tipo que acabamos de mencionar. Su "molecularismo"
y "reduccionismo" teórico se especifican en la idea de que esos comportamientos no son
más que la "combinación" de reacciones más simples, de moléculas constituidas por cada
uno de los movimientos físicos que, en cuanto a tales, son precisamente estudiados por la
fisiología y la medicina.
En efecto, los principios de composición de las unidades simples en unidades complejas no
modifican la naturaleza de las primeras, sino que simplemente las componen. Los
principios a que principalmente se refiere Watson son la frecuencia y proximidad y el
condicionamiento. Los principios de la frecuencia y proximidad nos dicen que cuanto
tiempo más a menudo o cuanto más recientemente se ha verificado una asociación, con
tanta mayor probabilidad se verificará.
El condicionamiento empieza a ocupar un lugar central, en la teoría conductista, hacia
1916. Watson aparece directamente influido no sólo por Pavlov sino también por los
reflexólogos rusos, es decir, por Secenov, que ya hacia 1860 había afirmado que los actos
de la vida consciente e inconsciente no son más que reflejos y por Bectherev que se
interesaba de modo particular por los reflejos musculares.
El principio de condicionamiento parte del descubrimiento del hecho de que en el
organismo existen respuestas incondicionadas a determinadas situaciones. Por ejemplo, un
organismo hambriento que recibe comida seguramente reaccionará salivando, un súbito haz
5
de luz sobre los ojos provocará seguramente una contracción de la pupila, etc. la comida y
el haz de luz se llaman estímulos incondicionados, es decir, acontecimientos que se
producen en el medio ambiente y que provocan incondicionadamente una determinada
respuesta en el organismo.
Pero, otros estímulos que hayan sido asociados a los estímulos incondicionados provocarán
también la reacción incondicionada, aunque no tengan por si mismos relación alguna con
ella. Por ejemplo, el perro de Pavlov salivaba cuando oía el sonido de una campanita, por el
sólo hecho de que ese sonido había sido anteriormente asociado con cierta frecuencia a la
presentación de la comida. La investigación sobre el condicionamiento era de particular
importancia para el conductista porque, por un lado detectaba precisas unidades estímulo
(que permitían definir mejor el ambiente en que el organismo reacciona) y precisas
unidades respuesta, y, por el otro, porque ofrecía un principio clave para explicar la génesis
de las respuestas complejas. En efecto, se podía suponer que los comportamientos
complejos, manifestados por el hombre, eran una larga historia de condicionamientos.
Por este motivo adquirió particular importancia el estudio del aprendizaje empezando por
las primeras adquisiciones infantiles. Al analizar las emociones, Watson expresaba la idea
de que el miedo, la rabia y el amor son las emociones elementales y se definen partiendo de
los estímulos ambientales que las provocan.
A partir de estas emociones se construirían las siguientes emociones. Un caso famoso de
aprendizaje de las emociones es el del pequeño Albert, que Watson estudió junto con R.
Rayner. Albert jugaba tranquilamente con un ratoncillo cuando se le hizo escuchar a sus
espaldas un violento ruido. Desde ese momento, el niño manifestó un gran miedo tanto
hacia los ratones como hacia otros animales y objetos peludos. El ruido era un estímulo
incondicionado capaz de producir por sí solo una respuesta de miedo; su asociación con
otro estímulo hacía que el niño fuese condicionado a tener miedo también al ratoncillo y
también a otros objetos con características similares.
Estudiando una de las primeras neurosis experimentales de la historia de la psicopatología,
Watson probaba más adelante que las neurosis no son ni innatas, ni objetos misteriosos,
sino que podían definirse en los términos de respuestas emocionales aprendidas.
Para Watson, las mismas leyes que regulan el aprendizaje emotivo constituyen la base de
las demás adquisiciones y, en particular, de los llamados "hábitos". Si para los "hábitos
manuales" la idea podía ser compartida por muchos, el problema se hacía más difícil
cuando se trataba de explicar procesos psicológicos complejos y en particular el
pensamiento y sus relaciones con el lenguaje. La propuesta metodológica de Watson exigía
basarse en la observación de la conducta, y en este caso de la conducta verbal, y por tanto el
pensamiento debería haberse inferido del lenguaje. Pero la propuesta por así decir
"filosófica" era la de negar existencia real al pensamiento y asimilarlo directamente al
lenguaje.
Para Watson, el lenguaje se adquiere por condicionamiento. El niño oye asociar a un objeto
su nombre y por consiguiente el nombre termina por evocar la misma respuesta evocada
por el objeto. Progresivamente todo el sistema de movimientos que provocan la emisión del
sonido palabra puede ser sustituido por una parte de movimientos, por lo que la palabra es
sólo pronunciada en voz baja, o moviendo silenciosamente los labios, o bien mediante
simples "hábitos de laringe". Watson creía que de esta manera se va formando el
pensamiento y sugería que podía ser reducido a un conjunto de hábitos de laringe. En el
6
plano teórico el punto central estaba representado por el hecho de que la actividad de
pensamiento era un resultado de los aprendizajes comunicativos y no tenía por sí mismo
importancia ni interés cognoscitivo.
Los principales aspectos que distinguen los aportes de Watson son:
-El objeto de la psicología es la conducta; la conducta es la actividad del organismo en su
conjunto; tanto las funciones fisiológicas como el comportamiento, son actividades de
estructuras físicas que como tales, son susceptibles de ser analizados por los métodos
objetivos y rigurosos de las ciencias naturales; la introspección es completamente
rechazada como un método subjetivo. Nadie puede ver los pensamientos y sentimientos de
otra persona, y es imposible fundamentar ningún conocimiento objetivo, con lo que sólo es
accesible a una observación individual. Toma como método objetivo a la técnica del
condicionamiento perfeccionada por Pavlov y sus discípulos.
-La aportación más importante de Watson es hacer de la psicología una ciencia,
deslindándola de todos los conceptos dualistas (alma, espíritu, conciencia, mente), que
habían retrasado la consolidación de esta misma como tal. Propone como objeto de estudio
de la psicología, la conducta, que define como todo lo que un organismo hace; y, como
método de estudio, el experimental, basándose en el paradigma E-R de Pavlov.
Edward I. Thorndike
Biografía
Edward L. Thorndike (1874-1949) fue profesor de psicología durante más de treinta años
en el Teachers College de Columbia, Estados Unidos. Lo que más atrajo su interés fue la
teoría del aprendizaje, y se cuenta entre los importantes precursores del conductismo.
Watson se fundó en gran parte en la obra de Thorndike y en la de Pavlov. El interés de
Thorndike por la psicología apareció después de un curso en la Universidad de Harvard
donde tuvo de profesor a William James. Los primeros experimentos de Thorndike sobre el
aprendizaje, en que los sujetos experimentales eran pollitos, fueron realizados justamente
en el sótano de la casa de James, para deleite de los hijos de éste.
Las numerosas fábulas y relatos tradicionales que cuentan maravillas de la inteligencia de
los animales no impresionaban a Thorndike, quien por el contrario sostenía que nadie se
había ocupado de describir la estupidez animal. Por cada perro que encuentra el camino de
regreso al hogar -decía-, hay quizás un centenar que se pierden. Sostenía Thorndike que los
animales no razonan ni avanzan en la resolución de problemas mediante súbitos estallidos
de introvisión, sino que aprenden de una manera más o menos mecánica, partiendo de un
método de ensayo y error. Las conductas que les resultan fructíferas y gratificantes se
"imprimen" en el sistema nervioso.
Según Thorndike, el aprendizaje se componía de una serie de conexiones entre un estímulo
y una respuesta, que se fortalecían cada vez que generaban un estado de cosas satisfactorio
para el organismo. Esta teoría suministró las bases sobre las que luego Skinner construyó
todo su edificio acerca del condicionamiento operante.
Más adelanto, Thorndike aplicó sus métodos para el adiestramiento de animales a niños y
jóvenes, con éxito sustancial, y llegó a tener gran predicamento dentro del campo de la
psicología educativa. Su obra Educational Psychology (Psicología educacional) fue
publicada en 1903, y al año siguiente se le concedió el grado de profesor titular. Otro de sus
influyentes libros fue Introduction to the Theory of Mental and Social Measurements
7
(Introducción a la teoría de las mediciones mentales y sociales) de 1904. En la actualidad se
reconoce a Thorndike como una figura señera en los comienzos del desarrollo de los tests
psicológicos.
Teoría
Edward Thorndike realizó su investigación, también observando la conducta de animales
pero después realizó experimentos con personas. Thorndike implantó el uso de "métodos
usados en las ciencias exactas" para los problemas en educación al hacer énfasis en el
"tratamiento cuantitativo exacto de la información". "Cualquier cosa que exista, debe existir
en determinada cantidad y por lo tanto pude medirse" (Johcich, citado en Rizo, 1991). Su
teoría, conexionismo, establece que aprender es el establecimiento de conexiones entren
estímulos y respuestas.
La "ley de efecto" dice que cuando una conexión entre un estímulo y respuesta es
recompensado (retroalimentación positiva) la conexión se refuerza y cuando es castigado
(retroalimentación negativa) la conexión se debilita. Posteriormente Thorndike revisó esta
ley cuando descubrió que la recompensa negativa (el castigo) no necesariamente debilitaba
la unión y que en alguna medida parecía tener consecuencias de placer en lugar de motivar
el comportamiento.
La "ley de ejercicio" sostiene que mientras más se practique una unión estimulo-respuesta
mayor será la unión. Como en la ley de efecto, la ley de ejercicio también tuvo que ser
actualizada cuando Thorndike encontró que en la práctica sin retroalimentación no
necesariamente refuerza el rendimiento.
La "ley de sin lectura": Debido a la estructura del sistema nervioso, ciertas unidades de
conducción, en condiciones determinadas, están más dispuestas a conducir que otras.
Las leyes de Thorndike se basan en la hipótesis estímulo respuesta. El creía que se
establecía un vínculo neural entre el estímulo y la respuesta cuando la respuesta era
positiva. El aprendizaje se daba cuando el vínculo se establecía dentro de un patrón
observable de conducta.
Estimación Del Punto De Vista De Thorndike
Antes resumiremos las soluciones de Thorndike a los problemas más característicos del
aprendizaje, en los siguientes puntos:
1) La capacidad de aprendizaje depende del número de conexiones y su disponibilidad.
2) La repetición de situaciones (práctica) no modifica por sí sola las conexiones, a menos
que dichas conexiones se recompensen.
3) Motivación: la recompensa influye directamente en las conexiones vecinas
reforzándolas, pero el castigo carece del efecto debilitador directo correspondiente. Sin
embargo, el castigo puede influír indirectamente al llevar al sujeto a elegir otra cosa que tal
vez le traiga recompensa. Las conexiones pueden fortalecerse directamente, sin necesidad
de tener conciencia o idea de ellas.
4) Comprensión: depende de hábitos anteriores. Cuando las situaciones se comprenden de
inmediato, es que se produjo transferencia o asimilación.
5) Transferencia: la reacción a las situaciones nuevas se beneficia, en parte, porque son
parecidas a antiguas situaciones, y también por un principio de analogía descripto como
asimilación.
8
6) Olvido: siguió sosteniéndose a grandes rasgos la ley del desuso, según la cual el olvido
sobreviene con la falta de práctica.
El carácter más general de la teoría de Thorndike es el de fortalecimiento automático de
conexiones específicas, directamente, sin la intervención de ideas o de influencias
concientes.
La doctrina de la especificidad es fuente tanto de fuerza como de debilidad.
La fuerza de la doctrina de Thorndike de la especificidad radica en que, en el ámbito
educativo, muestra al maestro qué tiene que hacer específicamente para enseñar, una
actividad muy compleja pero que puede simplificarse. Por ejemplo para enseñar lectura
basta con detenerse en las palabras, ser bien específico, y desatender otros factores como
semántica, filología, etc. Pero en esto también radica su debilidad, porque el lenguaje no es
sólo palabras.
Los experimentos de Thorndike
Hay dos tipos de aprendizaje: 1) El condicionamiento clásico, oavloviano o respondiente,
que consiste en aprender la relación entre sí de varios sucesos del entorno; y 2) El
condicionamiento instrumental, que consiste en aprender la relación entre varios eventos
contextuales y el comportamiento.
El condicionamiento clásico implica aprender la relación entre ver el pan y su olor, y
condicionamiento instrumental es aprender la relación entre la conducta de comer el pan y
el gusto del pan. En este capítulo el autor distinguirá estos dos tipos de aprendizaje.
La ley de efecto fue enunciado por Thorndike en 1898, y dice que un efecto de un
comportamiento positivo es incrementar la probabilidad de que vuelva a suceder en
condiciones similares.
Trabajó con gatos, perros y gallinas encerrándolos en jaulas, donde los animales debían
hacer algo para poder salir o recibir comida. Es decir, trabajó con un condicionamiento
instrumental (relación entre el comportamiento y sucesos contextuales significativos, como
premios y castigos). Encontró que a más intentos que hacía el animal, menor tiempo usaba
para escapar.
La ley del efecto es simplemente la selección natural en la historia de un organismo
singular (cuanto más salta el gato para salir equivale, en la selección natural de las especie,
a cuanto más debe alargar la jirafa el cuello para comer). Obviamente, la conducta deseada
debe ser premiada una vez que ocurre, para que luego el animal vuelva a repetirla. Esto se
llama ‘modelamiento’.
Thorndike y Pavlov: Ambos fueron psicólogos moleculares, es decir, concebían que en la
base del comportamiento había conexiones simples E-R, las que pueden ordenarse
jerárquicamente según la probabilidad de su ocurrencia. Un premio o un castigo puede
modificar esta jerarquía, haciendo más probable o menos probable una respuesta.
Respecto a sus diferencias, para Pavlov una conexión (un reflejo condicionado) aumenta su
fuerza si el estímulo condicionado es contiguo al estímulo incondicionado (esto se llama
refuerzo del reflejo condicionado). Para Thorndike, una conexión (hábito) aumenta su
fuerza si la respuesta es contigua con un refuerzo al animal del tipo premio o castigo (esto
se llama refuerzo del hábito).
Estas explicaciones del aprendizaje en términos de conexiones pueden también hacerse
desde en punto de vista molar, en términos de contingencias y correlaciones (entre el EI y
el EC, o entre R y el premio).
9
Thorndike y Skinner: Para Thorndike el premio refuerza la conexión E-R, mientras que
para Skinner (1938) el premio refuerza la respuesta operante, no la conexión con el
estímulo previo. Cabe aclarar que respuesta para Skinner es un acto destinado a producir un
efecto en el entorno, a ser operante. O sea, no importa como la rata presione la barra, sino
que lo haga, y por ello recibirá el premio.
Clases de condicionamiento instrumental
En el condicionamiento instrumental hay cuatro principios básicos: premio, castigo, huída y
omisión. En los cuatro casos ha de tenerse presente que primero se produce la respuesta y
luego recién se premia, o se castiga, etc.
Premio: Un premio después de la respuesta aumenta la probabilidad que ocurra. El premio
se llama refuerzo positivo, y esto fue enunciado en la ley del efecto de Thorndike.
Castigo: Un castigo después de la R disminuye la probabilidad que vuelva a ocurrir. Es lo
inverso a lo anterior (castigo positivo).
Huída: Si una respuesta es para escapar de un castigo, aumenta la probabilidad que vuelva a
ocurrir. Esto se llama refuerzo negativo.
Omisión: Si el presente está presente pero no se da, la respuesta que lleva a esta frustración
decrece su probabilidad de ocurrencia (castigo negativo).
Métodos de medición
Medir en el condicionamiento clásico significa descubrir la respuesta a un estímulo, pero
más interesa aquí medir en el condicionamiento instrumental, donde significa detectar con
algún aparato los cambios producidos en la conducta por el aprendizaje.
Se citan dos medidas para medir la variable dependiente ‘respuesta’: latencia y tasa de
respuesta.
Latencia: es el tiempo transcurrido entre una señal y la ocurrencia de la respuesta. Cuando
la madre llama al hijo a comer, éste vendrá más rápido (latencia menor) si le gusta la
comida, etc.
Tasa de respuesta: es la cantidad de respuestas por unidad de tiempo. Luego de ser llamado
a comer (señal) el niño dará más -o menos- mordiscos por unidad de tiempo.
La extinción en el condicionamiento instrumental
En el condicionamiento clásico, extinción significa desaparición de la conexión EC-EI. En
el instrumental, significa desaparición de la conexión respuesta-premio (o castigo).
La extinción se define entonces a partir de una correlación cero entre la respuesta y el
refuerzo, o sea la R sigue ocurriendo aunque haya tantos premios como antes, más premios,
menos premios o ningún premio. Lo esperable es que el organismo pare, entonces, de
responder, que es lo que pasa normalmente, salvo en tres excepciones. En efecto, la
respuesta sigue ocurriendo cuando hay falta de discriminación, superstición o
psuedocondicionamiento.
a. Falta de discriminación.- El estudiante sigue dando la misma respuesta (por ej sigue
estudiando bien) a pesar de que el maestro sigue poniendo mecánicamente la misma nota
(mismo premio). Sólo tiende a desaparecer la respuesta cuando ve que el maestro pierde las
hojas de exámenes, está distraído, etc.
b. Superstición.- Este fenómeno se da cuando en un tiempo dado, la relación entre dos
sucesos no puede deberse al azar. Aunque podamos programar una serie de premios en
forma totalmente independiente de la respuesta, se quiera o no los premios establecerán
10
cierta relación con las respuestas. Habrá correlaciones accidentales, aunque tales
correlaciones no hayan sido programadas. Un jugador le va mal un día, pero al otro día
donde usa otro bate de béisbol, por azar le va bien, entonces decide usar este bate en forma
superticiosa.
c. Pseudocondicionamiento.- Ocurre por ejemplo cuando una rata mueve la palanca para
salir y en ese momento le damos adrenalina, que aumenta su actividad. La conexión se
establece entre la inyección de adrenalina y mover la palanca, lo cual es un
pseudocondicionamiento porque el condicionamiento instrumental "verdadero" sería
conectar el mover la palanca con el premio (salir de la jaula).
Vemos que en los tres casos se producen respuestas que no mantienen relación con el
premio, o sea, no está marcada una relación instrumental (respondo "para" obtener un
premio). En el primer caso la falta de discriminación se debe a que la falta de una relación
instrumental no puede discriminarse de alguna condición anterior, cuando aquélla existía.
En el caso de la superstición es debido a una relación instrumental accidental y temporaria.
En el tercer caso la relación no tiene nada que ver con la respuesta, pero el premio por sí
mísmo puede causar la respuesta. Todas estas conclusiones valen también para los castigos.
Aprendizaje retardado
Es aquel aprendizaje donde la extinción se presenta "antes" que el condicionamiento, lo que
trae como consecuencia que el condicionamiento tarde más en formarse (aprendizaje
retardado). Si primero castigamos a un niño, haga lo que haga (extinción de la respuesta, no
hará nada), y luego cambiamos la situación y castigamos sólo las conductas malas,
entonces tardará mucho más tiempo en superar la primera etapa donde no respondía con
ninguna conducta.
Programas de refuerzo o castigo
Un día a Skinner se le acabaron las bolas de alimento que daba a las ratas, y entonces hizo
un aparato que les daba bolas de alimento automáticamente, siempre que la rata tocase la
palanca un minuto. No sólo las ratas comenzaron a presionar la palanca durante ese lapso
sino que también aumentó su tasa de respuestas (cantidad de respuestas por unidad de
tiempo), lo cual iba en contra de la idea que a menor premio o refuerzo, menor cantidad de
respuestas. Skinner pensó que este ‘programa’ de dar bolas automáticamente podía servir
como eficaz método para controlar el comportamiento.
Hay varios tipos de programas:
a) De intervalo fijo: es el ejemplo anterior. El intervalo fijo era un minuto, o sea cada
minuto la rata recibía el alimento.
b) De razón fija: aquí se premia a la rata cuando realiza un cierto número de respuestas. Por
ejemplo cada cuatro respuestas.
c) Programas combinados: una combinación de los dos anteriores.
d) Programas variables: es cuando los programas de intervalo o de razón son variables en
vez de fijos.
e) Programas de refuerzo diferencial: pueden ser de refuerzo diferencial bajo (RDB) o alto
(RDA). En el primer caso se premia al sujeto siempre que haya pasado por ejemplo 3
segundos desde la última respuesta. Si responde antes de los 3 segundos no hay premio (o
sea una respuesta cada 2,5 segundos no tendrá refuerzo o premio). Esto da tasas de
respuesta muy lentas. No es eficaz para el aprendizaje humano. En el caso del RDA, hay
11
premio si la respuesta ocurre antes de un tiempo especificado, con lo cual la tasa de
respuestas aumenta mucho.
f) Extinción después de un refuerzo parcial: cuando una respuesta ha sido premiada
constantemente, la extinción ocurre más rápidamente que si aquélla fue premiada solo una
vez.
g) Programas de castigo, refuerzo negativo y omisión: las pautas de respuesta con castigo
de IF son generalmente una aceleración inmediatamente después del castigo y luego una
supresión de la respuesta inmediatamente antes del mismo. Un programa de refuerzo
negativo (huída) puede consistir en dar descargas eléctricas a la rata hasta que cumpla
cierto requerimiento, como una razón fija de 10 respuestas. Por último, un programa de
omisión sería proporcionar premio continuamente y luego retirarlo cuando se cumple el
requerimiento serial.
Parámetros de premios y castigos
Los instrumentos más sencillos para medir premios y castigos son la caja de Skinner con un
único mando (por ejemplo una palanca), y el ‘corredor recto’, por donde el animal circula.
Este último evalúa más el comportamiento en el espacio, y la caja de Skinner en el tiempo.
Por ejemplo, el primero muestra cuánto se desplazó la rata, y la segunda cuánto tardó en
apretar la palanca.
Se citan dos parámetros de premios o castigos: la tasa o cantidad de premio, y el retraso del
premio.
Tasa o cantidad de premio: puede ser la mayor o menor cantidad de bolitas de comida, o
también cuanto tiempo se lo deja comer una vez que se le dio la comida, o también variar la
concentración de azúcar (cuanto más dulce, más premio). Se comprobó que sin premio, la
respuesta el cero o cercana a cero; luego, cuando se incrementa el premio, se incrementa
también la tasa de respuesta al principio rápido, pero luego lentamente.
Retraso del premio: la tasa de respuesta de la rata varía con el retraso del refuerzo positivo
(bolas de comida) y del refuerzo negativo (reducción de la descarga). La rata deja de correr
(o bien de pulsar la palanaca si está en la caja de Skinner) inmediatamente al principio pero
luego en forma más gradual. El retraso del premio es importante en la vida diaria, como
cuando una persona hace dieta pero el premio (bajar de peso), tarda en aparecer.
En cuanto a la relación entre estos parámetros, ellos son independientes en el sentido de que
se puede variar la tasa o la cantidad de premio sin variar su retraso, y viceversa. Pero en la
práctica se influyen mutuamente, y entonces a veces no se puede saber qué influye más en
la conducta: si el retraso del premio o su tasa.
Respecto de la relación entre tasa y cantidad, ella es constante: si se varía la tasa (se le da
poca comida a intervalos frecuentes) esto equivale a darle una sola comida grande
(cantidad). Pero esto no significa que ambas cosas influyan de la misma forma en la
conducta, porque quizás una comida grande sea menos premio porque el animal se siente
más pesado.
Huída (refuerzo negativo)
El experimento típico consiste aquí en darle a la rata un estímulo aversivo pero sólo hasta
que el animal realiza cierta conducta (llamada entonces conducta de huída). Según la teoría
de las necesidades, todo refuerzo es negativo: comer sería ‘huír’ del hambre, beber ‘huír’ de
la sed, etc.
12
Sin embargo las conductas de animales sometidos a descargas (estímulo aversivo) es
distinta al que actúa porque tiene hambre o sed, quizás porque el estímulo aversivo en la
descarga es externo al organismo, y además no aparece gradualmente.
Una forma de estudiar esto es con la dosificación, donde se aumenta de a poco la intensidad
del estímulo aversivo, y las respuestas del sujeto reducen la descarga cuando llegan a cierta
cantidad.
Castigo
Es posible que el castigo no forme un condicionamiento instrumental. Con refuerzos
positivos buscamos que el animal ‘haga’ algo, pero con el castigo tratamos de que ‘no
haga’ algo. Sin embargo muchos investigadores dijeron que desde cierto punto de vista el
castigo sí produce condicionamiento instrumental: el castigo dado independientemente de
la respuesta del animal tiene algún efecto supresivo de la misma, pero no tanto como
cuando depende de la respuesta. En la medida en que hay una diferencia entre los efectos
de las respuestas producidas por castigo y las respuestas independientes del mismo, éste
será una forma de condicionamiento instrumental.
Evitación
La evitación es una huída pero no del castigo sino de la situación donde este se presenta.
Evitar la lluvia es huír, pero ir a un lugar donde no llueve es evitación. El problema es: qué
condiciona al sujeto a correr? Huír de la lluvia o ir hacia donde no llueve?
La evitación fue estudiada con dos procedimientos: la evitación discriminativa (se avisa de
antemano con un señal que vendrá el castigo), y evitación no-discriminativa (no se da una
señal previa). En el primer caso, por ejemplo, se vio que ante la señal los perros pasaban
rápidamente de la huída a la evitación, mientras que en otros el paso fue más gradual.
Extinción de la evitación: cuando se intenta extinguir la evitación dando siempre castigos
(de forma que no los pueden evitar), las conductas evitativas se reducen más rápidamente.
Pero resultados opuestos se consiguen si es retirado el castigo a ser evitado: aquí la
conducta de evitación tarda más en desaparecer.
EL CONDICIONAMIENTO OPERANTE DE B.F.SKINNER
Biografía
Burrhus Frederic Skinner nace en un pequeño pueblo de Pennsylvania llamado
Susquehanna, el 20 de marzo de 1904. Su padre era un abogado y su madre una fuerte e
inteligente ama de casa. Durante su crecimiento fue matizado con la idea del trabajo duro y
las costumbres muy tradicionales (Boeree, 1997).
B. F había sido un niño muy activo, niño extrovertido que adoraba el estar al aire libre y
construir cosas, y disfrutaba, igualmente, la escuela; sin embargo, su vida no estuvo exenta
de tragedias. Específicamente, su hermano a la edad de 16 años muere de un aneurisma en
el cerebro (Boeree, 1997).
Asistió a la Universidad de Hamilton en Nueva York, esperando ser narrador y poeta. En
ese tiempo, sólo tomó un curso en psicología, el cual era impartido por William Squires,
13
pero lo único que Burrhus recordaba del curso era la demostración de Squires del umbral de
discriminación de dos puntos (Hothersall, 1997).
Asimismo, por lo general no encajó muy bien allí, no disfrutaba para nada las fiestas de la
fraternidad o los juegos de fútbol. Escribe para el periódico escolar con el seudónimo de Sir
Burrhus de Beerus (Hothersall, 1997), incluyendo artículos criticando a su propia escuela,
la facultad, e incluso a la fraternidad Phi Beta Kappa. Además, era un ateo en una escuela
que requería asistencia a las misas (Boeree, 1997).
En 1926 se gradúa con honores Phi Beta Kappa (Hothersall, 1997).
Con la idea de desarrollarse como poeta y narrador, luego de graduarse, construye un
estudio en el ático de la casa de sus padres para concentrarse, pero en realidad nunca fue así
(Boeree, 1997).
Posteriormente, escribe artículos periodísticos sobre problemas laborales, y vive en la Villa
Greenwich en Nueva York como bohemio. Luego de viajar algunas veces y haber leído el
libro de Pavlov, Reflejos condicionados, decidió que su futuro estaba en la psicología,
especialmente en el condicionamiento (Hothersall, 1997), por lo que decidió regresar a la
universidad, esta vez a Harvard. Se gradúa con su maestría en psicología en 1930 y su
doctorado en 1931. Luego, se queda allí para realizar investigaciones por cinco años más
(Boeree, 1997), trabajando como asistente en el laboratorio de biología del profesor
Crouzuer (DiCaprio, 1997).
En 1936, se muda a Minneapolis para dictar clases en la Universidad de Minnesota. Es aquí
donde conoce a su futura esposa Yvonne Blue. Tuvieron dos hijas, una de ellas, la menor,
se convierte en la primera infante criada en una de las invenciones de Skinner, la camita de
aire. Sin embargo, no era más que la combinación de una camita de niño con lados de
vidrios y aire acondicionado, se parecía mucho a tener un niño en un acuario (Boeree,
1997). En 1938 publica su primer libro importante, The Behavior of Organisms (DiCaprio,
1997).
En 1945, es designado director del departamento de psicología en la Universidad de
Indiana. En 1948, es invitado a regresar a Harvard, donde trabajaría el resto de su vida. Era
un hombre muy activo, haciendo investigación y guiando cientos de estudiantes para
conseguir su doctorado y; por supuesto, escribiendo muchos libros (Boeree, 1997), entre los
que se pueden mencionar Cumulative record, Manual de la conducta operante, Terapia
conductual, y descubrimientos empíricos, A primer of operant conditioning (DiCaprio,
1997), Disfrutando la edad adulta publicado en 1983 (Hothersall, 1997).
Skinner muere de leucemia el 18 de agosto de 1990 (Boeree, 1997)
DESCRIPCIÓN DE LA TEORÍA
Primero que todo, el condicionamiento operante, llamado también instrumental y hoy en
día; análisis experimental de la conducta(AEC) desarrollado por el psicólogo
neoconductista B.F Skinner, se puede definir de la siguiente forma:
Es la teoría psicológica del aprendizaje que explica la conducta voluntaria del cuerpo, en su
relación con el medio ambiente, basados en un método experimental. Es decir, que ante un
14
estimulo, se produce una respuesta voluntaria, la cual, puede ser reforzada de manera
positiva o negativa provocando que la conducta operante se fortalezca o debilite.
Es la operación que incrementa la probabilidad de la respuesta o conducta en relación a un
Estímulo discriminativo y a otro llamado estimulo reforzador:
Para ver el gráfico seleccione la opción "Descargar" del menú superior
Es siempre una relación de contingencia.
Skinner también considera al aprendizaje por castigo y por extinción de los refuerzos, como
influyentes en la conducta.
Para ejemplificar lo anterior, describiremos uno de los experimentos llevados a cabo por
este psicólogo de pennsylvania, llamado la "Caja de Skinner".
Estos tipos experimentos fueron realizados en su mayoría con ratitas y pichones, los cuales
se encontraban en el interior de una caja de simple fabricación, que tenia por dentro una
palanca llamada "manipolandum", la cual podía ser bajada con una liguera presión, y que al
ser accionada provocaría que el alimento contenido en un tazón al interior de esta cayera.
En un principio el "animalito" , que ha sido privado de alimento durante unas horas, se
desplazará de un lado a otro, apoyando su cuerpo en los costados de la caja, picoteando y
rasguñando la pared transparente, etc. En algún momento, y solamente por "casualidad", la
palanca será accionada por la patita o pico del animalito, provocando que el alimento caiga
para en ese momento comer el alimento. Este proceso se repetirá varias veces
voluntariamente, hasta que el animalito descubrirá que el hecho de accionar la palanca es
retribuida con una recompensa, por lo cual esta acción se ira repitiendo con mayor
frecuencia, dejando de lado a aquellas en la que no es recompensado.
Así, el refuerzo (Alimento), es el que lleva a repetir al animalito esa conducta que en un
momento era accidental.
Lo anterior, es una muestra clara de cómo funciona el CONDICIONAMIENTO
OPERANTE.
CONCEPTUALIZACIÓN DE LA TEORÍA
A continuación abarcaremos todo lo que se relaciona a esta teoría del aprendizaje, con sus
conceptos, procesos, programas etc.
Como iremos viendo más adelante, la palabra "Refuerzo" es piedra angular en el
planteamiento de Skinner, y este puede ser definido como el estimulo que al aumentar o
desaparecer, aumenta la posibilidad de una respuesta. Entonces una serie de estas acciones
refuerzan la conducta en un sentido positivo o negativo.
Los refuerzos se pueden clasificar en Primarios (incondicionados), Secundarios
(condicionados) y Generalizados:
REFORZADORES PRIMARIOS: Son aquellos que no dependen de la historia del sujeto,
sino de las características biológicas; son comunes a todos los sujetos de la especie y tienen
15
un carácter altamente adaptativo, guardando relación directa con la supervivencia del sujeto
y la especie.
REFORZADORES SECUNDARIOS: Al contrario que los Primarios, éstos no tienen
relación directa con la supervivencia y dependen, más bien, de la historia individual del
sujeto.
REFORZADORES GENERALIZADOS: Son todos aquellos reforzadores que mientras
más son presentados no reducen su efectividad, sino que, se mantiene. Son independientes
de la intensidad o frecuencia que tienen y tienen una relación estrecha con la historia
individual.
Los dos tipos de refuerzos básicos en la teoría de skinner son:
Refuerzo positivo
Refuerzo negativo
REFUERZO POSITIVO: Este tipo de refuerzo provoca que la presencia de ellos aumente
la probabilidad de una conducta, es decir, que añadir un estimulo al entorno trae consigo
que esa respuesta aumente o se repita en el futuro. Unos ejemplos de esto seria:
-Un alumno al finalizar su disertación de psicología, obtiene las felicitaciones del profesor
y los aplausos objetivos de sus compañeros. Aquí las felicitaciones y aplausos son refuerzos
positivos, ya al resultar gratificante para el alumno este refuerzo, su respuesta será estudiar
con más dedicación aun, para el próximo trabajo.
-Si María le dice a pedro que lo quiere mucho más después de haberle regalado chocolates,
la consecuencia de la conducta de pedro, será tan gratificante para él, que su conducta se
verá reforzada a que aumente o se repita en el futuro.
El "Refuerzo positivo" incorpora una conducta nueva, aumenta una existente o elimina una
conducta inapropiada incompatible.
Según investigaciones realizadas, las aplicaciones de reforzamiento positivos, no podrán ser
aplicadas en todas las situaciones, por lo que el reforzador a seleccionar, deberá tener una
capacidad de refuerzo que se haya demostrado para el individuo concreto bajo condiciones
específicas.
Es importante aclarar que, la expresión "Positivo", no tiene una connotación ética, valórica
o moral.
REFUERZO NEGATIVO: Se llama refuerzos negativos al aumento de probabilidad de una
conducta, como consecuencia de la omisión de un estimulo.
A diferencia del refuerzo positivo, aquí se omite o retira un estimulo que antecede a la
respuesta o conducta, y como consecuencia aumenta dicha conducta.
Es importante señalar que la omisión de la conducta, no basta para que se refuerce
negativamente la conducta, sino que será fundamental que a través de la respuesta se
elimine dicho estimulo de un entorno, es decir, la desaparición de la contingencia es
consecuencia de la conducta.
Ejemplos de reforzamiento negativo seria:
16
-estudiar de manera responsable para pasar las asignaturas sin problemas y así eximirse de
las pruebas de repetición. De manera clara se entiende que el refuerzo exime de la prueba, y
la diferencia con el refuerzo positivo, es que aquí se esta eliminando (eximir de la prueba)
algo del entorno.
-Una persona al presentar fuerte dolores de cabeza, toma algún analgésico que haga
desaparecer esa molestia. Acá, el estimulo (dolor de cabeza) que antecede a la conducta, es
eliminado tomando un analgésico.
En resumen, el Refuerzo Negativo a través de la respuesta o conducta, elimina el estímulo
aversivo que le antecede, por consiguiente se da un incremento a la conducta que causo la
eliminación o desaparición de este estímulo.
Hay ocasiones en que los Refuerzos Negativos son una vía interesante para motivar a
personas a realizar cosas que le resultan difíciles como:
-Aceptar un billete de dinero no hará que un joven se zambulla en agua fría, se pare sobre
un par de patines, monte en motocicleta o se interne en una caverna, pero el ridículo ante
sus amigos, lo que ellos pueden decirle a manera de insulto o evocando a la cobardía, puede
ser lo suficientemente aversivo para que el sujeto desee eliminarlo y acepte el reto y
termine realizando la conducta negada
El Reforzador Negativo, tiene importancia en dos tipos de aprendizaje:
Condicionamiento de Escape
Condicionamiento de Evitación
CONDICIONAMIENTO DE ESCAPE: Es cuando se aplica un castigo, pero este se
termina cuando se produce una conducta, es decir, es cuando se aprende a dar una respuesta
que elimina o hace desaparecer una situación que resulta desagradable. Ejemplo : -Los
niños aprenden con rapidez que al acercar sus manos hacia algún objeto caliente, como la
estufa o cocina, las deben alejar rápidamente para evitar quemarse.
CONDICIONAMIENTO DE EVITACIÓN: Es cuando, se eliminan o reducen estímulos
que anteriormente han estado seguidos de estímulos aversivos. La diferencia con el
condicionamiento de escape, es que aquí el organismo no recibe el estimulo aversivo, en
cambio en el condicionamiento de escape el organismo termina o reduce el estímulo
aversivo a través de la respuesta, que vera aumentada su frecuencia. Un ejemplo de
condicionamiento de evitación seria:
-Un automovilista ya tiene experiencia de que si conduce a una velocidad de 150 k/h en una
carretera permitida a 100k/h será detenido por carabineros y se le cursara la multa
correspondiente, por lo cual, a través de su conducta evita ese estímulo aversivo.
Otros procedimientos importantes dentro del control de la conducta son: el Castigo y la
Extinción de los refuerzos.
CASTIGO: Consiste en presentar un estimulo aversivo o retirar un reforzador
inmediatamente después de una conducta, disminuyendo o eliminando la probabilidad de
repetición de dicha conducta. Ejemplo :
17
-Prohibir a un niño a salir a recreo, debido a que no ha terminado sus ejercicios durante la
clase por motivos de indisciplina. Aquí se ejemplifica correctamente lo que dice la
definición, ya que se aplica un Castigo (estimulo aversivo) inmediatamente después de una
conducta.
-La policía detiene a una persona que se dedica a robar en tiendas comerciales, por lo cual,
es Castigado a 5 años de cárcel.
Aquí se dan las condiciones para catalogar el ejemplo anterior como Castigo, pero existe la
posibilidad que el individuo, según las condiciones del ambiente (sociedad, rehabilitación,
necesidades, etc.) vuelva a reincidir en su conducta.
EXTINCIÓN: Proceso mediante el cual una conducta deja de emitirse al descontinuar el
reforzamiento que la mantenía. Una conducta o respuesta se acaba por que deja de recibir lo
que la hace existir. Ejemplos:
-Un joven de un pequeñísimo poblado al cabo de un mes deja de recibir sus clases de
guitarra debido al fallecimiento del único músico del pueblo. Acá el refuerzo que mantenía
la conducta la conducta del joven se ha "terminado", por lo cual la conducta dejara de
producirse.
-En una clase se comprobó que la mala conducta aumentó cuando los maestros prestaron
atención a ella y disminuyó por debajo del nivel usual cuando la pasaron por alto y
prestaron su atención a los niños que no se estaban portando mal
A pesar de que el efecto de disminución o desaparición de la conducta es igual en el
procedimiento de Castigo como en el de Extinción, se diferencian en que en el primero no
se rompe el proceso de contingencia, cosa que si sucede en el otro.
Otros procedimientos importantes desde el punto de vista del control de las conductas son:
La discriminación
La generalización
LA DISCRIMINACIÓN: Proceso en el cual la frecuencia de una respuesta es más alta ante
la presencia de un estimulo, que ante su ausencia. Es decir es el proceso en que la presencia
de un Estimulo discriminatorio hace posible que una respuesta dada, sea reforzada, pero
importante es señalar que para que esto ocurra, debe existir por lo menos un Estimulo delta,
que es en cuya presencia no existe refuerzo y funciona para suprimir o inhibir la conducta.
Así, si un Estimulo discriminatorio, logra reforzar la conducta, los demás estímulos serán
Estímulos delta. Un ejemplo de el Procedimiento de discriminación es :
-En el metro se señalan a través de imágenes los asientos que son de preferencia para
minusválidos, embarazadas o tercera edad. Aquí estas imágenes actúan como Estimulo
discriminatorio, ya que discriminan una respuesta de ocupar un asiento destinado para otras
personas.
LA GENERALIZACIÓN: Proceso en el cual se refuerza una conducta, por medio de la
mayor cantidad de estímulos posibles. Ejemplo :
-se ha enseñado a un niño a decir "buenos días" a su padre, para lograr que esa conducta se
reproduzca con otros adultos, es decir, se generalice ante la mayor cantidad de estímulos
18
denominados "adultos", basta con reforzar sistemáticamente la respuesta "buenos días",
cada vez que se emita ante cualquier adulto.
Ambos procedimientos se complementan entre si, dentro de toda discriminación hay una
generalización y viceversa.
FACTORES QUE INFLUYEN EN LA EFECTIVIDAD DEL REFORZAMIENTO
Para el control de una conducta, no basta con haber elegido el reforzador apropiado, sino
que además se deberán tomar en consideración importantes factores como: Inmediatez,
Cantidad de refuerzo, condiciones, probación y exposición, entre otros, que ayudaran a
acrecentar la efectividad del refuerzo.
INMEDIACIÓN DEL REFORZAMIENTO: Según lo dicho por el propio Skinner, un
principio fundamental sobre el control de la conducta es que un refuerzo inmediato es más
efectivo que el retrasado. Por ejemplo:
-Ante el recibo de un obsequio por parte de una amiga, resultaría mucho más efectivo
reforzar esa conducta con un gracias de inmediato, que con retraso, ya que de lo contrario,
el organismo tendría el tiempo para producir otra conducta, entre el lapso de la conducta
original y el reforzamiento retardado, por lo que el reforzamiento seria en la conducta
derivada de otra.
CANTIDAD DE REFORZAMIENTO: La decisión sobre que tanto reforzamiento se debe
suministrar depende de varios factores: el tipo de reforzador usado, las condiciones de
privación y el esfuerzo necesario para dar la respuesta. Se debe tener en cuenta los
conceptos de:
Privación
Saciedad
Privación: Es cuando se retiene el reforzador por un espacio de tiempo o reduce su acceso,
a favor de de la efectividad del refuerzo. Por ejemplo:
-Cuando un animal es privado de su alimento por un tiempo, cuando este se le vuelve a
mostrar, este refuerzo será más efectivo.
Saciedad: Aquí es cuando el reforzador pierde su valor como tal, ya que la cantidad
inapropiada del refuerzo termina por saciar al organismo. La supresión de la conducta, es
por causa del reforzador que la mantiene. Ejemplo :
-Si se le recrimina reiteradas veces a un alumno cuando fuma cigarrillos, este terminara por
saciarse y acabará cambiando alguna conducta de obediencia que haya tenido. Así una
buena opción es proporcionarle tantos cigarrillos para que fume, que luego termine
mareado y con náuseas y por no querer saber nada a cerca de los mismos.
CONDICIONES DE SITUACIÓN: Cuando el reforzamiento se suministra de inmediato,
los individuos pueden identificar con mayor facilidad las conductas que conducen al
reforzamiento y las que no. Otro factor que puede facilitar la discriminación es la
especificación clara de las condiciones ambientales, o estímulos, bajo las cuales se
suministrará el reforzamiento.
19
PROGRAMACIÓN: Esto es la regla que sigue el medio ambiente, para determinar cual de
las numerosas respuestas, será reforzada.
Existen varios programas reforzadores, los cuales pueden ser ajustados a procedimientos
diseñados a moldear, incrementar, reducir o mantener una conducta.
PROBACIÓN: Es utilizado generalmente, cuando este refuerzo no esta familiarizado con el
sujeto al cual se le aplica, es decir, si algún cuerpo no se ha enfrentado a una determinada
situación, el refuerzo que podría ser aplicado resultaría desconocido.
EXPOSICIÓN: Esto significa que cuando un organismo, no puede recibir directamente un
refuerzo, como en el caso de la probación, Entonces, se procede a exponerlo a las
condiciones más parecidas que se pueda a aquellas en las cuales se utiliza el reforzamiento.
Incluso si es necesario ocupar a otra persona a la cual se le ha aplicado el refuerzo.
PROGRAMAS DE REFORZAMIENTO
Los programas de reforzamiento son "reglas", que determinan cuando seguirá la entrega o
presentación contingente de un reforzador a la presentación de una respuesta o conducta.
Existen diferentes tipos de programas de reforzamiento, de los cuales, definiremos los más
significativos.
PROGRAMA DE REFORZAMIENTO CONTINUO: Se llama a este tipo de programa,
cuando el refuerzo es manifestado en cada momento de ser producida una respuesta.
Ejemplo:
-Cuando en una clase, un alumno levanta la mano para dar su opinión, el profesor
pronuncia su nombre dándole la palabra.
PROGRAMA DE REFORZAMIENTO PARCIAL O INTERMITENTE: Este
reforzamiento se da cuando son reforzadas solo algunas de las conductas emitidas por el
organismo, no todas. En la vida cotidiana, en el colegio, universidad, etc., se dan estos tipos
de programas. Ejemplo:
-Cuando llamamos a una persona por teléfono, y esa persona no se encuentra, la conducta
no ha sido reforzada; no queriendo decir con ello que no ocurra la próxima vez.
Según los experimentos realizados por Skinner, los programas de reforzamiento parcial,
son bastante estables y mantienen la conducta por periodos más largos que los programas
de reforzamiento continuo.
Los programas de reforzamiento parcial o intermitente, pueden programarse teniendo en
cuenta el número de respuestas o también el tiempo que transcurre. Por lo tanto hay que
tomar en consideración:
-Programa de razón
-Programa de intervalo
PROGRAMA DE RAZÓN: Estos programas consideran el número de respuestas antes de
presentar un reforzador, es decir, el reforzador depende de la conducta del organismo en
base al número de respuestas de este.
Este programa se subdivide en dos:
20
Razón fija: Que es cuando el reforzamiento se da cada vez que el sujeto cumple con un
determinado numero de repuestas que se ha establecido de antemano.
Ejemplo :
-Si se le dice a un vendedor, que por cada diez helados que venda, uno será para el, la razón
fija será 10.
Razón variable: los reforzamientos ocurren después de una cantidad variable de respuestas,
no después de un número fijos. Esta cantidad difieren de reforzamiento en reforzamiento.
Ejemplo :
-Si al mismo vendedor se le dice ahora, en base a un establecimiento previo de la cantidad
variable, que se le dará el reforzamiento (dar el helado) cuando venda el primer helado, el
segundo reforzamiento le será dado cuando venda el tercer helado, el tercero cuando venda
el cuarto y el cuarto cuando venda ocho. Así el valor de la razón variable se designa por el
promedio de estas, (1-3-4-8) cuya suma seria 16 en este caso, siendo el promedio cuatro
PROGRAMA DE INTERVALO: son aquellos que toman la cantidad de tiempo
transcurrido antes de proporcionar el reforzador.
Los programas de intervalo se definen en función del tiempo, pero se refuerzan en base a la
primera respuesta que se obtiene luego de transcurrido el tiempo previsto; es decir, el
reforzamiento, cualquiera que sea el programa seguido (de razón o de intervalo) siempre
debe ser consecuencia de una respuesta. Existen dos tipos de programas de intervalo:
Intervalo fijo: que son aquellos en donde se establece un intervalo, donde al término de
este, se refuerza la primera respuesta que se emita.
Intervalo variable: es cuando se establece un determinado intervalo variable, por ejemplo 24-7; y en donde se refuerza la primera conducta transcurrido el tiempo. Ejemplo :
-Si el intervalo es 2-4-7 se reforzara la primera conducta transcurridos los dos primeros
minutos, luego se refuerza la primera conducta pasados cuatro minutos y finalmente se
reforzará la primera conducta pasados siete minutos. El promedio de estos será el valor del
intervalo variable
Otros programas de reforzamiento:
PROGRAMA DE REFORZAMIENTO MULTIPLE: Consiste de dos o más programas
independientes, los cuales se presentan al organismo en forma sucesiva, cada uno de ellos
en presencia de un estímulo característico. Los programas múltiples son programas
combinados, en los que se agrega un estímulo discriminativo característico.
PROGRAMA CONCURRENTE: Están formados, también, por dos o más programas. A
diferencia del múltiple, los programas no son sucesivos, sino simultáneos; es decir, que el
sujeto puede emitir dos respuestas distintas que se refuerzan simultáneamente por
programas independientes, pero paralelos en el tiempo. Los reforzamientos previstos en
cada programa son independientes entre sí. Este tipo de programa se utiliza cuando se desea
reforzar más de una respuesta a la vez, como ocurre en los programas de conducta social.
PROGRAMA DE CONJUGADO O PROPORCIONAL: En estos programas, se establece
una proporción entre cierta medida de la conducta e cierta medida del reforzamiento. Por lo
21
general, estas medidas están dadas por la frecuencia del reforzamiento, pero también
pueden seguir propiedades tales como la magnitud de la respuesta y la magnitud del
reforzamiento. En este programa, cuanto más responde el sujeto, más reforzamiento recibe,
hay una proporción directa entre conducta y reforzamiento. La relación también puede ser
inversa; dependiendo de los propósitos del programa. Es adecuado permitir al sujeto
establecer el criterio de reforzamiento a través de la propia emisión de su conducta. Por
ejemplo: si un niño realiza dos ejercicios de matemáticas, recibe un caramelo; si realiza
cuatro, recibe dos caramelos, etc.
CUESTIONAMIENTOS A LA TEORÍA DE SKINNER
Entre las críticas que se hacen a la teoría de skinner, están aquellas que la acusan de hacer
una comparación abusiva, al tratar de explicar los procesos de la vida real en experimentos
de laboratorio con animalitos. Uno de sus principales detractores en relación a esto es
Chomsky, ante lo cual Skinner responde que estos ataques no eran más que una
manifestación del "mentalismo" característico de los estructuralistas, los cuales quieren
explicar la conducta humana sin prestar atención a las circunstancias dentro de las cuales
tiene lugar dicha conducta.
Otros psicólogos y personas del mundo de las ciencias, dicen que se pueden aceptar los
resultados de sus experimentos, sin necesidad de generalizar.
Un aspecto fuertemente criticado a los experimentadores de la conducta es el reducido
número de sujetos que utilizan en las experiencias. Para los críticos (generalmente ajenos al
que hacer experimental), parece inconcebible, e incluso inexplicable, la tendencia
conductista a la utilización del caso único, un lugar de emplear grandes muestras
representativas con el fin de poder justificar "quizás" convenientemente el generalizar los
resultados, ante lo cual Skinner responde que estas no son generalizaciones indebidas, sino
que son resultados de estudios científicos comprobados.
Incluso algunas críticas tratan de dejar en ridículo a nuestro psicólogo en cuestión, como
fue la realizada por el sociólogo Andreski: "en contraste a tal pretensión (hacer ciencia) la
más grande realización de Skinner, en el dominio de la tecnología de la conducta ha sido la
de amaestrar a dos palomas para que lancen una pelota de ping- pong hacia adelante y hacia
atrás. Este logro exige, probablemente, mucha perseverancia e imaginación, pero justifica
apenas su pretensión de ser tomado en serio como experto de la civilización y la política. El
inventor de la célebre caja de Skinner merece sin duda ser reconocido como amaestrador de
animales, aunque no sea evidente a simple vista que valla más allá de logros de los
amaestradores del circo".
En definitiva, se le critica que tiende a destruir la noción de la naturaleza humana,
reduciéndola a un conjunto de mecanismos que no hacen sino asemejarla a una maquina o
los animales. Consideran, además, que las actividades propias del ser humano es decir,
justamente aquellas que lo diferencian de lo animal (virtud, creatividad, altruismo,
imaginación, amor, etc.) son simples relaciones entre estímulos y respuestas, sin valor
intrínseco alguno.
DIFERENCIAS Y SIMILITUDES ENTRE LA TEORÍA DE LOS REFUERZOS Y EL
CONDICIONAMIENTO CLÁSICO
22
La principal diferencia se hace sobre las bases de operación. El condicionamiento clásico es
una forma de aprendizaje estímulo- estímulo-preparación de respuestas, en cambio que el
condicionamiento operante (teoría de los refuerzos) el aprendizaje es un estimulorespuesta-se fija la respuesta.
Una diferencia relevante es que en el condicionamiento clásico la respuesta condicionada o
incondicionada será siempre la misma, a diferencia del operante, en donde las respuestas
suelen ser distintas.
También en el condicionamiento clásico se videncia una ley de continuidad, mientras que
en el otro se implica además una ley de efecto, es decir, la concreción de una respuesta.
Por otro lado, también encontramos similitudes entre estos dos tipos de condicionamientos.
Uno de estas similitudes seria que según los estudios realizados hasta ahora, tanto en el
condicionamiento operante como en el clásico una respuesta que se ha extinguido, recupera
su fuerza con el descanso.
También en ambos tipos de condicionamiento se presenta una característica de
discriminación de los estímulos, tanto si el sujeto es reforzado para que responda a un
estímulo, como si se le condiciona para que produzca una respuesta condicionada.
En síntesis el condicionamiento de clásico de Watson da importancia al estimulo y el
condicionamiento operante de skinner da importancia a la respuesta que hay que reforzar.
APORTES DE LA TEORÍA DE LOS REFUERZOS A LA EDUCACIÓN
Skinner al poner de manifiesto a través de su condicionamiento operante que la conducta
humana es manipulable, logro que su teoría fuera introducida en la educación para el
proceso enseñanza-aprendizaje.
Los educadores tienen una marcada influencia de la teoría conductista operante, ya que para
ellos el comportamiento de los estudiantes es una respuesta a su ambiente pasado y
presente, en la cual todo ese comportamiento es aprendido. Por lo tanto cualquier problema
de conducta es el reflejo de los refuerzos que dicho comportamiento ha tenido.
Como la teoría de los refuerzos tiene que ver con el control de las conductas, los maestros
deben proveer a los educandos un ambiente adecuado para el refuerzo de las conductas
deseadas. Por consiguiente las conductas no deseadas que el alumno tenga en el aula,
pueden ser modificadas utilizando los principios básicos del control de estas explicados
anteriormente en el presente trabajo. Las posiciones más comunes adoptadas por los
profesores en los establecimientos, son las siguientes:
Todo estudiante necesita ser calificado con notas, estrellitas, y otros incentivos como
motivación para aprender y cumplir con los requisitos escolares.
Cada estudiante debe ser calificado en base a los estándares de aprendizaje, que la
profesora traza para todos los estudiantes por igual.
El currículo debe estar organizado por materias de una manera cuidadosamente y en
secuencia y detallado.
23
Algunas técnicas para cambiar las conductas no deseadas del alumno en el establecimiento
serian:
Refuerzo de las conductas deseadas, que de esta manera competirá con la conducta no
deseada hasta reemplazarla por completo.
Debilitar las conductas no deseadas eliminando los refuerzos de estas.
La técnica de la "saturación" que implica envolver a un individuo en la misma conducta no
deseada, de manera repetitiva hasta que el individuo se sienta hastiado del comportamiento.
Cambiando la condición del estímulo que produce la conducta no deseada, influenciando al
individuo a tomar otra respuesta a dicho estimulo.
Usando castigos para debilitar a conducta no deseada.
Una de los más importantes aportes a la educación es cuando se aplica un aprendizaje
programado. En donde la materia a impartir, se separa en partes simples y se empieza por
ejemplo; preguntando cosas en que el alumno tiene conocimiento, ante cuya respuesta
(conducta) se le refuerza con felicitaciones o puntaje para el examen final. Así de a poco y
ante la conducta del alumno por esforzarse y estudiar mejor, se van introduciendo preguntas
con un mayor grado de dificultad, reforzando las correctas.
24
CONCLUSION
La conducta humana, esta guiada y dirigida por refuerzos, los cuales son de carácter
motivador para dirigir una conducta. Son fundamentales en el aprendizaje sabiendo
utilizarlos, para lograr una respuesta esperada hacia los alumnos. Así, se comprueba que el
comportamiento es de carácter manipulable, ya sea por la familia, iglesia, etc.
Como estudiante de pedagogía y futura profesora, es indispensable manejar este tema,
como estrategia para el mejor logro de la educación, no solamente hablando de materia,
sino también reforzar en los educandos sus valores, metas, intereses; ayudando también a
tener una buena relación.
Es un tema cotidiano que influye directamente en nuestra forma de comportarnos, así nos
dejan experiencias en nuestras relaciones, para en otra ocasión aprender de ellos. La teoría
de los refuerzos es una conducta aprendida, ya que para que exista el aprendizaje según esta
teoría, se debe reforzar la conducta ya sea por un estímulo positivo o también un estímulo
negativo. Así se logra aumentar la probabilidad que se repita un comportamiento de
aprendizaje en su entorno.
Después de haber analizado y leído el tema, puedo llegar a la conclusión que el organismo
siempre esta en movimiento o en proceso de operar. Se encuentra con un determinado tipo
de estímulo, llamado estimulo reforzador. La teoría de Skinner acerca de los refuerzos,
explica que cuando una respuesta otorga satisfacción o placer al ejecutante, esta tiene más
posibilidades de ser repetidas, como lo demuestra el ratón encerrado en la caja. Skinner
como buen conductista manifiesta su interés grandísimo por el estudio de los procesos de
aprendizaje, aunque sus ideas han provocado muchas polémicas, sobre todo cuando atacan
sus obras que se refieren a los estímulos y los refuerzos.
A pesar de la validez en las críticas que se le realizan al conductismo operante, como el
reduccionismo y simplismo, ha sido innegable el aporte que ha tenido este, a la vida del
hombre. Ayudándole en todo tipo áreas. El saber controlar bien una conducta a través de
los refuerzos ayudara a las personas a vivir en un mundo más placentero, ya que se podrán
por ejemplo eliminar o reducir todas esas conductas aceptadas socialmente como
inadecuadas.
Sin embargo, creo que para que lo anterior sea efectivo, tenemos que tener un total
conocimiento de esta teoría, de manera que podamos conocer el real alcance que tienen los
estímulos reforzadores en el control de la conducta, conociendo su potencial. Como decía
Skinner, toda la vida esta plagada de refuerzos, sin embargo el común de la gente, ante el
desconocimiento de ellos los pasa por alto, con la imposibilidad de aplicarlos o aplicarlos
de la forma más conveniente. Es por eso, que los profesores quienes son uno de los pilares
fundamentales en el proceso de enseñanza - aprendizaje que hacen suyo los alumnos, deben
tener un conocimiento cabal de la teoría operante, para poder controlar la infinidad de
conductas que operan en los alumnos, en post de una sociedad mejor.
25
BIBLIOGRAFÍA
Psicología: un aporte a la Educación. SALAZAR, Dayanira (compilación).Editor
universidad Arturo Prat. 1° Edición. Santiago. Chile. 2003.
Sitio web http://www.loshorcones.org.mx/glosario.html
Sitio web http://www.euskalnet.net/txiribi/terapias.htm
Sitio web http://www.cuc.udg.mx/psicologia/skinner.html
Sitio
web
http://www.google.cl/search?q=cache:IvpZKq_pssJ:www.psicopedagogiaonline.com/articulos/documentos/cond_operante.pdf+desc
ripcion+del+condicionamiento+operante&hl=es&ie=UTF-8
El consultor psicopedagógico en la escuela. DINMEYER, Don – CARLSON, Jon. Editorial
Guadalupe. Buenos Aires. Argentina. 1973.
26
Descargar