Subido por Giorgio Emilio Lavezzaro

Enric Munar Atencion y percepcion Alianz

Anuncio
Manuales / Psicología y Educación
El libro universitario
Enric Munar, Jaume Rosselló,
Antonio Sánchez Cabaco
(coords.)
Atención y percepción
Alianza Editorial
Reservados todos los derechos. El contenido de esta obra está protegido por la Ley,
que establece penas de prisión y/o multas, además de las correspondientes indemnizaciones por daños y perjuicios, para quienes reprodujeren, plagiaren, distribuyeren
o comunicaren públicamente, en todo o en parte, una obra literaria, artística o científica, o su transformación, interpretación o ejecución artística fijada en cualquier tipo
de soporte o comunicada a través de cualquier medio, sin la preceptiva autorización.
Edición electrónica, 2014
www.alianzaeditorial.es
© Enric Munar, Jaume Rosselló, Antonio Sánchez Cabaco, 1999
© Alianza Editorial, S. A. Madrid, 2014
Juan Ignacio Luca de Tena, 15. 28027 Madrid
ISBN: 978-84-206-8759-9
Edición en versión digital 2014
A Isabel, a Mercè, a Luzma,
que seguían estando ahí al concluir esta obra, atentas como siempre a
nuestros retornos, rotundamente tangibles, perceptibles de nuevo..., tan
como siempre.
Nosotros (la indivisa divinidad que opera en nosotros) hemos soñado el mundo.
Lo hemos soñado resistente, misterioso, visible, ubicuo en el espacio y firme en el
tiempo; pero hemos consentido en su arquitectura tenues y eternos intersticios de
sinrazón para saber que es falso.
Jorge Luis BORGES
Si el Mundo es un error, es un error de todo el mundo.
Fernando PESSOA
(en voz de su heterónimo Alberto CAEIRO)
Cuántas palabras, cuántas nomenclaturas para un mismo desconcierto.
Julio CORTÁZAR
Índice
Relación de autores......................................................................................................
17
Prólogo, Helio Carpintero ..........................................................................................
19
Presentación, Enric Munar, Jaume Rosselló y Antonio Sánchez Cabaco ..........
25
Primera parte
Atención
1. Panorama histórico-conceptual del estudio de la atención, Pilar Tejero
Gimeno ..................................................................................................................
1. ¿Qué es la atención? ..........................................................................................
1.1. Funciones de la atención en el procesamiento humano de información ...
1.2. Determinantes de la orientación atencional...............................................
1.3. Orientación abierta o encubierta................................................................
1.4. Beneficios de la selección atencional de información...............................
1.5. Automatización y control atencional.........................................................
1.6. Preparación atencional y mantenimiento del nivel de alerta .....................
1.7. Anatomía del sistema atencional ...............................................................
2. Modelos teóricos sobre la atención ...................................................................
2.1. Introducción...............................................................................................
2.2. El estudio de la atención desde el paradigma cognitivo............................
Bibliografía comentada ..........................................................................................
2. El estudio experimental de la atención, Juan Botella Ausina......................
1. Introducción.......................................................................................................
33
34
34
37
39
41
43
45
47
48
48
48
61
63
63
9
Atención y percepción
2. El papel de la consigna experimental ................................................................
3. Las variables dependientes ................................................................................
3.1. Medidas de rendimiento ............................................................................
3.2. Medidas conductuales ...............................................................................
3.3. Medidas psicofisiológicas .........................................................................
4. Tareas y paradigmas experimentales.................................................................
4.1. Algunas tareas sencillas de tiempo de reacción ......................................
4.2. Búsqueda visual.......................................................................................
4.3. Paradigmas de pre-aviso con SOA corto .................................................
4.4. Las tareas de escucha selectiva................................................................
4.5. Compatibilidad de los distractores ..........................................................
4.6. La tarea de Stroop y sus variantes ...........................................................
4.7. Paradigma de inatención..........................................................................
4.8. Paradigma de la señal de stop..................................................................
4.9. La presentación rápida de series visuales (PRSV) ..................................
4.10. Las tareas de priming...............................................................................
4.11. Paradigmas de doble tarea .......................................................................
Bibliografía comentada ..........................................................................................
3. Selección para la percepción, selección para la acción, Jaume Rosselló
Mir .........................................................................................................................
1. Introducción.......................................................................................................
1.1. Algunas cuestiones fundamentales............................................................
1.2. Selección para la percepción versus selección para la acción ...................
2. Selección para la percepcion .............................................................................
2.1. El medio de la atención: ¿mapas espaciales o representaciones de objetos?.............................................................................................................
2.2. La atención espacial ..................................................................................
2.3. La atención al objeto .................................................................................
3. Selección para la acción ....................................................................................
3.1. La representación de la acción..................................................................
3.2. Concepto y funcionalidad de la selección para la acción ..........................
3.3. La acción como determinante del medio atencional..................................
3.4. Selección espacial para la acción: la propuesta de van der Heijden
(1992, 1995)...............................................................................................
3.5. Selección del objeto para la acción: una variante de la teoría premotora
(Craighero et al, 1998)...............................................................................
4. La función atencional: selección para la percepción y selección para la acción ....................................................................................................................
4.1. Visual Attention Model (Schneider, 1995): un paradigma de compromiso teórico....................................................................................................
5. La naturaleza de la atención: monarquía, oligarquía o anarquía .....................
6. La diversidad atencional: cuando los árboles no dejan ver si hay un bosque ...
Bibliografía comentada ..........................................................................................
4. Alteraciones atencionales, Mateu Servera Barceló .......................................
1. Introducción.......................................................................................................
2. El trastorno por déficit de atención en la infancia .............................................
10
67
69
69
71
71
73
74
76
78
81
82
84
86
87
87
89
92
96
99
100
101
104
105
105
108
117
125
125
127
129
130
135
139
140
143
145
147
151
151
153
Índice
2.1. La definición del trastorno por déficit de atención en la infancia .............
2.2. Factores implicados en la instauración del déficit atencional ...................
2.3. La evaluación y el tratamiento del trastorno por déficit de atención.........
3. Los trastornos atencionales en psicopatología ..................................................
3.1. Modelos atencionales y psicopatología clásica de la atención ..................
3.2. Psicopatología cognitiva de la atención ....................................................
3.3. Las alteraciones atencionales en la esquizofrenia y otros trastornos
mentales .....................................................................................................
4. Conclusiones......................................................................................................
Bibliografía comentada ..........................................................................................
153
156
159
163
164
166
169
171
174
Segunda parte
Percepción
5. Algunas notas introductorias al estudio de la percepción, José E. García-Albea ...................................................................................................
1. Cuestiones preliminares.....................................................................................
2. La percepción, entre la sensación y la cognición ..............................................
2.1. El estímulo de la percepción......................................................................
2.2. Los órganos de la percepción ....................................................................
2.3. Percepción y cognición..............................................................................
3. Observaciones finales ........................................................................................
Bibliografía comentada ..........................................................................................
6. Psicofísica: concepto, método y aplicaciones, Antonio Sánchez Cabaco .
1. Introducción.......................................................................................................
2. Medida y límites de la detección y de la discriminación psicofísica ................
2.1. Umbrales sensoriales .................................................................................
2.2. Umbrales de respuesta ...............................................................................
3. Cuantificación de la magnitud perceptiva .........................................................
3.1. Psicofísica clásica: la ley de Fechner ........................................................
3.2. Psicofísica moderna: la ley de Stevens......................................................
4. La teoría psicofísica y el estudio de la percepción ............................................
4.1. Aplicaciones psicofísicas del tiempo de reacción (TR) ............................
4.2. Perspectivas recientes en Psicofísica.........................................................
Bibliografía comentada ..........................................................................................
7. Procesamiento básico de la visión, Florentino Blanco y David Travieso .
1.
2.
3.
4.
Introducción.......................................................................................................
Nuestra experiencia del mundo a través de la visión ........................................
La luz como fenómeno físico ............................................................................
El soporte biológico de la visión .......................................................................
4.1. Descripción general del ojo humano .........................................................
4.2. La retina.....................................................................................................
4.3. El procesamiento de la información visual en el cerebro..........................
4.4. El córtex visual ..........................................................................................
5. Consideración final............................................................................................
Bibliografía comentada ..........................................................................................
179
179
183
184
186
192
197
199
201
201
203
203
212
223
223
226
230
230
231
232
235
235
236
241
246
248
251
256
260
262
264
11
Atención y percepción
8. Percepción del contraste: procesamiento de bajo nivel, José Antonio Aznar Casanova .......................................................................................................
1. Introducción.....................................................................................................
2. La luz. ..............................................................................................................
3. El contraste ......................................................................................................
4. Ondas sinusoidales ..........................................................................................
5. Estímulos de enrejado......................................................................................
6. Análisis frecuencial de imágenes ....................................................................
7. Síntesis frecuencial de imágenes .....................................................................
8. Filtrado de imágenes........................................................................................
9. La función de sensibilidad al contraste ...........................................................
10. Paradigmas de investigación en psicofísica visual ..........................................
11. Modelos basados en canales psicofísicos ........................................................
12. Pruebas sobre la existencia de canales psicofísicos ........................................
13. Características de los canales psicofísicos ......................................................
14. La relación de incertidumbre de la transformada de Fourier...........................
15. Filtros Gabor....................................................................................................
Bibliografía comentada ..........................................................................................
9. Percepción del color, Julio Lillo Jover ............................................................
1. ¿Qué es el color? ...............................................................................................
1.1. Color y diferencias individuales ................................................................
1.2. Color y desequilibrios energéticos. ...........................................................
2. Color y mecanismos perceptivos.......................................................................
2.1. Dimensiones del color ...............................................................................
2.2. Conos y codificación cromática ................................................................
2.3. Mecanismos oponentes y codificación cromática .....................................
2.4. Discriminación y categorización de colores..............................................
2.5. Lenguaje y categorías lingüísticas.............................................................
3. Producción de colores........................................................................................
3.1. Mezcla sustractiva .....................................................................................
3.2. Mezcla aditiva ...........................................................................................
4. Medición del color.............................................................................................
4.1. Espacios de color CIE ...............................................................................
4.2. Atlas de colores .........................................................................................
5. Alteraciones en la percepcion del color.............................................................
5.1. Tipos de alteraciones .................................................................................
5.2. Incidencia y evaluación de las alteraciones en la percepción del color.....
Bibliografía comentada ..........................................................................................
10. Organización perceptual y reconocimiento visual del objeto, Antonio
Crespo León .........................................................................................................
1. Introducción.......................................................................................................
2. Organización perceptual ....................................................................................
2.1. Sistemas lineales versus sistemas no-lineales en el estudio de la organización perceptual .......................................................................................
2.2. La articulación figura-fondo......................................................................
2.3. El agrupamiento perceptual .......................................................................
12
267
268
269
270
272
275
278
281
283
286
289
290
290
293
294
295
299
301
302
302
302
306
306
307
310
314
315
318
318
320
321
321
329
331
331
334
336
339
340
341
342
343
347
Índice
2.4. Desde la pregnancia hasta los modelos de bondad del patrón...................
2.5. Algunas reflexiones interesantes ...............................................................
3. Reconocimiento visual del objeto .....................................................................
3.1. Reconocimiento por comparación de plantillas ........................................
3.2. Reconocimiento por detección de características o rasgos........................
3.3. Reconocimiento por ejes de coordenadas..................................................
3.4. Reconocimiento por componentes (RBC).................................................
3.5. Reconocimiento por alineamiento .............................................................
3.6. Reconocimiento por procesamiento distribuido en paralelo (PDP) ..........
Bibliografía comentada ..........................................................................................
11. Percepción de la profundidad, de la distancia y del tamaño, Enric Munar ..........................................................................................................................
1. Introducción.......................................................................................................
2. Percepción de la profundidad y de la distancia .................................................
2.1. Indicios binoculares...................................................................................
2.2. Indicios monoculares.................................................................................
2.3. Integración de claves .................................................................................
3. Percepción y constancia del tamaño..................................................................
3.1. Percepción del tamaño...............................................................................
3.2. Constancia del tamaño...............................................................................
3.3. Ilusiones visuales de tamaño y distancia ...................................................
Bibliografía comentada ..........................................................................................
12. Percepción del movimiento, Enric Munar y Jaume Rosselló ......................
1. Introducción.......................................................................................................
2. Percepción del movimiento real ........................................................................
3. Ilusiones de movimiento o movimiento aparente..............................................
3.1. Movimiento estroboscópico ......................................................................
3.2. Movimiento inducido ................................................................................
3.3. Movimiento autocinético...........................................................................
3.4. Postefectos de movimiento........................................................................
4. Perspectivas sobre la percepción visual del movimiento ..................................
4.1. Perspectiva ecológica o de la percepción directa ......................................
4.2. Perspectiva computacional ........................................................................
4.3. Bases neurales de la percepción visual del movimiento ...........................
5. Percepción auditiva del movimiento .................................................................
5.1. Psicofísica de la percepción auditiva del movimiento ..............................
5.2. Bases neurales de la percepción auditiva del movimiento ........................
Bibliografía comentada ..........................................................................................
13. El sonido y la arquitectura del sistema auditivo humano, Luis E. LópezBascuas .................................................................................................................
1. El sonido ............................................................................................................
1.1. Movimiento ondulatorio ............................................................................
1.2. Movimiento armónico simple....................................................................
1.3. Caracterización de la forma de onda generada por el MAS ......................
349
354
357
360
361
363
368
370
372
377
379
379
381
383
390
397
399
400
402
404
407
411
412
413
416
416
419
420
421
422
423
425
427
437
437
441
444
447
448
448
449
452
13
Atención y percepción
1.4. Sonidos complejos.....................................................................................
2. Arquitectura psicofísica del sistema auditivo humano ......................................
2.1. Filtros lineales ...........................................................................................
2.2. Enmascaramiento ......................................................................................
2.3. Bandas críticas...........................................................................................
2.4. La función de transferencia de modulación de las bandas críticas............
3. Mecanismos biológicos de implementación......................................................
3.1. Oído externo y oído medio ........................................................................
3.2. Oído interno...............................................................................................
3.3. Nervio auditivo ..........................................................................................
Bibliografía comentada ..........................................................................................
455
459
459
462
466
469
477
477
479
481
486
14. Percepción de la tonalidad y de la sonoridad, Luis E. López-Bascuas ......
489
490
492
496
510
510
514
516
1. Percepción de la tonalidad.................................................................................
1.1. La codificación de la tonalidad en sonidos simples ..................................
1.2. La codificación de la tonalidad en sonidos complejos ..............................
2. Percepción de la sonoridad ................................................................................
2.1. La codificación de la sonoridad en sonidos simples .................................
2.2. La codificación de la sonoridad en sonidos complejos .............................
Bibliografía comentada ..........................................................................................
15. Percepción del habla, Luis E. López-Bascuas ................................................
1. Representaciones espectográficas de la señal del habla ....................................
2. Correlatos acústicos de las categorías fonológicas............................................
2.1. Vocales ......................................................................................................
2.2. Consonantes...............................................................................................
3. Modelos de la percepción del habla ..................................................................
3.1. Un modelo acústico auditivo para la percepción de vocales .....................
3.2. Un modelo acústico auditivo para la percepción de consonantes oclusivas ...........................................................................................................
Bibliografía comentada ..........................................................................................
16. Percepción táctil y háptica, Soledad Ballesteros Jiménez ............................
1. Introducción.......................................................................................................
2. Bases fisiológicas y sensoriales del tacto ..........................................................
2.1. Características de la piel y de los receptores cutáneos ..............................
2.2. Las vías nerviosas del tacto y la corteza somatosensorial .........................
2.3. Psicofísica del tacto ...................................................................................
2.4. Umbrales sensoriales para el tacto ............................................................
3. Psicología del tacto: tacto activo y pasivo.........................................................
4. Percepción háptica de la forma..........................................................................
4.1. Percepción de formas realzadas.................................................................
4.2. Percepción de la simetría como propiedad de la forma.............................
5. Percepción y representación mental de objetos.................................................
5.1. La mano inteligente y los movimientos exploratorios ..............................
6. Memoria háptica ................................................................................................
7. Aplicaciones de las capacidades cutáneas y del tacto activo.............................
Bibliografía comentada ..........................................................................................
14
519
519
523
524
528
540
540
545
546
549
549
551
551
555
558
559
560
561
562
565
568
569
571
573
575
Índice
17. Percepción del tiempo y de la causalidad, Santiago Estaún Ferrer............
1. Introducción.......................................................................................................
2. La percepción del tiempo ..................................................................................
2.1. Elementos integrantes del tiempo..............................................................
2.2. Técnicas metodológicas utilizadas en el estudio de la percepción del
tiempo ........................................................................................................
2.3. El presente psicológico o la percepción del tiempo ..................................
2.4. De la percepción del tiempo al condicionamiento al tiempo o la regulación temporal de nuestra conducta ............................................................
2.5. La orientación en el tiempo y la gestión del mismo ..................................
3. La percepción de la causalidad..........................................................................
3.1. La causalidad mecánica: efectos de lanzamiento y de arrastre .................
3.2. La causalidad cualitativa ...........................................................................
3.3. La aportación computacional al estudio de la percepción de la causalidad ...........................................................................................................
Bibliografía comentada ..........................................................................................
18. Los sentidos químicos, Jordi Pich i Solé ........................................................
1. Clasificación de las sensaciones químicas ........................................................
2. Percepción olfativa ............................................................................................
2.1. El estímulo odorífero .................................................................................
2.2. El sistema olfativo .....................................................................................
2.3. La sensibilidad a los olores........................................................................
2.4. Cognición olfativa .....................................................................................
2.5. Olfato, emociones y juicios hedónicos ......................................................
2.6. El olor corporal..........................................................................................
3. Percepción del gusto..........................................................................................
3.1. Las cualidades primarias del gusto............................................................
3.2. El sistema gustativo ...................................................................................
3.3. La sensibilidad gustativa ...........................................................................
4. Percepción del sabor..........................................................................................
4.1. Identificación de sabores ...........................................................................
4.2. Determinación de la intensidad percibida .................................................
4.3. Efecto de los sentidos sobre las valoraciones hedónicas...........................
4.4. Preferencias y aversiones: bases biológicas y culturales...........................
Bibliografía comentada ..........................................................................................
19. Alteraciones perceptivas, David Travieso y Florentino Blanco..................
1. Estructura psicológica de la percepción ............................................................
1.1. Una aproximación funcional a los sistemas perceptivos ...........................
1.2. Percepción normal y percepción alterada..................................................
2. Alteraciones fundamentales del sistema visual .................................................
2.1. Alteraciones periféricas .............................................................................
2.2. Alteraciones centrales................................................................................
3. Alteraciones fundamentales del sistema auditivo y de la percepción del habla
3.1. Alteraciones de la conducción...................................................................
3.2. Alteraciones sensorio-neurales ..................................................................
4. Alteraciones fundamentales del tacto ................................................................
577
577
579
580
581
584
589
589
591
593
594
595
595
597
598
599
599
600
602
606
609
610
612
612
613
618
622
622
623
625
626
627
629
629
630
633
634
635
638
642
643
644
648
15
Atención y percepción
4.1. Alteraciones periféricas y centrales de la somestesia y la propiocepción .
4.2. Alteraciones periféricas y centrales de la exterocepción...........................
5. Alteraciones fundamentales de los sistemas químicos ......................................
5.1. Alteraciones de la función olfativa............................................................
5.2. Alteraciones de la función gustativa..........................................................
6. Alteraciones perceptivas en psicopatología.......................................................
6.1. Dimensiones objetiva y subjetiva del acto perceptivo ..............................
6.2. Tipología general de las alteraciones perceptivas psicopatológicas..........
6.3. Alteraciones perceptivas en algunos síndromes psicopatológicos ............
Bibliografía comentada ..........................................................................................
649
650
650
651
651
652
652
653
654
656
Referencias bibliográficas ..........................................................................................
659
Índice analítico .............................................................................................................
703
16
Relación de autores
Pilar Tejero Gimeno
Universitat de València
Juan Botella Ausina
Universidad Autónoma de Madrid
María Isabel Barriopedro
Universidad Europea de Madrid – CEES
Jaume Rosselló Mir
Universitat de les Illes Balears
Mateu Servera Barceló
Universitat de les Illes Balears
José E. García-Albea Ristol
Universitat Rovira i Virgili de Tarragona
Antonio Sánchez Cabaco
Universidad Pontificia de Salamanca
Florentino Blanco Trejo
Universidad Autónoma de Madrid
17
Atención y percepción
David Travieso García
Universidad Autónoma de Madrid
José A. Aznar Casanova
Universitat de Barcelona
Julio Lillo Jover
Universidad Complutense de Madrid
Antonio Crespo León
Universidad Nacional de Educación a Distancia (UNED)
Enric Munar i Roca
Universitat de les Illes Balears
Luis E. López Bascuas
Universidad Complutense de Madrid
Soledad Ballesteros Jiménez
Universidad Nacional de Educación a Distancia (UNED)
Santiago Estaún Ferrer
Universitat Autònoma de Barcelona
Jordi Pich i Solé
Universitat de les Illes Balears
18
Prólogo
Hay libros que representan, antes que nada, un nivel. Sobre todo cuando,
como ocurre en este caso, son obras colectivas que reúnen a un nutrido grupo de especialistas para dar una visión cabal de un campo complejo e importante. En efecto, permiten ver, sobre todo, la cantidad y la calidad de la
información poseída, el alcance de las reflexiones que con aquella se generan y la altura a que sus autores colocan el listón para cuanto ha de seguir.
Éste es uno de esos libros. Centrado sobre uno de los temas cardinales
de la Psicología —de todas las psicologías, empezando por la del lenguaje
común—, sobre el que han girado tanto la teoría como sus aplicaciones,
pone en manos del lector que se acerca a su estudio un importante cuerpo
de conocimientos desde donde hoy es preciso empezar. El parcelamiento
del tema que aquí se ha hecho es hoy un procedimiento usual. Y ha sido
posible porque hay ya en nuestro país unos grupos activos, dentro de los
que se mueven intensamente los autores de estos capítulos. Diseminados
por muchos departamentos universitarios, en la mayor parte de los casos,
están implicados en proyectos de investigación que envuelven, en una u
otra perspectiva, el problema de la percepción.
Sus coordinadores los profesores Enric Munar y Jaume Rosselló de la
Universitat de les Illes Balears y Antonio Sánchez-Cabaco de la Universidad Pontificia de Salamanca, han logrado una cooperación entre colegas
que ha sorteado los usuales peligros en este tipo de obras: han conseguido
evitar los excesos de superposiciones, de un lado, así como las rupturas de
una continuidad conceptual, resultantes de la fragmentación temática. De
19
Atención y percepción
esta manera, han llevado a cabo una obra valiosa y representativa, a la que
de modo insistente y generoso han querido que pudieran preceder estas breves líneas, que tal vez sólo se justifican por la atención sostenida que vengo
prestando desde hace años al desarrollo y crecimiento de la Psicología en
nuestro país. Valgan pues como testimonio de la significación de este estudio en el marco de una ya relevante tradición de investigación sobre este
tema, que podría ir encabezada por algunas páginas clásicas de Mariano
Yela sobre percepción de la causalidad física en la línea de los trabajos de
su maestro Albert Michotte.
El tema es tan central, tan nuclear para cualquier comprensión de lo humano, que la multiplicidad de puntos de vista llega a ser inevitable si se
quiere dar cabida a saberes tan diversos como la neurofisiología, la robótica, la psicología del desarrollo y la de los procesos básicos, la antropología
o la filosofía, que son algunos de los saberes cuya palabra es relevante en
su tratamiento.
La percepción es el complejo proceso que abre el sujeto a un mundo y le
proporciona representaciones que le informan acerca de éste, sea cual sea
el sentido y valor que luego quiera darse a los dos polos, objetivo y subjetivo, de esa relación. Todas las cuestiones ulteriores que han originado la
cultura, la filosofía, la ciencia, las artes, que impulsan los afectos y demandan algún tipo de acción o respuesta, surgen en el seno de la red de interacciones entre sujeto y mundo que la percepción establece, incluidas por supuesto, la relación con el propio cuerpo —propiocepción— y, por supuesto
incluidas, las relaciones interpersonales de un yo con un tú, o con los otros
—la percepción de personas, la percepción social.
Sobre este vasto campo han girado innumerables polémicas filosóficas y
científicas: entre el idealismo y el realismo —si hay o no un mundo exterior—; entre nativistas y empiristas —si aprendemos a percibir o lo hacemos según nuestro equipamiento orgánico heredado—; si es una función
pasiva, o activa, o interactiva, o constructiva…; si sólo percibimos, o al percibir también inferimos y pensamos; si percibe el hombre, y percibe el animal —y qué animales lo harían— y hasta qué punto de la escala filogenética no hay percepción y desde dónde ya la habría...; y cómo es la del niño, y
cómo evoluciona; y qué pasos pueden mediar entre la percepción y la interpretación, o entre la «materia» (hyle) y la «significación» (o logos) de
nuestros conocimientos sensibles; y también si sabemos de las percepciones inmediata y descriptivamente, o sólo podemos analizarlas de modo hipotético, mediante puros modelos conceptuales... Al considerar a fondo el
problema de la percepción reaparecen en toda su crudeza las posiciones básicas que han dado pie a la construcción de filosofías incompatibles, cosmovisiones conflictivas, ideas antitéticas sobre el hombre y su mundo.
La percepción, como algunos otros grandes problemas psicológicos, son
—parecen ser— supraparadigmáticos. Quiero decir que en ella parece haber un núcleo al que los conflictos teóricos dejan relativamente inafectado,
20
Prólogo
algo que podríamos llamar teoría psicológica de sentido común sobre la
percepción.
Se admite generalmente la idea de que los modelos en una ciencia, sobre
todo aquellos dominantes, que imponen orden y permiten la explicación y
la predicción, esto es, la superación del caos en un ámbito de fenómenos,
están sometidos a la caducidad y provisionalidad de las construcciones paradigmáticas. El horizonte fenoménico es esencialmente abierto y nunca
está íntegramente dado. A medida que aparecen nuevos hechos, que requieren su integración en el modelo, cambian las explicaciones, se sustituyen
las terminologías, unos conceptos dejan el sitio a otros, y, con el tiempo, los
modos mediante los cuales «salvamos los fenómenos o las apariencias»
—la expresión platónica que repitió para la moderna física Pierre Duhem a
comienzos de este siglo— resultan entre sí inconmensurables. Pero todo
ese ir y venir de conceptos complejos y delicados no afecta a un plano más
básico de interpretaciones psicológicas, que vienen en gran medida sostenidas por la lengua y por creencias irreflexionadas acerca del hombre y los
modos de su existencia. Es lo que nos sucede con la percepción.
Ya su etimología, percepción, perception, formas derivadas del percipere
latino (per-captare, captar o aprehender algo de modo suficiente o completo) muestra que es éste un término que contiene en germen el núcleo de una
más compleja explicación. El hablante posee, lingüísticamente, la idea de
una función aprehensora de cosas, objetos, realidades. En alemán la expresión es otra, pero en ella se acentúa un poco más, si cabe, esa función cognitiva: Wahrnehmung, captación de lo verdadero, de lo que hay y está dado
en el acto perceptivo. En español, no se olvide, llamamos también «percibir» a la recepción de un dinero o de unos bienes, recibidos por un «perceptor»: hasta tal punto está implicada la significación de apropiación en ese
concepto. Ya en el mundo antiguo, los estoicos, para referirse a las funciones perceptivas, las simbolizaron con la imagen de la mano que aprehende
algo y se cierra sobre lo capturado; dando un salto, en el siglo XIX, sir William Hamilton se refirió a la percepción —tanto interna como externa—
como facultad «presentativa», o «receptiva» o «adquisitiva» (Lectures on
Metaphysics, l.xxi), y acentuó lo adquisitivo que en ella parece haber; con
ello refrendó la tesis de que algo real, antes no poseído y que era exterior al
sujeto, entraba en relación con éste. Y aunque esa captación pudo mostrarse en ocasiones como alucinatoria —Taine preferiría pensar en la percepción como «una alucinación verdadera»—, ello no hizo sino evidenciar que
incluso en esta última su objeto es vivido por el sujeto percipiente como
«otro que yo», como realidad que se me impone, y, por tanto, que lo esencial radica aquí en esa estructura de objetualidad que abre un sujeto a un
objeto, y pone a éste ante aquél. La idea de «posesión» nos aclara y patentiza la estructura intencional que reconociera Brentano como esencial de
todo lo psíquico, que, según él pensaba, o es percepción o se basa en percepciones (Psychologie vom empirischen Standpunkt). El acto psíquico, el
21
Atención y percepción
fenómeno psíquico, es esencialmente un todo estructural: «donde no se
puede hablar de sujeto, no se puede hablar de objeto». Y hablar de objetos
implica hacerlo desde un determinado sujeto, situado siempre en una precisa perspectiva.
Quiere esto decir que, por debajo de las explicaciones ofrecidas por las
escuelas teóricas, nuestras lenguas ya nos ofrecen una inicial y rudimentaria interpretación del proceso, en el cual se integran, cuando menos, un sujeto, un cierto objeto y una incorporación de éste a aquél. Cosa distinta será
ya saber el modo y manera de realizar aquella apropiación; sobre ese punto,
las distintas psicologías discurrirán luego. Pero disponemos, por tanto, de
una primera y tosca teoría, que hace posible sentirse seguros sobre ese extremo del funcionamiento mental, sin que la sucesión de hipotéticas explicaciones ponga en crisis nuestra existencia cotidiana. Y no es ese término
sólo: al percibir «observamos» (vamos siguiendo —servare— lo que está
delante -ob), y «atendemos» (nos distendemos o tendemos —tendere— hacia —ad— algo), «advertimos» (nos orientamos —vertere— hacia —ad—
algo)… En suma, todas esas expresiones nos indican que nos hallamos en
una interacción, en una tensión con algo otro dado como objeto, distinto de
nosotros mismos, hacia lo que nos orientamos y polarizamos en un proceso
temporal que dura y se distiende en el tiempo, integrando, no obstante, una
unidad de acto de experiencia.
Vale esto para advertir que toda psicología, incluida la de la percepción,
ha de comenzar por delimitar el campo de fenómenos que pretende explicar; pero, usualmente, lo halla ya prefigurado en los términos de la lengua,
en los decires usuales, en la experiencia común. Por eso, ésta requiere un
preciso análisis descriptivo sobre el que luego habrá la ciencia de aplicar
sus métodos de trabajo.
Nuestro siglo se enriqueció con la contribución de la fenomenología,
que permitió precisar las dimensiones del acto de experienciar. Husserl se
refirió a la percepción como «conciencia de la presencia de un objeto individual en persona» (leibhaftigen). Y notó que esa presencia era correlativa
de una actitud «natural», desde la cual toma el hombre la realidad, la cual
«encuentro —es lo que quiere decir ya la palabra— como estando ahí delante y la tomo tal como se me da, también como estando ahí» (Ideen zu einer reinen Phänomenologie...).
La percepción es un proceso que sólo se describe correctamente cuando
se hace intervenir una amplia serie de niveles distintos de procesamiento de
los variados materiales que en el mismo entran. Nuestro encuentro con la
realidad en persona viene sostenido sobre una capa de contenidos sensoriales mediados por procesos psicofísicos, pero también sobre una serie de
creencias tácitas del sujeto, sobre lo que cree acerca de la objetividad, de la
realidad, de la naturaleza en cuanto tal, que proyecta de modo no consciente
a partir del nivel histórico y cultural en que su mentalidad se halla fundada
(Comte, Ortega). La fenomenología enseñó a poner entre paréntesis la
22
Prólogo
creencia acerca de lo real, para así atender a la pura condición fenoménica
del proceso, pero se necesita también de la historia para advertir los condicionamientos que nuestra cultura y nuestra sociedad introducen silenciosamente en nuestro modo de ver el mundo (Vigostki, Mead). Kant terminó
con la idea de un pasivo percibir en beneficio de una activa construcción
del conocimiento. Desde entonces, la Psicología ha convertido el estudio de
la percepción en el análisis de los mecanismos capaces de explicar aquella
construcción de los perceptos que aparecen en nuestra experiencia consciente. La atención, atraída inicialmente hacia aquellos aspectos sensoriales
de base con que la evolución ha dotado a nuestra especie, ha tendido a promover un claro predominio de las explicaciones de nivel psicofisiológico,
dejando un tanto en sombra aquellas otras más complejas, de significación
estrictamente psicológica y social, que intervienen en la percepción de
«nuestro mundo», de esos peculiarísimos objetos que son «los otros», y del
yo-mismo que percibe todo cuanto le rodea (el yo-conocedor de William
James). Esta percepción «mundana», ecológica (Brunswik), quedó por largo tiempo en las manos de los psicólogos aplicados, atentos siempre al valor de lo mental en relación con los innumerables mundos a los que se halla
abierto —la publicidad, el arte, la interacción social, la conducta vial, la
gastronomía, el enmascaramiento bélico, y tantos y tantos aspectos en que
se difracta y diversifica la percepción del hombre que vive en un mundo
concreto, histórico y social.
La percepción, o mejor, la acción percipiente, como concibió Luria, es
un proceso gradual en que se van produciendo reconstrucciones de la información que, inicialmente parcelada, se va acumulando en la experiencia y
se aproxima, creciente pero asintóticamente, a la realidad concreta de los
objetos vividos. Toda una serie de procesos, simultáneos y sucesivos, parecen ir interactuando para hacer posible la vivencia, aparentemente simple,
de una pura presencia.
Juan Ramón Jimenez escribió: «¡No le toques ya más, / que así es la
rosa!». Detrás de la total simplicidad de la presencia de la rosa hay muchos
y muy complejos procesos, que interesan y preocupan al psicólogo; procesos que, por otro lado, han de combinarse entre sí de modo que hagan posible aquella apariencia y su inicial presencialidad.
La Psicología de nuestro tiempo tiene ante sí la tarea de reconciliar lo
que, hace unos años, C. P. Snow dió en llamar las «dos culturas», la del
rigor científico y la del sentido humanista. No puede dar la espalda al
análisis lento y pormenorizado de los mecanismos hipotéticos que pueden dar cuenta de la forma de nuestra experiencia, pero tampoco puede
saltarse los matices, las peculiaridades que ésta presenta a los ojos cultivados, sensibles, del hombre moldeado por una cultura que entra ya en el
siglo XXI.
Este libro pone en manos de sus lectores y estudiosos un detallado examen de los primeros pasos hacia el conocimiento de la percepción. Espero
23
Atención y percepción
y deseo que sientan también la necesidad de ir dando pasos nuevos cada
día, a fin de lograr la comprensión cabal sobre el modo como el hombre se
abre a la realidad concreta y cotidiana, con la que tiene que hacer su propia
existencia.
Madrid, mayo de 1999
Helio CARPINTERO
Universidad Complutense
24
Presentación
El manual de atención y percepción que presentamos ha sido especialmente
concebido para los alumnos de Psicología que, en el marco de los nuevos
planes de estudio, cursan las materias de Atención y Percepción. Nuestro
propósito es ofrecerles un material que, aunando el enfoque didáctico y el
discurso ameno, la estructuración funcional y el rigor científico, constituya
un eficaz punto de apoyo para el estudio de los conocimientos que se imparten en dichas disciplinas. Desde su gestación, este proyecto pretendía
encajar plenamente en el proceso de reforma de los planes de estudio. Con
el tiempo, y dadas las adaptaciones a las que, paulatinamente, dichos planes
se han visto abocados, hemos ido matizando nuestros objetivos, procurando
que su evolución fuera esencialmente pareja y culminara en la convergencia
operativa deseada. Pasar del viejo cajón de sastre de las sólitas Psicologías
Generales a la segregación de los procesos psicológicos básicos en diversas
asignaturas, con docencia independiente y con una importante carga de créditos teóricos y prácticos, hacía necesario contar con materiales didácticos
actualizados y cuidadosamente adaptados, que respondieran tanto a las nuevas necesidades docentes como a las cada vez más perentorias demandas
del alumnado. Poco a poco, van apareciendo en el mercado algunas obras
que se adaptan a los requisitos, docentes y discentes, impuestos por unas
asignaturas de tan reciente creación, dirigidas tanto a su vertiente teórica
como a las prácticas correspondientes. Por nuestra parte, hemos querido
contribuir a ese proceso de renovación editorial poniendo al alcance de profesores y alumnos un manual de atención y percepción que conjugue debi-
25
Atención y percepción
damente los objetivos de escrupulosidad conceptual y actualización de conocimientos con una aproximación asequible y dotada de cierta interactividad, condiciones que consideramos preceptivas en una obra dirigida a los
estudiantes de un primer ciclo universitario.
En función de esas premisas fue diseñada esta obra, procurando no descuidar ningún factor, desde el contenido genérico a la presentación formal,
desde el diseño y organización de cada capítulo hasta el lenguaje utilizado,
desde la secuencia temática hasta el necesario gradiente de dificultad, desde las propuestas interactivas hasta la abundante utilización de ejemplos
ilustrativos en los aspectos que podían resultar más complejos; todo ello en
aras a facilitar al alumno una buena guía para introducirse en el estudio del
mecanismo atencional y los procesos perceptivos, esmerándonos especialmente en que, a la vez, fuera un texto útil y motivante, eficaz y fácilmente
comprensible para el alumno recién iniciado en los estudios de Psicología.
Todo ello sin descuidar, por supuesto, la exposición de las perspectivas teóricas más novedosas y la introducción a los paradigmas experimentales más
relevantes y vigentes en la psicología de la atención y de la percepción contemporáneas, cuestiones eludidas tan a menudo en un manual de estas características.
La presentación conjunta de las materias de Atención y Percepción responde, por un lado, al hecho de que ambas forman parte de la misma asignatura en muchas de nuestras universidades, aunque, bien es verdad, se dan
algunas excepciones. En el primer caso, Atención y Percepción suelen dar
lugar a una asignatura de carácter anual. En cambio, cuando son asignaturas independientes, suelen ser cuatrimestrales. El manual ha sido diseñado
para que pueda ser utilizado en ambos casos, procurando que la necesaria
complementariedad en la exposición de los dos procesos no fuera en detrimento de su autonomía. Por otro lado, la asociación de estos procesos obedece a razones de cariz científico-histórico, dado que el vínculo entre atención y percepción posee una larga tradición en psicología —recordemos el
legado del insigne William James— y, de hecho, hoy por hoy, la investigación y la modelización teórica que, en torno a ambos, se llevan a cabo desde diferentes ámbitos disciplinarios (psicofísica, neurociencia cognitiva,
formulaciones computacionales, etc.), sólo puede concebirse segregable
desde una perspectiva sumamente arbitraria. Así pues, ambas materias se
hallan intrínsecamente relacionadas a nivel conceptual y experimental, ya
desde los inicios de la psicología científica —de hecho, se podría decir que
esa relación es primordial y consubstancial—, y saber articularlas de forma
adecuada es un reto que no debemos evitar aludiendo a razones más coyunturales que estrictamente científicas. Pese a la progresiva (y necesaria) parcelación de los campos del saber, a la fragmentación de la labor investigadora del
psicólogo y a la ingente proliferación de micromodelos presuntamente explicativos; pese a la hiperespecialización hoy tan en boga; pese a que, además, esa segregación extrema se refleja fielmente en el diseño de los nue-
26
Presentación
vos planes de estudio —lo que, a nuestro juicio, supone un alto riesgo para
la integridad intelectual del estudiante si, a la vez, no se acompaña de la
oferta de visiones más comprensivas—, los que trabajan en estos temas sin
descuidar la perspectiva holística y sintética (como sería deseable y necesario), reconocen, implícita o explícitamente, la peculiar, y algunas veces indisoluble, relación entre el sistema atencional y el perceptivo.
Para afrontar el reto de la exigencia didáctica propuesta ha sido necesaria
una importante y esmerada labor de coordinación, que consiguiera dotar al
manual de una coherencia global partiendo de la uniformización de los criterios que debían seguir los autores en la elaboración de cada uno de los capítulos. La uniformidad de dichos criterios afectaba a las cuestiones estrictamente formales, al estilo de exposición y a todos los demás parámetros que
consideramos relevantes para que el resultado final fuera el pretendido.
Respecto a la estructura de los capítulos, cada uno de ellos se ajusta a
una secuencia formal que contempla los siguientes apartados:
— Resumen. Se ofrece al lector una perspectiva general del tema propio
de cada capítulo, de los principales conceptos, modelos o controversias que en él se desarrollan y de las conclusiones de mayor interés,
así como de la utilidad que puede deparar su lectura a la formación
del alumno.
— Desarrollo. Este apartado constituye el grueso de cada capítulo, organizándose en subapartados con el fin de presentar una articulación
temática fácilmente asequible. El contenido se relaciona, en la medida de lo posible, con el de los capítulos precedentes y consecuentes.
El texto viene acompañado de numerosas figuras, gráficos y tablas,
que ilustran la lectura y, en definitiva, hacen que el continente procure una mejor comprensión del contenido.
— Bibliografía comentada. Se destacan las obras más relevantes sobre
la materia específica que se ha desarrollado, siempre y cuando cumplan los requisitos que posibiliten una eventual profundización en la
temática que no resulte demasiado ardua para el estudiante. En la
medida de lo posible, y por mor del público al que va dirigido, se ha
dado prioridad a las referencias en castellano, acudiendo a las escritas en otros idiomas —básicamente en inglés— cuando el carácter
elemental de la obra así lo aconsejaba.
— Preguntas y ejercicios de revisión. Esta sección responde a la conveniencia de ofrecer un componente de interactividad en un texto de
estas características. Permite al alumno poner en práctica los conocimientos adquiridos, razonar sobre y a partir de ellos, y, eventualmente, relacionarlos con los estudiados en otros capítulos. Además, procura al alumno un medio de autoevaluación, una forma de obtener
un feed-back de los contenidos asimilados correctamente y de los aspectos que requieren mayor dedicación.
27
Atención y percepción
La obra consta de diecinueve capítulos, cuatro dedicados fundamentalmente al mecanismo atencional y quince al estudio de la percepción, todos
articulados por una ilación de complementariedad que da al manual la unidad y la cohesión tan necesarias en un trabajo de estas características. La
disposición de los capítulos sobre ambos procesos puede considerarse equivalente en el sentido en que su concatenación depende de criterios conceptuales similares. De este modo, se aborda, en primer lugar, el panorama histórico-conceptual del estudio de la atención (Capítulo 1) y de la percepción
(Capítulo 5). A continuación, se exponen sendos capítulos sobre los paradigmas experimentales más utilizados en la investigación empírica (capítulos 2 y 6). Posteriormente, se presentan los capítulos que conforman el núcleo de los temas más vigentes en el estudio de ambas materias. Por lo que
se refiere a la atención, se exponen, en el Capítulo 3, dos grandes perspectivas funcionales que responden a una distinción no exenta de arbitrariedad.
Se trata de las llamadas selección para la percepción y selección para la
acción. En este sentido, y debido a motivos que trascienden los objetivos de
este prefacio —que, para muchos, pueden resultar obvios—, la investigación sobre percepción nos brinda un campo de estudio más extenso. De
esta forma, los capítulos que van desde el 7 al 11, ambos inclusive, versan
sobre el estudio del sistema visual (principios básicos, contraste, color, organización visual, reconocimiento de patrones, profundidad y tamaño). El
Capítulo 12 trata sobre la percepción del movimiento y, aunque la información que nos ofrece gira primordialmente en torno al sistema visual, incorpora un novedoso apartado que hace referencia a la percepción auditiva del
movimiento. Los capítulos 13, 14 y 15 se dedican íntegramente al análisis
de la estructura y del funcionamiento del sistema auditivo. El estudio de la
percepción táctil y háptica ocupa el Capítulo 16, el de la percepción del
tiempo el 17, y el de los sentidos químicos el Capítulo 18. Por último, con
el objetivo de dar a la obra un cierto carácter pragmático, que permita al
alumno entrever la aplicabilidad de lo aprendido, se incluyen en cada uno
de los dos grandes bloques (Atención y Percepción) sendos capítulos dedicados a las alteraciones fundamentales de dichos procesos y a las inherentes a algunos de los grandes cuadros de la psicopatología y de la neurología
clínica (capítulos 4 y 19).
Durante los últimos años, el estudio del mecanismo atencional ha culminado en importantes transformaciones conceptuales y ha dado lugar a perspectivas inéditas y a la eclosión de nuevas aproximaciones a su estudio. En
los tres primeros capítulos, a la vez que se definen los términos y modelos
tradicionales en el estudio de la atención, se exponen los conceptos más novedosos y algunos de los enfoques teóricos recientes de mayor interés,
siempre reflejando las numerosas controversias y dilemas aún por resolver
y abundando en las disquisiciones que permitirán al lector aproximarse a
una concepción panorámica y genuinamente actual del mecanismo atencional. En este contexto, quizás quepa destacar la fecunda relación que vincula
28
Presentación
el estudio científico-básico de la atención y su vertiente aplicada, vínculo
especialmente fructífero en psicología clínica y psicología de la educación.
En el Capítulo 4 se profundiza en esta conexión biunívoca entre lo teórico y
lo aplicado, un enfoque que, a nuestro parecer, complementará de forma
valiosa la visión que sobre el tema atencional se haya ido formando el estudiante a través de la lectura de los capítulos anteriores.
Por otra parte, se ha buscado brindar una exposición lo más exhaustiva y
equilibrada posible de las diversas temáticas perceptivas. En algunos de los
manuales existentes en el mercado editorial se aborda tan sólo el estudio de
la percepción visual, sesgo que hemos procurado evitar en la obra que presentamos, en la cual, amén de exponer los conocimientos fundamentales
sobre percepción visual, creemos que se logra una exposición acertada de
los conocimientos esenciales sobre percepción auditiva, táctil, olfativa y
gustativa, incorporando, además, un original capítulo sobre percepción
temporal. Es cierto que, en el manual, los conocimientos sobre el estudio
de la percepción visual son los que ocupan una mayor extensión, hecho que
responde fundamentalmente al productivo desarrollo teórico-experimental
en este campo —lo que, a su vez, deriva de una mayor y más consolidada
tradición investigadora—, razón por la cual, en ningún caso, resultaba admisible obviar alguno de los tópicos relacionados con esta modalidad perceptiva. Por otro lado, se dedican tres capítulos completos a la percepción
auditiva, hecho poco habitual en un manual sobre percepción: el sonido y la
arquitectura del sistema auditivo humano, la percepción de la tonalidad y
de la sonoridad, y la percepción del habla. En un tercer bloque se describen
los conocimientos sobre otras modalidades: percepción táctil y háptica, olfato y gusto, y percepción del tiempo y de la causalidad.
Como norma, los capítulos sobre el estudio perceptivo siguen una pauta
de exposición similar respecto a la estructura interna de cada uno de ellos.
De esta forma, en la mayoría de ellos se exponen, en primera instancia, las
bases psicofísicas del sistema perceptivo concreto y, a continuación, su
aplicación fisiológica.
En conjunto, cabe enfatizar que, en cada capítulo, se sacan a colación
aplicaciones prácticas que ilustran los contenidos más teoréticos. Es otra
característica que dota a la obra, a nuestro entender, de ciertas posibilidades
de uso en la impartición de otros estudios universitarios con un carácter
más aplicado (Publicidad, Marketing o Bellas Artes). Asimismo, puede ser
útil para una potencial profundización de conocimientos en titulaciones
donde se trabaja a partir del conocimiento generado por la investigación
en procesos psicológicos básicos (Pedagogía, Magisterio, Psicopedagogía, etc.).
En definitiva, hemos procurado ofrecer al alumno una obra compacta y
cohesionada, útil y funcional, conceptualmente comprehensiva, denotativamente sencilla, connotativamente rica y provista de los recursos didácticos
que se hallaban a nuestro alcance; todo ello para conseguir un producto fi-
29
Atención y percepción
nal que constituya una guía valiosa y esencial para el alumno novel. El
tiempo —ese juez implacable— dirá si, después de todo, hemos conseguido algo de lo que pretendíamos.
Enric MUNAR
Jaume ROSSELLÓ
Antonio Sánchez CABACO
30
Primera parte
Atención
1. Panorama históricoconceptual del estudio
de la atención
Pilar Tejero Gimeno
Este capítulo pretende introducir al lector en el estudio de la atención, desde la óptica de la psicología cognitiva contemporánea. Para ello, se ha estructurado en dos apartados principales. El primero de ellos, desarrollado
bajo el título «¿Qué es la atención?», comienza explicando cuáles son las
funciones que desempeña este mecanismo cognitivo en el procesamiento
humano de información, a la par que adelanta someramente las cuestiones
que serán tratadas en los subapartados siguientes: los factores que determinan hacia dónde se orienta nuestra atención en un momento concreto, la
posibilidad de orientar encubiertamente la atención, las ventajas que supone la función selectiva de la atención para el procesamiento humano de información, la necesidad del control atencional en ciertas situaciones y condiciones, la acción preparatoria de la atención sobre estructuras de
procesamiento y su implicación en la ejecución de tareas prolongadas y,
por último, la delimitación de las redes cerebrales cuya actividad sustenta
el funcionamiento atencional. El segundo apartado ha sido titulado «Modelos teóricos sobre la atención» y en él se resumen y comentan las principales ideas que se han defendido sobre las funciones de la atención y sobre
los mecanismos mediante los que las desempeña, desde los años cincuenta
de nuestro siglo hasta la actualidad.
33
Atención
1.
¿Qué es la atención?
1.1
Funciones de la atención en el procesamiento humano
de información
Es posible que el lector haya sido amonestado en alguna ocasión por uno de
sus profesores por no estar atendiendo a sus explicaciones. Tal vez su conducta se produjo inintencionadamente, cuando algo distinto al discurso del
docente atrajo su atención. Quizá se sintió impelido a girar su cabeza hacia
la ventana de la clase cuando un coche deportivo se detuvo bruscamente a
la altura del semáforo. En cualquier caso, es casi seguro que el profesor recuperó su atención fácilmente, con sólo mencionar su nombre, sin que para
ello tuviera que variar las características de la voz que estaba utilizando en
su disertación.
Este ejemplo puede servir para introducir algunos de los diferentes significados denotados por la palabra atención y sus derivados. Así, el profesor reclama a sus alumnos que atiendan exclusivamente a lo que está explicando y, consiguientemente, que ignoren cualquier otro evento que pueda
suceder en el entorno de la clase; efectivamente, atender implica seleccionar una parte de la mucha y variada información externa que está disponible en un momento dado en cualquier situación. En el ejemplo utilizado, las
palabras del profesor contienen información, como también la contienen
los ruidos que se producen dentro y fuera de la clase, los gráficos dibujados
en la pizarra, el movimiento del brazo de un compañero que desea resolver
una duda... Al dirigir nuestra atención sobre las explicaciones del profesor,
favorecemos la identificación correcta de sus palabras y la comprehensión
de lo que pretende decirnos. En términos generales, se puede decir que mediante la atención logramos centrarnos en el análisis de una parte de la información que nos llega a través de nuestros órganos sensoriales, lo que facilita que las operaciones mentales necesarias para identificar y reconocer
esa información se produzcan eficientemente. Ello puede conseguirse en
realidad mediante dos tipos de mecanismos: por una parte, al atender al discurso del profesor, la información que éste nos proporciona se convierte de
alguna forma en la información prioritaria respecto al resto, lo cual facilita
que la analicemos con mayor detalle; pero también puede ser que la información a la que no atendemos resulte de alguna manera bloqueada o inhibida y, por ello, que el análisis de esta información no alcance el nivel que sí
consigue el de la información atendida.
A menudo, la información seleccionada lo es porque se adecua a la que
se desea recibir en ese momento, porque se ajusta a nuestros objetivos, motivaciones, intereses o expectativas actuales (factores internos al propio sujeto); así, el alumno motivado para seguir la explicación del profesor orienta fácilmente su atención hacia ella, a pesar de que sus compañeros más
próximos estén conversando animadamente sobre otros asuntos. Sin embar-
34
1. Panorama histórico-conceptual del estudio de la atención
go, en ocasiones, nuestra atención es atraída por eventos externos, prácticamente sin que medie intencionalidad por nuestra parte al menos, inicialmente, como puede ocurrir si aparece repentinamente la imagen de un vehículo en nuestra periferia visual o si alguien pronuncia nuestro nombre;
entonces, la información seleccionada lo es principalmente porque tiene
unas características concretas en los ejemplos mencionados, porque aparece de forma abrupta y porque tiene un significado personal especial, respectivamente. En el primero de los apartados que vienen después de esta
introducción se retomará y extenderá esta cuestión.
Tal vez su profesor no se conformó con reorientar su atención desde lo
que ocurría en el exterior de la clase hacia las explicaciones, sino que, además, le planteó alguna insidiosa pregunta sobre el tema que estaban estudiando. Pues bien, la atención también estuvo implicada en la actividad
mental y verbal que le permitió responderla, pues para hacerlo tuvo que seleccionar la información relevante disponible en su memoria y elaborarla
mediante las operaciones o los procesos necesarios para llegar a dar la respuesta correcta. Con este ejemplo se pretende incidir, en primer lugar, en
que la atención también interviene en la selección de información interna
al propio sistema de procesamiento humano —información en forma de
conceptos y sus interrelaciones, de imágenes, de planes de acción… En segundo lugar, con él se desea enfatizar que la atención también puede ejercer la importante función de controlar la actividad cognitiva y conductual
que nos permite alcanzar un objetivo; en el ejemplo, el de responder correctamente a una pregunta compleja. Más adelante se explica que una gran
parte de los procesos implicados en las actividades cotidianas no requieren
este tipo de control, pues pueden desarrollarse automáticamente, sin la supervisión de la atención. En cambio, hay procesos que sólo pueden desarrollarse con el control atencional.
La selección de información es una de las principales manifestaciones
de la atención, pero también hay otra fundamental: la reducción del tiempo
necesario para responder ante un evento esperado (LaBerge, 1995). Para
ejemplificar esta afirmación podemos seguir utilizando la situación anterior: si la respuesta que dio a la pregunta de su profesor no sólo fue correcta, sino también sorprendentemente rápida si se considera lo distintos que
eran sus pensamientos respecto a los contenidos de la clase sólo unos segundos antes, puede que influyera en ello que la mención de su nombre por
parte del profesor le hizo esperar de éste una pregunta inmediata. En general, cuando tenemos la expectativa de que va a ocurrir algo ante lo que hemos de dar una respuesta inmediata, responderemos con más rapidez que
cuando no lo esperamos. Esta ventaja temporal se atribuye a la acción preparatoria de la atención sobre los procesos que llevan a la selección y realización de nuestras respuestas. Por tanto, atender también significa estar
preparados anticipadamente para responder con rapidez a un evento y mantenerse en estado de alerta de forma prolongada hasta que éste se produce.
35
Atención
Es posible que el lector esté empezando a elaborar la idea de que los fenómenos relacionados con la atención son demasiado diversos. Precisamente por ello, hay quienes se declaran escépticos sobre la posibilidad de
encontrar una definición única que los incluya a todos y dudan de que tales
fenómenos puedan explicarse desde los mismos principios; opiniones recientes en este sentido aparecidas en manuales de psicología de la atención
las expresan, por ejemplo Elizabeth Styles (1997, p. 240), o Harold Pashler
y James C. Johnston (1998, p. 156). Sin embargo, en contra de esta postura
se puede argumentar que existe evidencia de que la atención funciona como un mecanismo unitario, si bien su estructura parece modular (Tudela,
1992). Es decir, hay razones fundadas para mantener que el funcionamiento
atencional implica la actuación coordinada de varios módulos o subsistemas, pues cada uno de ellos desempeña distintas funciones, pero existe una
estrecha relación entre todos ellos. Una gran parte de esta evidencia procede de investigaciones neurofisiológicas y neuropsicológicas recientes en las
que se utilizan técnicas propias de la psicología cognitiva experimental. Estas investigaciones revelan la existencia de un complejo sistema neural
cuya actividad se manifiesta fundamentalmente cuando la tarea que realiza
el individuo requiere de alguna manera su atención, el cual parece estar integrado por varias redes interrelacionadas de áreas cerebrales (Posner y Petersen, 1990; Posner, 1995). En un apartado posterior de este capítulo se especifica cuáles son las funciones atencionales específicas que aparecen
relacionadas con cada una de estas redes.
En definitiva, la atención es un complejo mecanismo cognitivo, cuyo
funcionamiento puede influir sobre la actividad de los sistemas mediante
los que obtenemos información del mundo exterior (sistemas sensoriales),
sobre los sistemas que realizan operaciones sobre la información procedente del exterior o de la memoria (sistemas cognitivos) y sobre los sistemas mediante los que ejecutamos conductas (sistemas motores). Con ello,
la atención desempeña funciones fundamentales para el desarrollo organizado de la actividad consciente, tales como la orientación de esta actividad hacia estímulos concretos, la detección de eventos sensoriales y de
contenidos de nuestra memoria o el mantenimiento del estado de alerta
durante el tiempo que se prolongue la tarea que estamos realizando (Posner, 1995). Por todo lo cual, la atención puede definirse como el mecanismo cognitivo mediante el que ejercemos el control voluntario sobre nuestra actividad perceptiva, cognitiva y conductual, entendiendo por ello que
activa/inhibe y organiza las diferentes operaciones mentales requeridas
para llegar a obtener el objetivo que pretendemos y cuya intervención es
necesaria cuando y en la medida en que estas operaciones no pueden desarrollarse automáticamente.
36
1. Panorama histórico-conceptual del estudio de la atención
1.2
Determinantes de la orientación atencional
Como ya se avanzó en el apartado anterior, en ocasiones, nuestra atención
se orienta hacia una estimulación concreta y no hacia otras guiada fundamentalmente por lo que deseamos obtener en la situación en la que nos encontramos, mientras que en otros momentos la orientación atencional está
determinada principalmente por las características de los estímulos de la situación. En la realidad, lo más frecuente es que ambos tipos de factores actúen conjuntamente (Yantis, 1998). Por ejemplo, si tenemos interés en
conocer cuál es el importe de una factura que acabamos de recibir, probablemente dirigiremos nuestra atención en primer lugar hacia el lugar de la
factura en donde sabemos que habitualmente aparece ese importe, destacado respecto a la información circundante por su letra negrita y por su mayor
tamaño. En este caso, nuestra atención se orienta hacia una estimulación
concreta guiada por nuestra expectativa de dónde aparecerá la información
que deseamos obtener y de cuáles serán sus características, pero también
influye en su orientación el hecho de que tales características hagan destacar a esa estimulación respecto al resto.
Los investigadores han diseñado tareas en las que se intenta minimizar
la influencia de nuestros objetivos y expectativas sobre la orientación atencional, con la finalidad de especificar con detalle cuáles son las características estimulares que tienen la capacidad de atraer automáticamente nuestra
atención. Seguidamente se comentan algunos trabajos realizados al respecto con tareas visuales.
1.2.1 Características visuales que atraen la atención
La detección de un estímulo visual con unas características concretas (estímulo-objetivo) dentro de una serie de estímulos que no las tienen (estímulos distractores) se enlentece si entre estos últimos se incluye alguno que es
radicalmente distinto a todos los demás en cuanto a características tales
como el color, el brillo o la orientación (distractor destacado). Por ejemplo,
si se pide a un sujeto que indique si está o no presente la letra A (estímuloobjetivo) en una matriz de letras B (estímulos distractores), tardará más en
dar su respuesta si todas las letras son negras incluida la A, si es que ésta
está presente excepto alguna o algunas B de color amarillo. En una situación como la descrita, la demora en la respuesta se atribuye a la atracción
que el color ejerce sobre la atención, que obliga a reorientarla desde el estímulo distractor coloreado hacia el estímulo que es realmente el objetivo
de la tarea, por lo cual, el tiempo total transcurrido para encontrar la A es
mayor que cuando no se incluyen distractores destacados.
Así pues, cuando un estímulo presenta alguna característica física que lo
destaca visualmente entre el resto de estímulos presentes, nuestra atención
37
Atención
tiende a orientarse hacia ese estímulo, a pesar de que nuestra intención sea
la de orientarla hacia otros estímulos definidos por características que contrastan menos con las del resto (Egeth y Yantis, 1997). Por ello, pese a que
nuestra intención cuando revisamos una factura sea la de conocer cuál es el
importe a pagar, puede que nuestra atención se oriente inicialmente hacia
estímulos irrelevantes con características destacadas, tales como un pequeño dibujo coloreado incluido en la factura con fines publicitarios. De hecho, ésta es una estrategia muy utilizada en la publicidad visual para atraer
la atención de los posibles usuarios del producto o servicio publicitado.
Por otra parte, nuestra atención también tiende a orientarse hacia los estímulos visuales que aparecen de forma abrupta. Así, aunque se esté bastante concentrado en la lectura de este capítulo, si se produjera repentinamente un destello de luz dentro de nuestra periferia visual, es muy probable
que éste capturara nuestra atención y por tanto que la lectura resultara interrumpida. Yantis y Jonides (1984) utilizaron un ingenioso procedimiento
para estudiar la influencia de esta característica estimular sobre la orientación atencional. Presentaron a un grupo de sujetos series con distinto número de letras, con la peculiaridad de que éstas eran el resultado de la iluminación de algunos de los segmentos que conforman el número 8 en la
pantalla de un reloj digital o de una calculadora (véase la Figura 1.1). En
cada ensayo había una que aparecía en una posición en la que inmediatamente antes no había ningún estímulo; es decir, surgía de forma abrupta.
Las restantes letras aparecían mediante el desvanecimiento de algunos de
los segmentos luminosos de figuras 8 completas, que acababan de ser presentadas durante un segundo, por lo que en estos casos no había inicio
abrupto, sino más bien una transformación de estímulos preexistentes. Tanto la letra de inicio abrupto como las resultantes de la transformación tardaban en aparecer el mismo tiempo. La tarea de los sujetos consistió en indicar si entre las letras presentadas en cada ensayo se incluía o no una letra
concreta, previamente especificada (letra-objetivo).
La proporción de ensayos en los que efectivamente aparecía la letra-objetivo fue de un 50 por ciento. Para evitar que los sujetos creyeran que el inicio abrupto de la letra estaba estrechamente relacionado con la tarea de encontrar la letra-objetivo y, por tanto, para evitar que dirigieran
deliberadamente su atención hacia la letra de inicio abrupto, ésta sólo era la
letra-objetivo en unos pocos ensayos (en concreto, en una proporción de ensayos igual a 1/número de letras presentadas). A pesar de ello, los sujetos
encontraban antes la letra-objetivo cuando ésta era la que aparecía de forma
abrupta o, a la inversa, los sujetos detectaban más lentamente la letra-objetivo cuando ésta aparecía como resultado de la transformación de un estímulo
preexistente. Además, cuando la letra-objetivo era la que se iniciaba de forma abrupta, el tiempo necesario para dar la respuesta no variaba aunque se
incrementara el número de letras presentadas, mientras que ello sí sucedía si
la letra-objetivo era una de las que aparecía como resultado del desvaneci-
38
1. Panorama histórico-conceptual del estudio de la atención
Figura 1.1
1984).
Ejemplo de estímulos utilizados por Yantis y Jonides (adaptado de Yantis y Jonides,
miento de partes de un 8. Estos resultados sugieren que la aparición abrupta
de la letra atraía automáticamente la atención del sujeto: la respuesta era
más rápida si esa letra era precisamente la letra-objetivo, pero era más lenta
en el caso de que no lo fuera, pues en este último caso había que redirigir la
atención desde la letra de inicio abrupto hacia las otras letras y examinar éstas para determinar si entre ellas se incluía la letra-objetivo.
Al parecer, no es necesario que haya un cambio considerable de luminancia para que nuestra atención se dirija automáticamente hacia donde aparece
abruptamente un estímulo, como de hecho sucedía en el experimento de
Yantis y Jonides que se acaba de describir. En efecto, en este experimento, la
aparición del estímulo de inicio abrupto suponía un incremento importante
de la cantidad de luz que llegaba a los ojos procedente del área en la que
surgía ese estímulo, puesto que antes de ello no había allí ningún estímulo,
mientras que la magnitud de la variación de luminancia en el caso de las letras que surgían como resultado de la transformación de figuras 8 era bastante inferior. A pesar de ello, Yantis y otros consideran que ése no es el factor esencial para que nuestra atención se oriente automáticamente hacia un
estímulo de inicio abrupto, sino que el estímulo constituya un objeto perceptivo nuevo en el campo visual, pues también los objetos de inicio abrupto
cuya luminancia es idéntica a la del fondo sobre el que aparecen logran captar la atención (por ejemplo, véase Yantis y Hillstrom, 1994).
1.3
Orientación abierta o encubierta
La orientación de la atención suele coincidir abiertamente con la de los
receptores sensoriales. Volviendo al ejemplo con el que se abría este capítulo, así ocurrió si su cabeza giró en dirección al lugar donde apareció el
39
Atención
vehículo que atrajo su atención. Con ese movimiento, sus ojos y sus oídos, en donde se ubican respectivamente los receptores visuales y auditivos, se orientaron de forma óptima para percibir lo que ocurría en el exterior, hacia la misma estimulación a la que se estaba dirigiendo su
atención. Sin embargo, aunque lo habitual es que nuestra mirada se dirija
hacia aquello sobre lo que ponemos nuestra atención, sabemos que a veces no se da esa coincidencia. Así, puede que en un momento concreto
quizá en muchas ocasiones un alumno esté mirando el gráfico que está
explicando su profesor, pero que su atención visual se oriente en realidad
hacia lo que está haciendo su compañero de mesa, encubiertamente. En
esta situación, la información visual seleccionada atencionalmente será la
correspondiente a las acciones del compañero y no la contenida en el gráfico.
Los investigadores han comprobado en el laboratorio que, efectivamente, la orientación de la atención visual puede ser distinta a la de los receptores visuales. Para ello se han utilizado cuidadosos procedimientos, mediante los que se controla la dirección de la mirada del sujeto mientras éste
realiza una tarea en la que se requiere que su atención cambie de orientación desde una posición del campo visual hasta otra próxima; por ejemplo,
puede pedirse al sujeto que intente mantener su mirada continuamente en
una posición fija del campo visual y al mismo tiempo que indique lo más
rápidamente posible cuándo detecta la aparición de cierto estímulo previamente determinado, el cual puede surgir en distintas posiciones ubicadas en
torno al punto de fijación. En estas investigaciones se restringen los movimientos de la cabeza y de los ojos de los sujetos y se registran mediante las
técnicas apropiadas los que puedan producirse, con el objetivo de determinar cuál es la posición de la escena visual a la que el sujeto estaba dirigiendo la mirada en cada momento. Así se ha comprobado, por ejemplo, que
aunque no se produzca ningún movimiento ocular hacia la posición donde
aparece el estímulo, los sujetos tienden a detectar éste más rápidamente
cuando inmediatamente antes de que aparezca se les ha indicado cuál era la
posición de la escena visual en la que probablemente aparecería, en comparación con los casos en los que no se da esa información y también con
aquellos en los que el estímulo aparece en una posición distinta a la indicada; es decir, cuando la información no es válida (Posner, 1980). Haciendo
caso de lo que se nos indica sobre el lugar en el que es probable que aparezca el estímulo, tendemos a orientar nuestra atención hacia esa posición,
encubiertamente, puesto que también se nos pide que no dejemos de mirar
a una posición prefijada. Gracias a ello, somos capaces de detectar el estímulo con mayor rapidez cuando aparece justo en la posición en la que hemos focalizado nuestra atención y, por la misma razón, somos más lentos
en detectarlo cuando, contrariamente a lo que se nos ha informado, aparece
en una posición diferente y relativamente alejada de la que constituye en
ese momento el foco de nuestra atención.
40
1. Panorama histórico-conceptual del estudio de la atención
En definitiva, la orientación de la atención visual está relacionada con la
orientación de los receptores visuales, pero no depende en exclusiva de la
de éstos. Es más, la orientación que adoptan en un momento concreto nuestros receptores visuales depende en parte de cuál es la orientación de nuestra atención. Por ejemplo, cuando leemos una línea de texto, nuestra atención tiende a orientarse hacia posiciones más avanzadas que aquellas en las
que estamos fijando nuestra mirada, gracias a lo cual los movimientos que
han de realizar nuestros ojos para fijar la mirada sobre palabras posteriores
a las que ya hemos leído —denominados movimientos sacádicos— pueden
planificarse y ejecutarse con mayor precisión. La atención ejerce en este
caso una acción preparatoria sobre los movimientos oculares, de manera
que la amplitud de cada uno de esos movimientos se ajustará a lo requerido
para que la lectura pueda progresar eficientemente (Stelmach, Campsall y
Herdman, 1997).
1.4
Beneficios de la selección atencional de información
Ya sea abierta o encubierta, y esté dirigida principalmente por nuestros objetivos o por las características estimulares, lo cierto es que la orientación
de la atención hacia una estimulación concreta consigue favorecer el procesamiento de la información proporcionada por esa estimulación, en
comparación con el que se realiza sobre la información obtenida a partir
de la estimulación no atendida. Gracias a ello, podemos responder más rápidamente y con mayor precisión a la información estimular que está siendo seleccionada atencionalmente que al resto de la información que recibimos en un momento concreto, lo que resulta beneficioso en la realización
de muchas tareas cotidianas. Así, cuando nuestra atención se orienta hacia
una estimulación concreta, controlamos la selección de la información necesaria para identificar correctamente un estímulo de entre los muchos
que pueden estar presentes, o para categorizarlo según su color, su tamaño
u otra característica, con lo cual se evita que la información que proviene
de otros estímulos pueda interferir con la que corresponde al estímulo-objetivo.
De hecho, se ha comprobado que si se perjudica la concentración selectiva de la atención sobre un objeto, se propicia la percepción de conjunciones de características que son en realidad ilusorias, entendiendo por tales
las combinaciones de características que no corresponden realmente a las
de los objetos. Por ejemplo, eso es lo que ocurre si nos parece haber visto
una T verde cuando en realidad se ha expuesto brevemente una T azul, una
O verde y una X roja. Este tipo de ilusiones se produjeron en un experimento realizado por Treisman y Schmidt (1982), en el que se instruyó a los
sujetos para que indicaran cuáles eran los dos dígitos que aparecían al principio y al final de una fila de tres letras; los dígitos eran siempre negros,
41
Atención
mientras que las letras siempre eran de color. Aunque ésta era la tarea prioritaria, también se pidió a los sujetos que indicaran en cada ensayo las letras
que hubieran podido ver y su color respectivo. En el caso de las letras, las
conjunciones ilusorias fueron numerosas, porque las instrucciones inducían
a los sujetos a prestar su atención fundamentalmente a los dígitos y, por
tanto, no se atendía selectivamente a las combinaciones de características
que presentaban aquéllas.
Aunque en los apartados previos se haya aludido exclusivamente a la selección de información estimular externa —y prácticamente sólo a la visual—, no debe olvidarse que la atención también puede orientarse hacia
información interna al propio sistema de procesamiento humano con lo que
cumple una importante función en el control de la actividad cognitiva y
conductual. Esta cuestión está recibiendo un interés creciente en los últimos años por parte de los investigadores. Al igual que la selección de información externa favorece la rapidez y la precisión de la realización de tareas
perceptivas, la selección de información interna sobre la acción (mental o
motora) que pretendemos realizar en un momento concreto también propicia una realización rápida y precisa de esa acción (LaBerge, 1995). Por
ejemplo, la resolución eficiente de un problema matemático complejo requiere una selección atencional ordenada de los subobjetivos que permitirán alcanzar la solución final y de las operaciones concretas que llevarán a
cada uno de los subobjetivos.
La selección de información sobre una acción es particularmente necesaria cuando deben coordinarse distintas acciones, como en el caso de la resolución de un problema difícil, o cuando tenemos que hilvanar varias ideas
para responder a la pregunta que nos acaba de plantear el profesor, o si pretendemos guardar la mayor cantidad posible de objetos dentro de una gran
caja; en tales casos, es fundamental el desarrollo ordenado de la secuencia
de acciones que llevarán finalmente a alcanzar el objetivo deseado, por lo
que, si no se dispone en la memoria de un plan de acción específico para la
situación, habrá que seleccionar atencionalmente la información sobre la
acción concreta que es apropiada en cada momento.
Asimismo, este tipo de selección es importante cuando existen otras posibles acciones disponibles en la situación, pues en tales casos debe evitarse
que éstas interfieran en la realización de la acción pretendida; por ejemplo,
¿alguna vez se ha encontrado el lector intentando meter la ropa sucia en la
nevera en lugar de en la lavadora? Si dudó de su higiene mental en esos
momentos, a buen seguro que fue demasiado lejos, pues éste es simplemente un ejemplo de lo que se denomina acto fallido: una acción que se ejecuta
justo cuando se pretendía llevar a cabo otra diferente. Una posible explicación para ello es que su conducta en esa situación estuvo fundamentalmente determinada por sus esquemas mentales sobre cuáles eran y cómo tenía
que realizar las acciones que le conducirían a lograr su objetivo (en el
ejemplo, estas acciones consistirían en acercarse a la cesta de la ropa, abrir-
42
1. Panorama histórico-conceptual del estudio de la atención
la, sacar la ropa, abrir la puerta de la lavadora, meter la ropa dentro de
ella…), hasta el punto de que no prestó la atención necesaria para realizar
una de esas acciones sobre la puerta de la lavadora y no sobre la de la nevera. Por tanto, nuestra conducta puede resultar desorganizada e ineficaz si no
prestamos atención al desarrollo de las acciones que la necesitan, incluso
aunque sólo la requieran en alguna o algunas de las fases que llevan al logro de nuestros objetivos. Pero con ello nos introducimos ya en la cuestión
tratada en el siguiente apartado: la función de control de la actividad mental
y conductual que ejerce la atención.
1.5
Automatización y control atencional
En la introducción de este capítulo se especificaba que muchos de los procesos implicados en nuestra actividad cotidiana pueden desarrollarse sin
necesidad de control atencional. Por ejemplo, si se domina la escritura mecanizada, no es necesario prestar atención a muchas de las operaciones implicadas en la acción de escribir mediante el teclado de un ordenador. Podemos
escribir a la vez que centramos nuestra atención sobre la argumentación
que se expone en el texto que estamos copiando, o sobre cuáles son las frases más adecuadas para expresar la idea que «nos ronda por la cabeza».
Aunque así lo hagamos, los movimientos de los dedos se producen de forma ágil, en el orden correcto, de manera que la escritura se produce a una
buena velocidad y con bastante precisión. No es necesario atender a todos y
cada uno de esos movimientos; de hecho, si se hace, la escritura puede ser
menos eficiente. Tampoco hace falta poner demasiada atención sobre el
proceso necesario para enmendar un error en la escritura de alguna palabra:
en cuanto lo advertimos, lo enmendamos rápidamente, borrando las letras
necesarias y escribiendo las adecuadas. En definitiva, estos procesos pueden producirse de forma automática, sin control atencional, ante la mera
presencia de la estimulación (si se está copiando un texto, los estímulos son
las imágenes visuales de las palabras que lo componen; si se está escribiendo sin texto, lo son las representaciones mentales de las palabras que integran la idea en la que estamos pensando).
En cambio, hay procesos que sólo pueden desarrollarse bajo el control
de la atención. Ya se ha puesto dos ejemplos de ello en el párrafo anterior:
los procesos mentales necesarios para comprender una argumentación y los
que se requieren para expresar ideas mediante el lenguaje. Estos procesos
no pueden ocurrir sin prestarles atención y, por ello, difícilmente podemos
simultanearlos con los requeridos por otras actividades que también la exigen; así, será prácticamente imposible comprender el texto estrictamente al
mismo tiempo que pensamos en cómo expresar nuestra idea. Sin embargo,
será relativamente fácil realizar cualquiera de ellos de forma concurrente
con alguna actividad que pueda desarrollarse en gran medida automática-
43
Atención
mente, como puede ser la escritura mecanizada. En general, el control atencional suele ser necesario cuando la tarea es compleja o novedosa, mientras
que no lo es cuando se trata de una tarea bien aprendida o rutinaria. En términos cognitivos, la atención ha de controlar los procesos necesarios para
alcanzar un objetivo cuando no se dispone en la memoria del plan de acción específico requerido para alcanzarlo —por ejemplo, porque la situación presenta elementos desconocidos para el individuo o porque todavía
no se ha practicado lo suficiente las acciones apropiadas para afrontarla—,
así como cuando la propia situación favorece la realización de acciones que
nos desvían de su consecución —por ejemplo, como ocurre en una tarea
tipo Stroop, según se explica al final de este apartado (Shallice y Burgess,
1993).
En realidad, la investigación indica que esta distinción es más bien gradual y no tanto una dicotomía estricta (Tudela, 1992), de tal forma que hay
procesos que están totalmente automatizados y otros que se producen exclusivamente bajo el control atencional, pero también los hay que son sólo
parcialmente automáticos, en mayor o en menor medida. Asimismo, hay
procesos que ocurren siempre de forma automática porque así lo permiten
las características propias del sistema de procesamiento humano (por ejemplo, los que subyacen a la acción de andar a lo largo de un camino), mientras que en otros casos es la práctica consistente y reiterada de una tarea o
de una combinación de tareas la que puede llevar de forma gradual a la automatización de los procesos implicados en tales tareas; por tanto, un proceso que inicialmente sólo podía desarrollarse bajo el control atencional
puede acabar produciéndose automáticamente con la práctica. Un ejemplo
frecuentemente utilizado es el de la conducción: los procesos que se desarrollan durante algunas tareas implicadas en la conducción de un vehículo pueden automatizarse según se va adquiriendo experiencia; por ejemplo,
la utilización adecuada de la caja de cambios apenas requiere la atención
del conductor experto. Otro ejemplo común es la lectura: el niño progresa
en la lectura comprehensiva a medida que puede centrar su atención más
sobre el significado de lo que lee que en la identificación de cada una de
los símbolos, gracias a que esta identificación se va liberando con la práctica de la necesidad de control atencional.
También hay ejemplos provocados experimentalmente, como el que lograron obtener Spelke, Hirst y Neisser (1976) con dos voluntariosos estudiantes, que consintieron en practicar la lectura de historias a la vez que escribían palabras al dictado, durante un total de 85 horas, distribuidas a lo
largo de 17 semanas. Aunque al principio la lectura era muy lenta y la escritura también resultaba perjudicada, la ejecución en ambas tareas fue mejorando con la práctica, hasta el punto de que al final del experimento ambos sujetos no sólo eran capaces de leer las historias a una velocidad
normal y a la vez escribir lo que se les dictaba, sino que también demostraban haber comprendido lo que habían leído y hasta podían escribir la cate-
44
1. Panorama histórico-conceptual del estudio de la atención
goría a la que pertenecían las palabras que se les dictaban, en lugar de las
propias palabras.
Paradójicamente, la automatización de un proceso puede, en ocasiones
acarrear algunas desventajas. Entre los datos que pueden ejemplificar esta
afirmación están los obtenidos en tareas de tipo Stroop, denominadas así
porque pretenden provocar un efecto similar al que comprobó J. R. Stroop
en los años treinta. Este efecto se manifiesta cuando se pide a un sujeto que
diga lo más rápidamente posible el nombre del color de la tinta con la que están impresas una serie de palabras y hay una contradicción entre el nombre
del color (dimensión-objetivo en la tarea) y el significado léxico de la palabra (dimensión irrelevante en la tarea); por ejemplo, cuando se ha de decir
«azul» porque ése es el color de la tinta, pero la palabra escrita es «rojo».
En estos casos, las respuestas de los sujetos se demoran y a veces son erróneas —siguiendo con el ejemplo anterior, el sujeto puede decir «rojo»—, lo
cual no se produce si no existe la contradicción. El efecto se atribuye a la
interferencia entre el procesamiento de la información a la que se debe
atender el color de la tinta y el de otra información también contenida en la
estimulación —el significado de la palabra. Esta última información es
irrelevante para realizar la tarea de nombrar el color de la tinta, pero su procesamiento ocurre de forma automática, por lo que, cuando se trata de una
información conflictiva con aquella a la que se debe atender, la ejecución
de la tarea resulta perjudicada. Así pues, a pesar de que la intención del sujeto sea la de ignorar la información irrelevante, difícilmente puede evitar
ser consciente del significado de las palabras impresas; a no ser que sea
analfabeto o las palabras estén escritas en un idioma que desconoce, pues
en tales casos no se producirá un procesamiento automático del significado. En general, cuanto más práctica se tenga en el procesamiento de una dimensión del estímulo, más probable es que tal procesamiento interfiera con
el de otras de sus dimensiones (MacLeod, 1991).
1.6
Preparación atencional y mantenimiento del nivel de alerta
Nuestra atención puede cambiar su orientación rápidamente, pasando de estar centrada en una información a estarlo en otra en un tiempo muy breve
(de milisegundos). Pero también es cierto que, frecuentemente, la orientación de la atención se mantiene invariable durante un cierto tiempo. Así
ocurre cuando creemos probable que suceda cierto evento que nos interesa:
por ejemplo, si advertimos una señal de tráfico triangular en la que se representan las siluetas de unos niños corriendo, nos esforzaremos por mantener nuestra atención en la calzada durante todo el tiempo en que circulemos por ese tramo. Con ello, nos preparamos para reaccionar con rapidez
en el caso de que algún pequeño la invada repentinamente. De hecho, cuando se recibe alguna información avisando de la próxima aparición de un
45
Atención
evento en cierto lugar, el tiempo necesario para reaccionar ante éste tiende
a ser menor que cuando no se dispone de esa clave previa, pues esa información nos induce a orientar la atención hacia el lugar en el que se producirá el evento antes de que éste se produzca. Así se comprobó en un experimento que ya ha sido referido en un apartado anterior, realizado por Posner
y cols. (véase Posner, 1980): cuando se indicaba a los sujetos el lugar en el
que era probable que apareciera el estímulo-objetivo, inmediatamente antes
de que lo hiciera, los sujetos lo detectaban más pronto (como media, unos
30 milisegundos antes que cuando no se proporcionaba ninguna información previa sobre el lugar en el que podía aparecer el estímulo); en contrapartida, si la información proporcionada no era válida, porque indicaba un
lugar distinto a aquel en el que realmente iba a aparecer el estímulo, se observaba un coste en la velocidad de detección cuya cuantía era incluso mayor que la del beneficio que conllevaba la información válida (en concreto,
en estos casos se detectaba, como media, unos 50 milisegundos más tarde
que si no se daba ninguna información previa).
En situaciones como las que se acaban de describir, se considera que la
mayor rapidez a la hora de detectar el evento es posible gracias a la acción
de la atención sobre las estructuras específicamente encargadas del procesamiento de la información requerida para responder al evento que esperamos que ocurra. Dado que la probabilidad de cometer respuestas erróneas
puede ser algo más elevada en estos casos, se considera que la atención actúa fundamentalmente sobre los procesos de selección y realización de respuestas (Posner, 1978). Así pues, al focalizar nuestra atención sobre el lugar en el que es probable que suceda el evento, se logra la preparación
anticipada del procesamiento necesario para responder ante el mismo. En
términos neurofisiológicos, esta preparación se operativizaría como un incremento en la actividad de las áreas cerebrales que sustentan el procesamiento de esa información (LaBerge, 1995).
Algunas actividades pueden exigir mantener la atención a la espera de
un posible evento durante un tiempo bastante largo, incluso hasta varias horas, pues ese evento suele ocurrir sólo ocasionalmente y su aparición es
prácticamente impredecible para el individuo. A este tipo de tareas se les
conoce como de vigilancia. Un ejemplo característico es la que tiene que
desempeñar el operador de un radar militar. El rendimiento del individuo
en este tipo de tareas depende de su capacidad de mantener la atención de
forma prolongada sobre el entorno en el que puede aparecer el evento-objetivo; a esta función atencional se le suele denominar atención sostenida. En
general, la probabilidad de detectar correctamente el evento-objetivo en
este tipo de tareas varía a lo largo del tiempo transcurrido desde que se inició la tarea, de tal forma que es típico observar una función decreciente: es
decir, cuanto mayor es el tiempo transcurrido, menos detecciones correctas
se producen (Mackworth, 1948). Sin embargo, este fenómeno puede ser
más o menos acusado, dependiendo de características personales del indivi-
46
1. Panorama histórico-conceptual del estudio de la atención
duo y de las de la tarea de vigilancia concreta que tenga que realizar (Koelega, 1996).
1.7
Anatomía del sistema atencional
Nuestros conocimientos sobre las estructuras anatómicas del sistema nervioso que posibilitan la atención derivan de estudios bastante recientes y
son todavía incompletos, debido a la gran dificultad que supone obtener datos de la actividad de esas estructuras mientras se está realizando una tarea
atencional. En la actualidad se utilizan básicamente dos tipos de técnicas:
en el caso de las personas se obtienen imágenes de las áreas nerviosas que
se activan durante la tarea mediante resonancia magnética funcional o con
tomografía por emisión de positrones; en animales se pueden realizar también registros de la actividad de neuronas aisladas mediante microelectrodos. Los datos derivados de estos estudios indican que existen áreas del sistema nervioso central que están implicadas específicamente en distintas
funciones atencionales (Posner y Petersen, 1990; Posner, 1995). Así, el lóbulo parietal posterior (en la corteza cerebral), el colículo superior (en el
troncoencéfalo) y el núcleo pulvinar (en el tálamo) forman parte de una red
posterior de áreas cerebrales que sustenta nuestra capacidad de orientar la
atención desde una posición a otra del campo visual. Cada una de estas
áreas podría ser la base de una operación distinta de las que intervienen en
la orientación: el desenganche de la atención respecto a la posición inicial
estaría relacionado con el lóbulo parietal posterior; el desplazamiento de la
atención desde la posición inicial hasta la nueva posición focalizada lo estaría con el colículo superior, y la focalización atencional sobre la nueva posición lo estaría con el núcleo pulvinar. Por otra parte, las zonas anteriores
y de alrededor del giro cingular (en el lóbulo frontal medio de la corteza
cerebral) forman la red anterior, que se relaciona con la detección de estímulos y con el control atencional de nuestras acciones. Asimismo, existen
datos que apuntan a la existencia de una tercera red: la llamada red de vigilancia en la que interviene especialmente, entre otras regiones del hemisferio derecho, un área del lóbulo frontal derecho, que propicia el mantenimiento del estado de alerta posiblemente gracias a la implicación de vías
noradrenérgicas que se originan a nivel del locus coeruleus, en el tronco
encefálico. Así pues, la base neural de la alerta responde a una asimetría interhemisférica, siendo mayor la implicación del hemisferio derecho.
Todavía son más recientes los esfuerzos para determinar cuál es el circuito de la actividad de esas redes. Dicho de forma muy simple, estas investigaciones pretenden concretar en qué momento interviene cada una de
las estructuras anatómicas integradas en cada red cuando se lleva a cabo
una tarea que requiere atención. En ellas se conjugan los resultados de la
aplicación de técnicas anatómicas como las mencionadas en el comienzo de
47
Atención
este apartado con los derivados del registro de potenciales evocados mediante un gran número de electrodos colocados en la superficie craneal
(Posner y Tudela, 1997).
2.
Modelos teóricos sobre la atención
2.1
Introducción
Nuestros conocimientos actuales sobre la atención son el fruto de numerosas, complejas y a menudo sorprendentemente ingeniosas investigaciones.
Las pioneras se remontan a los mismos inicios de la psicología científica,
fechados convencionalmente a finales del siglo XIX. De hecho, los fenómenos atencionales acapararon una gran parte del interés de aquellos primeros
psicólogos, entre los que es obligado reconocer, como mínimo, a Wilhem
Wundt, Oswald Külpe, Edward B. Titchener, William James, W. Pillsbury...
(Rosselló, 1997).
En cambio, lo que había sido un área central de la investigación psicológica dejó drásticamente de serlo entre los años veinte y cincuenta de
nuestro siglo, debido al predominio de un enfoque distinto sobre lo que
debía ser objeto de estudio de la psicología y sobre cuáles debían ser sus
métodos: el del conductismo. Según este enfoque, no sólo la atención,
sino también cualquier otro concepto que estuviera esencialmente definido por su naturaleza mental, sobraba en una psicología científica (Watson,
1913). En realidad, este duro bloqueo hacia la investigación de fenómenos
atencionales empezó a suavizarse hacia finales de los años cuarenta
(Lovie, 1983). Pero, como se explica en el siguiente apartado, por aquel
entonces ya se estaba gestando lo que pronto iba a llegar a ser el nuevo
paradigma dominante en la psicología científica, el de la psicología cognitiva, en el que los procesos y mecanismos mentales se asumieron como
conceptos con un valor explicativo fundamental. Con ello empezaba la era
moderna de la psicología de la atención, a cuyo desarrollo se dedican los
siguientes apartados.
2.2
El estudio de la atención desde el paradigma cognitivo
Fueron varios los factores que propiciaron el nacimiento y la consolidación
de una psicología cognitiva cuyo enfoque predominante ha sido el conocido
como del procesamiento de información (véase Vega, 1984, Cap. 1; Ruiz
Vargas, 1994, pp. 29-34); entre ellos, la teoría matemática de la comunicación, formulada a finales de los años cuarenta por C. E. Shannon y W. Weaver. Su impacto indujo a una serie de psicólogos a utilizar esta teoría para
describir y explicar cuestiones de índole psicológica. La teoría de la infor-
48
1. Panorama histórico-conceptual del estudio de la atención
mación planteaba un modelo del proceso de la comunicación que incluía un
emisor, un receptor y un canal a lo largo del cual se transmitía información
entre ambos; aquellos psicólogos empezaron a utilizar la metáfora de considerar al ser humano como un canal de capacidad limitada que transmite información. El desarrollo de la tecnología informática favoreció que esa primera metáfora fuera pronto sustituida por la del ordenador: el ser humano
transmite y procesa; es decir, modifica mediante diversas operaciones o
procesos cognitivos información en forma de representaciones mentales, de
manera funcionalmente análoga a como lo hace un ordenador (véase Crespo, 1997, p. 36 y Cap. 7).
Desde entonces, los psicólogos han propuesto numerosos modelos de
procesamiento humano de información, entendiendo por ello descripciones
teóricas de cuáles son las fases a través de las que se produce ese procesamiento (Massaro y Cowan, 1993). En lo que concierne a la investigación
atencional, el primer modelo que utilizó este enfoque fue elaborado por
Donald E. Broadbent (1958), a quien no sólo ha de considerarse pionero,
sino también un influyente inspirador de la investigación cognitiva posterior. Como se explica más adelante, Broadbent propuso que el sistema humano de procesamiento de información incluye una fase de filtrado que reduce de alguna forma la cantidad de información que será procesada
ulteriormente; con ello incorporaba en su modelo la función selectiva de la
atención.
Los modelos que se han defendido después del de Broadbent son muchos y muy variados, pero su revisión puede simplificarse si se agrupan según las ideas básicas que comparten. Así, es posible distinguir un primer
tipo de modelos, a los que se suele aplicar etiquetas como de filtro, estructurales o de canal único, entre los que se incluyen el propio de Broadbent y
otros posteriores que coinciden en analizar la atención fundamentalmente
como selección de información; las principales contribuciones al respecto
están recogidas en el subapartado 2.2.1. En la década de los setenta proliferan las investigaciones sobre la distribución de la atención entre distintas
tareas y, con ello, modelos que inciden principalmente sobre la intensidad
de la atención que se presta en una tarea concreta; de entre estos modelos,
los de más impacto son los que comparan la atención con una especie de
recurso o recursos que pueden ser necesarios para que se complete el procesamiento de la información, los cuales son comentados en el subapartado
2.2.2. Hacia finales de los años setenta, algunos teóricos discuten la idea de
capacidad limitada de procesamiento que subyace tanto a las teorías del filtro como a las de recursos, discusión que derivará en una conceptualización
de la atención como una serie de mecanismos de selección que operan para
garantizar la coordinación y el control de nuestras acciones; esta perspectiva se presenta brevemente en el subapartado 2.2.3. Por último, en el subapartado 2.2.4. se intentan describir las aproximaciones teóricas más destacables formuladas en los últimos años.
49
Atención
2.2.1 Modelos de filtro
La mayoría de las primeras investigaciones sobre atención realizadas desde
el enfoque del procesamiento de la información se desarrollaron con el objetivo de determinar las limitaciones del procesamiento humano cuando la
información recibida es múltiple y diversa. Imagínese el lector lo que le
puede ocurrir a un controlador aéreo en una situación cotidiana de su trabajo si recibe más de un mensaje verbal al mismo tiempo desde distintos
aviones, o si a la vez que le llega algún mensaje surge también alguna señal
visual en su pantalla que le informa de algún evento relevante. Este es un
ejemplo sencillo del tipo de problemas que demandaron la intervención de
los psicólogos en los años cincuenta, los cuales sirvieron de acicate para
abrir una línea de investigación sobre los mecanismos de la atención humana que, a medida que se ha ido desarrollando, ha ampliado considerablemente la complejidad de sus análisis.
La técnica más utilizada en esos primeros trabajos de investigación fue
la escucha dicótica. Ésta consiste en la presentación simultánea mediante
auriculares de sendos mensajes, generalmente uno distinto por cada uno de
los oídos. Pronto se comprobó que es muy difícil dividir la atención entre
dos mensajes recibidos dicóticamente, a veces prácticamente imposible. En
cambio, la ejecución de los sujetos en tareas de seguimiento —repetición
en voz alta de uno de los mensajes, según se va recibiendo—, indicaba que
es relativamente fácil atender selectivamente a uno de ellos, especialmente
cuando se trata de un mensaje semántica y gramaticalmente correcto —en
comparación con el caso de que sean listas de palabras o, más difícil todavía, listas de sílabas sin sentido— y también cuando se maximizan las diferencias de naturaleza física entre los dos mensajes, tales como el timbre de
la voz que emite cada uno de ellos o la velocidad con la que se presentan
los estímulos.
Pero lo más interesante de la cuestión de la selección atencional resultó
ser precisamente su reverso: la investigación de lo que sucede con la estimulación a la que no se ha prestado atención. Los primeros resultados obtenidos indicaban que los sujetos no eran capaces de recordar prácticamente
nada del mensaje al que no habían atendido— el irrelevante para la tarea de
seguimiento. Sin embargo, si se introducían ciertos estímulos en el mensaje
irrelevante se producían errores o fallos en el seguimiento del otro mensaje,
lo que sugería que se producía algún procesamiento de la información irrelevante. Los estímulos que se revelaron como capaces de conseguir atraer la
atención hacia el canal que no estaba siendo atendido parecían ser exclusivamente de naturaleza física, como un cambio notable en el timbre de la
voz (por ejemplo, cuando la voz emisora del mensaje irrelevante pasaba de
ser la de un hombre a ser una voz de mujer o al contrario) o la aparición de
un sonido inesperado en medio del mensaje verbal. En cambio, las consecuencias de un cambio de idioma en el mensaje irrelevante eran práctica-
50
1. Panorama histórico-conceptual del estudio de la atención
mente nulas, como también lo eran si se producían cambios semánticos en
el mismo (por ejemplo, pasar de dar lectura a un fragmento de una historia
a otro fragmento de una historia distinta).
El modelo propuesto por Broadbent en Perception and Communication
(1958) pretendía dar cuenta de todos esos resultados. Según este modelo,
nuestras dificultades para atender simultáneamente a dos mensajes dicóticos se debe a que el sistema perceptual— una de las estructuras que participan en el procesamiento de la información— tiene una capacidad de procesamiento limitada: sólo puede procesar hasta una cierta cantidad de
información en una unidad de tiempo. Por ello, la capacidad del sistema
perceptual suele ser insuficiente respecto a la cantidad de información sensorial disponible en un momento concreto. De ahí la necesidad de un mecanismo de filtrado que opere justo antes de que esa información acceda al
sistema perceptual, para evitar que llegue a éste una cantidad de información excesiva en relación con su capacidad. Por tanto, el modelo de Broadbent plantea que la información que obtenemos a través de los sistemas
sensoriales puede procesarse inicialmente en paralelo, pero a partir de la
fase en la que opera el sistema perceptual el procesamiento tiene que ser
serial. Quizá la siguiente analogía facilite la comprensión de estos dos conceptos: a través de una autopista es posible circular en paralelo, pues la
existencia de varios carriles en cada uno de sus sentidos permite que puedan desplazarse varios vehículos a un mismo tiempo; pero si varios vehículos procedentes de una autopista confluyen en el acceso a una estrecha
carretera local, con un único carril en cada sentido, se verán forzados a entrar y a circular por ella de uno en uno en distintos momentos, es decir, serialmente. Según Broadbent, el sistema humano es capaz de procesar varias
unidades de información al mismo tiempo —en paralelo— en las fases más
tempranas, pero a partir de la fase en la que opera el sistema perceptual ya
sólo se puede procesar una unidad de información en cada unidad de tiempo —serialmente.
Así pues, las limitaciones estructurales del sistema perceptual serían
las que imposibilitan que seamos conscientes de una gran parte de la información sensorial que recibimos en un momento concreto. Para Broadbent, toda la información que llega a nuestros órganos sensoriales se analiza a un nivel físico, entendiendo por tal el análisis de características que
no dependen del significado simbólico del lenguaje humano, tales como
el timbre de la voz —o, por ejemplo, el color en el caso de la visión—;
pero sólo la información seleccionada podrá ser procesada en el sistema
perceptual, en el que se analiza además el significado de esa información, por lo cual sólo podemos identificar una parte de la información
que llega continuamente a nuestros órganos sensoriales. Así pues, para
Broadbent, la selección atencional ocurre antes de que se produzca el
análisis semántico de la información, en fases tempranas del procesamiento de la misma.
51
Atención
Las ideas de Broadbent respecto a la capacidad limitada del sistema de
procesamiento humano y sobre la existencia de un mecanismo de filtrado
de la información fundamentan teóricamente las investigaciones atencionales realizadas en la década de los sesenta. Pero algunos de estos trabajos
empiezan a proporcionar evidencia de que el nivel de procesamiento alcanzado por la información no seleccionada puede llegar a ser también semántico. Así, Neville Moray (1959) comprobó que la introducción del nombre
del sujeto en el mensaje irrelevante en una tarea de escucha dicótica provocaba fallos en el seguimiento del otro mensaje —¿recuerda el ejemplo con
el que se abría este capítulo?—. Este y otros resultados llevaron a Deutsch
y Deutsch (1963) a plantear que toda la información recibida a través de
nuestros órganos sensoriales en un momento concreto se procesa semánticamente, aunque sólo una parte de esa información, aquella que el sistema
evalúa como la más relevante para la tarea actual, es almacenada en nuestra
memoria y/o evoca una respuesta; es decir, que la selección de información
se produce en fases ya bastante avanzadas del procesamiento y no en fases
tempranas como proponía Broadbent.
Por su parte, Anne Treisman publicó en la misma década resultados que
también indicaban que el mensaje irrelevante en escucha dicótica puede
atravesar el filtro, sobre todo cuando está semánticamente relacionado con
el mensaje al que se debe atender (Treisman, 1960); así como que la selección de uno de los dos mensajes dicóticos puede basarse en diferencias de
naturaleza semántica y no sólo en diferencias de índole física, si bien la eficacia de estas últimas es inferior a la que tienen las primeras (Treisman,
1964). Por ello, en lugar de optar por un modelo de selección tardía, como
hicieron Deutsch y Deutsch, Treisman defendió la conveniencia de adaptar
el modelo propuesto por Broadbent a los nuevos hallazgos. La principal
modificación consistió en flexibilizar el filtro: para Treisman, la información no atendida también puede llegar a ser procesada semánticamente,
aunque la probabilidad de que ello suceda suele ser baja, porque el filtro
atenúa el impacto de esta información. Sólo en ciertos casos la atenuación
no es óbice para que identifiquemos la información no atendida. Por ejemplo, así ocurre cuando se trata del nombre propio del individuo, pues la
relevancia personal de esta información es tal que aunque no se esté atendiendo al canal por el que se pronuncia y por tanto se atenúe su impacto,
éste todavía será suficiente como para que se nos haga consciente. La misma explicación se aplicaría cuando por el canal irrelevante se presenta una
información cuyo significado es coherente con la información que esperamos recibir en ese momento por el canal atendido; por ejemplo, si repentinamente se empieza a emitir una historia distinta a la que se estaba escuchando hasta el momento a través del canal atendido, a la vez que la que se
estaba atendiendo continúa emitiéndose a través del canal no atendido, la
atención de los sujetos tiende a desviarse por unos momentos hacia el canal
irrelevante, pues así lo indica el hecho de que repitan las primeras palabras
52
1. Panorama histórico-conceptual del estudio de la atención
dichas a través de este canal de la historia hasta entonces atendida, en lugar
de las primeras palabras de la nueva historia emitida por el canal relevante
(Treisman, 1960).
Las investigaciones sobre la atención selectiva y el procesamiento perceptual de la información fueron acumulándose durante la década de los sesenta con el objetivo de dilucidar la cuestión de dónde opera el filtro atencional, si en fases más bien tempranas o más bien tardías del procesamiento
de información; o en otros términos, en qué punto se produce el cambio de
un procesamiento de información en paralelo —por tanto, sin necesidad de
atención— a un procesamiento serial —bajo el control atencional. Hubo incluso quienes propusieron modelos parcialmente alternativos a los que ya
habían sido formulados por Broadbent y por Treisman, por un lado, y por
Deutsch y Deutsch, por otro. Entre éstos, no debe dejar de citarse al de
Johnston y Heinz (1978), pues algunas investigaciones recientes (por ejemplo, véase Lavie, 1995) apoyan sus ideas acerca de esta cuestión: según estos autores, la fase en la que se produce la selección es variable y depende
de cuáles sean las demandas específicas que plantea la tarea y de cuáles
sean las circunstancias en las que ésta se realiza —por tanto, se trata de una
especie de mecanismo de filtro móvil, característica que permite una mayor
flexibilidad de la función selectiva—; dentro de los márgenes impuestos
por esos condicionantes, la selección siempre ocurrirá lo antes posible en el
procesamiento de la información.
Aunque parte de toda la polémica sobre la fase en que se produce la selección puede resolverse teniendo en cuenta diferencias y problemas metodológicos (véase Ortells y Fuentes, 1992), lo cierto es que el debate empezó a perder fuerza a la par que empezó a consolidarse la idea de que las
limitaciones a la hora de procesar distintas informaciones podían explicarse
también desde otro punto de vista: desde la consideración de cómo se distribuye la capacidad de procesamiento del sistema. Esta nueva óptica es la
que caracteriza a los denominados modelos de recursos, que se comentan
en el siguiente apartado.
2.2.2
Modelos de recursos
Si se pide a los sujetos que intenten atender a todo lo que se les presenta dicóticamente, avisándoles de que después se les pedirá que identifiquen las
palabras que hayan escuchado entre otras que no se les van a presentar, los
resultados suelen ser considerablemente más pobres que si sólo tienen que
atender a uno de los dos canales auditivos. Según los modelos de filtro, las
dificultades para prestar atención simultáneamente a dos informaciones
distintas se deben a que, a partir de cierta fase, el procesamiento de información humano es necesariamente serial. En principio, esta explicación es
plausible para lo que ocurre en una tarea de escucha dicótica, pero, ¿lo es
53
Atención
también para cualquier otra situación en la que se tienen que utilizar distintas informaciones a un mismo tiempo? ¿Qué sucede, por ejemplo, cuando
queremos dividir nuestra atención entre la escucha de una noticia urgente
que emiten por la radio y la búsqueda visual de unas llaves en el cajón en el
que las guardamos habitualmente? ¿Sería lo mismo si, en lugar de tener
que encontrar un objeto cotidiano en su entorno habitual, tuviéramos que
buscar algún objeto pequeño no identificado que ha caído dentro de una
caja en la que hay diversos objetos que no hemos visto anteriormente? Quizá el sistema de procesamiento humano pueda operar serialmente o en paralelo, dependiendo de la cantidad de esfuerzo (mental) que haya que invertir para procesar las distintas informaciones que nos llegan. Esta es una de
las ideas básicas de los denominados modelos de recursos atencionales.
Estos modelos ponen el énfasis en la cuestión de la intensidad con la
que se atiende a una información o a una acción, más que en la cuestión de
la selección de información (Tudela, 1992). En este sentido, la atención se
considera como una especie de suministro o energía mental, más bien escaso, que puede ser necesario para que se desarrolle el procesamiento de la
información y que se puede invertir sobre éste en mayor o en menor medida, distribuyéndolo de forma variable sobre distintas operaciones mentales
según las demandas de la tarea o tareas del momento. A la hora de especificar en qué consistiría ese «suministro» hubo más de una postura (véase
Neumann, 1996), pero sin duda alguna la que alcanzó mayor prestigio fue
la que adoptó Daniel Kahneman (1973), cuyas ideas sobre la capacidad
atencional todavía dejan sentir su influencia en la investigación actual (Botella, 1997).
Kahneman considera que atender es invertir un esfuerzo mental, ya sea
sobre una actividad que ha sido seleccionada voluntariamente o sobre un
evento que ha sido capaz de atraer involuntariamente nuestra atención. Por
esfuerzo mental debe entenderse una capacidad general inespecífica del
sistema de procesamiento humano, que puede requerirse para procesar información —pero no siempre, pues hay procesos que no la necesitan— y
que está disponible sólo de forma limitada, de manera que será o no suficiente para realizar una tarea o una combinación de tareas dependiendo de
las demandas concretas que esas tareas planteen al sistema. Según Kahneman, esta capacidad es de naturaleza energética, una forma de arousal relacionada con la actividad mental del sujeto, y por ello se puede evaluar tomando datos fisiológicos, tales como las variaciones del diámetro de la
pupila ocular o los cambios en la actividad electrodérmica.
Kahneman defiende que la cantidad de esfuerzo atencional que podemos
invertir en un momento concreto tiene siempre un límite. Por ello, si la tarea demanda más esfuerzo del que está actualmente disponible no la podremos realizar con éxito. Igualmente ocurrirá si intentamos realizar una tarea
pero no se le asigna la cantidad de esfuerzo que demanda porque hay otra u
otras tareas que lo están consumiendo. En cambio, si la demanda conjunta
54
1. Panorama histórico-conceptual del estudio de la atención
de esfuerzo de dos o más tareas no excede la capacidad disponible, podremos realizarlas simultáneamente, en paralelo, sin que resulte perjudicado el
rendimiento en ninguna de ellas. Por tanto, el sistema procesa la información serialmente o en paralelo en función de la cantidad total de esfuerzo
que le supone el procesamiento.
En general, desde la perspectiva de los modelos de recursos se considera
que si el rendimiento en una tarea mejora o empeora según aumenta o disminuye el esfuerzo que se invierte, es porque el procesamiento necesario
para realizar esta tarea requiere ese esfuerzo atencional —en la terminología de Norman y Bobrow (1975), se trata de un procesamiento limitado por
los recursos, entendiendo por recursos una capacidad básicamente similar a
la que Kahneman denominó esfuerzo (Tudela, 1992). Sin embargo, en algunas situaciones puede que no se observen cambios en el rendimiento, a pesar de que varíe el esfuerzo invertido en la tarea; se trata de situaciones en
las que no se dispone de la información externa o interna necesaria para
realizar la tarea o en las que ésta es insuficiente, por lo cual el rendimiento
parece invariable sea cual sea el esfuerzo invertido —Norman y Bobrow
etiquetaron al procesamiento implicado en estas situaciones con la expresión procesamiento limitado por los datos.
Según Kahneman, la asignación de esfuerzo a una tarea o la distribución
del mismo entre varias a un tiempo no es aleatoria, sino que existe una política de distribución. Ésta depende no sólo de la evaluación que hace el sujeto sobre cuánto esfuerzo demanda una actividad concreta, sino también
de ciertas disposiciones estables (por ejemplo, un estímulo novedoso que
surge repentinamente suele provocar que una gran parte del esfuerzo atencional se dirija al procesamiento del mismo, en lugar de dirigirse a la tarea
que se estaba realizando), de intenciones momentáneas (por ejemplo, el esfuerzo puede asignarse fundamentalmente a procesar una información que
estábamos esperando), así como del nivel de activación general del organismo (si éste es demasiado bajo, el esfuerzo puede ser insuficiente y consiguientemente el rendimiento en la tarea será pobre, pero si la activación
es excesiva, el esfuerzo tiende a asignarse de forma desigual entre diversas
actividades y con menos precisión en cada una de ellas, por lo que la ejecución puede perder eficacia, especialmente si la tarea requiere el desarrollo
coordinado de diversas actividades de procesamiento; esto explicaría las dificultades de concentración en el estudio que pueden surgir cuando se está
excesivamente nervioso por los posibles resultados del examen que nos van
a realizar próximamente).
Quizá el desarrollo empírico de mayor valor derivado de esta perspectiva
sobre la atención haya sido el trabajo realizado por diversos investigadores
para establecer las denominadas funciones POC (Performance Operating
Characteristic) correspondientes a tareas dobles o duales —una combinación de dos tareas, que deben realizarse simultáneamente—, por ejemplo,
tocar el piano a la vez que se repite en voz alta un texto que se recibe audi-
55
Atención
Ajuste en el seguimiento
(unidades arbitrarias)
tivamente. Las funciones POC fueron definidas inicialmente por dos autores que ya han sido citados en este apartado, Norman y Bobrow (1975),
para analizar teóricamente las situaciones en las que dos procesos demandan simultáneamente esfuerzo atencional; es decir, para estudiar lo que
Kahneman había llamado la política de distribución del esfuerzo. Cuando
se aplica al análisis de la ejecución en una tarea doble, una función POC es
la función matemática que expresa el rendimiento de los sujetos en cada
una de las tareas, cuando éstas se realizan simultáneamente en repetidas
ocasiones, pero bajo distintas condiciones. Las diferencias entre una ocasión y otra pueden consistir, por ejemplo, en que las instrucciones dadas
para realizar las tareas prioricen en distinta medida el rendimiento en cada
una de las tareas; o también en que la dificultad de una de ellas sea variable
de ocasión a ocasión.
A modo de ejemplo, en la Figura 1.2 se muestra una gráfica hipotética
correspondiente a una función POC. Supongamos que esta gráfica se ha
derivado a partir de los resultados obtenidos cuando se ha pedido a una serie de sujetos que siguieran con la vista continuamente la trayectoria de un
punto luminoso que se movía en la pantalla de un ordenador y, al mismo
tiempo, que apretaran la barra espaciadora del teclado cada vez que detectaran la aparición de otro punto luminoso en el centro de la pantalla.
Estos resultados —insistimos en que son hipotéticos— corresponden a
cinco sesiones distintas, en cada una de las cuales se proporcionaron instrucciones diferentes: en a) se pidió que se intentara realizar ambas tareas
invirtiendo el mismo esfuerzo en cada una de ellas; en b) se indicó que se
intentara mejorar la puntuación obtenida en la sesión a para la tarea de
seguimiento visual, de manera que esta puntuación alcanzara un valor superior en un 25 por ciento a la que se había obtenido en la sesión a, pero
intentando al mismo tiempo que no aumentara el tiempo medio que les
había costado detectar el punto luminoso en el centro de la pantalla en
Figura 1.2
56
Una función POC (datos hipotéticos; léase el texto para interpretar esta gráfica).
1. Panorama histórico-conceptual del estudio de la atención
esa sesión; en c) se proporcionaron las mismas instrucciones que en la sesión b, salvo que se les pedía que mejoraran la puntuación en la tarea de
seguimiento visual hasta alcanzar un valor superior en un 50 por ciento a
la obtenida en la sesión a; en d) la demanda de mejora ya no se refería a
la tarea de seguimiento, sino a la de detección, pues se pedía que se intentara reducir el tiempo medio que se había obtenido en la sesión a, de
forma que se obtuviera un valor inferior en un 25 por ciento, intentando
al mismo tiempo que no empeorara la puntuación obtenida en la sesión a
para la tarea de seguimiento visual; por último, en e) se proporcionaron
las instrucciones dadas en la sesión d, aunque pidiendo una reducción del
tiempo de detección del 50 por ciento respecto al obtenido en la sesión a.
Para interpretar adecuadamente la gráfica, téngase en cuenta que los puntos resaltados corresponden, de izquierda a derecha, a los resultados obtenidos en las sesiones c, b, a, d y e, en este orden. Así pues, esta gráfica
indica que cuando los sujetos se esfuerzan para mejorar su rendimiento en
la tarea de seguimiento visual respecto al alcanzado en la sesión a (sesiones c y b), realmente lo consiguen, si bien ello conlleva que los obtenidos
en la tarea de detección visual empeoren en comparación con los obtenidos en la sesión a, pese a que las instrucciones expliciten que se mantenga el nivel obtenido en esta otra tarea. Análogamente, cuando los resultados en la tarea de detección mejoran (sesiones d y e), empeoran los
obtenidos en la tarea de seguimiento.
Los datos que se fueron acumulando sobre el rendimiento en tareas dobles indicaban que el éxito en la combinación de dos tareas no sólo depende de la dificultad de las mismas, sino también de las diferencias estructurales entre ambas, de manera que cuanto más diferentes sean entre
sí, menos interferencia se revelará en su ejecución simultánea (Wickens,
1980). Por ejemplo, la interferencia tiende a ser mayor si las dos tareas
obligan a responder utilizando respuestas manuales —a menudo, en los experimentos consiste en apretar el botón o la tecla indicado en cada caso—
que si la respuesta en una de las tareas es manual y en la otra se ha de emitir verbalmente. Este tipo de datos restaban apoyo a la caracterización de
Kahneman del esfuerzo atencional como una capacidad general inespecífica e indujeron a sugerir a otros investigadores que sería más adecuada una
explicación en términos de diversas capacidades o recursos específicos, entendiendo por tales una serie de componentes del sistema de procesamiento
que estarían especializados en distintas actividades y por tanto podían ser
requeridos en algunas tareas pero no en otras; por ejemplo, podrían existir
recursos que sólo serían necesarios cuando la tarea requiriera una respuesta
manual y otros distintos que sólo lo serían cuando la respuesta tuviera que
darse verbalmente. Cada uno de esos componentes tendría sus propias características definitorias, es decir, una capacidad concreta y una política de
distribución determinada. D. A. Allport, por un lado y A. Sanders, por otro,
fueron precursores de esta nueva perspectiva, con la que también formula-
57
Atención
ron sus modelos autores como C. D. Wickens (1984), o D. Navon y D. Gopher (1979), entre otros.
Sin embargo, la alternativa de describir la atención como una serie de diversos recursos específicos para distintas tareas tampoco ha satisfecho a
demasiados investigadores, ni siquiera a algunos de los que la defendieron
inicialmente (por ejemplo, véase Allport, 1980; Navon, 1984). El problema
principal reside en que esta postura puede abocar en la necesidad de postular tantos recursos atencionales como fenómenos de interferencia se describan. Lo cual, por añadidura, lleva a anular el valor del concepto de atención
para explicar el procesamiento humano (Tudela, 1992).
2.2.3 Críticas a la concepción de capacidad limitada. La selección
para la acción.
Durante los últimos años, algunos teóricos han criticado la idea de que la
selección atencional es una pura necesidad para el sistema de procesamiento humano porque su capacidad para procesar información es limitada, se
entienda esa limitación como estructural (como en las teorías del filtro) o
como escasez de un recurso o de múltiples recursos. Entre ellos destacan D.
Allan Allport (1987), Odmar Neumann (1996) y A. H. C. van Der Heijden
(1992). Para estos autores, el planteamiento correcto es más bien el inverso:
las limitaciones de nuestra capacidad para procesar información son consecuencia de la selección atencional (véase Apartado 3 del Capítulo 3).
Este planteamiento se empezó a fraguar algunos años antes con las críticas de Ulric Neisser (1976) y D. Allan Allport (1980) a los modelos atencionales que se habían formulado hasta entonces. El análisis de Neisser fue
tan radical que le llevó a concluir que la atención es un concepto superfluo
para la comprensión de la cognición humana, pues para este autor la percepción es en sí misma un proceso de selección de información, guiada por
nuestros esquemas; por tanto, según Neisser, no hay necesidad de atribuir
ese proceso de selección a ningún mecanismo atencional. Aunque esta postura se aleja en gran medida del sentir mayoritario entre los investigadores
de la atención, hay que reconocerle que su defensa de que la eficacia de la
selección puede incrementarse con la experiencia, como cualquier otra habilidad humana, ha favorecido el desarrollo de investigaciones sobre los
efectos de la práctica en el rendimiento en tareas atencionales. Esta defensa
está estrechamente relacionada con su concepción de que nuestra capacidad
de procesamiento no está estrictamente limitada ni por las características
estructurales ni funcionales del sistema de procesamiento humano, sino que
depende fundamentalmente de que desarrollemos las habilidades específicas necesarias en cada tarea. Allport defendió un punto de vista similar al
subrayar que las dificultades que se producen al intentar realizar simultáneamente varias tareas pueden explicarse a partir de factores específicos a
58
1. Panorama histórico-conceptual del estudio de la atención
las propias tareas. A modo de ejemplo: según Allport, para realizar correctamente el seguimiento de las palabras del canal relevante en una tarea de
escucha dicótica hay que evitar que las palabras del irrelevante controlen
nuestras respuestas vocales, lo cual tendría el efecto de que la información
irrelevante tampoco podría controlar otras respuestas voluntarias; ello explicaría nuestras dificultades para recordar la información presentada por el
canal irrelevante.
Para Neumann (1996), las ideas de estos dos autores son el punto de
partida para un replanteamiento de la cuestión de la función selectiva de la
atención. Según este autor, la selección debe producirse para controlar
nuestra conducta, porque cada uno de los sistemas que nos permiten ejecutar respuestas ante esa información sólo pueden realizar una acción en cada
momento (por ejemplo, sólo podemos pronunciar un sonido, de la misma
forma que sólo podemos mirar hacia un lugar o mover uno de nuestros dedos en una dirección concreta) y porque una acción sólo se puede realizar
de un modo concreto en un momento determinado. Si no existiera selección para controlar la acción, la conducta se desorganizaría. Desde este
punto de vista, por tanto, es una estrategia de la que disponen los organismos para afrontar los problemas que pueden producirse en la coordinación
y el control de acciones y por tanto es más un logro que un déficit de nuestro sistema de procesamiento (Neumann, 1996).
2.2.4 Modelos recientes
La investigación sobre la atención es actualmente un área de gran actividad
en la psicología cognitiva. Gran parte de esta investigación responde al interés de estudiar la implicación de la atención selectiva en el procesamiento
perceptivo. Por diversas razones (véase Rosselló, 1997), este estudio se ha
volcado rotundamente sobre el procesamiento visual, de manera que las investigaciones sobre la atención auditiva son comparativamente escasas. Por
ello, las tareas más frecuentemente utilizadas en los experimentos de atención selectiva implican la identificación visual de objetos y de sus atributos. Como se explica en un capítulo posterior de este mismo libro, entre las
aportaciones teóricas más relevantes a este respecto se incluyen teorías que
enfatizan que lo que se selecciona es una región espacial del campo visual
y otras que proponen que la selección se basa en los objetos o grupos perceptivos presentes en el mismo. Recientemente se han propuesto también
algunos modelos que pretenden integrar estas dos perspectivas, por ejemplo
el modelo VAM (Visual Attention Model) de Werner y Schneider (1995) o
la teoría CODE de la atención visual, de G. D. Logan (1996).
Por otra parte, crece el interés por analizar la intervención de la atención
en los procesos que se desarrollan en la planificación y realización de acciones, tanto externas (motoras) como internas (es decir, en los procesos de
59
Atención
memoria, de pensamiento, etc.). Este interés está estrechamente relacionado con los esfuerzos recientes de algunos psicólogos cognitivos para explicar cómo se produce el control de nuestras acciones, que han culminado en
la distinción de dos mecanismos de control: uno voluntario, que se correspondería con la atención, y uno involuntario, automático y no atencional
(Ruiz Vargas, 1993).
La investigación actual sobre la atención no sólo se beneficia de los esfuerzos realizados desde el enfoque de la psicología experimental cognitiva,
sino también de los procedentes de la neuropsicología cognitiva, la neurofisiología y el enfoque conexionista. Por lo que respecta al conexionismo, se
trata de un nuevo enfoque surgido dentro de la psicología cognitiva, también conocido como enfoque de las redes neurales artificiales o del procesamiento distribuido en paralelo —o a menudo, simplemente mediante las
siglas de esta última expresión, PDP—, en honor a la obra publicada por
David E. Rumelhart, James L. McClelland y el denominado Grupo de Investigación PDP (1986). Al igual que los modelos formulados desde el enfoque clásico del procesamiento de la información en el que, de forma general, se puede encuadrar a todos los modelos atencionales que se han
descrito hasta aquí en este capítulo, los modelos conexionistas también pretenden describir y explicar los procesos cognitivos; pero, como se explica
seguidamente, los conexionistas lo hacen desde un nivel de análisis distinto
al utilizado tradicionalmente por los psicólogos del enfoque del procesamiento de la información: en lugar de utilizar símbolos para describir las
representaciones mentales, como lo hace el enfoque clásico del procesamiento de la información, lo hace en términos de las unidades de procesamiento que constituirían esos símbolos; por ello, ambos enfoques son en realidad necesarios para profundizar en la comprensión del sistema humano
de procesamiento de información (véase Ruiz Vargas, 1994, pp. 43-57).
Así como los modelos formulados desde el enfoque clásico se han servido de los conocimientos sobre el funcionamiento de los ordenadores para
plantear hipótesis sobre el funcionamiento de la mente humana, los modelos conexionistas han tomado como referencia las redes neuronales de
nuestro propio cerebro. Los sistemas conexionistas son redes formadas por
un gran número de unidades elementales de procesamiento, también denominadas nodos, conectadas unas con otras. Las unidades de la red son de
naturaleza elemental, en el sentido de que el procesamiento de la información realizado en la red no depende de la actividad de ninguna de las unidades por separado, sino de la que resulta del funcionamiento conjunto de la
red. Por ello se dice que en los sistemas conexionistas el procesamiento de
la información se produce de forma distribuida entre las unidades que lo integran. En un sistema conexionista, la entrada de información puede provocar la activación de las unidades de entrada de la red. A su vez, la activación de estas unidades puede provocar la activación de las unidades con las
que están conectadas, y la de éstas puede hacer que se activen otras... De
60
1. Panorama histórico-conceptual del estudio de la atención
esta forma, la activación se propaga a través de la red, hasta que se alcanza
un estado estable. Para que una unidad se active debe llegar hasta ella una
activación total superior a un cierto valor umbral, que puede ser distinto
para diferentes unidades. Por tanto, cada unidad realiza un cómputo particular sobre la señal que llega hasta ella, por lo cual el procesamiento
ocurre en paralelo. Por lo que respecta a las conexiones, éstas pueden ser
excitatorias o inhibitorias, y también pueden ser más o menos fuertes. Por
ello, cada conexión entre dos unidades tiene asignado un valor que indica la
fuerza de la conexión y cuyo signo indica el carácter excitatorio (signo positivo) o inhibitorio (signo negativo) de la misma, por lo cual ese valor modula la activación que se propaga a través de esa conexión.
Phaf, van Der Heijden y Hudson (1990) han aplicado este enfoque para
modelar cómo puede ocurrir en nuestros cerebros la integración de tres características simples de los estímulos visuales: su posición, su color y su forma, en tareas de atención selectiva. Se sabe que estas características son codificadas por separado en nuestro cerebro, pero se desconoce cómo se
produce su integración para que podamos realizar tareas en las que tenemos
que seleccionar estímulos que presenten justo una combinación concreta de
esas características (por ejemplo, un cuadrado rojo). El modelo propuesto
por estos investigadores, al que denominan SLAM (SeLective Attention Model), ha sido utilizado con éxito para simular en ordenador el procesamiento
que realiza una persona en tareas de este tipo. Otro modelo conexionista que
también ha sido evaluado positivamente al ser implementado en ordenador
es el propuesto por Glyn W. Humphreys y Hermann J. Müller (1993), conocido como SERR (SEarch via Recursive Rejection), que pretende simular el
procesamiento que se produce en tareas de búsqueda visual.
Bibliografía comentada
LaBerge, D. (1995): Attentional processing. The brain’s art of mindfulness. Cambridge, Massachusetts/Londres, Harvard University Press. David LaBerge es
profesor de Psicología y Ciencias Cognitivas en la Universidad de California
(EE.UU.). En este libro explica sus ideas acerca de las funciones de la atención,
sus mecanismos y las estructuras nerviosas que los sustentan, basadas en los hallazgos obtenidos en investigaciones realizadas en el ámbito de la psicología
cognitiva, la neurobiología y la ingeniería artificial.
Rosselló i Mir, J. (1997): Psicología de la atención. Madrid, Pirámide. El libro del
profesor Jaume Rosselló i Mir, de la Universitat de les Illes Balears, constituye
una obra idónea para introducirse en el estudio psicológico de la atención, fundamentalmente porque en él se clarifican los conceptos imprescindibles para
profundizar en ese estudio, se comentan las principales teorías que se han propuesto sobre la atención a lo largo de la historia de la psicología científica y se
reflexiona sobre algunas cuestiones básicas para entender la situación actual de
la psicología de la atención.
61
Atención
Tudela Garmendia, P. (1992): Atención. En J. L. Fernández Trespalacios y P. Tudela
(Eds.), Atención y Percepción (pp. 119-162), Madrid, Alhambra. El profesor Pío
Tudela Garmendia es catedrático de Psicología Básica en la Universidad de
Granada. Su capítulo ofrece, en primer lugar, una descripción detallada de los
principales hitos históricos en el estudio psicológico experimental de la atención y, después, una explicación de sus ideas acerca de la naturaleza y el papel
de la atención en el procesamiento humano de información, acorde con prestigiosos estudiosos de esta área, que incluye la descripción de las investigaciones
más relevantes que apoyan su concepción.
Preguntas de revisión
1. Razona, apoyándote en una situación cotidiana, cómo pueden interrelacionarse las distintas funciones de la atención a la hora de procesar
información.
2. ¿Crees que es posible que la orientación de la atención auditiva no
coincida con la de los receptores auditivos? Justifica tu respuesta.
3. ¿Cuáles son los principales beneficios que puede proporcionar la selección atencional de información cuando realizamos una tarea cognitiva
compleja?
4. ¿Podrías caracterizar a las situaciones y/o tareas en las que es prácticamente imprescindible que la atención controle el procesamiento de
la información?
5. Según Broadbent, ¿podemos ser conscientes de la información a la que
no atendemos en un momento concreto? ¿Por qué?
6. Indica algunos ejemplos de situaciones en las que la ejecución en una
tarea de identificación de palabras no varíe pese a los cambios en el
esfuerzo invertido para realizar la tarea, debido a una limitación de los
datos (externos o internos).
62
2.
El estudio experimental
de la atención
Juan Botella Ausina
El estudio de la atención, como el de cualquier otro tópico de la psicología, descansa en la observación y registro de un conjunto de variables dependientes con las cuales se operativizan las manifestaciones de sus efectos. Para ello se diseñan situaciones particulares, llamadas paradigmas
experimentales, con las que se intentan aislar todos los factores intervinientes menos uno, con objeto de estudiar sus efectos. El presente capítulo
se articula en torno a cuatro partes. En la primera se presenta el tema y se
propone un marco de análisis. La segunda es una breve discusión sobre el
peculiar papel que la consigna experimental tiene en el estudio de la atención. En tercer lugar, se exponen las variables dependientes más frecuentemente empleadas para operativizar las manifestaciones de la atención, clasificadas en tres grupos: medidas de rendimiento, conductuales y fisiológicas.
En la última parte se describe una selección de los paradigmas experimentales más interesantes para el estudio de la atención.
1.
Introducción
Ante los estímulos que se nos presentan realizamos ciertos procesos cognitivos que, frecuentemente, se completan con la ejecución de una respuesta externa. Algunos de estos procesos psicológicos son invariantes; ante el mismo
estímulo se producen siempre y de la misma forma. Pero la mayoría de ellos
se ven alterados por las intenciones del sujeto, sus metas, sus sesgos perso-
63
Atención
nales y situacionales, y otros factores. La asunción de metas y objetivos produce una adaptación sinérgica de muchos procesos cognitivos. Entre este
conjunto de adaptaciones se incluyen las que colectivamente constituyen lo
que se entiende por prestar atención (atender = tender hacia).
Algunas de las adaptaciones que constituyen la atención son específicas,
en el sentido de que se refieren a cambios en procesos concretos, como por
ejemplo modificaciones en los umbrales de detección o identificación, generación de expectativas, adopción de criterios o de estrategias de procesamiento peculiares, acciones de filtrado y/o selección, etc. Por el contrario,
hay otras adaptaciones más inespecíficas, especialmente los cambios en la
activación general; al evaluar las demandas de la tarea el sistema regula la
activación, elevándola o reduciéndola según las necesidades evaluadas. Es
el aspecto intensivo de la atención (Kahneman, 1973).
Si bien hemos dicho que este conjunto de adaptaciones orientadas a optimizar el rendimiento en la consecución de una meta constituyen las vías
por las que se manifiesta la atención, algunos considerarían que son en sí
mismas la atención. El carácter metodológico de este capítulo desaconseja
abordar aquí esta cuestión, así que nos limitaremos a exponer los procedimientos para estudiar cómo actúa la atención.
De lo dicho hasta aquí se deduce que un elemento esencial en el estudio
experimental de la atención es conseguir que los sujetos se propongan objetivos mediante el uso de tareas experimentales. En el laboratorio proponemos tareas y utilizamos las instrucciones y consignas experimentales para
transmitir estados psicológicos que simulen las condiciones de tendencia,
motivación o dirección hacia que se producen en la vida cotidiana. Dedicaremos el segundo apartado de este capítulo a la problemática relacionada
con las consignas experimentales.
Podemos utilizar como indicadores de la atención cualesquiera que reflejen las adaptaciones orientadas a la meta. En muchos casos desconocemos la naturaleza de esas adaptaciones, pero inferimos con confianza su
existencia al observar cambios en las respuestas finales. Precisamente, utilizamos los registros de las conductas finales para inferir la naturaleza de
los cambios producidos en los procesos. Obviamente, los indicadores pueden ser muchos y muy variados, dado que las vías por las que la atención
puede ejercer su influencia son múltiples. Dedicaremos el tercer apartado a
exponer una clasificación y justificación de los mismos.
Para abordar el estudio de la atención se emplean una variedad de tareas
y disposiciones experimentales. Cada una de ellas recibirá en este capítulo
el socorrido nombre de paradigma experimental. En el cuarto apartado expondremos una descripción de los paradigmas y técnicas experimentales
que nos han parecido más útiles, junto con una explicación de la lógica que
subyace en ellos; en lo posible, trataremos de citar algún trabajo experimental publicado en castellano en el que se utilice cada uno de los paradigmas.
64
2. El estudio experimental de la atención
Muchas veces se clasifican los estudios de la atención según el aspecto
que abordan, siendo un sistema muy frecuente el que distingue entre atención selectiva, dividida y sostenida. Nosotros no hemos clasificado los paradigmas experimentales con este criterio porque creemos que puede añadir
cierta confusión. No obstante, vamos a exponer brevemente esta clasificación, por la utilidad descriptiva que tendrá a lo largo del capítulo.
Se dice que se estudia la atención selectiva cuando se investiga la capacidad para actuar flexiblemente, dedicando la actividad psicológica a lo relevante y no a lo irrelevante, según los intereses particulares del momento.
Se estudia, por ejemplo, si al pedir al sujeto que responda: a) al mensaje
que aparece por el auricular derecho, b) a las letras que aparecen en la posición central de la pantalla, o c) al color de las palabras que se presenten, éstos son capaces de restringir su actividad psicológica a lo relevante según
esas tareas e instrucciones o, más bien, se ven obligados a realizar procesos
que son irrelevantes para la tarea pero que son irrefrenables. En los tres
ejemplos anteriores se trataría de comprobar si el sujeto dedica parte de su
actividad cognitiva: a) al mensaje del oído izquierdo, b) a las letras que
aparecen en posiciones distintas a la central, o c) al significado de las palabras además de a su color. En resumen, se estudia uno de los aspectos de la
capacidad de los sujetos humanos para ajustarse a la tarea, consistente en
realizar un procesamiento selectivo al servicio de sus intereses.
Decimos que estudiamos la atención dividida cuando investigamos la
capacidad para adaptar los procesos cognitivos de forma que se permita o
facilite la ejecución de dos o más tareas simultáneamente. Se busca, por
tanto, una caracterización de la compatibilidad entre tareas: qué tipo de tareas pueden realizarse simultáneamente y con qué nivel de rendimiento. El
estudio de los niveles de deterioro en el rendimiento permiten la formulación y contraste de los modelos y teorías de la concurrencia entre procesos.
Por tanto, el aspecto que se estudia aquí de la capacidad de los seres humanos para ajustarse a la tarea es el de la viabilidad en la concurrencia de los
procesos cognitivos.
Decimos que estudiamos la atención sostenida cuando investigamos la
capacidad para mantener en el tiempo una cierta disposición atencional. Es
decir, se trata de responder a la pregunta de si las adaptaciones por las que
actúa la atención se pueden mantener mucho tiempo y, en caso negativo,
qué cambios en esas adaptaciones se producen como consecuencia del cansancio, la monotonía y otros factores ligados al transcurso del tiempo. Dicho en los términos empleados hasta aquí, se estudia la capacidad para
mantener en el tiempo las adaptaciones realizadas para enfrentarse a una tarea.
Como ya hemos adelantado, es difícil clasificar mecánicamente un estudio como de atención selectiva, dividida o sostenida conociendo solo el paradigma experimental. En realidad, la naturaleza del estudio viene determinada más por los objetivos de la tarea que por la disposición física de la
65
Atención
situación experimental. Por ejemplo, en una situación en la que se presentan dos mensajes auditivos, cada uno por uno de los auriculares, estaremos
estudiando la atención selectiva si la consigna es prestar atención y detectar
los nombres de animales que aparezcan en uno de los mensajes, mientras
que estaremos estudiando la atención dividida si la consigna es que lo hagan con los dos; pero estaremos estudiando también la atención sostenida si
la tarea es de larga duración. Es verdad que las características de la mayoría
de los paradigmas los hacen más apropiados (y de hecho se utilizan más)
para estudiar una u otra, pero lo cierto es que en una misma situación se
puede estar estudiando una u otra dependiendo de la consigna experimental
o de la longitud de la tarea. Veamos un ejemplo. Uno de los aspectos más
estudiados de la atención es el de cómo se producen los procesos selectivos, determinando el grado y tipo de procesamiento que recibe el material
irrelevante. En algunos experimentos de escucha dicótica (véase el apartado 4.4) se obtuvo que los sujetos no recordaban posteriormente el material
presentado por el oído al que no debían atender (Treisman y Geffen, 1967).
Ante la crítica de que podía tratarse de un problema de recuerdo, no de
atención, el experimento se repitió pidiendo a los sujetos que detectasen
también ciertos estímulos que podían aparecer por el canal no atendido
(Treisman y Riley, 1969). Pero, ¿se puede decir que este mensaje es realmente no atendido cuando al sujeto se le está pidiendo que realice cierta tarea con él? Al pedirle que detecte ciertos estímulos del canal irrelevante,
indirectamente se le está diciendo que atienda a todos (Ortells y Fuentes,
1992). Para estudiar procesos de selección se estaba transmitiendo en las
instrucciones una consigna implícita de división de la atención.
En este capítulo vamos a centrarnos sobre todo en la atención selectiva
y, en menor medida, en la atención dividida. A la atención sostenida apenas
vamos a dedicarle unas pocas líneas. Las tareas con las que se estudia no
tienen ninguna peculiaridad específica en cuanto a su estructura, más bien
se caracterizan por su duración. Durante la Segunda Guerra Mundial surgió
el interés por los cambios que se producen en la atención con el simple
paso del tiempo. Sin duda, el llamado decremento de vigilancia, que no es
otra cosa que la reducción en el rendimiento, es el efecto más importante.
Los estudiosos de la atención sostenida han tratado de dar explicación a
este efecto empleando diversas tareas. Lógicamente, éstas suelen dilatarse
mucho en el tiempo y se diseñan de forma que sean muy monótonas, para
así intensificar los fenómenos. Manipulando las condiciones y estudiando
los cambios concomitantes en las curvas de rendimiento se ha intentado dar
explicación al decremento de vigilancia (véanse, por ejemplo, los trabajos
de Blanco, 1998, y de Blanco, Atkinson y Álvarez, 1992).
66
2. El estudio experimental de la atención
2.
El papel de la consigna experimental
Uno de los aspectos del comportamiento humano más difíciles de trasladar
al laboratorio de forma realista es la motivación hacia la tarea, aspecto que
sin embargo no se puede obviar en el estudio de la atención, porque de él se
deriva la adopción de metas. Aparte de la función obvia de informar al
sujeto de los detalles de la tarea, con las consignas que se administran se
intenta generar una motivación y conseguir que el sujeto actúe durante las
sesiones experimentales como lo haría en una tarea similar de su vida cotidiana. Mediante las consignas se intenta que asuma esa intención que genera las adaptaciones por las que interviene la atención. Es esencial que este
aspecto quede bien emulado en la situación experimental.
En el estudio de la atención dividida, por ejemplo, se emplean las instrucciones para conseguir que los sujetos presten atención a dos o más porciones del medio, o fuentes de estimulación, con frecuencia transmitiendo
explícitamente la distribución deseada: «dedique el 80 por ciento de su
atención a lo que aparece a la izquierda del punto de fijación y el 20 por
ciento a lo que aparece a la derecha». En otras ocasiones se informa de las
probabilidades de aparición del estímulo relevante en cada una de las posiciones definidas, como en la tarea de Posner (que describiremos en el apartado 4.3), asumiendo que la atención actuará basándose en esas probabilidades. Otras veces se omite esta información, esperando que el sujeto
deduzca, mediante su práctica con la tarea, las adaptaciones apropiadas
para optimizar el rendimiento. Es evidente que la particular formulación
con la se transmiten las instrucciones puede tener importancia, dado que se
pueden transmitir expectativas no deseadas o no intencionadas, por lo que
hay que ser especialmente cuidadoso al redactarlas y comunicarlas (efecto
experimentador).
Si este aspecto es importante en el estudio de la atención, lo es especialmente en el de la atención selectiva, porque si en las instrucciones no solo
se informa de qué estímulos o fuentes de estimulación son las relevantes
para la tarea, sino que también se informa explícitamente de cuáles son
irrelevantes, se está creando una saliencia en éstos que puede marcar el
proceder del sujeto. No se puede transmitir de manera directa y con garantía la no relevancia. Si, por ejemplo, decimos al sujeto que nos vaya diciendo qué palabras aparecen en rojo y que ignore las demás, especialmente las
azules, casi estamos garantizando un procesamiento selectivo de las palabras azules. La simple mención de un estímulo o clase de estímulos, aunque sea para decir al sujeto que los ignore, ya confiere a éstos un valor especial. La no relevancia será asumida por el sujeto con la práctica y la
constatación empírica de la irrelevancia de los estímulos.
Pero para comprender cómo se produce la selección tenemos también
que caracterizar lo que les ocurre (el procesamiento que reciben) a los estímulos a los que no hay que atender, los que son irrelevantes para la tarea.
67
Atención
El procesamiento que reciben los estímulos a los que atendemos se puede
estudiar analizando las respuestas que se dan a ellos. Ahora bien, si no queremos caer en la contradicción de pedir a los sujetos que emitan respuestas
explícitas a los estímulos que queremos que sean ignorados, ¿cómo podemos constatar si éstos son procesados o no? Hay al menos dos alternativas.
En la alternativa más utilizada en lugar de recoger respuestas directas ante
ellos se emplean medidas indirectas del procesamiento del material irrelevante, basadas en la interferencia y/o facilitación que producen sobre el
procesamiento de los estímulos relevantes. Esos estímulos irrelevantes pueden presentarse simultáneamente a los estímulos relevantes, como por
ejemplo en el paradigma de compatibilidad de los flancos, o pueden presentarse antes, como en los paradigmas de priming.
La otra alternativa consiste en demandar a posteriori una respuesta explícita a un estímulo que el sujeto debía ignorar. En esta alternativa se asume que solo se puede administrar un ensayo a cada sujeto, dado que en el
siguiente ensayo el sujeto estaría prevenido y actuaría de forma más acorde
a lo que ocurrió en el ensayo anterior que a las consignas experimentales.
Algunos investigadores han utilizado un paradigma de este tipo, que han
llamado paradigma de inatención.
Como ejemplo de lo sensible a las metas que es el procesamiento de
información, vamos a describir el llamado balance velocidad/precisión
(speed-accuracy trade-off): al realizar una tarea muy rápidamente se cometen más errores; realizándola más despacio se dan respuestas más seguras,
con menos errores. En una tarea en la que se le dice al sujeto que ha de ser
rápido porque se va a medir el tiempo de reacción (TR), pero también hay
que ser preciso porque los errores son un deterioro del rendimiento, cada
sujeto puede adoptar un punto diferente en el equilibrio entre ambos parámetros. Si en la consigna se presiona sobre el tiempo, los sujetos suelen ser
rápidos a costa de cometer más errores. Si se presiona sobre la precisión
ocurre lo contrario. Es claro que si el objetivo transmitido pone el acento en
uno u otro, la manera de actuar será distinta. Pequeños matices en la administración de las instrucciones pueden transmitir una expectativa distinta.
Esta es la razón por la que en la sección de resultados de muchos informes
experimentales se indica que la correlación entre los promedios grupales
del tiempo y de los errores es positiva. Si fuera negativa, una diferencia en
el tiempo medio entre dos condiciones podría explicarse como un desplazamiento en el punto adoptado en este balance. Una correlación negativa no
permitiría descartar una explicación de este tipo para un aparente efecto de
la variable independiente manipulada (véase Figura 2.1).
68
2. El estudio experimental de la atención
Figura 2.1 En un experimento con tres condiciones se obtiene que el TR medio disminuye al pasar de la condición A a la B y de ésta a la C (figura izquierda). Además de la explicación que
pretendiese darle el autor, esta disminución podría explicarse por cambios en el balance velocidad/precisión, dado que al pasar de A a B y de B a C también se incrementan los errores (Figura
derecha). No se puede descartar la interpretación de que en realidad la variable independiente estudiada no tiene ningún efecto, y que los efectos aparentes se deben a que en A se ha adoptado un
punto con mayor acento en la precisión y en C un punto con mayor acento en la velocidad.
3.
Las variables dependientes
La manera de constatar cómo actúa la atención debe basarse en registros que
muestren las adaptaciones que se producen en los procesos psicológicos, ya
sea en procesos particulares o en la actividad general del organismo.
Sin embargo, es necesario explicitar un problema endémico en el estudio
de la atención. Dado que todos los indicadores que podemos utilizar son indirectos, en el sentido de que no reflejan una entidad llamada atención,
como tal, sino una de las vías posibles por las que ésta puede actuar, las inferencias negativas siempre son inciertas. Es decir, que si en una condición
experimental observamos actividad en un indicador, podemos inferir que la
atención está actuando por esa vía, pero si no la observamos no podemos
inferir que no esté actuando, dado que puede estar haciéndolo de alguna
otra forma.
Aquí vamos a clasificar los indicadores más habitualmente utilizados en
tres tipos: medidas de rendimiento, conductuales y psicofisiológicas (véase
Tabla 2.1). En la introducción hemos expuesto la distinción entre adaptaciones específicas e inespecíficas. Mientras que las medidas de rendimiento y conductuales no son capaces de revelar adaptaciones específicas, algunas de las psicofisiológicas sí lo van a permitir.
3.1
Medidas de rendimiento
Los indicadores más apropiados de las adaptaciones orientadas a mejorar el
rendimiento son, sin duda, los que miden éste. Las medidas de rendimiento
son, de hecho, las variables dependientes tradicionalmente más utilizadas
69
Atención
en el estudio de la atención. Se pueden clasificar en cuanto a si miden velocidad o precisión. Habitualmente las tareas que utilizamos se organizan en
forma de eventos discretos, que llamamos ensayos. En cada ensayo se puede medir la latencia, o tiempo empleado en dar la respuesta, y/o la precisión, clasificando la respuesta en acierto o error (a veces éstos también se
subdividen, distinguiendo entre varios tipos de error). Se asume que los
efectos positivos de la atención se manifiestan en reducciones en la latencia
(aumenta la velocidad de procesamiento) y/o en incrementos en la precisión.
La medida básica de la velocidad es el tiempo transcurrido desde la presentación de la última información necesaria para decidir la respuesta y el
comienzo de ésta. Lo más habitual es hacer predicciones relativas al tiempo
medio empleado, es decir, se administran varios ensayos de la misma condición experimental y se toma su promedio como estimación del rendimiento.
Las medidas de precisión tienen como elemento esencial la frecuencia
de aciertos. En algunas tareas los sujetos solo tienen que dar una respuesta
cuando se cumple una cierta condición (normalmente la aparición de un
cierto estímulo crítico); son las tareas de detección. En las tareas de detección no se puede medir el rendimiento simplemente con la frecuencia de
detecciones correctas, porque este índice podría encubrir factores relacionados con tendencias de respuesta. De hecho, de hacerlo así un sujeto que
diera la respuesta de detección en todos los ensayos, sin siquiera fijarse o
procesar la información, tendría un 100 por ciento de detecciones correctas,
pero a la vez habría dado también respuesta positiva en todos los ensayos
en los que no aparece el estímulo crítico (falsas alarmas). Otro sujeto que
tuviera un 100 por ciento de detecciones correctas pero ninguna falsa alarma daría en este indicador el mismo nivel de rendimiento. Es conveniente,
por tanto, utilizar medidas del rendimiento que combinen los aciertos y las
falsas alarmas. La Teoría de la Detección de Señales aportó un marco teórico idóneo para el análisis del rendimiento en este tipo de situaciones, al
proponer indicadores separados de la sensibilidad, o capacidad para discriminar el estímulo crítico del fondo de ruido, y del criterio de respuesta, o
grado de liberalismo al decidirse por dar respuestas de detección (Reales y
Ballesteros, 1997; véase una descripción más detallada en el Capítulo 6).
En otras tareas los sujetos tienen necesariamente que dar alguna respuesta en cada ensayo (tareas de elección forzosa) y, por tanto, la frecuencia de aciertos es un buen índice del rendimiento en la precisión. Son las
tareas de identificación o discriminación. En estas tareas el análisis del tipo
de errores es también a veces muy revelador de los procesos que el sujeto
está realizando.
Las medidas de rendimiento descritas hasta aquí son las que podríamos
llamar on-line o inmediatas, dado que se realizan en cuanto están disponibles. Pero hay otras, que podríamos llamar off-line o demoradas. Es fre-
70
2. El estudio experimental de la atención
cuente, por ejemplo, que una vez finalizada la tarea, o incluso tras dejar
transcurrir un período de tiempo, se administren pruebas de recuerdo o de
reconocimiento. Se asume que la precisión de la memoria es función de la
atención prestada durante la presentación de los estímulos, por lo que estas
medidas se toman también, aunque indirectamente, como indicadores de la
atención.
3.2
Medidas conductuales
Son las basadas en comportamientos observables que se supone que revelan esa direccionalidad que hemos asociado a la atención. Entre ellas destacan los movimientos de la cabeza y las reorientaciones de los receptores,
especialmente los movimientos oculares. Aunque es fácil confundir los movimientos oculares con los desplazamientos de la atención, dado que en la
vida cotidiana suelen ir juntos, es obvio que no son lo mismo (Botella,
1998a). Sin embargo, son un buen indicador, dado que para facilitar el procesamiento de un estímulo y optimizar el rendimiento solemos fijar directamente los ojos en él, de forma que sea en la fóvea, la parte más eficiente de
la retina, donde se proyecte su imagen.
También se pueden registrar mediante técnicas de observación otras conductas de exploración, como por ejemplo desplazamientos del cuerpo o de
las manos. Estos últimos se han empleado sobre todo con niños, dado que
con ellos es más difícil emplear las tareas habituales de laboratorio. Con
animales se emplean también conductas del tipo de enderezar las orejas, o
levantar la cola, que se interpretan como indicadores conductuales de la
alerta.
3.3
Medidas psicofisiológicas
Algunas de estas medidas pueden revelar el tipo de adaptaciones que subyacen a un cambio en el rendimiento. Ya hemos visto que una de las dimensiones que varían en la atención es el aspecto intensivo, al que nos hemos
referido como adaptación inespecífica. La medida principal de este aspecto
se basa en una medida psicofisiológica: el tamaño de la pupila. Ésta refleja
bastante bien el esfuerzo mental, aunque tiene el inconveniente de que su
excesiva latencia impide vincular con fiabilidad sus cambios a microprocesos, lo que limita su utilidad a un análisis molar de las tareas. Otra medida
del aspecto intensivo es la tasa cardíaca.
De entre los indicadores que permiten inferir adaptaciones específicas
destacan los potenciales evocados, que pueden registrarse mediante electroencefalografía. A su vez, de entre los componentes de los potenciales evocados los más utilizados son el P300, el N400 y el potencial de disparidad.
71
Atención
El P300 parece estar asociado al proceso de evaluación del estímulo. Por
tanto, un componente P300 significativamente mayor en una condición experimental se interpreta en el sentido de que se está dedicando un mayor
trabajo cognitivo a la evaluación del estímulo y la toma de decisiones en
esa condición experimental.
El N400 parece estar asociado al análisis de material verbal; en concreto
al procesamiento e identificación de palabras. Cuando en una condición se
obtiene un componente N400 significativamente mayor se puede inferir
que se están procesando en mayor profundidad las palabras presentadas.
Así, por ejemplo, en su estudio sobre el procesamiento de estímulos durante el sueño, Brualla, de la Hera y Valdizán (1998) obtuvieron, ante palabras
presentadas por auriculares, un N400 significativo en la fase II de sueño, y
significativamente mayor que en las fases III y IV. Esto implica que incluso
estando dormidos se pueden identificar las palabras que llegan a nuestros
oídos.
El potencial de disparidad (Mismatch Negativity) indica que se ha detectado un estímulo diferente, un cambio en una secuencia de estímulos auditivos. Se puede, por tanto, inferir que el procesamiento y análisis de los estímulos ha alcanzado el nivel en que esos estímulos se diferencian (véase
Näätänen, 1998).
Por otro lado, las modernas técnicas de neuroimagen (TAC, PET) permiten registrar el flujo sanguíneo cerebral durante la realización de diferentes
tareas o en distintas condiciones experimentales. Si el flujo sanguíneo difiere significativamente entre las condiciones experimentales, podemos inferir que los procesos que se están realizando son distintos, especificando
además las zonas del cerebro que muestran una mayor actividad.
La respuesta psicogalvánica es un cambio en la conductancia de la piel
debido a la sudoración. Se mide dejando pasar una imperceptible corriente
eléctrica entre los electrodos colocados sobre la piel. Sabemos que estas
respuestas son sensibles al carácter afectivo/emocional de los estímulos y
las situaciones (de hecho, es la base del llamado detector de mentiras). Por
tanto, para determinar si las palabras que se presentan son filtradas o son
procesadas hasta un punto en que es extraído su significado, se han comparado las respuestas psicogalvánicas ante palabras con carga afectivo/emocional recogidas en diversas condiciones experimentales.
A veces los indicadores psicofisiológicos pueden parecer muy alejados
de lo que intuitivamente consideramos que es la atención, pero lo cierto es
que cuando se dispone de hipótesis específicas sobre la manera en que la
atención va a actuar, cualquier indicador que revele esa peculiar manera diferencial puede servirnos de manera eficaz. Pongamos un ejemplo. En el paradigma de compatibilidad de los flancos, que se describe más adelante, se
obtiene que las respuestas ante el estímulo crítico son más lentas cuando
éste está flanqueado por estímulos que tienen una respuesta asociada diferente a la del estímulo crítico, que cuando su respuesta asociada es la mis-
72
2. El estudio experimental de la atención
Tabla 2.1
Variables dependientes más utilizadas en el estudio
experimental de la atención
RENDIMIENTO
— Velocidad de la respuesta.
— Precisión de la respuesta.
— Precisión del recuerdo.
CONDUCTUALES
— Movimientos oculares.
— Conductas de exploración.
— Indicadores conductuales de la alerta.
PSICOFISIOLÓGICAS
—
—
—
—
—
Tamaño de la pupila.
Tasa cardíaca.
Potenciales evocados.
Flujo sanguíneo cerebral.
Respuesta psicogalvánica.
ma. Así, si decimos al sujeto que responda con rapidez con la tecla R1 (con
la mano izquierda) si la letra central es X o Y y con la tecla R2 (con la mano
derecha) si es O ó C, entonces las respuestas son más lentas ante la presentación OXO (condición de flancos incompatibles) que ante la presentación
YXY (condición de flancos compatibles). Es el llamado efecto de compatibilidad de los flancos. El psicólogo Charles W. Eriksen formuló la hipótesis
de que este efecto se debe a que los flancos no son completamente filtrados
y activan el sistema eferente de su respuesta asociada. La necesidad de inhibir la activación asociada a la respuesta incorrecta sería la responsable del
alargamiento del TR en la condición de flancos incompatibles. Si esta hipótesis explicativa es correcta, entonces debería observarse una activación
muscular mayor del brazo de la respuesta incorrecta en la condición de flancos incompatibles que en la condición de flancos compatibles incluso aunque el sujeto dé la respuesta correcta, predicción que se ha refrendado en varias ocasiones utilizando como indicador la activación electromiográfica
(Coles et al., 1985). Por tanto, incluso la activación electromiográfica puede
servir en algunos casos para indicar la actividad diferencial que se produce
en ciertos procesos al comparar condiciones experimentales.
4.
Tareas y paradigmas experimentales
Para poder estudiar los efectos de la atención es necesario crear condiciones experimentales en las que se igualen todos los factores, aparte de la
atención, que pudieran influir en los resultados. Vamos a ver cómo en el di-
73
Atención
seño de las tareas y los paradigmas hay un notable esfuerzo para conseguir
que los estímulos de las distintas condiciones experimentales sean equipotenciales (igual tamaño, intensidad, duración, etc.). En caso contrario, una
diferencia de rendimiento podría deberse a esos factores, en lugar de a la
variable independiente manipulada.
4.1
Algunas tareas sencillas de tiempo de reacción
Es muy frecuente que en el estudio de la atención se utilicen tareas sencillas de tiempos de reacción, como las utilizadas hace cien años por Donders para desarrollar su método aditivo. Hemos puesto en cursiva la palabra
sencillas porque sólo lo son en apariencia y, de hecho, siguen siendo un
reto para los investigadores del campo. En el estudio de la atención es muy
frecuente emplear estas tareas como parte de otros paradigmas experimentales, con objeto de analizar los cambios que se producen en su realización
y deducir de esos cambios las vías por las que actúa. Vamos a describir las
más utilizadas, ilustrándolas con ejemplos de su uso en el estudio de la
atención (véase la Tabla 2.2):
a)
b)
c)
74
Tiempo de reacción simple. Es la tarea a de Donders. Se le proporciona al sujeto un único dispositivo de respuesta, siendo su tarea
ejecutar la respuesta lo más rápidamente posible tras aparecer un
determinado estímulo, siempre el mismo. Hay en la tarea, por tanto, un único estímulo y una única respuesta. Para evitar las anticipaciones, que pueden ser frecuentes en esta tarea, se pueden incluir
ensayos trampa (sin estímulo), o dejar entre el comienzo del ensayo y la aparición del estímulo un intervalo variable que impida predecir con certeza el momento en que aparecerá el estímulo. Hay
muchos ejemplos de su uso en el estudio de la atención; así, la técnica de la tarea secundaria necesita que se emplee como tarea secundaria una muy sencilla, que suele ser una de tiempo de reacción
simple (Posner y Boies, 1971).
Tiempo de reacción de elección. Es la tarea c de Donders. En este
caso se definen al menos dos estímulos (o clases de estímulos) y
dos respuestas. El sujeto debe reaccionar lo más rápido que pueda
con la respuesta definida para el estímulo presentado. Por ejemplo,
es frecuente que el balance entre velocidad y precisión, que ya hemos descrito, se estudie con una tarea de tiempo de reacción de
elección.
Tiempo de reacción disyuntivo. Es la tarea b de Donders. En este
caso se definen dos estímulos y una sola respuesta, asociada a uno
de ellos. La tarea consiste en reaccionar con rapidez con la respuesta apropiada si se presenta el estímulo apropiado, y no dar res-
2. El estudio experimental de la atención
Tabla 2.2
Esquemas y ejemplos de algunas tareas sencillas
de tiempo de reacción
Tiempo de
reacción
simple
Tiempo de
reacción de
elección
Estímulos y
respuestas
E1 ••••• R1
E1 ••••• >R1
E2 ••••• >R2
E1 ••••• >R1
E2 ••••• > —
E1/E2 ••••• >R1
(E1 = E2)
E1/E2 ••••• >R2
(E1 ≠ E2)
Ejemplos de
tarea:
1) Aprieta R1
en cuanto se
encienda esta
luz.
1) Aprieta R1 si
aparece una A y
R2 si aparece
una B.
1) Aprieta R1 si
se presenta un
estímulo rojo;
no aprietes si
aparece de otro
color.
1) Aprieta R1 si
los estímulos
son idénticos y
R2 si no lo son.
2) Aprieta R1
en cuanto se
presente este
sonido.
2) Aprieta R1 si
aparece un
nombre de
animal y R2 si
aparece un
nombre de
mueble.
2) Aprieta R1 si
se presenta una
vocal; si se
presenta una
consonante, no
respondas.
2) Aprieta R1 si
los estímulos
son del mismo
color y R2 si no
lo son.
d)
Tarea
Tiempo de
igual/diferente
reacción
disyuntivo
(tarea go/no-go)
puesta alguna si se presenta el otro. Su nombre moderno es el de
tarea go/no-go. Por ejemplo, la tarea go/no-go se ha empleado para
poner a prueba una hipótesis explicativa del efecto de compatibilidad de los flancos en la que se postula una competición multinivel,
y no sólo en los sistemas eferentes (Botella, 1995). También se ha
empleado para estudiar uno de los postulados del modelo del
zoom, según el cual la atención tiene tres zonas (foco, margen y
exterior) siendo el efecto de compatibilidad de los flancos una función de la distancia entre los flancos y el foco (Eriksen, Pan y Botella, 1993).
Tarea igual/diferente. Se presentan dos estímulos y el sujeto dispone de dos dispositivos de respuesta, uno para indicar que los estímulos son iguales y el otro para indicar que son diferentes. La
igualdad se puede definir de muchas maneras: estricta identidad,
75
Atención
igualdad de forma, de color, de nombre, pertenencia a la misma
categoría semántica, etc. En la tarea igual/diferente se ha obtenido
un resultado muy consolidado, el de que las respuestas igual son
más rápidas que las respuestas diferente, hasta tal punto que se conoce como Efecto de los Iguales Rápidos (Same/Fast Effect). Algunos de los mecanismos de la atención se han estudiado empleando esta tarea, como por ejemplo la competición de respuestas
(Fournier, Eriksen y Bowd, 1998), el modelo del zoom para la atención visual (Pan y Eriksen, 1994) o el desplazamiento de la atención por el campo visual (García-Ogueta, 1991).
Con las tres primeras tareas Donders desarrolló su método aditivo para
estimar el tiempo requerido para realizar ciertos procesos. Así, en la tarea
de tiempo de reacción de elección hace falta percibir el estímulo, identificarlo, seleccionar la respuesta asociada y ejecutarla. En la de tiempo de
reacción disyuntivo hace falta todo lo anterior menos la selección de la respuesta, mientras que en la de tiempo de reacción simple tampoco hay que
identificar el estímulo. Donders razonó que restando los tiempos medios
entre estas tareas podía ir deduciendo el tiempo necesario para realizar los
procesos que estaban presentes en unas tareas y ausentes en otras (Botella,
León y San Martín, 1993, pp. 357-359).
4.2
Búsqueda visual
En su forma básica se presenta al sujeto un conjunto de estímulos (en número que varía de unos ensayos a otros) y se le pide que determine con rapidez si está presente o no un elemento pre-determinado, llamado objetivo
(target). Las manipulaciones más interesantes se refieren a la característica
o características que definen al objetivo y que lo diferencian de los distractores, el tipo de distractores y su grado de homogeneidad. En la Figura 2.2
se presentan algunos ejemplos.
La pregunta que se trata de responder es en qué condiciones la información o rasgos que distinguen al objetivo de los otros elementos se pueden
extraer en paralelo y servir como base para una selección en paralelo para
su procesamiento posterior (búsqueda eficiente). Si la selección se puede
realizar en paralelo, entonces el tiempo de reacción debe ser independiente
del número de elementos presentados (el TR debe ser una función plana del
tamaño de la matriz). Por el contrario, si el sistema solo puede chequear de
forma serial si los elementos cumplen las características que definen al objetivo, es decir, de uno en uno, entonces el tiempo de reacción será mayor
cuanto mayor sea el número de elementos de la matriz (función lineal creciente). Las formas de las funciones son las de la Figura 2.3 (Botella, León
y San Martín, 1993, pp. 351-354).
76
2. El estudio experimental de la atención
Figura 2.2 Ejemplos de disposiciones de estímulos para tres tareas de búsqueda visual. En la fila
superior aparecen ejemplos de ensayos positivos (objetivo presente) y en la inferior de ensayos negativos (objetivo ausente). En cada columna aparecen ejemplos con tamaños distintos de la matriz.
Se supone que las letras que aparecen aquí más oscuras son en realidad rojas y las otras de otro(s)
color(es).
Treisman y Gelade (1980) propusieron que el sistema puede realizar una
búsqueda paralela cuando el objetivo se define con una única característica
simple, como en las dos tareas de la derecha de la Figura 2.2; por el contrario, propusieron que tenía que ser serial al definirlo mediante una conjunción de características, como en el ejemplo de la izquierda.
La extensa investigación realizada posteriormente con este paradigma
demuestra que los criterios que permiten realizar una búsqueda en paralelo
no son ni obvios ni simples. Con frecuencia se han obtenido funciones que
no se ajustan a ninguno de esos modelos. Por ejemplo, Ponte, Rechea y
Sampedro (1995) y Sampedro, Rechea y Ponte (1998) han estudiado, respectivamente, los efectos de la homogeneidad y distribución de los distractores, y el papel de las claves de profundidad, en las funciones de búsqueda.
En cualquier caso, la importancia de este paradigma experimental radica
en que con las funciones completas que relacionan el TR con el número de
Figura 2.3 Forma de las funciones que relacionan el tiempo de reacción para detectar
el objetivo con el número de elementos presentados, según los modelos serial y paralelo
simples.
77
Atención
elementos presentados se pueden inferir los modos de procesamiento que
median la detección del objetivo en diferentes condiciones de búsqueda.
Mientras en la forma básica del paradigma de búsqueda se utiliza un
solo objetivo y siempre el mismo a lo largo de la tarea, en los años setenta
y ochenta se estudió extensamente una variante que consiste en modificar
de unos ensayos a otros el número y tipo de objetivos. Se presenta primero
en una pantalla una letra o más, que son los objetivos que hay que detectar
en ese ensayo y que en este contexto reciben el nombre de conjunto de memoria. A continuación se presenta una pantalla con un conjunto de letras,
sobre las que el sujeto tiene que decidir con rapidez si está o no presente
alguno de los ítems del conjunto de memoria. Este paradigma permite estudiar, además de lo anterior, los efectos producidos por el tamaño del conjunto de memoria y por las variaciones en éste y en la identidad de sus elementos (véase, por ejemplo, Algarabel, 1985; Orgaz y Prieto, 1991).
4.3
Paradigmas de preaviso con SOA corto
Fueron ideados para estudiar la atención tratando a la vez de evitar la potencial contaminación que producirían los movimientos oculares. Una vez
que la atención está bien focalizada en el punto de fijación aparece una
marca, llamada pista, que aporta alguna información relativa a la posición
donde aparecerá el estímulo imperativo, o señal, que aparece poco después.
La clave de estos paradigmas está en el uso de un intervalo corto entre la
pista y la señal (el intervalo suele llamarse SOA, o Stimulus Onset Asynchrony) para que los resultados no se vean contaminados por los movimientos
oculares. Como es sabido, en la zona central de la retina (la fóvea) se alcanza la máxima agudeza visual. Si se manipula el tiempo entre el aviso y el
estímulo y en unas condiciones experimentales se da el tiempo suficiente
para realizar movimientos oculares y en otras no, las diferencias en el rendimiento se podrían ver alteradas por este factor, dado que el procesamiento en las distintas condiciones se basaría en señales de diferente calidad.
Para evitar esto se han utilizado paradigmas en los que el intervalo pista-señal, o SOA, es menor al necesario para un movimiento sacádico de los ojos
(menores de 180-200 milisegundos).
Lo que se espera es que durante el SOA el sistema comience a realizar
algunas de las operaciones encaminadas a dar la respuesta, con lo que se
ahorra tiempo con respecto a una condición sin pista o con SOA igual a
cero. Por ejemplo, si la pista indica dónde va a aparecer la señal y el sujeto
comienza en cuanto aparece la pista una supuesta maniobra de desplazamiento de la atención, entonces se reducirá el tiempo de reacción a la señal.
Obviamente, las operaciones que se pueden realizar durante el SOA no pueden necesitar la información contenida en la señal. Si para procesar un estímulo antes tiene la atención que orientarse hacia él, entonces el intervalo
78
2. El estudio experimental de la atención
puede utilizarse para comenzar (o incluso completar) la reorientación; pero
si la tarea es de tiempo de reacción de elección, la identificación del estímulo no podrá comenzar hasta que éste aparezca. Botella, Villar y Ponsoda (1988) emplearon un paradigma de este tipo para estudiar la distribución
de la atención en el espacio.
SOA
Figura 2.4
a)
Esquema de una tarea de preaviso.
Las funciones TR-SOA. Una vez bien establecido el efecto facilitador que tiene el preaviso, se abordó la tarea de estudiar los parámetros temporales del efecto. Para ello la variable independiente
manipulada ha sido el SOA. El esquema de una tarea de preseñalización típica aparece en la Figura 2.4. En la segunda pantalla aparece
una pista que indica dónde aparecerá la letra objetivo. La tarea del
sujeto consiste en decidir con rapidez si en la pantalla hay una X o
una O (tiempo de reacción de elección).
Al manipular el SOA se obtiene la función TR-SOA, que suele
adoptar la forma de la Figura 2.5 (Eriksen, 1990). Cuanto mayor es
el SOA menor es el TR, es decir, mayor porción del proceso de reorientación de la atención se puede realizar antes de que aparezca el
objetivo. Sin embargo, llegado un punto ya no se reduce más el TR,
lo cual nos indica cual es el intervalo necesario para completar todo
el proceso de reorientación. El máximo SOA empleado suele ser inferior a 200 ms., de forma que se puedan producir desplazamientos
de la atención, pero no de los ojos.
79
Atención
Figura 2.5
Función TR-SOA típica.
b) La tarea de Posner. Ideada por Michael Posner, consiste en la presentación de una pista y una señal (o estímulo imperativo), utilizando un SOA corto y fijo. La pista es una indicación probabilística que
aparece en la posición del punto de fijación, y mediante su orientación informa al sujeto de las probabilidades de aparición del estímulo en cada una de las dos posiciones posibles.
Es habitual que la probabilidad de que la señal aparezca en la posición
señalada por la pista (o validez de la pista) sea de 0,75-0,80. Con esta probabilidad la señal aparecerá en el lugar indicado y con la probabilidad complementaria (0,25-0,20) aparecerá en el otro (ensayos con pista válida e inválida, respectivamente). En algunos ensayos se presenta una cruz neutral
en lugar de la pista, que indica que la señal aparecerá con probabilidad 0,5
en cada posición (véase Figura 2.6).
Figura 2.6
80
Esquemas de ensayos válidos, neutrales e inválidos en la tarea de Posner.
2. El estudio experimental de la atención
Si el sujeto comienza la supuesta maniobra de desplazamiento de la
atención en cuanto aparece la pista y siempre en la dirección indicada por
ésta, entonces en los ensayos en los que ésta sea válida se reducirá el tiempo de reacción. En los ensayos sin pista o con pista neutral no se podrá comenzar el desplazamiento hasta que aparezca la señal. En cambio, en los
ensayos en los que la señal aparece en el lado contrario (ensayos con pista
inválida), al aparecer ésta ya se habrá comenzado un desplazamiento, pero
en la dirección contraria. Esto explicaría, respectivamente, los costes y beneficios que se suelen obtener (véase Figura 2.7) al presentar una pista inválida o una válida, en comparación con la condición de pista neutral (véase Botella, León y San Martín, 1993, pp 354-357). Podemos encontrar
ejemplos de uso de esta tarea en Ávila (1994) y en Ponsoda, Walker, Findlay y van’t Land (1998).
Figura 2.7
4.4
Resultados típicos con la tarea de Posner.
Las tareas de escucha selectiva
Uno de los primeros procedimientos empleados por la psicología moderna
para estudiar la atención selectiva con tareas relativamente parecidas a lo
que hacemos en la vida cotidiana fue el uso de tareas de escucha selectiva.
En ellas se presentan a los sujetos mensajes por medio de auriculares. En la
escucha dicótica se presenta un mensaje diferente a cada oído, mientras
que en la escucha biaural se presentan ambos mensajes por los dos oídos.
La tarea consiste en prestar atención a uno de los mensajes e ignorar el
otro.
Las tareas de escucha selectiva tienen una gran ventaja sobre las tareas
visuales, ventaja que probablemente explica por qué en la época del renacimiento cognitivo se empezó trabajando preferentemente con esta modalidad sensorial. Esta ventaja consiste en que al emplear auriculares para presentar los estímulos no importa que se produzcan movimientos de los
órganos sensoriales. Mientras que en la modalidad visual no podemos estar
81
Atención
seguros de que los sujetos no muevan los ojos, a no ser que utilicemos un
SOA corto o empleemos un registrador de movimientos oculares, en la auditiva el uso de auriculares hace que los movimientos de la cabeza sean
irrelevantes.
En algunos experimentos de escucha selectiva se utilizaba como variable
dependiente el recuerdo posterior de los mensajes. Esto concitaba dudas
acerca de lo que los sujetos estaban haciendo realmente durante la escucha.
Para asegurarse de que los sujetos realmente ejercían su máximo esfuerzo
para prestar atención al mensaje indicado y solo a éste, se introdujo la técnica de sombreado, en la que se pide a los sujetos que vayan repitiendo el
mensaje a medida que se presenta. Se llama técnica de sombreado o de seguimiento (por shadowing) porque los sujetos deben seguir el mensaje muy
de cerca, como si fuera su propia sombra. Es algo parecido a lo que se hace
en la traducción simultánea, pero haciendo una mera repetición.
Las manipulaciones más importantes en estas tareas se refieren a las características que distinguen al mensaje relevante del mensaje(s) irrelevante(s). En concreto, se han diferenciado por la posición espacial (escucha
dicótica), por el tono (voz masculina frente a femenina), el idioma, el contenido de los mensajes, etc.
El objetivo principal en esta tarea es determinar en qué condiciones el
rendimiento es similar en presencia del mensaje irrelevante que en su ausencia. A partir del estudio de esas condiciones se han ido formulando hipótesis relativas a cómo la atención segrega lo relevante de lo irrelevante
(debate sobre el lugar de la selección; véase el Capítulo 1). Como ejemplo
de su uso podemos citar el trabajo de Fuentes y Tudela (1982), quienes estudiaron la selección atencional con un paradigma de escucha dicótica con
sombreado, siendo el recuerdo posterior la variable con la que se operativizaba la atención prestada al canal irrelevante.
4.5
Compatibilidad de los distractores
Dado que, como hemos visto, en ningún caso se puede utilizar un procedimiento o unas instrucciones que den valor de saliencia a los distractores,
una vía alternativa ha consistido en manipular las características de los distractores, con objeto de inferir el grado y tipo de procesamiento que reciben
los distractores a partir de su influencia sobre el procesamiento del objetivo. Es algo parecido a lo que ocurre en el efecto Stroop (véase el apartado
4.6), pero en lugar de referirse a dos dimensiones de un mismo estímulo se
refiere a estímulos distintos. Ejemplo de ello es el paradigma de los flancos
o tarea de Eriksen. En esta tarea se presenta un punto de fijación que es
sustituido por un estímulo (frecuentemente una letra) que actúa como estímulo imperativo, es decir, como el estímulo al que hay que responder. La
tarea puede ser, por ejemplo, de tiempo de reacción de elección (véase el
82
2. El estudio experimental de la atención
apartado 4.1); por ejemplo, apretar una tecla si se trata de una X o una Y y
otra tecla si se trata de una O o una C. Esa letra central aparece acompañada de otras letras a sus lados, llamadas flancos. La manipulación fundamental es la relación entre el estímulo imperativo y los flancos. Cuando tienen asociada la misma respuesta, como por ejemplo en las presentaciones
YXY o COC, se dice que son flancos compatibles. Cuando tienen asociada
la respuesta contraria, como en OXO o YCY, se dice que son flancos incompatibles. Por último, a veces se presenta flanqueada por letras no definidas en la tarea, como en ICI o ZYZ, en cuyo caso se dice que son flancos
neutrales, aunque se ha propuesto un diferente análisis y un distinto nombre
para ellos (Botella y Barriopedro, 1997). En la Figura 2,8 aparecen esquemas de las condiciones, aunque con frecuencia se han diseñado ingeniosas
variantes del procedimiento original (véase, por ejemplo, Alvarado, Santalla y Santisteban, 1998).
flancos
compatibles
Figura 2.8
flancos
neutrales
flancos
incompatibles
Esquemas de las condiciones en una tarea de compatibilidad de los flancos.
El resultado básico es que se tarda más en dar la respuesta si los flancos
son incompatibles que si son compatibles, mientras que en la condición de
flancos no definidos en la tarea (neutrales) se suele encontrar un TR intermedio. En la Figura 2.9 presentamos, como ejemplo, los resultados de Botella (1995) en una tarea de este tipo. Este resultado revela una limitación
en nuestra capacidad selectiva. La información espacial relativa a dónde
aparecerá el objetivo no parece suficiente para filtrar e ignorar los otros estímulos. Esto se infiere por las influencias que la identidad de los estímulos
que se debían ignorar tienen sobre las respuestas al estímulo crítico. Si el
sistema realizase un filtrado perfecto basado en la localización espacial, el
TR sería independiente de la identidad de los flancos.
La principal ventaja de este procedimiento es que se consigue tener un
indicador del procesamiento de los estímulos irrelevantes sin necesidad de
que los sujetos respondan directamente a ellos.
83
Atención
Figura 2.9
4.6
Resultados típicos con la tarea de compatibilidad de los flancos.
La tarea de Stroop y sus variantes
Stroop presentaba palabras escritas en diferentes colores. Los sujetos tenían
que nombrar con rapidez los colores en los que estaban escritas las palabras; las palabras podían, a su vez, ser nombres de colores. La manipulación esencial se refería a la congruencia entre el significado de la palabra y
el color de la tinta en que estaba escrita. El resultado esencial (conocido
como efecto Stroop) era que se tardaba más en nombrar los colores (y se
cometían más errores) cuando la palabra denotaba un color distinto de la
tinta en que estaba escrita (por ejemplo la palabra AZUL escrita en rojo), que
cuando la palabra no era un nombre de color (por ejemplo, la palabra MESA
escrita en azul).
Este resultado demostraba claramente que aunque lo único relevante
para la tarea era el color de las palabras, los sujetos no eran capaces de bloquear la identificación de las mismas, y el nombre de color interfería con el
color de la tinta. Se trataba de una clara limitación en el procesamiento selectivo de las características de los estímulos. Si la capacidad de selección
de la atención fuera perfecta, entonces el sistema cognitivo conseguiría que
la dimensión irrelevante no influyese en el rendimiento.
A la vista de esta limitación se han diseñado otras variantes, pero siempre con la idea básica de definir como relevante una característica de los
estímulos y estudiar la capacidad para segregar y filtrar la información relativa a las otras características (las irrelevantes para la tarea). Veamos algunos ejemplos:
a)
84
La tarea global/local. Se presentan letras grandes formadas por letras pequeñas. Al preguntar por la identidad de las letras pequeñas
(la letra grande es irrelevante para la tarea), el tiempo de reacción se
2. El estudio experimental de la atención
ve alterado según que la letra grande sea o no congruente con las letras pequeñas (véase Figura 2.10a, el trabajo de Merino y Luna,
1995, en el que se estudia este fenómeno, y el de Luna y Merino,
1989, en el que utilizan una versión de esta tarea basada en formas
geométricas).
b) El efecto Simon. El sujeto debe responder con una de las dos teclas
disponibles, según sea la identidad del estímulo (tarea de tiempo de
reacción de elección). El estímulo puede aparecer a la izquierda o a
la derecha del punto fijación, pero este aspecto es irrelevante para la
tarea. Sin embargo, se ha observado que si la respuesta correcta es
apretar la tecla de la izquierda, entonces las respuestas son más rápidas si el estímulo ha aparecido a la izquierda. Lo contrario ocurre
cuando la respuesta correcta es la de la derecha (véase figura
2.10b). Los sujetos no son capaces de filtrar completamente la información relativa a la posición del estímulo.
c) El efecto Stroop espacial. Se pregunta por la posición (arriba/abajo)
en la que aparece el estímulo, que puede ser una flecha que señala
hacia arriba o hacia abajo. Aunque la dirección de la flecha es irrelevante para la tarea, las respuestas son más rápidas cuando hay
congruencia entre la dirección de la flecha y la posición donde aparece (véase Figura 2.10c); también se puede diseñar con la dimensión izquierda/derecha (Valle-Inclán, Rumbo, Redondo y Lamas,
1995).
El efecto Stroop original, definido como la incapacidad para evitar la
identificación de las palabras siendo esa identidad irrelevante, se ha empleado en otros campos de la psicología. Por ejemplo, el llamado efecto
Figura 2.10 En el panel (a) se muestran estímulos típicamente empleados en la tarea global/local. En el superior la letra grande y las pequeñas son congruentes, mientras que en el inferior
son incongruentes. En el (b) se ilustra el efecto Simon; el tiempo de reacción será menor si la respuesta asociada al estímulo A es R1 que si es R2. En el (c) se ilustra el efecto Stroop espacial. En
el estímulo superior el tiempo de reacción es más corto que en el inferior.
85
Atención
Stroop emocional consiste en utilizar para la tarea palabras que podrían tener una carga emocional para los sujetos. Se asume que el tamaño del efecto de interferencia refleja esa emocionalidad (Martínez y Marín, 1997).
4.7
Paradigma de inatención
Como ya hemos adelantado, en este paradigma se intenta conseguir que el
sujeto focalice todo lo posible su atención en un estímulo para después hacer alguna demanda relativa a otro estímulo que creía irrelevante. Se asume
que esto sólo se puede hacer una vez por cada sujeto (Mack y Rock, 1998;
Rock y otros, 1992). En concreto, se presentan en dos o tres ensayos dos líneas que forman una cruz. El sujeto debe decidir si son iguales o no y cuál
de ellas es más larga (véase Figura 2.11a). Se utilizan diferencias de longitud que hagan difícil la tarea y exijan una completa focalización de la atención. En el tercer o cuarto ensayo (el ensayo de inatención) se presenta a la
vez que la cruz un estímulo inesperado que suele ser una pequeña forma
geométrica, fácilmente detectable en condiciones normales (véase Figura
2.11b).
Figura 2.11 Estímulos empleados en el paradigma de inatención, en los ensayos no críticos (a) y
críticos o de inatención (b).
En el ensayo de inatención también se pregunta por la longitud de las líneas, pero inmediatamente a continuación se les pregunta si han detectado la
presencia de algún estímulo diferente a las líneas. Aproximadamente el 25
por ciento no informan de la presencia del estímulo, son lo sujetos ciegos
por inatención. A los sujetos que sí han detectado la presencia del estímulo
se les puede preguntar después por sus características (forma, color, etc.);
muchos sujetos dicen que apareció algo, aunque no saben describir sus características. De esta forma se intenta establecer qué información es procesada y hasta qué punto. Sólo hay un ensayo de inatención por sujeto porque,
tras preguntarle sobre la presencia del segundo estímulo, en los ensayos subsiguientes ya no se podría asumir que el sujeto está haciendo lo que queremos: concentrarse todo lo posible en la tarea de comparación de líneas.
86
2. El estudio experimental de la atención
Es frecuente que después se realice algún otro ensayo en el que se vuelve a presentar el estímulo irrelevante, asumiendo que para el sujeto será,
implícitamente, un ensayo de atención dividida, dado que ya está alertado
de la relevancia del segundo estímulo. A veces se presenta a continuación
un nuevo ensayo en el que se le advierte al sujeto que se le preguntará por
ambos estímulos. En estos ensayos el rendimiento con el segundo estímulo
suele ser perfecto, lo que demuestra que el segundo estímulo es fácilmente
identificable y que los resultados del ensayo de inatención no se deben a
factores sensoriales, sino a factores atencionales.
Con este procedimiento básico se pueden manipular diversas variables
independientes para estudiar las posibles variaciones en el efecto, como la
posición del segundo estímulo, su forma y color, etc.
4.8
Paradigma de la señal de stop
Se presenta un estímulo imperativo al que el sujeto debe responder con rapidez (por ejemplo, en una tarea de tiempo de reacción de elección). En
una pequeña porción de los ensayos se presenta, después de ese primer estímulo, pero antes de la respuesta, otro estímulo cuya presencia indica al
sujeto que debe suprimir la respuesta al primero. La manipulación principal
es el intervalo entre los dos estímulos. Obviamente, la probabilidad de
abortar el proceso e inhibir la respuesta es menor cuanto mayor es el intervalo entre ambos estímulos. Se establece una especie de carrera entre el
procesamiento del estímulo imperativo (recordemos que es una tarea de velocidad) y el procesamiento de la orden de abortar la respuesta.
El objetivo original de este paradigma era la determinación de cuándo se
alcanza un punto, en la cadena de procesos que conducen a la respuesta, en
el que el procesamiento adquiere un carácter balístico, es decir, cuando ya
no se puede impedir que se ejecute la respuesta. Es evidente que la capacidad para abortar la cadena de procesos es una de las manifestaciones de la
atención. Por eso recientemente se ha empleado para estudiar las desviaciones atencionales de los niños diagnosticados con síndrome de déficit atencional, observando que sus supuestos déficit inhibitorios generales se reflejan también en una mayor dificultad para inhibir las respuestas en esta
tarea. Esta tarea permite, por tanto, detectar defectos en la flexibilidad atencional.
4.9
La presentación rápida de series visuales (PRSV)
Consiste en la presentación, en la misma posición de la pantalla, de una secuencia de estímulos a una tasa muy alta, típicamente entre 50 y 120 ms.
por ítem (es decir, entre 8 y 20 ítems por segundo). Produce una impresión
87
Atención
similar a la de un contador de vídeo. El sujeto tiene la impresión de que los
estímulos se reconocen brevemente al aparecer, pero de alguna forma se
desvanecen de inmediato. En realidad, la PRSV no puede considerarse
como un paradigma experimental, sino más bien como una técnica que se
emplea en varios paradigmas experimentales y que permite presentar múltiples estímulos evitando los movimientos oculares y controlando el tiempo
de observación de cada uno.
Por un lado, se ha utilizado para estudiar la formación de conjunciones
ilusorias en el tiempo, es decir, la formación de perceptos inexistentes mediante rasgos realmente presentados, pero pertenecientes a estímulos distintos (Botella, 1998b). Así, si presentamos los estímulos con un SOA de 80
ms. y preguntamos a los sujetos qué palabra aparece en mayúsculas en el
ensayo de la Figura 2.12 la mayor parte de los sujetos acertarán. Pero los
errores no serán aleatorios. El más frecuente consistirá en dar como respuesta la palabra de la posición +1 (manta), la segunda en frecuencia será
la –1 (libro) y, por último, habrá respuestas esporádicas con las palabras de
las posiciones 2. Los sujetos combinarían una característica realmente presente (estar en mayúsculas) con una identidad de palabra también presente,
aunque estas características perteneciesen de hecho a estímulos distintos.
La técnica de PRSV se ha empleado también para estudiar la reorientación de la atención. Sperling y sus colaboradores (Sperling y Reeves, 1980;
Reeves y Sperling, 1986) pedían a sus sujetos que mantuviesen los ojos fijos en la cruz central, que no desaparecía en todo el ensayo, mientras aparecía una serie de estímulos visuales a cada lado de la cruz. Se trataba de detectar la letra T en la serie de la izquierda y entonces identificar el primer
Figura 2.12 Esquema de un ensayo de una tarea de identificación empleando la técnica de
PRSV. Se trata de identificar la única palabra que aparece en mayúsculas. Asignando el cero a
la posición de la palabra objetivo, cada uno de los otros estímulos ocupa la posición que se indica (con números negativos los presentados antes y con números positivos los presentados
después).
88
2. El estudio experimental de la atención
dígito que pudieran de la serie de la derecha. Se infiere que cuanto posterior sea la posición en la que se presentó en la serie el dígito informado,
mayor habrá sido el tiempo empleado para desplazar la atención de la posición de una serie a la de la otra. Manipulando la distancia entre las posiciones se pueden deducir las características espaciales de la atención (Barriopedro y Botella, 1998).
Recientemente se ha empleado esta técnica para estudiar el fenómeno
conocido como parpadeo atencional (attentional blink). Se presenta una
serie de letras en negro sobre un fondo gris, e incluyendo en la serie una letra en blanco. En algunos ensayos aparece en alguna posición posterior a la
letra blanca la letra X. En la condición experimental se le pide al sujeto que
identifique la letra blanca y además diga si aparece o no la X. En la condición de control solo tiene que detectar la X. Mientras en la condición de
control el rendimiento en la tarea de detectar la X es prácticamente perfecto, en la condición experimental se observa una disminución en el rendimiento, sin duda debida al procesamiento de la letra blanca. Esa reducción
es función también de la posición temporal en que se presenta la X. Cuando
aparece en la posición +1 o en las posiciones +7 y siguientes, no se reduce
el rendimiento, mientras que la reducción es máxima cuando aparece en las
posiciones +2 a +5.
Este paradigma muestra que los procesos asociados a un estímulo pueden impedir (ser incompatibles con) los asociados a otro, de forma que
aunque éste último sea perfectamente identificable a nivel sensorial, el sujeto sea de hecho atencionalmente ciego hacia ellos durante el breve período temporal en el que el sistema cognitivo está dedicado al primer estímulo. Este fenómeno está muy relacionado con el período refractario
psicológico, que describiremos en el apartado 4.11. En ambos casos se estudian las limitaciones del sistema en cuanto a la concurrencia de procesos,
por el procedimiento de presentar los dos estímulos de forma desincronizada y observar la interferencia del primero sobre el procesamiento del segundo.
4.10
Las tareas de priming
Ya hemos visto que algunos paradigmas experimentales se basan en la estrategia de inferir el procesamiento que recibe un estímulo (el distractor o
distractores) a partir de su influencia sobre el procesamiento de otro estímulo (estímulo imperativo). En algunos paradigmas, como el de compatibilidad de los flancos, el estímulo imperativo y los irrelevantes se presentan
a la vez. Pero si los estímulos irrelevantes para la respuesta actual se presentan antes que el estímulo imperativo, a veces como parte del ensayo anterior, entonces estamos ante los paradigmas que explotan los fenómenos
de priming. La influencia de esos estímulos irrelevantes puede consistir en
89
Atención
facilitar el procesamiento, mejorando el rendimiento (priming positivo) o
en interferirlo, reduciendo el rendimiento (priming negativo).
Originalmente, estos paradigmas se diseñaron para estudiar el procesamiento preatencional o no consciente que recibían los estímulos. Para ello
se presentaba un primer estímulo con un tiempo de exposición muy breve y
enmascarado, de forma que los sujetos no fueran capaces de detectar su
presencia, o al menos de identificarlo. Lógicamente, se puede inferir que
cualquier característica de este estímulo que influyera en el procesamiento
del siguiente tenía que haber sido extraída en esas difíciles condiciones (Perea, Gotor y Nacher, 1997).
Actualmente estos fenómenos han suscitado interés por sí mismos, y con
frecuencia se estudian en paradigmas experimentales únicos. Veamos un
ejemplo. En una tarea de priming muy utilizada en la actualidad se presentan en cada ensayo dos estímulos solapados de distintos colores, por ejemplo uno rojo y otro azul (véase Figura 2.13a). La demanda de la tarea es
identificar, nombrándolo o presionando una tecla, el estímulo que cumple
la condición de aparecer, por ejemplo, en rojo. Los efectos de priming exigen un análisis basado en pares de ensayos, dado que la manipulación principal es la relación entre los estímulos de dos ensayos consecutivos, el primero llamado ensayo prime y el segundo ensayo probe. Cuando en el
ensayo probe el estímulo en rojo es el mismo que en el ensayo prime el
tiempo de respuesta es menor que cuando es uno no presentado en el ensayo prime, y éste a su vez es menor que si se trata del estímulo en azul del
ensayo prime. Es decir, supongamos que en el ensayo probe el estímulo en
rojo es la letra F. Si en el ensayo prime la letra atendida (letra roja) fue la
misma, entonces la respuesta se ve facilitada, mientras que si esa letra fue
la ignorada (letra azul), la respuesta se ve interferida (véase Figura 2.13b).
La reducción en el tiempo de respuesta de los ensayos de repetición
atendida es lo que tradicionalmente se ha llamado priming, mientras que el
incremento en los ensayos de repetición ignorada, un fenómeno de más reciente descubrimiento y estudio, es lo que suele llamarse priming negativo.
Los fenómenos de priming demuestran que la actuación de la atención
en el ensayo prime deja algún vestigio aun vigente durante la ejecución del
ensayo probe, sobre el que ejerce cierta influencia. Del estudio de esos vestigios se intenta deducir cómo actúa la atención. En concreto, desde la formulación del modelo del filtro de Broadbent (1958) se asumió que la selección atencional se produce mediante un mecanismo de realce, es decir, el
sistema intensifica de alguna forma el procesamiento de lo relevante. Sin
embargo, el priming negativo se ha constituido en el principal argumento
para avalar otra forma (no excluyente con la anterior) por la que la atención
da lugar a un procesamiento selectivo. Esta vía consistiría en mecanismos
de inhibición activa de las representaciones internas de lo irrelevante. Los
efectos de esta inhibición se alargarían en el tiempo, de forma que durante
el ensayo probe aun ejercerían cierto efecto. Se han obtenido efectos de pri-
90
2. El estudio experimental de la atención
Figura 2.13 (a) Modo de presentación. (b) Condiciones experimentales. Se supone que cada par
de letras se presenta de forma solapada, siendo la tarea del sujeto nombrar con rapidez la roja (aquí
en oscuro) e ignorar la azul (aquí en claro). El ensayo probe es el mismo en las tres condiciones
experimentales; lo que distingue a cada condición es lo que se presentó en el ensayo prime.
ming negativo en una variedad de tareas, entre las que se incluyen tareas de
identificación de letras, de igual/diferente, de categorización semántica, de
decisión léxica, etc. Como ejemplos de uso, Recarte y García (1989) y Sánchez y Tudela (1989) han empleado en sus trabajos paradigmas de priming,
mientras que Ortells y otros (1998) han explorado los parámetros temporales del fenómeno de priming negativo semántico utilizando una variante del
paradigma descrito más arriba.
Una variedad de los efectos de inhibición se refiere no tanto a las características de los estímulos como a su posición espacial. Nos referimos al fenómeno conocido como inhibición de retorno. Para producir este fenómeno
se utiliza una variante de la tarea de Posner en la que se manipula el SOA.
Si se utiliza un SOA corto (en torno a 100 milisegundos) la pista facilita la
detección, pero si se emplea un SOA muy largo (en torno a los 300 milisegundos) entonces se produce interferencia en lugar de facilitación. Este fenómeno se interpreta en el sentido de que en la condición de SOA largo al
sistema le da tiempo a sintonizar la atención con la posición señalada y
constatar que allí no hay estímulo alguno. Entonces probablemente se vuelve a desplazar hacia el centro. Cuando finalmente aparece el estímulo en la
posición que se señaló, parece que durante cierto tiempo hay una dificultad
91
Atención
especial para volver a dirigirse hacia ella. Parece como si hubiera una inhibición que en ese momento está aun presente y que comienza tras la constatación de que el estímulo no está presente allí. Su papel adaptativo podría
ser el de no malgastar tiempo en la inspección de posiciones que se han explorado recientemente. Se trataría de una especie de sesgo hacia la novedad
(véase, por ejemplo, el trabajo de Lupiañez, Tipper y Tudela, 1998).
Tanto los fenómenos de priming como la inhibición de retorno muestran
un aspecto del procesamiento selectivo cuya existencia se sospechaba hace
mucho tiempo, aunque sólo recientemente se ha encontrado la manera de
estudiarlo. Es probable que en el futuro próximo asistamos al nacimiento
de nuevos paradigmas experimentales orientados a estudiar los fenómenos
de inhibición selectiva.
4.11
Paradigmas de doble tarea
Se utiliza en general el término doble tarea para referirse a aquellas situaciones en las que se pide a los sujetos que realicen dos tareas simultáneamente. Al manipular las condiciones y las características de ambas tareas se
puede ir probando su compatibilidad y el consumo que hacen de cualquier
tipo de recursos de procesamiento limitados del sistema cognitivo. Así, por
ejemplo, se ha podido constatar que dos tareas basadas en estimulación de
la misma modalidad sensorial se interfieren entre sí más que dos tareas basadas en modalidades distintas. El estudio de la atención dividida se fundamenta en este tipo de procedimientos.
En su forma básica se pide al sujeto, sencillamente, que trate de hacer
ambas tareas simultáneamente, con objeto de que adopte espontáneamente
la estrategia cognitiva que deduzca más apropiada. A la vista de los resultados se puede determinar si la atención se puede distribuir, hasta qué punto,
y qué efectos tiene esto sobre el rendimiento. Así, por ejemplo, Recarte y
otros (1998) han empleado técnicas de este tipo para inferir el gasto cognitivo de la tarea de conducir un automóvil por diferentes tipos de vías.
En otras ocasiones se les transmite explícitamente la distribución que se
desea (e.g., «trata de asignar dos tercios de tu atención a esto y un tercio a
aquello»), mientras que en la variante conocida como técnica de la tarea
secundaria, que describimos a continuación, se pide al sujeto que realice
una de las tareas con máximo rendimiento.
a)
92
Técnica de la tarea secundaria. La peculiaridad que caracteriza a
esta variante estriba en las prioridades que se transmiten al sujeto,
normalmente a través de las instrucciones experimentales. Supongamos que pretendemos comparar el consumo que hacen k tareas de
unos ciertos recursos de procesamiento, limitados e inespecíficos.
Podemos diseñar un conjunto de k situaciones en las que en cada
2. El estudio experimental de la atención
una se combina una de esas k tareas con una misma tarea, que actúa
como tarea secundaria. Esta tarea frecuentemente es de tiempo de
reacción simple o de detección. Es importante conseguir que los sujetos sigan la consigna de aplicar a la tarea primaria (cada una de
las k tareas que queremos comparar) todos los recursos necesarios
para realizarlas en su asíntota de rendimiento, dedicando los recursos residuales a la tarea secundaria. De esta forma, el rendimiento
en la tarea secundaria permite deducir el consumo de cada tarea primaria. El rendimiento en la tarea secundaria será peor cuanto más
exigente sea la tarea primaria.
La clave de este paradigma reside en que permite la comparación.
Las k tareas pueden ser de naturaleza diferente y puede no tener sentido compararlas directamente. Por ejemplo, ¿qué tiempo de reacción
medio reflejaría un rendimiento similar al de una tarea de precisión
en la que se consigue un 80 por ciento de aciertos? Con este paradigma se resuelve este problema, dado que lo que se compara es el rendimiento en la tarea secundaria, que es siempre la misma.
b) Técnica de la prueba del gasto. Una variante de la anterior es la técnica de la prueba del gasto, en la que se intenta sincronizar la presentación del estímulo de la tarea secundaria con procesos específicos
relacionados con la tarea primaria. Uno de los trabajos más conocidos en los que se emplea esta técnica es el de Posner y Boies (1971).
Presentaban primero una cruz, que actuaba como punto de fijación
ocular. Tras 500 milisegundos se presentaba una letra debajo de esta
cruz. Tras otros 1000 milisegundos se presentaba una segunda letra a
la derecha de la primera (véase Figura 2.14).
Figura 2.14
Secuencia de pantallas en la tarea de Posner y Boies (1971).
93
Atención
Los sujetos debían apretar con rapidez una tecla si las letras
eran la misma y otra tecla si eran diferentes (tarea igual/diferente;
véase el apartado 4.1). Las dos teclas de respuesta de esta tarea se
accionaban con la mano derecha. En algunos ensayos aparecía repentinamente un sonido, al que los sujetos debían responder con rapidez apretando una tecla con la mano izquierda (tarea de tiempo de
reacción simple; véase, de nuevo, el apartado 4.1). La clave del experimento estaba en la manipulación de los momentos en los que
aparecía el sonido. Se eligieron ocho momentos distintos, definidos
por la tarea igual/diferente (véase Figura 2.15).
Figura 2.15 Esquema temporal de la tarea empleada por Posner y Boies (1971). En la parte superior de la flecha de tiempo se muestran los momentos en los que aparecen los elementos de la tarea
de comparación de letras. En la parte inferior se muestran las ocho posiciones temporales en las
que podía aparecer el estímulo de la tarea secundaria (el sonido), asignando el origen (cero) al momento de aparición del punto de fijación.
c)
La lógica que subyace se basa en la inferencia de que cuanto
mayores son los tiempos de reacción a los sonidos, menos capacidad de procesamiento hay disponible para ocuparse de esta tarea y,
por tanto, más capacidad se está empleando en la operación específica que se está realizando en la tarea de comparación de letras.
Manipulando ciertas variables se pueden estudiar los fenómenos
de interferencia debidos a la concurrencia de procesos (véase, por
ejemplo, el trabajo de Botella, 1985).
Respuestas rápidas ante estímulos casi simultáneos. Hace mucho
tiempo que los psicólogos experimentales se dieron cuenta de que
cuando el sujeto debe dar respuestas rápidas a dos estímulos presentados en rápida sucesión y el segundo estímulo se presenta antes de
que se haya respondido al primero, entonces se demora la respuesta
al segundo (véase Figura 2.16). Lógicamente, esa demora es mayor
o menor en función del intervalo entre los estímulos (véanse, en la
Figura 2.17, los resultados obtenidos con este paradigma por Botella, 1985).
Esta demora (el fenómeno empírico) recibió el nombre de período refractario psicológico, un nombre que no es meramente descriptivo, sino
94
2. El estudio experimental de la atención
Figura 2.16 Esquema del procedimiento para observar el período refractario psicológico. En el
panel (A) el Intervalo Entre Estímulos (IEE) es mayor que el tiempo de reacción al primer estímulo
(TR1). En el panel (B) es menor, por lo que el tiempo de reacción al segundo estímulo (TR2) se incrementa.
que implica una interpretación del mismo. En concreto, el nombre parece
sugerir que los sistemas implicados en el procesamiento de esos estímulos
tienen la característica de que hay un tiempo mínimo indispensable entre
dos posibles acciones.
Sea cual sea la interpretación que se le dé, lo cierto es que es un fenómeno que concitó un enorme interés en los años cincuenta y sesenta, interés que ha renacido en los últimos diez años. Además de la del intervalo,
las manipulaciones más importantes son la naturaleza de las dos tareas implicadas y los estímulos empleados. Lo que habitualmente se busca con
este paradigma es establecer las condiciones en las que se produce esa demora y aquellas en las que no aparece, así como a qué variables es sensible
Intervalo entre estímulos (IEE)
Intervalo entre estímulos (IEE)
Figura 2.17 Resultados de dos sujetos obtenidos por Botella (1985) en un experimento sobre el
período refractario psicológico. El efecto se manifiesta en la reducción en el tiempo de reacción al
segundo estímulo (TR2) a medida que se incrementa el intervalo entre estímulos (IEE).
95
Atención
su tamaño. Con ello se trata de caracterizar los mecanismos psicológicos
responsables de la demora. Por ejemplo, la primera teoría explicativa fue la
del canal único (Welford, 1952). Según ésta, hay un mecanismo que sólo
puede procesar los estímulos en serie. Si cuando llega un estímulo (en este
caso el segundo) el sistema está todavía ocupado con el primero, entonces
deberá esperar para ingresar en él y ser procesado. Esta teoría ha permitido
derivar predicciones relativamente precisas que se han podido contrastar
con manipulaciones experimentales concretas (véase, por ejemplo, el capítulo IX de Kahneman, 1997).
Bibliografía comentada
Botella, J. (1998): Atención, en Monserrat, J. La percepción visual, Madrid, Biblioteca Nueva. Una breve introducción a los conceptos más básicos de la atención.
Botella, J. y Ponsoda, V. (1998): La atención: Un enfoque pluridisciplinar, Valencia, Promolibro. Recopilación de trabajos de investigación, mayoritariamente
experimentales, en torno a la atención. En este libro, compuesto por 31 capítulos independientes, se pueden encontrar ejemplos del uso de buena parte de los
paradigmas experimentales que hemos presentado en este capítulo.
García-Sevilla, J. (1997): Psicología de la atención, Madrid, Síntesis. Se trata de un
manual básico sobre atención. Tiene un lenguaje sencillo y asequible para cualquier estudiante de psicología. Abarca de forma prácticamente completa el campo de la atención.
Kahneman, D. (1997): Atención y Esfuerzo, Madrid, Biblioteca Nueva. Es la traducción al castellano de una de las obras más influyentes en el campo de la
atención. En este libro expone Kahneman su teoría sobre la atención humana.
Para ello se revisa la evidencia experimental relevante. Algunos capítulos (especialmente el IX) son muy ilustrativos de cómo se puede sacar todo el partido a
algunos de los paradigmas experimentales descritos en este capítulo.
Rosselló, J. (1997): Psicología de la atención, Madrid, Pirámide. Una introducción
conceptual que culmina en una reflexión sobre el concepto de atención y sus
implicaciones.
Tudela, P. (1992): Atención, en J. L. Fernández Trespalacios, y P. Tudela (eds.):
Atención y Percepción, en J. Mayor y J. L. Pinillos (dirs): Tratado de Psicología
General, vol. 3, Madrid, Alhambra. Pío Tudela, probablemente el autor español
más importante en el campo de la atención, expone su autorizado punto de vista. Imprescindible para abordar una reflexión en profundidad del concepto de
atención.
96
2. El estudio experimental de la atención
Preguntas de revisión
1. Para estudiar los efectos del ruido sobre el rendimiento en una tarea de
atención selectiva diseñamos un experimento con dos condiciones: una
sin ruido y otra con ruido ambiental. La tarea es de tiempo de reacción
de elección. Encontramos los resultados que se indican más abajo.
Concluimos que, dado que en la condición con ruido ambiental el rendimiento es peor, el ruido consume parte de nuestros recursos atencionales. ¿Se podrían explicar, alternativamente, estos resultados por un
cambio en el balance velocidad/precisión?
Condición
TR medio
Aciertos
Sin ruido
Con ruido
485 ms
498 ms
96%
88%
2. En un famoso experimento publicado en los años sesenta se presentaban palabras por los auriculares, de forma dicótica, siendo la tarea de
los sujetos repetir las palabras del oído izquierdo a medida que se presentaban y presionar una tecla siempre que oyeran por el derecho un
click. Diga de qué tipo de paradigma se trata (I), qué técnica se empleaba para asegurarse de una mayor concentración en el mensaje del
oído izquierdo (II) y qué tipo de tarea es la que se realiza sobre el
mensaje del oído derecho (III):
I
II
III
Escucha selectiva
Doble tarea
Stroop auditivo
Sombreado
Identificación
Priming
Identificación
Igual/diferente
Detección
3. En las tareas de búsqueda visual, un modo serial de procesamiento implica que el sistema procesa todos los elementos presentados, uno a
uno, hasta que encuentra el objetivo y emite la respuesta positiva.
¿Qué predicción cuantitativa podemos hacer desde este modo de procesamiento para los ensayos negativos (objetivo ausente)?
4. Según lo hemos expuesto, en el paradigma utilizado para estudiar el
Período Refractario Psicológico (PRP) se espera que el TR medio al segundo estímulo se vaya reduciendo a medida que se alarga el Intervalo Entre Estímulos (IEE). En caso de ser correcto el modelo de canal
único, descrito al final del apartado (c) de la sección 4.11, ¿cómo debería cambiar el TR medio al primer estímulo al ir alargando el IEE?
97
Atención
5. Siguiendo con el paradigma del PRP y el modelo descrito, ¿cómo se podría expresar matemáticamente el incremento en el TR al segundo estímulo en función del IEE?
6. Supongamos que presentamos a los sujetos dos mensajes por medio de
auriculares, de forma dicótica, diciéndoles que al acabar el ensayo se
les harán preguntas relativas al mensaje del oído derecho. Después de
hacerlo así en varias ocasiones, en un ensayo les preguntamos sin previo aviso si han oído por el mensaje de la izquierda el nombre de alguna capital europea, con objeto de constatar el grado de procesamiento
de este mensaje. ¿A qué paradigma de los descritos se corresponde la
lógica que subyace en este experimento?
7. Queremos diseñar un experimento para estudiar si se puede procesar
selectivamente la posición de un estímulo en el campo visual sin necesidad de identificarlo. Ponga un ejemplo de una tarea que podría utilizarse y de los estímulos que se emplearían.
8. En un famoso experimento con el paradigma de Stroop publicado en
los años setenta se observó que, dentro de la condición de incompatibilidad entre los colores y las palabras, cuando el nombre del color en
que estaba escrita una palabra era la palabra presentada en el ensayo
anterior, el rendimiento era peor que si eran palabras nuevas. ¿Qué fenómeno básico de la atención selectiva descrito en este capítulo está
estrechamente relacionado con este resultado?
98
3. Selección
para la percepción,
selección para la acción *
Jaume Rosselló Mir
La atención, desde un punto de vista funcional, puede concebirse a partir
del binomio selección para la percepción/selección para la acción. Desde
este punto de partida, en este capítulo se profundiza en las aproximaciones
teóricas más recientes que abordan el estudio del mecanismo atencional,
dando prioridad a una de las dos funciones o procurando adoptar una postura integradora. Tras ofrecer al lector una introducción que reflexiona sobre las principales cuestiones que ocupan a los estudiosos de la psicología
de la atención contemporánea, se exponen las perspectivas más relevantes
que conciernen a la selección para la percepción, partiendo de la polémica
que enfrenta a quienes defienden que nuestro mecanismo atencional selecciona primordialmente localizaciones espaciales (atención espacial) con
los autores que reconocen la posibilidad de una selección basada en los
objetos perceptuales, independientemente de su ubicación en el espacio
(atención al objeto). Existe un tercer sector de la comunidad científica que
* Dado que, de entrada, el lector novel puede no tener el suficiente bagaje para seguir
con facilidad el discurso de lo expuesto en este capítulo, recomendamos encarecidamente una lectura previa del Capítulo 1 de este manual, donde se exponen de forma clara y
sintética las bases histórico-conceptuales que, a buen seguro, harán posible que el estudiante siga con mayor facilidad la exposición de este capítulo, en el cual, desde la más
rigurosa actualidad, se pueden encontrar las más apasionantes (y apasionadas) controversias que, hoy por hoy, mantienen en vilo a los investigadores contemporáneos del
mecanismo atencional.
99
Atención
considera que la función de la atención se halla estrechamente vinculada a
la programación de la acción, es decir, que enfatiza el componente de selección para la acción. Aunque, entre los autores que adoptan esta perspectiva, la mayoría arguye que es la selección de los parámetros espaciales la que guía nuestra acción, los hay que discrepan, manifestando su
convicción que programamos las acciones en función de la representación
de los objetos. En el tercer apartado, el lector podrá encontrar diversos argumentos que apoyan una u otra alternativa, y conocerá algunos de los
modelos formulados por autores de reconocido prestigio, pudiendo apreciar los a menudo sutiles matices que distinguen sus aproximaciones teóricas y conceptuales. En el apartado 4 se pretende introducir al lector a las
tendencias conciliadoras que han surgido en este último lustro, que postulan un mecanismo atencional caracterizado por un estrecho ligamen funcional entre la selección para la percepción y la selección para la acción.
La ingente cantidad de datos experimentales generados por la investigación atencional ha dado paso a un caos conceptual derivado de la extrema
dificultad de su integración teórica. Uno de los debates suscitados por esta
circunstancia concierne a la genuina naturaleza de la atención: ¿poseemos
un solo mecanismo atencional (o unos pocos) que controlan nuestra percepción y nuestra acción desde instancias o sistemas externos a los sistemas perceptuales y motrices, o, en cambio, hay tantas atenciones como circuitos se establecen entre lo perceptual y lo motor? Esta controversia se
aborda a partir de las teorías de la atención que proponemos llamar monárquicas (un mecanismo atencional común), oligárquicas (diversos mecanismos) y (no hay un mecanismo atencional en sentido estricto: la atención
es sólo un fenómeno múltiple y diverso que emerge de la activación de
cada circuito sensorio-motor). Esperamos que la diversidad de controversias expuestas y la falta de consenso entre los expertos que resulta patente
tras la lectura de este capítulo no confunda al lector, sino que le ayude a
formarse una idea aproximada de la realidad en torno a la explicación de
la atención, algo que todos creemos saber qué es pero que, ciertamente, resulta aún una auténtica desconocida.
1.
Introducción
Una vez iniciados en los aspectos históricos y conceptuales, y vistos también los principales paradigmas experimentales que utilizan los investigadores que trabajan en el ámbito atencional, ha llegado el momento de intentar ofrecer al lector un panorama de los numerosos enfoques que pretenden
explicar esa profusa variedad de fenómenos que hemos convenido en llamar atención. Hemos procurado organizar el capítulo de forma estructurada y sistemática, aún a sabiendas de que, dada la extrema heterogeneidad y
el elevado índice de controversia que determinan, hoy por hoy, la investiga-
100
3. Selección para la percepción, selección para la acción
ción en este campo, la aparente claridad de ideas que se deriva de esa sistematización es tan sólo quimérica, y, en consecuencia, su valor y legitimidad
didácticas pasan siempre por asumir cierta laxitud en los criterios de celo y
rigor conceptual o, en todo caso, por abogar por un posicionamiento no
exento de arbitrariedad.
Así pues, la aproximación que aquí se ofrece no es imparcial, implica tomar partido, a veces discrepando en cierta medida de las opciones defendidas en los capítulos que, en este mismo manual, abordan el tema de la atención. No creemos que esto resulte contraproducente. Más bien al contrario:
pensamos que puede ofrecer al lector una visión más complementaria que
estrictamente antagónica, que puede derivar en una valiosa fuente de reflexión y de debate. En definitiva, esta hetereogeneidad no constituye sino un
reflejo más o menos fidedigno de la diversidad de modelos y perspectivas
que conviven, aún sin concierto, en el estudio contemporáneo de la fenomenología atencional.
1.1
Algunas cuestiones fundamentales
La atención no es ni una ni simple. De hecho, los numerosos avances
metodológicos aplicados a la investigación de sus mecanismos (véase capítulo 2), han revelado una naturaleza altamente compleja —y diversa— que
aún estamos lejos de comprender. La multiplicidad de lo que a la atención
se refiere ha culminado en una confusión conceptual, abonada a menudo
por las aproximaciones que parten de diferentes niveles explicativos (neurobiológico, cognitivo, formal, etc.) y por la eclosión de un sinnúmero de
micromodelos surgidos a partir de evidencias altamente específicas —lo
cual no supondría ningún inconveniente si esas teorías parciales fuesen tomadas como lo que son y no pretendieran, como sucede a menudo, trascender su ámbito explicativo. En efecto, gran parte de esa confusión se debe a
que todavía demasiados autores pretenden que sus modelos sean extrapolables a la totalidad de las variedades atencionales, aspirando a ofrecer una
fundamentación teórica global, que pueda dar cuenta de todos los datos experimentales generados, y convertirse así en una Teoría de la Atención integral y holista. ¿Cómo puede ser posible una teoría de esas características si
decimos que la naturaleza atencional es múltiple y compleja, si cada vez
parece más probable que la atención no sea más que un término útil —un
constructo— para referirnos a una serie de mecanismos esencial y funcionalmente distintos?
En todo caso, esas pretensiones convergentes e integradoras son del todo
prematuras. Hoy en día, nadie sabe todavía lo que es la atención (o al menos no hay consenso respecto a ello). Cabe que, antes de nada, tengamos
respuesta firme para una serie de cuestiones fundamentales que son objeto
de profundas controversias. Por lo que se refiere a la atención visual, en la
101
Atención
que nos basaremos en este capítulo, algunas de esas preguntas todavía sin
respuesta giran en torno a los siguientes puntos:
1. El momento en el que se da la selección atencional en la secuencia
de procesamiento. ¿Seleccionamos los estímulos antes de procesarlos completamente (p.e. simplemente a partir de su posición espacial o de su color)
o, por el contrario, lo hacemos sólo después analizar su significado? ¿Puede ser que el lugar de la selección no sea fijo y dependa de la situación, es
decir, que unas veces seleccionemos los estímulos antes de categorizarlos,
pero en otras seamos capaces de extraer toda su información antes de seleccionarlos? Tradicionalmente se han llamado modelos de selección temprana los que postulan que seleccionamos antes de procesar semánticamente los estímulos. En el otro extremo, se hallan los llamados modelos de
selección tardía. Naturalmente, han surgido modelos intermedios o sintéticos (véase el apartado 2.2.1 del Capítulo 1). Los hallazgos de estos últimos
años en diversas disciplinas científicas que incluyen la psicología experimental, la neuropsicología y la neurofisiología, apoyan la formulación propuesta en estos modelos, según la cual la selección atencional puede tener
lugar en diferentes etapas del procesamiento. Los datos procedentes de estudios con potenciales evocados apuntan a que se puede dar selección en
prácticamente cada estadio, desde la misma retina a las áreas más especializadas. Al parecer, la intensidad de la selección aumenta a medida que se
avanza en el procesamiento, de modo que es relativamente débil a nivel retiniano pero incrementa su potencia progresivamente, concentrándose en
las representaciones relevantes. Estos resultados tienden a dejar de lado el
viejo debate selección temprana/selección tardía, asumiendo que la atención puede actuar en diferentes momentos y que, incluso, los mecanismos
atencionales pueden variar en cada caso. De esta forma, la selección atencional puede operar a través de una modulación de la actividad de las neuronas sensoriales, puede implicar la facilitación y/o inhibición selectiva de
las respuestas neurales a nivel de corteza parietal y temporal, puede actuar
sobre la entrada de información en un sistema de memoria a corto plazo de
capacidad limitada y, como sugiere Allport (1993), puede controlar la información necesaria para el sistema ejecutivo que dirige la acción.
2. La forma en la que se produce la selección. ¿Cómo se lleva a cabo
la selección? ¿Se trata de una activación de ciertas representaciones, de una
inhibición de otras o de una combinación de mecanismos activadores e inhibitorios? Aunque la mayoría de los modelos atencionales presuponen que
el mecanismo atencional actúa poniendo de relieve la información seleccionada —lo que implica, a nivel neurofisiológico, una sobreexcitación de las
neuronas que codifican esa información—, cada vez hay más datos experimentales que concuerdan con la hipótesis de que también hay ciertos mecanismos de inhibición de la información no seleccionada —la tasa de descarga de las neuronas que codifican la información ignorada disminuye.
102
3. Selección para la percepción, selección para la acción
Entre las evidencias que provienen de la psicología experimental destacan
tal vez los obtenidos a partir del paradigma experimental de priming negativo (Tipper, 1985; Tipper et al., 1988; Tipper, Howard y Meegan, en prensa), paradigma descrito exhaustivamente por Juan Botella y María Isabel
Barriopedro en el Capítulo 2 de este manual (véase apartado 4.10 de dicho
capítulo). De forma harto sumaria, los resultados obtenidos podrían resumirse diciendo que, si en un ensayo determinado de un experimento de laboratorio, la información a seleccionar es precisamente la que se debía ignorar en un ensayo inmediatamente anterior, esa selección se ve afectada de
forma que parece como si la información sufriera los efectos de una inhibición recibida en el ensayo previo.
3. El ámbito representacional —el llamado medio— en el que se basa
la selección. ¿Seleccionamos los estímulos en base a su localización espacial o en base a su percepción como un único objeto? ¿Es adecuado el símil
de que la atención es como un foco que ilumina (selecciona) una región
discreta de nuestro espacio visual? La cuestión de si la atención se basa en
el espacio o se basa en el objeto es una importante fuente de polémica y ha
dado lugar a modelos explicativos que parten de alternativas diversas. Hay
evidencias suficientes para pensar que, en ciertas circunstancias, el mecanismo atencional puede actuar sobre las representaciones de objetos, aunque, en otros casos, parece que tiene prioridad la selección en base a la ubicación espacial. Trataremos ampliamente este tema a lo largo de todo el
capítulo (véase, p.e., el apartado 2.1.).
4. La multiplicidad de mecanismos de selección. ¿Existen uno, dos o
varios mecanismos de selección responsables de los llamados fenómenos
atencionales? Cada vez son más las evidencias que rompen con la visión
tradicional de un único mecanismo atencional. Algunos modelos, que aquí
llamaremos anárquicos, postulan que no existe ningún genuino sistema
atencional: la atención sería entonces sólo un fenómeno inherente a (o
emergente de) la activación de los circuitos cerebrales responsables de la
programación de la acción. Para una exposición más detallada véanse los
apartados 2.2.2 y 5.
5. La función primordial de la atención. ¿Cuál es la razón fundamental
de que estemos dotados de lo que podemos llamar aptitudes o habilidades
atencionales? ¿Sirve la atención para percibir adecuadamente el mundo,
para proteger de una posible sobresaturación a un sistema de procesamiento
de capacidad limitada o para seleccionar la información que debe guiar
nuestra acción? La respuesta a esta pregunta es crucial y determina en gran
parte nuestro posicionamiento en el dilema selección para la percepciónselección para la acción, binomio en el que se basa precisamente la estructuración de este capítulo. De todos modos, veremos que existen modelos
comprensivos, que parten de la asunción de que las funciones de la atención son múltiples y abarcan los dos términos de la presunta dicotomía.
Como suele ocurrir, de las posturas antitéticas acaba surgiendo la síntesis
103
Atención
conciliadora: la mayoría de los dilemas acaban siendo trilemas (véanse
apartados 4, 5 y 6).
En los últimos veinte años, han surgido numerosos modelos atencionales
que ofrecen distintas respuestas a las cuestiones anteriores, algunos de los
cuales pueden considerarse complementarios, mientras otros resultan claramente irreconciliables. Afortunadamente, la neurociencia cognitiva ha contribuido a descartar algunas de esas alternativas y a ofrecer respuestas de
cierta solidez (p.e., la naturaleza modular de nuestro sistema atencional).
Según Schneider (1998), además de los avances en dicha disciplina, han resultado cruciales el enfoque funcionalista —en el cual se origina la quinta
de las cuestiones planteadas— y los estudios neoconexionistas que diseñan
modelos de redes atencionales artificiales como el SAIM (Selective Attention for Identification Model) (Humphreys y Heinke, 1998) (véase el apartado 2.2.4. del Capítulo 1).
1.2
Selección para la percepción versus selección para la acción
A pesar de que no tienen por qué ser mutuamente excluyentes, y a que, de
hecho, existen posturas comprensivas, la mayor parte de los modelos atencionales contemporáneos consideran bien la selección para la percepción,
bien la selección para la acción, como la función primordial del mecanismo atencional. Normalmente, la concepción de que atendemos para percibir de forma adecuada el mundo que nos rodea va ligada a la presunción de
que nuestro sistema de procesamiento tiene una capacidad limitada, por lo
que es necesario seleccionar la información para evitar un colapso central.
En esta línea podemos situar las formulaciones de Posner (1980), Treisman
y Gelade (1980), Treisman (1988), LaBerge y Brown (1989), etc. En el otro
polo, nos encontramos con los que piensan que atendemos para optimizar
nuestra acción. Defendiendo esta opción, que se remonta a la poco conocida formulación de Ribot (1906; véase Rosselló et al., 1998), nos encontramos con los modelos de Allport (1987, 1989), Neumann (1987, 1990), van
der Heijden (1992), etc. En la posición sintética, según la cual ambas son
funciones fundamentales del mecanismo atencional, podemos ubicar algunos modelos recientes (Schneider, 1995; Duncan, 1996; Logan, 1996; Deubel, Schneider y Paprotta, 1998; etc.). De todos modos, pretendan o no una
visión comprensiva, la mayoría de los modelos oscilan entre los extremos
referidos a la hora de postular cuál es la función principal (primordial) de
nuestro mecanismo atencional. Esta es la razón fundamental de que hayamos optado por estructurar el núcleo de este capítulo según el criterio funcional en el que se basa dicha dicotomía.
104
3. Selección para la percepción, selección para la acción
2.
Selección para la percepción
Como norma, los modelos atencionales se han interesado en el análisis de
la selección para la percepción, aunque la mayoría explicite en otros términos la que consideran la función primordial de la atención. De este modo,
afirman que la atención facilita la detección (Posner, 1980), que optimiza el
procesamiento de los estímulos situados en una localización espacial determinada (Eriksen y Yeh, 1985; LaBerge y Brown, 1989), que permite la integración de las características de los estímulos (Treisman y Gelade, 1980;
Treisman, 1988), que es básica para el reconocimiento de objetos (Duncan
y Humphreys, 1989; Baylis y Driver, 1993; Schneider, 1995), que procura
una actualización de nuestra representación interna del mundo (Neumann,
1996), etc. De todos modos, esta pléyade de perspectivas puede segregarse
en dos grandes grupos que pueden diferenciarse por un matiz importante, a
saber: el status que otorgan a la selección espacial. Por un lado, tenemos a
quien piensa que la atención actúa primordialmente a partir de la información espacial (Johnston y Dark, 1986; Treisman, 1988; Tsal y Lavie, 1993;
van der Heijden, 1993; LaBerge, 1995; Logan 1996, Bundesen, 1998, etc.).
La postura opuesta se basa en la consideración de la información espacial
simplemente como una clave informativa más al servicio de la selección de
estímulos percibidos como un todo (Duncan y Humphreys, 1989; Desimone y Duncan, 1995; Duncan, 1996; Fox, 1998; etc.). Entre ambos extremos
hay una multitud de teorías a menudo difíciles de ubicar que, aunque reconozcan que la información espacial constituye una información subordinada a la selección de objetos definidos de forma preatencional, parecen seguir concediendo un papel especial a dicha información (p.e. Posner y
Petersen, 1990; Schneider, 1995; Lavie y Driver, 1996; Deubel, Schneider y
Paprotta, 1998; etc.). Esta controversia ha dado lugar a uno de los debates
más notorios de los últimos años: se trata del dilema, que comentábamos en
el punto 3 del apartado 1.1, entre la atención basada en el espacio y la basada en el objeto.
2.1
El medio de la atención: ¿mapas espaciales o representaciones
de objetos?
¿Sobre qué tipo de representación interna —sobre qué medio, dirían Tipper
y Weaver (en prensa)— actúa el mecanismo de selección atencional? Según
una de las opciones más extendidas, el mecanismo atencional selecciona
ubicaciones espaciales. Desde este punto de vista, a menudo se ha concebido la atención como una especie de foco que se desplaza por una mapa espacial interno, favoreciendo el procesamiento de los estímulos contenidos
en dicho foco. Sin embargo, pronto hubo quien empezó a cuestionar este
supuesto y a sugerir la posibilidad de que la atención pudiera dirigirse tam-
105
Atención
bién a objetos perceptuales. Según esta postura alternativa, la selección
atencional podría actuar sobre la representación del objeto resultante de la
organización perceptual. Fue Duncan (1984) quien planteó explícitamente
la distinción entre teorías basadas en el espacio y basadas en el objeto, ofreciendo algunas de las primeras evidencias experimentales en favor de estas
últimas. Desde el punto de vista funcionalista, la atención al objeto está dotada de coherencia evolutiva: dado que parece lógico pensar que los sistemas de percepción y acción hayan evolucionado juntos, y que el papel crucial del mecanismo atencional no puede ser sino el de que la acción se
dirija sobre el objeto apropiado en el momento adecuado —y no simplemente a determinadas ubicaciones espaciales—, resulta verosímil pensar que, al
menos en ciertas circunstancias, los mecanismos selectivos actuen sobre la
representación interna de los objetos. Además, esta hipótesis resulta compatible con la influyente teoría de la visión de Marr (1982), según la cual el
procesamiento visual temprano divide la escena en objetos separados y/o
grupos perceptuales —es decir, la organización perceptual es preatencional.
Los resultados de numerosas investigaciones apuntan a que, dependiendo de las circunstancias, el mecanismo atencional puede actuar sobre el
mapa espacial o sobre la representación del objeto (véase apartado 2.3.2.).
Esta afirmación concuerda con la evidencia de una codificación por separado —en paralelo— de la identidad de un estímulo (el qué) y de su ubicación (el dónde). Los estudios neurofisiológicos (Ungerleider y Mishkin,
1982; Posner y Raichle, 1994; Ungerleider y Haxby, 1994) confirman que
en la corteza de asociación existen dos vías paralelas de análisis de la información visual: una vía ventral que se proyecta desde las áreas visuales primarias hacia el lóbulo temporal inferior y es responsable del análisis del
qué —en esta vía parecen existir además áreas especializadas en el procesamiento de los distintos atributos: forma, color, textura, orientación, etc.—,
y una vía dorsal que llega hasta el lobulo parietal posterior y analiza el
dónde, la ubicación espacial del estímulo (véase Figura 3.1).
Según Styles y Allport (1986), cuando la ejecución de una tarea implica
el procesamiento de ambas características (el qué y el dónde) —como es el
caso de las tareas de discriminación—, se da en primer lugar la codificación de la identidad del estímulo objetivo (target) y sólo posteriormente se
codifica su localización espacial. Si este hecho significara que, en este tipo
de tareas, se utiliza la información de identidad para llevar a cabo la selección atencional, las implicaciones para el clásico debate selección temprana–selección tardía (visto en el punto 1 del apartado 1.1) serían verdaderamente importantes, dado que la selección de la identidad de un objeto
implicaría que —al menos en las tareas de discriminación— el mecanismo
atencional actúa una vez concluido el procesamiento semántico del estímulo (lo cual encaja claramente con un modelo de selección tardía). Sin embargo, algunos autores piensan que el simple hecho de que se dé previamente un procesamento categorial (o semántico) no implica que la
106
3. Selección para la percepción, selección para la acción
Figura 3.1 La vía ventral (del qué) y la dorsal (del dónde). La vía ventral forma parte del llamado sistema parvocelular y la dorsal del magnocelular. Como puede observarse, ambas se originan en V1 para dirigirse, la ventral, a la corteza temporal inferior, y la dorsal, al lóbulo parietal
posterior.
selección atencional se realice en base a claves semánticas. Según van der
Heijden (1981, 1992, 1993, 1995, 1996), pese al procesamiento preliminar
del significado de un estímulo, la selección se realiza en base a características físicas tales como la localización espacial. El modelo de van der Heijden, llamado del filtraje postcategorial, ofrece una explicación de por qué,
pese a la disponibilidad de la información de identidad, las características
físicas suelen ser más eficaces como claves de selección. En definitiva,
para van der Heijden, aunque la atención basada en el objeto es posible, no
se da a partir de la selección de las propiedades categoriales del estímulo,
sino, fundamentalmente, en base a la selección de su ubicación espacial.
Sea como fuere, existe actualmente la creencia generalizada de que la
selección atencional no es de ninguna manera una operación unitaria (p.e.,
Allport, 1989, 1993; Humphreys y Riddoch, 1994) y que, en ciertas circunstancias, es posible una atención dirigida esencialmente a los objetos
perceptuales, independientemente de que las claves espaciales de la ubicación de dichos objetos puedan jugar o no un papel especial en esa selección
(Umiltà et al., 1995; LaBerge, 1995; Egeth y Yantis, 1997; Styles, 1997;
Deubel et al., 1998; Driver y Baylis, 1998; Fox, 1998; etc.). Así pues, parece haber un relativo consenso respecto a que la selección atencional puede
actuar tanto sobre nuestro mapa espacial interno como sobre la representación de objetos o de grupos perceptuales, y que éstos son generados preatencionalmente, en una etapa relativamente temprana del procesamiento visual (Kanwisher y Driver, 1992). Recientemente, han aparecido diversos
modelos atencionales que, desde un enfoque comprensivo, pretenden inte-
107
Atención
grar la atención basada en el espacio y la basada en el objeto. Cabe destacar, por su grado de elaboración formal, la propuesta de Logan (1996).
En honor a la verdad, cabe decir que no participan de ese relativo consenso los autores que, en la línea del modelo de la Teoría de la Integración
de las Características propuesta por Treisman (Treisman y Gelade, 1980;
Treisman, 1988; 1990), piensan que los diferentes atributos de los objetos
(forma, color, textura, etc.) requieren de la información espacial para conjuntarse en un todo: dicho de otra forma, la conjunción de los distintos atributos necesaria para percibir un objeto de forma integrada se da, normalmente, gracias a la acción del mecanismo atencional sobre un mapa
maestro de localizaciones —la atención pegaría, sobre ese mapa espacial,
los distintos atributos, dando lugar al percepto. Según estos modelos, el medio de la atención lo constituye, normalmente, una representación espacial
de alto nivel, y, dado que la atención es necesaria para pegar los distintos
atributos, la representación del objeto debe ser postatencional —dándose,
por tanto, en un estadio relativamente tardío del procesamiento visual. Para
Robertson (1998), ese mapa espacial de alto nivel sobre el que actúa la
atención se situa en la vía dorsal —del dónde—, y se conecta con la vía
ventral —del qué, que codifica los distintos atributos— para dar lugar a la
integración de características necesaria para la percepción consciente de un
objeto.
Aunque resulta obvio que existe aún cierta controversia, en virtud de los
datos experimentales obtenidos en investigaciones recientes parece más solida la postura según la cual el mecanismo atencional que actúa, en ciertas
circunstancias, sobre un medio espacial, también puede, en otras condiciones, actuar sobre una representación del objeto que se da en una etapa temprana del procesamiento. En torno a este hecho, que ha supuesto un notable descrédito para el modelo del foco atencional y los que de él se han
derivado (Driver y Baylis, 1998) (véase apartado 2.2.3.3.), queda todavía
una importante cuestión a resolver: cuáles son los factores que hacen que
nuestro mecanismo atencional actúe de una forma en unos casos, y de otra,
en otros.
2.2
La atención espacial
2.2.1 La representación del espacio
Introspectivamente, el espacio —como la atención— es unitario. Es una especie de escenario interno tridimensional donde ubicamos los objetos percibidos. Desde este punto de vista fenoménico, podría parecer que, en nuestro cerebro, el espacio se codifica en una región específica, probablemente
supramodal —en la cual debería converger la información espacial proporcionada por todas las modalidades sensoriales—, a partir de la cual tendría-
108
3. Selección para la percepción, selección para la acción
mos información suficiente para realizar óptimamente cualquier actividad
espacial (caminar, resolver un puzzle, coger un objeto, mover los ojos hacia
un estímulo, etc.). De hecho, algunos autores han obtenido resultados que,
en mayor o menor medida, apoyan la hipótesis de la existencia de un área
plurifuncional de codificación espacial sobre la que actuaría la atención
(Bisiach y Vallar, 1988; Farah et al., 1989; Ward, 1994; Spence y Driver,
1996), a menudo ubicándola a nivel del lóbulo parietal. Sin embargo, diversos trabajos recientes apuntan a que la base neural de dicho Espacio Común
podría ser mucho más compleja, formando una red más bien difusa que incluiría zonas corticales más primitivas (p.e., el hipocampo) e incluso estructuras subcorticales como los ganglios basales y el colículo superior
(Driver y Spence, 1998). Estos autores reconocen las grandes diferencias
intersensoriales en la codificación del espacio, aunque postulan la existencia de vínculos entre la representación del espacio visual, auditivo, háptico
y propioceptivo. Dichos vínculos o conexiones intermodales darían lugar a
una sinergia espacial preatencional. La atención actuaría sobre ese espacio
sinérgico. Para Robertson (1998), aunque es cierto que parece haber múltiples representaciones del espacio en el cerebro humano cada una de las
cuales parece asociada a distintos propósitos, es el mapa que se da a nivel
del lóbulo parietal el que se corresponde con el espacio que vemos, al cual
atendemos y a partir del cual actuamos. Según este autor, esa representación del espacio a nivel del lóbulo parietal es fruto de una complejidad
computacional que requiere de las funciones espaciales de la vía dorsal y
da lugar, en un estadio del procesamiento visual relativamente tardío, a un
mapa espacial razonablemente isomórfico respecto al espacio tridimensional del mundo real.
Desde una óptica alternativa, numerosos autores piensan que hay demasiados argumentos que contradicen la existencia de una representación espacial de las características descritas (Rizzolatti, Riggio y Sheliga, 1994;
Rizzolatti y Craighero, 1998; Humphreys y Heinke, 1998). El primer argumento es anatómico. Una representación así debería basarse en un sistema
neural que fuera centro de convergencia de numerosos inputs provenientes
principalmente de la corteza occipital —y de muchas otras zonas, si dicha
área fuera, además, supramodal— y que, a la vez, proyectara toda una serie
de vías a los centros que controlan las múltiples acciones que requieren de
un conocimiento espacial. Sin embargo, el lóbulo parietal —que, como hemos visto, es uno de los principales candidatos a ser parte importante de la
sede de dicho sistema— es funcionalmente heterogéneo: se halla formado
por un elevado número de áreas independientes, ninguna de las cuales parece cumplir con esos requisitos de interconexión. Por poner un ejemplo, el
área parietal que conecta con los centros responsables de los movimientos
oculares no es la misma que conecta con el área que controla el movimiento de los brazos a la hora de coger un objeto. Una segunda razón se basa en
la evidencia de que las diferentes acciones necesitan de formas distintas de
109
Atención
codificar el espacio. En el caso del ejemplo anterior, la información espacial necesaria para realizar un movimiento ocular se codifica a través de la
tasa de descarga neuronal, mientras que, en el caso del movimiento de los
brazos, la codificación espacial se basa en cuáles son las neuronas que están activas, reservándose la tasa específica de descarga de dichas neuronas
como una forma de codificar información adicional (p.e. las propiedades
del objeto que vamos a coger). Trabajos recientes (Humphreys y Heinke,
1998) sugieren que, incluso para una tarea dada de atención visual, la codificación del espacio intraobjeto (es decir, de las relaciones espaciales entre
diferentes partes que se consideran como pertenecientes a un mismo objeto) es distinta de la del espacio interobjeto (de las relaciones espaciales de
esas mismas partes cuando son consideradas como pertenecientes a objetos
distintos). En conclusión, parece que hay múltiples formas de codificar el
espacio, lo que claramente contradice la existencia de un sistema espacial
común, supramodal o plurifuncional.
2.2.2 De los modelos monárquicos a la teoría de la atención modular
sensoriomotora
La evolución de los conocimientos sobre la representación del espacio descrita en el apartado anterior ha dado lugar a un proceso similar en los modelos teóricos de la atención espacial. De este modo, las teorías clásicas
—según las cuales, la representación mental del espacio se daba en una especie de mapa cartesiano localizado en una zona específica de nuestra corteza cerebral— concebían también la atención como un mecanismo unitario, ubicado en una zona cortical bien delimitada e independiente del
sistema sensoriomotor —aquí, llamaremos a estos modelos teorías monárquicas de la atención. El mecanismo atencional actuaba de alguna forma
sobre los circuitos sensoriomotores, aumentando su eficiencia. La mayoría
de estos modelos monárquicos aludían a la metáfora del foco atencional,
que se dirigía a una parte de ese mapa espacial cartesiano, facilitando el
procesamiento de los estímulos procesados en las áreas iluminadas. Otras
formulaciones, en lugar de hablar de un foco atencional, hablaban del ojo
de la mente (Jonides, 1980) —término introducido por von Helmholtz—,
una figura retórica sin duda menos prosaica, pero igualmente insostenible.
Años más tarde, con el auge de las técnicas de neuroimagen (SPECT, TEP,
IRMf, etc.), se han podido visualizar las áreas del cerebro que se hallan activas al llevar a cabo diversas tareas. De esta forma, se ha podido constatar
que dichas áreas cambian según la tarea atencional que se lleva a cabo. Estos resultados han supuesto, irremisiblemente, una reformulación de las
teorías clásicas, impulsando la aparición de modelos que postulan varios
sistemas de control atencional, teorías que, siguiendo con el símil propuesto, podríamos llamar oligárquicas. Tanto los modelos monárquicos como
110
3. Selección para la percepción, selección para la acción
los oligárquicos topan a menudo con el llamado problema del homúnculo,
es decir, explican el control atencional a partir de la existencia de uno o diversos sistemas atencionales que, como si se tratara de pequeños entes instalados en nuestro cerebro, controlan la información sensoriomotora. Si recurrimos a este tipo de explicación, la cuestión de cómo seleccionamos la
información no se resuelve, sino que simplemente se transforma en la de
cómo selecciona la información nuestro sistema atencional (nuestro homúnculo). Así pues, el valor explicativo, tanto de las teorías monárquicas
como de las oligárquicas, es más bien precario. Existe una postura alternativa que pretende ofrecer una solución a este problema. Podríamos llamarla
teoría anárquica. Según este modelo, la atención espacial no depende de
uno o varios sistemas de control independientes de los circuitos sensoriomotores, sino que es el resultado de la activación diferencial de dichos circuitos. De este modo, la atención sería sólo el correlato subjetivo emergente del cambio en la activación de los sistemas responsables de la percepción
y de la acción. Entre estos modelos anárquicos, que postulan una atención
espacial modular sensoriomotora, destaca la llamada Teoría Premotora formulada por Rizzolatti y Camarda (1987), en función de una serie de datos
neurofisiológicos, y por Rizzolatti et al. (1987), en base a determinados hallazgos provenientes de la psicología experimental. Esta teoría establece un
estrecho vínculo entre atención espacial y selección para la acción. En primer lugar, postula que la activación de las neuronas que codifican una determinada ubicación espacial va ligada a la activación de las que programan
una acción determinada. Ambos tipos de neuronas formarían los circuitos
frontoparietales que hemos dicho que Rizzolatti llama mapas pragmáticos.
De la activación de cualquiera de estos circuitos emergería el fenómeno
que vivimos subjetivamente como la atención espacial (Rizzolatti y Craighero, 1998). Dado que esta teoría concibe la atención espacial como el resultado de la programación de un movimiento en el espacio, la expondremos con mayor detalle en el apartado 3.5, donde trataremos la selección
para la acción.
2.2.3 El desplazamiento de la atención visual en el espacio
Como apunta Tejero en el apartado 1.3. del Capítulo 1, hace tiempo que se
sabe que el desplazamiento de la atención puede disociarse de los movimientos oculares. Uno de los paradigmas experimentales más elegantes
para el estudio del movimiento atencional en el espacio es el paradigma de
costes y beneficios, descrito en el Capítulo 2 bajo el nombre de tarea de
Posner (véase apartado 4.3. de dicho capítulo). Efectivamente, Posner
(1978, 1980) utilizando esta estrategia, demostró que la atención visual era
independiente de la mirada, dado que el intervalo temporal entre la aparición de la pista y la aparición del estímulo (señal) que el sujeto debía detec-
111
Atención
tar era tan breve que no daba tiempo a realizar ningún tipo de movimiento
ocular —pese a lo cual el sujeto lo detectaba, lo que demostraba que la
atención se había desplazado hasta el lugar de aparición del estímulo.
2.2.3.1 Orientación refleja y voluntaria de la atención espacial
La tarea descrita en el apartado anterior tiene dos variantes. En ciertos casos —como en el descrito por Botella en el Capítulo 2— la pista es un indicio que aparece en el punto de fijación de la mirada (normalmente, el
centro de la pantalla) y que, excepto cuando es neutral, indica la dirección
en la que, supuestamente, va a aparecer el estímulo a detectar. En estas
circunstancias, al aparecer la pista, el sujeto dirige voluntariamente su atención hacia el lugar que indica (derecha o izquierda), lo que implica que,
previamente, ha debido procesar centralmente el significado de esa pista.
Sin embargo, en otros casos se han utilizado lo que se llaman pistas periféricas, que suelen ser señales visuales que aparecen repentina y brevemente
a la derecha o a la izquierda del punto de fijación —que sigue siendo el
centro de la pantalla—, cerca del lugar donde, presumiblemente, aparecerá
el estímulo. Cuando se utilizan pistas periféricas, la información sobre la
dirección la obtenemos sencillamente a partir del lugar de la pantalla en
que aparecen dichas pistas. De esta forma, no es necesario procesar centralmente el significado de la pista, sino que la atención se ve automáticamente
atraída por su abrupta aparición a la derecha o a la izquierda del punto de
fijación. Se trata de un desplazamiento reflejo de la atención espacial: se
da sin intención previa y no puede evitarse. Así pues, la orientación de la
atención espacial puede responder a nuestras intenciones o puede venir
simplemente controlada por los estímulos. Cuando contemplamos un paisaje, podemos dirigir voluntariamente nuestra atención a los árboles, las montañas, las nubes, un rebaño de ovejas que pasta en un prado lejano, etc. Sin
embargo, si cruza la escena un pájaro en pleno vuelo, nuestra atención se
verá capturada automáticamente, y se dirigirá, aunque sea durante un breve
instante, hacia él. Normalmente, nuestro mecanismo atencional se dirige de
forma automática a los estímulos novedosos que, como el pájaro del ejemplo, aparecen súbitamente en nuestro campo visual (véase apartado 1.2.1.
del Capítulo 1).
Una cuestión crucial y, a la vez, harto polémica, la constituye el hecho
de si el control voluntario o reflejo del desplazamiento de nuestra atención
espacial depende o no de mecanismos esencialmente distintos. Según Posner y Petersen (1990), en ambos casos el responsable último es la llamada
red posterior, aunque, en el caso del desplazamiento intencional, dicha red
se encuentra sometida al control de la red anterior. Esto implica la existencia, entre ambas redes, de estrechas conexiones neurales. En cambio, Müller y Rabbit (1989) piensan que existen dos mecanismos distintos e inde-
112
3. Selección para la percepción, selección para la acción
pendientes, uno para el desplazamiento reflejo y otro para el voluntario.
Para la teoría premotora (Rizzolatti et al., 1987) no habría diferencia cualitativa en el mecanismo subyacente a los dos tipos de desplazamiento: ambos corresponderían a una activación de los circuitos frontoparietales responsables de la preparación de un movimiento ocular hacia el estímulo (la
señal). Dicha preparación no tiene que culminar necesariamente en un movimiento: el movimiento ocular puede no darse, pero la atención espacial se
habrá desplazado al lugar donde aquel se había programado, bien en virtud
de una intención generada, por ejemplo, a partir del procesamiento de la información que nos da una pista central, bien gracias a la captura automática inducida por una pista periférica (Rizzollatti y Craighero, 1998).
2.2.3.2 El fenómeno de la Inhibición de Retorno (IR)
El estudio de la atención espacial utilizando pistas periféricas puso pronto
de manifiesto que se daba una facilitación atencional cuando, previamente
a la aparición de un estímulo en un lugar determinado, se ofrecía una pista
periférica válida —es decir, un indicio que aparecía en el lugar donde luego
se presentaría efectivamente el estímulo (la señal). Se demostró que dicha
facilitación era especialmente relevante cuando la pista se presentaba entre
100 y 300 ms antes que el estímulo en cuestión. Sin embargo, cuando el intervalo entre la aparición de la pista periférica y la del estímulo (el llamado
SOA, del inglés Stimulus Onset Asynchrony) era superior a 300 ms, se observó un fenómeno sorprendente: los sujetos tardaban más en detectar los
estímulos que cuando no se ofrecía pista alguna. A raíz de esta evidencia,
se empezó a sospechar que, cuando el SOA alcanzaba valores de ese orden,
el efecto de facilitación atencional se invertía, dándose un efecto inhibitorio. A este fenómeno se le llamó Inhibición de Retorno (IR) y su existencia
ha sido confirmada por múltiples trabajos desde que Posner y Cohen
(1984) lo describieran. La IR dificulta la selección atencional de una localización espacial que acaba de ser atendida, es decir, evita que la atención se
fije en un lugar del cual acaba de desengancharse. Este fenómeno responde
al principio funcional según el cual, normalmente, no resultará demasiado
adaptativo que nuestro mecanismo atencional explore una ubicación recién
examinada, evitando, de este modo, la inspección reiterada de una misma
localización espacial. Efectivamente, en circunstancias naturales, es poco
probable que en un lugar donde acabamos de centrar nuestra atención aparezca, en un plazo tan breve, nueva información que merezca ser atendida.
Según Posner y Cohen (1984), este fenómeno se debe a un mecanismo que
inhibe temporalmente las localizaciones recién seleccionadas.
Algunos autores han puesto en duda la robustez de la IR, y su origen
atencional, basándose en la imposibilidad de obtener este efecto cuando, en
lugar de detectar un estímulo, la tarea consiste en discriminar, en función
113
Atención
de su tamaño, forma, color, etc (p.e., apretar una tecla x si el estímulo es de
color rojo y una y si es de color amarillo) (Terry, Valdes y Neill, 1994). Según estos autores, el efecto sería debido a un sesgo de respuesta más que a
una inhibición atencional (Klein y Taylor, 1994; Schmidt, 1996). Sin embargo, experimentos recientes (Lupiañez et al., 1997; Lupiañez, Tipper y
Tudela, 1998) han puesto de manifiesto que la IR también se da en experimentos de discriminación, aunque más tarde (SOA del orden de 700 ms).
Este retraso parece deberse más a los procesos de discriminación que a la
selección de respuesta, lo que se confirma a partir de la evidencia de que
cuanto más costosa es la discriminación más tarde se da el fenómeno. Según estos autores, a mayor dificultad de la tarea, más tiempo permanece fijada la atención —de forma exógena— en la posición donde ha sido previamente capturada (fenómeno al que llaman inercia atencional) y, en
consecuencia, el efecto de IR deviene más tardío. Basándose en algunos
trabajos recientes, ciertos autores sugieren una interpretación teórica de la
IR distinta a la tradicional, según la cual el efecto se debería más a dificultades de categorización del estímulo que a un genuino fenómeno de inhibición atencional (Milliken et al., 1998).
En la línea de lo que comentábamos en el apartado 2.1., también se han
encontrado evidencias de un efecto de IR ligado al objeto —y no sólo a la
ubicación espacial. Comentaremos de forma sumaria estos trabajos en el
apartado 2.3.4.
2.2.3.3 ¿Cómo se desplaza el foco atencional en el espacio?
Por lo que respecta al movimiento de la atención visual en el espacio, algunos trabajos obtienen evidencias que indican que, a mayor distancia,
más tiempo tarda el foco atencional en desplazarse desde el punto de fijación hasta el lugar de aparición del estímulo (LaBerge, 1983; Egly y
Homa, 1991). Sin embargo, la mayoría de los resultados obtenidos van en
sentido contrario: Sagi y Julesz (1985), Kwak, Dagenbach y Egeth (1991),
Sperling y Weichselgartner (1995), etc., no han encontrado un efecto consistente de la distancia sobre el tiempo necesario para llevar a cabo un
cambio atencional.
Igualmente controvertida, y muy ligada a la anterior, es la cuestión de
cómo se desplaza ese supuesto foco atencional. La principal de las incógnitas generadas en torno a este problema podría formularse como sigue:
cuando el foco atencional se mueve entre dos puntos, ¿recorre todos los
puntos intermedios iluminando lo que encuentra en su trayecto o, por el
contrario, salta de un lugar a otro sin recorrer esa zona media? A lo largo
de los años ochenta, fueron muchas las investigaciones que intentaron dar
con una respuesta definitiva a esta cuestión, aunque los resultados obtenidos fueron altamente contradictorios (véase, p.ej., Eriksen y Murphy,
114
3. Selección para la percepción, selección para la acción
1987). Al parecer la discrepancia se debía, en muchos casos, a importantes
errores metodológicos (van der Heijden, 1992; Barriopedro, 1994). Si consideramos los trabajos que no presentan inconvenientes de esa índole, normalmente, aquellos que defienden un efecto de la distancia postulan, a la
vez, un desplazamiento analógico del foco atencional (Egly y Homa, 1991).
Sin embargo, los resultados de la mayoría de investigaciones recientes parecen ser compatibles con un desplazamiento no analógico o discreto —
quantal, dicen Egeth y Yantis (1997)—, es decir la atención se desplazaría
a saltos entre dos ubicaciones espaciales, sin pasar por las posiciones intermedias. En este sentido apuntan, por ejemplo, los trabajos de Sperling y
Weichselgartner (1995) o los de LaBerge et al. (1997). Algunos autores
(Barriopedro, 1994) adoptan una solución de compromiso, apuntando la
posibilidad de que los cambios atencionales puedan darse de las dos formas, según las circunstancias y los requerimientos de la tarea. Así pues, la
cuestión resulta aún algo confusa.
Tampoco hay consenso en cuanto a las teorías explicativas que pretenden ofrecer un modelo integral del cambio de la atención visual en el espacio. Dado que la estricta analogía del foco de luz pronto se demostró demasiado ingenua, entró en liza la variante del modelo de zoom o de lente de
potencia variable (Eriksen y Yeh, 1985; Eriksen y St. James, 1986), según
el cual el tamaño del foco atencional varía dependiendo de las características de la tarea, siendo su potencia uniforme en toda el área focal e inversamente proporcional a la extensión de dicha área. Algo más tarde, se sugirió
además que el movimiento del zoom no era analógico, sino que podía concebirse como una ventana facilitadora que se cerraba en un lugar del espacio para abrirse en otro, por lo que el tiempo de cambio de dicha ventana
atencional no dependía de la distancia a recorrer (Murphy y Eriksen, 1987).
Según Pan y Eriksen (1993), el foco del zoom, que en su experimento parecía tomar forma elíptica, puede adoptar diferentes configuraciones, según
sean la colocación de los estímulos relevantes y las demandas de la tarea.
Cuando la tarea es especialmente dificultosa, el tamaño del foco resulta
muy pequeño, dado que se requiere una máxima concentración de recursos
atencionales. A este respecto, Lavie (1995) sostiene que el foco será más
reducido cuanto mayor sea la carga perceptual de la actividad que lleva a
cabo.
Como una importante alternativa a los modelos de zoom surgieron los
llamados modelos de gradiente (Downing y Pinker, 1985; LaBerge y
Brown, 1989; Henderson, 1991; Andersen y Kramer, 1993; etc), cuya peculiaridad esencial radica en sostener que la concentración de recursos atencionales no es homogénea, sino que presenta un máximo en el punto central
de la focalización atencional y decae hacia la periferia.
Uno de los grupos de trabajo más representativos de este enfoque es el
que dirige LaBerge en la Universidad de California. Según estos autores, en
el cambio de la atención en el espacio intervienen dos procesos atenciona-
115
Atención
les distintos: un mecanismo selectivo que concentra el procesamiento en
una área específica, y uno preparatorio que consiste en una distribución de
actividad atencional a través de todo el campo visual, una actividad más
prolongada y espacialmente más difusa que la que se deriva del primer mecanismo (LaBerge et al., 1997). Según esta formulación, el tiempo necesario para llevar a cabo un cambio atencional depende de la cantidad de actividad atencional preparatoria que, previamente, exista en la posición que
debe ser atendida. Cuanto mayor sea dicha preparación en una ubicación
determinada, menor será el tiempo necesario para que se origine en dicho
lugar el pico fugaz de atención selectiva. El estado preparatorio se ve influido por el hecho de que, en las localizaciones recientemente atendidas
mediante el mecanismo selectivo, persiste una cierta actividad atencional
residual (véase Figura 3.2).
Señal
Estímulo 1
Estímulo 2
Figura 3.2 Modelo de gradiente de LaBerge (1995, 1997). Se muestran los cambios en la distribución de actividad atencional preparatoria (líneas gruesas) y de la atención selectiva (líneas discontinuas) en el paradigma experimental utilizado por este autor. Al principio, la atención se encuentra
altamente focalizada en la señal de alerta (*) (tanto la selectiva como la preparatoria), señal que informa al sujeto de la inminente aparición del estímulo 1. Al aparecer dicho estímulo, el sujeto debe
identificar la letra central (en este caso O). La breve duración de la presentación obliga al sujeto a
aumentar al máximo su atención selectiva, focalizándola en el centro de la distribución. Sin embargo, la atención preparatoria disminuye tras la presentación del estímulo. Cuando el estímulo 2 aparece a la izquierda, la atención selectiva debe aumentar rápidamente, dado que se trata de discriminar la letra central (en este caso R). Obsérvese como el aumento necesario a partir de la atención
preparatoria es mucho mayor que en el caso del estímulo 1, por lo que el tiempo requerido para el
cambio atencional será mayor para el estímulo 2. Tras el estímulo 2, la atención selectiva decae rápidamente. La línea delgada muestra la actividad atencional residual, que, como se puede apreciar
en la gráfica que corresponde al estímulo 2, se suma a la actividad preparatoria (línea gruesa) (Figura adaptada de LaBerge et al., 1997).
2.2.3.4 Atención multifocal: ¿es posible una genuina división
de la atención visual?
La posibilidad de que el foco atencional se pueda dividir, iluminando simultáneamente dos o más zonas no contiguas del espacio visual, ha sido
objeto de controversia prácticamente desde la formulación de los primeros
modelos de atención selectiva visoespacial. Según Posner, Snyder y Davidson (1980), el fenómeno se debía no a una auténtica división atencional,
116
3. Selección para la percepción, selección para la acción
sino a un rápido desplazamiento del foco entre las distintas ubicaciones. De
hecho, si exceptuamos la de LaBerge y Brown (1989), las teorías de la
atención espacial revisadas en el apartado anterior asumían explícita o implícitamente la indivisibilidad del área que recibía una facilitación atencional. Pese a la prudencia necesaria aún en este tema, podemos afirmar que
lo anterior puede, hoy en día, ponerse seriamente en duda. De hecho, Castiello y Umiltà (1992) han obtenido resultados compatibles con la posibilidad de dividir nuestra atención si los estímulos seleccionados se encuentran
en hemicampos visuales opuestos. Algunas evidencias neurofisiológicas,
obtenidas a partir de estudios con sujetos con el cerebro dividido —individuos cuyo cuerpo calloso, la principal estructura que conecta los hemisferios cerebrales, ha sido seccionado—, sugieren que cada hemisferio controla su propio mecanismo atencional en la exploración del hemicampo visual
que le corresponde —es decir, el contralateral. Luck et al. (1989) llegan a
la conclusión de que es posible la atención visual dividida en tareas de búsqueda visual, aunque, cuando la atención se dirige en base a claves exógenas, la zona atencional no puede ser sino unitaria. Sin embargo, los resultados obtenidos por Kramer y Hahn (1995) demuestran que, incluso a partir
de una orientación exógena de la atención, es posible fijar sincrónicamente
nuestra atención en ubicaciones espaciales no contiguas, siempre y cuando entre dichas ubicaciones no irrumpan estímulos distractores nuevos, en
cuyo caso se produce una interrupción de la atención multifocal. Hahn y
Kramer (1998) aportan nuevos resultados compatibles con este enfoque,
descartando, además, la posibilidad de que lo que pensamos que es una división atencional genuina no sea sino un cambio atencional extremadamente rápido, y contribuyendo a zanjar, de este modo, una vieja polémica surgida veinte años atrás.
2.3
La atención al objeto
Como hemos visto en el apartado 2.1., independientemente del papel —primordial o no— que se otorgue a la selección en base a claves espaciales, la
mayoría de autores contemporáneos coinciden en señalar que no sólo es posible una selección a partir de otros atributos (forma, color, significado,
etc.), sino que el mecanismo atencional puede incluso actuar sobre representaciones de objetos considerados como un todo. Este último tipo de selección es lo que se suele llamar atención al objeto.
2.3.1 La representación del objeto
Si la atención puede actuar sobre la representación de un objeto, parece lógico pensar que dicha representación sea preatencional. Neisser (1967) ya
117
Atención
sugirió que la escena visual era primeramente segmentada en grupos de
acuerdo con los principios de la Gestalt, dando lugar a la representación de
objetos: sólo después de esta fragmentación se podía dar la selección atencional de dichos objetos para optimizar ulteriores elaboraciones de la información. Actualmente, numerosos trabajos se basan en el presupuesto de
que la fenomenología de los efectos gestálticos no refleja sino la actuación
sobre los objetos del mecanismo atencional (Baylis y Driver, 1992; Baylis y
Driver, 1995; Driver y Baylis, 1995, 1996, 1998): una vez que descubramos
que la mancha gris que aparece en el mar en la Figura 3.3 es la silueta de un
rostro, cada vez que dirijamos nuestra atención a un punto de dicha mancha
percibiremos el perfil del rostro en el mar porque nuestra atención se extiende forzosamente a la representación del objeto generada, a la cual pertenece el punto atendido.
Ante esta evidencia, la cuestión que surge es: ¿cuál es la base neural de
esa representación del objeto preatencional? Como hemos visto en el apartado 2.1., Ungerleider y Mishkin (1982) postularon, a partir de la investigación en macacos, que la identificación del objeto se daba en la llamada vía
ventral o vía del qué (véase Figura 3.1). Algunas investigaciones con técnicas
de neuroimagen han confirmado la existencia de una vía similar en el cerebro humano (Ungerleider y Haxby, 1994), que se proyecta desde las áreas
visuales primarias hacia el lóbulo temporal inferior. Podríamos decir que,
grosso modo, la mayoría de los resultados experimentales son compatibles
con la propuesta de esa vía ventral como la relacionada con la identificación del objeto. Sin embargo, algunos autores introducen ciertos matices.
Según Milner y Goodale (1995), esa vía ventral elabora la información de
la corteza estriada para dar lugar a representaciones perceptuales y cognitivas de las características visuales de los objetos y de su significado —la vía
dorsal elaboraría esa misma información para guiar las acciones motoras en
el espacio. Para Jeannerod (1994), su función es básicamente el procesamiento semántico del estímulo, favoreciendo la discriminación entre distintos estímulos. Según algunos trabajos recientes, sería en la vía ventral donde tendría lugar lo que hemos llamado selección para la percepción,
mientras la selección para la acción se vincularía al procesamiento espacial
llevado a cabo en la vía dorsal (Schneider, 1995; Deubel et al., 1998). Parece que ambas vías deben interactuar de algún modo de cara al control de
nuestro comportamiento cotidiano (Goodale, 1996), aunque la forma exacta en que lo hacen no está del todo clara.
Aunque, como vemos, existe un relativo consenso en cuanto a la división del sistema visual en las dos vías propuestas por Ungerleider y Mishkin, y en atribuir a la ventral la representación del qué (forma, color, textura, etc.), no podemos obviar la evidencia de que hay autores que disienten
abiertamente de esa visión ortodoxa. Especialmente iconoclasta es Semir
Zeki, que piensa que las vías visuales no son dos, sino múltiples —al menos cuatro— y que todas ellas se hallan profundamente interrelacionadas
118
3. Selección para la percepción, selección para la acción
(Zeki, 1995). En otro sentido, resulta heterodoxa la postura de Robertson
(1998), que afirma que la información espacial sería necesaria para construir (representar) un objeto a partir de sus distintos atributos y para que
esa representación accediera a la conciencia. Según esta postura, en la tradición de los modelos de Treisman, la representación del objeto sólo se daría después de que el mecanismo atencional actuara sobre la representación
espacial de la vía dorsal. En el mismo sentido, Mack et al. (1992) afirman
que no se puede dar ninguna agrupación gestáltica o segregación de la escena en objetos a nivel preatencional.
2.3.2 Primeras evidencias de una selección basada en el objeto
En el año 1981, en pleno auge de los modelos atencionales de foco, Kahneman y Henik consideraron la posibilidad de que la atención pudiera ser dirigida no sólo a ciertas localizaciones espaciales, sino también a objetos
perceptuales. Según estos autores, las representaciones de objetos resultantes de la organización perceptual podían servir de medio sobre el cual actuase la selección visual. Sin embargo, dado que todos los objetos ocupan
un lugar en el espacio, no resultó nada fácil diseñar paradigmas experimentales para contrastar de forma adecuada si era efectivamente posible que la
atención se pudiera basar en una representación del objeto espacialmente
invariante. Las estrategias finalmente utilizadas fueron básicamente de dos
tipos:
1.
2.
Contrastar si la atención podía ser dirigida a una de dos figuras que
se solapaban en el espacio.
Contrastar si se podía dirigir a un objeto en movimiento —para el
cual cambian continuamente las coordenadas espaciales.
Después de numerosos trabajos utilizando estos paradigmas experimentales, los resultados han demostrado que ambas circunstancias son posibles:
se puede atender selectivamente a uno de diversos objetos que ocupan la
misma ubicación espacial (Rock y Guttman, 1981; Duncan, 1984) y también es posible seleccionar ciertos estímulos objetivo (target) que se mueven aleatoria y rápidamente junto a una serie de distractores —lo que demuestra que se da una auténtica atención basada en el objeto, dado que no
es posible distinguir los objetivos de los distractores en función de su ubicación espacial (Pylyshyn y Storm, 1988; Yantis, 1992).
Dado que en los experimentos anteriores se utilizaron fundamentalmente tareas en la cuales se debía discriminar entre estímulos objetivo y distractores, Vecera y Farah (1994) concluyen que los resultados obtenidos indican que, en las tareas de discriminación, la atención necesita seleccionar
representaciones del objeto, mientras en tareas más simples, como las de
119
Atención
detección, la selección atencional se puede basar en un nivel de representación únicamente espacial.
2.3.3 Facilitación atencional intraobjeto.
Recientemente, ha surgido un nuevo paradigma experimental que nos permite investigar la atención al objeto, aunque los trabajos de Duncan (1984)
pueden considerarse un importante antecedente. Este autor encontró evidencias de que cuando debemos emitir juicios sobre dos objetos diferentes
tardamos más y somos más imprecisos que cuando los juicios requeridos se
refieren al mismo objeto, independientemente de la posición espacial de los
atributos a juzgar. Cambiar la atención de un objeto al otro es costoso y requiere tiempo, lo que, según Duncan, es un indicio de que la atención se
basa, de forma primordial, en el objeto (Duncan y Humphreys, 1989).
Relacionado sin duda con la estrategia experimental de Duncan, el paradigma experimental mencionado consiste fundamentalmente en contrastar
si, cuando dirigimos la atención a una parte de un objeto perceptual, las demás partes de dicho objeto reciben una facilitación atencional superior a la
recibida por localizaciones equidistantes que no pertenecen a dicho objeto
(véase Figura 3.3).
Figura 3.3 Hipotéticamente, dada una tarea de discriminación que implicara los puntos A y c, el
TR sería menor que si implicara los puntos A y b, dado que A y c pertenecen al mismo objeto perceptual (siempre y cuando se haya dado la gestalt de percibir esa aparente mancha gris en el mar
como el perfil del rostro de un hombre).
Según los resultados obtenidos (Baylis y Driver, 1993; Yantis y Moore,
1995; Egeth y Yantis, 1997), se da esa superior facilitación atencional intraobjeto en tareas de discriminación, aunque no en tareas de detección, lo
cual encaja con los resultados de Vecera y Farah (1994). Además, dicha fa-
120
3. Selección para la percepción, selección para la acción
cilitación sigue dándose si una parte del objeto se halla parcialmente ocluida, lo que constituye una evidencia más a favor de la vieja tesis de Marr
(1982), según la cual la organización perceptual es preatencional (Yantis y
Moore, 1995).
En un trabajo reciente, Fox (1998) demuestra que los distractores producen más competición de respuesta y priming negativo cuando aparecen en
el mismo objeto perceptual que cuando aparecen fuera de él, aunque la distancia espacial respecto al estímulo objetivo (target) sea la misma. Así
pues, parece que no sólo se da facilitación intraobjeto, sino que también los
mecanismos inhibitorios de la atención visual pueden ser dirigidos a grupos
perceptuales y objetos, produciendo lo que podríamos llamar una inhibición atencional intraobjeto.
2.3.4 La Inhibición de Retorno basada en el objeto (IRO)
En el apartado 2.2.3.2, tratábamos el fenómeno de la inhibición de retorno
(IR). En los primeros experimentos en torno a la IR, se daba por supuesto
que la inhibición se asociaba a las ubicaciones de los estímulos, lo que se
interpretaba como una evidencia de que el mecanismo atencional actuaba
sobre un medio primordialmente espacial. Sin embargo, Tipper, Driver y
Weaver (1991) diseñaron un experimento en el que los estímulos atendidos
no permanecían estáticos, sino que se iban desplazando a través de una
pantalla (véase Figura 3.4).
Figura 3.4 Paradigma experimental utilizado por Tipper, Driver y Weaver (1991). En primer lugar (A), los cuadrados periféricos rotan alrededor del central. En el momento en que los tres cuadrados se encuentran alineados en la horizontal, el movimiento se detiene brevemente y aparece
una pista en uno de los cuadrados periféricos durante 100 ms (B). Los cuadrados siguen rotando y,
al cabo de 200 ms, aparece una pista en el cuadrado central (C). Finalmente, cuando los cuadrados
se encuentran alineados a 90° o 180° respecto a la alineación horizontal (en este caso 90°) aparece
el estímulo-objetivo (target) en uno de los dos periféricos (D). Aunque ambos cuadrados periféricos se encuentran a la misma distancia espacial de donde se ha presentado la primera pista (B), el
tiempo de reacción para detectar el estímulo es mayor si la señal aparece en el cuadrado donde ha
aparecido, lo que resulta una clara evidencia de un fenómeno de Inhibición de Retorno ligada al
objeto (IRO) (Adaptado de Weaver, Lupiañez y Watson,1998).
121
Atención
Los resultados obtenidos demostraban que se daba una inhibición de retorno ligada a los objetos previamente atendidos —la inhibición se movía
con los objetos—, lo que es compatible con la hipótesis de que la atención
se basa en el objeto y no en su ubicación espacial. Desde este punto de
vista, la IRO, más que desfavorecer la revisión reiterada de una misma localización, tendría la función de prevenir que un objeto recién examinado
vuelva a serlo en un breve lapso de tiempo. Otros trabajos han obtenido resultados que garantizan la robustez del fenómeno de la IRO (Abrams y
Dobkin, 1994; Ro y Rafal, en prensa).
De todos modos, el hecho de que se dé IRO parece que no es incompatible con el fenómeno de la IR ligada al espacio. En un experimento posterior, Tipper et al. (1994) han encontrado evidencias de ambos tipos de inhibición de retorno, al igual que Weaver, Lupiañez y Watson (1998) que,
además, han demostrado que, con la práctica, la magnitud del fenómeno
disminuye (tanto en el caso de la IR espacial como en el de la IRO). Afinando aún más, Gibson y Egeth (1994) han demostrado que la inhibición
de retorno también puede ir ligada a localizaciones intraobjeto, lo que
apunta a que el fenómeno de la inhibición de retorno puede darse respecto
a distintos marcos de referencia, incluso dentro del marco constituido por el
propio objeto. Esta evidencia resulta perfectamente lógica si consideramos
que, por una parte, la inhibición de retorno parece ser un fenómeno ligado
a la atención, y que, por otra, parece claro que el mecanismo atencional
puede seleccionar localizaciones espaciales, objetos en una escena o, incluso, localizaciones intra-objeto (Tipper y Weaver, en prensa).
Quién esté interesado en una revisión más exhaustiva sobre el tema de la
IR, pronto podrá consultar el trabajo de Lupiañez, Tudela y Rueda (en
prensa).
2.3.5 Evidencias neuropsicológicas de la atención al objeto
La llamada heminegligencia es una disfunción atencional que se da en pacientes con lesiones de la corteza parieto-temporal, fundamentalmente del
hemisferio derecho. Estos sujetos padecen un curioso síndrome caracterizado por ignorancia, descuido o extinción atencional (inatención) de la parte
contralateral de su cuerpo —por ejemplo, se afeitan sólo la mitad derecha
de la cara. Una de las manifestaciones de este síndrome es la inatención
hacia la parte contralateral de su campo visual, inatención que a menudo
se ha creído basada en el espacio —es decir, los sujetos sufrirían de una
disfunción atencional ligada al hemiespacio izquierdo de su campo visual
(véase Figura 3.5).
Sin embargo, se ha demostrado que puede haber ciertos tipos de heminegligencia espacial basada en el objeto, de modo que los sujetos ignoran
una parte del objeto (p.e., la izquierda), independientemente de que el obje-
122
3. Selección para la percepción, selección para la acción
Figura 3.5 Dibujos de una bicicleta, una guitarra, un árbol y un rostro, realizados por un sujeto
de 23 años que sufría una heminegligencia a raíz de un traumatismo craneal que le afectó la zona
frontoparietal derecha.
to aparezca o no en el campo visual derecho o en el izquierdo (Driver y Halligan, 1991). En la Figura 3.6 podemos observar los estímulos utilizados
para investigar este tipo de heminegligencia intraobjeto.
Al serles presentados dibujos similares a los de la Figura 3.6, los pacientes
no suelen darse cuenta de la ligera diferencia entre la parte izquierda de las
figuras, incluso cuando se encuentran inclinadas de forma que la parte de
la figura en la que se encuentra esa diferencia se encuentra en el hemicampo derecho. Así pues, en este caso la heminegligencia se da respecto al espacio intraobjeto: se ignora la mitad izquierda de la figura sea cual sea su
posición en la escena visual.
Nuevas pruebas en favor de este argumento las han ofrecido sendos trabajos de Behrmann y Tipper (1994) y Tipper y Behrmann (1996). En estos
estudios se han utilizado objetos en una parte de los cuales aparecían estímulos objetivo. Como cabía prever, cuando la parte izquierda del objeto se
hallaba en el hemicampo izquierdo, la detección de los objetivos era más
bien pobre. Lo sorprendente era que los resultados apenas variaban cuando
el objeto rotaba y esa parte izquierda pasaba al hemicampo derecho. Así
pues, parece firmemente demostrado que la heminegligencia puede basarse
en el espacio intraobjeto —dado que aunque la parte rotara y pasara al
campo visual derecho, seguía siendo la parte izquierda del objeto. Todas
estas evidencias sugieren que, al igual que la IR (véase apartado anterior),
la heminegligencia puede basarse en distintos marcos de referencia —p.e.,
tanto en el espacio de la escena como en la representación espacial basada
en el objeto.
Humphreys et al. (1994) van aún más allá. Trabajando con sujetos que
padecían lesiones parietales posteriores que dan lugar al llamado Síndrome
de Balint, han demostrado que, en estos pacientes, ciertos estímulos (normalmente formas cerradas: p.e., un cuadrado) pueden producir que otros
(p.e., formas abiertas) sean inatendidos, independientemente de su ubica-
123
Atención
Figura 3.6 Algunos pacientes con heminegligencia izquierda no aprecian la ligera diferencia entre estas figuras, ni siquiera cuando ambas se hallan inclinadas, condición en la cual la diferencia
se encuentra en la mitad derecha del campo visual (aunque sigue estando en la mitad izquierda de
la figura). Este resultado resulta compatible con la existencia de una heminegligencia intraobjeto
(adaptada de Driver y Baylis, 1998).
ción espacial. Estos autores argumentan que la extinción observada demuestra que la inatención puede basarse en ciertas propiedades de los objetos, especialmente, como ocurre en estos pacientes, cuando la orientación
de la atención en el espacio se halla alterada.
2.3.6 ¿Se basa la atención al objeto, al fin y al cabo, en un medio
espacial?
Parece fuera de toda duda que la atención visual puede basarse en el objeto.
Pese a algún que otro autor disconforme (p.e., Treisman, 1988; Mack et al,
1992; Robertson, 1998), hay cierto consenso en pensar que la segregación
de la escena en distintos objetos se da en una etapa preatencional. Sin embargo, todavía existe una cuestión que es objeto de polémica, una cuestión
que se refiere a si la selección del objeto se basa en última instancia en un
marco de referencia espacial o lo hace, en cambio, en disposiciones espacialmente invariantes. Para la mayoría de autores, aunque se dé una selección del objeto, dicha selección tan sólo puede ocurrir en referencia a un
medio espacial (Kramer et al., 1997; Driver y Baylis, 1998). Lavie y Driver
(1996) afirman que la atención basada en el objeto sólo puede tener lugar
en regiones espacialmente atendidas, es decir, la selección basada en el objeto se daría en una región espacial previamente seleccionada. Así pues,
serían las disposiciones espaciales agrupadas (formando objetos) las susceptibles de ser seleccionadas por nuestro mecanismo atencional y no los
objetos en sí, como disposiciones independientes de sus atributos espaciales (véase el apartado 3.4.4., para una postura similar en el modelo de van
124
3. Selección para la percepción, selección para la acción
der Heijden). En contra de esta visión hay quien cree firmemente que, al
menos en ciertas circunstancias, la atención al objeto puede ser absolutamente no espacial (Vecera y Farah, 1994; Humphreys et al., 1994; Vecera,
1997), es decir que, en última instancia, la selección del objeto puede tener
al propio objeto como marco de referencia, operando sobre representaciones espacialmente invariantes. Según Fox (1998), la solución a este dilema
debería ser uno de los objetivos prioritarios de la futura investigación en
torno a la atención basada en el objeto.
3
Selección para la acción
En el apartado 2.2.3. del Capítulo 1, Pilar Tejero nos refiere el origen de los
modelos de selección para la acción a partir de la concepción de algunos
autores según los cuales la capacidad limitada de nuestro sistema de procesamiento es una auténtica falacia, por lo que la función de la atención no
puede ser seleccionar la información de entrada para evitar una sobresaturación del sistema: para estos autores, la función genuina de nuestro mecanismo atencional es seleccionar, en base a las características de los estímulos sobre los cuales pretendemos actuar, la acción que puede ser más
adecuada en un momento determinado, evitando la puesta en marcha simultánea de diferentes programas motores y el consiguiente caos comportamental.
3.1
La representación de la acción
Veíamos en el apartado 2.3.1. que, aunque la clásica división entre vía ventral del qué y la vía dorsal del dónde formulada por Ungerleider y Mishkin
(1982) era relativamente vigente, se habían dado algunas observaciones que
precisaban o matizaban esa formulación. Hoy se sabe, por ejemplo, que
tanto la vía ventral como la dorsal se prolongan hasta la corteza prefrontal:
la primera hasta la convexidad prefrontal inferior (o corteza prefrontal ventrolateral), y la segunda hasta la corteza prefrontal dorsolateral (Jeannerod,
1997) (véase Figura 3.8). La función de estas proyecciones frontales parece
relacionarse, en el caso de la vía ventral, con la retención temporal del objeto y sus atributos, mientras en el caso de la vía dorsal tiene que ver con la
memoria a corto plazo de su ubicación espacial.
Gran parte de las discrepancias que han ido surgiendo en estos últimos
años respecto a la formulación original de Ungerleider y Mishkin se refieren a la función de la vía dorsal. Las evidencias de la psicología experimental y las procedentes de las neurociencias apuntan a que la vía del dónde no
se limita a ser un sistema para la percepción espacial, para la representación de los estímulos en el espacio. Goodale y Milner (1992), en virtud de
125
Atención
los resultados obtenidos en sus investigaciones, defienden que la función
primordial de la vía dorsal es la de codificar la información espacial necesaria para guiar la acción, por lo que proponen que la vía dorsal, más que
vía del dónde, se denomine vía del cómo. Jeannerod (1994) postula una alternativa afín, argumentado que en la vía dorsal se procesa la información
de forma pragmática, elaborándola para la acción. Esa elaboración consiste
en extraer los parámetros relevantes para la acción y en generar las correspondientes órdenes motoras, función que puede verse influida por el procesamiento semántico de la vía ventral (Jeannerod et al., 1995).
Milner y Goodale (1995) y Goodale (1996) precisan algo más: las transformaciones de la información visual sobre orientación, tamaño, forma y
relaciones espaciales que se llevan a cabo en la vía dorsal —a diferencia de
la elaboración que, paralelamente, sufre esa misma información en la vía
ventral— van dirigidas al control de diferentes acciones dirigidas a un objetivo determinado. Para ello, la vía dorsal utiliza información momento a
momento acerca de la disposición espacial de los objetos respecto a un
marco de referencia egocéntrico. Sin embargo, según estos autores, un
comportamiento adecuado requiere también de la intervención de la vía
ventral, que permite la formación de representaciones que incluyen las características permanentes de los objetos y las relaciones espaciales entre
ellos. Así pues, la ejecución de una acción dirigida a una escena visual
precisa de la integración del procesamiento de ambas vías (Deubel, Schneider y Paprotta, 1998). De hecho, son numerosos los autores que piensan
que es necesaria una integración así (p.e., Duncan, 1996; Robertson, 1998).
La incógnita gira en torno a cómo se lleva a cabo dicha integración. Diversas propuestas sugieren que, al menos en parte, podría llevarse a cabo a través de conexiones con estructuras subcorticales (p.e., el núcleo pulvinar talámico) (Webster y Ungerleider, 1998). Por otro lado, Ungerledier (1995),
estudiando con técnicas de neuroimagen el cerebro del macaco, concluye
que las vías ventral y dorsal confluyen en una región del lóbulo frontal
(véase Figura 3.7).
Figura 3.7 Integración de la información de la vía ventral y de la vía dorsal en el cerebro del macaco (Ungerleider, 1995).
126
3. Selección para la percepción, selección para la acción
Algunos estudios neurofisiológicos han identificado grupos de neuronas
en la corteza prefrontal que podrían intervenir en esa conjunción en aras a
programar y dirigir la acción (Rao, Rainer y Miller, 1997) (véase Figura 3.8).
Figura 3.8 Reformulación de la vía del dónde en vía del cómo (Goodale y Milner, 1992), proyección
de las vías ventral y dorsal en el lóbulo frontal (Corbetta, 1998), y posible lugar de integración de la información de ambas vías para la programación y el control de la acción (Rao, Rainer y Miller, 1997).
Desde una perspectiva algo distinta, los partidarios de la teoría premotora clásica (Rizzolatti y Craighero, 1998), defienden que la programación de
la acción va exclusivamente ligada a la representación espacial de la vía
dorsal, la cual conecta con los lóbulos frontales formando unos circuitos
fronto-parietales responsables del estrecho vínculo entre codificación espacial y acción, circuitos que son diferentes para cada actividad y que han recibido el nombre de mapas pragmáticos (Rizzolatti et al., 1994). Diversas
investigaciones han confirmado que las neuronas parietales codifican el espacio con un objetivo esencialmente motor y, por tanto, de forma distinta
según la acción específica a la que van ligadas. Es evidente que en el hombre —que, como los demás primates superiores, basa su conocimiento espacial fundamentalmente en el sentido de la visión— será de particular importancia el mapa pragmático oculomotor.
3.2
Concepto y funcionalidad de la selección para la acción
El estudio en profundidad del cerebro humano nos ha hecho comprender
que la cantidad de información que puede procesar es enorme: muchos autores piensan que su capacidad es virtualmente ilimitada. Sabemos también
127
Atención
que gran parte del procesamiento se lleva a cabo en paralelo, en módulos o
subsistemas especializados que responden selectivamente a determinados
tipos de información, y que existe una profusa interconexión entre los distintos módulos, que parecen intercambiar innumerables informaciones. De
este modo, nuestro cerebro no es más que una intrincada red neuronal que
lleva a cabo múltiples operaciones de forma simultánea. Paradójicamente,
nuestra ejecución es muy limitada: a duras penas conseguimos hacer dos
cosas a la vez de forma eficaz. Desde cierto punto de vista, dado el alto flujo de información que elabora sincrónicamente nuestro sistema nervioso,
puede resultar hasta sorprendente que nuestro comportamiento sea más o
menos coherente, más o menos unitario y relativamente ordenado hacia la
consecución de determinados objetivos.
Consideremos un acto tan simple como, cuando vamos al supermercado,
coger un paquete de nuestras galletas preferidas. Tomar una caja determinada de entre todas las colocadas en el surtido estante de las galletas requiere
de un elevado control selectivo: se debe seleccionar la información espacial
relevante para alcanzar el paquete elegido y traducirla en información motora, probablemente en coordenadas espaciales centradas en el propio brazo.
Por otro lado, la información espacial de las cajas que contienen galletas
menos apetecibles —o que engordan más, o que son muy caras— debe ser
excluida de esta programación motora. Por último, no debemos pasar por
alto que hay que tener en cuenta otros atributos del paquete preferido (su tamaño, su grosor, su peso, su forma, etc.), atributos que ayudan a programar
de forma más adecuada la acción de cogerlo (véase apartado 3.5).
La complejidad intrínseca a una acción aparentemente tan sencilla requiere de algún mecanismo que ponga orden en todo este mare mágnum de
información para que nuestra acción no resulte completamente caótica. Resulta incontrovertible que, considerado un efector específico, sólo podemos
llevar a cabo una acción en un momento determinado. Esta acción debe ser
guiada por la información relevante de manera que la ejecución resulte lo
más adaptativa posible. Así pues, sólo una pequeña parte de la información
disponible debe controlar ese efector, lo que, sin duda, requiere de algún
dispositivo que ayude a elegir esa información relevante de entre toda la
existente en la organización distribuida en paralelo de las innumerables redes neuronales que coactúan en nuestro cerebro. Según los partidarios de
esta perspectiva, este dispositivo no es otro que el mecanismo atencional
(Allport, 1987, 1989; Neumann, 1987, 1990; van der Heijden, 1992, 1995):
la función fundamental de la atención sería precisamente organizar nuestra
acción, la selección para la acción, en palabras de Allport. No hay que olvidar que esa selección para la acción no sólo debe ir dirigida a las propiedades relevantes de los estímulos sobre los cuales pretendemos actuar, sino
que también debe seleccionar la información semántica pertinente de nuestra memoria a largo plazo: esta selección semántica, sobre la cual aún se
sabe muy poco, se hace patente tan sólo considerando cómo cambia nuestra
128
3. Selección para la percepción, selección para la acción
programación de la acción al ir a coger objetos como un erizo de mar, una
burbuja de jabón, una pelota de tenis, un pastel de nata, una patata caliente,
un huevo, un higo chumbo o una bola de petanca. Es evidente que la información semántica sobre las propiedades de esos distintos objetos determinará que nuestra acción a la hora de cogerlos no sea la misma en cada caso,
aún cuando tuvieran aproximadamente el mismo tamaño, la misma forma y
se hallaran situados en la misma ubicación espacial.
Como podemos apreciar fácilmente, los autores que defienden la perspectiva de la selección para la acción rompen abiertamente con la concepción clásica de que, si contamos con un mecanismo atencional, es debido a
la necesidad de proteger de una eventual sobresaturación nuestro sistema de
procesamiento de capacidad limitada. Esta concepción resulta errónea simplemente porque no es cierta esa supuesta limitación, al menos por lo que
respecta al sistema visual (Neumann, van der Heijden y Allport, 1986).
Aparte de las numerosas evidencias experimentales, los datos obtenidos en
los estudios neuroanatómicos y neurofisiológicos de la visión así lo demuestran: mientras existen cerca de un millón de células ganglionares en
nuestra retina, la información captada por estas células, cuando llega a nivel cortical, puede ser procesada por cien mil millones de neuronas, es decir, poseemos aproximadamente cien mil neuronas para elaborar la imagen
captada por cada célula ganglionar, lo que hace difícilmente concebible el
hecho de que nuestro cerebro pueda tener problemas de capacidad a la hora
de procesar lo que ven nuestros ojos, y que, debido a ello, sea necesario un
filtro (la atención) que deje pasar sólo una parte de esa información.
Todos estos argumentos dan solidez al enfoque de la selección para la
acción. Desde esta perspectiva, también sería la atención la encargada de
controlar la secuencialidad de los diferentes componentes de una acción y
la de las diversas acciones consecutivas que pueden ser necesarias para alcanzar un determinado objetivo. Cuando se altera de algún modo dicho
control, cometemos los llamados actos fallidos (véase apartado 1.4 del Capítulo 1) o vemos paralizada nuestra acción —como cuando nos dirigimos
resueltamente a nuestra habitación pero, al llegar, nos quedamos literalmente pasmados ante la imposibilidad de recordar para qué demonios hemos ido hasta allí.
3.3
La acción como determinante del medio atencional.
Hemos visto que, una vez admitida la posibilidad de que la atención se base
en el objeto, una de las polémicas vigentes gira en torno a qué es lo que determina que en ciertas circunstancias el marco de referencia —el medio—
sobre el que actúa la atención sea, por ejemplo, la representación espacial,
mientras, en otras, lo sea la representación del objeto. Tipper, Weaver y
Houghton (1994) proponen que el factor determinante es precisamente la
129
Atención
acción. En otras palabras, serán los objetivos específicos de la acción los
que determinarán el marco de referencia, la representación interna, sobre
los que actúa la atención. De este modo, el mecanismo atencional puede actuar sobre distintos sistemas neurales según la situación: por ejemplo, en
ciertos casos convendrá seleccionar una ubicación espacial actuando sobre
los circuitos frontoparietales pragmáticos —de representación del espacio
para la acción—, mientras, en otras, puede hacerlo sobre las regiones temporales especializadas en el procesamiento del color.
Según estos autores, en situaciones extremadamente familiares el procesamiento estimular se da en paralelo y más de un objeto o atributo podrían
iniciar la acción de manera simultánea. Es entonces cuando actúa un mecanismo inhibitorio de la atención selectiva impidiendo que se lleven a cabo
todas las acciones potenciales excepto la que conduce al objetivo de la acción. Por ejemplo, cuando el objetivo de nuestra conducta es alcanzar un
objeto específico con la mano (recuérdese el ejemplo de la caja de galletas), se da una inhibición de los movimientos alternativos asociados a los
objetos irrelevantes (Tipper, Lortie y Baylis, 1992). En este caso puede
afirmarse que el medio sobre el que los objetos son codificados, y sobre el
que los mecanismos de inhibición selectiva actúan, es un marco de referencia centrado en la propia mano (y no en la retina o en el ambiente). Desde
este punto de vista, la competición y la selección atencional tendrían lugar
en las representaciones basadas en la acción. Los mecanismos inhibitorios
ligados a la atención, cuya base neural parece hallarse en la corteza prefrontal (Diamond, 1990), resultan pues de especial importancia en acciones
automáticas o sobreaprendidas, evitando el caos comportamental (Tipper et
al., 1998; Tipper, Howard y Meegan, en prensa).
3.4
Selección espacial para la acción: la propuesta de van der
Heijden (1992, 1995)
3.4.1 La revolucionaria hipótesis del filtraje postcategorial
Uno de los modelos más representativos del enfoque de la selección para la
acción es el propuesto por van der Heijden (1990, 1992, 1995, 1996, 1997).
Este autor parte de la llamada hipótesis del filtraje postcategorial (van der
Heijden, 1984), según la cual, aunque todos los estímulos visuales son totalmente procesados —lo que implica un sistema de capacidad ilimitada—,
la selección atencional se puede dar a partir de atributos físicos simples, es
decir, se trata de una selección temprana. Más concretamente, para van der
Heijden, la clave de selección más eficaz es la ubicación espacial del estímulo elegido. La novedad y la relevancia del modelo radican en que, por
una parte, se desacoplan por vez primera las cuestiones del lugar de selec-
130
3. Selección para la percepción, selección para la acción
ción y la capacidad —hasta entonces, los modelos que postulaban una selección temprana la habían justificado en función de las limitaciones de
nuestro procesador, mientras los que defendían un procesamiento integral
de todos los estímulos habían apostado por una selección atencional tardía,
que actuaba sobre las características semánticas de los estímulos—; por
otro lado, la propuesta de van der Heijden también rompe con la tradición
en el sentido de que siempre se había creído que si un determinado aspecto
del estímulo no constituía una buena clave de selección era porque no había
sido procesada antes de la actuación del mecanismo selectivo (Neumann,
1996): en cambio, en el modelo propuesto, aunque los estímulos son procesados totalmente, resulta más eficiente que la selección se lleve a cabo en
función de las claves espaciales que si se basa en el significado de los estímulos. Implícita a ese nuevo enfoque hay aún otra cuestión difícil de entender desde la óptica tradicional: si es cierto que, al menos virtualmente, no
hay limitaciones estructurales y funcionales en nuestro procesador, ¿cuál
puede ser la razón que justifique la existencia de un mecanismo selectivo?
La respuesta la encontrará van der Heijden en los modelos de Allport
(1987, 1989) y Neumann (1987) de selección para la acción.
3.4.2 Dos mecanismos de selección central: intención y atención.
En las versiones más recientes del modelo de van der Heijden (1992,
1995, 1996), se propone la existencia de dos mecanismos de selección
central: la intención o selección de la acción y la atención o selección
para la acción:
1.
2.
Van der Heijden llama intención al mecanismo que selecciona, en
términos propios de Allport (1987), a qué categoría o forma de acción, entre todo el repertorio posible, se da prioridad en un momento dado. En palabras de Neumann (1987) determina qué habilidad
reclutará qué efectores, de manera que se evite el caos comportamental.
La atención, en cambio, determina sobre qué objeto dirigiremos nuestra acción en un momento determinado (Allport, 1987). Neumann
(1987) diría que el concepto de atención de van der Heijden determina de qué región espacial se van a considerar los parámetros necesarios para llevar a cabo de forma adecuada la acción seleccionada. De
esta forma se evita la confusión que podría darse al intentar dirigir
una acción seleccionada a distintas regiones del espacio a la vez.
De este modo, intención y atención son dos mecanismos complementarios e indisolubles para el control y guía de nuestras acciones (van der Heijden, 1995).
131
Atención
3.4.3 ¿Por qué la selección espacial es la mejor estrategia en un
sistema de capacidad ilimitada?
Ya hemos dicho que la selección atencional visual es una selección temprana y que opera sobre un medio espacial, es decir, que la atención parece actuar seleccionando ubicaciones en la representación del espacio visual. Van
der Heijden defiende que esa selección primordialmente espacial es la más
eficaz y reporta numerosas ventajas para la función atencional del sistema
visual. Para un sistema modular divergente como el visual —divergente en
el sentido de que, como hemos visto en el apartado 3.2., para la información recogida por cada célula ganglionar de la retina disponemos de un
número ingente de neuronas que van a intervenir en su elaboración—, la
selección temprana a partir de la posición parece ser, efectivamente, la estrategia atencional más adecuada: un mecanismo que seleccione un objeto
en función de su posición antes de que los distintos atributos (color, forma,
textura, orientación, movimiento, etc.) se dispersen hacia las zonas especializadas donde van a ser elaborados —por ejemplo, a nivel de corteza estriada (V1)— provocará que dicha facilitación atencional vaya ligada a esos
atributos en las áreas corticales donde serán procesados, incluso aunque dichas áreas no posean una información retinotópica precisa sobre la localización espacial, es decir, aunque no constituyan mapas de representaciones
topográficas. De este modo, la selección atencional acompañará a todas las
propiedades de la región seleccionada —y sólo a ellas. Será esta circunstancia la que nos dará la impresión fenoménica de consistencia, de que seleccionamos los objetos como un todo.
3.4.4 La implementación neural del modelo
La información visual recogida por la retina entra en el sistema de procesamiento por un putativo módulo de entrada. En este módulo la información
se representa en un mapa retinotópico, es decir, que conserva las relaciones
espaciales captadas por las células ganglionares retinianas. Luego, esa información se envía, a través del canal parvocelular (vía ventral o del qué), a
un mapa donde serán procesados los colores, a uno donde lo serán las formas y a un dominio de identidades, y a través del canal magnocelular (vía
dorsal o del dónde), se remite a un mapa de posiciones ubicado en la corteza parietal posterior (van der Heijden, 1992, 1995). Es en el llamado dominio de identidades donde se hace explícita (consciente) la información de
qué es lo que vemos.
Si la atención actúa mediante una selección temprana de las regiones del
espacio visual, y dado que la organización espacial se representa en el
mapa de posiciones parietal, la selección atencional debe darse a partir de
unas retroconexiones que, desde ese mapa de posiciones, se dirijan al mó-
132
3. Selección para la percepción, selección para la acción
dulo de entrada. De este modo, en la medida en que esas retroconexiones se
originan en el mapa espacial de la vía dorsal, puede decirse que la selección
es primordialmente espacial, mientras, en tanto que estas conexiones revierten en el módulo de entrada, cabe afirmar que la selección es temprana
(véase Figura 3.9).
Figura 3.9 Esquema del modelo de procesamiento visual de capacidad ilimitada de van der Heijden (1992, 1995). La información visual entra a través del módulo IN (input) y es enviada, en canales paralelos, a un mapa de localizaciones (P), a uno de colores (C) y a uno de formas (F). Desde
estos dos últimos, la información activa representaciones de identidad (ID): es entonces cuando se
hace explícito (consciente) qué es un objeto y cuáles son sus atributos. Finalmente, pueden observarse las vías de reentrada desde el mapa de posiciones al módulo de inputs. La selección atencional se llevaría a cabo a través de estas vías, por lo que sería esencialmente una selección espacial
(dado que se origina en el mapa de localizaciones) y, a la vez, una selección temprana (dado que se
efectúa en el módulo de entrada) (Adaptado de van der Heijden, 1995).
A modo de inciso, valga decir que las evidencias neuropsicológicas y
neurofisiológicas no apoyan especialmente el esquema propuesto por van
der Heijden.
La activación selectiva de las posiciones representadas en el sistema visual sería propiamente la atención. Así pues, el mecanismo atencional es
intrínseco al sistema visual y no un sistema externo que selecciona determinadas posiciones del mapa pertinente. En este sentido, el modelo de van
der Heijden contradice a los modelos monárquicos y a la mayoría de modelos oligárquicos que proponen la existencia de un sistema atencional (o varios) ajeno/s a los sistemas sensoriomotores (amodal) sobre los que ejerce/n
su control selectivo (p.ej. Norman y Shallice, 1986; Posner y Petersen,
133
Atención
1990; Tudela, 1992; Shallice y Burgess, 1993; LaBerge, 1995; Schneider,
1995; Deubel, Schneider y Paprotta, 1998). Además de su concepción de la
atención como un mecanismo supramodal (o amodal), los modelos monárquicos y oligárquicos suelen tener en común un problema: la trampa del
homúnculo (véase apartado 2.2.2).
Naturalmente, van der Heijden reconoce que la selección atencional
puede dirigirse a un atributo distinto a la localización espacial —podemos
seleccionar un determinado objeto a partir de su color, su forma, su tamaño, etc.— y que, en ciertas circunstancias, la selección atencional actúa
sobre el objeto como un todo (atención al objeto) (van der Heijden, 1996).
¿Cómo reconcilia este autor dicha evidencia con su aserción de que la atención es primordialmente espacial? Según van der Heijden, aunque seleccionemos un estímulo en virtud de un atributo distinto al de su localización
espacial, dicho atributo (p.e., el color) funciona básicamente como un indicador de la posición del estímulo. De este modo, concibe el espacio como
un intermediario inevitable en la selección atencional. Además, la eficiencia de una determinada característica como clave de selección dependerá
precisamente de su eficacia a la hora de especificar la ubicación del estímulo en el espacio. Esta perspectiva es igualmente válida, según van der
Heijden (1996), para el caso de la atención al objeto: para él, un objeto
debe concebirse como una región espacial sobre la cual el mecanismo atencional puede actuar de forma diferencial. Cada objeto puede ser seleccionado a partir de la posición exacta que ocupa, de modo que la atención al objeto es simplemente un caso particular de selección visoespacial. Debemos
advertir que, a nuestro parecer, esta última aserción difícilmente puede dar
cuenta de fenómenos como la IRO o la extinción ligada al Síndrome de Balint (véanse apartados 2.3.4. y 2.3.5).
3.4.5 La selección para la acción según van der Heijden
Una mínima elaboración del modelo descrito en el apartado anterior permite extender su ámbito explicativo y hacerlo compatible con el punto de
vista de que la percepción visual ha evolucionado como una forma de control de la acción (van der Heijden, 1992, 1995). Como sabemos, la localización espacial es un componente crítico para llevar a cabo interacciones
motoras funcionalmente adaptativas —recordemos la reconceptualización
de la vía del dónde como vía del cómo (Goodale y Milner, 1992), o los circuitos pragmáticos frontoparietales (Rizzolatti y Criaghero, 1998). Para
van der Heijden (1995), como para muchos otros autores (p.e. Goodale,
1996), es necesario que exista un sistema de conexiones entre el sistema
magnocelular y el parvocelular, dado que el primero es un canal esencialmente motor que necesita la información de la vía ventral (color, forma
detallada, etc.) para saber a qué estímulo se debe dirigir la acción. Esta in-
134
3. Selección para la percepción, selección para la acción
teracción es también necesaria en el caso de que no se llegue a dar una acción observable, es decir, en el caso de que sólo haya intención, lo que
convierte la aproximación de van der Heijden en una especie de teoría motora de la atención selectiva también para la atención voluntaria encubierta
—que ofrece, en este sentido, algunos paralelismos insoslayables con la
teoría premotora. Así pues, cuando hay intención de actuar se seleccionan
las representaciones icónicas y semánticas relevantes para la tarea, aunque
finalmente la acción no se lleve a término (Jeannerod, 1994). Del mismo
modo, las características de los objetos (icónicas y semánticas) deben poder activar los sistemas pragmáticos de acción. De esta forma, la acción se
encuentra estrechamente vinculada a la selección atencional, hasta el punto, dice van der Heijden, que las manidas metáforas del foco o de la lente
de zoom resultan ya poco adecuadas: la función atencional se ilustra mejor
a partir de actos como coger o caminar. En este sentido, el autor disiente
también abiertamente de aproximaciones como la de la teoría de la integración de las características (Treisman, 1988; 1990): la función de la
atención no es primordialmente la integración de las representaciones distribuidas de los distintos rasgos de los objetos para posibilitar la percepción visual consciente, sino que constituye un vehículo (un medio) que
posibilita la selección de toda la información que se agrupa en una determinada localización espacial en aras a controlar y guiar la acción. De esta
forma, la atención podría definirse como el mecanismo selectivo que determina sobre qué objeto vamos a actuar, un mecanismo complementario
a la intención, que selecciona la acción a la que se va a dar prioridad
temporal.
3.5
Selección del objeto para la acción: una variante de la teoría
premotora (Craighero et al., 1998)
La propuesta de van der Heijden constituye un modelo paradigmático de la
selección para la acción basada en la representación espacial, aunque, por
supuesto, existen muchas otras aproximaciones que podrían situarse en esa
misma línea. Entre ellas destaca, tal vez por su concepto anárquico de la
atención, la llamada teoría premotora (Rizzolatti y Camarda, 1987; Rizzolatti et al., 1987; Rizzolatti et al., 1994; Rizzolatti y Craighero, 1998), según la cual la atención espacial no es más que la experiencia fenoménica, el
resultado emergente de la activación de los circuitos frontoparietales que
controlan nuestran acción en el espacio: la atención sería, también para estos autores, intrínseca a los mismos circuitos responsables de las transformaciones sensoriomotoras —y no ligada a un sistema autónomo de control
amodal—, aunque su particularidad radica en afirmar que hay tantas atenciones espaciales como circuitos codifican información espacial de cara a
la acción. El resultado es un modelo modular y anárquico de la atención,
135
Atención
que ha resultado sumamente controvertido, pero que tiene el mérito indiscutible de eludir el problema del homúnculo.
3.5.1 La nueva teoría premotora: más allá de la selección espacial
para la acción
Algunas elaboraciones recientes de la teoría premotora (Craighero et al.,
1998), trascienden la selección para la acción ligada al espacio para contemplar también una selección para la acción basada en el objeto. Esta
nueva perspectiva se basa en el concepto de priming visomotor, según el
cual las características de un objeto que pretendemos coger (distintas a su
localización espacial) pueden facilitar la puesta en marcha de los programas motores adecuados para la acción de cogerlos. Esta evidencia se demuestra a partir de la presentación de dibujos bidimensionales que representan objetos que invocan acciones congruentes con las que deben realizar
los sujetos experimentales en base a las instrucciones dadas; el resultado es
claro: la presentación de dichos dibujos (estímulos prime) disminuye el
tiempo de reacción para las acciones a realizar. Esto ocurre, según Craighero et al. (1998), porque las características físicas de los dibujos reclutan información almacenada sobre la naturaleza del objeto, es decir, como comentábamos en el apartado 3.2., inducen una selección semántica en la
memoria a largo plazo. Estas evidencias son congruentes con la teoría premotora, pero, de algún modo, amplían su ámbito de aplicación, postulando
que la atención no sólo emerge de la activación de los mapas pragmáticos
que llevan a cabo una preprogramación del movimiento a partir de la localización espacial del estímulo sobre el que se va a actuar, sino que puede ser
también el resultado emergente de un programa motor preparado específicamente para coger un objeto en base a su tamaño, a su forma o a cualquier
otro atributo no necesariamente espacial. Así pues, con esta reformulación,
la teoría premotora pasa de referirse exclusivamente a la atención espacial a
explicar también la atención basada en el objeto, con lo que deviene una
propuesta genérica de atención selectiva visual.
Hay otros trabajos que apoyan esa elaboración de la teoría premotora.
Por ejemplo, Humphrey y Riddoch (1994) concluyen, tras considerar diversos hallazgos neurofisiológicos, que la activación de respuestas motoras no
sólo se da a partir de la selección de representaciones espaciales, tal como
sugieren Rizzolatti et al. (1994), sino que también los atributos como el color, el movimiento, la forma, etc., tienden a elicitar programas motores dirigidos a los objetos que poseen dichas características. Por otro lado, Klatzky
et al. (1993) apuntan que la simple visión de un objeto facilita las acciones
congruentes con las propiedades de dicho objeto vía evocación de las fuertes asociaciones objeto-acción derivadas de nuestra experiencia.
136
3. Selección para la percepción, selección para la acción
3.5.2 La evidencia neuropsicológica
Desde que Critchley la describiera en 1927, se conoce la existencia de una
patología conocida como apraxia magnética o conducta de utilización, que
consiste en un comportamiento compulsivo (incontrolable) que, en ciertos
pacientes con lesiones del lóbulo frontal, suscita automáticamente la acción
motora ligada a un objeto: la simple visión del objeto en cuestión provoca,
de forma maquinal e involuntaria, la respuesta motora relacionada con él
(Lhermite, 1983). Se trata de pacientes que, por ejemplo, al ver un teléfono
lo descuelgan, al ver un peine se peinan, al ver un cigarro se lo fuman, al
ver un interruptor lo accionan de forma automática —lo que, dicho sea de
paso, puede dar lugar a situaciones verdaderamente embarazosas o, incluso,
implicar ciertos riesgos. Lhermite atribuye este curioso fenómeno a un déficit del control del lóbulo frontal sobre la información que le llega desde el
lóbulo parietal. En la misma línea, Shallice (1988) piensa que, en estos sujetos, se produce una captura automática de los sistemas motores por parte
del objeto percibido y una deshibición frontal de la respuesta (o las respuestas) asociadas a dichos objetos. En terminología de Jeannerod (1994),
las tendencias (affordances) intrínsecas a la representación del objeto se verían liberadas, deviniendo acciones reales. Según Tipper, Howard y Meegan
(en prensa), las acciones compulsivamente suscitadas por la visión de un
objeto se deben a un déficit en el control inhibitorio que, en condiciones
normales, ejerce el mecanismo atencional sobre la mayoría de esas acciones. Por otra parte, parece que los circuitos que se activan cuando utilizamos un objeto o dirigimos una acción hacia él, se activan también con la
mera visión del objeto e, incluso, en caso de que veamos a alguien utilizándolo (Craighero et al., 1998).
En definitiva, parece que deben existir vías directas de conexión entre
las zonas encargadas de la percepción visual y las que controlan la acción.
De momento, las evidencias neuroanatómicas apuntan a interacciones entre
ciertas áreas del lóbulo parietal posterior y la corteza frontal (Jeannerod
et al., 1995), aunque no hay que descartar un posible papel de la vía ventral
y de sus proyecciones frontales (véase apartado 3.1. y Figura 3.8).
3.5.3 La hipótesis de la competencia integrada (Duncan, 1996)
Según la hipótesis de la competencia integrada, los objetos compiten por
ser representados en múltiples sistemas cerebrales, sensoriales y motores,
corticales y subcorticales. Sin embargo, una vez un objeto alcanza una representación, los distintos sistemas cerebrales lo procesan de forma conjunta. La atención, según este modelo, es un estado que surge con relativa lentitud —en décimas de segundo— a partir de la operación conjunta de los
diversos sistemas de nuestro cerebro sobre el objeto seleccionado, propi-
137
Atención
ciando que sus diversos atributos se hallen disponibles, como un todo indiviso, para el control de la acción.
La competencia integrada de Duncan se basa en tres grandes principios:
1.
2.
3.
Entre los numerosos sistemas que elaboran el input visual, la mayoría se rigen por el principio de la competencia; es decir, cuando en
ellos se representa un objeto determinado, esta circunstancia va en
detrimento de la representación de objetos alternativos: las representaciones de distintos objetos son mutuamente inhibitorias.
Cuando un objeto logra ser representado en un sistema determinado, esta prioridad tiende a ser transmitida a los demás, de forma que
los distintos sistemas tienden a converger en el procesamiento del
mismo objeto. Esta integración funcional de los diversos sistemas
se da gracias a una activación recíproca entre las distintas unidades,
módulos o neuronas que responden al mismo objeto en función del
atributo seleccionado. Tal vez quepa insistir aquí en que, aunque un
objeto sea seleccionado en función de un único atributo (p.e. su color), también los demás atributos del objeto tendrán prioridad de acceso a sus respectivos sistemas de representación, de forma que
será el objeto como un todo integrado el que controlará la acción.
El estado subjetivo que emerge de esa activación integrada para el
control de la acción es propiamente lo que llamamos atención.
La competencia puede ser regulada a partir de una preactivación de
las unidades que responden a un atributo determinado. Si en un estante de libros buscamos uno de color pistacho, las neuronas implicadas en la codificación de ese color recibirán una facilitación preactivadora en el sistema cerebral implicado en el procesamiento
cromático. Los estímulos de color pistacho gozarán de una importante ventaja a la hora de acceder a la representación en dicho sistema y, por ende, de ser representados en los sistemas que codifican
la forma, la ubicación, la textura, el movimiento, etc.
Dado que la selección de un objeto determinado puede darse a partir de
cualquiera de sus atributos, cabe convenir que la atención puede originarse
en cualquiera de los distintos sistemas cerebrales implicados en el procesamiento visual. Además, como se requiere un cierto tiempo para que la activación de las unidades de ese sistema inicial se transmita a las unidades que
deben procesar los demás atributos del objeto en cada uno de los sistemas,
resulta lógico que el estado atencional (la atención) emerja lentamente y se
mantenga el tiempo suficiente para que la suma de representaciones que da
lugar a la percepción del objeto integrado pueda asumir el control de la acción. Como, a estas alturas, debe resultar obvio para el lector, el modelo
atencional de Duncan encaja en las teorías que hemos llamado anárquicas:
cada objeto atendido activa un patrón de unidades distinto e intrínseco a los
138
3. Selección para la percepción, selección para la acción
propios sistemas sensoriomotores: no hay lugar para el control atencional
ejercido desde un sistema o un grupo de sistemas autónomos y amodales.
4.
La función atencional: selección para la percepción
y selección para la acción
En el primer apartado del Capítulo 1 de este manual, se ofrece una amplia
revisión de las diversas funciones atencionales, ilustrada con amenos ejemplos que, a buen seguro, nos habrán resultado familiares. Dada la diversidad de dominios en los que puede actuar el llamado mecanismo atencional,
aquí hemos intentado ofrecer una visión funcional sintética, asumiendo de
antemano que su posible utilidad conceptual o didáctica pueda ir en detrimento de su rigor o de su fidelidad científica. A partir de este presupuesto,
hemos hablado de dos grandes ámbitos funcionales —la selección para la
percepción y la selección para la acción—, falaz disyuntiva que, eso sí, nos
ha facilitado una vía de aproximación que esperamos que haya ayudado al
lector a estructurar las múltiples aproximaciones y modelos que compiten
por describir y/o explicar una naturaleza tan sibilina como la atencional. Es
cierto que, hoy en día, resulta algo arbitrario distinguir entre las diversas
teorías atencionales según propongan que la selectividad atencional tiene
como objetivo prioritario optimizar nuestra percepción —entendiendo aquí
percepción en su sentido amplio, es decir, contemplando la necesidad de la
selección dirigida a la información cognitiva, indiscutiblemente necesaria
para el conocimiento perceptivo—, o que, por el contrario, su genuino sentido radica en la organización y el control de la acción. De hecho, la mayoría de los modelos atencionales contemporáneos reconocen en mayor o menor medida la necesidad de contemplar ambos tipos de selección. Hay
ejemplos que hablan por sí solos: la llamada teoría de integración de las características (Treisman y Gelade, 1980), considerada desde siempre como
el prototipo de un modelo de selección para la percepción basada en un medio espacial, ha evolucionado para adaptarse a la nueva coyuntura y, en sus
versiones más recientes, incluye las debidas cabriolas conceptuales para, en
primer lugar, dar cabida a una adecuada explicación de la atención basada
en el objeto, y, algo más tarde, ingeniárselas para dar razón de la selección
para la acción (aunque no sin cierto pudor) (Treisman, 1988, 1993, 1995;
Treisman y Sato, 1990; Hommel, 1998).
Así pues, aunque es cierto que hace unos veinte años la mayoría de las
formulaciones atencionales estaban sesgadas en el sentido de que se centraban principalmente en analizar la selección que tenía lugar en el procesamiento de la vía visual ventral en detrimento del análisis de la selección
para la acción —se decía, a la sazón, que la atención facilitaba la detección, permitía el reconocimiento de objetos, o integraba los atributos
139
Atención
de un estímulo para dar lugar a un percepto unitario—, hoy en día el contexto paradigmático ha cambiado lo suficiente para que podamos afirmar
que selección para la percepción y selección para la acción son sólo dos aspectos complementarios e indisolubles de la función atencional. De hecho,
parece que una sin la otra no tienen sentido: la selección para la percepción
sin selección para la acción sería, además de evolutivamente inconcebible,
un mecanismo propio de un ente pasivo y anodino, y, al revés, la selección
para la acción sin selección para la percepción conduciría irremisiblemente
a la acción gratuita, indiscriminada y caótica, a un azar comportamental
puro, tan absurdo como disfuncional.
4.1
Visual Attention Model (Schneider, 1995): un paradigma
de compromiso teórico
El enfoque comprensivo que caracteriza a la mayoría de los modelos atencionales recientes se pone de manifiesto de forma especialmente clara en la
propuesta de Schneider (1995), el cual formula una solución de compromiso que vamos a exponer, aunque sea sólo para ilustrar el vínculo sinérgico
entre selección para la percepción y selección para la acción que contemplan la mayoría de las aproximaciones contemporáneas al estudio del mecanismo atencional.
La formulación de este autor, que abreviaremos con el acrónimo VAM,
es uno de esos modelos que hemos llamado monárquicos, los cuales conciben la atención como un mecanismo unitario ajeno a los sistemas sensoriomotores. Este mecanismo, esencialmente extrínseco al sistema visual, actúa
tanto sobre la vía ventral (selección para la percepción) como sobre la dorsal (selección para la acción basada en el espacio). De este modo, por una
parte, el mecanismo atencional del VAM accede al procesamiento visual de
alto nivel, el cual, según Schneider, se da de forma serial y tiene una capacidad limitada —el procesamiento visual de bajo nivel característico, por
ejemplo, de la corteza estriada (V1) se da en paralelo y, por tanto, carece
de limitaciones de capacidad. Sin embargo, por otro lado, el proceso selectivo que culminará en la selección de un objeto de alto nivel se da en los
primeros estadios del procesamiento de la información visual, a partir de
una selección de las agrupaciones perceptuales a nivel de V1. Así pues,
la atención actúa primordialmente seleccionando un objeto visual de bajo
nivel e induce una prioridad de procesamiento en la vía ventral. Simultáneamente, es posible que, basándose en su representación espacial, se programen acciones hacia el objeto en cuestión (mirarlo, cogerlo, señalarlo, etc.):
este proceso tiene lugar en la vía dorsal. Una vez programada la acción,
sólo es necesaria la intervención de determinadas áreas frontales para que
se active el control de los efectores y la acción potencial se convierta en acción real.
140
3. Selección para la percepción, selección para la acción
Con la propuesta del VAM, Schneider pretende formular una teoría
atencional neurocognitiva que resulte unificadora, y que ofrezca una visión comprensiva de la atención, salvando su diversidad intrínseca (véanse
apartados 5 y 6). Para él, las dos grandes funciones de la atención selectiva
son:
1.
2.
La selección para el reconocimiento de objetos.
La selección para la acción basada en el espacio.
Schneider nos ofrece una explicación conjunta de esas dos funciones, las
cuales, a menudo, han sido abordadas por aproximaciones sesgadas, que
enfatizan un tipo u otro de selección, dando lugar a dos grandes categorías
de modelos (de selección para la percepción y de selección para la acción).
Gracias a esas dos funciones del mecanismo atencional, se da una reestructuración de los procesos de segregación de la escena visual y de los que
subyacen a la organización perceptual local controlada por los estímulos
—que ocurren en las primeras etapas de elaboración de la información (en
V1)—, transformando los llamados visual chunks (agrupaciones visuales)
de forma que cada uno de ellos resulta globalmente segregado—se distingue de la información sobre las demás agrupaciones— y da lugar a lo que
Schneider denomina object token (modelo o prototipo de objeto). La segregación global, necesaria para el reconocimiento de objetos y para la programación de acciones basada en la información espacial, no se da en los niveles superiores de procesamiento del sistema visual (en las vías ventral y
dorsal) a menos que actúe el mecanismo atencional.
Para ilustrar esta cuestión, algo intrincada, pongamos un ejemplo: supongamos que queremos coger un rotulador rojo de un cajón de nuestro escritorio en el que los hay de múltiples colores. Obviamente, en primer lugar
dirigiremos nuestra atención al interior del cajón en busca del color rojo, lo
que implica que una señal atencional activará las unidades que codifican el
rojo en la representación del color de alto nivel (p.e., en V4). Esta señal se
retrotransmitirá al mapa retinotópico de V1, activando la agrupación visual
(visual chunk) que comparte el atributo seleccionado (color rojo). Entonces, V1 actúa como un distribuidor de la señal atencional, transmitiéndola a
todos los módulos de alto nivel de las vía del qué y del dónde. De este
modo, toda la información del sistema visual acoplada a esa señal atencional es segmentada globalmente, es decir, se distingue de la información
restante, y conforma un modelo de objeto (object token). Si, efectivamente,
el modelo contiene información acerca de un único objeto, el proceso de reconocimiento funciona correctamente y el sistema motor puede recibir los
parámetros espaciales necesarios para programar la acción (p.e., coger el
rotulador). Sin embargo, si el modelo contiene información de más de un
objeto (supongamos que en el cajón hay también un encendedor, un sacapuntas, una grapadora, un lápiz, etc., de color rojo), se requiere que actúe el
141
Atención
control atencional basado en la localización espacial, mediante el cual se va
a seleccionar, en V1, la información de una región determinada, propiciando la segmentación global de dicha información y su correspondiente (e
implícita) agrupación a ese nivel. Este control atencional basado en la localización espacial revisará de forma serial las diferentes regiones de V1 hasta que el rotulador rojo sea detectado y reconocido (en la vía ventral), lo
que permitirá, eventualmente, la programación de la acción de cogerlo (en
la vía dorsal). En síntesis, el mecanismo atencional del VAM puede actuar
de dos formas:
1.
2.
La forma prioritaria es el control atencional basado en el qué, que
se corresponde, en el ejemplo del rotulador, con la selección en función de su color.
Sin embargo, si ese proceso falla—normalmente, porque el modelo
de objeto generado incluye realmente múltiples objetos (rotulador,
sacapuntas, encendedor, grapadora, lápiz… todos de color rojo)—,
se recurre a la alternativa del control atencional basado en el dónde.
Mediante los dos procesos se consiguen objetivos similares —el reconocimiento del objeto y la acción basada en el espacio—, dado que, en ambos, la información se transmite a los sistemas visuales ventral y dorsal.
Como es fácil deducir, para Schneider, el proceso de reconocimiento de
un objeto resulta sumamente costoso y, evidentemente, no puede ser aplicado en paralelo a todos los objetos de un campo visual complejo. Por lo tanto, sólo uno o unos pocos objetos podrán ser reconocidos, en un momento
dado, a partir de la selección atencional (imaginemos, para el ejemplo anterior, un cajón repleto de objetos distintos de color rojo): esto implica que,
para este autor, como para Treisman (1988), el reconocimiento del objeto
es postatencional (véanse apartados 2.1. y 2.3.1.). Ya hemos visto que esta
postura ha resultado sumamente polémica y, de hecho, muchos autores no
la comparten. Para van der Heijden (1992), por ejemplo, la atención no interviene en el reconocimiento del objeto, dado que la capacidad del sistema
visual es ilimitada: pueden ser procesados múltiples objetos en paralelo (simultáneamente), lo que implica que no es necesario seleccionar los objetos
que se van a procesar.
Algunos trabajos recientes (p.ej., Deubel, Schneider y Paprotta, 1998)
ofrecen datos experimentales que son compatibles con diversas propuestas
del VAM. Por ejemplo, parece que el rendimiento en el reconocimiento
perceptivo de un objeto depende, en gran medida, de hacia dónde se dirige
un movimiento que se lleva a cabo de forma simultánea a dicha tarea de reconocimiento: la discriminación perceptiva es mejor si la tarea perceptual y
el movimiento se dirigen hacia el mismo objeto, una evidencia que refleja
el estrecho vínculo entre la selección atencional de la información de la vía
ventral y la de la información de la dorsal. Irwin y Gordon (1998) han obte-
142
3. Selección para la percepción, selección para la acción
nido resultados que van en el mismo sentido a partir del estudio de los movimientos sacádicos de los ojos.
5.
La naturaleza de la atención: monarquía, oligarquía
o anarquía.
Si desde que, en 1949, Moruzzi y Magoun descubrieron la Formación Reticular Mesencefálica parece relativamente claro que, por lo que se refiere a
los aspectos intensivos de la atención, existe un sistema unitario de control
supramodal, la cuestión resulta mucho más confusa cuando consideramos
sus aspectos selectivos. De hecho, y pese a las ya clásicas pretensiones de
los modelos monárquicos, no se han encontrado evidencias claras —o, al
menos, dignas de consenso— respecto a la existencia de un centro neural
que pueda ejercer un control rector sobre la función selectiva de la atención. Tanto las evidencias experimentales como las que proceden de los estudios neurofisiológicos, de los neuropsicológicos y de los basados en la
utilización de las modernas técnicas de neuroimagen, apuntan cada vez de
forma más inequívoca a la consideración de la atención como un mecanismo múltiple con funciones diversas. Estos resultados no han podido ser ignorados por los investigadores que trabajan en este ámbito, ni siquiera por
aquellos que con más entusiasmo han defendido largamente la existencia
de un sistema atencional unitario y amodal. Por poner un ejemplo, modelos
como el de Norman y Shallice (1986), uno de los que con más fervor apostaba por la existencia de un Sistema Atencional Supervisor, han sido finalmente reformulados y, si bien aún siguen buscando —probablemente en
vano— un dispositivo homunculoide que gobierne el comportamiento atencional, no han tenido más remedio que admitir que un control de ese estilo
sólo puede ser ejercido por mecanismos diversos, si bien coordinados de
forma algo misteriosa (véase p.ej., Shallice y Burgess, 1993). Así pues, entre los defensores más acérrimos de la existencia de un único sistema de
control atencional amodal, la mayoría han terminado por claudicar ante la
rotundidad de los resultados experimentales y admitir que ese control debe
ser ejercido, en todo caso, por un sistema oligárquico, en el cual diversos
mecanismos, coordinados o no, darían cuenta de las múltiples variedades
atencionales (atención selectiva —espacial y basada en el objeto—, atención dividida, atención sostenida, cambio atencional, control atencional ejecutivo, etc.). Además, la tendencia general es la de ceñirse al estudio de la
atención en una modalidad sensorial determinada —principalmente, la visual—, renunciando también a la búsqueda de un putativo sistema atencional supramodal, común a los diversos sistemas sensoriales. La propia
Treisman (1988), otrora monárquica convencida, propone un modelo oligárquico, según el cual la atención, al menos en su modalidad visual, no
sería más que una etiqueta genérica para referirse a una variedad de meca-
143
Atención
nismos selectivos que pueden actuar en múltiples puntos de la red de procesamiento de la información.
El estudio de la atención desde la perspectiva de las diferencias intra e
interindividuales no hace sino dar solidez empírica a esa renuncia mayoritaria —aunque todavía no unánime— a un modelo monárquico de la atención, dado que, por ejemplo, la correlación entre las diferentes habilidades
atencionales que posee un individuo a menudo resulta bastante pobre: un
sujeto puede destacar en determinadas tareas atencionales pero, por ejemplo, puntuar por debajo de la media en otras. Por otra parte, una determinada variable (edad, sexo, personalidad, estilos cognitivos, ritmicidad circadiana, motivación, etc.) puede afectar significativamente a determinados
tipos de atención, pero no a otros (véase Rosselló y Munar, 1994), lo que
ha llevado a pensar que suponer una capacidad o habilidad atencional general no es más que una idea quimérica y que, en realidad, parece haber casi
tantas subcapacidades (o subhabilidades) específicas como tareas atencionales se plantean.
La multiplicidad de mecanismos atencionales se revela en la multiplicidad de funciones de lo que, por simple parsimonia, llamamos atención. Esa
pluralidad esencial explica la falta de consenso en cuestiones tan fundamentales como el lugar de selección, el medio sobre el cual actúa dicho mecanismo, su naturaleza excitatoria o inhibitoria, etc. Así pues, la falta de
acuerdo en la comunidad científica parece debida, en último término, a que
la atención es múltiple y diversa, y que, por tanto, los numerosos paradigmas experimentales utilizados en su estudio pueden afectar a mecanismos
atencionales genuinamente distintos, lo que inevitablemente debe repercutir
en los resultados obtenidos. A nuestro juicio, un factor que agrava esa discrepancia radica en que, con frecuencia, los distintos modelos atencionales
son formulados desde diversos niveles explicativos (experimental, formal,
neurológico, computacional, etc.): dado el caos reinante en la conceptualización teórica de la atención, parece poco recomendable intentar formular
modelos atencionales pretendidamente globales partiendo de diferentes niveles de abstracción: hoy por hoy, nos resultaría sorprendente—y hasta suspicaz— que, por ejemplo, el modelo formal de Bundesen (1998) fuera totalmente compatible con el que Desimone y Duncan (1995) postulan a
partir de sus estudios neurofisiológicos.
En su conocido trabajo de revisión, Johnston y Dark (1986) dividieron
los modelos teóricos en causales y de efecto, aludiendo al viejo dilema de
si la atención es una fuerza o más bien un resultado (véanse Tudela, 1992,
o Rosselló, 1997). Entre los primeros cabría situar a aquellos que aquí hemos llamado monárquicos y oligárquicos, modelos que, respectivamente,
postulan la existencia de uno solo o de varios mecanismos atencionales articulados, independientes de los sistemas sensoriomotores, y cuya función
básica sería el control del procesamiento y de la acción. La autora del Capítulo 1 (como un servidor no hace mucho tiempo) aboga claramente por esta
144
3. Selección para la percepción, selección para la acción
opción. En cambio, los modelos de efecto postulan que la atención no es
más que un resultado, un fenómeno subjetivo que emerge del funcionamiento de ciertos circuitos neurales. Grosso modo, esta perspectiva coincide
con lo que en este capítulo hemos llamado modelos anárquicos, según los
cuales, genuinamente, no existen los llamados sistemas o mecanismos atencionales. Lo que llamamos atención sería sólo la vivencia subjetiva que experimentamos cuando determinados circuitos sensoriomotores incrementan
su actividad basal. Así, el hecho de que los resultados experimentales (y las
supuestas funciones atencionales) sean tan heterogéneos, no sería sino un
reflejo de que la atención es únicamente fenomenología atencional, tan diversa porque puede emerger de todos y cada uno de los circuitos sensoriomotores de nuestro cerebro: para los modelos anárquicos esto resulta más
plausible que pensar que tenemos una multitud de circuitos (o módulos)
atencionales causantes de la vasta diversidad atencional observada (como
proponen los modelos oligárquicos). Desde este punto de vista —defendido, por ejemplo, por los partidarios de la teoría premotora y por gran parte
de los autores que han abordado el estudio de la selección para la acción—
, la cuestión de la verdadera naturaleza de la atención es, en último término, intrascendente y baladí, dado que se trata de un fenómeno, en el sentido
filosófico del término, es decir de algo que se manifiesta a la consciencia
pero que no tiene por qué corresponderse (y, de hecho, no se corresponde)
con algo real. De este modo, lo que llamamos atención sería el mero correlato subjetivo del aumento de la tasa de descarga neuronal en ciertos sistemas neurales: no habría ningún centro rector, ningún sistema de control
atencional, no habría nada en nuestro cerebro cuya función primordial fuera la de activar las zonas cerebrales que procesan una información u otra
según atendiéramos, precisamente, a una u otra información. Así pues, la
anarquía sería intrínseca a nuestro comportamiento atencional: cada circuito neural tendría su propia atención y, en principio, ninguno tendría ascendencia sobre el resto.
6.
La diversidad atencional: cuando los árboles no dejan
ver si hay un bosque
En cierto sentido, el escepticismo que se deriva de la óptica que hemos llamado anarquista puede resultar desalentador, tanto para el investigador que
trabaja en atención como para el alumno que se inicia en su estudio. Sea
cual sea la verdad (suponiendo que exista una verdad atencional), lo cierto
es que esa perspectiva ha sido, a nuestro juicio, sumamente provechosa. Ha
ayudado a concebir la atención como un mecanismo múltiple y diverso, ha
aguzado el ingenio de los investigadores para eludir el problema del homúnculo, ha obligado a afinar la metodología de estudio, ha contribuido a
relativizar ciertas aserciones —algunas de las cuales se han demostrado fi-
145
Atención
nalmente falsas—, ha intensificado y diversificado el esfuerzo investigador
y ha reintroducido la tan necesaria duda metódica en la modelización teórica atencional. Obviamente, también ha tenido otros efectos que, al menos
en principio, podrían parecer indeseables. Aparte del desaliento mencionado, puede haber inducido en ciertos investigadores un agnosticismo demasiado radical para resultar recomendable, puede haber contribuido a la
excesiva segmentación del ámbito de estudio y a la proliferación de micromodelos que dificultan una aproximación sintética al tema, y, sin duda,
puede haber ayudado a fomentar el caos conceptual reinante en la psicología de la atención contemporánea. Sin embargo, tal vez ese caos resultaba
necesario simplemente porque nos ha ayudado a tener claras las preguntas
—lo que resulta preceptivo antes de pretender postular respuestas taxativas—; tal vez, hoy por hoy, la segmentación analítica sea la mejor estrategia investigadora y los micromodelos las únicas aproximaciones téoricas
posibles; quizás haya que renunciar, al menos de momento, a contar con
una teoría global que dé cuenta de la selección atencional; tal vez, y esto ya
es más arriesgado, se han revelado tantas anomalías en la investigación
atencional que, en términos kuhnianos, la psicología de la atención se halle
inmersa en una etapa de crisis paradigmática.
Sabemos ahora —ya lo hemos dicho— que la atención no es ni única ni
homogénea. Y no lo es ni por naturaleza ni en cuanto a su función. A nuestro juicio, aún no está claro si responde a un modelo oligárquico o si es un
fenómeno subjetivo que emerge de un sistema anárquico. En todo caso —y
pese a que hace ya más de un siglo que William James afirmara aquello de
Everyone knows what attention is— lo que está claro es que, desde el punto
de vista científico, nadie sabe lo que es la atención —o, al menos, nadie es
capaz de inducir un razonable consenso al respecto. Cabe decir que, probablemente, todavía es demasiado pronto para saberlo. Por esa razón, constituye un esfuerzo ocioso e insensato intentar ofrecer una definición unitaria
que explique la atención. Resulta incluso verosímil que una definición de
ese estilo vaya en contra de la propia índole no unitaria del mecanismo
atencional. Puede que la atención sea muchas cosas a la vez o puede que se
trate sólo de un epifenómeno (es decir, que no sea). Sin embargo, pensamos que, por ahora, cabe mantener el término para designar el vasto ámbito
disciplinar relacionado con la selección para la percepción y la selección
para la acción, aunque sólo sea por razones prácticas, por cuestiones didácticas o porque no disponemos de una alternativa mejor. Sólo la investigación puede ofrecer respuestas a las preguntas que ahora hemos recuperado.
Hoy por hoy, debemos conformarnos con estudiar lo mejor que podamos lo
que Tudela (1992) ha llamado problemática atencional, a sabiendas de que
puede que no haya más que eso. Hace algún tiempo yo mismo defendía
convencido una definición de atención que comulgaba con lo que hoy he
llamado modelos oligárquicos, afirmando que su naturaleza era múltiple
pero central, orientada hacia el control de los sistemas sensoriales y los
146
3. Selección para la percepción, selección para la acción
efectores —y, por tanto, extrínseca a ellos— (véase Rosselló, 1994, 1997).
Hoy tengo serias dudas sobre todo ello. De lo único que estoy seguro es de
que el concepto de atención ha perdido para siempre su univocidad y de
que, como afirma Allport (1993), no puede haber una teoría simple de la
atención, como no la puede haber de la inteligencia o del pensamiento. Si,
por lo que fuera, me viese obligado a formular una definición, podría decir,
por ejemplo, que se trata de un fenómeno de origen diverso que se corresponde con una serie de mecanismos selectivos que, en función de determinados factores top-down y bottom-up, optimizan el procesamiento de la información necesaria para que nuestra acción sea lo más adaptativa
posible. Se trata, evidentemente, de una definición operativa para salir del
paso, que no pretende decir nada acerca de la naturaleza atencional y que se
mantiene abierta a lo que la investigación futura nos ofrezca. Aún así, si
pudiera, escribiría esa definición en voz baja. Puede que, con el tiempo, la
investigación altamente segmentada de la problemática atencional, y los
micromodelos que de dicha investigación se derivan —que, sin duda, dificultan una posible integración conceptual de los mecanismos de selección
atencional— deba ser complementada por una perspectiva sistemática que
propicie una conceptualización sintética y comprensiva. O puede que los
resultados experimentales demuestren que cualquier tentativa explicativa de
esa índole no tiene ningún sentido. Sabremos entonces si esas múltiples variedades atencionales que monopolizan ahora nuestros esfuerzos analíticos
eran sólo los árboles que no nos dejaban ver el bosque o si, en realidad, tan
sólo había árboles, tan sólo muchos árboles...
Bibliografía comentada
García Sevilla, J. (1997): Psicología de la atención, Madrid, Síntesis. Se trata del
manual monográfico más completo que, sobre el tema de la atención, se ha publicado hasta la fecha en lengua castellana. Contempla una introducción a los
principales aspectos conceptuales, una panorámica de la metodología experimental utilizada en el estudio de la atención, una revisión de algunos de los modelos teóricos más relevantes y una aproximación explicativa a los mecanismos
de atención selectiva, dividida y sostenida. Asimismo, aborda sucintamente aspectos como el desarrollo evolutivo de la atención, las diferencias individuales
y las disfunciones atencionales más relevantes, incluyendo una aproximación
sumaria a las técnicas de evaluación e intervención.
Rosselló, J. (1997): Psicología de la atención. Una introducción al estudio del mecanismo atencional, Madrid, Pirámide. Constituye una aproximación conceptual
a los temas más relevantes que, desde el ámbito de la psicología básica, se abordan en el estudio de la psicología de la atención. Aúna la brevedad, la claridad
de exposición y el rigor científico. Resulta especialmente indicado para una primera aproximación al tema en el marco de los nuevos planes de estudio. Se
ofrecen al lector una serie de reflexiones teóricas que resultan insoslayables
147
Atención
para quien pretenda iniciarse en el tema desde una perspectiva actual, articulada
en un discurso crítico y abierto que no descuida los referentes históricos más
importantes.
Styles, E.A. (1997): The psychology of attention. Hove: Psychology Press. Sin
duda, se trata del manual en lengua inglesa más recomendable para el estudiante. Desde una óptica actual y novedosa, aproxima al lector a los principales tópicos atencionales utilizando un lenguaje muy claro y un discurso ameno. Partiendo de los trabajos llevados a cabo en los años cincuenta, se exponen las
aproximaciones contemporáneas, abordando, de forma harto comprensiva, los
principales dilemas y controversias suscitados por los resultados experimentales
obtenidos en la última década, y abogando por un concepto de la atención como
un fenómeno emergente múltiple y diverso, respecto al cual no cabe una explicación unitaria, concepción muy próxima a la óptica anárquica de ciertos modelos de selección para la acción: la atención es sólo un estado subjetivo, el
correlato vivencial de una actividad neural primordialmente tan diversa como
diversas son las llamadas tareas atencionales. Se trata, probablemente, del libro
más didáctico y bien estructurado que se ha escrito sobre el tema, ideal para
quien pretenda profundizar algo más en el estudio básico del mecanismo atencional desde una perspectiva necesariamente iconoclasta, impuesta por las incontrovertibles evidencias experimentales obtenidas en los últimos años.
Tudela, P. (1992): Atención. En J. L. Fernández Trespalacios y P. Tudela (Eds.):
Percepción y atención (pp. 119-162). En J. Mayor y J. L. Pinillos (Dirs.): Tratado de psicología general. Vol. 3. Madrid, Alhambra. Pese a ser relativamente reciente se ha convertido ya en un clásico de obligada referencia para los que trabajamos en atención en el estado español. Cuando apareció llenó el profundo
vacío que, sobre la cuestión atencional, imperaba entonces en nuestra literatura
especializada. El autor, de reconocido prestigio internacional, nos ofrece primero una aproximación histórico-conceptual al tema, para exponer luego algunos
de los modelos más relevantes que se han formulado desde el paradigma del
procesamiento de la información. En la segunda parte del capítulo abunda en la
dicotomía automatización-control atencional y trata una serie de cuestiones
conceptuales ligadas al estudio del mecanismo atencional desde una perspectiva
crítica que, a menudo, deja entrever su opción personal, que aboga por un concepto explicativo (no descriptivo) de la atención, entendiéndola como un mecanismo de control ajeno a los sistemas sensoriomotores, muy en la línea de la
concepción que, desde la neurociencia cognitiva, defienden Posner y cols. —
aproximación que encaja con lo que, en este capítulo, hemos llamado modelos
oligárquicos. Recomendable para el estudiante que quiera ir algo más allá en la
perspectiva que pretende una explicación unitaria de la atención.
Botella, J. (1998): La atención. En J. Monserrat (Ed.): La percepción visual (pp.
499-532), Madrid, Biblioteca Nueva. Se trata de un capítulo sobre el tema de
aparición muy reciente, que constituye una buena introducción a las principales
cuestiones que aborda, hoy en día, la investigación atencional. Se describen, de
forma sucinta pero rigurosa, algunos de los experimentos clave que han propiciado nuevas aproximaciones teóricas en el estudio de la atención selectiva. Su
lectura procura un conocimiento sintético de las nociones básicas que subyacen
a algunos de los modelos más en boga en la literatura especializada, teorías que,
desde distintos puntos de vista, pretenden ofrecer una explicación —parcial o
148
3. Selección para la percepción, selección para la acción
más holística— a ciertos resultados experimentales de elevado poder heurístico.
También aborda, de forma sumaria, los temas de la atención dividida, la atención sostenida, la automatización y la psicopatología de la atención. Finaliza
con una reflexión sobre la naturaleza y el concepto de atención con la que, esencialmente, estamos de acuerdo, como resulta patente si se compara con la ofrecida en los últimos apartados de este capítulo.
Egeth, H. E. y Yantis, S. (1997): Visual Attention: Control, Representation, and
Time Course. Annual Review of Psychology, 48, 269-297. Constituye un trabajo
que revisa algunas de las polémicas más recientes surgidas de la profusa investigación atencional. Se exponen los determinantes que controlan el mecanismo
atencional, tanto los derivados del comportamiento intencional (top-down),
como los que se refieren a las variables estimulares (bottom-up). La exposición
continúa con el análisis del dilema atención espacial-atención al objeto, ofreciendo datos experimentales relevantes para el estudio de la base representacional —el medio— sobre la que actúa el mecanismo atencional. Finalmente, se
aborda el tema del curso temporal de la atención, describiendo las variables que
influyen en la rapidez con que la orientamos hacia un estímulo específico, analizando los factores que determinan el tiempo que permanece fijada en dicho
estímulo, y discutiendo la naturaleza del desplazamiento o cambio atencional y
los parámetros temporales que lo caracterizan.
149
Atención
Preguntas de revisión
1. Considerando las incógnitas planteadas en el punto 1.1. en torno al
mecanismo atencional, y después de leer con detenimiento este capítulo, ¿cuáles serían, a tu juicio, las respuestas más verosímiles a las
cinco cuestiones planteadas? Justifica tu respuesta, aduciendo argumentos teóricos y/o evidencias experimentales que avalen tu opinión.
2. Según tu parecer, ¿cuáles son los resultados experimentales que ofrecen una base más sólida al argumento de que la selección atencional
no siempre se basa en el espacio, sino que puede actuar genuinamente
sobre la representación del objeto? Pon diversos ejemplos de la vida
cotidiana en que resulte patente que focalizamos nuestra atención 1)
en los objetos considerados como un todo, 2) en algunos de sus atributos (color, forma, orientación, etc.) y 3) en su ubicación espacial.
3. Imagina un supuesto debate entre un partidario de los modelos monárquicos y un defensor de la óptica que hemos llamado anárquica. Transcribe una hipotética discusión entre ellos en la que, cada cual, saque a
colazón razones teóricas, fenoménicas, datos experimentales, etc., que
apoyen su postura. Si piensas que alguno de los razonamientos expuestos por una de las dos partes resulta difícil de rebatir, haz que el curso
de la discusión así lo refleje.
4. Después de la lectura de los apartados sobre representación del espacio, del objeto y de la acción (2.2.1., 2.3.1. y 3.1.), ¿qué conclusiones
sacarías respecto al vínculo entre percepción y acción?, ¿piensas que
dicho vínculo puede ser producto de la evolución filogenética? Razona
tus respuestas y pon algunos ejemplos en los que ese vínculo te resulte indispensable para comportarte de forma adaptativa.
5. ¿Piensas que seleccionamos nuestras entradas sensoriales sólo para optimizar nuestra acción? ¿Qué otra función/funciones no ligada/s a la
acción podría tener la selección atencional en la visión si es verdad
que nuestro sistema visual tiene una capacidad virtualmente ilimitada?
6. Compara la teoría de la integración de las características (Treisman,
1988) con la propuesta de van der Heijden (1992), destacando las posibles coincidencias y las discrepancias más evidentes. Si quieres, puedes tomar partido (siempre y cuando justifiques tus preferencias).
7. Con un poco de imaginación, ponte en el lugar de Schneider (1995) e
intenta, desde el marco teórico del VAM, hilvanar una crítica más o menos plausible en contra de la teoría premotora clásica, la que concibe
la programación de la acción estrechamente ligada al procesamiento
espacial llevado a cabo en la vía dorsal.
8. Compara la concepción de la atención ofrecida en este capítulo con la
que se nos ofrece en el primer capítulo de este manual. Destaca las
principales diferencias y aboga por una de las dos opciones, argumentando debidamente tu elección.
150
4.
Alteraciones atencionales
Mateu Servera Barceló
En el presente capítulo se realiza una revisión de las alteraciones atencionales en la infancia y en la psicopatología de los adultos. En el primer
caso se aborda el trastorno por déficit de atención en la infancia. Se hace
una descripción clínica del trastorno, se abordan los factores implicados
en su instauración y finalmente se exponen técnicas de evaluación y algunos aspectos relacionados con su tratamiento. En la segunda parte se aborda de un modo crítico la relación entre la psicopatología clásica de la
atención y los modelos experimentales. A continuación se expone una visión más actual de las disfunciones atencionales a partir de la psicopatología cognitiva y, finalmente, se analizan las alteraciones atencionales en algunos trastornos mentales, especialmente la esquizofrenia.
1.
Introducción
El abordaje de los trastornos atencionales es siempre una labor difícil, cualquiera que sea el objetivo que se persigue. Las razones de esta dificultad
son varias, pero en gran parte guardan relación con los problemas inherentes a la definición y conceptualización de la atención.
Como señalan Belloch e Ibáñez (1991) el término psicopatología no
siempre implica morbidez, pero ello es especialmente cierto en el caso de
las alteraciones atencionales. Éstas se pueden categorizar y conceptualizar
en función de múltiples criterios, propiedades y aspectos en relación, por
151
Atención
ejemplo, a temas como la conciencia, el procesamiento de la información,
la activación, etc. Tal y como reflexionan Baños y Belloch (1995), la atención se entiende de muy diversas maneras: un mecanismo, una volición, un
estado de la mente, un proceso, etc. Los psicopatólogos, además, en muchas ocasiones no han tenido en cuenta esta problemática. Ruiz-Vargas y
Botella (1987, p. 107) señalan refiriéndose a la alteraciones atencionales de
la esquizofrenia (pero es generalizable a otros trastornos) lo siguiente: «durante varias décadas, han hablado de atención sin disponer de un criterio
único para referirse a este constructo y, además, con frecuencia, parecen
haber ignorado la evolución de los modelos de atención desarrollados por
la psicología experimental». Estos mismos autores destacan, en contra de
una posición muy extendida en psicología, que la atención «no es un proceso cognitivo» (p. 95), sino la actividad mediadora que participa en todos los
procesos cognitivos.
A estas reflexiones, nosotros añadiríamos un cierto divorcio entre la psicología experimental y la psicología clínica, quizás más evidente en el área infantil. Educadores y clínicos diagnostican con mucha frecuencia problemas
atencionales en los niños de modo global. Entran en la misma categoría conductas de distracción, de no escuchar, de abandonar la tarea, de falta de concentración, de falta de discriminación, de levantarse de la silla, etc. Y, en la
misma línea, como señalan López Soler y García Sevilla (1997), los procesos
atencionales y las conductas de atención no siempre son sinónimos: es posible simular gran atención visual y auditiva hacia el profesor y tener el pensamiento a años luz de la clase. Tampoco es del todo adecuado definir la atención en función de la ejecución sobre determinadas tareas, puesto que
fácilmente intervienen experiencias previas de aprendizaje y otros procesos
psicológicos (memoria, percepción, razonamiento...). En el caso de la psicopatología de la atención en adultos se ha mantenido una mayor conexión entre la psicología experimental y la clínica, si bien, como señalan Ruiz-Vargas
y Botella (1987), con una gran asincronía, puesto que los modelos experimentales siempre han ido muy por delante de las investigaciones clínicas.
De todos modos, hoy en día, como señalan López Soler y García Sevilla
(1997), cada vez existe mayor relación entre la investigación básica y la clínica. En estos momentos ya difícilmente se trata la atención como un problema global. Hay tres propiedades fundamentales de esta actividad cognitiva que se están evaluando y analizando por separado desde el punto de
vista clínico y educativo: la selectividad o capacidad de focalización sobre
la estimulación relevante, la distribución ante tareas que obligan a atender a
dos o más estímulos a la vez y el mantenimiento o nivel de vigilancia en tareas de larga duración. Por otra parte, la investigación en psicopatología
avanza cada vez más hacia la relación de la atención con la activación cortical y a la búsqueda de conexiones entre déficit atencionales y déficit cerebrales (Baños y Belloch, 1995). Los modelos explicativos también parecen
dirigirse hacia la neuropsicología cognitiva, de manera que se esperan cam-
152
4. Alteraciones atencionales
bios en la conceptualización de la atención y, por supuesto, en el análisis de
sus disfunciones.
A continuación expondremos estas y otras cuestiones en una revisión de
las alteraciones atencionales que hemos dividido en dos partes: la primera dedicada por completo al trastorno por déficit atencional en la infancia en la infancia y la segunda, algo más genérica, a la psicopatología de la edad adulta.
2.
El trastorno por déficit de atención en la infancia
Los problemas de falta de atención en el ámbito escolar son de los más frecuentes, incluso en población normal. Manga, Fournier y Navarredonda
(1995) señalan que en los estudios epidemiológicos con población normal
los maestros describen como inatentos casi a la mitad de los niños y algo
más de una cuarta parte de las niñas. Si pasamos al ámbito clínico los problemas atencionales, al menos los relacionados con el trastorno hiperactivo,
presentan una prevalencia entre el 3-5 por ciento (APA, 1994), e incluso algunos autores señalan que la mitad de los niños que son remitidos para evaluación y/o tratamiento clínico presentan algún tipo de disfunción atencional (Morris y Collier, 1987). Por tanto, las repercusiones educativas y
sociales de este tipo de problemas justifican sobradamente los esfuerzos actuales para su definición, explicación, evaluación y tratamiento.
2.1
La definición del trastorno por déficit de atención
en la infancia
El trastorno por déficit atencional (TDA), como entidad clínica independiente, aparece a principios de los años ochenta (Asociación Americana de
Psiquiatría, APA, 1980), pero desde siempre se ha hallado muy vinculado a
la hiperactividad y las dificultades de aprendizaje. La hiperactividad se ha
venido definiendo, como indica Barkley (1990), en función de una triple
sintomatología interrelacionada: sobreactividad motora, problemas atencionales e impulsividad, sin que hasta ahora la naturaleza multicomponente de
esta sintomatología haya sido del todo aclarada. Hasta los años setenta se
consideraba que la sobreactividad/impulsividad motora era el síntoma principal, al cual se asociaban las disfunciones atencionales. Sin embargo, los
trabajos experimentales del equipo de Virginia Douglas en la Universidad
McGill de Canadá (Douglas, 1983; 1984) cambiaron radicalmente esta
idea: ni la sobreactividad, ni los trastornos de conducta, ni siquiera las medidas de distraibilidad (atención selectiva) eran los criterios que mejor diferenciaban a los niños hiperactivos de sus compañeros o de otros que padecían otras alteraciones. Estos criterios se basaban en medidas de atención
sostenida y autocontrol.
153
Atención
De este modo surgió, de manera explícita, el trastorno por déficit de
atención en la infancia, cuya relación con el concepto más amplio de hiperactividad ha sido y continúa siendo muy polémico. La cuestión clave está
en determinar si se trata de un único síndrome, cuyas manifestaciones básicas centradas en conductas de falta de atención, impulsividad y sobreactividad están interrelacionadas, o si es posible diferenciar dos trastornos específicos: el trastorno por déficit atencional con y sin hiperactividad. En
1987, la APA recogió más estudios favorables a un único síndrome, pero en
menos de diez años una serie de trabajos clínicos de tipo factorial dieron
apoyo a la doble distinción. Desde 1994, y hasta el momento, la APA sigue
manteniendo una única entidad clínica (trastorno por déficit de atención
con hiperactividad) pero con tres subtipos: con predominio atencional, con
predominio de hiperactividad/impulsividad y combinado. Actualmente, importantes expertos sobre el tema, como Russell Barkley (1990; 1997) o
Eric Taylor (1994) creen que la investigación nos llevará a recuperar la distinción entre trastorno por déficit de atención con hiperactividad (TDA+H)
y trastorno por déficit atencional sin hiperactividad o puro (TDA-H).
¿Cuál es la diferencia entre un TDA+H y un TDA-H? Esta diferencia
puede establecerse, desde el punto de vista clínico, sobre una base comportamental y sobre el tipo de déficit atencional. En el primer caso, los niños
con TDA+H presentan una sobreactividad motora o, si se prefiere, simplemente una actividad motora desadaptativa. Realmente les cuesta controlar
su conducta motora especialmente en situaciones que exigen esfuerzo cognitivo y atención. Pero, además, en su mayoría también presentan conductas
disruptivas e incluso antisociales, claramente implicados en sus problemas
académicos y de adaptación familiar y escolar (Berry, Shaywit y Shawitz,
1985; Carlson et al., 1987).
En cuanto al déficit atencional, los clínicos han tenido que acercase a la
investigación básica. Al menos dos tipos de atención, la selectiva y la sostenida, cada vez parecen tener más implicaciones en el proceso de evaluación
y tratamiento. En general, y aún siendo un tema en estudio, los niños con
un TDA+H demuestran que la mayor parte de sus problemas atencionales
se centran en la atención sostenida, mientras los niños con un TDA tienen
más problemas en la selectiva. En palabras de Russell Barkley:
Los niños con TDA-H pueden tener más problemas con la atención focalizada o velocidad del procesamiento de la información (análisis de los inputs y recuperación de la información almacenada). Por su parte, los niños con TDA+H pueden tener más dificultades con la atención sostenida y el control de la impulsividad, y con los parámetros
motivacionales implicados en la tarea (Barkley,1990, p. 90).
Hasta ahora los datos, especialmente los referentes a los niños con TDA+H
tienden a confirman esta hipótesis. Por tanto, a pesar de que muchos padres
y educadores describen como distraíbles y con poca capacidad de concen-
154
4. Alteraciones atencionales
tración a muchos niños hiperactivos, cuando se ha analizado su rendimiento sobre tareas de laboratorio centradas en la atención selectiva y la discriminación visual se ha observado que, en muchos casos, no llegan a diferenciarse significativamente de los niños normales (Douglas y Peters, 1979;
Taylor, 1986; 1994). Incluso añadir estimulación irrelevante a las tareas no
sólo no provoca grandes cambios de rendimiento, sino que, excepcionalmente, puede mejorarlo. En cambio, y de modo mucho más consistente, estos niños presentan niveles de rendimiento significativamente inferiores en
tareas de rendimiento continuo y de vigilancia, propias de la función de
atención sostenida (Barkley, 1990; 1997; Moreno, 1995; Taylor, 1986;
1994).
En cuanto a los niños con TDA puro constituyen un grupo mucho menos estudiado. Como señala Barkley (1990), su presencia ha enmascarado
tanto los estudios con niños hiperactivos como los estudios con niños con
dificultades de aprendizaje. En el primer caso es evidente que muchas de
las contradicciones en las conclusiones experimentales sobre la hiperactividad podrían provenir de la presencia más o menos mayor de TDA en las
muestras investigadas. Barkley, Grodzinsky y DuPaul (1992) encuentran
evidencias claras en favor de características propias de estos niños: menos
del 20 por ciento presentarían problemas conductales más o menos graves,
prácticamente no tiene problemas de sobreactividad motora, ni se diferencian significativamente de los niños normales en tareas de atención sostenida, o de funcionamiento del lóbulo frontal en general. En cambio, sí se
caracterizan por problemas de rendimiento cognitivo: tanto en tareas académicas como de laboratorio, especialmente cuando se requiere un esfuerzo
de concentración y focalización atencional.
En el segundo caso, es decir, a la hora de analizar la relación entre el déficit atencional y las dificultades de aprendizaje, también existen bastantes
problemas. Como afirman López Soler y García Sevilla (1997), entre el 4050 por ciento de las dificultades de aprendizaje se asocian a problemas
atencionales, hasta el punto que algunos autores consideran el TDA, y también el TDA+H, como una dificultad de aprendizaje más. Desde un punto
de vista genérico, los niños hiperactivos coinciden con muestras de niños
con dificultades de aprendizaje específicas en que, en general, sus puntuaciones sobre el cociente intelectual y otras medidas cognitivas globales entran en los intervalos de normalidad. En cambio sus medidas en pruebas de
rendimiento académicas (normalizadas y basadas en el currículum) suelen
estar 1,5 desviaciones estándar por debajo de la media. Y, finalmente, las
conductas de falta de atención son muy frecuentes. Sin embargo, no parece
del todo adecuado equiparar hiperactividad y dificultad de aprendizaje sin
realizar algunas matizaciones.
En el TDA+H no tiene por qué estar presente una afectación específica
del área perceptiva, el lenguaje o la psicomotricidad (las más típicas en las
dificultades de aprendizaje) (López Soler y García Sevilla, 1997). Además,
155
Atención
las pruebas atencionales que mejor les caracterizan son las de ejecución
continua y vigilancia (atención sostenida), mientras en el caso de las dificultades de aprendizaje destacan más las medidas de distraibilidad y de focalización atencional (atención selectiva). Evidentemente, en este último
aspecto sí es posible una cierta equiparación entre dificultad de aprendizaje
y TDA puro, sin embargo hay que tener presente que en este caso normalmente no puede determinarse un déficit cognitivo específico responsable
de sus problemas académicos. En general compartimos la idea, aunque entendemos que discutible, que la función atencional no es estrictamente un
proceso cognitivo, sino la actividad básica que permite la puesta en marcha
de todo el procesador central de información (Ruiz-Vargas y Botella,
1987). Por tanto, su disfunción tiene un carácter inespecífico y global sobre
la ejecución y el rendimiento.
Para finalizar, y a modo de resumen, podemos decir que el diagnóstico
de trastorno por déficit de atención hace referencia a un niño con una capacidad cognitiva general dentro de la normalidad, pero que tiene problemas
para detectar los estímulos relevantes, comete errores por descuido, se distrae fácilmente, parece no escuchar, tiene dificultades para seguir instrucciones y también (aunque tal vez en menor grado comparado con el
TDA+H) tiene problemas para mantener la atención cierto tiempo. No tiene
por qué presentar conductas problema importantes ni en casa ni en la escuela, pero desde un punto de vista estricto, para su diagnóstico la APA
exige actualmente que las disfunciones atencionales sean perceptibles en
ambos ambientes (o más) y que supongan un deterioro clínicamente significativo de la actividad social, académica o laboral (APA, 1995).
2.2
Factores implicados en la instauración del déficit atencional
La investigación sobre las causas del TDA es un trabajo complicado debido
a su naturaleza multicomponente y a los problemas metodológicos en la
conceptualización del trastorno. La mayoría de estudios, por ejemplo, utiliza muestras clínicas de niños hiperactivos, sin especificar la presencia o no
de niños con TDA puro. Por tanto, las conclusiones que aquí resumiremos
sobre factores motivacionales, genéticos, neurológicos, ambientales y psicológicos son más bien genéricas del campo de la hiperactividad, si bien
con muchas referencias a la disfunción atencional.
La motivación y la falta de atención en muchos casos mantienen una relación muy directa: ¿quién puede permanecer largo tiempo sobre una tarea
extremadamente aburrida, fácil, difícil o poco recompensada? Sin embargo,
esta relación entre baja motivación y conductas de inatención no es extrapolable de modo lineal al déficit atencional. Los niños con TDA sorprenden (e incluso irritan) a sus padres y educadores cuando son incapaces de
trabajar cinco minutos sobre sus deberes y luego se enganchan largo tiempo
156
4. Alteraciones atencionales
a los programas de TV o a los vídeojuegos. Sin embargo, Pelham (1981) y
sobre todo Kirby y Grimley (1986) han señalado adecuadamente que el nivel de exigencia de atención sostenida de las tareas escolares y estas actividades no son comparables. Los programas o juegos motivantes para los niños con TDA presentan mínimos requerimientos de esfuerzo cognitivo e
incluso son el lado opuesto de lo que implica una tarea de atención sostenida. El niño está más tiempo del habitual con ellos porque presentan cambios rápidos de estimulación, porque puede hacer múltiples desconexiones
cognitivas (soñar despierto) y volver a engancharse sin interferencia en la
comprensión o el disfrute, y porque el reforzamiento es frecuente. Por tanto, como ya señaló Douglas (1984), los problemas de atención sostenida y
la baja motivación hacia las tareas cognitivas son dos déficit concurrentes
en el TDA, pero deben ser considerados al mismo nivel.
Por lo que respecta a los factores genéticos, de modo muy resumido podemos decir que hasta ahora los trabajos han sido de tipo correlacional, con
todas los problemas y controversias que ello conlleva. Goodman y Stevenson (1989) en un amplio estudio con más de 100 pares de gemelos monozigóticos y dizigóticos encontraron grandes niveles de concordancia clínica
en comportamientos hiperactivos atribuibles principalmente a factores genéticos. Por tanto, y a pesar de que se reconoce la dificultad de aislar la influencia ambiental, los niños con familiares directos relacionados con problemas atencionales o con la hiperactividad tienen más probabilidades de
padecerlos (Barkley, 1990); Moreno, 1995; Stevenson et al., 1993).
La investigación sobre los factores neurológicos ha sido intensa desde
que los trabajos de Strauss y Lehtinen (1947) ayudaran a desarrollar el término de disfunción cerebral mínima, y se han visto complementadas recientemente con las hipótesis bioquímicas. Vamos a resumir los aspectos
más relevantes sobre este tema:
— El término disfunción cerebral mínima, a pesar de que aún se mantiene en ciertos ámbitos, resulta demasiado laxo y falto de evidencia experimental (Barkley, 1990). Tradicionalmente, se ha considerado que
sólo un 5 por ciento de niños con diagnóstico de hiperactividad presenta algún tipo de alteración neurológica detectable claramente. Más
recientemente Wicks-Nelson e Israel (1997) prefieren no dar cifras y
hablan de una minoría considerable, pero minoría, al fin y al cabo.
— Definitivamente las hipótesis de una sobreactivación cortical parecen haberse desechado: la hiperactividad se relaciona con una infraactivación cortical general (Manga, Fournier y Navarredonda, 1995;
Taylor, 1994).
— Los estudios sobre el funcionamiento cerebral se están centrado en el
lóbulo frontal, implicado en muchas funciones cognitivas superiores.
Las conductas hiperactivas e inatencionales se han relacionado con
un decremento del flujo sanguíneo en las regiones prefrontales orbita-
157
Atención
les y el núcleo estriado, observándose además una reducción de la actividad eléctrica en estas zonas y especialmente en su conexión límbica (Barkley, 1990; Lou et al., 1989; Zametkin y Rapoport, 1987).
— Las hipótesis bioquímicas se centraron inicialmente en la dopamina,
neurotransmisor hallado en menor cantidad de lo habitual en el líquido cefalorraquídeo y en los análisis de metabolitos en el plasma sanguíneo de algunos niños hiperactivos (Zametkin y Rapoport, 1987) y
actualmente se centran en alteraciones de la noradrenalina y la serotonina (Taylor, 1994). De todos modos, aún no estamos en disposición de establecer relaciones causales (Taylor, 1994; Wicks-Nelson e
Israel, 1997).
— Finalmente, la investigación neuropsicológica centrada en la relación
entre determinadas estructuras cerebrales y algunos principios de
aprendizaje ha ofrecido resultados muy interesantes. A modo de resumen, como señala Barkley (1990), los datos apoyan umbrales de activación por estimulación más elevados en los niños hiperactivos (las
conductas hiperactivas e inatencionales funcionarían como un mecanismo compensatorio). También indican umbrales más altos para los
efectos del reforzamiento dentro del sistema cortical, de modo que,
además de necesitar más cantidad de reforzadores que los niños normales, también llegan más deprisa a la saciación. Por último, se han
observado en los niños hiperactivos un decremento en la actividad del
sistema de inhibición conductual: así, los estímulos aversivos, o su
amenaza, tienen un efecto mucho menor sobre su conducta.
Los factores ambientales y psicológicos pueden tratarse de manera conjunta, puesto que su interacción es muy elevada. En términos generales, la
hiperactividad y los problemas atencionales se relacionan con niños que viven en ambientes culturalmente pobres y en familias de bajo nivel socioeconómico. Sin embargo, más que las condiciones sociales, son sus efectos
psicológicos los que podrían determinar la hiperactividad (Moreno, 1995).
El modelo explicativo del déficit atencional de Virginia Douglas (1983;
1984) se basa en la presencia inicial de determinadas predisposiciones básicas: poco interés por el esfuerzo cognitivo, búsqueda de gratificación inmediata, impulsividad y falta de autocontrol. Su origen es una interacción entre factores constitucionales y ambientales. Entre estos últimos las pautas
educativas inconsistentes, en exceso directivas y desordenadas se consideran fundamentales. La entrada en el medio escolar del niño con estas deficiencias provocará falta de desarrollo de los procesos cognitivos, problemas
de motivación intrínseca y déficit metacognitivos y, finalmente, acabará
consolidándose un patrón de fracaso escolar y social.
Para concluir este apartado debemos hacer referencia a otros factores
que gozan de cierta popularidad. Nos referimos a la presencia de determinadas substancias en la alimentación y el ambiente. En este sentido la revi-
158
4. Alteraciones atencionales
sión de Barkley (1990; véase la conclusión en pp. 99-100) señala que los
aditivos (conservantes y colorantes), el azúcar, los hidratos de carbono y los
salicatos naturales (almendras, fresas, tomates...), que en algún momento se
han eliminado de la dieta de los niños hiperactivos, no han demostrado ser
causa directa del trastorno. Igualmente, podría decirse del efecto del plomo,
aunque con una salvedad. Niveles elevados de plomo son claramente perjudiciales para la salud y, especialmente, para el funcionamiento cognitivo,
pero en baja proporción —a pesar de algunos resultados que manifiestan
ciertas correlaciones positivas— tampoco se ha podido establecer una causalidad directa (Barkley, 1990; Moreno, 1995).
2.3
La evaluación y el tratamiento del trastorno por déficit de
atención
Cuando los mecanismos atencionales no son capaces de producir una adaptación a las exigencias del ambiente o a las nuestras propias definimos la
presencia de un problema atencional (López Soler y García Sevilla, 1997).
En la evaluación de este problema y en su posterior diagnóstico hay que tener presente, en primer lugar, la naturaleza evolutiva de los procesos atencionales. Es decir, la edad del niño y su nivel madurativo condiciona el desarrollo de su capacidad atencional (como ocurre en la mayoría de los
demás procesos básicos), aunque es difícil delimitar los criterios de normalidad: ¿cuánto tiempo puede un niño de cuatro años permanecer prestando
atención a las indicaciones de un adulto? Depende de diversos factores: a
quién presta atención, a qué, dónde, con quién, en qué momento del día, etcétera. En general, la valoración de los aspectos evolutivos se hace desde el
punto de vista de la experiencia clínica, y de algunos principios de la psicología evolutiva. La comparación desde baremos psicométricos es más difícil, por los condicionantes que antes comentábamos, y, por otra parte, por
su relativa inexistencia, si bien últimamente se trabaja más intensamente en
ello (Barkley 1997; López Soler y García Sevilla, 1997).
Otro aspecto clave para diagnosticar un trastorno de atención deriva de
la diferenciación entre conductas de falta de atención y déficit atencional
(López Soler y García Sevilla, 1997). No es fácil distinguir las conductas
de falta de atención de las que son producto de causas no directamente relacionadas con el funcionamiento de los procesos. La distinción, desde el
punto de vista clínico, no ha sido tratada en profundidad hasta hace poco
tiempo, cuando las investigaciones en psicología de la atención han demostrado que es posible presentar déficit específicos en atención selectiva, sostenida o dividida (Rosselló y Munar, 1994), lo que puede condicionar el
proceso de evaluación y tratamiento del problema.
En general, se trata de aceptar la idea de que no toda conducta de falta
de atención supone un déficit atencional. La falta de atención puede deber-
159
Atención
se (López Soler y García Sevilla, 1997; Taylor, 1986) a la presencia o interacción de factores de tipo fisiológico (ya sean trastornos orgánicos y/o
sensoriales, o estados transitorios de estrés, fatiga o sueño), de tipo ambiental (presencia de estímulos perturbadores, como televisión, ruido, exceso de
frío, calor o presencia de estímulos interfirientes) o de tipo psicológico
(falta de motivación extrínseca y/o intrínseca, falta de autocontrol, falta de
habilidades de aprendizaje, características de personalidad, etc.). El niño
con conductas de falta de atención atribuibles a estos factores, al contrario
del niño con TDA, debe presentar unos niveles de normalidad de funcionamiento atencional en pruebas estándar, y en todo caso el ligero retraso que
pueda acumular es más fácilmente recuperable al modificar los factores
causales. Por contra, el niño con un TDA necesita una ayuda específica en
el desarrollo del proceso atencional afectado y en la estrategia atencional,
antes de pasar a actuar sobre las dificultades de aprendizaje que normalmente presenta.
Los métodos de evaluación de la disfunción atencional en la infancia
pueden clasificarse en tres grandes apartados:
1.
2.
3.
entrevistas, escalas y cuestionarios (normalmente elaborados para
recoger la valoración de los adultos);
registros de observación directa (en ambiente natural o en laboratorio);
tareas atencionales para los niños (normalmente pruebas de tipo psicométrico).
En este último caso, aunque son múltiples los parámetros a escoger, desde el punto de vista más clínico, Taylor (1994) y Barkley (1990) priorizan
la evaluación de la disfunción sobre los tres principales tipos de atención:
selectiva, sostenida y dividida, y en todo caso también destacan la necesidad de la medida de la exploración atencional (capacidad de análisis del
campo estimular) y la intensidad atencional.
Las escalas y cuestionarios son los instrumentos de evaluación más utilizados en hiperactividad infantil, y normalmente incluyen escalas atencionales. Las escalas de Conners y sus diferentes revisiones (véase, por ejemplo, Glow, 1981; Goyette, Conners, y Ulrich, 1978) y las de Achenbach y
Edelbrock (1983; Edelbrock y Achenbach, 1984) tal vez sean las más
conocidas, si bien existen muchas más (Barkley, 1990; Mash y Terdal,
1988; Silva, 1995). En general, muchas presentan problemas similares a
las entrevistas, de tipo psicométrico y con baremaciones inexistenes o limitadas. Uno de los mejores instrumentos es el Cuestionario de Conducta
Infantil de Achenbach y Edelbrock (1983; Edelbrock y Achenbach, 1984).
Entre sus múltiples escalas destaca el Perfil Atencional Infantil que ha
sido adaptado en nuestro país (Escalas de Comportamiento Infantil, ECI,
Manga, Fournier y Navarredonda, 1995) para medir cuatro escalas: desin-
160
4. Alteraciones atencionales
terés por el estudio, déficit de atención, dificultades de aprendizaje e hiperactividad.
En la mayoría de ocasiones, las entrevistas psiquiátricas y los cuestionarios son el método más habitual de diagnóstico de un TDA, pero ello no es
del todo correcto, como señalan Barkley (1990) y Taylor (1986). Los registros de observación directa pueden ser necesarios en muchos casos. Entre
los procedimientos estandarizados de observación destaca el Código de Observación de Conducta en el Aula de Abikoff y Gittelman (1985) (adaptado
en nuestro país por Ávila de Encío y Polaino Lorente, 1991) y el Sistema de
Codificación de Conductas Hiperactivas de Barkley (véase Barkley, 1990,
pp. 337-338). En general, la observación se lleva a cabo mientras el niño
resuelve algún tipo de tarea escolar, y se codifican, por ejemplo, categorías
atencionales como estar fuera de la tarea, jugar con objetos o consigo mismo, apartar la mirada y otras que incluyen el registro de conductas motoras, estar fuera del asiento, conductas de exploración, etc. El principal problema de estos registros son las limitaciones psicométricas y una cierta
artificiosidad en su medida. Sin embargo, como señala Barkley (1990),
aplicados en el marco de un análisis funcional del comportamiento, es decir, llevados a cabo dentro del aula e incluyendo también la observación y
el análisis de los estímulos antecedentes y consecuentes de las conductas de
desatención, además de otras variables ambientales y personales que puedan incidir, es posible que nos ayuden a determinar si se trata de un problema de conductas de falta de atención o de un déficit atencional puro.
Finalmente, a ello también pueden contribuir decisivamente las tareas de
laboratorio que se aplican directamente al niño para evaluar su capacidad
atencional. Actualmente estas tareas se aplican a partir de un ordenador
para obtener medidas lo más precisas posibles de las distintas propiedades
de la atención, sin interferencia de otros procesos cognitivos. En las pruebas clásicas de lápiz y papel suele darse este problema. Por ejemplo, las tareas de aprendizaje de asociación de pares miden persistencia atencional
pero en muchos casos enmascarada por el nivel de estrategias de memorización que posea el niño. El Toulosse-Pièron, tal vez la prueba atencional
más clásica, podría considerarse de atención selectiva, pero también se hallan presentes aspectos claves de atención sostenida, rapidez de ejecución e
incluso aptitudes perceptivas. Algo similar pasa en las tareas de percepción
de las diferencias, discriminación visual, integración visual y rapidez perceptiva (véase una revisión en López Soler y García Sevilla, 1997).
La Tarea de Ejecución Continua (TEC) fue una las primeras en este sentido (Rosvold et al., 1956), y mide fundamentalmente la capacidad de atención sostenida o la vigilancia (nivel y decremento). Existen múltiples variedades de este test, pero una de sus formas estándar consiste en que el niño
trabaje durante 17 minutos ante una pantalla que va proporcionando un número aleatorio del 0 a 9 cada 500 milisegundos. Cada vez que aparece un
determinado número debe emitir una respuesta, teniendo presente que la
161
Atención
frecuencia media de aparición del estímulo objetivo suele ser del 20 por
ciento. A pesar de su amplia utilización y diversas versiones, la comunidad
científica se queja (Barkley, 1990; López Soler y García Sevilla, 1997; Taylor, 1994) de que no disponemos ni de una unificación de las medidas a utilizar (latencia de respuesta, errores de omisión, de comisión, índices combinados...) ni de baremos que nos permitan comparar el rendimiento del
niño a diferentes edades.
Las tareas de escucha dicótica se utilizan como una medida de atención
selectiva. En ellas, el niño escucha a través de unos auriculares voces distintas (por ejemplo, una masculina y otra femenina) que le transmiten una
información similar (tres dígitos), pero sólo debe repetir la información de
una voz. Igualmente, existen pruebas informáticas que permiten la evaluación de la atención selectiva. Normalmente, se basan en la aparición de un
campo estimular simple (para no interferir con procesos mnésicos o perceptivos) sobre el cual, el sujeto, debe detectar la presencia de un estímulo objetivo (target).
Existen muchas otras medidas, y diversas variaciones de las aquí descritas, que pueden contribuir, con el tiempo, a mejorar el diagnóstico de déficit atencional en la infancia. El objetivo de la mejora en la batería de evaluación de este déficit, como en cualquier otro, es doble: por una parte
desarrollar teorías científicas que expliquen mejor su funcionamiento y, por
otra, incidir de modo más eficaz en su tratamiento. No es el lugar adecuado
para extendernos en el tratamiento del TDA, pero sí conviene apuntar algunos aspectos relevantes. En primer lugar, debemos tener presente que se
trata de un problema grave, que puede ser determinante en una experiencia
global de fracaso social, académico y laboral de la persona; en segundo lugar, hay que saber que normalmente exige un tratamiento multicomponente
complejo, pero que, aplicado correctamente, puede, si no eliminar por completo, sí atenuar considerablemente los efectos del déficit.
El tratamiento del TDA está muy relacionado con el tratamiento de la
hiperactividad en general. Las posibilidades de intervención se pueden resumir en: prescripción de psicofármacos, entrenamiento en estrategias atencionales y en discriminación visual, técnicas cognitivo-conductuales y estrategias de aprendizaje; y, por último, técnicas conductuales o de manejo
de contingencias. La intervención farmacológica normalmente se utiliza
cuando estamos ante un déficit atencional grave acompañado por las manifestaciones propias del trastorno por hiperactividad, esto es, impulsividad,
sobreactividad motora y otras conductas problema. Normalmente, se utilizan estimulantes, entre los cuales el metilfenidato es el más habitual (aunque también se utilizan la dextroanfetamina y la pemolina). El efecto más
habitual es una mejora de la capacidad atencional y la reducción de la impulsividad motora, lo cual facilita la posterior intervención psicológica. La
administración de estas sustancias no tiene una incidencia decisiva en la
mejora de las dificultades de aprendizaje; tampoco garantiza la supresión
162
4. Alteraciones atencionales
del déficit (al cesar el tratamiento, reaparecen los problemas) y, además, los
psicofármacos citados tienen efectos secundarios que deben ser controlados
—entre ellos, el principal es un retraso en el crecimiento del niño— (véase
Barkley, 1990; y Moreno, 1996, para una revisión).
Siempre que sea posible, la intervención con metilfenidato debe acompañarse de algún tipo de intervención psicológica. El entrenamiento en estrategias atencionales y metaatencionales se pone en marcha cuando el proceso de evaluación ha detectado claramente la presencia de un déficit de
atención en uno o más de sus aspectos básicos (selectividad, mantenimiento, oscilación, etc.). Es aconsejable que el entrenamiento se diseñe en función del tipo de problema atencional que presente el niño, descartando el
uso de baterías de tareas genéricas que pueden resultar tediosas y poco motivantes. Por otra parte, como ya hemos comentado, es fundamental discernir si la conducta de falta de atención refleja realmente un déficit en este
sentido o depende de otras variables externas o internas, puesto que, en este
último caso, tiene poco sentido un entrenamiento atencional específico.
Las técnicas cognitivo-conductuales (el entrenamiento en autoinstrucciones, en solución de problemas o en autocontrol) acompañadas de instrucción estratégica han demostrado poseer una utilidad de amplio espectro
sobre aspectos básicos del aprendizaje y del desarrollo de los procesos de
solución de problema del niño (Bornas y Servera, 1996; Moreno, 1996a;
1996b): fomentan la reflexividad, el autocontrol y aumentan las posibilidades de enfrentarse con éxito a las tareas escolares. Principalmente estarían
indicadas en aquellos niños con conductas de falta de atención, impulsividad cognitiva y bajo nivel de rendimiento académico. Este tipo de intervención es de amplio espectro, y tras la mejora de aspectos atencionales o
comportamentales específicos pretende un desarrollo global de la capacidad de resolución de problemas del niño.
Las técnicas operantes basadas en el manejo de contingencias (como,
por ejemplo, la economía de fichas/coste de respuesta u otros procedimientos de reforzamiento positivo o negativo, o de castigo) pueden jugar un
papel determinante en el caso de que se den conductas disruptivas o problemas motivacionales. Al igual que ocurre con la intervención psicofarmacológica, la idea es que sirvan de base a un tipo de intervención cognitivo-social más profunda que permita corregir los problemas escolares, familiares
y de adaptación que suele presentar el niño con TDA.
3.
Los trastornos atencionales en psicopatología
Las alteraciones atencionales han estado presentes en las diferentes concepciones y nosologías psicopatológicas, aunque, de nuevo, hay que hacer hincapié en la polémica que las ha acompañado. Como señalan Baños y Belloch (1995), recogiendo la opinión de Cromwell (1978), para la mayoría de
163
Atención
autores han tenido un papel secundario, como un síntoma tolerable entre la
pléyade de las manifestaciones patognomónicas de diversos trastornos
mentales, manifestaciones que suelen ser consideradas como primordiales
y mucho más invalidantes. Sin embargo, también es cierto que, por otra
parte, muchos manuales de psicopatología dedican capítulos especiales a
los trastornos atencionales (véase, por ejemplo, Belloch, Sandín, Ramos,
1985; Higueras, Jiménez y López, 1979; Schafferter, 1977; Vallejo et al..,
1985). Como veremos más adelante, en el caso específico de la esquizofrenia, algunos autores no sólo han considerado las alteraciones atencionales
como síntomas primarios, sino incluso les han otorgado un papel causal.
3.1
Modelos atencionales y psicopatología clásica de la atención
No es el momento de adentrarnos en profundidad en los modelos atencionales experimentales, puesto que ello ya se aborda en otros capítulos de
esta misma obra (véanse los capítulos 1 y 3). Sin embargo, necesitamos hacer mención de algunos aspectos clave de estos modelos para entender su
influencia en la concepción psicopatológica de la disfunción atencional.
Como es sabido, de forma tradicional los modelos atencionales se engloban en dos categorías: estructurales y de capacidad. Los modelos estructurales enfatizan el aspecto selectivo de la atención (Baños y Belloch,
1995; Rosselló, 1997). A menudo, se postula la existencia de ciertos impedimentos que no permiten un procesamiento simultáneo de la información,
siendo la atención la encargada de regular la entrada serial de los inputs. La
teoría del filtro rígido de Broadbent (1958) inició este tipo de modelos basándose en los experimentos con tareas de escucha dicótica y de amplitud
dividida (véase Capítulo 2). Según esta teoría, los estímulos deben ser procesados por un sistema de capacidad limitada (a través del llamado cuello
de botella), de manera que, necesariamente, debe haber una selección que
impida la sobresaturación de dicho sistema. Este filtraje se basa en las características físicas del estímulo, es decir, se da de abajo/arriba, si bien el
sujeto puede, anticipadamente, preprogramar ciertas prioridades en función
de, por ejemplo, su motivación.
La teoría del filtro ha guiado la mayoría de trabajos con pacientes psicóticos, intentando dar con diferencias entre ellos y los sujetos normales en
cuanto a las propiedades de este sistema de filtraje. Como señalan RuizVargas y Botella (1987), desde finales de los años treinta tenemos datos
acerca de los problemas de atención selectiva que padecen los pacientes esquizofrénicos. De todos modos, la teoría del filtro ha demostrado tener bastantes limitaciones, que posteriormente han provocado resultados confusos
en los estudios psicopatológicos. Las aportaciones de Treisman (1960) y
Deutsch y Deutsch (1963) obligaron a una reformulación del modelo del
filtro rígido (Broadbent, 1971), en la cual, por ejemplo, aparte del sistema
164
4. Alteraciones atencionales
de filtraje, básicamente físico, se acepta otro sistema de selección de respuesta, fundamentalmente semántico, que relativiza la función de todo/nada del
canal de capacidad (véase el Capítulo 1, para una visión más exhaustiva de
las limitaciones de estos modelos estructurales).
Los llamados modelos de capacidad tienden a obviar el problema de la
selectividad por la sencilla razón de que ésta es inherente a un sistema que,
por definición, manifiesta limitaciones de capacidad. Desde este punto de
vista, se concibe el funcionamiento de la actividad cognitiva como un procesador central inespecífico y limitado, cuyo buen funcionamiento consiste
en una buena administración de los recursos cognitivos en función de las
demandas internas (fatiga, motivación, expectativas, etc.) y externas de las
tareas. Los paradigmas utilizados para la investigación atencional pasan,
pues, de las tareas de selectividad a las de atención dividida (paradigma de
doble tarea) y a las tareas de vigilancia. El modelo de recursos generales o
inespecíficos de Kahneman (1973) abrirá las puertas a otros muchos centrados ahora en valorar la ejecución atencional en función de la similitud de
las tareas, su grado de dificultad y la práctica previa del sujeto. Posteriormente, dos conceptos claves adquirirán gran relevancia: la noción de preparación, es decir, la influencia que tiene la información previa sobre el
rendimiento atencional del sujeto, y la distinción entre procesamiento controlado y automático (Shiffrin y Schneider, 1977) (véase Capítulo 1).
La psicopatología clásica de la atención se ha basado principalmente en
el modelo original de Broadbent (1958), con las limitaciones que ello supone dado el extraordinario avance de las teorías atencionales desde entonces
(véase el Capítulo 3, para una panorámica del estado de la cuestión en nuestros días). Aunque existen ciertas discrepancias entre los autores y entre los
datos experimentales, desde este punto de vista los problemas atencionales
se centran en cuatro grandes áreas: la selectividad atencional, la capacidad,
la estabilidad y las oscilaciones. En este sentido, atención y concentración
mantendrían estrechos lazos. En la concentración intervendrían diversas
propiedades de la atención, como la focalización, la vigilancia y la estabilidad, pero también aspectos perceptivos, es decir, la interpretación clara y
consciente de los estímulos. En este sentido, como señalan Baños y Belloch
(1985), las clasificaciones de trastornos de la atención/concentración de
Scharfetter (1977) e Higueras, Jiménez y López (1979) constituyen un
buen ejemplo de esta postura, al igual que la de Serrallonga (1985). A manera de síntesis, y aunque aparezcan con distinta denominación, los trastornos clásicos de la atención pueden agruparse en las siguientes categorías:
— Falta de atención, elevación del umbral de atención, trastorno de
concentración, hipoprosexia. Existe una capacidad disminuida para
enfocar, concentrarse y orientarse hacia un objeto (en su grado máximo se denomina aprosexia). También hace referencia a la presencia
de umbrales estimulares demasiado elevados para conseguir la orien-
165
Atención
tación del sujeto. Es propia de la esquizofrenia, estados depresivos,
de agitación y de las demencias.
— Inestabilidad atencional, distraibilidad, oscilaciones, hiperprosexia.
La atención se dirige superficialmente a los estímulos de cada momento, cambiando rápidamente, mostrándose una incapacidad para
mantenerla sobre los estímulos relevantes de la situación. Es propia
de los trastornos maníacos o de la acción de determinadas sustancias
psicotrópicas, y también puede darse en la esquizofrenia.
— Fatigabilidad, incapacidad para mantener la atención. Aparece una
fatiga prematura centrada en un aumento del tiempo de reacción y en
el número de errores sobre tareas repetitivas que exigen una atención
sostenida durante un cierto tiempo. Observable en la esquizofrenia y
en muchos otros trastornos mentales.
— Estrechamiento de la atención. La concentración se focaliza sobre
unos pocos estímulos y en muchos casos también se internaliza. En
la esquizofrenia el sujeto se fija en sus alucinaciones o en sus delirios de modo constante, siendo incapaz de atender a otros estímulos
del ambiente.
Baños y Belloch (1995) realizan una valoración crítica de este tipo de
conceptualización de los problemas atencionales en función de los propios
contenidos y los supuestos teóricos. Desde el punto de vista teórico se resalta la confusión entre los términos atención, concentración e incluso conciencia. Muchas veces, desde el punto de vista psicopatológico, a los problemas más descriptivos de la atención se les añade una interpretación
cualitativa centrada en el tipo de significación que concede el sujeto a lo
atendido. Los cuadros en donde se produce alteración de la conciencia incluyen alteraciones de la vigilancia y la concentración, pero esto no justifica esta equiparación, puesto que también aparecen alteraciones de la memoria, el aprendizaje, el habla, etc. La mayoría de procesos cognitivos son
concurrentes, lo que no implica que sean idénticos. Por otra parte, la atención, desde este punto de vista, se reduce a la propiedad de concentración.
El grado de focalización es la clave: se atienden pocas cosas, no se atiende
a nada, cambia demasiado su dirección, no se activa con la estimulación
adecuada, etc. Pero, realmente, el estudio de la actividad atencional, como
hemos resaltado previamente, va mucho más allá.
3.2
Psicopatología cognitiva de la atención
Como señalan Baños y Belloch (1995, p. 171) «hoy por hoy no contamos
con una teoría que sea capaz de integrar todos los aspectos de la atención»
(véanse apartados 5 y 6 del Capítulo 3). Por tanto, a pesar de que muchos
autores consideran que la disfunción atencional nunca será específica ni irá
166
4. Alteraciones atencionales
claramente en relación al esfuerzo o capacidad de procesamiento que requiera cada tarea (Ruiz-Vargas y Botella, 1987), desde el punto de vista de
la psicología cognitiva resulta más clarificador (o didáctico, al menos) analizar la psicopatología atencional en función de las distintas propiedades de
esta actividad o proceso. Reed (1988) ofreció una propuesta de clasificación que más recientemente también han seguido Baños y Belloch (1995).
Esta clasificación analiza las alteraciones atencionales en función de las
siguientes propiedades: concentración, selección, activación, vigilancia y
expectativa (preparación atencional). Una característica común de los distintos fenómenos que ocurren en cada propiedad es que no necesariamente
implican morbidez. Pueden estar asociados a muchos trastornos mentales
(esquizofrenia, paranoia, depresión, estados de ansiedad), pero también los
pueden experimentar personas normales.
Las alteraciones de la atención como concentración se refieren a una alteración en la fijación. El foco atencional es disfuncional o actúa de modo
inadaptativo sobre los objetivos estimulares en los que debería centrarse. Es
típico de muchas alteraciones psicóticas, especialmente de la esquizofrenia.
Otros fenómenos relacionados con esta propiedad de la atención son la ausencia mental y la laguna mental. En la ausencia mental el sujeto está totalmente focalizado en algún pensamiento o preocupación que provoca una
desatención respecto al resto de estímulos, excepto aquellos muy mecánicos o habituales. En este caso se produce una elevación del umbral de activación atencional para todos aquellos estímulos distractores que no sean el
pensamiento o la tarea que absorbe todos los recursos. En cambio, en la laguna mental se presenta la experiencia de no recordar nada de lo realizado
en un intervalo de tiempo dado, pese a que se estaba realizando una actividad determinada. La paradoja se explica porque la ejecución de dicha actividad dependía en gran parte de procesos automáticos (no atencionales), y
al no ocurrir nada que demandase mayores niveles de esfuerzo o flexibilidad no ha sido necesario recurrir al procesamiento controlado (atencional).
La atención selectiva podría concebirse como la capacidad para separar
lo relevante de lo irrelevante. El funcionamiento correcto de esta habilidad
permite, por ejemplo, atender a lo que nos cuenta un amigo en una fiesta
durante cierto tiempo, pero también atender instantáneamente a la conversación que mantiene un grupo si se pronuncia en ella nuestro nombre.
Desde el punto de vista psicopatológico, la incapacidad de filtraje y la distraibilidad están presentes en muchos trastornos, sin embargo, en la esquizofrenia resultan especialmente relevantes. Como veremos en el siguiente
apartado, al tratar específicamente las alteraciones atencionales de este
trastorno, la explicación inicial basada en el filtro bloqueado o la sobreinclusión, según los postulados del primer modelo de Broadbent, parece hoy
en día superada.
La atención como activación (arousal) expresa los fenómenos atencionales asociados a situaciones de estrés. En condiciones normales, cuando un
167
Atención
sujeto experimenta un estado de estrés tiende a reducir mucho el foco atencional sobre el estresor, desatendiendo a los estímulos periféricos. A medida
que cambia la activación también cambia la capacidad atencional (disponibilidad de recursos cognitivos) en una relación similar a la postulada por la ley
de Yerkes-Dodson (en forma de U invertida): cuando se llega a un punto
intermedio de activación se produce una inflexión de la capacidad atencional, que disminuye gradualmente —si el nivel de activación sigue aumentando—, dando lugar a un déficit en el rendimiento. Por tanto, un nivel adecuado (medio) de activación ante una situación amenazante o preocupante
garantiza el buen funcionamiento de la actividad atencional, y consecuentemente un procesamiento adecuado de la información que suele relacionarse
con respuestas apropiadas. Cabe decir que el nivel óptimo de activación
cambia con la dificultad de la conducta a realizar en cada situación. Más específicamente, el grado óptimo de activación es inversamente proporcional a
esa dificultad: la ejecución correcta ante tareas difíciles requiere de un nivel
menor de activación que la ejecución ante tareas fáciles. Los sujetos que padecen un estrés patológico (demasiado prolongado, con un exceso de activación, inapropiado en función de la situación...) pueden llegar a reducir demasiado la focalización atencional, y esa excesiva selectividad con la que
acaban funcionando provoca un tipo de conducta claramente desadaptativo,
dado que el foco atencional deviene tan estrecho que obvia información relevante para afrontar la situación con éxito (Rosselló, 1997).
La atención como vigilancia se define hoy en día como la habilidad para
detectar y/o identificar un estímulo objetivo (target) de aparición infrecuente e imprevista en tareas o situaciones de larga duración y relativamente repetitivas. El nivel general de vigilancia de todas las personas está afectado,
entre otros factores, por el nivel de activación tónica (los ritmos circadianos determinan momentos de mayor o menor activación que repercuten en
el rendimiento atencional), la personalidad (los introvertidos tiene niveles
más altos de activación que los extrovertidos), los incentivos, la probabilidad de aparición de la señal, etc. Lo cierto es que, como hemos visto en el
caso de la hiperactividad infantil, también en pacientes adultos con trastornos psicopatológicos se han detectado niveles inadecuados de vigilancia,
especialmente bajos —como en el caso de la esquizofrenia—, aunque también se da la hipervigilancia, especialmente en casos de ansiedad generalizada o en personas especialmente vulnerables a trastornos por ansiedad
(con un tipo de personalidad neurótica, según la teoría de Eysenck).
Finalmente, la atención como expectativa o anticipación (preparación
atencional) se refiere al hecho de que las personas nos beneficiamos claramente de la información previa a la hora de mejorar nuestra disposición
atencional (attentional set), y, consecuentemente, aumentar nuestro rendimiento (véase el Capítulo 1 para una revisión conceptual del concepto de
preparación atencional). Los estudios de Shakow (1962) con pacientes esquizofrénicos pusieron al descubierto que éstos, en contra de lo esperable,
168
4. Alteraciones atencionales
no se benefician de la información previa. Es como si mantuvieran una disposición fragmentada que les impidiese atender a la información relevante
que previamente se les suministra, y por tanto su respuesta no es lo rápida y
efectiva que cabría esperar. Este dato puede resultar fundamental, como veremos a continuación, en la explicación del déficit atencional de los esquizofrénicos.
3.3.
Los alteraciones atencionales en la esquizofrenia
y otros trastornos mentales
Está claro que, tanto en una como en otra concepción psicopatológica las
alteraciones atencionales están presentes en múltiples trastornos, sin embargo es en la esquizofrenia donde adquieren el papel más relevante. Como
señala Ruiz-Vargas (1981; 1985; Ruiz-Vargas y Botella, 1987) muchos investigadores han considerado que el principal déficit del esquizofrénico es
de naturaleza atencional. En general, la mayoría de trabajos de investigación hasta la década de los ochenta (véase la revisión de Ruiz-Vargas y Botella, 1987) concluye que la alteración de las funciones selectivas e inhibitorias de la atención son un déficit primario de la esquizofrenia. Sin
embargo, ni todos los datos son coincidentes ni la explicación de los resultados (en general apoyada en la teoría del filtro bloqueador de Broadbent)
es siempre satisfactoria.
Una gran parte de los estudios de la atención en la esquizofrenia se centra en los efectos de la distracción. En general estos pacientes tienen problemas serios para organizar selectivamente la información entrante y, en
efecto, se ven más afectados por los estímulos distractores. De todos modos, hay que tener presente algunas matizaciones: la desorganización de los
esquizofrénicos es mucho más significativa cuando deben procesar simultáneamente material en más de una modalidad sensorial y, por otra parte, su
rendimiento es más bajo en la modalidad visual que en la auditiva. En general estos datos, y otros basados en tareas memorísticas, señalan que los
problemas de procesamiento de la información en este trastorno son proporcionales al aumento de la carga cognitiva que requieren las tareas.
En las tareas de vigilancia o de atención sostenida también se han hallado de modo sistemático más problemas de rendimiento en los pacientes
esquizofrénicos (Kietzman, Spring y Zubin, 1983). En este sentido las distintas versiones del test de ejecución continua han sido claves en la investigación. Por ejemplo, en estudios con pacientes esquizofrénicos adultos crónicos llevados a cabo por McGuie y Champan (por ejemplo, McGuie,
1969) se detectan muchos más errores de comisión, de omisión y latencias
de respuesta más largas, especialmente si se dan dos condiciones: la presencia de estímulos distractores en el momento de realizar el test y los antecedentes de historia familiar esquizofrénica. Este último hecho, algo sor-
169
Atención
prendente, ha provocado que los resultados sobre este tipo de tareas sean
considerados por algunos autores como un marcador de vulnerabilidad a la
esquizofrenia (Nuechterlein y Dawson, 1984; Ruiz-Vargas y Botella, 1987).
En general los estudios con pacientes en fase de remisión y poblaciones de
riesgo apoyan los problemas en atención sostenida y selectiva, normalmente siempre que la tarea requiera una carga cognitiva relativamente elevada.
De todos modos, como señalan Ruiz-Vargas y Botella (1987) y Baños y
Belloch (1995), la explicación habitual de los resultados, atribuidos normalmente a un problema de filtraje de la información, no parece la más
adecuada. El análisis pormenorizado de los estudios de los años sesenta y
setenta lleva a la conclusión de que la habilidad para filtrar información sobre la base física de los estímulos es algo más lenta en los esquizofrénicos,
pero no está tan alterada como se suponía. El problema puede ser más bien
del filtro de selección de respuesta (selección para la acción, véanse capítulos 1 y 3), a nivel semántico y no físico. Prueba de ello es, como comentábamos antes, que los esquizofrénicos no se benefician de la información
anticipatoria en pruebas de rendimiento o, por ejemplo, que en tareas de
memoria serial presentan efecto de recencia (recordar los últimos ítems de
la serie), que dependen de la memoria de trabajo, pero no efecto de primacía (recordar los primeros ítems de la serie) que dependen de procesos de
orden superior (como el llamado control atencional supervisor).
Gjerde (1983) se hizo eco de estos hechos en su teoría de la capacidad
atencional, asegurando que la «atención es un recurso no específico pero limitado para el procesamiento cognitivo» (citado en Ruiz-Vargas y Botella,
1987, p. 123). Según este autor el déficit atencional de la esquizofrenia
puede deberse a tres factores: un fallo a la hora de poner en marcha los recursos atencionales, una disminución (o falta total) de procesamiento de la
información y una deficitaria política de distribución de los recursos cognitivos. En definitiva las tres posibilidades guardan relación directa con un
problema en la activación (y desactivación) de los mecanismos del procesamiento controlado.
Finalmente, y de modo mucho más breve, analizaremos la presencia de
las disfunciones atencionales en los estados depresivos y de ansiedad. En el
caso de la depresión, y siguiendo la revisión de Baños y Belloch (1995), se
han presentado datos de peor rendimiento en tareas de vigilancia (más bien
en depresivos con sintomatología psicótica), tareas de enmascaramiento
(especialmente en la representación del estímulo, donde requieren más
tiempo, pero no en su registro) y tareas de escucha dicótica (donde, al igual
que los esquizofrénicos, parecen no utilizar correctamente la información
anticipatoria). De todos modos, aún no son lo suficientemente abundantes
los resultados en estudios de esta índole.
Por su parte, la presencia de las alteraciones atencionales en casos de ansiedad también es relevante. Tal y como comentábamos anteriormente, en
general se centran en las relaciones entre atención y activación. El excesivo
170
4. Alteraciones atencionales
estrechamiento del foco atencional en la ansiedad provoca un procesamiento distorsionado de la información que influye en el mantenimiento de las
respuestas desadaptativas de miedo y malestar. Además, como ya demostraron los trabajos dentro de la teoría de la personalidad de Eysenck (Eysenck, 1992), los individuos con tendencia al neuroticismo/ansiedad difieren de los individuos con tendencia al control emocional en aspectos
atencionales: los primeros tienden a una hiperselectividad atencional, que
funciona de modo automático como un sesgo preatencional, propiciando la
focalización en los estímulos amenazantes.
En general, si bien los trastornos tratados son los más estudiados, también pueden encontrarse alteraciones atencionales en selectividad, vigilancia y oscilación en las fases maníacas de los trastornos bipolares, en los
trastornos obsesivos y, especialmente, en la enfermedad de Alzheimer y las
demencias seniles en general (Gelder, Gath y Mayou, 1991; Parasuramen,
Greenwood y Alexandrer, 1995; Serrallonga, 1985).
4.
Conclusiones
En el presente capítulo hemos abordado las alteraciones atencionales a partir de dos áreas de aplicación clínica. En el caso de la infancia nos hemos
centrado específicamente en el trastorno por déficit de atención, mientras
que, en el caso de los adultos, hemos sintetizado los aspectos claves de la
psicopatología atencional. En ambos casos, existe una problemática coincidente que podríamos resumir así:
— El acercamiento clínico a las alteraciones atencionales presenta problemas derivados de la propia conceptualización de la atención. Se
intentan definir y evaluar conductas atencionales y procesos atencionales, sin tener muy claro qué es la atención (véase apartado 6 del
Capítulo 3). Fijar la mirada sobre un estímulo no garantiza el correcto funcionamiento de los procesos atencionales y, de hecho, ni siquiera está claro que puedan considerarse procesos; más bien se trata
de una actividad inespecífica, carente de información, que es la base
de todo el funcionamiento cognitivo y que presenta diversas propiedades. Por dicha razón, en la literatura atencional reciente se tiende a
hablar más de mecanismo o sistema atencional que de procesos de
atención (Tudela, 1992; García Sevilla, 1997; Rosselló, 1997).
— Las disfunciones atencionales pueden ser conductas inatentivas relacionadas con otras variables internas y externas que afectan al sujeto, y también pueden ser déficit atencionales puros. La distinción ha
preocupado poco a los clínicos, lo que se justifica por las dificultades que conlleva, aunque parece decisiva para la mejora de los procedimientos de intervención.
171
Atención
— La atención presenta múltiples propiedades, pero tres son especialmente relevantes desde el punto de vista clínico: la selectividad, el
mantenimiento y la distribución. Tal vez la investigación se ha realizado de modo aislado y sin considerar que en los tres casos existen
aspectos multicomponentes e interrelacionados.
— La evaluación de la atención resulta muy conflictiva. Los clínicos infantiles han optado por medidas globales a través de entrevistas,
cuestionarios y registros de observación, mientras en el caso de los
adultos se han utilizado con mayor frecuencia pruebas de laboratorio
(test de rendimiento continuo, tareas de escucha dicótica, etc.) (véase Capítulo 2). Tanto en un caso, como en otro, siempre ha habido
problemas metodológicos por no tener claro qué propiedades atencionales se evaluaban, hasta qué punto aparecían contaminadas por
el aprendizaje u otros procesos cognitivos y por no disponer de información psicométrica precisa.
Por lo que respecta al trastorno por déficit atencional en la infancia hemos destacado, en principio, su dependencia del trastorno hiperactivo en
general. A pesar de que todavía es una cuestión polémica, en general se
acepta la distinción entre un trastorno por déficit atencional puro (TDA) y
otro con hiperactividad (TDA+H). En los dos casos está claro que existen
características comportamentales diferenciadas con disfunciones atencionales de amplio espectro. Sin embargo algunos autores (como Barkley, 1990;
1997) apuntan datos que sugieren que tendemos hacia una distinción más
específica: en el TDA los problemas son básicamente de selectividad atencional y procesamiento de los inputs, mientras en el TDA+H son básicamente de mantenimiento de la atención. La investigación cara al futuro se
centrará en conseguir instrumentos de evaluación fiables y válidos que permitan analizar esta diferencia y, de un modo más general, posibiliten el desarrollo de procedimientos de intervención más relacionados con los resultados del proceso de diagnóstico.
Por lo que respecta a la psicopatología atencional en adultos, hemos destacado que siempre ha mantenido unos lazos más estrechos con los modelos experimentales. Sin embargo, la investigación psicopatológica de los
trastornos atencionales también se ha visto envuelta en polémica. En primer lugar porque se ha basado en exceso en un modelo experimental ya caduco, criticado y reformulado por el mismo autor—la teoría del filtro de
Broadbent (1958). En segundo lugar por haber ignorado, al menos en gran
parte, los problemas de definición de la atención. Finalmente, porque los
datos de los estudios clínicos (especialmente en la esquizofrenia, el trastorno más investigado) no siempre han sido coincidentes. En este sentido, es
verdad que los esquizofrénicos tienen problemas de distraibilidad, de selección, de mantenimiento y de distribución de la atención, pero ello no encaja
en una explicación basada en un filtraje físico de los estímulos, en un me-
172
4. Alteraciones atencionales
canismo del todo/nada, ni en un procesamiento de abajo/arriba, donde son
precisamente los estímulos ambientales quienes condicionan las deficiencias atencionales. Hoy en día, como señalan Ruiz-Vargas y Botella (1987),
el problema de filtraje se centra en aspectos semánticos (la información anticipatoria que se les proporciona en tareas atencionales no es utilizada de
modo adaptativo). El tipo de procesamiento no depende tanto de un
todo/nada como de una deficiente política de distribución de recursos: en
muchos trastornos psicóticos no se utiliza adecuadamente el modo de procesamiento (automático versus controlado). Y, por último, las alteraciones
atencionales aumentan en función de la carga cognitiva de las tareas y, por
tanto, no siempre son fácilmente detectables.
Por otra parte, las clasificaciones clásicas de los trastornos atencionales
se han visto muy influidas por la psicopatología cognitiva. Así, el estudio
de las alteraciones (y los fenómenos) atencionales abarca, hoy en día, las
siguientes áreas: activación, concentración, selección, distribución (división
atencional), cambio atencional, atención sostenida y vigilancia, expectativas (preparación), y control atencional. En la esquizofrenia se dan gran parte de estas alteraciones, especialmente problemas de concentración (focalización atencional), de selección de la estimulación relevante, de vigilancia,
de expectativas/preparatoriedad y de control atencional. En la depresión y
la ansiedad la investigación no es tan amplia. En la depresión con sintomatología psicótica se dan problemas en atención sostenida y selectiva, especialmente también en condiciones de preparatoriedad. En la ansiedad la influencia de la activación parece decisiva, las respuestas inadaptativas de
estrés provocan un estrechamiento del foco atencional, un déficit en la capacidad para dividir la atención, un enlentecimiento del cambio atencional
y una hiperselectividad de los estímulos amenazantes. En los trastornos psicóticos en general, y especialmente en las demencias seniles se observan
amplias disfunciones atencionales en la línea de lo comentado respecto a la
esquizofrenia.
En definitiva, la investigación de las alteraciones atencionales, a pesar
de que siempre ha ocupado un lugar más o menos relevante en la psicología
clínica y en la psiquiatría, está todavía lejos de ofrecer un sistema conceptual y explicativo unificado. Tal vez los clínicos se han apoyado en exceso
en la vieja afirmación de William James de que «todo el mundo sabe lo que
es la atención» (citado en Ruiz-Vargas y Botella, 1987, p. 94) cuando la
realidad ha demostrado ser muy diferente. Es hora, pues, de que el psicólogo clínico y el experimental empiecen a plantearse la posibilidad de trabajar conjuntamente.
173
Atención
Bibliografía comentada
Baños, R.M., y Belloch, A. (1995): Psicopatología de la atención. En A. Belloch,
B. Sandín y F. Ramos (Eds.), Manual de psicopatología (vol. 1, pp. 165-185),
Madrid, McGraw-Hill. Una excelente revisión sobre el tema, con la incorporación de los avances en psicopatología cognitiva.
Barkley, R.A. (1997): ADHD and the Nature of Self-Control, Nueva York, Guilford.
El último manual, hasta la fecha, de uno de los mayores expertos mundiales en
el trastorno por déficit atencional e hiperactividad en la infancia. En él expone
su teoría neuropsicológica, vinculando la naturaleza del trastorno a disfunciones
cerebrales que afectan al autocontrol y las conductas gobernadas por reglas.
López Soler, C., y Garcia Sevilla, J. (1997): Problemas de atención en el niño, Madrid, Pirámide. Una obra de divulgación y para el alumno que se inicia en el
tema. Amena y concisa realiza una revisión desde el punto de vista conceptual,
de evaluación y tratamiento.
Ruiz-Vargas, J. M., y Botella, J. (1987): Atención. En J. M. Ruiz-Vargas (Ed.): Esquizofrenia: un enfoque cognitivo (pp. 93-164), Madrid, Alianza. Un capítulo
perteneciente a un manual clásico sobre la esquizofrenia que realiza una revisión extensa de la investigación en psicopatología de la atención y de su relación con los modelos experimentales.
Taylor, E. A. (1991): El niño hiperactivo, Barcelona, Martínez Roca. Una traducción muy importante en su momento por la escasez de textos en castellano sobre la hiperactividad, con un capítulo dedicado a las alteraciones atencionales
desde un punto de vista crítico, tanto en su conceptualización como en su evaluación.
Wicks-Nelson, R., e Israel, A. C. (1997): Psicopatología del niño y del adolescente
(3a.ed.), Madrid, Prentice-Hall. Un excelente manual sobre psicopatología infantil, en el que destaca el capítulo dedicado al trastorno por déficit atencional e
hiperactividad. Una revisión reciente con conclusiones sobre las últimas líneas
de investigación.
174
4. Alteraciones atencionales
Preguntas de revisión
1. Razona, desde el punto de vista clínico, las ventajas y desventajas de
considerar que la atención no es un proceso cognitivo.
2. ¿Qué diferencia hay entre un déficit atencional y una conducta de falta
de atención?
3. ¿Cuáles son las diferencias que se han hipotetizado desde el punto de
vista del funcionamiento atencional entre el TDA-H y el TDA+H?
4. ¿Cuáles son los factores más implicados en la instauración de una alteración atencional?
5. El proceso de evaluación en el déficit atencional: fuentes de información, pruebas a utilizar, metodología a seguir y objetivos prioritarios.
6. ¿Cómo ha sido el tipo de relación entre los modelos experimentales
atencionales y la psicopatología?
7. ¿Qué diferencias hay entre la psicopatología más clásica de la atención
y la psicopatología cognitiva actual?
8. ¿En qué consisten las principales disfunciones atencionales de la esquizofrenia?
175
Segunda parte
Percepción
5. Algunas notas
introductorias al estudio
de la percepción
José E. García-Albea
En este capítulo empezaremos por abordar algunas cuestiones claves en
torno a la psicología de la percepción, de cara a determinar su ámbito de
estudio y fijar el nivel explicativo que le es propio. Esto nos llevará a proponer una definición aproximativa de la percepción, tan sólo con el fin de
introducir algunos conceptos básicos y establecer algunas distinciones relevantes. En la parte central del capítulo nos ocuparemos de los elementos
constituyentes del hecho perceptivo, en un intento de profundizar en la naturaleza misma de la percepción. Se partirá del estímulo de la percepción,
para continuar con una descripción sintética de los sistemas sensoriales,
considerados como órganos de la percepción, y terminar examinando su
dimensión cognitiva, que es, en definitiva, la que más importa en psicología. Para ello adoptaremos de forma decidida el enfoque predominante hoy
día en el estudio de la percepción —el enfoque del procesamiento de la información—, enfoque que va a guiar de modo preferente el resto de los capítulos de este volumen.
1.
Cuestiones preliminares
El término percepción nos remite al de percibir, verbo transitivo que, como
tal, requiere un objeto directo. En el uso ordinario, dichos términos tienen
variadas acepciones que van desde la de recibir, tomar o hacerse cargo de
179
Percepción
algo material (se percibe dinero, el sueldo, un regalo, etc.) hasta la de captar, aprehender o tener conciencia de algo en un sentido íntimo y subjetivo
(se percibe un paisaje, la gravedad de una situación, una sensación de angustia, etc.). En todos los casos está claro que, al percibir, un sujeto se sitúa
en un estado en el que, de forma más o menos activa, entra en posesión de
un objeto, más o menos concretado físicamente. En todos los casos se establece una determinada relación entre el sujeto perceptor y el objeto percibido, aun cuando, según las distintas acepciones, pueda haber variaciones
tanto en lo que respecta al tipo de relación como al tipo de objeto. Pues
bien, para concretar en qué sentido le interesa el tema de la percepción a la
psicología habrá que identificar cuál es la acepción que mejor le corresponde en términos, justamente, de los dos aspectos señalados antes, el tipo de
relación y el tipo de objeto. Se trata, por lo tanto, de ofrecer una respuesta
mínima, enraizada en la tradición psicológica, a dos cuestiones básicas: ¿en
qué consiste percibir? y ¿qué se percibe? La respuesta máxima la dará, en
cada momento, el desarrollo que vaya alcanzando la disciplina científica
que denominamos psicología de la percepción.
La percepción le interesa a la psicología por ser, ante todo, una función mental, con múltiples manifestaciones en las capacidades y logros
del individuo que tienen que ver con la detección, discriminación, comparación, reconocimiento e identificación de estímulos. Como en toda función mental, el tipo de relación entre sujeto y objeto que se establece en
la percepción es bastante peculiar, más allá de lo que supondría la mera
relación física de contacto por la que se entra en posesión de algo material; es lo que podríamos llamar una relación intencional, en el sentido
preciso por el que se caracteriza todo acto o estado mental que tiene una
referencia externa a él mismo. La intencionalidad, quizá la propiedad más
básica (y, por tanto, general) que caracteriza lo mental, es también el fundamento de la distinción misma entre sujeto y objeto, como términos de
una relación de alteridad que empieza por establecerse desde la propia
percepción.
Entre las funciones mentales que componen el mapa del psiquismo humano, la percepción ha estado ligada tradicionalmente a las funciones
cognitivas más que a las conativas u orécticas (relacionadas con las pulsiones, deseos y afectos), y, dentro de las funciones cognitivas, a aquellas
en las que intervienen de forma directa los sentidos corporales. Como
función cognitiva que es, la percepción se caracteriza por ser una relación
intencional de carácter predicativo, en la que se sustentan las llamadas
creencias perceptivas y que, como es propio de todo estado cognitivo, son
susceptibles de ser evaluadas en términos de verdad o falsedad. Por otra
parte, y a diferencia del resto de las funciones cognitivas, la relación perceptiva presenta la característica distintiva de tener su origen en la interacción física que se da entre el medio y el organismo a través de los sentidos.
180
5. Algunas notas introductorias al estudio de la percepción
Si queremos, pues, reservar un apartado de la ciencia psicológica al estudio de la percepción, no podemos dejar de enfatizar este último aspecto
distintivo de la misma, el de ser un conocimiento mediatizado por los sentidos. Lo cual tiene varias implicaciones importantes. En primer lugar, que
no se reconoce otra forma de percepción que no sea la percepción sensorial; hablar de percepción extrasensorial o cosas similares sería, según esto,
un auténtico contrasentido. En segundo lugar, que la percepción ocupa una
posición realmente especial frente al resto de las funciones cognitivas, en la
medida en que se basa directamente en la interacción física con una u otra
forma de energía; en este sentido, la percepción viene a ser el punto de encuentro entre lo físico y lo mental, con las consecuencias que ello tiene a su
vez para el proyecto de naturalización de la psicología. En tercer lugar, y
gracias a lo anterior, la percepción puede ser considerada como el origen y
la base de todo nuestro conocimiento del mundo (incluido el de uno mismo), del que se alimentan las demás funciones cognitivas y del que llegan a
depender, en buena parte, las emociones, sentimientos y afectos que promueven la conducta.
Nos encontramos así con que la relación de posesión (o aprehensión)
que se establece en la percepción, siendo típicamente intencional, está basada en una relación física por la que una determinada forma de energía
suscita la respuesta fisiológica de un determinado receptor sensorial. Esta
especie de dualidad en el tipo de relación se manifiesta igualmente a la
hora de caracterizar el tipo de objeto sobre el que versa la percepción. En
este caso se podría utilizar, en una primera aproximación, la distinción tradicional entre objeto material y objeto formal, para referirnos, con el primero, a todo aquello que haya intervenido en la estimulación (física) de los
sentidos, mientras que, con el segundo, nos referiríamos a aquellos aspectos que son significativos para el sujeto y constituyen el término de una relación intencional de conocimiento. El objeto material vendría a delimitar
la extensión de lo percibido (qué se percibe) y el objeto formal se correspondería con la dimensión intensional de lo mismo (como qué se percibe
aquello que se percibe). Esta distinción, que suele quedar difuminada en el
lenguaje ordinario, es crucial de cara a apreciar ya desde el principio la carga psicológica que encierra el tema de la percepción y los problemas que
plantea. Siempre que percibimos (vemos, oímos, olemos, etc.), percibimos
algo, y siempre lo hacemos bajo algún tipo de consideración (categoría,
concepto, descripción, etc.), por muy elemental y primitiva que ésta sea; al
ver un árbol, puedo verlo como tal o cual árbol (un roble o un ciprés), o
simplemente como un árbol, o como un bulto en el fondo del paisaje, o incluso, de forma equivocada, como una casa o como un nubarrón. La extensión está determinada por cómo es el mundo y cómo interactúa físicamente
con el organismo, proporcionando el sustrato material de la percepción; la
intensionalidad, en cambio, está determinada por cómo se produce en concreto la percepción, mediante qué procesos y estructuras de conocimiento,
181
Percepción
y por cómo interactúa con las otras funciones mentales y queda, en último
término, provista de significación *.
A la hora de proponer una definición tentativa de la percepción, que sirva para delimitar su ámbito de estudio, bastaría, pues, con indicar que nos
referimos a la actividad cognitiva del organismo provocada por la presencia física del objeto y que se efectúa a través de los sentidos. Así definida,
la percepción constituye un fenómeno (o conjunto de fenómenos) genuinamente psicológico y su explicación requerirá que nos situemos en el nivel
de explicación funcional que es propio de la ciencia psicológica, aquél que
trata de determinar las leyes intencionales que gobiernan el ejercicio de
nuestras capacidades básicas para resolver problemas adaptativos. En principio, dicho nivel de explicación funcional se centra en el análisis de los logros del sistema, en las puras relaciones de causa-efecto, haciendo abstracción de la materialidad del mismo y de sus elementos constituyentes. Ello
no obsta, sin embargo, para que, especialmente en el caso de la percepción,
la explicación psicológica se deba construir a partir de los descubrimientos
y el tipo de explicaciones que proporcionan las ciencias más básicas, en
concreto aquellas a las que compete la caracterización neutral de los estímulos (la física y la química principalmente) o el estudio de los sistemas
sensoriales en cuanto tales (las disciplinas biomédicas y neurofisiológicas
principalmente). Estas otras ciencias, aparte de contribuir a una comprensión más global y completa de los fenómenos perceptivos, sirven precisamente, por la constatación de sus propias limitaciones explicativas, para
justificar la necesidad de la explicación psicológica y acotar por abajo su
campo de estudio. Se podría decir, en este sentido, que la psicología de la
percepción empieza donde termina la neurofisiología sensorial, una vez
que ésta ha subsumido las consecuencias de la acción física de la energía
estimular sobre el organismo. En el apartado siguiente abundaremos en estos aspectos al examinar con más calma las implicaciones de la definición
tentativa de la percepción que ya hemos adelantado.
* Intensionalidad e intencionalidad son dos términos que, a pesar de su indudable parentesco, no deben confundirse. Mientras que este segundo (con c) designa esa propiedad básica de lo mental por la que todo estado, proceso o representación mental está dotado de contenido o referencia, aquel primero (con s) indica el sentido, criterio o modo
de presentación (como diría Fodor, 1998) en virtud del cual se establece dicha referencia. Según esto, la intensionalidad sirve para establecer el contexto opaco que caracteriza las expresiones que contienen verbos mentales (p.ej., creer, desear, temer, etc., incluidos los verbos perceptivos en el sentido descrito), y que es opaco porque no
garantiza la equivalencia de las expresiones correferentes. Por ejemplo, Edipo deseaba
a Iocasta no es lo mismo que Edipo deseaba a su madre, aun cuando Iocasta y su madre se refieran a la misma persona (son términos que coinciden extencionalmente pero
difieren intensionalmente).
182
5. Algunas notas introductorias al estudio de la percepción
2.
La percepción, entre la sensación y la cognición
En psicología, como en toda ciencia natural, la explicación de los fenómenos viene precedida por una toma de distancia ante los mismos, siendo ésta
mucho más necesaria cuanto más familiares y cotidianos resultan aquéllos.
Es así, poniendo en cuestión lo que se da por hecho, o preguntándose por lo
que a primera vista parece obvio, como suele avanzar el conocimiento científico. Los fenómenos ordinarios, como el de la caída de la célebre manzana de Newton, no entran en la órbita de la curiosidad científica hasta que
uno deja de atribuirles carácter necesario y se plantea, entre otras cosas, si
no podrían haber sucedido de otra manera. Y si esto ocurre con los fenómenos relativos al mundo externo, qué no se podrá decir de los fenómenos
mucho más cercanos que competen a la experiencia interna, especialmente
de aquellos que se producen habitualmente sin esfuerzo y no requieren un
adiestramiento particular. La percepción es quizá el mejor ejemplo de ello.
Transcurre normalmente de forma tan fácil, rápida y efectiva, sin plantear
problema alguno al individuo, que cuesta advertir cuál es la razón de su estudio, qué deba explicar la psicología que no quede ya explicado, en todo
caso, por las ciencias más básicas. Si tenemos un árbol delante, hay luz y
no nos falla la vista, lo normal es que veamos el árbol. ¿Qué misterio hay
en ello?, ¿qué es lo que hay que explicar una vez conocidos los principios
que regulan la distribución de la luz y el funcionamiento de nuestro aparato
visual? Podríamos hacer preguntas análogas para cualquier otro logro perceptivo, en ése mismo o en cualquiera de los otros órganos sensoriales.
El punto clave para entender cuál es el tipo de problemas con que se enfrenta la psicología de la percepción es el de tomarse en serio lo que ya explican las ciencias más básicas para cuestionarse justamente lo que éstas
acaban dando por supuesto. Siguiendo con el ejemplo anterior, tras la descripción precisa que quepa hacer del estímulo que impresiona nuestro receptor sensorial y de los impulsos nerviosos que llegan al cerebro, todavía
cabría preguntarse: ¿en qué consiste precisamente ver un árbol, reconocer
una melodía o descubrir el olor del azahar? En último término, se trata de
saber cómo se las arregla el organismo para obtener información (conocimiento) acerca del mundo (objetos, propiedades, eventos, etc.) a partir del
patrón de energía que incide sobre (y al que reaccionan) los sentidos corporales. Lo verdaderamente admirable y sorprendente del fenómeno de la percepción no es tanto, con ser mucho, que nuestros receptores sensoriales respondan de forma tan especializada a los distintos tipos de energía del
medio o la orquestación de impulsos nerviosos a que da lugar dicha estimulación en el acto de percibir; lo admirable y sorprendente es que un organismo como el nuestro y, en buena medida, el de otras muchas especies sea
capaz de convertir esa interacción energética en una transacción informativa, en conocimiento y experiencia, en la aprehensión —de una forma vicaria, intencional— de los objetos, propiedades, eventos, etc., del mundo que
183
Percepción
nos rodea. Aprehensión intencional que nos permitirá después referirnos a
esos mismos aspectos de la realidad aun cuando ya no estén físicamente
presentes.
La mejor manera de valorar el problema fundamental con que se enfrenta la psicología de la percepción es mediante la constatación de que la percepción es también, en sí misma, un problema para el organismo, aun cuando, como señalábamos antes, éste lo resuelva normalmente con extrema
facilidad y sin hacerse problema de ello. La psicología de la percepción tiene así como labor principal desentrañar los términos del problema (o problemas) que afronta el organismo al percibir y dar cuenta de cómo y con
qué grado de efectividad lo(s) resuelve.
2.1
El estímulo de la percepción
Una forma clásica (al menos desde los empiristas ingleses del s. XVIII) de
describir el problema de la percepción es a través de la distinción entre las
dos facetas o modalidades que cabe considerar en el estímulo perceptivo,
denominadas estimulación proximal y estimulación distal. El estímulo o estimulación proximal consiste en el patrón concreto de energía que actúa directamente sobre un receptor sensorial (o conjunto de receptores); produce,
pues, un efecto físico/químico inmediato en el receptor, al que corresponde
éste con una reacción físico/química determinada. El estímulo o estimulación distal es aquel aspecto de la realidad circundante (objeto, propiedad,
evento o situación) que, de alguna manera, participa en la génesis del estímulo proximal y que, sin necesidad de actuar directamente sobre el receptor, se acaba convirtiendo en el referente del acto perceptivo. Cuando veo el
árbol, éste es el estímulo distal, mientras que la luz reflejada por su superficie, tal como incide en los fotorreceptores de la retina, es el estímulo proximal. La situación con la que se enfrenta el sujeto al percibir es la de que,
por una parte, necesita el estímulo proximal como condición sine qua non
de su acto perceptivo y, por otra, que aquello que termina percibiendo no es
precisamente ese estímulo proximal, sino el estímulo distal. Como ha señalado James Gibson repetidamente, vemos gracias a la luz (y a la integridad
de nuestros fotorreceptores), vemos en todo caso por medio de la luz, pero
lo que finalmente vemos no es la luz en sí misma, ni tan siquiera el efecto
que ésta produce en nuestra retina; vemos objetos, lugares, eventos y, en
general, las propiedades invariantes que subyacen al flujo cambiante del patrón óptico (Gibson, 1966, 1979).
De acuerdo con la distinción entre estimulación proximal y distal, la tarea que tiene por delante el sujeto es justamente la de dar con el estímulo
distal a partir del estímulo proximal. En principio, dicha tarea podría resultar relativamente simple, siempre y cuando se diera una correspondencia
biunívoca completa (es decir, una correlación perfecta) entre los dos tipos
184
5. Algunas notas introductorias al estudio de la percepción
de estimulación; en definitiva, siempre que el estímulo proximal, punto de
partida inexcusable de la percepción, determinara necesaria y exhaustivamente cuál es el estímulo distal al que está ligado (y fuera, por tanto, no
sólo condición necesaria sino también suficiente para la detección de éste).
Lo que ocurre es que esto no es así en la gran mayoría de los casos. El estímulo proximal es típicamente indeterminado con respecto al estímulo distal, lo cual se manifiesta en la falta de correspondencia que se da entre ambos siempre que un mismo estímulo proximal pueda estar ligado a más de
un estímulo distal o viceversa, cuando el mismo estímulo distal quede ligado a dos o más estímulos proximales diferentes. Tomando como ejemplo la
percepción visual del tamaño de los objetos, la primera situación queda
ilustrada en la Figura 5.1a, donde dos objetos de diferente tamaño provocan
la misma estimulación proximal (en cuanto al tamaño de la proyección retiniana), mientras que la situación contraria se ilustra en la Figura 5.1b, donde a un mismo objeto, situado a diferentes distancias, le corresponden estímulos proximales diferentes. Lo curioso de todo, en ambos casos, es que, a
pesar de esta indeterminación, nuestra percepción de las propiedades distales tiende a ser bastante consistente y, en la mayoría de las ocasiones, ajustada a la realidad. En los ejemplos anteriores, el sujeto tiende a ver de diferente tamaño los dos objetos aun cuando den lugar al mismo estímulo
proximal (1a) y, por otro lado, tiende a mantener constante el tamaño del
objeto situado a diferentes distancias (1b), dentro de un rango de distancias
determinado (véase el Capítulo 11 de este volumen para un desarrollo más
específico de estos puntos).
La consecuencia natural que se sigue de esa indeterminación es la de que
el estímulo proximal, siendo necesario, no es suficiente para la aprehensión
consistente del estímulo distal *. Es preciso recurrir a algún tipo de meca* En relación con ello, y aunque sea de pasada, conviene hacer un par de observaciones. En primer lugar, que el carácter consistente que atribuimos a la percepción no lo tomamos como un requisito a priori que se imponga sobre la misma de forma necesaria,
sino como un dato empírico de la fenomenología perceptiva más elemental y, por lo
tanto, como algo asumido de forma contingente (podría no haber sido consistente y haber quedado sometida a todas las fluctuaciones de la estimulación proximal, pero resulta
que no es así). Y en segundo lugar, que la consistencia con que se manifiesta la percepción no debe confundirse con su carácter verídico. La consistencia se refiere más bien a
la sistematicidad con que se atribuyen las propiedades distales y se siguen determinadas
pautas perceptivas que, en principio, podrían estar implicadas tanto en la percepción verídica como en la errónea (constancias e ilusiones perceptivas); por su parte, el carácter
verídico de la percepción hace referencia al grado de ajuste con la realidad y al valor
epistémico (de verdad o falsedad) que, por tanto, cabe atribuir a los juicios perceptivos.
También aquí, el que nuestra percepción resulte ser muchas veces verídica debe ser entendido de modo contingente, como se encarga de mostrarlo la incidencia, relativamente
frecuente, de las ilusiones perceptivas. Para un mayor desarrollo de estos puntos, véase
el Capítulo 6 de García-Albea (1993).
185
Percepción
a
b
Figura 5.1 Se ilustra la falta de correspondencia entre el estímulo proximal y el estímulo distal. En
a, dos estímulos distales de diferente tamaño dan lugar a una proyección retinianas (estímulo proximal) del mismo tamaño. En b, un mismo estímulo distal da lugar a dos proyecciones retinianas (estímulos proximales) de diferente tamaño.
nismo adicional al de la propia sensación que permita trascender la estimulación proximal. Tradicionalmente, dicho mecanismo se ha venido a concebir como un mecanismo de inferencias inconscientes (Helmholtz, 1866),
bien de carácter probabilístico (Brunswick, 1956) o bien basado en principios de formación y comprobación de hipótesis (Bruner, 1973). En cualquier caso, baste de momento con indicar que se trata de un mecanismo
cognitivo dedicado a resolver un problema complejo de cálculo que tiene
claras repercusiones adaptativas: el problema de cómo obtener información
fiable del medio a partir de una estimulación (proximal) generalmente insuficiente e inestable; o como gustaba de glosar al propio Gibson (1966), el
problema de cómo pasar del caos de sensaciones al cosmos percibido.
2.2
Los órganos de la percepción
Además de la presencia física del objeto, la percepción requiere la intervención directa de los sentidos. En realidad, estas dos características, incluidas
en la definición tentativa que proponíamos de la percepción, van estrechamente ligadas. La presencia física del objeto es efectiva para la percepción
en la medida que el sujeto dispone del equipamiento indispensable para ac-
186
5. Algunas notas introductorias al estudio de la percepción
ceder a dicho objeto. Desde la perspectiva del objeto, podríamos decir que
éste se hace accesible a través de la estimulación proximal. Ahora bien, ésta
no se produce en el vacío, sino que, como ya hemos indicado, va seguida
de una respuesta sensorial. Ambos términos son correlativos. A continuación, haremos un breve repaso de los sistemas encargados de la respuesta
sensorial, con el fin de apreciar una vez más, ahora desde la perspectiva del
sujeto/organismo que percibe, cuál es la naturaleza de los logros perceptivos.
A partir de la estimulación proximal, el relato de lo que ocurre al percibir un objeto, en términos estrictamente neurofisiológicos, es suficientemente bien conocido en la mayoría de los casos. De forma muy resumida, y
volviendo al ejemplo de la visión, lo que ocurre es que la energía luminosa
del patrón óptico que llega a la retina produce unos determinados efectos
químicos en las células de la misma —los fotorreceptores (conos y bastones)—, efectos que van a extenderse, de una forma peculiar, a las neuronas
conectadas a dichos receptores y que formarán el nervio óptico. Por él se
transmite la estimulación en forma de impulsos eléctricos que se propagan
de unas neuronas a otras mediante los procesos bioquímicos que se generan
en las terminaciones sinápticas. De esta forma, los impulsos nerviosos alcanzan la corteza cerebral, en zonas donde se establecen distintos tipos de
conexiones entre unas neuronas y otras, cuya activación selectiva va a determinar el tipo y la magnitud de la experiencia consciente que suele acompañar a la aprehensión intencional del objeto.
En términos más o menos parecidos, este relato se podría aplicar a cualquiera de las otras modalidades perceptivas, dejando para la disciplina de la
neurofisiología sensorial la tarea de completar los detalles de dicho relato y
sus variantes. Aquí procederemos simplemente a destacar los rasgos generales que son comunes a todos los sistemas sensoriales, para pasar después
a considerar la clasificación de los mismos, según los rasgos específicos
que son propios de cada sistema sensorial.
Cuando se habla de los sentidos corporales, o de los órganos de los sentidos, se suele pensar solamente en lo que es el receptor periférico donde
llega la estimulación, sin tener en cuenta que éste no es sino uno de los elementos integrantes de lo que constituye un auténtico sistema organizado,
responsable, todo él, de la experiencia perceptiva. De ahí que prefiramos
hablar de sistemas sensoriales y los consideremos en su integridad como
los genuinos órganos de la percepción.
En todo sistema sensorial se pueden distinguir tres componentes principales: los receptores sensoriales propiamente dichos, las vías aferentes de
transmisión nerviosa y las áreas de proyección cortical. En cuanto a su
morfología, los primeros pueden ser o bien estructuras celulares diferenciadas (respecto al sistema nervioso), o bien terminaciones nerviosas libres; el
segundo componente viene dado por el conjunto de neuronas que dirigen
sus ramificaciones desde los receptores hasta la corteza cerebral, con varias
187
Percepción
estaciones intermedias de una mayor interconectividad; el tercer componente está constituido por las agrupaciones neuronales de la corteza cerebral, conectadas de forma más o menos directa con las vías aferentes
correspondientes a cada modalidad sensorial, y conectadas también entre sí
en las denominadas áreas de asociación. Los tres componentes anteriores
también se distinguen, y de modo principal, por sus funciones. Es importante entender bien lo más esencial de cada una de ellas, desde el punto de
vista neurofisiológico que ahora mantenemos, para acabar entendiendo su
relevancia psicológica de cara a la percepción. Veamos a continuación cuáles son estas funciones principales, representadas en la Figura 5.2.
Energía
estimular
Transducción
Transducción
RECEPTORES
RECEPTORES
SENSORIALES
SENSORIALES
Figura 5.2
Transmisión
Transmisión
VÍAS
VÍAS
AFERENTES
AFERENTES
Integración
Integración
ee
Interacción
Interacción
Respuesta
sensorial
AREAS
ÁREAS
CORTICALES
CORTICALES
Componentes principales de todo sistema sensorial (nivel de implementación física).
La función clave de los receptores sensoriales es la transducción sensorial o conversión de la energía física del estímulo en señales eléctricas del
sistema nervioso. Dicha función no es sino la consecuencia de la posición
de interfaz que ocupan los receptores e implica al menos dos cosas: por un
lado, que el receptor responde de forma selectiva a determinadas propiedades de la estimulación (es sensible a un tipo o patrón específico de energía); y por otro lado, que su propia respuesta contribuye a generar el tipo de
señales que caracterizan al impulso nervioso. Como es sabido, las neuronas
tienen la propiedad distintiva de responder a los agentes externos mediante
cambios en el potencial eléctrico de su membrana (por el mecanismo conocido como bomba de sodio-potasio) que inducen, a su vez, cambios en el
potencial de reposo del cuerpo neuronal. Así se genera el llamado potencial
de acción que se va a transmitir a lo largo del axón de la neurona en forma
de descargas eléctricas de una determinada intensidad y frecuencia. La
transducción es, por lo tanto, un proceso físico/fisiológico por el que se
transforma un tipo de energía en otro, se transforma la energía estimular en
aquella con la que trabaja el sistema nervioso.
La función obvia de las vías aferentes no puede ser otra que la transmisión del impulso nervioso de unas neuronas a otras mediante las sucesivas
sinapsis. Una vez que la estimulación de origen ha sido codificada en términos de las señales eléctricas que viajan a lo largo de cada neurona, éstas
provocan la segregación de determinadas sustancias químicas (los neurotransmisores) por parte de las vesículas situadas en el extremo del axón.
188
5. Algunas notas introductorias al estudio de la percepción
Dichas sustancias van a actuar de forma selectiva sobre la membrana de la
neurona vecina, produciendo efectos en ésta que pueden ser excitatorios o
inhibitorios, según el sentido de los cambios que se den en su potencial de
reposo. El entramado global de conexiones que se produce a lo largo de las
vías aferentes (y en la propia corteza cerebral) servirá, en último término,
para codificar aspectos tanto cuantitativos como cualitativos de la estimulación que puedan quedar reflejados en las correspondientes variaciones de la
experiencia perceptiva. En el trayecto que va de los receptores sensoriales a
la corteza cerebral se suelen distinguir segmentos donde predominan las
prolongaciones neuronales (sustancia blanca) y zonas donde hay una mayor
concentración de cuerpos neuronales (sustancia gris) y, por lo mismo, de
conexiones interneurales; estas últimas tienden a ocurrir a la salida de los
receptores, en determinados núcleos talámicos y, por supuesto, al llegar a la
corteza cerebral. Conviene además advertir que la disposición topográfica
de las vías aferentes tiende a seguir, al menos parcialmente, un sentido contralateral, dirigiéndose hacia el hemisferio cerebral del lado contrario a
aquel en que se situaban los receptores sensoriales.
Las áreas de proyección cortical desempeñan un papel determinante de
cara al completamiento de la actividad sensorial y, consiguientemente, respecto a sus efectos en la experiencia perceptiva. Desde un punto de vista
estrictamente neurofisiológico, la función de estas áreas abarca dos aspectos principales: la integración de los impulsos nerviosos procedentes de un
mismo conjunto de receptores y la interacción de unas áreas con otras, posibilitando así la comunicación entre modalidades sensoriales diferentes y
la formación de agrupaciones neuronales de rango superior; de estas últimas dependerán los fenómenos referidos como de percepción multimodal o
supramodal y otros logros perceptivos considerados de alto nivel. De
acuerdo con ello, se suele diferenciar entre áreas de proyección primaria,
áreas de proyección secundaria y áreas de asociación, según el nexo más o
menos directo que tengan con la fuente específica de estimulación y, por lo
mismo, con el sistema de receptores implicado en cada caso. Respecto a
ello, y teniendo en cuenta cómo llega codificado el estímulo a la corteza
cerebral, se suele diferenciar también entre la información epicrítica, más
precisa, que llega a las áreas primarias y la protopática, más difusa, que corresponde a las secundarias y a las de asociación.
A la hora de determinar cuántos y cuáles son los sistemas sensoriales, es
preciso señalar que se trata, ante todo, de una cuestión empírica, abierta a
distintas soluciones posibles. Para identificar un sistema sensorial como tal,
y como distinto de otros, habrá que recurrir a la evidencia tanto neurofisiológica como psicofísica y conductual que nos permita comprobar al menos
estas tres cosas: a) que se da un tipo específico de energía al que responde
un tipo particular de receptores; b) que dichos receptores se integran en una
estructura neural determinada; y c) que la interacción física de esa energía
estimular con el supuesto sistema sensorial tiene consecuencias perceptivas.
189
Percepción
Según el origen de la estimulación y el tipo de receptores implicados,
los sistemas sensoriales se suelen distribuir en tres clases principales: interoceptivos, propioceptivos y exteroceptivos. En los dos primeros la estimulación procede del propio cuerpo, diferenciándose entre sí por el tipo de
órganos donde se ubican los receptores, mientras que en los últimos la estimulación es de origen externo y los receptores se encuentran dispuestos
de forma más periférica. Conviene observar que en todos ellos sigue siendo pertinente la distinción técnica entre estimulación proximal y distal,
aun cuando la separación física de esta última respecto al receptor (y, en
general, respecto al sujeto que percibe) pueda variar de unos sistemas a
otros.
Los sistemas interoceptivos tienen situados sus receptores internamente,
en órganos ligados a las funciones vitales más prominentes (vísceras, glándulas, etc.); proporcionan información de carácter más bien difuso sobre el
estado general de dichos órganos, que tiene que ver sobre todo con el dolor
y el placer. Constituyen auténticos sistemas de alerta ante los cambios internos del organismo y tienen una incidencia obvia muy importante en el
desarrollo y control de los estados emocionales.
Con respecto a los sistemas propioceptivos, se ha de distinguir entre el
sistema cinestésico y el sistema vestibular. El primero vuelve a ser un sistema generalizado que extiende sus receptores por los distintos tipos de articulaciones (músculos, tendones, etc.), proporcionando información sobre la
estructura, localización y movimiento de las distintas partes del cuerpo; tiene por ello un papel destacado en los procesos de monitorización perceptiva requeridos para la coordinación sensomotora. Por su parte, el sistema
vestibular se asienta en un conjunto de receptores específicos alojados ya
en un órgano particular y bien diferenciado: los canales semicirculares que
se encuentran en los vestíbulos del oído interno. Forman una estructura
próxima y comparable a la cóclea (órgano de los receptores auditivos), aun
cuando nada tengan que ver con la audición y dispongan de sus propias
vías aferentes (el nervio vestibular). Su función es la de aportar información sobre los movimientos rotatorios de la cabeza, cumpliendo un papel
decisivo en la monitorización de dichos movimientos y en el ajuste entre
éstos y los movimientos oculares (con repercusión directa en algunos aspectos de la visión); en relación con ello, el sistema vestibular está especialmente implicado en los estados de desequilibrio (sensación de mareo)
que puedan resultar de la intensidad de esos movimientos.
Por último, los sistemas exteroceptivos se corresponden, en líneas generales, con los cinco sentidos clásicos y son los que nos ponen en contacto
informativo con el mundo exterior *. Dado que en este volumen se dedica
* Obsérvese que también nuestro cuerpo puede ser objeto perceptivo (como parte del
mundo exterior) a través de estos sentidos, si bien de una manera muy distinta a como
190
5. Algunas notas introductorias al estudio de la percepción
al menos un capítulo a cada uno de ellos, nos conformaremos aquí con reseñarlos brevemente.
El sistema háptico (tradicionalmente, el sentido del tacto) está constituido por distintos tipos de receptores distribuidos por toda la piel y situados
en la capa dérmica (por debajo de la epidermis). La distribución es desigual, dándose mayor densidad de receptores en unas partes del cuerpo
(p.ej., las yemas de los dedos) que en otras (p.ej., la espalda); ello tiene su
correlato en el número de fibras nerviosas que proceden de unas u otras y
en el tamaño de las áreas corticales de proyección correspondientes, agrupadas en lo que se conoce como el córtex somatoestésico. Dentro del sistema háptico, cabe distinguir lo que parecen ser cuatro subsistemas diferentes, atendiendo principalmente al tipo de receptores, a las formas de
codificación neural y a las cualidades perceptivas básicas con las que están
relacionados: presión, frío, calor y dolor.
El sistema gustativo y el sistema olfativo vienen a considerarse como los
sentidos químicos por excelencia, debido básicamente a la naturaleza del
estímulo proximal —sustancias disueltas en agua o suspendidas en el aire,
respectivamente— ante el que reaccionan los receptores correspondientes.
El sistema gustativo consta de un amplio conjunto de receptores que conforman los botones gustativos (en torno a diez mil), situados en la lengua y
algunas zonas colindantes de la cavidad bucal. De ellos parten las fibras
nerviosas que, a través del bulbo raquídeo, se dirigirán al córtex pasando
por el tálamo. El sistema olfativo contiene como órgano receptor el epitelio
olfativo, alojado en el fondo de la cavidad nasal y compuesto por numerosas células ciliares que conectan con las fibras nerviosas que van a parar al
bulbo olfativo, estructura bien diferenciada del paleocórtex que conecta, a
su vez, con determinados núcleos subcorticales (entre ellos, los talámicos)
y, de forma bastante difusa, con algunas zonas corticales (en la parte inferior de los lóbulos frontal y occipital).
Finalmente, hay que referirse a los dos sentidos de mayor incidencia en
el desarrollo cognitivo humano y que, no en vano, han ocupado el núcleo
central de los tratados sobre percepción (como así se refleja también en este
volumen): el sistema auditivo y el sistema visual. En el sistema auditivo, el
estímulo proximal está constituido por ondas de presión acústica que, tras
ser moduladas por distintas estructuras intermedias, terminan alterando mecánicamente el estado de las células ciliares alojadas en el interior de la cóclea. Éstas son las responsables de la transducción sensorial y, por lo mismo, de los impulsos que transmitirán las fibras del nervio auditivo hasta las
lo era respecto a los sistemas anteriores. La diferencia principal estriba en que, en los
sistemas exteroceptivos, los receptores son estimulados por energía externa al organismo, mientras que en los intero y propioceptivos, se trata de energía producida internamente.
191
Percepción
áreas de proyección correspondientes, situadas en los lóbulos temporales de
ambos hemisferios cerebrales. Por lo que respecta al sistema visual, ya hemos aludido con anterioridad al papel de los fotorreceptores de la retina en
la transducción sensorial de la energía luminosa. Cada retina está formada
por unos cien millones de bastones y unos seis millones de conos, bien diferenciados en cuanto a su morfología, tipos de pigmentos de que constan,
distribución, propiedades funcionales y conectividad neuronal. De cada retina arranca el nervio óptico que, tras un cruzamiento parcial de hemisferio
cerebral, y tras el relevo talámico correspondiente, se proyecta en el área de
proyección visual, situada en lóbulo occipital, en torno a la fisura que separa los dos hemisferios cerebrales.
2.3
Percepción y cognición
Tomarse en serio el relato neurofisiológico de la actividad sensorial de cara
a explicar la percepción implica, como mínimo, dos cosas: una, que la actividad sensorial es condición necesaria de la percepción y mantiene con
ella, por tanto, una determinada relación causal; y dos, que dicha relación
causal no se limita al hecho de que la actividad sensorial constituya la implementación física de la actividad perceptiva, sino que además implica una
cierta forma de conexión informativa por la que, en principio, se podría trazar el parentesco entre el output perceptivo y el input sensorial.
El primer punto ya ha sido sobradamente tratado en los apartados anteriores, desde que acotamos el ámbito de la percepción, restringiéndolo a la
percepción sensorial, hasta llegar a considerar los sistemas sensoriales
como auténticos órganos de la percepción. Quizá sólo convenga añadir que
la actividad sensorial es causa de la percepción en el mismo sentido en que
decimos que el cerebro es el órgano de la mente o que un determinado mecanismo cerebral está implicado en una determinada función psicológica.
De acuerdo con ello, y como hemos expuesto en otras ocasiones (GarcíaAlbea, 1986, 1993), parece justificado reservar el término sensación para
designar la actividad sensorial y entender la distinción entre sensación y
percepción en términos de distintos niveles de agregación (o abstracción) a
los que corresponden distintos niveles de explicación. En este sentido, la
sensación constituiría la implementación física de la percepción, sin que
ello suponga la reducción de ésta a aquélla o la eliminación explicativa de
ésta por aquélla.
Ahora bien, ello no supone, por ir al otro extremo, que debamos limitarnos a considerarlas como dos compartimentos estancos. Lo que se plantea
en el segundo punto antes enunciado es, precisamente, la posibilidad de establecer un nexo causal entre sensación y percepción que vaya más allá de
la mera implementación física y se adentre en el territorio de la explicación
funcional de los logros perceptivos. En último término, se trata de enfren-
192
5. Algunas notas introductorias al estudio de la percepción
tarse con la cuestión capital de cómo es posible que un sistema físico, en
interacción física con su medio, acabe obteniendo información (conocimiento, experiencia, etc.) acerca del mismo. En principio, se podría responder de forma expeditiva a esta cuestión, ateniéndose a la separación entre
los dos niveles de explicación y manteniendo una especie de paralelismo
psicofísico que, como mucho, sólo estuviera dispuesto a admitir una solución emergentista de compromiso: la sensación es condición necesaria para
la percepción, pero sin que haya conexión informativa entre los resultados
de una y otra. Esta sería la postura mantenida por Gibson (1979) con su
teoría de la extracción directa de la información. Frente a esta opción, queda la posibilidad de responder de forma algo menos elusiva a la cuestión
planteada, en un intento de aproximación naturalista a la percepción y sus
logros, tal y como exponemos a continuación.
Desde el punto de vista neurofisiológico, la respuesta de los sistemas
sensoriales se expresa en la codificación neural del estímulo proximal, gracias al mecanismo de transducción y a las modulaciones que puedan afectar
a la transmisión del impulso nervioso, en virtud del tipo y número de conexiones (excitatorias o inhibitorias) que jalonen su recorrido hasta las áreas
de proyección correspondientes. Para que dicha codificación neural tenga
efectos perceptivos —y, por tanto, psicológicos— es preciso postular un
nuevo tipo de codificación con dos características principales: a) que los
eventos neurales acaben constituyendo símbolos o representaciones de primer orden con respecto a las propiedades relevantes de la estimulación; y
b) que dichas representaciones primarias sean utilizadas como la gran base
de datos sobre la que actúen los procesos perceptivos propiamente dichos.
En realidad se trata de una forma de codificación que es ya típicamente
simbólica, aun cuando está directamente ligada (referida a) las propiedades
físicas concretas de la estimulación proximal que ponen en marcha la actividad neural.
En este sentido, y con el fin de pasar de la codificación puramente física
de la actividad neural a una codificación que tenga valor simbólico y sea,
por ello, susceptible del tipo de operaciones formales que caracterizan el
procesamiento de la información, es importante introducir aquí el concepto
de transducción funcional (Pylyshyn, 1984; García-Albea, 1991). La idea
es que de todas las particularidades que pueden presentar las transacciones
físicas entre el medio y el organismo a través de los sentidos, no todas son
necesariamente relevantes de cara al resultado perceptivo; la transducción
funcional no sería otra cosa que el dispositivo (o la función, valga aquí la
redundancia) que nos permite delimitar el subconjunto de las transacciones
físicas perceptivamente (psicológicamente) relevantes. Como recalca suficientemente Pylyshyn (1984), la transducción funcional sigue siendo, en sí
misma, una operación física y no simbólica, como proyección de la transducción sensorial que tiene lugar en los receptores. Ahora bien, a diferencia de ésta —que, según describíamos más arriba, es un puro proceso neu-
193
Percepción
rofisiológico que transforma una forma de energía física en otra—, lo que
vendría a hacer la transducción funcional es transformar una serie de eventos físicos (implicados en la propia transducción sensorial) en elementos
simbólicos, dotándolos así de contenido informativo. La transducción funcional es una operación física y no simbólica que, sin embargo, produce
símbolos. Constituiría una función primitiva de la arquitectura mental, ligada directamente al estímulo y que, de entrada, operaría de forma independiente del sistema cognitivo.
En definitiva, lo que le proporciona la transducción funcional al sistema
perceptivo son los datos directamente obtenidos de la estimulación. En la
medida en que estos datos van a ser objeto de un tratamiento informativo
por los mecanismos cognitivos de la percepción, podemos considerarlos ya
como una auténtica representación del estímulo; representación que, al estar ligada a las propiedades proximales de éste, denominaremos representación proximal y tomaremos como el input propiamente dicho del sistema
perceptivo. Justamente la función de este último será la de pasar de esta representación proximal a la representación distal, la cual nos va a remitir ya
al objeto (propiedades, eventos, etc.) finalmente percibido(s).
La percepción es así una actividad cognitiva en cuanto que transforma
un tipo de representación en otra a través de una o más operaciones intermedias de procesamiento de información. De este modo es como se aborda
la tarea de hacer corresponder la estimulación proximal con la distal (véase
el apartado 5.2.1) y se convierte esta última en el referente del acto perceptivo; no por la extracción directa que defendía Gibson (1979) en su enfoque
ecológico de la percepción, sino por procesos mediados por representaciones, como propone la tradición cognitiva, consolidada en el enfoque del
procesamiento de la información (Fodor y Pylyshyn, 1981; Marr, 1980,
1982; García-Albea, 1991). Obsérvese que se postulan dichos procesos en
la medida en que la representación distal no coincide con la proximal, y
ello es aplicable a propiedades tan elementales de los objetos como el tamaño, la forma, el color o el movimiento (e incluso su propio carácter de
objeto) y, en general, a cualquier rasgo percibido que no venga dado directa
y explícitamente en dicha representación proximal. Esto es lo que propone
David Marr, por ejemplo, en las primeras fases del procesamiento visual,
donde se parte de una representación primitiva como la matriz de niveles de
gris (en la que se especifica sólo aquello —el patrón de luminancias— a lo
que responden directamente los receptores sensoriales) y se van introduciendo operaciones (o cálculos) que permiten derivar los bordes, contornos,
orientaciones y demás características que configuran la forma y el volumen
percibidos de un objeto. Por lo demás, y en relación con la teoría de Gibson, esta manera de entender la percepción permite constreñir de modo suficiente la noción de extracción directa y evitar así la trivialización del problema perceptivo en que, como bien señalan Fodor y Pylyshyn (1981),
incurría el propio Gibson. Lo que se captaría directamente del medio sería
194
5. Algunas notas introductorias al estudio de la percepción
todo aquello que es objeto de la transducción funcional y estuviera, por
tanto, incluido en la representación proximal del estímulo. El resto, es decir, lo que finalmente percibimos y está de alguna forma incluido en la representación distal, no sería ya el resultado de una captación directa sino
de procesos de inferencia (de cómputo interno, categorización, etc.). Es, en
este sentido, en el que la percepción se manifiesta como una actividad cognitiva genuina, con todos los requisitos para ser considerada como una auténtica actividad computacional (Marr, 1982).
Por otra parte, lo específico de la percepción, frente al resto de la cognición (o cognición de orden superior), es que a) su punto de partida son los
datos sensoriales y b) sus operaciones están inicialmente guiadas por estos
datos, de cara a hacer explícita y determinada la información que, sólo potencialmente y de un modo generalmente indeterminado, contienen sobre
las propiedades relevantes del medio. Esas operaciones guiadas por los datos, propias de los llamados procesos de-abajo-arriba (bottom-up), tienden
a ser automáticas, rápidas y eficaces, y restringidas por el tipo específico
de información que utilizan para tratar los datos y hacer inferencias; es fácil suponer que tienden también a ser básicamente inconscientes y relativamente susceptibles de ser efectuadas en paralelo. Contrastan, por ello, con
las operaciones guiadas cognitivamente o procesos de-arriba-abajo (topdown), que tienden a mostrar las características opuestas y disponen, en
principio, de toda la información procedente del sistema cognitivo general.
Las operaciones de este último tipo también contribuirán, sin duda, al resultado perceptivo final, integrándolo en dicho sistema general de conocimiento —como se integra la información nueva con la información dada—
y haciéndolo servir para el procesamiento cognitivo ulterior.
La distinción entre estos dos tipos de procesos es crucial para entender
las etapas que atraviesa la actividad perceptiva. Ello no quiere decir que dichas etapas estén perfectamente delimitadas y se ordenen de forma estrictamente secuencial. Ya asumimos que, al final, la percepción es el resultado
de la interacción de ambos tipos de procesos. Ahora bien, es igualmente
importante establecer cuáles son los límites y las restricciones que operan
sobre dicha interacción; o expresado en otros términos, hasta dónde llega la
influencia de los procesos top down en la percepción y, complementariamente, cuál es el grado de impenetrabilidad cognitiva de la misma
(Pylyshyn, 1984). Dejando claro que estamos ante una cuestión enteramente empírica, objeto preferente de una buena parte de la investigación actual,
se trata, en último término, de encontrar la forma en que el organismo compagina estas dos facetas de su actividad perceptiva: el que, por una parte,
ésta se mantenga ligada al estímulo y constituya una adquisición efectiva
de información sobre el medio; y el que, por otra parte, establezca contacto
con lo que ya se conoce y se vea beneficiada por la experiencia anterior.
Así pues, se podría decir que las relaciones entre percepción y cognición
están sometidas a una especie de tensión dialéctica. Con todo el énfasis que
195
Percepción
se quiera poner en considerar la percepción en continuidad con la cognición
(como hacían, por ejemplo, Bruner y los psicólogos del New Look en los
años cincuenta), debemos igualmente insistir en lo que es la marca distintiva de la percepción frente al resto de la cognición, su dependencia del dato
sensorial. El célebre ensayo de Jerry Fodor titulado La modularidad de la
mente (1983) propone precisamente, entre sus objetivos principales, desarrollar los criterios y el tipo de pruebas que permitan establecer esa demarcación, en términos de la distinción entre los sistemas de entrada, de carácter modular, y los sistemas centrales, de carácter holístico e interactivo.
Ambos tipos de sistemas intervienen en la percepción, pero en distintos
momentos y con respecto a distintos logros cognitivos. Los primeros se encargarían fundamentalmente de los procesos básicos del análisis
perceptivo, serían específicos de dominio y estarían informativamente encapsulados, además de caracterizarse por su rapidez, eficiencia, obligatoriedad, etc. El output de los mismos equivaldría a lo que hemos denominado
representación distal, que, trascendiendo las particularidades concretas de
la representación proximal de la que se deriva, tendría todavía un carácter
relativamente superficial, alejado de los niveles cognitivos superiores del
reconocimiento, la identificación o la interpretación. Asimismo, este output
del análisis perceptivo vendría a ser el input de los sistemas centrales, cuyos procesos, sensibles a todo tipo de información, estarían encargados ya
de la fijación de las creencias perceptivas.
Es así como la intervención del sistema cognitivo general afectaría principalmente a las fases posteriores de la actividad perceptiva, en las que ésta
alcanza las cotas máximas de la cognición, entendida como relación predicativa (epistémica, intensional, etc.) con el mundo. En la formación de creencias perceptivas es donde las representaciones distales interactúan con los
outputs de otros módulos perceptivos y con la información almacenada en
memoria, proyectándose así la percepción hacia los niveles superiores del
reconocimiento, la identificación y la interpretación. Finalmente, y conforme los resultados del análisis perceptivo entran en el dominio de los sistemas centrales, van también adquiriendo la cualidad de ser conscientes. Y
ello en un doble sentido: en el sentido funcional de que dichos resultados se
tornan disponibles en la memoria de trabajo para ser utilizados en procesos
ulteriores de razonamiento, planificación, lenguaje, etc.; y en el sentido
fenomenológico de la experiencia vivida, con todas las cualidades subjetivas e irrepetibles que acompañan a cada acto perceptivo (Bock, 1995, para
abundar más en las implicaciones de esta distinción entre conciencia funcional o de acceso y la conciencia fenomenológica).
A modo de compendio y resumen de lo expuesto en este apartado, en la
Figura 5.3 quedan ilustrados los distintos componentes de la actividad perceptiva, ordenados de acuerdo con la perspectiva del procesamiento de la
información.
196
5. Algunas notas introductorias al estudio de la percepción
Creencias
perceptivas
SISTEMA
COGNITIVO
GENERAL
Experiencia
fenoménica
Representación
distal
ANÁLISIS
PERCEPTIVO
Representación
proximal
TRANSDUCCIÓN
FUNCIONAL
Estímulo
próximal
Estímulo distal
Figura 5.3
3.
Componentes principales del procesamiento perceptivo.
Observaciones finales
La idea que nos debe quedar de esta manera de entender la percepción se
podría sintetizar en los siguientes puntos:
1.
La percepción es, ante todo, una actividad del sujeto. A pesar de las
apariencias y de la concepción ordinaria predominante, el sujeto
que percibe no es un mero recipiente pasivo de la estimulación del
medio. La percepción es una actividad que se manifiesta incluso ex-
197
Percepción
2.
3.
4.
5.
198
ternamente, a través de movimientos de orientación y exploración,
en prácticamente todas las modalidades perceptivas.
Aparte de sus manifestaciones externas, la percepción es ante todo
una actividad interna de carácter típicamente computacional, en la
medida en que opera formalmente sobre representaciones y va más
allá de la mera actividad sensorial. Tomando como punto de partida
el dato sensorial, lo transforma y trasciende, por el uso de información adicional, para llegar a una representación estable y consistente
del mundo real.
La actividad perceptiva está constituida por toda una serie de procesos que son, en su mayoría, de carácter inconsciente, aun cuando los
resultados finales alcancen normalmente el umbral de la conciencia.
El hecho de admitir procesos y representaciones inconscientes en la
actividad perceptiva supone un desafío al prejuicio tan extendido en
el mentalismo clásico de identificar lo mental con lo consciente,
con el consiguiente sobrepeso otorgado a la introspección.
Más que la dimensión consciente-inconsciente de la actividad perceptiva, lo que interesa desde un punto de vista funcional son las
restricciones externas (procedentes del estímulo) e internas (propias
del sistema) a las que está sujeta dicha actividad. A ello responden
otro tipo de distinciones que han resultado más útiles para el estudio
de la percepción y su despliegue temporal, así como para entender
sus relaciones con otras funciones cognitivas. Es el caso de la distinción aquí utilizada entre procesos guiados por los datos y procesos
guiados cognitivamente y el de otras más o menos relacionadas.
El programa actual de investigación en psicología de la percepción
está principalmente orientado a determinar la naturaleza de nuestras
capacidades perceptivas básicas, como parte integrante que son de
la arquitectura mental. Interesan tanto los rasgos comunes a las distintas modalidades perceptivas como los rasgos específicos de cada
una de ellas, en dominios informativos bien delimitados. De igual
modo, interesa tanto la percepción estable del adulto normal, como
los estadios del desarrollo perceptivo en bebés y las alteraciones
patológicas provocadas por lesiones en el sustrato neurofisiológico.
Interesan, por último, las conexiones que se puedan establecer tanto
con el nivel de la implementación neural como con ámbitos más
aplicados relacionados, por ejemplo, con la ergonomía o con la inteligencia artificial.
5. Algunas notas introductorias al estudio de la percepción
Bibliografía comentada
Para un mayor desarrollo de las principales nociones expuestas en el capítulo se
pueden consultar los capítulos 5 y 6 del libro Mente y conducta (García-Albea,
1993). El libro de Gardner (1985) La nueva ciencia de la mente, y especialmente el Capítulo 9, es una buena introducción al enfoque del procesamiento de la
información y sus implicaciones en el estudio de la percepción. Para revisar sus
antecedentes históricos puede ser útil consultar el Manual de percepción de
Carterette y Friedman (1974). El libro de Dretske (1981), Knowledge and the
flow of information, así como su capítulo en el libro Visual Cognition (1995)
son importantes para profundizar en la dimensión informativa de la percepción.
Del mismo modo que lo es el libro de Pylyshyn (1984) Computación y conocimiento, especialmente el Capítulo 6, para el tema de la transducción sensorial y
su papel en la arquitectura funcional de la mente; e igualmente el libro de Fodor
(1983) La modularidad de la mente para entender las relaciones entre percepción y cognición. Aunque se circuscriba al ámbito de la percepción visual, quizá el libro más emblemático sobre las implicaciones del enfoque del procesamiento de la información (o enfoque computacional) sea el titulado La visión de
David Marr (1982). Sobre el enfoque ecológico de Gibson (1979), la orientación del New Look, representada por Bruner (1974), o las aportaciones de los
modelos conexionistas (Rumelhart y MacClelland, 1986) lo mejor es consultar
sus obras originales referidas en la bibliografía. Por último, si se quiere ampliar
la información sobre el sustrato sensorial de la percepción, puede ser útil, en
principio, cualquier manual de psicofisiología o, en todo caso, los capítulos
correspondientes de los manuales de percepción más recomendables, como el
de Godstein (1984) o el de Lillo (1993).
199
Percepción
Preguntas de revisión
1. Uno de los objetivos de este capítulo ha sido el de establecer toda una
serie de distinciones que ayuden a entender cuáles son los problemas
principales con que se enfrenta la psicología de la percepción. Sería,
pues, conveniente que el lector empezara por comprobar que le han
quedado claras distinciones como las siguientes:
— dimensiones extensional e intensional del objeto percibido
— estimulación proximal y estimulación distal
— receptor sensorial y sistema sensorial
— transducción sensorial y transducción funcional
— sensación y percepción
— percepción y cognición
— procesos guiados por los datos y procesos guiados cognitivamente
— sistemas modulares y sistemas centrales
2. ¿Cómo se podrían caracterizar las situaciones perceptivas referidas en
las siguientes expresiones?
— «Juan está viendo la Estrella Polar»
— «Juan está viendo que ésa es la Estrella Polar»
3. Las alucinaciones se suelen definir como casos de percepción sin objeto, y las ilusiones como casos de percepción errónea. De acuerdo con
ello, ¿qué relación (o contraste) se podría establecer entre unas y
otras?, ¿en qué sentido se debería ocupar de unas y otras la psicología
de la percepción?
4. Partiendo de la distinción entre estimulación proximal y estimulación
distal, ¿en qué consistiría la ambigüedad de una figura ambigua?
5. ¿Qué semejanzas y diferencias se podrían establecer entre las siguientes situaciones perceptivas?:
— Oír una melodía por primera vez
— Reconocer la melodía al oírla otra vez
— Identificar la melodía
6. ¿En qué sentido cabe entender las expresiones siguientes aplicadas a la
percepción en general?:
— «Nada es verdad ni es mentira, sino que todo es del color del cristal
con que se mira»
— «Se ve lo que se quiere ver y se oye lo que se quiere oír»
200
6.
Psicofísica: concepto,
método y aplicaciones
Antonio Sánchez Cabaco
El objetivo de este capítulo es abordar los tópicos más relevantes de la teoría psicofísica. En primer lugar, se pretende responder a la pregunta de
cómo medimos las sensaciones y las respuestas metodológicas dadas por
esta disciplina. En segundo lugar, se aborda la intervención de los procesos mentales en los juicios perceptivos y la importancia de separar el concepto de sensibilidad y el criterio de respuesta (motivaciones, intereses, etcétera), y esto no sólo por un interés teórico sino por las importantes
consecuencias aplicadas que ha supuesto en el campo de la decisión en general, más allá de la psicología de la percepción. A continuación se aborda
la relación entre el mundo físico y el percibido a través de las dos grandes
leyes psicofísicas formuladas. En un apartado final se establecen unas consideraciones generales de los desarrollos recientes que esta disciplina está
generando, así como la utilización de la variable TR en los juicios psicofísicos.
1.
Introducción
Aunque aparecen distintas definiciones del concepto de psicofísica (conjunto de métodos para medir la respuesta conductual al estímulo perceptivo;
disciplina que busca establecer relaciones matemáticas entre la percepción y
la estimulación, ciencia que se ocupa de estudiar la relación existente entre
la estimulación externa y la sensación interna, etc.), en todas subyace que el
201
Percepción
área de estudio se encuentra estableciendo un puente entre lo físico y lo psicológico. Esto implica que debe existir una correspondencia entre las dimensiones físicas de los estímulos y las dimensiones percibidas, es decir,
que si se producen variaciones en los atributos físicos de los estímulos se verán reflejados en las sensaciones que de los mismos tienen los sujetos.
La palabra psicofísica une dos mundos o realidades distintas: por otra
parte, el físico constituido por estímulos que tienen una serie de características o propiedades y un mundo psíquico o mental donde se traducen los
atributos del mundo físico en sensaciones específicas a esas características
propias de los estímulos. Ya en 1860 Fechner la había definido como la
ciencia exacta de las relaciones entre el cuerpo y la mente, aludiendo precisamente a este puente entre el mundo físico y el psicológico o mental. De
hecho, esta parcela del conocimiento ha tenido una significación especial
en el proceso de convertir a la psicología en una verdadera disciplina científica al permitir cuantificar la conducta, además de posibilitar el acceso a la
interpretación de los procesos mentales internos a través del estudio de las
sensaciones.
Sin embargo, como señala Blanco (1996), la relación entre lo físico y lo
percibido no se rige por una correspondencia sencilla y lineal. Existen multitud de ejemplos (ilusiones perceptivas, percepción sin objeto, figuras reversibles, etc.) que demuestran esta falta de correspondencia absoluta y que
la relación entre las características físicas y las dimensiones percibidas de
los estímulos es variable (dependiendo de influencias del contexto) y compleja (en función de la propia disponibilidad del perceptor).
A pesar de esta dificultad notable, los psicofísicos han intentado establecer correspondencias y funciones o leyes psicofísicas para equiparar las
magnitudes de las sensaciones a las magnitudes de los estímulos que las
provocan. La metodología utilizada para alcanzar este objetivo consiste en
presentar un estímulo, el cual provocará en el perceptor unas sensaciones
sobre las que el sujeto tendrá que informar posteriormente. Aunque el objetivo y el método son claros, sin embargo existen dos problemas que han generado y siguen planteando numerosos interrogantes en psicofísica: los sesgos de respuesta y la variabilidad.
El problema de los sesgos de respuesta ha supuesto, de hecho, la transición de la psicofísica clásica a la nueva psicofísica, ya que supone admitir
que la respuesta del sujeto no depende exclusivamente de las características
físicas de los estímulos sino que, además de esta influencia, en la decisión
final juegan un papel importante otra serie de variables internas (motivaciones, expectativas, expresiones, etc.). Este cambio introducido por la TDS
(Teoría de Detección de Señales) hace más complicado el objeto de la psicofísica tal y como describíamos al principio, es decir, establecer las relaciones entre lo físico y lo percibido.
El segundo problema, el de la variabilidad, no es menos importante. En
el trabajo de investigación pueden producirse cambios en el funcionamien-
202
6. Psicofísica: concepto, método y aplicaciones
to del sistema sensorial (variabilidad interna) o en las características físicas
de la estimulación que recogen los receptores sensoriales (variabilidad externa). En ambos casos se adultera el proceso y, aunque se han propuesto
algunas soluciones (mejora de los instrumentos, utilización de una serie de
estadísticos, uso de un número elevado de ensayos, etc.), sigue siendo un
tema de controversia en la investigación psicofísica.
2.
Medida y límites de la detección y de la discriminación
psicofísica
2.1
Umbrales sensoriales
2.1.1 Concepto de umbral absoluto y umbral diferencial
La teoría del umbral sensorial surgió para explicar qué nivel de estimulación se necesita para producir una sensación o una toma de conciencia.
Esta teoría afirma que para activar un receptor sensorial se necesita una determinada intensidad, ya que sin ella no se consigue provocar sensación en
el sujeto. A esa cantidad mínima de energía capaz de provocar la estimulación de un órgano sensorial es lo que se conoce como umbral absoluto
(UA). Por encima del valor UA pueden producirse incrementos y disminuciones en el nivel de energía física que no siempre son detectables por el
sujeto, ya que, como afirmábamos al inicio de este capítulo, no existe una
relación lineal entre el continuo físico y el psicológico. Cuando estas diferencias en la estimulación, positivas o negativas, son captadas por el observador nos referimos precisamente al otro concepto de umbral señalado por
esta teoría: el umbral diferencial (UD).
La idea base que subyace en la teoría clásica del umbral (para el UA) es
que se produce una transición de un estado de no detección a otro en el que
se puede detectar el nuevo estímulo. El cambio de un estado a otro está determinado por la intensidad de la estimulación, aunque este cambio más que
brusco tiende a ser gradual, ya que en cualquier experimento no se mantienen constantes todos los factores que afectan a la detección y a la discriminación (variaciones en la atención, sensibilidad de los receptores, etc.).
Para la determinación de los umbrales sensoriales, Fechner desarrolló
tres métodos que se han denominado en la literatura como los métodos psicofísicos clásicos o indirectos. El hecho de que tanto los valores de los UA
como los de los UD pueden variar en los distintos ensayos, hace que se
tome habitualmente aquel valor que es detectado en el 50 por ciento de las
presentaciones. Por lo tanto, el término umbral es un concepto estadístico.
A continuación, vamos a exponer estos métodos y ejemplificar el cálculo
de ambos tipos de umbrales.
203
Percepción
2.1.2 Métodos psicofísicos clásicos o indirectos
Los tres métodos psicofísicos clásicos o indirectos son el de los límites, el
de los estímulos constantes y el de ajuste o error promedio. Todos se caracterizan por solicitar de los observadores un juicio sobre la detección (sí o
no para el UA) o discriminación (mayor, menor o igual para el UD).
A. Método de los límites
Como su nombre indica se basa en los límites de la sensación. Utilizando
series ascendentes y descendentes se determina el punto a partir del cual el
estímulo deja de percibirse (para las series descendentes) o cuando comienza a ser percibida por el sujeto (en series ascendentes). El procedimiento
consiste en presentar una serie de ensayos, la mitad en orden ascendente y
la otra mitad en orden descendente, interrumpiendo las series cuando hay
un cambio en el sentido de respuesta, es decir, sí para los ascendentes y no
para los descendentes.
El valor del umbral absoluto es la media de los valores de cruce o media
de los puntos de transición (PT) de todas las series. A continuación, en la
Figura 6.1 se presenta un ejemplo explicativo del proceso. La primera columna refleja la intensidad (I) y el resto el tipo de serie: ascendente (A) o
descendente (D).
I
A
D
A
D
A
D
A
D
90
S
S
S
S
80
S
S
S
S
70
S
S
S
S
60
S
S
S
S
50 S
S
N
40 N
N
S
S
S
S
N
S
N
S
N
30 N
N
N
N
N
20 N
N
N
10 N
PT
Figura 6.1
N
45
45
N
N
35
55
N
45
35
45
45
Método de los límites (UA)
En la primera serie, A (ascendente), se le aplicó al sujeto la intensidad
de valor hipotético 10 y contestó que no la detectó (N); a continuación la de
204
6. Psicofísica: concepto, método y aplicaciones
20 con la misma respuesta, y así hasta que con la intensidad de 50 el sujeto
dijo sí (S). Se interrumpe la serie y se procede de igual forma pero desde el
valor más alto, es decir, de 90 con la serie descendente. De esta forma, se
completan los ocho ensayos y se calculan los respectivos puntos de transición o valores de cruces. Para la primera serie el PT es igual al valor del S
(50) más el valor del N (40) dividido entre dos, en este caso, resultando un
valor de 45 en esta escala hipotética. A continuación se calcula el resto de
puntos de transición y el valor medio de los mismos. que será el valor del
UA, mediante la aplicación del algoritmo:
UA = ⌺PT/n
UA = (45 + 45 + 35 + 55 + 45 + 35 + 45 + 45)/8 = 43,75
En este ejemplo el UA tiene un valor de 43,75, es decir, ésta sería la intensidad mínima de estimulación para que fuese captada por el observador,
o lo que es lo mismo para provocar sensación.
Para obtener el UD se presentan un par de estímulos, el variable (EV)
y el estándar (ES). El EV se presenta en series ascendentes y descendentes y aquí la tarea del sujeto es lógicamente discriminar entre ambos estímulos. Las series ascendentes se interrumpen cuando el sujeto contesta
que el EV es mayor que el ES y en las descendentes cuando la respuesta
es que el EV es menor que el ES. A continuación, se determina el umbral
alto (Ua) y el umbral bajo (Ub) de cada serie que se corresponde al punto
de transición del valor correspondiente como mayor para el EV con el inmediatamente inferior (Ua), y el punto de transición del valor menor del
EV con el inmediatamente superior (Ub). Por último, se calculan las medias aritméticas de los valores de umbral alto y bajo y se aplica el algoritmo siguiente:
UD = ([⌺Ua/n]-[⌺Ub/n]) /2
Como en el caso de UA vamos a ejemplificar el cálculo del UD a través
de este método. En la Figura 6.2 aparecen los resultados hipotéticos de un
sujeto experimental.
⌺Ua/n = 52,5
⌺Ub/n = 36,25
En la primera serie se comparó el EV (valor 10) con el ES (valor 50) y
el sujeto dijo que el EV era de menor intensidad, por eso se señala en el
protocolo de respuestas Me. La misma situación se reproduce con los valores siguientes del EV (20 y 30); a continuación señala que tienen la misma
intensidad (valores 40 y 50) y en la comparación con el de 60 dice que el
EV es mayor, razón por la que se interrumpe la serie y se anota Ma. Se procede de igual forma con las series restantes, teniendo en cuenta si son as-
205
Percepción
I
A
D
A
D
A
D
A
D
90
Ma
Ma
Ma
Ma
80
Ma
Ma
Ma
Ma
70
Ma
Ma
Ma
Ma
60 Ma
IG
Ma
IG
Ma
50 IG
IG
Ma
IG
Ma
40 IG
Me
IG
IG
IG
30 Me
Me
IG
20 Me
Me
Me
10 Me
Me
Me
Me
Me
Ma
Ma
IG
IG
Me
IG
Me
Me
Me
Ua
55
65
45
55
45
65
45
45
Ub
35
45
35
25
35
55
25
35
Figura 6.2
Método de los límites (UD)
cendentes o descendentes, y por último se calculan los Ua y Ub de cada serie junto a las puntuaciones medias.
Aplicada la fórmula UD = (52,5-36,25)/2, el valor resultante del UD es
de 8,12, es decir, a partir de aumentos o disminuciones de 8,12 de intensidad, por encima del UA, este sujeto discriminaría el estímulo como de mayor o menor intensidad. Es el cambio mínimo, en la intensidad del estímulo, captado por el sujeto, debido a que variaciones de inferior cuantía no
serían detectadas.
Hay que tener en cuenta que existe una zona donde el sujeto no diferencia claramente entre el EV y el ES. Es la zona denominada intervalo de incertidumbre (II) y se calcula restando de la media del umbral superior la
media del umbral inferior:
II = [⌺Ua/n]-[⌺Ub/n],
en nuestro caso (II = 52,5-36,25) resulta un valor de 16,25 unidades. Con el
ES de valor 50, a partir de intensidades superiores a 66,25, el sujeto respondería el 50 por ciento de las veces que el EV es mayor, y por debajo de
33,75 que el EV es menor. Además, hay que tener en cuenta el PIS (punto
de igualdad subjetivo), punto en el que el sujeto percibe el ES y el EV
como iguales. Se obtiene aplicando la fórmula:
PIS = ([⌺Ua/n] + [⌺Ub/n])/2
Para el ejemplo propuesto el resultado del PIS es 47,37 ([52,5 +
36,25]/2).
206
6. Psicofísica: concepto, método y aplicaciones
En último lugar se calcula el error constante (EC), que es el error cometido por el sujeto en la estimación de la comparación con respecto a los valores reales. Su cálculo se determina mediante la fórmula siguiente:
EC = PIS-ES
Dado que el valor obtenido es negativo (44,37-50 = -5,63), ello significa
que el sujeto ha subestimado el valor del EV en relación con el ES. Si el resultado hubiese sido al contrario, es decir, positivo, indicaría que se ha producido una sobreestimación del valor EV en relación con el ES. La diferencia podría ser nula, es decir 0, si el PIS coincide con el valor de ES, lo cual
implicaría que habría realizado una estimación perfecta.
B. Método de los estímulos constantes
A diferencia del anterior se presentan los estímulos al azar, en un orden
aleatorio y se considera umbral a aquella intensidad que es detectada en la
mitad de sus presentaciones. Para calcular el UA se halla la frecuencia acumulada de respuestas positivas (S) y aquel valor que coincida con el 50 por
ciento de detección corresponde al UA. Como en el método de los límites,
vamos a desarrollar un ejemplo hipotético para realizar el cálculo. Se presentan en ocho series los nueve estímulos con las distintas intensidades de
forma aleatoria. Los resultados obtenidos aparecen en la Figura 6.3.
INTENS
1
2
3
4
5
6
7
8 f
%
90 S
S
S
S
S
S
S
S
8
100
80 S
S
S
S
S
S
S
S
8
100
70 S
S
S
S
S
S
S
N
7
87,5
60 S
S
S
S
S
S
N
N
6
75
50 S
S
S
S
S
N
N
N
5
62,5
40 S
S
S
S
N
N
N
N
4
50
30 S
S
S
N
N
N
N
N
3
37,5
20 S
S
N
N
N
N
N
N
2
25
10 S
N
N
N
N
N
N
N
1
12,5
Figura 6.3
Método de los estímulos constantes (UA)
En este caso el valor del UA sería el correspondiente a la intensidad de
valor 40 ya que ha sido detectado en la mitad de sus presentaciones o el 50
por ciento de las veces. Se determina a través de algún método de interpo-
207
Percepción
lación gráfico o numérico, ya que no siempre suele coincidir exactamente
una frecuencia del 50 por ciento. El lector interesado en desarrollar alguna
de las alternativas de interpolación numérica puede consultar la obra de
Amón (1980). En la Figura 6.4 se observa la aplicación del método de interpolación gráfica, que, como hemos apuntado en este caso, al coincidir
una frecuencia con el 50 por ciento de detección, determina el valor del
umbral absoluto.
Figura 6.4
Interpolación gráfica para calcular el UA
Para calcular el UD se procede a comparar los EV con el ES que normalmente tiene el valor medio de la serie (50 en nuestro caso). Los EV se presentan de forma aleatoria y el juicio que tiene que emitir el sujeto es si son
menor, mayor o igual que el ES. Una vez realizados los ensayos se procede
al cálculo del Ua y Ub. Vamos a determinar su cálculo en el siguiente ejemplo, en el que se muestran los resultados hipotéticos obtenidos (Figura 6.5).
Se han establecido tres puntos en la Figura 6.5: el valor de intensidad
considerado mayor que el modelo (EV > ES) en el 75 por ciento de los ensayos (Ua), el valor de intensidad considerado mayor que el modelo en el
25 por ciento de los ensayos (Ub), y el valor de intensidad considerado
igual que el modelo en la mitad de las presentaciones (PIS).
208
6. Psicofísica: concepto, método y aplicaciones
Figura 6.5
UD por el método de los estímulos constantes
Con el método de interpolación gráfica, el valor de Ua es de 62 unidades de intensidad y el Ub de 25 unidades. El intervalo de incertidumbre (II)
es de 37 unidades y por consiguiente el UD (II/2 = 37/2) resultante es 18,5.
Dado que el valor del ES es de 50, el error constante cometido por este sujeto es de —8, lo que indica que el sujeto ha subestimado el valor del EV.
Cuando el método de interpolación gráfica no sea adecuado para calcular los valores del umbral, por ejemplo con datos no regulares, se deben utilizar procedimientos más sofisticados de interpolación numérica (d’Amato,
1970).
C. Método de ajuste o error promedio
Este método se caracteriza porque, a diferencia de los anteriores, el sujeto o
el experimentador toman parte activa en el experimento, realizando ajustes
de forma continua en la intensidad de la estimulación, es decir, aumentando
o disminuyendo la misma. En realidad, la lógica de este método es similar a
la de los límites, aunque bastante más simplificada dado que en lugar de
llevar a cabo las series ascendentes o descendentes completas se parte de
un punto medio, fijado a priori (lo determina el investigador), lo que signi-
209
Percepción
fica un ahorro considerable de tiempo. En función de las respuestas del sujeto, a partir de la presentación de un estímulo, se seguirá una serie ascendente cuando no lo detecte o descendente en el caso de que la respuesta sea
afirmativa. De la misma manera que en el método de los límites se calculan
los PT de cada serie y se obtiene la media aritmética de los mismos cuyo
valor será el UA. En realidad debería ser una intensidad continua pero para
hacer más intuitiva la explicación seguimos con la ejemplificación utilizada
en los dos métodos anteriores.
Para obtener el UD teóricamente se debería proceder de la misma forma,
es decir, marcando una línea de partida y presentando el par EV-ES a partir
de ese punto. En función de las respuestas del sujeto se procederá con una
línea ascendente o descendente y por último se calcularán los valores
correspondientes a los umbrales altos y bajos. Lillo (1993) señala que este
método tiene como peculiaridades el que la estimulación es de carácter
continuo, las variaciones en la intensidad se realizan de forma ordenada
(ascendente o descendente), el control lo puede ejercer el experimentador o
el sujeto, la duración es breve y, por último, el umbral es resultado de una
decisión de tipo estadístico. Para otros autores (Ballesteros, 1994) como lo
que se está midiendo es el error cometido por el sujeto al estimar la igualdad del EV y el ES, la única medida que se obtiene es el PIS, ya que no se
podría hacer una estimación de los umbrales. Jáñez (1992) señala además
una variación de este método que se denomina método de seguimiento del
umbral, utilizado por von Bekesy en pruebas auditivas, siendo lo esencial
del procedimiento el elevar la intensidad del estímulo hasta que comienza a
ser percibido y posteriormente disminuirla hasta que deja de ser detectado.
Hemos obviado deliberadamente otras cuestiones (propiedades matemáticas del umbral, función psicométrica clásica y normalizada) debido al carácter introductorio de este capítulo. El alumno puede encontrar una exposición amplia y rigurosa de estos conceptos en el Capítulo 2 del libro de
Blanco (1996). Además puede profundizar en la discusión sobre las dos
teorías de los umbrales sensoriales: la primera, expuesta por Fechner, que
defiende que los aumentos físicos del estímulo tienen su correlato desde el
plano psicológico o percibido, y la segunda (teoría del cuanto neural de Bekesy), que no asume esta correspondencia de tipo lineal sino que afirma
que los cambios son percibidos de modo discreto.
Centrándonos en la primera, la teoría clásica del umbral sensorial intentaba dar respuesta al hecho de que los estímulos no provocan siempre sensación y, en cambio, a partir de una determinada intensidad comenzamos a
ser conscientes de esa estimulación. Para obtener estos valores de umbral
(absoluto o diferencial) se han expuesto los tres métodos psicofísicos desarrollados con este fin. Sin embargo, en los ejemplos propuestos si se
comparan los resultados de las figuras 6.1 y 6.3 se puede observar que los
valores del UA obtenidos para un mismo sujeto a través de dos métodos diferentes (límites y estímulos constantes) son distintos, ya que en el primer
210
6. Psicofísica: concepto, método y aplicaciones
caso el valor del UA es de 43,75 y en el segundo de 40. Lo mismo ocurre
con los UD (figuras 6.2 y 6.4) ya que hemos obtenido un valor de 8,12 por
el método de los límites y de 18,5 por el de los estímulos constantes.
Además no hemos desarrollado el ejemplo con el tercero de los métodos
psicofísicos indirectos, el de ajuste o error promedio, pero seguramente que
los resultados hubiesen sido también diferentes a los obtenidos por los
otros dos. Llegados a este punto y puesto que si los resultados no son constantes, ya que en función del método utilizado los resultados son distintos,
podemos preguntarnos: ¿existe un umbral absoluto?, o ¿tiene sentido la
medición de umbrales? La respuesta a estos interrogantes va a ser el objetivo del apartado siguiente donde analizamos críticamente los dos supuestos
básicos de la teoría clásica: que existe una magnitud o punto de partida a
partir del cual comienza a detectarse un estímulo y que dicha magnitud es
constante.
2.1.3 Valoración crítica de la teoría del umbral
En lugar de realizar una comparación directa de los resultados obtenidos en
el apartado anterior, vamos a transformar las puntuaciones a medidas de
sensibilidad y agudeza. La sensibilidad es el inverso del UA, así cuanto mayor es el UA de un sujeto menor es su sensibilidad. En el ejemplo propuesto tendríamos que en el método de los límites:
S = 1/UA = 1/43,75 = 0,022,
mientras que en el de los estímulos constantes:
S = 1/UA = 1/40 = 0,025,
La agudeza es el inverso del UD, así cuanto mayor es el umbral diferencial
de un sujeto menor es su agudeza. En el caso anterior tendríamos que el
método de los límites:
A = 1/UD = 1/8,12 = 0,123,
mientras que según los resultados obtenidos por el método de los estímulos
constantes:
A = 1/UD = 1/18,5 = 0,05.
Esta transformación de puntuaciones directas en medidas de sensibilidad
y agudeza nos permite comprobar que a pesar de la diferencia en términos
absolutos, no lo es tanto en cuanto a sensibilidad pero sí en lo que se refie-
211
Percepción
re a agudeza relativa. Esta primera cuestión sobre la fiabilidad de los métodos parece que no es uno de los temas centrales sobre los que se centra la
validez de la teoría, ya que, incluso por la propia naturaleza de los métodos,
en función de lo que queremos priorizar en el binomio rapidez-precisión,
podemos elegir uno de los tres métodos propuestos
Hay otras objeciones que pueden ser más difíciles de refutar y que,
como veremos en el apartado siguiente, han supuesto una transición y un
desarrollo de la teoría psicofísica de una magnitud difícil de predecir; nos
referimos a la TDS. Estas cuestiones problemáticas, siguiendo a Jáñez
(1992), se pueden plasmar en cuatro: a) la suposición del valor constante e
invariable del umbral sensorial es, según bastantes trabajos experimentales,
modificable debido a factores del observador o de la tarea; b) la función
psicométrica se debería ajustar a una distribución normal, es decir, la probabilidad de percibir un estímulo estaría en función de la intensidad, y los
resultados muestran funciones psicométricas rectilíneas; c) el problema de
la continuidad-discontinuidad sensorial; y d) los valores obtenidos por los
distintos métodos no son coincidentes, aspecto ya comentado.
Centrándonos en la primera de las cuestiones polémicas, si utilizamos el
método de los límites para medir los umbrales de escucha de un tono en
dos sujetos distintos y seleccionamos dos intensidades las respuestas de
ambos sujetos (decir sí cuando perciban el tono) pueden ser muy distintas,
presentando por lo tanto umbrales absolutos diferentes según este método.
Sin embargo el juicio psicofísico de estos sujetos puede estar mediatizado
por el criterio de respuesta utilizado: un sujeto quiere aparecer supersensible (criterio liberal, sí a cualquier cosa, criterio de respuesta bajo), mientras
que el otro quiere estar totalmente seguro (criterio conservador, sí pocas veces, criterio de respuesta alto). Ante la pregunta de cuál de los dos sujetos
es más sensible a los tonos, siguiendo el método psicofísico clásico hubiésemos concluido que el primero, sin embargo la realidad es que cada uno
tiene un criterio de respuesta distinto, pudiendo ser ambos igual de sensibles. Para evitar que en un experimento afecten factores distintos a la sensibilidad en lugar de medir umbrales absolutos (sensoriales) desde los supuestos de la TDS se miden umbrales de respuesta. En el apartado
siguiente vamos a profundizar en el cambio de planteamiento de esta teoría
y la forma tan diferente de abordar el problema.
2.2
Umbrales de respuesta
2.2.1 Nuevas perspectivas en la medición de umbrales
Como hemos analizado en el apartado anterior, la teoría clásica del umbral
sensorial presentaba serios inconvenientes para explicar los nuevos datos
experimentales surgidos de la investigación (influencia del tipo de método,
212
6. Psicofísica: concepto, método y aplicaciones
factores del observador o de la tarea, distribución no gausiana de valores,
etc.). Además, como señala Jáñez (1992), incluso en el periodo de vigencia
de la teoría clásica estuvo presente la polémica sobre la discontinuidadcontinuidad sensorial.
A partir de evidencias tales como la manipulación de la actitud del sujeto por medio de instrucciones y su influencia en los valores de umbral, se
fue imponiendo la idea de introducir cambios en las tareas de detección.
Así, si se incluyen ensayos en blanco (ensayos en que no se presenta el estímulo) y la tarea del sujeto es responder Sí ó No, es decir, sí detecto el estímulo o no lo detecto, podemos obtener una matriz de confusión que relaciona las presentaciones estimulares con las respuestas del sujeto.
La matriz resultante (2 x 2) ofrece cuatro posibilidades, según aparece
en la Figura 6.6: si se presentó el estímulo o señal (en adelante S) el sujeto puede decir Sí, en cuyo caso acierta (A), o puede decir No, lo que significa un fallo (F). En cambio si no se presentó el estímulo (en adelante
R, por ruido sensorial) el sujeto podrá contestar No, lo que significa que
es un rechazo correcto (RC) o puede indicar que Sí, cometiendo una falsa
alarma (FA).
no
falsa
alarma
rechazo
correcto
acierto
fallo
ESTÍMULO
ruido
RESPUESTAS
señal
sí
Figura 6.6
Matriz de confusión
Las posibilidades de análisis e interpretación de la matriz de confusión
es mayor en este marco conceptual que en el esquema de la teoría clásica.
Así podemos apreciar intuitivamente que hay elementos de la matriz de
confusión que pueden relacionarse (A y FA; F y RC). Lo que es verdaderamente importante en este nuevo enfoque es que la tarea de detección implica dos procesos, uno basado en lo sensorial y otro basado en la decisión. El
esquema completo se refleja en la Figura 6.7.
213
Percepción
ESTÍMULO
PROCESO 1
PROCESO 2
RESPUESTA
señal o ruido
SENSORIAL
DECISIÓN
sí o no
observación
Figura 6.7
Procesos implicados en la detección de un estímulo
Fechner asumía que la respuesta del sujeto reflejaba directamente, de
forma pura, el valor de O (observación); sin embargo, a partir de lo anteriormente expuesto, la investigación ha evidenciado que el sujeto en función de sus expectativas, sus actitudes, etc., puede contaminar su decisión.
A pesar de ello no todas las teorías que admiten el esquema anterior están
de acuerdo en el funcionamiento de estos procesos y el modo en que se relacionan los mismos con las tasas obtenidas en la matriz de confusión. Por
tanto, frente a la postura de Fechner las teorías modernas del umbral admiten la existencia de una fase de decisión previa a la respuesta en un juicio
psicofísico. En lo que difieren es en la localización del umbral y en el número de umbrales sensoriales.
La teoría del umbral alto (Blackwell, 1963) mantiene que si se traspasa
el umbral se producirá sensación, dándose ausencia de la misma en caso
contrario. Se llama teoría del umbral alto porque supone que el umbral está
localizado muy a la derecha de la distribución del ruido. Frente a este planteamiento, y ante los problemas planteados por alguna de sus predicciones,
surgieron las teorías del umbral bajo (Luce, 1963) que asumen que el umbral se localiza más a la izquierda de la distribución del ruido. Este umbral
es traspasado un número de veces significativamente mayor a lo planteado
por las teorías anteriores y responde más a la realidad de la evidencia práctica. En realidad la teoría propuesta por Blackwell (1963) puede considerarse como una posibilidad que puede contemplarse en la teoría expuesta por
D. Luce.
Una tercera vía es la teoría del doble umbral que postula dos tipos de
umbral, uno alto y otro bajo, lo que implica tres estados en la actividad
mental: si la intensidad es alta daría como resultado la sensación; si es baja
no produciría la sensación, y cabría un tercer estado de incertidumbre cuando el estímulo presenta valores de intensidad intermedia. Aunque estas modificaciones de la teoría clásica han supuesto, en algunos casos, ventajas
explicativas y predictivas, continúa estando presente la polémica de fondo
en torno al concepto de umbral. Vamos a analizar un nuevo desarrollo que
214
6. Psicofísica: concepto, método y aplicaciones
prescinde del concepto de umbral: la Teoría de Detección de Señales
(TDS). En realidad esta teoría es una reconceptualización a los problemas
planteados por la teoría del umbral alto. Sin embargo, y a pesar de los múltiples problemas expuestos, el concepto de umbral sigue siendo útil en la
investigación psicofísica pero como variable dependiente, ya que el uso que
ha hecho la psicofísica clásica como variable interviniente plantea innumerables objeciones.
2.2.2 Teoría de Detección de Señales: supuestos y parámetros
fundamentales
La Teoría de Detección de Señales (TDS) tiene su fundamentación básica
inicial en el campo de la ingeniería y en la investigación matemática desarrollada en el contexto de la detección de señales electromagnéticas. La
fusión o el interés de aplicación en el terreno psicológico se explica por las
controversias en torno al concepto de umbral y la búsqueda de alternativas
al mismo. Las primeras aplicaciones en nuestro campo se deben a Tanner y
Swets que llevaron a cabo investigaciones psicofísicas de percepción visual
en la Universidad de Michigan. A esta aportación pionera habría que añadir
los intentos anteriores de Thurstone con su ley del juicio comparativo donde parecía posible una psicofísica sin umbrales sensoriales.
La TDS diferencia dos procesos o componentes en la detección de un
estímulo por parte del sujeto: a) el componente o proceso sensorial que
consiste en múltiples valores de sensación con una determinada probabilidad de producirse tanto para la S como para el R; b) el componente o proceso de decisión que depende de los mecanismos internos del sujeto (motivaciones, expectativas, etc.). El esquema básico en un juicio psicofísico
desde esta conceptualización se representa en la Figura 6.8.
El primer proceso (sensorial) incluiría la acogida de la estimulación por
los receptores periféricos con la correspondiente transducción en impulso
nervioso y su conducción aferente a las áreas de recepción cortical específica. A pesar de que la actividad neural es compleja y que el mismo estímulo (S o R) no produce siempre el mismo efecto sensorial (hay gran variabilidad debido a los múltiples factores intervinientes tanto internos como
externos) se asume que las dos condiciones de estímulo (S o R) tienen sus
correspondientes distribuciones de probabilidad. A diferencia de la teoría
clásica que asumía dos estados, la TDS es una teoría multiestado, ya que el
resultado del proceso sensorial no es únicamente dual (consciente-no consciente) sino que plantea numerosos estados posibles.
El segundo proceso que complementa el juicio psicofísico es el de decisión, que está determinado por dos tipos de variables: a) la memoria que en
términos de la TDS sería la probabilidad de S o de R; b) otras variables
cognitivas que se representarían por las motivaciones, actitudes y otras in-
215
Percepción
Proceso
sensorial
Estímulo
Observación
Decisión
Memoria
Motivación
Comparación
SÍ
Figura 6.8
NO
Modelo explicativo de la TDS (adaptado de Blanco, 1996).
formaciones de que disponga el sujeto en la situación concreta, aparte de
las consecuencias que puedan derivarse de la misma.
De lo expuesto se deduce que la TDS es útil siempre que la actuación
del sujeto no sea totalmente correcta, es decir, que haya una zona de confusión entre las distribuciones de S y de R ya que en caso contrario (que el
sujeto no cometa errores) no nos da ninguna información relevante de la
actuación del observador.
Existen varios paradigmas experimentales para la TDS; siguiendo a Ballesteros y Reales (1995a) se pueden agrupar en cinco:
a)
Diseños de un intervalo. Son los más sencillos y es el modelo que
vamos a desarrollar. Se presenta en cada ensayo un estímulo que
puede pertenecer a la distribución de la Señal (S + R) o del Ruido
(R), siendo la tarea del observador determinar cuál de ellos se ha
presentado.
b) Análisis no paramétrico. Es un tipo de diseño igual al primero pero
a diferencia del anterior no se asume la distribución gausiana de la
señal y del ruido. Los supuestos de partida son distintos ya que este
tipo de análisis se realiza en la teoría del umbral alto y en la teoría
del doble umbral alto. Siempre que sea posible es preferible el diseño anterior.
216
6. Psicofísica: concepto, método y aplicaciones
c)
Experimentos de valoración. En estos experimentos el sujeto además de indicar si el estímulo presentado pertenece a la señal o al
ruido debe expresar la confianza que le merece su respuesta a través
de una escala de distintos niveles (muy seguro que se ha presentado
S, poco seguro que se ha presentado S, etc.).
d) Diseños de elección forzada. Todos los diseños anteriores son de un
intervalo. En este tipo de diseños se presentan dos clases de estímulos en cada ensayo, pudiendo variar el número de alternativas de
respuesta. La tarea del observador es informar del orden en que se
han presentado los estímulos. Hay dos variantes:
— Diseños 2ACF: en este tipo las dos alternativas de respuesta están siempre presentes en cada ensayo del experimento, ya sea
temporal o secuencialmente. El sujeto tiene que informar sobre
el orden en que aparecen los dos estímulos.
— Diseños mACF: son variaciones del anterior. En estos experimentos las dos clases de estímulos se presentan en un orden
aleatorio, pero el número de posibles respuestas es superior a
dos, es decir, m.
e) Diseños igual/diferente. En estos experimentos se presentan al observador un par de estímulos en cada ensayo y se le pide simplemente que indique si son iguales o diferentes entre sí. También
dentro de este tipo de diseños hay dos modalidades: los diseños
igual/diferente fijos y los diseños igual/diferente volantes. La diferencia entre ambos es que en el primero sólo se presentan dos estímulos que se repiten a lo largo de todo el bloque de ensayos, mientras que en el segundo existen más de dos estímulos.
Dadas las posibilidades de este modelo vamos a centrarnos en el primero ya que ha sido el que ha generado mayor investigación y es el más
representativo de la TDS. En el diseño SI/NO presentamos 2 tipos de estímulos: la señal (S + R o S) y el ruido (R). El experimentador determina la
frecuencia de presentación de cada estímulo, es lo que se denomina probabilidades a priori. Si se presentó en la mitad de ensayos la señal, y en la
otra mitad de ensayos el ruido, la probabilidad a priori sería de 0,50 en
cada caso, luego la razón de probabilidades a priori se expresaría por el
cociente de ambas:
RPP = P(S)/ P(R) = 0,50/0,50 = 1
Las probabilidades condicionadas resultan de la distribución de probabilidad de los valores de sensación asociados a la S y al R. Recuerde que de
la matriz de confusión obtenemos cuatro posibilidades: aciertos, pérdidas,
falsas alarmas y rechazos correctos. Los dos valores más importantes son
los aciertos y las falsas alarmas, ya que estas dos posibilidades son inde-
217
Percepción
pendientes una de otra; de hecho, la matriz de confusión sólo tiene dos grados de libertad y por ello se trabajará en adelante con estos dos valores (la
tasa de fallos y de rechazos correctos podemos conocerlas a partir de los
datos de aciertos y falsas alarmas). Por tanto las probabilidades condicionadas para aciertos y falsas alarmas resultaría de: P (Sí/S); P (Sí/R).
En el caso de que, realizada la aplicación experimental, se hubiesen obtenido 21 aciertos y cinco falsas alarmas con 50 ensayos (25 pertenecientes
a la señal y 25 al ruido), la probabilidad condicionada de aciertos sería de
0,84 y la de falsas alarmas de 0,2. En este supuesto el 80 por ciento de las
veces que se presentó la señal el sujeto realmente la detecta (P: aciertos auténticos), ya que P se obtiene de aplicar el algoritmo:
P = (PAC - PFA) /(1 - PFA)
La medida de sensibilidad en la TDS es el índice d´y se define como la
distancia entre las distribuciones de la señal y el ruido. Este índice se presenta en puntuaciones z y es la diferencia en unidades típicas entre aciertos
y falsas alarmas [d´ = z (aciertos) - z (falsas alarmas)]. Cuanto mayor sea la
distancia entre ambas distribuciones indica mayor capacidad de discriminar
entre ambos estímulos, es decir, mejor sensibilidad. La carencia de sensibilidad, por contra, se manifestará en una menor distancia entre ambas distribuciones, menos diferencia entre tasa de aciertos y falsas alarmas. En el
ejemplo señalado obtendríamos una d´ = 1,8 cuya representación gráfica
aparece en la Figura 6.9.
Figura 6.9
Representación gráfica del índice d´
La separación de casi dos unidades típicas entre las distribuciones de la
señal y el ruido se explica por la alta tasa de aciertos y la baja proporción
de falsas alarmas obtenidas, lo que indica que el sujeto discriminó entre
ambos estímulos. En cambio si la tasa de aciertos hubiese sido de 0,61 y la
de falsas alarmas de 0,46 la d´ resultante tendría un valor de 0,4, lo que significaría que la distribución de la señal estaría más próxima a la del ruido,
218
6. Psicofísica: concepto, método y aplicaciones
indicando que la sensibilidad del sujeto es inferior para discriminar entre
ambos estímulos.
Obtenida la sensibilidad, la TDS nos permite determinar el sesgo de respuesta a través del criterio utilizado por el sujeto (índice c). Esta teoría supone que el criterio óptimo es el punto de corte de las distribuciones de la
señal y el ruido (PMC), de tal forma que el sujeto decide que el estímulo
presentado es la señal cuando la observación se sitúe a la derecha del punto
de corte establecido por el criterio (c). En cambio responderá que la sensación suscitada corresponderá al ruido cuando no se produzca la situación
anteriormente expuesta.
El criterio o medida del sesgo de respuesta se obtiene aplicando el algoritmo: c = –0,5 [ z (aciertos) + z (falsas alarmas)]. Para el ejemplo propuesto el resultado es de –0,1 lo que significa que se coloca a la izquierda del
punto donde se cortan ambas distribuciones (punto medio de confusión
o PMC). Observe que este índice es distinto del de la sensibilidad ya que
d´ depende de la capacidad de discriminación, mientras que c depende de
variables motivacionales o personales del observador. Por esta razón, como
se puede observar en la Figura 6.10, para el índice d´ la localización del
punto de máxima altura de la distribución del ruido corresponde a z = 0 y a
partir del resultado obtenido se situará la distribución de la señal. En cambio, la localización del criterio parte como punto inicial del PMC y en función del resultado concreto se situará a la derecha (si el valor es positivo) o
a la izquierda (si es negativo). En el primer caso correspondería a un criterio conservador, la tendencia sería a decir no (ruido), mientras que en el segundo se caracterizaría por un alto número de respuestas sí (se ha presentado la señal) lo que indica un criterio de respuesta bajo o liberal.
Existen otros índices complementarios que nos informan del sesgo de
respuesta como son el criterio de localización relativa (c´) y la razón de
probabilidades (ß). El primero evalúa la magnitud de la distancia entre el
Figura 6.10
Representación gráfica de los índices c y ß
219
Percepción
criterio y el PMC teniendo en cuenta el valor de sensibilidad (d´). El segundo, la razón de probabilidades ß se basa en la comparación de las alturas
poseídas por las distribuciones de la señal y el ruido allí donde son cortadas
por el criterio de respuesta (para determinar su cálculo véase Cabaco y
Arana, 1997). Como puede apreciarse en la Figura 6.10 y dado que este último índice se obtiene del cociente entre la altura de la señal (YS) y la altura
del ruido (YR) siempre que YS<YR corresponderá a sujetos arriesgados o liberales. En el caso de que el criterio hubiese sido + 0,1, YR e YS se situarían a la derecha del PMC y los resultados se invierten, es decir YR<YS. Por
último, si se diese el caso que la proporción de fallos y falsa alarmas es la
misma el criterio tiene valor 0 y se situaría en el PMC. Lógicamente, esta
falta de sesgo o de ausencia en la tendencia del observador a priorizar una
respuesta sobre la otra, nos lo indicaría el parámetro ß ya que YR = YS, resultando como valor del cociente 1.
Otro de los supuestos básicos de la TDS es que el sujeto mantiene una
sensibilidad constante cuando discrimina la señal y el ruido, pudiendo variar su criterio de respuesta bien por su propia voluntad o por las consecuencias (matriz de pagos o recompensas diferenciales que puede utilizarse
para reforzar un tipo de respuesta concreta). Si representamos en el eje de
ordenadas la proporción de aciertos y en el eje de abscisas la de falsas alarmas, manteniendo la sensibilidad constante, obtenemos una curva ROC
(Curva Operativa de Respuesta) como la que aparece en la Figura 6.11, con
los datos del ejemplo que venimos analizando. Como en nuestro caso la
tasa de aciertos fue alta (0,84) y la de falsas alarmas pequeñas (0,2), la curva se separa de la diagonal (donde ambas tasas serían iguales y por lo tanto
d´ = 0). La predicción de la teoría se cumple ya que cuanto más abombada
es la curva mejor es la discriminación.
Figura 6.11
220
Representación gráfica de la curva ROC
6. Psicofísica: concepto, método y aplicaciones
La curva ROC o COR también se conoce como curva de iso-sensibilidad; dado que todos los puntos de la curva muestran una sensibilidad o discriminación constante, lo que varía a lo largo de la misma es el criterio:
conservador (baja tasa de aciertos) o liberal (mayor tasa de aciertos). La
localización de ambos a lo largo del continuo se ubicaría hacia el eje de ordenadas en el primer caso y separándose hacia el extremo de la diagonal en
el segundo. Por lo tanto distintas curvas muestran grados de sensibilidad diferentes, siendo, como hemos señalado, mejor la discriminación aquella
que se separe más de la diagonal, ya que implica una d´ mayor.
Señalemos para finalizar que, a pesar de la revolución que supuso en su
momento esta teoría y las grandes aplicaciones que está generando, quedan
cuestiones abiertas a la conjetura. La primera es que los índices se basan en
asumir los supuestos de normalidad y homocedasticidad, lo cual en algunas
situaciones es una suposición arriesgada. En segundo lugar, se supone que
el comportamiento del sujeto es estacionario, es decir, la respuesta a un ensayo es independiente a la respuesta emitida en ensayos anteriores. Sin embargo, la evidencia experimental demuestra que, en algunas situaciones, se
produciría dependencias secuenciales, por ejemplo el decremento de la vigilancia en función del número de ensayos. En cualquier caso, si como señala Jáñez (1992) una buena teoría es la que es capaz de reactivar la investigación y estimular el desarrollo en algunas parcelas del conocimiento, sin
duda la TDS lo ha conseguido, como veremos en el apartado siguiente.
2.2.3 Aplicaciones de la TDS
La TDS, en la medida que diferencia los dos componentes que conforman
el juicio perceptivo, permite evaluar separadamente ambos conceptos y ha
suscitado interés en otros campos aplicados más allá del ámbito de la percepción. Con la restricción señalada en el apartado anterior (que la actuación del observador no sea perfecta), los nuevos ámbitos en los que se ha
utilizado abarcan todo el campo de los procesos psicológicos básicos, la
psicología industrial, la psicología clínica, etc., es decir, en todas aquellas
tareas o conductas donde el sujeto tenga que poner en marcha mecanismos
de detección o decisión. Vamos a describir brevemente algunos de estos
nuevos ámbitos para ofrecer una panorámica de la utilidad de esta teoría.
En el campo clínico un trabajo representativo de la utilidad de la TDS es
el llevado a cabo por Clark y Yang (1974) sobre la percepción del dolor. Se
plantearon si los efectos de la acupuntura se debían a un cambio en la sensibilidad al dolor o a un aumento en la tolerancia, es decir, un criterio de respuesta más conservador. El procedimiento experimental consistía en insertar
agujas en uno de los brazos de cada sujeto para provocar analgesia funcional, y posteriormente se les sometía a estimulaciones dolorosas en ambos
brazos. Los resultados mostraron que la respuesta al dolor en el brazo some-
221
Percepción
tido a la acupuntura fue inferior que en el otro, sin embargo no había diferencias en la sensibilidad o discriminabilidad de los estímulos. Esto implica
que lo que se produjo fue un cambio en el criterio de respuesta, estableciendo un criterio más estricto, en uno de los dos brazos.
Otra aplicación más reciente, en este mismo ámbito, es la de Rietveld y
Prins (1998) sobre la percepción de síntomas físicos en sujetos asmáticos
crónicos. Plantean, en primer lugar, las diferencias entre síntomas subjetivos y objetivos relativos a la enfermedad y describen el proceso perceptivo
de estos síntomas. A continuación aplican la TDS para diferenciar ambos
tipos de síntomas, analizando las diferencias entre conciencia correcta de
un síntoma y de una sensación normal frente a las formas de conciencia
falsa de los síntomas y de las sensaciones fisiológicas normales.
Otros trabajos que están utilizando este paradigma son el de Kemperman et al. (1997) con pacientes que presentaban un desorden bordeline de
personalidad para determinar diferencias en el dolor percibido frente a sujetos normales, o el de Losier, McGrath y Klein (1996) en muestras de niños con ADHD (déficit de atención con hiperactividad). Estos autores encuentran que estos sujetos tienen criterios de respuesta semejante a los
normales, siendo en cambio significativamente inferior su sensibilidad, dimensiones confusas en trabajos anteriores basados exclusivamente en evaluar la sensibilidad mediante procedimientos psicofísicos indirectos.
Son varios los estudios en el ámbito de los procesos psicológicos básicos, especialmente en el estudio de la memoria. Arnau y Pelegrina (1988)
utilizan medidas derivadas de la TDS junto al tiempo de reacción (TR) en
tareas de discriminación y reconocimiento de palabras. Stephaneck (1987)
aplica el paradigma de la TDS para determinar qué condición (memorizar
unos pocos items con varios atributos frente a varios items con un único
atributo) provoca peores resultados en la memoria. Sobre esta temática es
importante tener en cuenta los problemas o limitaciones en la aplicación de
esta teoría al campo de la memoria, una excelente revisión puede verse en
Lecocg (1981a, 1981b). Otras aplicaciones han usado la TDS para abordar
la diferenciación entre recuerdo y reconocimiento (Gardiner y Gregg,
1997); para evidenciar la existencia de la memoria a corto plazo de carácter
olfativo (White y Treisman, 1997); para determinar las diferencias en ejecución mnésica y criterio de respuesta en pacientes afectados de Alzheimer
(Bartok et al., 1997) o depresivos (Brelion, Smith y Wildlocher, 1997); o
para abordar el análisis de algunas funciones cognitivas en animales (Marston, 1996).
Por último, dos recientes obras: la primera, de Swets (1998), describe
aplicaciones potenciales y reales de la TDS a problemas de diagnóstico individuales y sociales de gran importancia. Las discriminaciones que posibilitan esta teoría serían aplicables, según el autor, para mejorar los diagnósticos
de sida, cáncer o próstata, y además plantea la utilidad en otras áreas tecnológicas (fatiga mental en vuelos, decisiones en condiciones de peligro, etc.).
222
6. Psicofísica: concepto, método y aplicaciones
La segunda, también coordinada por este autor (Swets, 1996) titulada
Teoría de Detección de Señales y Análisis ROC en psicología y diagnóstico: colección de artículos, se centra en el análisis de la detección y reconocimiento, áreas que subyacen en la mayoría de los comportamientos complejos. Estructurada en tres apartados revisa, en primer lugar, la teoría de la
TDS, los datos aportados por la investigación y los medios utilizados. En la
segunda parte se centra en la exactitud y la eficacia de los diagnósticos,
para abordar, en el tercer bloque, distintos ámbitos diagnósticos. Incluye
además un apéndice con programas de computadora para adaptar curvas
ROCs.
3. Cuantificación de la magnitud perceptiva
La cuantificación de la magnitud perceptiva se ha intentado establecer empíricamente a través de las leyes psicofísicas. Estas leyes determinan la relación entre los continuos físicos y los psicológicos o percibidos, y la búsqueda de una ecuación matemática que describa esta relación ha sido, en
buena parte, la propia historia de la psicofísica.
En líneas generales, dos han sido las soluciones propuestas a este interrogante: la ley de Fechner que propone una relación logarítmica, y la ley
de Stevens que postula una relación de tipo potencial o exponencial. Dado
que constituyen los dos grandes momentos históricos del desarrollo de esta
disciplina, vamos a abordar detenidamente los planteamientos de ambas
propuestas.
3.1
Psicofísica clásica: la ley de Fechner
3.1.1 Antecedentes y formulación
El intento de Fechner de expresar empíricamente la relación funcional entre
el mundo físico y el mundo psicológico le llevó a establecer la primera ley
de la psicofísica. Para conseguir este objetivo necesitaba medir de alguna
forma el correlato psicológico de la estimulación provocada por el estímulo, de forma análoga a las medidas disponibles para el mundo físico. La
metodología utilizada fue el diseño de los procedimientos psicofísicos clásicos o indirectos, desarrollados en el apartado anterior. A través de estos
métodos (límites, ajuste, etc.) medía, de forma indirecta, la magnitud de la
sensación.
Sin embargo para formular su ley Fechner se basó en los trabajos de otro
autor, Ernst Heinrich Weber, quien había descubierto que percibimos cambios relativos al captar la intensidad de los estímulos. La fracción establecida por este autor, que lleva su nombre, afirmaba que el valor absoluto de
223
Percepción
una DAP (diferencia apenas perceptible) aumenta en relación a la magnitud
del estímulo, aunque el valor relativo de la DAP permanece constante. La
formulación matemática es:
K = DAP/IE, ( K = UD/ IE )
Donde K es la constante (el aumento en la proporción constante de la
magnitud del estímulo) y para que se produzca un cambio de sensación, el
valor de esta constante tiene que ser igual a la fracción del valor de la DAP
o UD por la magnitud física del estímulo. Por tanto, sustituyendo en la
fórmula anterior tenemos que DAP = K * IE. Si dos observadores han obtenido como resultado una DAP de 6 y 60 unidades, aunque el valor del estímulo sea distinto (p. ej. 100 y 1000), tendríamos un valor K o fracción de
Weber constante:
— Sujeto 1: K = DAP/IE = 6/100 = 0,06
— Sujeto 2: K = DAP/IE = 60/1000 = 0,06
Sin embargo, además de que esta fracción es diferente para cada modalidad sensorial, sólo se cumple cuando el estímulo tiene valores medios, ya
que cuando éste adquiere valores extremos (umbral terminal —intensidad
de la estimulación que comienza a ser nociva para el sujeto— o umbral absoluto —mínima intensidad capaz de provocar conciencia de sensación—)
la función de Weber no se cumple. Con estos precedentes y a partir de estos
trabajos, Fechner formuló la ley que lleva su nombre, donde se establece
una relación matemática entre la dimensión psicológica (magnitud percibida) y la dimensión física (intensidad del estímulo). El algoritmo es el siguiente:
P = K × log.I
donde P (magnitud percibida) es igual a una constante (K) multiplicada por
el logaritmo de la intensidad física del estímulo (log. I).
Si queremos saber si al duplicar la intensidad de un sonido éste parece el
doble de sonoro, planteamos hipotéticamente que K = 1 y la intensidad del
estímulo es 100 (valor de I). Aplicando la ley anterior tenemos que P = 2,
dado que el logaritmo de 100 es 2 (recuerde que el logaritmo de un número
es la potencia a la que ha de elevarse 10 para ser igual a dicho número). Al
duplicar la intensidad (I = 200) obtenemos que P = 2,3. Por lo tanto, en este
caso, el duplicar físicamente la intensidad de un estímulo no se corresponde con una duplicación en la magnitud de la sonoridad percibida del mismo. Según esta ley, la intensidad percibida aumenta en progresión aritmética (3,5,7) mientras que la intensidad del estímulo debe aumentar en
progresión geométrica (3,6,12).
224
6. Psicofísica: concepto, método y aplicaciones
3.1.2 Desarrollos y límites
Hay que reconocer a Fechner el haber logrado establecer una función psicofísica, es decir, asignar valores o cuantificar tanto los estímulos como las
correspondientes sensaciones. A través de los métodos psicofísicos indirectos, por él desarrollados, determinó las dos únicas propiedades que se puede cuantificar de las sensaciones: la presencia o ausencia de la misma (UA)
y las diferencias en intensidad (UD). A partir de los umbrales, Fechner desarrolló la primera ley psicofísica expuesta en el apartado anterior. La influencia de la misma ha sido enorme, durante bastante tiempo, tanto en el
terreno de la psicofísica como en otros campos aplicados al diseño de instrumentos y aparataje con componentes visuales y auditivos. El propio
Fechner (1860) estaba tan convencido de la solidez de su construcción psicofísica que veía muy difícil plantarle críticas o alternativas.
Sin embargo, Fechner basó la formulación de su función psicofísica
(Blanco, 1996) en dos leyes anteriores (Weber y Ekman), un supuesto (la
sensación correspondiente al UA es 0), y un principio matemático (lo que
es válido para pequeñas magnitudes también lo es para magnitudes infinitesimales). En primer lugar la ley de Weber, que afirmaba que la diferencia
apenas perceptible (DAP) es una fracción constante de la intensidad del estímulo, según distintos trabajos experimentales no es correcta ya que esta
ley sólo se cumple con intensidades estimulares intermedias, no manteniéndose cuando la intensidad del estímulo es muy baja (próxima al UA) o muy
alta (próxima al umbral terminal). En segundo lugar, el resto de supuestos
asumidos sólo son válidos en según qué condiciones y de acuerdo a determinadas combinaciones (para una explicación más completa véase Blanco,
1996). Por tanto, parece que si la ley estaba basada en premisas incorrectas
no puede ser válida.
Sin embargo la formulación de Fechner se asentó en la psicofísica académica y en el campo aplicado, a pesar de otras formulaciones alternativas
(Plateau, Delboeuf y Herring), hasta que a partir de la tercera década de
este siglo se cuestionan dos de los elementos centrales de la psicofísica clásica: a) fiabilidad e independencia de los juicios psicofísicos, y b) métodos
piscofísicos directos vs. indirectos. El primero se centra en señalar que las
respuestas de los sujetos no están determinadas únicamente por las características físicas del estímulo sino que el perceptor añadía o contaminaba su
decisión con determinados sesgos o tendencias de respuestas. El segundo,
cuestiona el abordaje metodológico indirecto de la medida de las sensaciones y plantea nuevas alternativas de medida directa. Fruto de esta nueva línea y del trabajo del autor más destacado, Stevens, surge la nueva ley general de la psicofísica o ley potencial.
225
Percepción
3.2
Psicofísica moderna: la ley de Stevens
3.2.1 Ley potencial: metodología y conceptualización
Con el giro producido en la investigación y debido también al planteamiento de la nueva psicofísica, el problema o la cuestión central es de qué forma
podemos obtener medidas directas de las sensaciones, ya que a diferencia
del enfoque indirecto de Fechner, el trabajo de Stevens se desarrolla midiendo directamente las sensaciones, es decir, asignándoles un valor numérico a las mismas. Para llevar a cabo esta tarea Stevens utilizó básicamente
tres métodos que de forma breve exponemos a continuación:
a)
Estimación de magnitudes y razones. Este método requiere que los
observadores asignen números directamente en proporción a sus
magnitudes subjetivas. Si el estímulo modelo tiene un valor de 1 y
el siguiente que se presenta le parece el doble le asignaría un 2; en
el caso que le parezca la mitad le asignaría como valor 0,5. Para estimar razones, la presentación de los estímulos base y de comparación es conjunta, siendo la tarea del sujeto informar de la razón
existente entre las intensidades de ambos estímulos.
b) Producción de magnitudes y de razones. La lógica de este método
es la inversa del anterior, es decir, a partir de un valor numérico el
sujeto tiene que ajustar las magnitudes de los estímulos a estos valores de sensación. Para realizar un experimento con producción de
razones, se presenta el estímulo base y el sujeto tiene que manipular
el de comparación hasta que se produzca una razón de sensación establecida previamente.
c) Ajuste entre modalidades. Esta teoría es así denominada porque el
sujeto tiene que emparejar la magnitud percibida de un estímulo de
una modalidad sensorial con la de otro estímulo de modalidad sensorial diferente, por ejemplo equiparar la sonoridad de un tono con
la longitud de unas líneas. La técnica de ajuste entre modalidades
permitía salvar las críticas realizadas a los métodos de estimación,
ya que se argumentaba que estos experimentos nos informaban más
de la forma en que las personas utilizan los números que de las características sensoriales de los estímulos que se les pedía juzgar.
A partir de la utilización de esta nueva forma de abordar la medida de la
sensación, Stevens comprobó que los resultados empíricos no se ajustaban
a la ley logarítmica expuesta por Fechner, sino que seguían una ley o función potencial. Plateau (1872) propuso que la magnitud perceptiva era proporcional a una potencia del estímulo físico, es decir, que el aumento del
continuo psicológico respecto al físico se producía en base a una función
potencial, no logarítmica. Sin embargo, este planteamiento, predecesor de
226
6. Psicofísica: concepto, método y aplicaciones
Magnitudes percibidas
M. percibidas (escala logarítmica)
la ley de la potencia de Stevens, cayó en un cierto olvido hasta que el programa de investigación de este autor, de casi cuatro décadas, planteó una
alternativa para sustituir la ley de Fechner. Stevens (1957) estableció además una distinción entre los continuos perceptivos protéticos (se refieren al
“cuanto” de la sensación) frente a los metatéticos (se refieren a “qué clase”), y señaló que el supuesto de Fechner de la igualdad de la DAP puede
cumplirse en los continuos o dimensiones metatéticas pero nunca en los
protéticos.
Si observamos la Figura 6.12 podemos observar que, con los tres tipos
de estímulos utilizados, los resultados son bastante diferentes. La estimación de la magnitud que realizan los observadores para determinar la percepción visual de la velocidad, el brillo de una luz, o las sensaciones gustativas, producen resultados opuestos. Para el primer estímulo (velocidad), la
curva muestra expansión de respuesta, es decir, la duplicación de la intensidad física produce un aumento superior en el plano psicológico. En el tercer estímulo el resultado es inverso, la curva muestra comprensión de respuesta, es decir, que al duplicar físicamente la intensidad de la luz ésta no
se percibe como el doble de brillante. Por último, en el segundo estímulo
(gusto) la curva adopta una forma casi lineal, lo que implica que los aumentos físicos son recogidos de forma casi lineal desde el punto de vista
psicológico o perceptivo. Además, si representamos los datos de la figura
anterior en coordenadas logarítmicas la función potencial se expresa en una
línea recta cuyo exponente determina la pendiente de la misma.
Magnitudes físicas
Figura 6.12
M. físicas (escala logarítmica)
Relación entre magnitudes físicas y percibidas (adaptada de Munar, 1997).
Por lo tanto, a partir de un conjunto amplio de trabajos, Stevens llegó a
la conclusión de que la magnitud percibida es proporcional a la magnitud
física de los estímulos elevada a una potencia, siendo el algoritmo:
P = K × In
227
Percepción
el que expresa esta relación, donde P es la sensación o magnitud percibida,
I es la intensidad del estímulo, K una constante dependiente de las unidades
de medida y n el exponente que depende de la modalidad sensorial específica. En el caso anteriormente planteado el exponente 1 que se producía
con el gusto refleja de forma casi perfecta el postulado de la ley: a proporciones iguales de aumento de la intensidad le corresponden proporciones
iguales de aumento de sensación. Con los otros estímulos la situación se invierte, ya que en el primer caso la percepción visual de la velocidad produce expansión de respuesta porque el exponente es 1,7, en cambio el brillo
de un foco luminoso produce comprensión de respuesta porque el exponente es de 0,4.
A partir de la utilización de las técnicas descritas, Stevens (1960) consiguió determinar en continuos protéticos los exponentes representativos de
funciones potenciales que relacionan la intensidad del estímulo con la magnitud psicológica. Así los exponentes varían desde el 3,5 para la descarga
eléctrica en los dedos, hasta el de 0,55 para el olor del café, pasando por el
1,1 para la presión en la palma de la mano o la duración de un estímulo sonoro.
La ley potencial propuesta por Stevens se conoce también como la ley
general de la psicofísica, ya que incluye a las leyes anteriores de Weber y
Fechner. Según lo postulado por Fechner la relación entre lo físico y lo percibido se basa en que mientras las intensidades físicas aumentan en progresión geométrica lo percibido lo hace en progresión aritmética. Esta situación se cumple cuando el exponente es inferior a 1, por lo tanto la ley
propuesta por Stevens incluye las predicciones particulares de las leyes anteriores.
3.2.2 Evidencia experimental y aplicaciones
Aunque los resultados obtenidos con los métodos de estimación y producción eran básicamente coincidentes, Stevens (1967) desarrolló la técnica
conocida como ajuste o emparejamiento entre modalidades para obviar las
críticas por la utilización de números. Esta técnica, comentada en el apartado anterior, se basa en ajustar la intensidad percibida de un estímulo de una
modalidad con la de un estímulo de otra distinta. El objetivo era establecer
una función de sensación equiparable a las obtenidas para cada una de las
modalidades implicadas en el emparejamiento, cuyo exponente sería resultado de la razón de los exponentes correspondientes a las demás modalidades sensoriales utilizadas.
Los datos aportados por el propio autor y los reflejados por otros investigadores señalan que la mayor parte de las pruebas procedentes de las funciones de sensación equiparable (vibración y sonoridad, fuerza de agarre y
distintos estímulos criterio —calor, frío, luz, descarga eléctrica—, brillo y
228
6. Psicofísica: concepto, método y aplicaciones
otros continuos, etc.) se ajustan a las predicciones establecidas en la ley potencial. Además, frente a las explicaciones alternativas de los resultados
propuestos por otros autores (Warren, 1973) de que la función potencial refleja lo que los sujetos han aprendido asociando un aspecto conocido del
estímulo con las impresiones sensoriales, es difícil aceptarlos desde el número tan amplio de dimensiones abarcadas y la ausencia de familiaridad o
aprendizaje que tienen los observadores en algunos de los continuos sensoriales estudiados.
Por último señala que el hecho de que se haya evidenciado la reciprocidad entre el atributo de un estímulo y su contrario da mayor consistencia a
la teoría. Así, se ha comprobado el fenómeno con la longitud de líneas
(función potencial de 1,0 para las largas y de –0,97 para las cortas), con el
tamaño de cuadrados (funciones potenciales de 0,62 y –0,72 para el tamaño
grande y pequeño respectivamente). Los resultados muestran que si la magnitud percibida de un estímulo es una función potencial de la intensidad del
estímulo, el atributo contrario o inverso también será una función potencial
de la intensidad con un exponente igual pero de signo distinto (Stevens y
Guirao, 1963).
En lo que se refiere a las aplicaciones de la ley potencial de Stevens, éstas han permitido una amplia variación en las escalas psicológicas para los
distintos estímulos físicos. Los fenómenos de comprensión y expansión de
respuesta quizás tengan un carácter adaptativo para el organismo, ya que de
esta forma se defiende o se pone en estado de alerta ante los estímulos más
nocivos (dolorosos), y evita también la sobrecarga del sistema de procesamiento de aquellos estímulos frecuentes (visuales o auditivos) a los que estamos expuestos de forma continua y que varían en un rango significativamente muy amplio. Las implicaciones prácticas de la ley se reflejan, por
ejemplo, en la adopción por parte de la Organización de Medidas Internacionales de las funciones obtenidas en algunos continuos físicos, para emplearlos en cálculos de ingeniería y diseño de aparataje.
De lo dicho hasta aquí parecería deducirse que la ley potencial es la alternativa definitiva en lo que se ha dado en denominar la nueva psicofísica.
Sin embargo esta impresión no es del todo cierta, ya que se han planteado
algunas cuestiones que quedan pendientes de resolver. Un primer grupo de
críticas podrían agruparse bajo el epígrafe de dependencias (metodológicas
e individuales). Así, aparecen discrepancias entre las predicciones de la
teoría y los resultados experimentales de algunas investigaciones cuando se
han producido variaciones metodológicas (los distintos métodos —estimación o producción—, secuencia del estímulo modelo con los de comparación, intervalo de valores del estímulo, contexto de presentación, etc.) y de
carácter individual (variables cognitivas, experiencia o familiaridad y sesgo
de respuestas).
Tampoco las pruebas neurofisiológicas parecen ser la respuesta definitiva al dilema de fondo, es decir, el espaldarazo o reconocimiento de la fun-
229
Percepción
ción logarítmica o la potencial. La ambigüedad neurofisiológica a nivel periférico no permite establecer con claridad ninguna de las funciones aludidas, es decir, la proporción del impulso de la descarga neural en función de
la intensidad del estímulo. Incluso, aunque se pudiera determinar la frecuencia de descarga neural y la función correspondiente (logarítmica o exponencial) para cada modalidad sensorial, quedaría pendiente por resolver
la influencia de los procesos cognitivos superiores en la construcción del
juicio psicofísico. Y este problema vuelve a plantear la vieja discusión entre la teoría del umbral sensorial frente a la medición de umbrales de respuesta. La circularidad de los debates dentro de la psicofísica son patentes,
por lo que cabría preguntarse si existen visos de superar esta encrucijada. A
ello dedicaremos las reflexiones finales en el próximo apartado.
4.
La teoría psicofísica y el estudio de la percepción
4.1
Aplicaciones psicofísicas del tiempo de reacción (TR)
Hasta este punto de la exposición hemos abordado el problema de la detección y de la discriminación en situaciones de una cierta incertidumbre, donde los sujetos podían cometer errores en sus juicios psicofísicos. En este
apartado vamos a ocuparnos de la utilidad del tiempo de reacción (TR)
cuando lo que nos interesa es medir el tiempo de detección de unas determinadas características del estímulo o de discriminar señales que no se solapan con distribuciones del ruido, es decir, que, aplicando los parámetros
clásicos de la TDS por ejemplo nos diera índices de sensibilidad extremos
(d’ = 6). En este caso, ante tres señales que el sujeto discrimina perfectamente quizás puede resultar de interés comparar las características diferenciales de las discriminaciones. De esta forma podemos comprobar los TR
diferenciales entre S1 y S2 , S2 y S3 , y S3 y S1 , para determinar tanto los intervalos de detección como de discriminación. Así, en este tipo de situaciones los métodos anteriormente expuestos resultarían totalmente ineficaces,
siendo más adecuado la utilización de técnicas basadas en el TR.
Los tres paradigmas básicos en el TR presentan utilidades en alguno de
los campos aplicados de la psicofísica, desde el más sencillo (TR simple,
una respuesta a un solo estímulo) hasta los más sofisticados: el TR disyuntivo (varias respuestas a distintas señales posibles) y el TR selectivo (ante
varios estímulos sólo hay que responder a uno previamente especificado).
El TR como técnica de análisis de los procesos mentales implicados en la
adquisición de información, procesamiento y elaboración de la respuesta ha
tenido dos grandes tendencias históricas. La primera centrada en cuantificar la duración de los procesos mentales implicados en una tarea (método
sustractivo de Donders) y la segunda interesada en describir la naturaleza
de estos procesos internos (método de los factores aditivos de Sternberg).
230
6. Psicofísica: concepto, método y aplicaciones
La otra perspectiva que ofrece el TR en psicología, en general, y en aplicaciones psicofísicas, en particular, ha sido el considerarlo como variable
dependiente. La literatura es bastante extensa sobre la influencia de distintos factores en el resultado final del TR (intensidad del estímulo, tiempo de
espera, similitud de los estímulos presentados, criterio de decisión, etc.).
Incluso con algunos de estos factores se ha conseguido establecer funciones
o leyes (Pierón y Hick-Hyman).
De especial relevancia resulta, tanto para la psicofísica como para cualquier otra aplicación psicológica, el ajuste rapidez-precisión ya que ambas
variables presentan un alto grado de covarianza, es decir, el TR es inferior
pero a costa de cometer un mayor número de errores. Además de tener en
cuenta este aspecto para utilizar las medidas de corrección adecuadas, el
TR es una fuente de información complementaria para determinar el procesamiento de las características de un estímulo por parte del sujeto, y para
poder valorar su ejecución. Una aplicación concreta de este concepto a la
velocidad de separación de dimensiones separable vs. integrables puede
verse en Lillo (1993).
Por último, como señala Blanco (1996), el TR presenta una ventaja frente a otras medidas de precisión expuestas en apartados anteriores (aciertos,
d´, etc.). El rango de variación del TR es mucho mayor que el de las medidas de precisión aludidas, por lo tanto es más sensible y nos permite realizar discriminaciones más finas entre distintas condiciones experimentales o
entre las actuaciones de los sujetos en dos momentos diferentes.
4.2
Perspectivas recientes en Psicofísica
En la actualidad, el estado de la teoría psicofísica dista de haber conseguido
una integración, y transcurrido más de un siglo desde la fundación de esta
disciplina la pregunta sobre la relación entre lo físico y lo percibido sigue
estando abierta. Sin embargo, la investigación y las controversias teóricas
han significado un claro avance sobre la cuestión, principalmente en cuanto
a la toma de conciencia de la complejidad del proceso y de los innumerables factores que pueden determinar la relatividad experimental de algunas
conclusiones o postulados.
Además, las diferencias teóricas y metodológicas plantean un horizonte
que se aleja de una posible integración. Así mientras algunos autores han
centrado sus esfuerzos y prestan especial atención a la relación entre los
estímulos más que a la magnitud de la sensación, como base de juicio
(Krantz, 1972), otros focalizan sus recursos en intentar hacer compatibles
los distintos procedimientos experimentales, así como en integrar los resultados obtenidos con los mismos (Ward, 1972). Y frente a los que siguen defendiendo la tradición clásica de la psicofísica, es decir, encontrar leyes psicofísicas generales (Norwich, 1993), otros como Lockhead (1992) opinan
231
Percepción
que ya ha llegado la hora del cambio y proponen la psicofísica de objetos,
en clara contraposición a la psicofísica de atributos, que ha sido dominante
a lo largo de la propia historia de la psicofísica.
Pero tampoco los seguidores de la línea psicofísica al estilo de Fechner y
Stevens tienen un planteamiento común al expresado anteriormente en la
obra de Norwich. No es compartida, por ejemplo, la idea de este autor de
encontrar una única ley psicofísica general que además sea válida para todos los atributos sensoriales, sino que opinan que sólo es posible encontrar
leyes específicas para atributos sensoriales concretos.
Sin pretensiones de agotar todas las posiciones al respecto, un planteamiento de especial interés y que se aparta de las concepciones anteriores es
la teoría de integración de información (Anderson, 1991). Lo que propone
básicamente esta línea es ampliar el ámbito de la investigación psicofísica
desde la óptica de la percepción como un proceso de integración de información de distintas sensaciones. Los elementos fundamentales de la teoría
son las etapas en la integración de información (valoración psicofísica, integración psicológica y respuesta psicomotora), y las reglas algebraicas
cognitivas que el sujeto pone en marcha (adición, sustracción, etc.). Confiemos, como apuntan Dember y Warn (1990), que de esta situación tan dispar
pueda plantearse un enfoque más comprensivo que dé lugar a leyes psicológicas de carácter general.
Bibliografía comentada
Jáñez, L. (1992): Psicofísica. En J. L. Fernández Trespalacios y P. Tudela (coords.).
Tratado de Psicología General (vol 3). Atención y Percepción (pp 1-44). Madrid, Alhambra. Es una referencia clásica de la literatura en castellano sobre la
temática dada la sistematización y rigurosidad con la que se exponen los elementos centrales de la teoría psicofísica. En tres apartados se revisan minuciosamente la teoría del umbral sensorial, la TDS y las leyes psicofísicas, valorando críticamente las cuestiones fundamentales que subyacen en los desarrollos
psicofísicos propuestos.
Lillo, J. (1993): Psicología de la percepción, Madrid, Debate. A lo largo de dos capítulos (pp 79-174) se exponen de forma clara y bastante extensa las dos cuestiones centrales de la psicofísica. En el primero (Cap. 3) se analizan los límites
de la percepción, es decir, lo relativo a los umbrales, mientras que el capítulo siguiente se centra en las dimensiones y continuos (leyes de Fechner y Stevens).
Aunque existen capítulos dedicados a la psicofísica en muchos manuales sobre
la psicología de la percepción, el discurso y las continuas ejemplificaciones lo
hacen especialmente idóneo para introducirse en los tópicos más relevantes de
esta disciplina.
Blanco, M. J. (1996): Psicofísica. Madrid, Universitas. Es, sin duda, la obra más
completa y actual de las publicadas en castellano sobre esta temática. A lo largo
de trece capítulos aborda de forma completa tanto los aspectos relacionados con
232
6. Psicofísica: concepto, método y aplicaciones
la psicofísica indirecta (detección y discriminación) como los relativos a la psicofísica directa. Añade además sendos capítulos sobre tópicos no habituales en
las obras dedicadas a la psicofísica: uno sobre el estudio de los tiempos de reacción y otro sobre identificación de estímulos unidimensionales. Las ejemplificaciones y aplicaciones a distintas áreas facilitan la comprensión y utilidad de la
disciplina y su proyección en áreas tanto psicológicas como de otras ciencias
(oftalmología, ergonomía, acústica, etc.). Se incluyen apéndices enormemente
útiles tanto para tener una visión histórica del desarrollo de la disciplina como
para realizar innumerables ejercicios de prácticas sobre cada uno de los capítulos, además de información sobre programas de ordenador disponibles para el
cálculo de los índices fundamentales.
Green, D. y Swets, J. (1988): Signal detection theory and psychophysics, Nueva
York, Wiley (original 1966). Aunque la obra no aborda temas centrales de la
psicofísica, es una referencia obligada para la profundización en la teoría de detección de señales. Además de los aspectos centrales de esta teoría —supuestos,
modelo paramétrico, predicciones, etc.— aborda otros enfoques teóricos y metodológicos relacionados (teorías del doble umbral o paradigmas experimentales
alternativos).
Stevens, S. (1975): Psychophysics: introduction to its perceptual, neural and social
prospects, Nueva York, Wiley & Sons. Esta obra póstuma del creador de los
métodos psicofísicos directos hace un repaso exhaustivo al análisis y descripción de estas técnicas junto a las funciones psicofísicas derivadas de las mismas. El lector puede encontrar una amplia expansión de la ley potencial: formulación, evidencia experimental, validez de la función e interpretación del
exponente en distintos continuos protéticos.
Anderson, N. (coord.) (1991): Information integration theory (vol. 1: cognition),
Hillsdale, N. J.: Lawrence Erlbaum. Dentro de las nuevas tendencias en la psicofísica una de las propuestas que ha adquirido especial relevancia es la denominada psicofísica de la integración desarrollada por este autor desde los años
sesenta. La percepción como un proceso de integración de información y la función propuesta por Anderson son aplicables en campos muy diversos de la psicofísica y de la psicología. Esta obra recoge ejemplos de estas aplicaciones y
puede servir para reflexionar sobre otras posiciones y alternativas a la línea psicofísica más tradicional.
233
Percepción
Preguntas de revisión
1. El estudio del tiempo de reacción (TR) se adscribe a los métodos psicofísicos directos o indirectos. Justifique su respuesta.
2. ¿Qué significa curva de isosensibilidad?
3. ¿Qué proporción de aciertos y falsas alarmas produce una curva ROC
plana, es decir, superpuesta a la diagonal? ¿Qué significa desde el plano de la sensibilidad (d´)?
4. ¿En qué se diferencian conceptualmente los tres métodos psicofísicos
indirectos desarrollados por Fechner?
5. ¿Cuál es la relación entre sensibilidad y umbral?
6. Relacione la polémica de la continuidad-discontinuidad sensorial con
los problemas de la medición de umbrales sensoriales.
7. ¿Por qué la ley de Weber no se cumple en los extremos del continuo
sensorial?
8. Señale las diferencias entre continuos protéticos y metatéticos.
234
7.
Procesamiento básico
de la visión
Florentino Blanco
David Travieso
El capítulo presenta una estructura bastante habitual en la descripción de
los mecanismos básicos implicados en la visión. Se muestran, en primer lugar, algunos argumentos útiles para entender la lógica adaptativa del sistema visual, lo que, en buena medida, exige exponer algunos conceptos básicos de física y óptica. A continuación se describen los elementos
anatómicos esenciales del ojo humano y se trazan las principales vías de
proyección cerebral de la información visual. El capítulo se cierra con una
reflexión abierta sobre la naturaleza compleja de nuestras concepciones
sobre la percepción y la necesidad de plantearse fórmulas de investigación
que nos permitan transcender los límites de las tradicionales explicaciones
mecanicistas.
1.
Introducción
Parece claro que el sistema visual tiene una prevalencia clara en nuestra
sintonización con el espacio en el que vivimos, en relación a otras modalidades sensoriales. Nuestra experiencia visual nos instala directamente en el
mundo. La visión introduce el mundo en el escenario de la conciencia para
que podamos salir confiados a instalarnos en él. La aparente fidelidad de
nuestras experiencias visuales al mundo en el que vivimos nos hace olvidar
a menudo la enorme complejidad de los procesos por los cuales semejante
sensación se hace posible. De hecho, el primer problema que el alumno
235
Percepción
debe superar para introducirse en el estudio de la visión radica seguramente
en la posibilidad de advertir dicha complejidad, es decir, dejar de pensar
que ver no es un problema. El objetivo más importante de este capítulo es
justamente tratar de problematizar de la manera más sencilla posible las
ideas que espontáneamente manejamos sobre la naturaleza de la visión.
No se trata, desde luego, de llegar a concluir que la visión resulte, en algún sentido, problemática. Por el contrario, todo parece indicar que la sensación de vivir instalados en el mundo que nos proporciona la visión resulta
extremadamente útil. En ese supuesto radica, por ejemplo, la posibilidad
misma de compartir el espacio en el que vivimos y los objetos que lo pueblan, nuestros propios cuerpos entre ellos, e, incluso, si se quiere, la posibilidad de referirnos mediante signos de muy diversa naturaleza a todas esas
cosas. El diseño biológico de nuestra especie y, si en algún sentido es posible diferenciar ambas dimensiones, las múltiples formas de organización
cultural que hemos ido construyendo a través de la historia serían seguramente incomprensibles sin contar con la visión y el tipo de experiencia del
mundo que nos provoca.
Por esa razón, es decir, por la vinculación indisoluble entre lo que, un
tanto apresuradamente, hemos denominado nuestro diseño biológico y
nuestra capacidad para generar formas culturales, resulta un tanto inútil tratar de explicar la visión apelando de manera exclusiva a lo que tenemos
dentro de la carcasa. Aunque sólo sea porque el diseño de una semilla de
trigo resulta incomprensible si no sabemos algo sobre las propiedades de la
tierra en la que debe germinar.
2.
Nuestra experiencia del mundo a través de la visión
La capacidad de los seres humanos para distanciarse (voluntaria o involuntariamente) y observar, por así decirlo, desde otro plano de experiencia sus
experiencias inmediatas, radicalmente ligada a su naturaleza social, es, en
este sentido, el primer problema, el primer escollo que nos encontramos en
nuestra tentativa de problematizar la visión. Empecemos con un ejemplo
sencillo, y habitual, cuando se discute sobre la naturaleza de la visión. Se
trata de la célebre ilusión vertical-horizontal (véase la Figura 7.1). Como
seguramente el lector ya sabe la clave de esta ilusión estriba en el hecho de
que aunque los segmentos vertical y horizontal tienen la misma longitud, el
primero se percibe como más largo. Lo fascinante, en cualquier caso, es
que el fenómeno persiste a pesar de que sabemos que se trata de una ilusión. Nuestra conciencia no puede penetrar por más que se empeñe en el
dominio de la percepción. Esta impermeabilidad de la experiencia perceptiva ha sido aducida por algunos autores como una prueba irrefutable a favor
de una concepción modularista de la mente humana —la teoría de la modularidad— (Fodor, 1983; García-Albea, 1986). Sin llegar necesariamente a
236
7. Procesamiento básico de la visión
a
b
Figura 7.1 Las ilusiones visuales representan un auténtico reto para las ciencias de la visión. En
la parte superior de la figura se presenta la conocida como ilusión vertical-horizontal, cuyo segmento vertical se percibe más largo que el horizontal. En la parte inferior, se incluye una modificación de la ilusión vertical-horizontal cuyos efectos quedan compensados por la introducción de los
elementos de la ilusión Muller-Lyer.
ese extremo, sí parece razonable pensar que la evolución ha jugado a cerrar
a la conciencia ciertas zonas de la maquinaria mental para, por así decirlo,
evitar interferencias o ruidos innecesarios en su funcionamiento. Sea como
fuere, nada nos debe llevar a pensar que el encapsulamiento informativo, la
especificidad energética y el automatismo facilitan la explicación de la percepción visual.
Si intentamos analizar nuestra experiencia del espacio en la que podemos constatar, con cierta facilidad, una serie de hechos básicos que nos
ayudan a intuir la complejidad de los fenómenos perceptivos y, por tanto,
las dificultades que nos encontramos para explicarlos científicamente:
— En primer lugar, y dependiendo de la fuente de la que procede la luz,
la iluminación de una zona concreta del espacio puede ser puntual
(por ejemplo, linterna, cerilla, sol, etc.) o difusa (por ejemplo, luz
diurna en un día nublado). En segundo lugar, y como consecuencia
del contacto con los objetos, la luz puede reflejarse (espejos y super-
237
Percepción
ficies pulimentadas, en general), ser absorbida (superficies negras)
o puede transmitirse a través de aquéllos (cristal).
— En función de estos fenómenos, cada punto de un espacio determinado tendrá su propio patrón de iluminación (distribución óptica ambiental), de manera que una descripción estrictamente óptica de los
patrones de iluminación es ya, en condiciones normales, una tarea
bastante compleja. El espacio óptico no es, objetivamente, una realidad simple y homogénea.
— Pero, además, la información óptica no es estable. El espacio iluminado es percibido por un ojo que se mueve permanentemente (más
adelante hablaremos de los movimientos sacádicos), el propio sujeto
perceptor se mueve (o se puede mover) y los objetos que pueblan dicho espacio también lo hacen a menudo. Todo lo cual complica aún
más la explicación de la experiencia visual.
— A pesar de la enorme complejidad óptica del medio, normalmente
percibimos un espacio relativamente estable y homogéneo. Tenemos
la sensación de que lo que vemos está tal-y-como-lo-vemos-en-elmundo. Percibimos ciertas regularidades ópticas que tienen un carácter universal y resultan universalmente adaptativas. Un buen ejemplo
de este tipo de fenómenos lo constituyen los denominados gradientes
texturales (aumentos o disminuciones regulares de la frecuencia espacial de los elementos que constituyen un patrón óptico). Los gradientes de textura nos proporcionan, por ejemplo, indicios objetivos
para movernos o tomar decisiones sobre las propiedades espaciales
de nuestro entorno. Fenómenos de la misma naturaleza son las denominadas claves pictóricas para la percepción de la profundidad (perspectiva lineal, sombras, transparencias y solapamientos parciales, etcétera) (véase la Figura 7.2) (para una mejor comprensión de estas
claves, véase el Capítulo 11). Otro tanto ocurre con las ilusiones visuales o con los fenómenos gestálticos (véase el Capítulo 10). Y, tal
vez, lo más importante, sabemos implícitamente que semejantes regularidades las compartimos con el resto de los individuos de nuestra especie, independientemente de la cultura a la que pertenezcan o
del momento histórico en el que habiten.
Estamos, pues, ante un auténtico problema, si no misterio, para la ciencia
actual: ¿cómo es posible que una realidad objetivamente compleja e inestable se convierta, subjetivamente, en un mundo estable, homogéneo y predecible en el que vivir? Existen, básicamente, dos respuestas alternativas a
esta pregunta. La primera respuesta posible pasa, en cierto, modo por obviar la pregunta: todo lo que necesitamos para explicar cómo percibimos en
condiciones normales es describir adecuadamente las propiedades objetivas
del campo óptico; no necesitamos asumir que el cerebro humano transforme nada, o, mejor, basta con asumir que existe una sintonización adecuada
238
7. Procesamiento básico de la visión
Figura 7.2 Efectos de profundidad debidos a variaciones en la textura de las superficies. Adaptada de Monserrat (1998).
entre el sistema visual y la energía que percibimos como luz, de manera
que el funcionamiento del sistema visual se puede tomar como una constante. Procederíamos, así, a explicar las regularidades que se producen en el
funcionamiento del sistema visual a partir exclusivamente de las variaciones formales (susceptibles de ser descritas matemáticamente) que se producen en el flujo óptico. La teoría ecológica de la percepción, propuesta por
Gibson ha asumido y defendido este punto de vista (Gibson, 1979).
Los partidarios de este enfoque asumen que las imágenes perceptivas del
mundo que nos rodea están sobredeterminadas por la información óptica
objetiva presente en nuestro campo visual. A menudo, se ha acusado al enfoque gibsoniano de trabajar sobre un prejuicio realista ingenuo y de actuar
metodológicamente con supuestos semejantes a los del conductismo. Según
esta interpretación, los gibsonianos estarían postulando un sujeto que se limita a responder ciegamente a las propiedades objetivas del flujo óptico, de
la misma manera, fija y automática, en que una rata responde a la aparición
del estímulo discriminativo en la caja de Skinner. Desde nuestro punto de
vista (véase también Costall, 1991 y 1995), la acusación no es del todo justa. Gibson está hablando de lo que sucede en cierto nivel (percepción) de
acoplamiento entre el organismo y el medio. Su noción de affordance no
apela, de hecho, como habitualmente se suele aducir, a las meras propiedades objetivas de la información contenida en el objeto (el término affordance es un neologismo derivado por el propio Gibson del verbo to afford, un
verbo que, con un cierto margen de libertad, puede ser traducido al castella-
239
Percepción
no como ofrecer o permitir; así, en el contexto de la teoría gibsoniana de la
percepción, la affordance de un objeto es lo que un objeto nos ofrece o lo
que nos permite hacer con él). La affordance de un objeto reside justo entre
lo que el objeto oferta al perceptor y lo que el perceptor puede percibir en
(o hacer con) el objeto. La clave, en nuestra opinión, para sopesar adecuadamente las ideas de Gibson está en entender que Gibson intenta construir
una teoría de la percepción que no se cierre sobre sí misma, y que aspire a
encontrar los vínculos necesarios con el plano de la acción, o, incluso, que
pueda ser explicada como una forma de acción. Esta forma de ver el asunto
permite, por ejemplo, devolver el tacto activo al ámbito legítimo al que parece pertenecer, al de la percepción-acción, ámbito por cierto en el que ya
había sido colocado por Luria a través de la hipótesis de los sistemas funcionales (Luria, 1974).
En el extremo opuesto al planteamiento gibsoniano se sitúan quienes
opinan que la información sobre el espacio disponible para el perceptor es
siempre fragmentaria, inestable y confusa. De esta manera, serían los procesos de transformación, simplificación y formalización a los que el cerebro somete dicha información los responsables de nuestras sensaciones
subjetivas de estabilidad y predictibilidad. La mayor parte de los especialistas en percepción visual que trabajan bajo el enfoque computacional estarían asumiendo de manera más o menos abierta este tipo de actitud. Para
ellos el mundo está perceptivamente infradeterminado, no contiene objetivamente todo lo necesario para actuar directamente sobre él. El cerebro
tendría siempre que acabar el trabajo. La línea de indagación iniciada ya
hace algunos años por D. Marr (1982), y que será retomada en diversos capítulos de este libro, representa adecuadamente esta sensibilidad teórica.
Sea como fuere, lo que parece claro es que hasta el momento no disponemos de una concepción integrada del sistema visual que nos permita planificar estrategias de investigación de carácter acumulativo. Nuestras aproximaciones al problema de la percepción visual están muy influidas por
nuestras concepciones generales del fenómeno humano. Cabe preguntarse,
por lo demás, si puede ser de otra manera. En todo caso, la percepción es
seguramente el gran caballo de batalla de la psicología en la actualidad, y,
en cierto modo, lo ha sido siempre. No hay posiblemente ninguna manera
de hablar sensatamente sobre la arquitectura cognoscitiva, y psicológica, en
general, del sujeto sin disponer en la base de una teoría de la percepción.
Los fenómenos que antes hemos expuesto para tratar de ilustrar la complejidad de la percepción visual nos permiten intuir también que para comprender su funcionamiento es necesario tener algunas nociones muy básicas sobre física de la luz y sobre óptica. Después intentaremos describir la
estructura anatómica del sistema visual y sus mecanismos básicos.
240
7. Procesamiento básico de la visión
3.
La luz como fenómeno físico
Como es bien sabido, existen en la actualidad dos formas distintas de entender la naturaleza de la luz. En efecto, la luz puede ser entendida bien
como un flujo de corpúsculos o bien como patrones de ondas electromagnéticas. Cada una de estas formas de entender la luz permite dar cuenta de
ciertos fenómenos físicos. En todo caso, y para los propósitos de este capítulo, entenderemos la luz como patrones de ondas electromagnéticas. Otros
tipos muy conocidos de ondas electromagnéticas son, por ejemplo, las ondas de radio, los rayos infrarrojos o ultravioletas o los rayos X.
La percepción visual se basa en el principio según el cual las ondas electromagnéticas son detectables por otras cargas oscilantes con la misma frecuencia ondulatoria. La retina (estructura situada sobre el fondo del ojo en
la que, como veremos, se disponen los fotorreceptores) ha sido configurada
a través de la evolución para detectar el espectro de ondas electromagnéticas asociadas a la luz. Es importante, en este sentido, recordar que a) el espectro de ondas electromagnéticas que nos permite ver es una parte mínima
del espectro general de ondas electromagnéticas, b) no existen diferencias
cualitativas entre otras ondas del espectro y las que nos permiten ver, y c)
por lo tanto la percepción visual es, en principio, un fenómeno de naturaleza psicológica que surge como consecuencia de la sintonización de ciertas
estructuras del organismo y ciertas energías del medio.
Respecto a lo que ahora nos interesa, podemos decir que existen dos tipos de ondas: periódicas y no periódicas (Figura 7.3). Consideramos que
una onda es periódica si la misma forma (oscilación, en un lenguaje un
poco más técnico) se repite regularmente, cada cierto tiempo. Las ondas
que nos producen la sensación de luz visible son un tipo particular de ondas
periódicas que reciben el nombre de ondas sinusoidales. Las ondas sinusoidales (y las periódicas, en general) pueden ser descritas y cuantificadas a
partir de varias propiedades, de las que nos interesan ahora, sobre todo, las
siguientes:
— Longitud: distancia entre dos punto idénticos y sucesivos de la onda.
— Frecuencia: número de oscilaciones (de patrones de forma idéntica,
de picos o valles) por segundo.
— Fase: posición de una onda en relación a otra onda o un punto prefijado.
Aunque en el capítulo posterior de este volumen se hará referencia a la
frecuencia ondulatoria y a la fase, en este capítulo describiremos las ondas
a partir de su longitud. Así, podemos decir que las ondas del espectro visible (las ondas que podemos ver) son una parte relativamente pequeña del
total del espectro electromagnético. En concreto, las ondas que vemos se
encuentran entre los 380 y los 700 nanómetros (nm; 1 nm= 10 elevado a 9
241
Percepción
Amplitud de la perturbación
Longitud de onda
etc.
a
b
Figura 7.3 Tipos y características cuantitativas de las ondas. La Figura a muestra una onda periódica sinusoidal, contrastada (Figura b) con una onda no periódica y no sinusoidal. Adaptadas de
Monserrat (1998).
metros) (Figura 7.4). La mayor parte de la radiación emitida por el sol, es
decir, de las ondas emitidas por el sol, es visible. No es extraño, por lo tanto, que la mayor parte de los organismos conocidos hayan desarrollado receptores sensibles a la misma.
Aunque para muchos fines es conveniente concebir la luz como patrones
ondulatorios, determinados fenómenos naturales y artificiales son más fáciles de explicar si partimos de la idea más intuitiva de que la luz se mueve
por el espacio siguiendo trayectorias rectilíneas. La óptica geométrica es la
disciplina que se encarga de estudiar la luz a partir de esta idea.
La sombra es uno de los fenómenos ópticos naturales más conocidos. La
sombra se produce como consecuencia de la interposición de un objeto en
la trayectoria de la luz emitida por una determinada fuente. Los eclipses solares y lunares son fáciles de explicar a partir de las propiedades de las
242
7. Procesamiento básico de la visión
Figura 7.4 Espectro electromagnético general y espectro de la luz visible. Se señalan sus efectos
perceptivos o manifestaciones más generales. Adaptada de Monserrat (1998).
sombras. En el primer caso, la luna se interpone entre el sol y la tierra y
proyecta su sombra sobre esta última. En el segundo caso, la tierra se interpone entre el sol y la luna y proyecta su sombra sobre la luna.
Los fenómenos de cámara oscura son también relativamente frecuentes
en nuestro medio, pero son más fáciles de entender si uno los provoca deliberadamente. El principio es muy sencillo: si practicamos un agujero muy
pequeño en una caja cerrada y opaca, y disponemos un objeto frente a él, la
imagen invertida del mismo se proyectará sobre la cara interior y opuesta
de la caja. Como es lógico, para verificar el fenómeno deberemos practicar
otro agujero en la cara superior de la caja. El ojo humano o las cámaras fotográficas convencionales son versiones sofisticadas de esta cámara oscura.
Aunque la analogía es evidente, cabe señalar que la pupila, esto es, el círculo más pequeño y oscuro que vemos en el centro del ojo, equivale al pequeño agujero practicado en la cara anterior de la caja. La retina, estructura en
la que se encuentran las células sensibles a la luz o fotorreceptores, y situada, como veremos, en el fondo del ojo equivale, por tanto, a la cara opuesta
e interior de la caja. En ambos casos, la imagen se proyecta invertida, dado
el ángulo de incidencia sobre el agujero de la luz reflejada por el objeto
(véase la Figura 7.5).
La reflexión de la luz es también otro fenómeno muy frecuente en
nuestra experiencia cotidiana explicable en términos de óptica geométrica.
Como podemos comprobar fácilmente, los rayos se reflejan cuando hay un
cambio muy brusco en el medio físico que impide que la luz atraviese el
cuerpo sobre el que incide. La ley básica que guía la reflexión de la luz
243
Percepción
Objeto
Figura 7.5
Pared anterior
Pared posterior
Esquema básico de una cámara oscura.
nos dice que el ángulo de incidencia de un rayo es igual al ángulo de reflexión.
Una enorme variedad de fenómenos naturales y artificiales pueden ser
explicados en virtud de las propiedades de la reflexión de la luz y de las ondas electromagnéticas, en general. Los espejismos, el efecto de espejo de
determinadas superficies (la superficie del agua, por ejemplo), o los sistemas de detección de obstáculos desarrollados por los murciélagos son fenómenos naturales basados en la reflexión. El funcionamiento del radar y del
sonar se basa también en la reflexión: a saber, si conocemos la velocidad de
transmisión de una onda en un medio determinado (aire o agua, en cada
caso) y la proyectamos sobre un objeto capaz de reflejarla situado en dicho
medio, podemos medir el tiempo que la onda tarda en regresar al punto de
emisión y estimar así la distancia hasta el objeto. Los murciélagos, y algunos ciegos muy experimentados, parecen capaces de estimar la presencia de
un obstáculo utilizando el eco de las ondas sónicas de alta frecuencia (por
encima de los 10.000 Hz). El Sonic Aid (ayuda sónica) es un dispositivo
artificial de ayuda a la deambulación que algunos ciegos utilizan para detectar obstáculos en su entorno. Su principio de funcionamiento es básicamente el mismo en el que se basan el radar o los sistemas naturales de
detección de obstáculos que utilizan los murciélagos o los ciegos experimentados, salvo que, en este caso, al usuario se le proporciona una señal
auditiva explícita que le permite inferir la distancia a la que se encuentra el
objeto y su posición en el espacio (véase Blanco y Rubio, 1993).
Los espejos son dispositivos artificiales que se benefician de las excelentes propiedades de reflexión de los metales. La plata y el aluminio son
los metales que mejor reflejan el espectro de la luz visible. Por eso los espejos se hacen con una capa de plata o de aluminio a la que se antepone un
cristal para evitar su oxidación. Para que el espejo refleje toda la luz que in-
244
7. Procesamiento básico de la visión
cide sobre él necesita que la capa metálica presente un grosor mínimo. La
reducción de la capa metálica hace que parte de la luz incidente se transmita a través de la misma, lo que resulta extremadamente útil para la construcción de gafas de sol o de los espejos unidireccionales habituales en las
películas policíacas y en muchos laboratorios de psicología.
Los espejos son superficies en las que la reflexión de la luz se produce
en condiciones ideales, pero todos los objetos que vemos, de ello depende,
reflejan la luz que sobre ellos incide. Se habla en estos casos de reflexión
difusa. En condiciones normales la luz que no es reflejada por un objeto, o
bien es absorbida o bien se transmite a través del mismo. Los cambios en la
velocidad de transmisión de la luz entre dos medios son los responsables de
lo que habitualmente denominamos refracción. A menos que el rayo de luz
incida sobre el nuevo medio siguiendo una trayectoria perpendicular, su dirección variará. Si la luz pasa de un medio rápido (el aire) a un medio lento
(el agua) la nueva dirección del rayo se aproximará a la normal (una línea
ideal que incide verticalmente sobre la superficie). Si, por el contrario, la
luz pasa de un medio más lento a uno más rápido, la nueva dirección se alejará de la normal. La refracción es la responsable de las distorsiones que
por experiencia sabemos que se producen cuando vemos (e intentamos alcanzar) objetos sumergidos en el agua.
Las lentes son dispositivos naturales o artificiales que utilizan su capacidad de refracción para modificar los patrones de luz que sobre ellos inciden. Las lentes artificiales se construyen habitualmente con materiales que
apenas reflejan la luz (vidrio o plástico) y tienen infinidad de aplicaciones
muy conocidas. Existen dos tipo básicos de lentes, cóncavas y convexas,
cuyos efectos ópticos son distintos. Las lentes cóncavas hacen que los rayos
de luz que inciden sobre ellas tiendan a separarse, mientras que las convexas provocan, por el contrario, un efecto de convergencia (Figura 7.6). La
Punto focal
Rayos de luz paralelos
Rayos de luz paralelos
Figura 7.6
Punto focal
Efectos de convergencia de lentes convexas finas y gruesas.
245
Percepción
mayor parte de los animales superiores incorporan lentes en sus ojos para
mejorar su enfoque y, por lo tanto, su precisión óptica.
La reflexión de la luz en los objetos que nos rodean, la estructura óptica
del ojo humano, basada, por un lado, en el fenómeno de cámara oscura y,
por otro, en la capacidad de refracción de la luz, constituyen las bases sobre
las cuales opera el diseño biológico del sistema visual.
4.
El soporte biológico de la visión
Aunque no sabemos mucho sobre la verdadera naturaleza de la luz, sobre
lo que en términos filosóficos podríamos denominar ontología de la luz,
parece claro que los organismos que pueblan la corteza terrestre han sabido
seleccionar a través del tiempo estructuras orgánicas sintonizadas con este
tipo de energía. Como ya hemos indicado, algunos investigadores han insistido, tal vez no desatinadamente, en el hecho de que una descripción adecuada de los patrones ópticos objetivos a los que se exponen los organismos puede explicarnos adecuadamente su funcionamiento visual. Sin
embargo, todo parece indicar que la propia descripción óptica puede estar
regulada por las restricciones que impone el punto de vista de quien describe, esto es, su organización biológica particular. En todo caso, la existencia
de ilusiones o aberraciones visuales naturales pone en duda la fiabilidad
explicativa de una descripción óptica objetiva. En estos casos la descripción
óptica objetiva y la experiencia visual del perceptor no coinciden, como sugeríamos al principio de este capítulo. Todo parece indicar, en definitiva,
que la percepción visual representa un caso claro de acoplamiento y sintonización entre un tipo de energía muy frecuente en nuestro medio y ciertas
estructuras desarrolladas justamente para procesar este tipo de energía.
Efectivamente, con el fin de obtener ciertas ventajas adaptativas para la
detección de objetos a distancia (por ejemplo alimentos, depredadores, congéneres con los que procrear, etc.), determinados organismos han desarrollado evolutivamente células sensibles a la luz. Pero, ¿qué ventajas adaptativas puede acarrear la sintonización perceptiva con este tipo de energía? En
primer lugar, debemos recordar que la radiación electromagnética se produce por la oscilación de material cargado eléctricamente. Dado que toda la
materia es, en último término, un patrón de cargas eléctricas oscilantes, este
tipo de energía es muy abundante en nuestro entorno. En segundo lugar, la
radiación electromagnética se desplaza muy rápidamente en el espacio
(300.000 km por segundo, aproximadamente), de manera que un organismo
sensible a este tipo de energía puede obtener información sobre objetos distantes de manera casi inmediata y con una mínima pérdida de información.
Además, y como hemos señalado anteriormente, la radiación electromagnética tiende a viajar en línea recta, de manera que conserva de manera
muy fiable la información estructural y geométrica de los objetos que la
246
7. Procesamiento básico de la visión
emiten o reflejan. Parece, pues, razonable que los organismos hayan desarrollado cierta sensibilidad a la radiación electromagnética. Sin embargo, hemos dicho ya que la luz constituye una franja mínima del espectro
general de radiación electromagnética. La pregunta es obvia: ¿por qué la
luz?
Una razón evidente tiene que ver con el hecho de que la luz es muy
abundante. Los rayos ultravioletas, por ejemplo, son filtrados o absorbidos
mayoritariamente por las moléculas de oxígeno y nitrógeno de la atmósfera
que nos rodea, de manera que raramente alcanzan a los objetos que nos rodean. Por otro lado, la luz interactúa muy adecuadamente con la superficie
de los objetos. Su dinámica de absorción, reflexión y refracción nos permite obtener información muy útil sobre los mismos. Otras longitudes de
onda más largas, por ejemplo las microondas, tienden a atravesar los objetos en lugar de ser reflejadas, de manera que no serían demasiado útiles en
este sentido.
Parece, pues, razonable que muchos organismos hayan desarrollado células sensibles a la luz. Estas células contienen pigmentos fotosensibles que
modifican su estructura bioquímica cuando la luz incide sobre ellos. En los
organismos más primitivos, los fotorreceptores se conectan a componentes
motores de su sistema nervioso de una manera directa, sin estaciones de relevo. En los mamíferos superiores, y muy especialmente en el hombre, los
fotorreceptores son tan sólo la primera estación de un largo, fascinante y
misterioso viaje neurológico, que nos ha llevado más allá de los límites
(microscopios, telescopios) del mundo perceptivo para el que parecían diseñados. El engarce cultural de la visión hace que sus funciones nunca puedan ser agotadas en la mera descripción óptico-biológica. Sin embargo, no
hay función imaginable del sistema visual que no esté restringida por nuestro diseño biológico.
Retomando el hilo de nuestra exposición, comprobamos que existen organismos que distribuyen sus células fotorreceptoras por toda su superficie,
muy especialmente aquellos que no pueden autodesplazarse. Los organismos que sí lo pueden hacer suelen disponer de células fotosensibles ubicadas en una parte de su estructura orgánica favorable a su dirección de desplazamiento más habitual y adaptativa. Ciertos organismos disponen,
además, de oquedades en su estructura orgánica que permiten mantener a
salvo las células fotosensibles frente a estímulos ambientales nocivos.
La disposición de los ojos en los depredadores (los felinos o el ser humano) y en sus víctimas habituales (el conejo y en los herbívoros, en general)
permite intuir con facilidad por qué resulta adaptativo seleccionar la ubicación de los receptores en la superficie del organismo (Figura 7.7). Los depredadores necesitan calcular con mucha precisión la posición de una víctima (su alimento) que, generalmente, se puede mover. Bien para calcular el
salto o bien para desplegar una estrategia de acoso. Si los ojos se disponen
en la parte frontal del cráneo y, además, hay muy poca distancia entre ellos,
247
Percepción
Figura 7.7 Campos ópticos de un conejo y un ser humano (explicado en el texto). Adaptada de
Sekuler y Blake (1994).
el campo visual será relativamente restringido, pero la zona del campo que
los dos ojos pueden percibir al mismo tiempo será mayor. Aumentará, por
tanto, la capacidad para estimar distancias en condiciones normales (véase
el Capítulo 11) y, con ello, las posibilidades de alcanzar la presa con un consumo mínimo de energía. A la víctima, por el contrario, más que la precisión
le interesa adaptativamente detectar objetos en movimiento en un entorno
los más extenso posible. La disposición de los ojos en los parietales del cráneo reduce la visión binocular, pero aumenta la extensión del campo visual,
y, por tanto, la posibilidad de detectar depredadores potenciales.
En definitiva, y salvo excepciones, podemos decir que la lógica del funcionamiento del sistema visual se corresponde con una lógica adaptativa
distribuida en el hábitat relevante para el organismo, de manera que éste
genera restricciones en la definición biológica de la función visual y sus relaciones con otras funciones biológicas, o sociales, en el caso, con claridad,
del hombre y tal vez de algunos monos antropoides. Por ejemplo, el contacto ocular no cierra su funcionalidad sobre el mero situar perceptivamente
algo en el mundo, sino que define vínculos afectivos (después, además, comunicativos) que pueden optimizar las posibilidades de desarrollo de los
individuos inmaduros.
4.1
Descripción general del ojo humano
El ojo humano es un órgano de forma casi-esférica. Esta forma está garantizada por la presión que desde su interior ejerce un líquido denominado
humor vítreo, cuyo exceso puede provocar una enfermedad conocida como
248
7. Procesamiento básico de la visión
glaucoma. El globo ocular tiene un diámetro aproximado en el adulto de
unos 7,5 cm y un peso de unos siete gramos. Las variaciones por exceso o
por defecto del tamaño del ojo pueden provocar alteraciones ópticas. Los
ojos más cortos de lo normal producen hipermetropía, mientras que los
ojos excesivamente largos producen miopía (véase el Capítulo 19).
El globo ocular puede ser movilizado por una estructura muscular externa relativamente sofisticada que permite localizar, y contribuye a enfocar,
adecuadamente el objeto sobre la retina. Especialmente importante, y más
allá de las funciones anteriores, es el papel de los rectos laterales y medios.
Resulta muy fácil comprobar que cuanto más cerca de los ojos está el objeto que observamos, más convergencia ocular (más se giran los ojos hacia la
nariz). Este movimiento genera una tensión en los músculos que el sistema
nervioso es capaz de utilizar como un indicio para estimar la distancia a la
que se encuentra el objeto (Figura 7.8) (véase el Capítulo 11).
El globo ocular está recubierto por una capa fina y dura llamada esclerótica que en la porción central de la parte anterior del ojo se hace transparente (córnea) para dejar pasar la luz. Más hacia el interior se encuentra el
coroides, que contiene vasos capilares que nutren las estructuras del ojo, y
que permite regular el paso de la luz. En el centro se transforma, con este
fin, en un músculo llamado iris. El iris permite variar el diámetro de la pupila, punto por el cual la luz accede al interior del globo ocular. Con poca
luz la pupila aumenta su diámetro y con mucha luz lo disminuye, aunque
no sólo el nivel de luminosidad es capaz de modificar el nivel de dilatación
pupilar. Algunos psicólogos han comprobado que el nivel de dilatación de
la pupila es un buen indicador del nivel de activación emocional y arousal
que un organismo soporta. El detector de androides del célebre film Blade
Runner, de R. Scott, se basaba en el mismo principio.
Figura 7.8 Esquema idealizado del modo en que el cerebro podría utilizar el nivel de tensión de
los músculos oculares para estimar la distancia entre el perceptor y los objetos visuales. Adaptada
de Sekuler y Blake (1994).
249
Percepción
Figura 7.9
Principales estructuras del ojo humano. Adaptada de Sekuler y Blake (1994).
Por delante del iris y la pupila se encuentra una lente ocular, también llamada cristalino, que puede alterar su forma, esto es, hacerse más fina o
más gruesa, para variar a su vez el punto de convergencia de los rayos que
la atraviesan. Así, y en términos generales, se hará más fina para enfocar
adecuadamente los objetos lejanos y más gruesa para enfocar los objetos
cercanos (véase el Capítulo 11). Alteraciones en la curvatura del cristalino
producen distorsiones en la imagen que, en conjunto, son conocidas como
astigmatismo (véase la Figura 7.10).
Figura 7.10 Si el lector percibe variaciones en el grosor o la curvatura de las líneas, seguramente
tiene un problema de astigmatismo. Por supuesto, si utiliza lentes correctoras, antes de probar debería quitárselas. Adaptada de Sekuler y Blake (1994).
250
7. Procesamiento básico de la visión
En el fondo del globo ocular se encuentra la retina, estructura que contiene las células sensibles a la luz. La información recibida y procesada por
la retina sale del globo ocular transportada por el nervio óptico a través del
punto ciego, así llamado por carecer, como es lógico, de receptores (Figura
7.11).
Figura 7.11 Cierre el ojo izquierdo. A continuación tome el libro en sus manos y coloque el punto
de fijación (la X) frente a su ojo derecho. Sin perder el punto de fijación, comience a mover muy
despacio el libro hacia atrás o hacia adelante. Si tiene la paciencia necesaria, habrá un momento en
que de pronto el punto redondo de la derecha se desvanecerá. Acaba usted de ubicar su punto ciego.
4.2
La retina
La retina recubre casi toda la superficie interna y posterior del ojo. Su función primordial es asimilar fotones y codificar electroquímicamente la
energía electromagnética recibida, para después enviarla al cerebro. Detrás
de la retina se encuentra, como ya hemos apuntado, el coroides, que proporciona las enzimas necesarias para la síntesis de los pigmentos fotosensibles.
Dadas sus propiedades ópticas (recuérdese el funcionamiento de la cámara oscura), la imagen exterior (estímulo distal) se proyecta invertida sobre la retina. La retina se adhiere al coroides que nutre a los receptores y
permite la síntesis de los fotopigmentos que éstos contienen.
La retina se estructura, básicamente, en tres capas, que describiremos de
dentro a fuera, es decir, desde la más cercana al coroides a la más alejada
(en la Figura 7.12 la descripción iría de abajo arriba):
a)
La primera es la formada por los fotorreceptores propiamente dichos. Hay dos tipos de fotorreceptores: los conos y los bastones.
Los conos se encargan de la visión diurna y los bastones de la nocturna (buenas y malas condiciones de luz). Los bastones son mayores que los conos y también más abundantes (20 contra uno, aproximadamente) y su distribución sobre la superficie de la retina no es
uniforme (en la Figura 7.12 los conos son claramente más pequeños
y oscuros que los bastones). En concreto, los conos son muy frecuentes en el centro de la retina y muy escasos en el resto de la misma. Justo lo contrario sucede con los bastones (véase la Figura
7.13). Si el lector está familiarizado con la observación nocturna del
firmamento se habrá dado cuenta intuitivamente que las estrellas de
251
Percepción
Figura 7.12
Organización anatómica de la retina. Adaptada de Sekuler y Blake (1994).
baja magnitud luminosa se localizan más fácilmente si se miran con
el rabillo del ojo, es decir, haciendo que la luz que proyectan incida
sobre la zona con mayor densidad de bastones, justo en la periferia
de la fóvea.
En la parte más cercana al coroides los receptores presentan una
suerte de saco que contiene capas superpuestas de pigmentos fotosensibles, cuya estructura molecular se altera cuando la luz incide
252
7. Procesamiento básico de la visión
180.000
punto ciego
160.000
bastones
número de bastones
y conos por mm2
140.000
120.000
bastones
100.000
80.000
60.000
40.000
20.000
conos
conos
fóvea
periferia
tempopral
punto
ciego
periferia
nasal
Figura 7.13 Distribución de fotorreceptores (conos y bastones) sobre la superficie de la retina.
Adaptada de Sekuler y Blake (1994).
sobre ellos. Las capas se dividen entonces en dos partes, dejando
una especie de canal entre ambas y cerrando el flujo hacia el interior de iones sodio positivamente cargados. La célula se hiperpolariza, es decir, se carga negativamente (pasando de 40 a 70-80 mv),
provocando así la transmisión sináptica a la siguiente capa.
En el centro de la retina se encuentra la fóvea, en cuyo centro, a
su vez, se dispone la mácula lútea (literalmente, mancha amarilla).
En el centro de la mácula se sitúa, a su vez, la fóvea centralis, una
especie de depresión en la que sólo hay conos y que es, por tanto, la
zona de la retina sobre la que se proyectan los objetos que intentamos percibir con mayor precisión en condiciones de alta luminosidad.
b) La segunda capa está compuesta por las células bipolares, que
constituyen la primera estación de relevo de la información visual
en su viaje hacia el cerebro, y que sirven ya para integrar información de diversos receptores específicos.
253
Percepción
c)
En tercer lugar, y en la parte de la retina más alejada del fondo del
ojo, se encuentran las células ganglionares, que integran la información remitida por las células bipolares, y por cuyos axones, unidos ya en el nervio óptico, sale la información retiniana hacia los
centros visuales del cerebro a través del punto ciego
Se han descrito tres tipos de células ganglionares en virtud de su
velocidad de conducción del impulso nervioso: las células X (20
metros por segundo), que parecen encargadas de procesar estímulos
A
Campo receptivo
de centro encendido
B
Campo receptivo
de centro apagado
Área
encendida
Área
apagada
Área
apagada
Área
encendida
Luz
Luz
1
Punto
central
2
Punto
periférico
3
Iluminación
central
4
Iluminación
periférica
5
Iluminación
difusa
0
0,5
1,0
segundos
Figura 7.14 Patrones de respuesta típicos de las células ganglionares de centro encendido (A) y
apagado (B) ante distintos tipo de iluminación. Adaptada de Monserrat (1998).
254
7. Procesamiento básico de la visión
estáticos; las células Y (40 m/seg.), que parecen procesar estímulos
en movimiento; y las células W (10 m/seg.), que envían información
a partes muy primitivas del cerebro y que pueden estar implicadas
en el control motórico del ojo y la cabeza para centrar visualmente
los objetos del entorno. Se trata, por tanto, de células implicadas en
la dinámica atencional del organismo.
Cada célula ganglionar tiene su propio campo receptivo. El
campo receptivo de una célula ganglionar define el conjunto, de
forma aproximadamente circular, de receptores fotosensibles (recordemos que ni las bipolares ni las ganglionares lo son) cuya activación o inhibición afecta a su funcionamiento. Hay dos tipos de campos receptivos y, por tanto, de respuestas ganglionares: de centro
encendido y de centro apagado. En el primer caso, la célula ganglionar se activa máximamente si se activan los receptores del centro de su campo y permanecen sin activar los receptores de la periferia. En el segundo caso, sucede justo lo contrario, esto es, la
ganglionar está máximamente activa si los receptores del centro de
su campo no son activados por la luz y sí lo son los situados en la
periferia (Figura 7.14). Los patrones de iluminación mixtos producen, como es lógico, niveles de activación menos acusados. La percepción del contraste es óptima en aquellos casos en que el patrón
estimular se ajusta, por así decirlo, a la estructura física del campo
receptivo.
Conviene recordar, en todo caso, que el nivel de integración o convergencia de las ganglionares que conectan con conos y bastones es diferente.
En efecto, lo normal es que cada uno de los conos conecte exclusivamente
con una ganglionar (a través de una bipolar, como es lógico) y viceversa,
esto es, que cada ganglionar conecte con un solo cono. Por el contrario, las
ganglionares que integran la información procedente de los bastones tienen
un campo receptivo mayor, es decir, una sola ganglionar integra información de muchos bastones. La lógica de esta diferencia en el nivel de convergencia de conos y bastones es relativamente fácil de entender. Los conos,
como sabemos, funcionan mal en situaciones de baja luminosidad, pero son
altamente eficaces en la percepción de contornos, bordes y contrastes cuando hay mucha luz. Por esa razón, la información procedente de los conos
tiene que ser procesada de manera más selectiva y precisa que la procedente de los bastones.
Las ganglionares también se han clasificado en virtud de otros criterios.
Las parvocélulas (parvo = pequeño) tienen campos receptivos más pequeños que las magnocélulas, lo que implica que las primeras responden mejor
ante objetos pequeños que las últimas. En segundo lugar, las magnocélulas
responden mejor a diferencias pequeñas de luminosidad entre centro y periferia, mientras que las parvocélulas requieren contraste intensos. En tercer
255
Percepción
lugar, las magnocélulas responden muy rápidamente a la estimulación,
siendo las parvocélulas más lentas. Por último, las parvocélulas son sensibles al color y las magnocélulas no. En concreto, la estimulación diferencial de centro y periferia con colores antagónicos (rojo-verde) produce un
efecto de inhibición de la activación.
Se sabe, pues, que la interacción neuronal en la retina no se produce sólo
de abajo arriba, esto es, de los fotorreceptores a las bipolares y de éstas a
las ganglionares. En la retina se dan también efectos de interacción laterales. La organización diferencial entre centro y periferia de los campos receptivos de las células ganglionares tiene mucho que ver de hecho con estos procesos de interacción lateral. Las activaciones de las neuronas de cada
parte (centro y periferia) se suman, pero la activación general de la célula
ganglionar implica computar los efectos diferenciales de cada parte. De
esta manera, si las dos partes del campo receptivo reciben el tipo de estimulación que necesitan, sus efectos se suman y se alcanza un nivel de activación máximo en la ganglionar, pero si el estímulo produce efectos opuestos
en el centro y en la periferia, las dos regiones antagonistas compiten entre
sí y la célula ganglionar correspondiente se mantiene casi inactiva. Esta interacción entre regiones antagonistas es conocida como inhibición lateral.
La inhibición lateral es uno de los procesos básicos más importantes en la
explicación de muchos fenómenos perceptivos, como la percepción del
contraste, y ciertas ilusiones perceptivas muy llamativas (Figura 7.15).
4.3
El procesamiento de la información visual en el cerebro
Hasta el momento hemos visto cómo la información procesada a nivel retiniano era transportada fuera del globo ocular por los axones de las ganglionares (nervio óptico) a través del punto ciego. Pero, ¿qué sucede cuando el
patrón de energía luminosa, ya codificado neuralmente, abandona definitivamente el ojo? Para entender lo que sucede inmediatamente después debemos recordar un hecho relativamente simple, y que ya hemos mencionado.
Recordemos que el ojo humano se parece mucho, como dispositivo óptico,
a una cámara oscura. Los rayos de luz reflejados por los objetos que vemos
penetran en el globo ocular siguiendo trayectorias rectilíneas que tienden a
converger sobre la pupila (apertura que permite el paso de la luz al interior
del globo ocular). Si la trayectoria de estos rayos se prolonga, resulta muy
fácil comprobar que los objetos se proyectan invertidos sobre la retina, de
manera que las porciones más cercanas a la nariz del campo visual objetivo
se proyectarán sobre la porción opuesta (temporal) de la retina, y viceversa,
esto es, las porciones más temporales del campo visual se proyectarán sobre la porción nasal de la retina. Otro tanto ocurre con el eje vertical del
campo visual. Por lo tanto, a estas alturas, esto es, cuando los axones de las
256
7. Procesamiento básico de la visión
Respuesta
intensa
Respuesta
débil
Punto de fijación
Figura 7.15 En la parte superior de la figura podemos observar una de las múltiples variantes de
la rejilla de Hermann. El lector podrá observar manchas grises en todos los cruces excepto en aquel
en el que se fije visualmente. En la parte inferior, aparece una explicación tentativa de este efecto a
partir de la dinámica centro-periferia de los campos receptivos (consultar Figura 7.14). Adaptada
de Sekuler y Blake (1994).
ganglionares salen del globo ocular, tenemos dos patrones informativos
(uno para cada ojo) invertidos respecto a la disposición real del objeto. Por
lo demás, y dado que la luz procedente del objeto externo incide de manera
distinta en cada ojo, al estar dispuestos en lugares distintos los patrones serán diferentes entre sí. La primera tarea del sistema nervioso consiste en
poner las cosas en su lugar, es decir, mantener la independencia de aquellas
partes del campo visual que son específicas de cada ojo e intercambiar la
información redundante para poder compararla. Esta compleja operación
de reajuste informativo tiene lugar en el quiasma (por la forma de X, chi en
griego) óptico. En el quiasma óptico los axones de las ganglionares procedentes de las porciones nasales de las retinas se decusan, o cambian su trayectoria, para pasar al hemisferio cerebral contrario, mientras que los axones procedentes de las porciones temporales de la retina se mantienen en el
257
Percepción
Ojo derecho
Ojo izquierdo
Imagen retiniana
Cálculo superior
(lóbulo izquierdo)
Nervios ópticos
Quiasma óptico
Tractos ópticos
Núcleo geniculado
lateral (izquierdo)
Radiaciones
ópticas
Córtex de asociación visual
Córtex estriado
Figura 7.16 Representación esquemática del curso de la información visual desde la retina hasta
el córtex estriado. Adaptada de Frisby (1979).
mismo hemisferio (véase Figura 7.16). Una vez que el nervio óptico se decusa en el quiasma pasa a denominarse tracto óptico.
A partir de este momento, la información procedente de la retina puede
proyectarse en dos direcciones distintas. Uno de los caminos, o vías visuales, posibles es el que se conoce como sistema genicular estriado; el otro se
conoce como sistema tecto pulvinar.
La mayor parte de las fibras del tracto óptico acaban su ya largo viaje en
una formación presente en ambos hemisferios que se denomina núcleo geniculado lateral (NGL), situada en el cerebro medio. Cada capa o estrato
de los seis que componen el NGL recibe axones de un solo ojo, es decir,
una misma capa no puede recibir información procedente de los dos ojos
(Figura 7.17). Las neuronas del NGL tienen sus propios campos receptivos
que funcionan con la misma lógica (centro encendido o apagado) que los
campos receptivos de las ganglionares y presentan una cierta selectividad
258
7. Procesamiento básico de la visión
respecto a las ganglionares con las que sinaptan: algunas sinaptan con ganglionares X (estímulos estáticos) y otras con ganglionares Y (estímulos en
movimiento). Lo mismo sucede en relación a las magno y parvocélulas. De
hecho los axones de las magnocélulas de la retina sinaptan en las dos primeras capas del NGL, mientras que los de las parvocélulas lo hacen en las
cuatro restantes. Por otro lado, se sabe que la distribución de la información
en el NGL respeta la posición objetiva de los elementos del campo visual,
de manera que elementos próximos en el campo visual se corresponden con
puntos próximos de activación en el NGL.
Las fibras que parten del NGL llevan la información al lóbulo occipital,
en primer lugar al área 17, denominado córtex estriado o córtex visual primario, y después a las áreas 18 y 19 (córtex extraestriado o visual secundario). La investigación parece demostrar que el sistema genicular estriado
está implicado en la resolución espacial fina de las imágenes.
La otra vía por la que discurre la información visual recibe el nombre de
sistema tecto pulvinar. Algunas de las fibras que parten del núcleo geniculado lateral se proyectan hacia una formación denominada tectum, y desde
allí hasta el núcleo pulvinar y el núcleo lateral posterior, desde donde se
proyectan hacia el córtex visual secundario. Todo parece indicar que se trata de una vía relativamente primitiva, encargada de procesar la información
procedente de las ganglionares W, relacionadas, como ya hemos indicado,
con la localización espacial de los objetos.
Ojo izquierdo
Ojo derecho
Retina
nasal
Retina
temporal
Fibras
ipsilaterales
Fibras
contralaterales
Esquema de la
organización en
capas del NGL
NGL derecho
Figura 7.17 Organización de las sinapsis en las distintas capas del núcleo geniculado lateral derecho. Adaptada de Monserrat (1998).
259
Percepción
4.4
El córtex visual
Las investigaciones desarrolladas a partir de técnicas de registro de actividad neuronal muestran que existen tres tipos de células corticales implicadas en la visión:
a)
Las células simples tienen campos receptivos retinianos bien delimitados y se activan ante estímulos de características bien definidas
(barras, ángulos) en cuanto a su orientación en el espacio. Sólo responden ante estímulos estáticos. Las células simples se organizan
en hipercolumnas que permiten dar cuenta de todas las orientaciones posibles de un estímulo (véase Figura 18). Las células de columnas contiguas varían su sensibilidad a la orientación del estímulo en unos 10 grados, desde 0 grados hasta 180.
b) Por su parte, las células complejas tienen campos receptivos peor
definidos y por lo tanto su patrón de activación es también más indefinido. Se ha mostrado, no obstante, que muchas de las células de
este tipo se activan ante estímulos que se mueven en una dirección
determinada.
c) Por último, las células hipercomplejas tienen propiedades aún más
indefinidas, aunque parece que algunas responden a estímulos con
movimiento, dirección y orientación altamente específica.
Como hemos ido viendo, a lo largo de su viaje neurológico la información visual mantiene una cierta fidelidad a los objetos externos o, mejor, a
la estructura óptica del medio. Esta relación topológica, aunque con ciertas
inversiones (retina, quiasma) se mantiene también a nivel cortical, de manera que se puede decir que en el córtex se proyecta en cada momento una
especie de mapa topológicamente equivalente a la imagen externa, esto es,
zonas próximas en la imagen externa activan células próximas en el córtex
visual. Sin embargo, la investigación ha demostrado que las zonas más importantes del campo visual, que, a la sazón, son también las zonas mejor
enfocadas y por lo tanto procesadas por los conos de la fóvea, merecen más
territorio cortical que las zonas periféricas. Este fenómeno es conocido
como magnificación cortical.
Hasta este momento todos los conceptos que hemos manejado resultarían
viables para un sistema visual provisto de un solo ojo. Sin embargo, la importancia de la visión binocular en la estimación de la distancia a la que se
encuentran los objetos respecto al ojo y de la distancia relativa entre los objetos de la escena visual se refleja en la existencia de células del córtex visual primario especializadas en la visión binocular. En efecto, se han detectado células individuales que, aún pudiendo activarse con estimulación
procedente de un solo ojo, alcanzan su nivel más alto de activación cuando
son estimuladas por patrones ópticos semejantes procedentes de ambos ojos.
260
7. Procesamiento básico de la visión
Escena
Ojo izquierdo
Ojo derecho
Bloques de orientación
(cada bloque se compone de células con la
misma orientación)
Información del
ojo izquierdo
Al otro
hemisferio
cerebral
Información del
ojo derecho
Tipo de célula
(todas en la
misma
orientación)
Posición a través
del hipercampo
Observe que las posiciones a
través del hipercampo están
a lo largo de las direcciones
en ángulos rectos respecto a
la orientación del campo receptor
Figura 7.18
Esquema general de una hipercolumna. Adaptada de Frisby (1979).
Las células responsables de la percepción del color en el área 17 se suelen encontrar en las capas superiores del córtex, y están conectadas indirectamente con las parvocélulas sensibles al color de la retina y del NGL. Se
trata de células que no muestran ninguna preferencia en la orientación de
contornos o bordes y su dinámica respecto al color, aunque un poco más
compleja, es muy semejante (organización centro-periferia) a la que atribuíamos a las parvocélulas.
261
Percepción
En cualquier caso, las proyecciones sobre el córtex visual primario no
son el último trayecto, ni mucho menos, de nuestro viaje. La investigación
ha puesto de manifiesto que la lógica de la organización del sistema visual,
más allá de este punto, es la lógica de la especialización por áreas, algunas
de las cuales parecen presentar cometidos altamente específicos, desde la
percepción del color (V4, por ejemplo), hasta la percepción del movimiento
o de caras humanas vistas desde perspectivas concretas.
5.
Consideración final
En este capítulo hemos intentado describir muy sucintamente lo que podríamos denominar condiciones de posibilidad sobre las que opera la visión. Estas condiciones son la existencia de una cierta forma de energía (la
luz) y de una determinada organización biológica capaz de sacar partido de
la misma en su lucha por la supervivencia. Pero el problema científico de la
visión no se puede cerrar sobre sus condiciones de posibilidad. Entre otras
razones porque la mera descripción de las mismas opera sobre ciertos prejuicios con relación a las funciones que cumple. Por ejemplo, en la actualidad sigue existiendo una intensa disputa entre los científicos partidarios de
entender el sistema visual como una procesador de rasgos (de Valois y de
Valois, 1990) —en cierto modo esta es la perspectiva que por simplificar la
exposición hemos adoptado en este capítulo— y los partidarios de entenderlo como un analizador de frecuencias espaciales (Campbell y Robson,
1964; Hubel y Wiesel, 1959, 1979; Hubel, Wiesel y Stryker, 1978). Lo más
interesante en relación a la reflexión que estamos apuntando aquí es que se
pueden encontrar unidades funcionales del sistema visual (por ejemplo, una
ganglionar) que responden tanto a ciertas propiedades geométricas de los
estímulos como a ciertas frecuencias espaciales, de manera que no hay un
criterio claro para decidir qué es lo que realmente procesa el sistema visual.
Por otro lado, el énfasis en los componentes biológicos de la percepción
fomenta, tal vez más allá de lo que sería deseable, la sensación en los psicólogos de estar pisando en firme, una sensación altamente infrecuente en
este colectivo y también altamente deseada. Por esta vía se conjura el fantasma de la especulación y se entra aparentemente en el territorio franco y
seguro de la verdadera ciencia. Aunque el movimiento que estamos describiendo fuese en algún sentido válido, todavía deberíamos decidir si estaríamos haciendo psicología. A medio camino se encuentra, no obstante, la
trampa del mecanicismo cognitivo como versión atenuada del reduccionismo biologicista.
La idea de que el sistema visual, y la mente humana, en general, funciona como una máquina tiene una larga historia que no podemos pormenorizar aquí. La metáfora del sistema visual como mecanismo alcanza su nivel
óptimo de difusión con la aparición de los ordenadores. Desde entonces la
262
7. Procesamiento básico de la visión
mayor parte de los científicos interesados en la visión han trabajado bajo el
supuesto de que el sistema visual es una máquina de transformación de
energía en información. La adopción de la metáfora mecanicista en la psicología de la percepción visual ha tenido y tiene algunas implicaciones que
conviene señalar:
a)
La idea de que el sistema visual funciona con reglas fijas, o que, en
todo caso, los fenómenos que contravienen el funcionamiento reglado son la excepción y no merecen la atención de los científicos.
b) La idea de que las explicaciones evolutivas o funcionales son relativamente secundarias. Lo que importa más bien es definir las condiciones internas (definidas como reglas de cálculo) que permiten
convertir la energía lumínica en información manejable por el sistema.
c) La concepción de las condiciones biológicas (estructuras y procesos neurológicos) como mero plano de implementación. Es decir, la
descripción biológica del sistema visual no es utilizada como estrategia para explicar, sino como estrategia para localizar, para situar,
funciones definidas en un plano generalmente lógico-matemático,
computacional.
d) La atribución de un papel relativamente secundario a las condiciones biológico-evolutivas lleva a trabajar implícitamente con una
imagen idealizada del sistema visual. Una imagen que no recoge
adecuadamente el desarrollo ontogenético de la función visual, ni
saca el partido necesario del análisis de sus alteraciones.
e) Finalmente, la idea de que la función visual puede ser descrita con
relativa independencia respecto a otras funciones psicológicas. Esta
idea ha alcanzado su expresión filosófica más depurada con la hipótesis de la modularidad recogida de la tradición y difundida en los
últimos tiempos por Fodor. Por más que se insista habitualmente (y
con una insistencia tal vez sospechosa) en el carácter activo del procesamiento de información visual, la visión ha sido tradicionalmente desligada tanto teórica como metodológicamente del plano de la
acción.
El éxito social, si no científico, de la metáfora mecanicista en la explicación de la función visual, y del comportamiento humano, se entiende en
parte como una consecuencia de la obsesión de los científicos del comportamiento por buscar soluciones simples, intentando remedar en sus dominios las estrategias de explicación habituales en las así llamadas ciencias
duras. Pero las cosas en el dominio de la percepción no son en absoluto
simples, como el lector habrá podido intuir a lo largo de este capítulo. Es
necesario que asumamos en toda su magnitud la complejidad de los fenómenos perceptivos si queremos hacer una psicología de la percepción que
263
Percepción
alcance el papel de piedra angular que debería desempeñar en el dominio
de la explicación psicológica. Para ello es fundamental que encontremos,
en todos los niveles de análisis, sus vínculos con el plano de la acción. En
buena medida porque si la percepción no es una forma de acción no es
nada. Sólo de esa forma conseguiremos entender cómo la visión puede ir
más allá de los mundos que nos traen a la mano nuestras condiciones biológicas, para convertirse en una forma de acción que no sólo nos permite introducir el mundo en nuestra conciencia, sino que, además, nos permite introducir nuestra conciencia en el mundo y transformarlo.
Bibliografía comentada
Merleau-Ponty, M. (1945/1975): Fenomenología de la Percepción, Barcelona, Ediciones Península. Se trata de un trabajo filosófico excepcional en el que el autor
defiende la viabilidad de un estudio fenomenológico de la percepción, concitando en su argumento elementos procedentes de la biología, la física o la psicología. Antes que nada se trata de una descripción exhaustiva de la experiencia perceptiva (visual, sobre todo), que nos permite problematizar nuestra idea intuitiva
de la misma e indagar en las limitaciones de una aproximación estrictamente
científica al problema. El preámbulo es la parte más interesante para los propósitos de este capítulo.
Monserrat, J. (1998): Percepción Visual, Madrid, Biblioteca Nueva. El Capítulo 3
presenta una síntesis bien organizada y bastante completa de las condiciones físicas sobre las que opera el sistema visual.
Sekuler, R. y Blake, R. (1994): Perception. Nueva York, Mc Graw Hill. Resulta
muy interesante y muy asequible el argumento que en el Capítulo 2 se pone en
juego para explicar el sentido adaptativo de la visión.
Kubovy, M. (1986/1996): Psicología de la Perspectiva y el Arte del Renacimiento,
Madrid, Trotta. Explica con precisión, tomando como pretexto la evolución de
la perspectiva a lo largo del Renacimiento, cómo una función «natural», la visión, puede ser modulada por la cultura.
264
7. Procesamiento básico de la visión
Preguntas de revisión
1. Explica desde un punto de vista evolutivo por qué los campos ópticos
de los carnívoros suelen ser diferentes a los de los herbívoros.
2. Describe una situación en la que la experiencia visual esté influida por
factores culturales o sociales.
3. Reflexiona e investiga el siguiente fenómeno: si en el punto ciego no
hay fotorreceptores, ¿cómo es que no tenemos un «agujero» en nuestro campo visual?
4. ¿Qué sentido tiene la decusación parcial del nervio óptico en el quiasma óptico?
5. ¿Por qué los fotorreceptores están ubicados en el fondo del globo ocular?
6. Generalmente consideramos que la visión implica la puesta en marcha
de procesos que se cursan automáticamente, que no exigen el concurso
activo del sujeto, y que se ubican, por así decirlo, en el polo opuesto
al polo de la acción. Reflexiona sobre las consecuencias que tendría
considerar la percepción como una forma de acción.
265
8. Percepción del contraste:
procesamiento de bajo nivel
José Antonio Aznar Casanova
Campbell y Robson (1968) sostenían la tesis de que el sistema visual lleva
a cabo un análisis de la luz que incide sobre el ojo, similar al análisis de
Fourier. Estos autores sugirieron que el sistema visual respondía a un enrejado de forma de onda cuadrada mediante sus respuestas a las frecuencias
espaciales de sus ondas componentes y presentaron evidencias a favor de
este argumento en numerosos trabajos experimentales. Mediante un experimento psicofísico llegaron a determinar la denominada Función de Sensibilidad al Contraste (FSC). Dicha FSC consiste en una representación gráfica del contraste físico necesario para lograr que sea visible un enrejado
en función de su frecuencia espacial. Así, demostraron experimentalmente
que los sujetos tienen diferente sensibilidad al contraste según varíe la frecuencia espacial de los enrejados.
Hasta la fecha han sido propuestas numerosas aplicaciones de la FSC,
entre las que destacamos: 1) como instrumento para describir la capacidad
del Sistema Visual Humano (SVH), 2) también sirve para predecir la sensibilidad del SVH ante otros estímulos diferentes, y 3) para explicar la
aparición de fenómenos perceptivos, filtrando las imágenes con una función bidimensional conocida como SSC o Superficie de Sensibilidad al
Contraste.
El paso siguiente consistió en tratar de explicar el mecanismo responsable de ello. La hipótesis, que cuenta con mayor evidencia empírica, se basa
en la idea de que la FSC sería un reflejo de la actividad de un cierto número de canales psicofísicos especializados (sintonizados o afinados), cada
267
Percepción
uno de ellos, en responder a un estrecho rango de frecuencias espaciales.
Este modelo multicanal presupone que el SVH ejecuta algo así como un
análisis de Fourier de la imagen de entrada y que cada canal analiza unos
determinados componentes espectrales.
En este capítulo se describen algunas investigaciones que avalan la
existencia de los canales psicofísicos, las características que presentan, los
paradigmas experimentales que han permitido conocer información sobre
ellos y, finalmente, mediante qué funciones matemáticas se pueden modelizar.
1.
Introducción
Al ver fotografías de escenas en blanco y negro, cine o televisión acromática, todos hemos comprobado alguna vez que es posible discriminar formas
y reconocer los objetos existentes. Muchas personas se preguntan: ¿qué propiedad del estímulo, al interaccionar con el sistema visual, posibilita este
reconocimiento? La respuesta es el contraste, rasgo que tiene que ver con
los diferentes porcentajes de luz reflejados por los objetos adyacentes. El
término clave es el de diferencias. Efectivamente, para individualizar regiones disjuntas de una imagen debemos detectar la aparición de áreas retinianas vecinas con distinta claridad, lo cual es una consecuencia de que diferentes superficies u otros objetos próximos reflejan diferente intensidad de
luz. Cuando estas diferencias entre áreas vecinas sean extraídas, el sistema
visual podrá delimitar las fronteras que individualizan dichas superficies u
objetos, esto es, será capaz de detectar bordes físicos o contornos. Varias
células retinianas y postrretinianas de la vía genículo-estriada parecen haber sido diseñadas, durante la evolución, para responder ante tales diferencias de intensidad de luz entre regiones adyacentes.
Por otra parte, el aumento en la intensidad de la iluminación externa no
supone un aumento en la misma proporción en la intensidad percibida,
como se comprueba en psicofísica. La peculiar manera del sistema visual
de responder ante las variaciones en las condiciones de iluminación se evidencia en la siguiente demostración de Hurvich y Jameson (1966): «Si nos
ponemos una lente de gafas de sol (oscura) en uno de los dos ojos y leemos
un libro, observaremos que toda la página queda oscurecida. Si ahora nos
tapamos el ojo que veía con la lente oscurecida, observaremos que aumenta
la claridad.». ¿Por qué, si entra más luz con los dos ojos juntos (aunque uno
lleve una lente), vemos más claro con un solo ojo? La respuesta a esta cuestión debe tener en cuenta que la percepción binocular de la claridad no resulta de la simple suma de las descargas excitatorias generadas en los fotorreceptores de las dos retinas, sino que, de algún modo, se efectúa un
promedio de los impulsos excitatorios de ambas retinas.
268
8. Percepción del contraste: procesamiento de bajo nivel
2.
La luz
Algunos objetos —el sol, las lámparas eléctricas, los tubos de rayos catódicos, las velas y algunos animales como las luciérnagas, los peces abisales,
etcétera— emiten energía radiante, dentro del espectro visible, y se les denominan fuentes luminosas. Otros objetos, sin embargo, no tienen la capacidad de emitir luz y sólo son visibles cuando reflejan la luz, que incide sobre ellos, proveniente de las fuentes luminosas.
La luz consiste en una radiación electromagnética emitida por incandescencia o por luminiscencia, que al incidir sobre los objetos los hace visibles. En esta definición aparecen una serie de términos que conviene precisar:
— Radiación es la emisión o propagación de la energía en forma de ondas o partículas sub-atómicas.
— Incandescencia es la propiedad de los cuerpos de emitir luz por aumento de su temperatura.
— Luminiscencia es la propiedad que tienen algunas sustancias de emitir luz bajo el efecto de una excitación, la cual puede ser de origen:
a) luminoso, por ejemplo la fotoluminiscencia (fluorescencia, fosforescencia); b) mecánico (la triboluminiscencia); c) térmico (termoluminiscencia); d) eléctrico (electroluminiscencia); e) orgánico (bioluminiscencia); f) por fenómenos químicos (quimioluminiscencia); g)
por radiaciones de onda corta (radioluminiscencia).
La especificación de la intensidad de energía luminosa puede realizarse
en términos físicos (radiométricos); sin embargo, dado que en las escalas
físicas no se tiene en cuenta al observador, se elaboraron escalas derivadas
de éstas, conocidas como fotométricas. Teniendo en cuenta que los observadores evalúan la intensidad de la energía radiante de modo subjetivo, sin
que existan unidades de medida constantes y universales, la psicofísica desarrolló escalas que relacionan lo objetivo (físico) con lo subjetivo (sensación). Veamos cuáles de las escalas de medición de la intensidad de luz han
permitido elaborar escalas psicofísicas:
Iluminancia o iluminación (I): es la cantidad de luz incidente sobre una
superficie.
Reflectancia (R): es el porcentaje de luz reflejada por una superficie
opaca. Un término relacionado con la reflectancia que conviene aclarar es
el albedo, que indica la proporción de luz reflejada por un objeto. Por tanto,
es una propiedad del objeto e independiente de la intensidad de luz que incide sobre él. Si el valor del albedo es próximo a 1, por ejemplo una hoja
de papel blanco, se refleja casi toda la energía luminosa que incide sobre el
objeto, mientras que si el valor del albedo es próximo a 0, por ejemplo el
carbón, apenas se refleja la energía luminosa que le llega. Ello implica que
269
Percepción
la percepción de la luminosidad no depende sólo de la intensidad de luz incidente, sino también de las propiedades reflectantes de las superficies.
Luminancia (L): es la intensidad de luz emitida por una fuente en una
cierta dirección por cada unidad de superficie iluminante. El aparato de
medida utilizado para su medición es el fotómetro o luxómetro. Se obtiene
al combinar la iluminancia con la reflectancia:
L=I·R
Las principales escalas psicofísicas relacionadas con las anteriores son:
Brillantez o Brillo: es la luminancia de una superficie juzgada por un sujeto. En otras palabras, es la estimación subjetiva de la luminancia o luminancia percibida. Existe una escala de brillo que va del mínimo brillo o invisible al máximo brillo o deslumbrante.
Claridad: es la reflectancia de una superficie juzgada por un sujeto. Es
decir, la estimación subjetiva de la reflectancia o reflectancia percibida.
Existe otra escala psicofísica que va del mínimo de claridad (o máximo de
oscuridad), negro, hasta el máximo de claridad, el blanco.
LUZ
SOMBRA
Figura 8.1
PAPEL
CARBÓN
• Claro
• Oscuro
• Brilla
• Brilla
• Claro
• Oscuro
• No brilla
• No brilla
Relación entre brillo-luminancia y claridad-reflectancia.
Con frecuencia, en el lenguaje ordinario, se confunden los términos brillo y claridad, por lo que no es trivial poner un ejemplo que clarifique esta
distinción. Tanto a la luz del sol como a la sombra, el papel suele ser blanco
y el carbón negro. Sin embargo, el papel al sol nos parece más brillante,
pero no más claro. Y el carbón al sol nos parece más brillante, pero igual
de oscuro que en la sombra.
3.
El contraste
El término contraste tiene dos acepciones:
Contraste físico (m): se refiere a la diferencia de intensidad luminosa entre áreas vecinas. Se obtiene, de acuerdo con la fórmula de Mi-
270
8. Percepción del contraste: procesamiento de bajo nivel
chelson (1927), dividiendo la amplitud (A) de la onda por la luminancia media (L0):
m = A/ L0,
donde A = (Lmáx–Lmín)/2 y L0 = (Lmáx+Lmín)/2, por tanto
m = (Lmáx–Lmín)/(Lmáx + Lmín).
Contraste perceptivo: se refiere al hecho de percibir la diferencia de claridad entre áreas adyacentes. No siempre un alto contraste físico produce
un alto contraste perceptivo, ya que, en este último, además del contraste físico influyen los cinco factores siguientes:
1) El estado de adaptación del observador a la luz. Ciertamente, cuanto
mayor es la iluminación, menor es la sensibilidad de la retina a la
luz. Debido a ello, por ejemplo, podemos no advertir que nos dejamos los faros del coche encendidos durante el día.
2) El contraste simultáneo acromático, según el cual dos áreas que reflejan el mismo porcentaje de luz parecen distintas en claridad. En
la Figura 8.2 podemos observar cómo, a pesar de que se trata del
mismo nivel de gris, el área que tiene la periferia más oscura parece
más clara que el área que tiene la periferia más clara.
Figura 8.2
Contraste simultáneo acromático.
3) El tipo de contorno que delimita los objetos. Según el contorno sea
nítido o difuso, percibiremos mayor o menor contraste, respectivamente, como puede observarse en la Figura 8.3. Por lo general, los
contornos nítidos o abruptos se perciben con mayor contraste.
4) La posición aparente del objeto en el espacio. Alan Gilchrist (1977)
mostró experimentalmente que según perciba el sujeto las distancias
relativas entre tres cartulinas (dos blancas y una negra) juzgaba que
una de ellas, precisamente una de las blancas, tenía diferente claridad que la otra cartulina blanca.
271
Percepción
Figura 8.3
Contorno nítido y contorno difuso.
5) La frecuencia espacial del estímulo, entendida como número de pares de franjas claras y oscuras (ciclos) por unidad de distancia (o
por grado de ángulo visual). Ordinariamente, se produce que, a mayor frecuencia espacial (mayor número de barras por unidad de longitud) los sujetos perciben menor contraste y viceversa. (véanse los
enrejados de la fila superior de la Figura 8.8).
4.
Ondas sinusoidales
Una onda se produce cuando una perturbación, que altera el estado de equilibrio de un sistema físico, se propaga de un punto del espacio a otro, sin
que se origine desplazamiento de materia. Si representamos la situación
gráficamente, mediante unos ejes cartesianos de manera que en la ordenada
situamos el desplazamiento de las partículas y en la abscisa el tiempo, obtenemos un corte esquemático del movimiento ondulatorio, en el cual podemos distinguir los siguientes elementos (véase la Figura 8.4).
— Cresta es el punto más elevado de la onda. En el caso de la luz representa la luminancia máxima.
— Valle es el punto más bajo de la onda. En el caso de la luz representa
la luminancia mínima.
— Longitud de onda (␭) es la distancia entre dos crestas vecinas. En el
caso de la luz, se halla relacionada con la sensación de matiz cromático (véase Capítulo 9).
— Ciclo es el trozo de onda correspondiente a una vibración completa.
— Período (T) es el tiempo que tarda una partícula en efectuar un ciclo
completo. En el caso de las imágenes se refiere al número de pixels
(contracción de picture element) por ciclo. El período es el inverso
de la frecuencia: T = 1/u.
272
8. Percepción del contraste: procesamiento de bajo nivel
Figura 8.4
Perfil de una onda.
— Frecuencia (u) es el número de ciclos o vibraciones por unidad de
tiempo (o de espacio, en el caso de las imágenes).
— Amplitud (A) es el desplazamiento en altura, sobre el eje de coordenadas, alcanzado por la onda. Se relaciona con la intensidad (del sonido o de la luminancia).
— Fase (␾) se refiere a la posición del movimiento vibratorio en un
momento determinado, expresada en radianes o en grados sexagesimales. En el caso de las imágenes, viene a indicar la distancia al origen del primer máximo de luminancia.
Seguidamente vamos a tratar de caracterizar un tipo particular de ondas
de gran interés en Psicología, se trata de las ondas sinusoidales. Recordemos que en un triángulo rectángulo pueden establecerse, básicamente, seis
razones trigonométricas (sen, cos, tg, cotg, sec y cosec). Como es sabido, la
razón seno de un determinado ángulo (x) se obtiene mediante el cociente
entre el cateto opuesto y la hipotenusa:
sen x = C1/H
La función seno (y = sen x) asigna a cada ángulo (sexagesimal o en radianes) el valor del seno de dicho ángulo. Por tanto, podemos construir una
tabla de valores que constituya el dominio de la función, haciendo variar el
ángulo y calculando el valor de la función seno para cada ángulo:
x
0
30
45
60
sen x
0
1/2
公僓僓僓
2/2 公僓僓僓
3/2
90
180
270
360
1
0
-1
0
273
Percepción
Figura 8.5 Relación entre los lados de un triángulo rectángulo y la función trigonométrica seno
de un ángulo.
Podemos observar, en la Figura 8.6, que la gráfica de la función seno es
una onda periódica, cuyo período se repite idénticamente cada 360º y cuya
amplitud oscila entre +1 y –1. Por esta razón, a las ondas afines las denominaremos ondas sinusoidales.
En la práctica consideraremos que la función seno es equivalente a la
función coseno desplazada – (␲/2) radianes (-90º). Combinando todos estos
conceptos podemos representar, analíticamente, cualquier onda sinusoidal
unidimensional mediante la función:
y = f(x) = A·cos(2␲·u·x + ␾),
donde x es el tiempo (en el sonido) o posición espacial (en una fila de la
imagen).
Función seno
Figura 8.6
274
Representación gráfica de la función seno de un ángulo.
8. Percepción del contraste: procesamiento de bajo nivel
5
Estímulos de enrejado
En el estudio del sonido, los tonos puros, constituidos por una única frecuencia, son funciones periódicas, cuya representación gráfica se ajusta a
la función sinusoidal. Desde el siglo pasado se sabe que cualquier señal auditiva puede sintetizarse sumando tonos puros. Y viceversa, cualquier sonido complejo puede descomponerse (análisis) en una serie de funciones sinusoidales o tonos puros. Por tanto, los tonos puros constituyen un
conjunto de sonidos elementales, átomos, primitivas o elementos irreductibles, a partir de los cuales puede sintetizarse cualquier sonido, ruido o melodía (véase Capítulo 13). Ahora, podemos preguntarnos: ¿cuáles son los
elementos irreductibles (átomos) en que pueden descomponerse las imágenes? La respuesta se refiere, precisamente, a aquel tipo de imágenes cuya
variación de la luminancia se ajuste a una función sinusoidal, es decir, los
enrejados sinusoidales. Los estímulos de enrejado son patrones alternantes
de franjas paralelas, claras y oscuras (véase la Figura 8.7). Si pasamos un
fotómetro a través de un estímulo de enrejado (en dirección ortogonal a las
franjas) obtendremos los valores de luminancia de cada punto de la imagen
o pixels. Después podemos visualizar su perfil de luminancia, esto es, una
representación de la luminancia de cada uno de los puntos de esa imagen,
en función de su posición espacial. (véase el perfil de luminancia de un estímulo de enrejado en la Figura 8.7).
Figura 8.7
barras.
Un enrejado sinusoidal y el perfil de luminancia, perpendicular a la orientación de las
La función resultante será una onda que vendrá caracterizada por los
cinco parámetros que, a continuación, describimos:
275
Percepción
1.
2.
3.
La luminancia media (L0) es el promedio de luminancia de todos
los puntos del enrejado, o, en otros términos, es el nivel de gris promedio del enrejado. Se calcula mediante la fórmula L0 = (Lmax +
Lmin)/2. Se corresponde con el brillo medio, en cuanto estimación
subjetiva de la luminancia.
La amplitud (A) indica la máxima luminancia por encima de la luminancia media. Se calcula mediante la fórmula A = (Lmax Lmin)/2. Un parámetro relacionado con la luminancia media y la
amplitud es el contraste (m), el cual es un índice que expresa la diferencia de intensidad luminosa entre las barras claras y oscuras
(véase la fila central de la Figura 8.8).
La frecuencia espacial (u) es el número de ciclos (pares de franjas
claras-oscuras) por unidad de longitud. Para compensar el hecho de
que el enrejado puede ser observado a diferentes distancias, se utiliza como unidad de medida el número de ciclos por grado de ángulo
visual (c/º) o el número de ciclos por imagen (c/i). Por ejemplo, si la
5 c/i
10 c/i
15 c/i
20 c/i
m=1
m = 0,75
m = 0,5
m = 0,25
0º
30º
60º
90º
Figura 8.8 Estímulos de enrejado, variando algunos parámetros (fila superior: frecuencia espacial; fila central: contraste; fila inferior: orientación).
276
8. Percepción del contraste: procesamiento de bajo nivel
4.
5.
anchura del par de franjas claras-oscuras mide 1 cm, cuando se observa a una distancia de 57,29 centímetros subtiende un ángulo visual (␣) en la retina de 1º sexagesimal, ya que, según la ley del ángulo visual tg-1(␣) = Tamaño/Distancia (véase el Capítulo 11). Si la
anchura del par de franjas (1 ciclo de onda) fuese de 2 cm, para que
proyectase el mismo tamaño en la retina (ángulo subtendido) debería situarse a 114,58 centímetros, es decir, al doble de distancia que
antes. En la Figura 8.8 (fila superior) se muestra una serie de enrejados de diferente frecuencia espacial. También podemos observar
que a mayor frecuencia espacial (más franjas/distancia) le corresponde menor contraste percibido y viceversa.
La orientación (␣) es el ángulo comprendido entre la línea horizontal que sirve de base al enrejado y una recta que actúe de eje de
simetría para una franja cualquiera de dicho enrejado (véase la fila
inferior de la Figura 8.8). La orientación se mide en grados sexagesimales y un enrejado de franjas verticales tiene una orientación de
0º, mientras que un enrejado de franjas horizontales tiene una orientación de 90º.
La fase (␾) es la distancia al origen, expresada en radianes, del primer máximo de luminancia del enrejado.
A partir de estos parámetros, podemos generar un enrejado sinusoidal
mediante la siguiente fórmula:
f(x,y) = L0 + A · cos [ 2␲·u (x · cos ␣ + y · sen ␣) + ␾]
Figura 8.9
Onda cuadrada
Onda rectangular
Onda triangular
Onda de sierra dentada
Perfiles de luminancia 1D correspondientes a enrejados compuestos.
277
Percepción
La representación gráfica, en el dominio espacial, del enrejado nos mostrará la forma de la onda, es decir, cómo se distribuye la luminancia a lo
largo del espacio. Según la forma de la onda el enrejado puede ser sinusoidal (si las transiciones del claro al oscuro se ajustan a la función seno), de
onda cuadrada (si los cambios de franjas claras-oscuras son bruscos, pero
equidistantes), de onda rectangular (si los cambios de franjas claras-oscuras
son bruscos y no equidistantes), de onda triangular (si su perfil de luminancia muestra forma de picos triangulares), de onda en sierra dentada, etc.
Excepto el enrejado con perfil sinusoidal, todas estas formas de onda corresponden a enrejados complejos, los cuales pueden sintetizarse a partir de la
suma de enrejados sinusoidales.
6.
Análisis frecuencial de imágenes
A primera vista, puede resultarnos difícil entender que las imágenes acromáticas de la Gioconda o las de las Meninas pueden sintetizarse combinando enrejados sinusoidales. Sin embargo, esto es así. En efecto, Jean
Baptiste Josep Fourier (1768-1830), matemático francés del siglo XIX, estudiando la propagación ondulatoria del calor descubrió que cualquier
función en el conjunto de los números reales, con significado físico, puede obtenerse sumando (dominio de la frecuencia) o integrando (dominio
espacial) funciones sinusoidales. De manera formal, el teorema de Fourier afirma que cualquier onda puede descomponerse en infinitos componentes con forma de onda sinusoidal. A partir de este teorema, se deduce
que cualquier tipo de onda puede sintetizarse integrando entre sí sus
componentes de onda sinusoidal, cuyas amplitudes y fases vienen dadas
por la Transformada de Fourier (TF) de dicha imagen. Por consiguiente,
el conjunto de enrejados sinusoidales constituye una base para describir
cualquier imagen. El objetivo del análisis de Fourier de una imagen es,
precisamente, determinar la frecuencia espacial, orientación, amplitud y
fase que debe tener cada uno de los enrejados sinusoidales componentes,
susceptibles de sintetizar la imagen. Por tanto, cualquier imagen puede
expresarse como una específica combinación lineal de infinitos enrejados sinusoidales orientados, denominados componentes espectrales de la
imagen.
Para comprender el análisis de un patrón estimular mediante el análisis
de Fourier, presentaremos un ejemplo sencillo. Analizaremos el perfil de
luminancia de un enrejado de barras con forma de onda cuadrada, como el
que se muestra en la Figura 8.10. La variación de la luminancia, en este enrejado, obtenida al pasar un fotómetro en dirección perpendicular a las
barras, produce, en el dominio espacial, una forma de onda cuadrada. Pues
bien, el análisis de Fourier nos permite analizar esa onda en sus ondas componentes de diferente frecuencia, amplitud, orientación y fase, o componen-
278
8. Percepción del contraste: procesamiento de bajo nivel
Luminancia
Posición espacial
Figura 8.10
Una onda cuadrada y su perfil de luminancia.
tes armónicos elementales. Veamos, intuitivamente, cómo tiene lugar el
análisis de una onda cuadrada.
Teóricamente, sus componentes armónicos son infinitos, pero en la
práctica, podemos aproximarnos bastante a una onda cuadrada sumando un
número finito de componentes. Así, en la Figura 8.11 podemos observar un
limitado número de componentes elementales en los que analizamos la
onda cuadrada inicial y, también, la suma de estos cuatro componentes.
f1 + f3 + f5 + f7
f7
f5
f3
f1
Figura 8.11 La suma de un reducido número de componentes armónicos se aproxima bastante al
perfil de la imagen original de la Figura 8.10 (onda cuadrada).
279
Percepción
Estos componentes sinusoidales, como veremos, satisfacen unas determinadas propiedades. Así, los componentes armónicos elementales:
— Tienen unas frecuencias que son múltiples impares de la frecuencia
fundamental.
— Tienen unas amplitudes que varían inversamente, en función de su
orden. Concretamente, en dicha Figura 8.11 se observa que:
• La frecuencia f1 (la frecuencia más baja) es la frecuencia fundamental o primer armónico, cuya frecuencia y amplitud es la misma
que la de la onda cuadrada.
• La frecuencia f3 es el segundo armónico, cuya frecuencia es el triple de la frecuencia fundamental y su amplitud 1/3 de la amplitud
de la fundamental.
• La frecuencia f5 es el tercer armónico, cuya frecuencia es el quíntuplo de la frecuencia fundamental y su amplitud 1/5 de la amplitud de ésta.
• La frecuencia f7 es el cuarto armónico, cuya frecuencia es el séptuplo de la frecuencia fundamental y su amplitud 1/7 de la amplitud
de ésta.
• Se representa la onda resultante de la suma de las componentes:
fundamental, segundo, tercer y cuarto armónicos. Como podemos
observar, con sólo cuatro componentes, la forma de la onda se
aproxima bastante a la onda cuadrada original (véase el perfil de
luminancia del enrejado original). Si seguimos sumando armónicos de mayor frecuencia (que sean múltiplos impares de la fundamental), cada vez, nos aproximaríamos más a la onda cuadrada.
El conjunto de todos los armónicos o componentes frecuenciales de una
imagen recibe el nombre de espectro bidimensional de frecuencia o espectro de Fourier (véase Figura 8.12). En dicha Figura 8.12 se representa la
cantidad de energía o amplitud con que cada armónico contribuye a la síntesis total de la imagen. A este tipo de gráficos se les denomina espectros
de energía (1D). En él puede visualizarse que la energía correspondiente al
sexto armónico (frec. = f11) es muy pequeña y dicha energía continuaría
disminuyendo para los armónicos de mayor frecuencia.
En resumen, el objetivo del análisis de Fourier de una imagen es, precisamente, determinar la frecuencia espacial, orientación, amplitud y fase
que debe tener cada uno de los enrejados sinusoidales componentes, susceptibles de sintetizar la imagen.
280
8. Percepción del contraste: procesamiento de bajo nivel
Energía
f1
Figura 8.12
cuadrada.
7.
f3
f5
f7 f9 f11
Componentes espectrales
Espectro de energía de la transformada de Fourier de un enrejado con forma de onda
Síntesis frecuencial de imágenes
La Figura 8.13 muestra una imagen sintetizada al sumar una serie limitada
de enrejados sinusoidales que varían en frecuencia espacial (3c/i, 5c/i, 7c/i
y 9c/i) y orientación (0º y 90º). Los enrejados representados en esta figura
tienen una orientación ␣ = 0º, y mediante un giro de 90º se obtienen los enrejados con ␣ = 90º que también intervienen en la síntesis de la imagen superior de la figura.
Figura 8.13
Entramado sintetizado al sumar enrejados verticales y horizontales.
281
Percepción
Sin embargo, la transformada de Fourier (TF) es un número complejo;
como se sabe, estos números constan de parte real y parte imaginaria. Las
imágenes son funciones bidimensionales, por lo que tendremos que representar separadamente la TF en forma cartesiana, en un gráfico 2D la parte
real y en otro la parte imaginaria. También es posible representar la TF en
forma polar (coordenadas polares: módulo y ángulo de fase), lo que nos resultará más comprensible. El módulo se representará en el espectro de amplitud y contendrá la energía con que cada par de frecuencias con una determinada orientación, dada por las coordenadas u, v (u = eje horizontal,
v = eje vertical), contribuyen a la síntesis de la imagen. Se representa por
F(u,v) y se calcula mediante: F(u,v) = √ (Re2 + Im2). Las fases de cada
uno de estos sinusoides componentes se representarán en el espectro de
fase. Se indica con ␾(u,v) y se calcula mediante: ␾(u,v) = Arctg (Im/Re).
En la Figura 8.14 se muestra una aproximación gráfica del espectro de amplitud de la TF de la imagen entramada mostrada en la Figura 8.13. En este
espectro de amplitud podemos observar que está constituido por cuatro enrejados de diferente frecuencia orientados verticalmente y otros cuatro
orientados horizontalmente.
Figura 8.14
Representación del espectro de amplitud de la TF de la Figura 8.13.
Para hacer más comprensible la importancia de la información contenida
en los espectros de amplitud y fase se muestra, en la Figura 8.15, la imagen
original (a la izquierda), su espectro de amplitud (en el centro) y su espectro de fase (a la derecha).
Al observar estos espectros, pudiera concluirse erróneamente que el espectro de amplitud tiene más importancia que el espectro de fase, ya que el
primero muestra alguna estructura reconocible, mientras que el segundo no,
puesto que parece un patrón aleatorio. No obstante, si eliminamos el espectro de fase de esta imagen, poniendo una matriz nula (todo ceros), y posteriormente calculamos la Transformada de Fourier inversa (TF-1), la imagen
resultante sintetizada muestra muy poco, o nada, de similitud con la imagen
original (véase Figura 8.16-izquierda). Sin embargo, si eliminamos el espectro de amplitud, poniendo toda la matriz igual a una constante y calcula-
282
8. Percepción del contraste: procesamiento de bajo nivel
Figura 8.15
Una imagen y sus espectros de amplitud y fase.
mos la TF-1, entonces esta síntesis da lugar a una figura parecida a la imagen original (véase Figura 8.16-derecha).
En conclusión, mientras que el espectro de amplitud especifica el peso o
importancia con que cada componente sinusoidal está presente en la imagen, el espectro de fase especifica dónde se localiza en la imagen cada
componente sinusoidal. Una estrategia que se adopta con frecuencia, en el
ámbito del tratamiento de imágenes digitalizadas, consiste en seleccionar
un rango de amplitudes del espectro de amplitud de la imagen, excluyendo
las restantes (es decir, hacer un filtrado de la imagen) y reconstruir la imagen a partir de ella mediante la transformada inversa de Fourier y, sin variar
el espectro de fase, observar después qué elementos de la imagen aparecen
destacados.
Figura 8.16 A la izquierda, imagen sintetizada a partir del espectro de amplitud y dejando nulo
el espectro de fase. A la derecha, imagen sintetizada a partir del espectro de fase dejando constante
el espectro de amplitud.
8.
Filtrado de imágenes
Comencemos por describir unos ejemplos de filtros utilizados en ciertas ramas de la física. Un filtro acústico es un dispositivo que transmite, relativamente bien, la energía de un sonido cuando las frecuencias están compren-
283
Percepción
didas entre un determinado intervalo o banda (llamada banda de paso) y
que se opone, más o menos totalmente, a la transmisión de las frecuencias
que se hallan comprendidas en el rango de las demás bandas (llamadas bandas atenuadas). Mediante un tipo específico de filtro se asegura la selectividad de frecuencias de los receptores de radio y televisión. Éstos dejan pasar
las ondas de la banda de frecuencias de la emisora que deseamos captar y
eliminan las correspondientes a otros emisoras de diferente frecuencia. En
las pantallas acústicas (baffles) se separan las altas frecuencias (tonos agudos) de las bajas frecuencias (tonos graves) mediante ciertos filtros para dirigirlas a altavoces de diferentes tonalidades (relacionadas con el tamaño de
la lámina vibratoria).
En fotografía se habla de un filtro corrector óptico para referirse al filtro
que se coloca delante del objetivo de la cámara a fin de dejar pasar ciertas
radiaciones y excluir (o atenuar) otras. Por ejemplo, un filtro UVA reduce
considerablemente la radiación ultravioleta que entra en la cámara oscura.
También se utilizan otros filtros fotográficos como los filtros de color
(azul, rojo, infrarrojo, amarillo, etc.) y el filtro polarizador que se utiliza en
la toma de vistas para eliminar los reflejos. Así pues, un filtro es un dispositivo tal que al pasar una señal compleja separa o selecciona las subseñales
componentes que satisfacen ciertas propiedades.
Los filtros se pueden clasificar en dos grandes grupos: filtros lineales
y filtros no lineales, diferenciándose en que en los primeros satisfacen
las propiedades de los sistemas lineales (linealidad y superposición),
mientras que los segundos no. Los filtros lineales se dividen en dos subgrupos que, si bien no son exactamente iguales, producen resultados similares.
— Filtros lineales que operan en el dominio espacial. Que hacen uso de
la operación de convolución, manipulando directamente los pixels de
la imagen original.
— Filtros lineales que operan en el dominio frecuencial. Que hacen uso
de la transformada de Fourier de la imagen.
Para caracterizar un filtro es preciso conocer la forma de la función de
transferencia de modulación (FTM) del sistema (ganancia en función de las
frecuencias orientadas en u, v) y los cuatro parámetros siguientes:
— La frecuencia espacial óptima.
— La orientación óptima.
— La anchura de banda en frecuencia espacial (rango de frecuencias en
la orientación óptima al que se halla sintonizado el filtro).
— La anchura de banda en orientación (rango de orientaciones en la
frecuencia espacial óptima al que se halla sintonizado el filtro).
284
8. Percepción del contraste: procesamiento de bajo nivel
TIPOS DE FILTROS
paso-bajo
Figura 8.17
ciales.
paso-banda
paso-alto
Filtros en el dominio frecuencial, selectivos a diferentes rangos de frecuencias espa-
Según el rango o intervalo seleccionado de frecuencias espaciales del espectro de amplitud de la TF (véase Figura 8.17) un filtro puede ser:
a)
Filtro paso-bajo: cuando deja pasar todas las frecuencias espaciales
iguales o inferiores a una dada y elimina las superiores a ella.
b) Filtro paso-alto: cuando deja pasar todas las frecuencias espaciales
iguales o mayores que una frecuencia dada y elimina las inferiores a
ella.
c) Filtro paso-banda: cuando sólo deja pasar un rango de frecuencias
espaciales y elimina todas las que se hallan fuera de tal rango.
Según la orientación los filtros pueden ser:
— Filtro orientado: cuando sólo deja pasar las frecuencias espaciales
que se hallan en un determinado rango de orientación.
— Filtro no-orientado: cuando deja pasar las frecuencias espaciales de
un determinado rango en cualquier orientación.
Existen dos métodos para realizar filtrados de imágenes.
a)
El primer método (dominio espectral), dada una imagen que deseamos filtrar y un filtro (imagen máscara como las mostradas en la Figura 8.17) que elegimos en función de los resultados que pretendemos lograr, consiste en el cálculo del producto del espectro de
amplitud de la imagen original por el filtro (FTM), con lo que, al
sintetizar de nuevo la imagen en el dominio espacial utilizando la
TF-1, obtenemos la imagen filtrada.
b) El segundo método (dominio espacial), de uso más restringido, consiste en, dada una imagen y un filtro, hallar la fpp (función de pesos
del punto o función de respuesta al impulso), mediante la aplicación
de la TF-1 al filtro y el resultado se convoluciona con la imagen, con
lo que obtenemos la imagen filtrada.
285
Percepción
Sensibilidad al contraste
Frecuencia espacial c/º
Figura 8.18
9.
Función de sensibilidad al contraste (FSC).
La función de sensibilidad al contraste
Campbell y Robson (1968) sostenían la tesis de que el sistema visual lleva
a cabo un análisis de la luz, algo similar al análisis de Fourier, que incide
sobre el ojo. A partir de un experimento psicofísico llegaron a determinar
la denominada función de sensibilidad al contraste (FSC).
Dicha FSC consiste en una representación gráfica del contraste físico
necesario para lograr que sea visible un enrejado en función de su frecuencia espacial. Para obtener la FSC (véase la Figura 8.18), situaron en la abscisa las frecuencias espaciales y en la ordenada la sensibilidad al contraste,
definida como el inverso del umbral. La FSC resulta al medir el umbral de
percepción del contraste ante enrejados de diferentes frecuencias espaciales, manipulando el contraste del enrejado. La Figura 8.19 contiene una
muestra de estímulos similares a los utilizados por estos autores. A partir
de esta figura puede apreciarse cómo obtener una medida del umbral ante
una determinada frecuencia espacial (la sensibilidad es el recíproco del umbral), ya que en cada columna hay dos estímulos con la misma luminancia
promedio. Así, demostraron experimentalmente que los sujetos tienen diferente sensibilidad al contraste según varíe la frecuencia espacial de los enrejados.
Esta técnica nos permite responder, entre otras, a preguntas tales como:
¿somos siempre más sensibles al contraste de enrejados de baja frecuencia
286
8. Percepción del contraste: procesamiento de bajo nivel
Figura 8.19
traste.
Enrejados sinusoidales de una frecuencia espacial determinada, que varían en con-
espacial? Si observamos la FSC para enrejados sinusoidales, obtenida por
Campbell y Robson (1968) (véase Figura 8.18), comprobaremos que el sistema visual humano (SVH) es más sensible a los enrejados con frecuencias
espaciales entre 3 y 6 c/º y, por supuesto, nos revela que nuestra habilidad
para detectar un enrejado depende de su frecuencia espacial. La Figura 8.20
superior-izquierda, muestra la superficie de sensibilidad al contraste (SSC)
Figura 8.20
Superficie de Sensibilidad al Contraste (SSC).
287
Percepción
reconstruida a partir de los datos registrados por Ginsburg (1978). En la
misma figura puede observarse una representación isométrica de la SSC,
así como una sección de ésta en el eje Y.
Algunas aplicaciones de la FSC que han sido propuestas (véase SierraVázquez, 1992) son:
1) Como instrumento para describir la capacidad del sistema visual y
como medida alternativa más completa de la agudeza visual. La
FSC ha permitido comparar la sensibilidad al contraste del sistema
visual de especies diferentes, revelándonos que especies diferentes
tienen mundos visuales diferentes. Además, permite seguir evolutivamente el desarrollo de la sensibilidad visual en bebés, habiéndose
obtenido evidencia de que su sensibilidad y agudeza visual mejoran
progresivamente, para aproximarse a la del adulto, hacia los seis u
ocho meses de vida. En resumen, dentro de estas aplicaciones descriptivas, la FSC se ha utilizado en campos tan variados como psicología comparada, psicología evolutiva, psicotecnia y clínica oftalmológica.
2) Utilizada como función de transferencia de modulación (FTM) del
SVH, sirve para predecir la sensibilidad del sistema visual ante
otros estímulos diferentes, ya que si se conoce las frecuencias componentes del estímulo, a cada una le corresponde una determinada
sensibilidad que viene dada por la FSC.
3) Utilizada como expresión de la ganancia o pérdida que el SVH produce ante una imagen entrante (esto viene a ser la FTM de un sistema de procesamiento de imágenes, como en realidad lo es el SVH),
sirve para explicar la aparición de fenómenos perceptivos, recurriendo a la técnica del filtrado de imágenes (que antes se describió)
y haciendo uso, como máscara, de dicha función (SSC). En la Figura 8.21 se muestra el resultado de filtrar la figura de la ilusión de
Figura 8.21 Estímulos utilizados en la ilusión de Müller-Lyer (imagen izquierda) y consecuencias del filtrado de esta imagen utilizando como máscara la SSC del SVH.
288
8. Percepción del contraste: procesamiento de bajo nivel
Müller-Lyer con la SSC. A partir de este resultado o salida del sistema puede inferirse por qué razón los segmentos comprendidos entre
las puntas de flecha se perciben desiguales en cada caso.
El paso siguiente consiste en tratar de explicar el mecanismo responsable de ello, esto es, explicar por qué razón sucede así. En este intento, las
investigaciones en psicofísica visual han recurrido a la utilización de tres
paradigmas experimentales.
10.
Paradigmas de investigación en psicofísica visual
Se han propuesto tres variantes experimentales que, combinadas con los
procedimientos psicofísicos de detección y discriminación, permiten investigar la existencia de canales psicofísicos:
Paradigma de adaptación selectiva. Consta de dos fases. En la primera,
se expone al sujeto, durante un prolongado periodo de tiempo, a un estímulo adaptador, es decir, a un cierto valor de intensidad del estímulo por encima del umbral de detección. En la segunda fase se presenta al sujeto, inmediatamente después de la adaptación, un estímulo de prueba y se mide el
umbral correspondiente a cada valor estimular. Los resultados habituales
que suelen obtenerse consisten en que, cuando coincide el valor frecuencial
del estímulo de prueba con el del estímulo adaptador, se incrementa al máximo el umbral de detección del estímulo; mientras que, conforme aumenta
la diferencia de frecuencia entre los valores del estímulo de prueba y del
adaptador, el umbral disminuye progresivamente.
Paradigma de enmascaramiento. Consiste en presentar al sujeto dos estímulos superpuestos, el estímulo de prueba y otro estímulo enmascarador
que reduce la detectabilidad del primero. Habitualmente los resultados obtenidos con el uso de este paradigma experimental básicamente concuerdan
con los del paradigma de adaptación. Esto es, si ambos estímulos (de prueba y enmascarador) tienen el mismo valor de frecuencia, el umbral es máximo, pero conforme aumenta la diferencia el umbral decrece.
Paradigma de sumación subumbral. El paradigma experimental de sumación subumbral es similar al paradigma de enmascaramiento, diferenciándose en que, en lugar de estímulo enmascarador, aquí interviene un estímulo facilitador (fondo), el cual debe tener una intensidad por debajo del
umbral, por lo que no es perceptible al ser presentado solo. Los resultados
obtenidos mediante su uso también son congruentes con los de los otros paradigmas. Es decir, si son iguales los valores del estímulo de prueba y de
fondo, el umbral será mínimo, mientras que conforme aumentan las diferencias de ambos estímulos, el umbral aumenta paulatinamente.
289
Percepción
11.
Modelos basados en canales psicofísicos
Como consecuencia de la realización de numerosas investigaciones (Campbell y Robson, 1968; Blakemore y Campbell, 1969; Graham y Nachmias
1971; Kulikowski y King-Smith, 1973; Daugman, 1984), aparecieron dos
posibles modelos alternativos del funcionamiento del SVH: el modelo unicanal y el modelo multicanal.
El modelo unicanal considera que el SVH se comporta como un filtro
espacial, cuyas características vienen definidas por la FSC (o FTM del
SVH). Por tanto, ante cualquier señal bidimensional (o imagen) que se introduzca en el sistema se producirá, como respuesta, una versión filtrada de
la señal original. Además, la detectabilidad de una imagen dependerá del
umbral de percepción del contraste de sus componentes armónicos.
El modelo multicanal supone que cada banda de frecuencias espaciales
es procesada por un canal psicofísico independiente. De acuerdo con ello,
la FTM del SVH sería la resultante de la sensibilidad de todos estos canales
independientes, pudiendo tener lugar la detectabilidad de modo independiente en aquel canal que sea sensible a una cierta banda de frecuencias espaciales. En otras palabras, la FSC sería un reflejo de la actividad de un
cierto número de canales psicofísicos especializados (sintonizados o afinados), cada uno de ellos, en responder a un estrecho rango de frecuencias espaciales. En consecuencia, el modelo multicanal presupone que el SVH
ejecuta algo así como un análisis de Fourier de la imagen de entrada y que
cada canal analiza unos determinados componentes espectrales. Sin embargo, ello no implica asumir que dicho sistema procese de modo independiente las diversas frecuencias espaciales, simplemente se asume que el
SVH puede ser modelizado mediante este instrumento matemático que, en
definitiva, es el análisis de Fourier.
Es importante señalar que, a pesar de la evidencia a favor de la existencia de canales selectivos a la frecuencia, no está claro que el sistema visual
los utilice para realizar un análisis de Fourier de la imagen. Incluso si esto
fuese así, quedaría por saber cómo y dónde la frecuencia espacial del estímulo influye sobre nuestra percepción, desconociéndose todavía el mecanismo responsable de este efecto.
12.
Pruebas sobre la existencia de canales psicofísicos
Campbell y Robson (1968) verificaron que el umbral de detección de enrejados complejos (cuyos perfiles producen formas del tipo de onda cuadrada
o de sierra dentada), que contienen altas frecuencias espaciales, coincidía
con el umbral obtenido para el componente fundamental. No obstante, el
modelo unicanal no era capaz de explicar por qué, ante ciertos estímulos de
enrejado complejos, la sensibilidad resultaba ser inferior que la que prede-
290
8. Percepción del contraste: procesamiento de bajo nivel
cía el modelo unicanal, mientras que era acorde con la predicción del modelo multicanal. Por ejemplo, los sujetos eran capaces de diferenciar un enrejado sinusoidal puro de otro enrejado con perfil de onda cuadrada, siempre que el contraste permitiese detectar el tercer componente armónico.
Estos resultados no pueden explicarse mediante el modelo unicanal, pero sí
mediante el modelo multicanal. Efectivamente, además de que exista actividad en el canal sintonizado al componente fundamental, podemos diferenciar ambos enrejados por la presencia de actividad en otro canal sintonizado (o sensible) al tercer armónico. Posteriores investigaciones (para una
revisión de estos trabajos véase Ginsburg, 1984) dieron nuevo soporte empírico a la existencia de receptores o canales sintonizados a determinadas
bandas de frecuencia.
Blakemore y Campbell (1969) utilizaron el paradigma experimental de
adaptación al realizar una investigación que les permitiese decidir cuál de
los dos modelos (unicanal o multicanal) se ajustaba mejor a los datos empíricos. En la primera fase del experimento mostraron al sujeto un estímulo
(adaptador), consistente en un enrejado sinusoidal de una determinada frecuencia espacial, hasta lograr su adaptación. En la segunda fase mostraban
al sujeto una serie de enrejados sinusoidales que diferían en frecuencia espacial. Los resultados revelaron que cuando la frecuencia espacial del enrejado de prueba coincidía exactamente con la del enrejado adaptador, entonces disminuía la sensibilidad del sujeto y que dicha sensibilidad crecía
conforme aumentaba la diferencia en cuanto a frecuencia espacial. Puesto
que el proceso de adaptación sólo influía en las frecuencias próximas a la
del estímulo adaptador, y no afectaba en igual medida a todas las frecuencias espaciales a las que somos sensibles, concluyeron que existían diferentes canales y que éstos son independientes unos de otros. Es decir, estos datos apoyaban al modelo multicanal y constituían una prueba en contra del
modelo unicanal.
Graham y Nachmias (1971) realizaron otro experimento que aportó evidencia adicional a favor del modelo multicanal. Mostraron a los sujetos dos
enrejados complejos constituidos por dos componentes sinusoidales de la
misma frecuencia y amplitud, pero diferentes en fase (desplazada 180º la
onda de uno de ellos, con respecto al origen; véase Figura 8.22). Según el
modelo multicanal, el patrón estimular se analiza en sus componentes frecuenciales y estos armónicos se procesan en paralelo a través de diferentes
canales, cada uno de ellos sintonizado (selectivo) a una estrecha banda de
frecuencias espaciales. Por tanto, si dos canales procesan, independientemente, cada uno de los sinusoides componentes, dado que tanto el enrejado
1 como el enrejado 2 tienen los mismos armónicos, entonces los sujetos
discriminarán igualmente estos dos patrones. Además, los sujetos sólo serán capaces de discriminar estos dos enrejados complejos en el caso de que
existan distintos canales sensibles a reducidas bandas frecuenciales y a diferentes fases.
291
Percepción
Figura 8.22 Ejemplo de estímulos similares a los utilizados por Graham y Nachmias. En la columna izquierda enrejado 1, en la columna derecha enrejado 2.
Campbell y Kulikowski (1966) utilizaron el paradigma experimental de
enmascaramiento a fin de verificar si existen canales sensibles a la orientación de los enrejados. En este experimento el enrejado de prueba consistía
en un enrejado sinusoidal, de una determinada orientación, que se presentaba al sujeto solapándose con otro enrejado máscara de alto contraste. En
cada ensayo se variaba la orientación del enrejado máscara en relación con
la del enrejado de prueba y se obtenía el umbral de contraste del sujeto. Los
resultados mostraron que el enmascaramiento era eficaz cuando el enrejado
de prueba y el enrejado máscara coincidían en la orientación y que el enmascaramiento perdía eficacia conforme aumentaba la diferencia en orientación entre estos dos enrejados, de modo que el enrejado máscara no influía nada cuando ambas orientaciones eran perpendiculares. Estos autores
concluyeron que en el SVH existen distintos canales sensibles a una orientación óptima, y que la anchura de banda en orientación de estos canales
fluctuaba ±20º en torno a la orientación preferente del canal.
292
8. Percepción del contraste: procesamiento de bajo nivel
13.
Características de los canales psicofísicos
Una vez establecido empíricamente el hecho de que en el SVH existen diferentes canales de procesamiento psicofísico de los patrones estimulares, era
preciso investigar cuestiones tales como: ¿cuántos canales hay?, ¿cómo
operan?, ¿en qué dominio (espacial, frecuencial, o en ambos) se distribuyen?, ¿qué porción del plano de Fourier cubre estos canales?, y ¿cuál es su
anchura de banda en frecuencia espacial y en orientación?
Hasta el momento presente no existe unanimidad en las respuestas a estas preguntas y las investigaciones realizadas reflejan importantes desacuerdos entre las estimaciones de unos y otros autores. Y es que el número de
canales, su anchura de banda en frecuencia y en orientación, etc., son interdependientes. Parece probable que el número de canales depende del ancho
de banda de cada canal, al objeto de que se recubra todo el plano espectral
al que es sensible el SVH, esto es, un casquete esférico de un radio de unos
60–70 c/º. En otras palabras, a un mayor ancho de banda le corresponde un
menor número de canales y viceversa. No obstante, si la banda de frecuencias a la que es sensible cada canal es muy ancha, entonces estos canales
serán menos selectivos a la frecuencia, aunque más precisos en la localización espacial; mientras que si la banda es estrecha, entonces los canales
serán más selectivos, pero también menos precisos en la localización espacial.
Las estimaciones del ancho de banda parecen verse afectadas por el paradigma experimental utilizado, ya que unos (adaptación y enmascaramiento) producen sobrestimación, en tanto que otros (suma subumbral) producen infraestimación. Suele aceptarse que, como resultado de promediar las
diferentes estimaciones, los canales presentan una moderada banda estrecha. Según Watson (1982), esta anchura de banda es de una octava (la frecuencia más alta a la que es sensible está en razón 2:1, respecto a la frecuencia más baja). Este autor considera que los canales cubren entre 0,25 y
32 c/º, por lo que resultan ocho canales de frecuencia espacial con un ancho
de una octava. Según Wilson (1983), existirían seis canales, centrados en
las frecuencias 0.8, 1.7, 2.8, 4, 8 y 16 c/º, con una anchura de banda que
fluctúa entre 1.3 y dos octavas.
Respecto a la anchura de banda en orientación, las estimaciones se cifran en torno a 30º (Movshon y Blakemore, 1973) en el punto medio de la
curva en la que se representa el ancho de banda, aunque otros autores
(Campbell y Kulikowski, 1966) lo establecieron en 45º.
No obstante, Daugman (1984) señala que estas mediciones no tienen
tanto interés como el hecho de conocer que porción del plano de Fourier
cubre cada canal psicofísico. Dicho autor señala que los canales psicofísicos pueden describirse como filtros paso-banda, limitados tanto en frecuencia como en orientación. Así mismo, mostró que las células simples parecen ser el soporte neurofisiológico de estos filtros y que las funciones
293
Percepción
Gabor-2D son las que mejor las modelizan, ya que son las que mejor se
ajustan a sus datos. Curiosamente, Watson, Barlow y Robson (1983) observaron que el tipo de estímulo que mejor detecta el SVH es una representación, en niveles de gris, de la función Gabor-2D (véase Figura 8.24).
14.
La relación de incertidumbre de la transformada
de Fourier
En el ámbito del procesamiento de señales en el dominio frecuencial y
temporal (señales de radio), Gabor (1946) propuso la función que lleva su
nombre. Tres décadas más tarde, y de forma independiente, Marcelja
(1980) para señales 1D y Daugman (1980) para señales 2D, propusieron
una función de filtrado para el procesamiento de dichas señales. La función
de Gabor presenta la ventaja de ser la mejor solución posible ante la denominada relación de incertidumbre de la transformada de Fourier (TF). Esta
relación, aplicada al ámbito del procesamiento de imágenes, establece que
existe una ineludible dependencia mutua entre la representación de un objeto en el dominio espacial y la representación del mismo objeto en el dominio frecuencial. Por ejemplo, si un objeto se representa con alta precisión
en el dominio espacial, tendrá una representación poco precisa en el dominio frecuencial. Más concretamente, la representación en el dominio espacial de un pequeño punto da lugar a un amplio espectro de frecuencia,
mientras que un enrejado sinusoidal, amplio en el dominio espacial, se representa con un solo punto en el dominio frecuencial. En la Figura 8.23
puede observarse esta relación.
Las funciones Gabor 2D se caracterizan, precisamente, por el hecho de
minimizar la cantidad de espacio ocupado en ambos dominios (espacial y
frecuencial). Esta minimización de la relación de incertidumbre de la TF
puede aprovecharse para lograr el objetivo de los canales específicos de la
frecuencia espacial y nos conduce al intento de solucionar el problema de
la TF local. En efecto, la TF 2D es una operación global, es decir, actúa sobre toda la imagen y, sin embargo, no conocemos ninguna célula de orden
superior cuyo campo receptivo asociado abarque toda la imagen retiniana.
Por los trabajos de Hubel y Wiessel (1959) sabemos que, en el área visual
primaria del gato, del mono rhesus y del macaco, existen células que responden cuando un enrejado sinusoidal, de una cierta frecuencia espacial y
orientación, se proyecta sobre una localización específica de la retina. Además, estas células sólo responden a una estrecha banda de frecuencias espaciales y, si el enrejado excede este límite, la respuesta de la célula es nula.
Por otra parte, también se conoce que la anchura de banda de los canales
específicos de frecuencias espaciales y el tamaño de los campos receptivos
(responsables del análisis frecuencial) presentan una relación inversa. Es
294
8. Percepción del contraste: procesamiento de bajo nivel
Figura 8.23 Arriba, un enrejado sinusoidal y su espectro de amplitud. Abajo la imagen de un
cuadrado y su espectro de amplitud.
decir, a campos receptivos relativamente pequeños, necesariamente les
corresponde un extenso ancho de banda. Por tanto, podemos preguntarnos
cuál es el objetivo funcional de un análisis global de la frecuencia. Ello tendría como consecuencia, de acuerdo con la relación de incertidumbre, producir una representación vaga, difusa en el dominio espacial. Por consiguiente, este análisis de la frecuencia solo tendría sentido cuando la
información sobre la imagen fuese local.
Así pues, resulta plausible la idea de que, a lo largo de la evolución de
las especies, se haya resuelto el problema mediante la solución óptima, al
problema de la relación de incertidumbre, según la cual se implementan filtros Gabor 2D.
15.
Filtros Gabor
Las funciones Gabor 2D resultan del producto de un enrejado sinusoidal y
una gausiana 2D (véase Figura 8.24).
Las funciones Gabor pueden considerarse como la hipotética estructura
de los campos receptivos de las células simples de la corteza visual primaria. Como se ilustra en la Figura 8.25, la sección positiva (la que sobresale
hacia arriba) correspondería a la porción excitatoria del campo receptor, en
tanto que la sección negativa correspondería a la porción inhibitoria. Así, la
295
Percepción
Figura 8.24 Composición de una función Gabor bivariada. Gaussiana-2D (izqda), enrejado sinusoidal (centro) y función Gabor-2D (dcha.)
tasa de disparo neuronal de la célula simple crece cuando dicha porción del
campo receptor resulta activada (incide la luz reflejada por el estímulo sobre ella), mientras que disminuye la respuesta de la célula simple cuando se
activa la porción OFF.
Sabemos que, de acuerdo con Jones y Palmer (1987), en el SVH a cada
célula simple le corresponden dos campos receptivos retinianos. También
sabemos que la función de Gabor es una función en el campo de los números complejos y, por tanto, tiene una parte real (simétrica o even filter) y
Figura 8.25
296
Función Gabor 2D: representaciones en nivel de gris e isométrica-renderizada.
8. Percepción del contraste: procesamiento de bajo nivel
otra parte imaginaria (antisimétrica u odd filter). Así pues, de modo análogo al SVH, cada función de Gabor puede descomponerse en dos partes diferenciadas, según su perfil de luminancia sea simétrico (parte real) o antisimétrico (parte imaginaria). En otros términos, podría considerarse que las
funciones Gabor están compuestas por dos clases de curvas, cada una modulada por la función gaussiana 2D y dispuestas a 90º unas de otras (en
cuadratura fásica). Una de estas dos curvas parece ajustarse a una modulación cosenoidal o función antisimétrica. La otra curva está modulada senoidalmente y, a veces, también recibe el nombre de función simétrica. La Figura 8.26 muestra dos funciones Gabor-2D, una desfasada 90º respecto a la
otra.
Al utilizar una función Gabor 2D como filtro, la parte correspondiente a
la modulación cosenoidal muestra sensibilidad a una frecuencia espacial
específica, precisamente aquella frecuencia del enrejado que se ha utilizado
para diseñar el filtro Gabor 2D. Cuando además, el estímulo tiene la misma
orientación que el enrejado y coinciden las franjas claras y oscuras del estímulo con las del filtro Gabor (están concordantes en fase), entonces se logra la respuesta óptima (máxima tasa de disparo neuronal). Por otra parte,
la respuesta del filtro será máxima si coinciden el contraste entre las franjas
del estímulo de enrejado presentado y el del filtro Gabor 2D.
En definitiva, el filtro Gabor 2D viene determinado por cuatro parámetros que pueden variar de forma independiente: contraste, frecuencia espacial, orientación y fase. A modo de resumen, podemos decir que la TF produce un filtrado global de la imagen, cuyo resultado es el espectro de
frecuencias componentes de toda ella, sus orientaciones, sus fases y sus
amplitudes. Es decir, la descripción de la imagen mediante este tipo de análisis viene expresada por un gran número de frecuencias simples o componentes armónicos. Por el contrario, los filtros Gabor 2D producen un filtrado local de la imagen. Cada filtro Gabor 2D analiza una pequeña región de
la imagen retiniana, la cual se describe mediante un pequeño número de
frecuencias componentes. Por tanto, disponemos de tantos pequeños espectros como áreas en la retina (campos receptores) existan.
El hecho de que se requieran menos componentes para describir una pequeña área de la imagen que para describir la imagen completa es una consecuencia del carácter lineal de la TF. Daugman (1988) verificó que es posible realizar una transformada de imágenes reales con filtros Gabor 2D,
comprobando también que este tipo de codificación de la imagen es mucho
más económico que una codificación pixel a pixel. Además, este tipo de
análisis de la imagen reduce las redundancias de segundo orden.
Por otra parte, existen evidencias de que este tipo de transformada tiene
lugar en los sistemas biológicos. De hecho, se han descubierto ciertos tipos
de neuronas (células simples) en la corteza visual de los mamíferos, cuyos
campos receptores pueden describirse adecuadamente mediante las propiedades de la funciones Gabor 2D (Kulikowski y Bishop, 1981; Jones y Pal-
297
Percepción
Figura 8.26 Dos funciones Gabor 2D y sus respectivos perfiles de luminancia. Arriba, función
simétrica (filtro even). Abajo, función antisimétrica (filtro odd).
mer, 1987). Además, estos autores identificaron que los campos receptores
de algunas de estas células, las del gato, difieren entre sí en un desfase de
90º, lo cual es una condición necesaria para eliminar ambigüedades en las
respuestas de las células. Otros estudios psicofisiológicos (Daugman, 1984;
Sagi, 1990; Webster y De Valois, 1985) señalan que también en el sistema
visual humano pueden encontrarse campos receptores con propiedades similares a las funciones Gabor.
Sintéticamente, esta concepción supone que la corteza visual realiza una
TF discreta, fragmentada en porciones de la retina (coincidentes con el mosaico de campos receptores asociados a las células simples). Cada fragmento de la imagen se analiza mediante funciones Gabor 2D, y la importancia
con que cada función Gabor 2D contribuye a formar la síntesis de un fragmento de la imagen indica la tasa de respuesta de la célula simple correspondiente. Por tanto, las células simples de la corteza visual primaria se
comportan como auténticos analizadores de rasgos, codificando la información de forma altamente económica para su ulterior procesamiento. Mas
298
8. Percepción del contraste: procesamiento de bajo nivel
allá de las células simples (células complejas, hipercomplejas, etc.), y tomando como entrada la respuesta neuronal de estas células, diferentes módulos visuales se ocuparán de funciones tales como el reconocimiento de
patrones, extracción de la profundidad y estereopsis, detección de movimiento, etc.
Bibliografía comentada
Campbell y Robson (1968) y Maffei y Fiorentini (1973) son dos artículos básicos
sobre el tema. El primero es el trabajo en el que desarrolló la función de sensibilidad al contraste en sujetos humanos, a partir de métodos psicofísicos. El segundo, muestra como el SVH analiza la imagen en sus componentes frecuenciales.
Goodman (1967) establece las bases del análisis de imágenes a partir de las frecuencias espaciales contenidas en una imagen. El estudio se efectúa mediante la
modelización matemática de la propagación de la luz, cosa que permite obtener
de forma natural la transformada de Fourier de la imagen. Se describen las aplicaciones de este fenómeno, así como la holografía o el filtrado espacial.
González y Wintz (1977) es una referencia para la implementación computacional
de los algoritmos de tratamiento de imágenes. El libro hace una descripción de
las propiedades de la imagen digitalizada y de los inconvenientes de la propia
digitalización, para después pasar al planteamiento y realización de los algoritmos básicos del tratamiento de la imagen, como por ejemplo el de la DFT (Digital Fourier Transform) y su versión mejorada FFT (Fast Fourier Transform).
Marr (1982) sintetiza, en opinión de los más prestigiosos investigadores en el campo de la visión computacional (artificial), el mayor esfuerzo realizado hasta la
fecha por elaborar una teoría eficaz del procesamiento de imágenes, integrando
los hallazgos de los enfoques neurofisiológicos, psicofísicos y cognitivos. La
obra puede considerarse, en cierto sentido, una metateoría de la visión, ya que
incluye una teoría sobre cómo debieran ser las teorías que tratan con la percepción visual, y en la que se establecen los fundamentos de la metodología de trabajo en visión computacional.
Sierra-Vázquez (1992), sin duda, es el mejor y más completo desarrollo del tema
del procesamiento de bajo nivel publicado en nuestro entorno. Se tratan los
enfoques psicofísico, neurofisiológico y computacional, con rigor y bastante
exhaustividad.
299
Percepción
Preguntas de revisión
1. ¿Qué relación existe entre la luminancia, la reflectancia, el brillo, la
claridad y el contraste?
2. ¿Por qué son importantes las ondas sinusoidales en el estudio de la
sensibilidad?
3. ¿Qué parámetros pueden variarse para generar un enrejado sinusoidal?
4. ¿Qué posibilidades abre la aplicación del análisis de Fourier al tratamiento de imágenes?
5. Describe en qué consiste el filtrado de una imagen y relaciona el filtrado de imágenes con la función que realizan algunas células de la
vía visual geniculo-estriada.
6. ¿Qué son los canales psicofísicos y qué teorías de la percepción del
contraste se basan en su existencia?
7. ¿Conoces algunas evidencias empíricas sobre la existencia de los canales psicofísicos?
8. De acuerdo con las investigaciones antecedentes, indica cuál es la anchura de banda en frecuencia espacial y la anchura de banda en
orientación de los canales psicofísicos.
9. ¿Sabrías explicar qué restricción impone la relación de incertidumbre
de la transformada de Fourier al sistema visual?
10. ¿Qué relación hay entre las células simples de la corteza visual y las
funciones Gabor?
300
9. Percepción del color
Julio Lillo Jover
El capítulo empieza distinguiendo entre los parámetros físicos relacionados con las experiencias de color y éstas en sí. A continuación se describen
sus principales dimensiones y se analizan las características de las dos
principales fases de procesamiento relacionadas con la percepción del color, la tricromática y la oponente. La fase tricromática explica la existencia
de colores metámeros: físicamente distintos pero perceptivamente idénticos. Su existencia hace que los monitores de televisión sean mucho más baratos que si tuviesen que replicar las características físicas de las escenas
reales. La comparación entre las fases tricromática y oponente permite entender por qué somos tan precisos en tareas de discriminación (comparar
entre dos muestras) y tan limitados en las de categorización (recordar un
color). El análisis de la fase oponente permite, además, entender la naturaleza de las categorías cromáticas presentes en nuestro idioma.
Los apartados 3 y 4 se ocupan de la mezcla y medición de colores. El
tercero permite entender las diferencias entre mezclar luces o tintas. El
cuarto introduce los dos sistemas de referencia de colores más comunes:
los espacios de color CIE y los atlas de color. El último apartado se centra
en los daltonismos, una alteración que afecta a más del 5 por ciento de la
población masculina española.
301
Percepción
1.
¿Qué es el color?
En el habla coloquial es frecuente escuchar expresiones como «esta caja es
azul» o «el color de la sangre es rojo», en las que aparece explícitamente
formulada la concepción, científicamente errónea, de que el color es una
propiedad de las superficies. Por contraintuitivo que pueda ser, lo correcto
es afirmar que el color es una característica de la respuesta perceptiva que
se da en un individuo y que guarda relación (pero no es lo mismo) con algunas características físicas de los objetos.
Para entender mejor la idea que se acaba de exponer, empezaremos analizando dos aspectos especialmente relevantes de la percepción del color: 1)
la existencia de importantes diferencias individuales, y 2) la relación entre
la percepción del color y la reflectancia de las superficies.
1.1
Color y diferencias individuales
El anomaloscopio de Nagel es un tipo de aparato cuyas primeras versiones
datan de principios de siglo pero que, en las muy autorizadas palabras de
Kaiser y Boynton (1996, p. 429) sigue siendo «la reina indiscutible de todos los instrumentos de evaluación del color». Con el fin de hacer más clara la explicación de los resultados obtenidos mediante su uso, y para distinguir mejor entre las estimulaciones físicas y las experiencias perceptivas, a
partir de ahora se entrecomillarán las palabras que indican las experiencias
de color (p. ej. «verde») que los estímulos presentados por el anomaloscopio producen en el observador común. También para hacer más clara la distinción entre lo físico y lo perceptivo, se efectuará un somero recordatorio
de lo que es el parámetro físico más importante para el estudio de la percepción del color: la longitud de onda.
La energía visible puede concebirse como una onda que se desplaza en
el espacio. ¡Por supuesto!, su velocidad de desplazamiento es muy superior
a la de las ondas que se desplazan en un estanque sobre el que se ha arrojado una piedra. Por otra parte, sin embargo, los dos tipos de ondas tienen
muchas características en común y pueden especificarse, ambas, en términos de los mismos parámetros. En el estanque, la longitud de onda sería la
distancia, en metros, entre dos puntos semejantes de la perturbación. En
términos más coloquiales, entre dos crestas de dos olas consecutivas o entre
el par de bajadas en el nivel del agua que siguen a cada una de estas crestas.
¿Qué sucede en el caso de la luz? También puede medirse la distancia entre
dos puntos semejantes de la onda formada por la energía visible, aunque
ahora la distancia a medir sea mucho menor y deba utilizarse una unidad
fraccionaria del metro: el nanómetro (1nm = 10-9 m).
Una vez recordado lo que es la longitud de onda, podemos ocuparnos
del funcionamiento del anomaloscopio. Una de las dos mitades del anoma-
302
9. Percepción del color
loscopio (mitad de referencia) presenta luz de longitud de onda igual a 589
nm. Ante ella una persona común experimenta, a las intensidades proporcionadas por el aparato, una sensación de «amarillo». La otra mitad (mitad
de mezcla) se utiliza para presentar una mezcla de luz de 670 nm («rojaamarillenta» para el observador común) con otra de 546 nm («verde-amarillenta»), de forma que, controlando las cantidades relativas de estos componentes, la combinación genere una experiencia idéntica a la de la mitad de
referencia. Por tanto, para el observador común existe un punto en el que
las características físicas de la luz procedente de las dos mitades del anomaloscopio son claramente diferentes y, sin embargo, producen la experimentación del mismo color. Por ello, en la nomenclatura científica habitual,
el amarillo de las dos mitades es metamérico, porque se percibe como idéntico a pesar de derivarse de dos estimulaciones físicas diferentes.
¿Por qué se ha insistido tanto en hablar del observador común? Obviamente, porque no todas las personas realizan las mismas mezclas y, por
ejemplo, las que sufren un daltonismo severo (véase apartado 5 de este capítulo) efectúan ajustes que muchos calificarían de sorprendentes (véase
Birch, 1993, pp. 105-107) ¿Cuál es la causa de estas diferencias? Para los
daltónicos, tanto la luz de 670 nm («roja»), como la de 589 nm («amarilla»), y la de 546 nm («verde»), se experimentan como «amarillas» y sólo
se diferencian en la intensidad con la que se da esta sensación (un «amarillo» brillante o apagado). En síntesis, la misma estimulación que en la mitad de mezcla produce para el sujeto medio una experiencia de «amarillo»
idéntica a la de la mitad de referencia, hace experimentar a un daltónico un
amarillo diferente (más brillante o más apagado) y, para muchos sujetos
pertenecientes al grupo de las personas normales, matices «rojizos» o «verdosos».
1.2
Color y desequilibrios energéticos.
El análisis de los resultados proporcionados por el anomaloscopio explicita la diferencia existente entre la respuesta perceptiva, a la que llamamos
color, y la estimulación que la produce: si una misma estimulación genera
experiencias de color diferentes en personas distintas es que, obviamente,
el color no es en sí ninguna característica física de la estimulación. Por
otra parte, sin embargo, un excesivo énfasis en estas diferencias puede llevar a un escepticismo no justificado sobre la posibilidad de estudiar la
percepción del color. Si lo único que realmente puede controlarse son las
características físicas de la estimulación y si éstas pueden dar lugar a respuestas perceptivas diferentes en distintas personas, podría plantearse
¿cómo podemos saber si se va a obtener un efecto concreto en una persona
determinada? Como veremos inmediatamente, tales temores no están justificados.
303
Percepción
La estimulación utilizada por el anomaloscopio potencia la detección de
diferencias interindividuales en la percepción del color. Sin embargo, éstas
no son tan notorias cuando el centro de la atención se desplaza a los tipos
de estimulación ante los cuales se produjo la evolución del sistema visual
de nuestra especie. Así, antes de que la tecnología hiciera común el uso de
fuentes artificiales emisoras de luz, la práctica totalidad de los objetos se limitaban a reflejar la luz, lo que convertía a la reflectancia en una de las variables físicas que más nítidamente permitían su diferenciación.
La Figura 9.1a muestra las curvas de reflectancia de tres superficies
acromáticas. Como puede verse, en todas ellas el porcentaje de luz reflejada permanece aproximadamente constante aunque varíe la longitud de onda
(las funciones son paralelas al eje x). La curva superior (alta reflectancia)
corresponde a una superficie blanca, la intermedia (reflectancia media) a
una gris y la inferior (baja reflectancia) a una negra. Si asumimos que las
tres están siendo iluminadas de la misma manera, ¿qué es lo que tendría
que hacer un mecanismo visual que quisiera diferenciarlas? Simplemente,
comparar la cantidad de luz enviada por cada superficie a la retina, puesto
que la blanca haría llegar más luz que la gris y ésta más que la negra. En
sintonía con lo que se acaba de decir, uno de los mecanismos perceptivos
relacionados con la visión del color (véase apartado 2.3.2) efectúa tales
comparaciones entre las cantidades de luz procedentes de áreas vecinas.
Atiéndase ahora a las curvas de reflectancia que aparecen en la Figura
9.1b y compárense con las de la Figura 9.1a. ¿Cuál es la principal diferencia? Sin duda, que en b el valor de la reflectancia varía con la longitud de
onda. Así, la pintura amarilla apenas refleja la energía acumulada
en las bajas longitudes de onda (400-500 nm), pero lo hace en gran proporción con la acumulada en las medias y en las largas. De forma inversa,
la mayor reflectancia para la pintura azulada se da ante las longitudes de
onda más cortas.
Todos aquellos objetos que, como los representados en la figura 9.1b,
tienen superficies cuya reflectancia varía con la longitud de onda, reciben
la denominación de cromáticos y, al ser contemplados por un observador
común, tienden a producir experiencias de color, debido a que hacen llegar
a su retina una estimulación lumínica desequilibrada, en tanto en cuanto
reflejan más energía en unas longitudes de onda que en otras. Sin embargo,
¿es la variación en la reflectancia la única forma de producir tales desequilibrios? Evidentemente que no, puesto que el mismo resultado se puede
conseguir utilizando sustancias transmisoras de luz (filtros de color) o
fuentes lumínicas que emitan más energía en unas determinadas longitudes
de onda (luces de colores). También en estos casos la estimulación presentará un relativo desequilibrio energético que tenderá a producir experiencias
de color.
304
9. Percepción del color
a. Superficiesacromáticas
acromáticas
a. Superficies
Blanca
blanca
Reflectancia
%%
Reflectancia
100
100
90
90
80
80
%
70
70
Ref
60
lec 60
50
tan 50
40
cia 40
gris
Gris
30
30
20
20
Negra
negra
10
10
00
400
400
450
450
500
500
550
550
600
600
650
650
700
700
Longitud dede
onda
Longitud
onda
b. Superficies
b. Superficiescromáticas
cromáticas
90
90
80
80
Amarillenta
amarillenta
%% Reflectancia
Reflectancia
70
70
60
60
50
50
verdosa
Verdosa
Azulada
azulada
40
40
30
30
20
20
10
10
00
400
400
450
450
500
500
550
550
600
600
650
650
700
700
Longitud
de onda
onda
Longitud de
Figura 9.1 Reflectancia y cromatismo. En (a) aparecen las reflectancias de tres superficies acromáticas. En (b) se hace lo propio con varias superficies cromáticas.
305
Percepción
2.
Color y mecanismos perceptivos
2.1
Dimensiones del color.
Tres son las dimensiones que parecen suficientes para dar cuenta de las experiencias de color. Antes de exponer su naturaleza, conviene hacer explícita una importante diferencia a la hora de conceptualizar una de ellas, el brillo o claridad, en función de que la descripción se haga a partir de lo
experimentado ante un estímulo luminoso aislado o, en su lugar, de una superficie de color (véase Capítulo 8). En el primer caso, estas dimensiones
suelen denominarse matiz, saturación y brillo (Lillo, 1993). En el segundo
caso, el último concepto tiende a ser sustituido por el de claridad.
Matiz. Empecemos ocupándonos de las experiencias asociadas a la presentación de luces en la oscuridad. Lo primero que llama la atención, en
una luz coloreada, es su cualidad cromática, aquello que distingue a una
luz roja de otra azul, naranja o violeta, y que no permite establecer un orden de preeminencia entre estas experiencias. Dicho en otras palabras, el
verde no es más o menos color que el rojo o el azul, es diferente color. Suele utilizarse el término de matiz (hue en inglés) para referirse a la dimensión cualitativa del color.
Saturación. El segundo aspecto a considerar suele denominarse saturación y se refiere al grado de pureza con el que se experimenta un determinado matiz. Para entenderlo mejor, se empezará indicando que la proyección sobre una pantalla blanca de una luz monocromática de 540 nm, a
intensidad suficiente, da lugar a la experimentación de un matiz verde-amarillento. Si ahora se procediese a proyectar una cantidad progresivamente
mayor de luz blanca sobre la de 540 nm se observaría que, aunque se siguiese apreciando el mismo matiz, cada vez se haría con menor pureza, estaría más desaturado, hasta llegar a un punto en el que sería imposible
apreciarlo. En este punto la saturación sería igual a cero y sólo se vería una
luz blanca.
Brillo/Claridad. El tercer aspecto a considerar, el brillo, es el más cuantitativo y tiene que ver con la magnitud de la respuesta experimentada ante
una estimulación visual, de forma tal que, como sucede en el lenguaje cotidiano, se hablará de una luz poco brillante para referirse a aquella en la que
se aprecia poca intensidad, y de otra muy brillante para hacer lo propio con
una que produce el efecto contrario.
Cuando se trabaja con superficies de colores parece adecuado seguir utilizando los términos de matiz y saturación (o sus equivalentes) para referirse a la cualidad experimentada y al grado de pureza con la que se aprecia.
Sin embargo, no parece conveniente utilizar el concepto de brillo para referirse a la dimensión más cuantitativa. Entre otras cosas, debido a que apare-
306
9. Percepción del color
cen experiencias que no se dieron ante la contemplación de luces en la oscuridad. Por ejemplo, pueden apreciarse superficies negras o grises, aunque, por supuesto, nadie en su sano juicio ha visto jamás luces negras. Por
tanto, sólo en el caso de las superficies parece adecuado postular la existencia de un continuo en el que las experiencias se ordenarían desde las superficies más oscuras (p.ej. una negra o una marrón oscura) a las más claras
(p.ej. una blanca o una naranja pálida), pasando por niveles intermedios
(los grises y la mayor parte de los colores experimentados en entornos naturales).
2.2
Conos y codificación cromática.
Aunque puedan efectuarse análisis más detallados (Zeki, 1995), existe un
acuerdo generalizado respecto a la presencia de dos niveles fundamentales
en la codificación de la información relacionada con la percepción del color (Kaiser y Boynton, 1996). El primer nivel se da en los receptores de la
retina, es una fase de codificación basada en la existencia de tres tipos de
conos. Sus respuestas son el punto de partida para el funcionamiento de un
segundo nivel, mucho más relacionado con las experiencias de color, que
basa su funcionamiento en la actividad de tres mecanismos perceptivos.
Uno tiene que ver con la oposición existente entre las experiencias de azul
y amarillo, otro con la dada entre las de rojo y verde, y el tercero haría lo
propio con las de claro y oscuro. En este apartado nos ocuparemos de las
principales características del primer nivel, reservando el siguiente para el
segundo nivel.
Tienden a darse experiencias de color cuando la energía se acumula selectivamente en un cierto rango de longitudes de onda. Consiguientemente,
¿por qué no se detectan tales predominios mediante fotorreceptores que
respondan selectivamente en función de la longitud de onda? Esto es precisamente lo que ocurre en la retina, en la que los fotorreceptores de la visión
diurna, los conos, se subdividen en tres tipos en función de su selectividad
espectral.
La Figura 9.2 muestra las curvas de respuesta espectral de los tres tipos
de conos a partir de las estimaciones hechas por McLeod y Boynton (1979)
(véase Pokorny y Smith, 1986). El primero, denominado ␥450 atendiendo al
valor de la longitud de onda ante la que da su máxima respuesta, es especialmente sensible ante la energía de las longitudes de onda más cortas y,
por ejemplo, es el que en condiciones normales responde en mayor medida
ante las luces monocromáticas que tienden a experimentarse como violetas,
azules o aguamarinas (azul-verdosas). La Figura 9.2 también muestra las
funciones de respuesta de los dos restantes tipos de conos: los ␤530 y los
␣560, siendo fácil apreciar un alto grado de superposición entre ambas. Hecha esta matización puede indicarse que el ␤530 es relativamente más sensi-
307
Percepción
1,2
1,2
respuesta
relativa
respuesta relativa
11
0,8
0,8
larga
larga
media
media
0,6
0.6
corta
corta
0,4
0,4
0,2
0,2
00
400 440
440 480
480 520
520 560
560 6090
640 680
680
400
600 640
longitud de
longitud
deonda
onda
Figura 9.2
Funciones de respuesta espectral de los tres tipos de conos.
ble a las longitudes de onda medias, mientras que el ␣560 lo es a las largas.
Debido a la superposición entre las curvas, es correcto afirmar que una
gran parte de las longitudes de onda que afectan a un tipo de cono influyen
también en el otro. En cualquier caso, suele darse una mayor respuesta en
los ␤530 ante las longitudes de onda más relacionadas con las experiencias
de verde o verde-amarillento, mientras que hay predominio para la respuesta de ␣560 ante las longitudes de onda que tienden a producir las de naranja
o rojo-amarillento.
Que la primera fase de codificación se base en las respuestas de tres tipos de conos, que sea tricromática, explica, entre otras cosas, la propia
existencia de colores metámeros. Para entender el porqué, compararemos el
efecto producido en los fotorreceptores por dos estimulaciones que son percibidas como blancas.
La primera estimulación a considerar se denomina equienergética (Figura 9.3 a) y consiste en una acumulación energética de magnitud idéntica (en
la figura 1 watio) para todas las longitudes de onda. La segunda (Figura 9.3
b) está formada por tres acumulaciones de energía centradas en tres longitudes de onda: 400 (109 W), 520 (9W) y 650 (25 W) nm. Es de sentido común esperar que el estímulo equienergético provoque respuestas en los tres
tipos de conos y, también, que éstas sean de magnitud semejante. Por tanto,
ante él no se detectará acumulación selectiva de energía y se espera una
respuesta de blanco. Menos intuitivo es pensar que este resultado es también obtenible cuando se presenta la estimulación formada por las tres acumulaciones de energía que guardan unas proporciones adecuadas. En tal
caso, la actividad que produce la energía de 400 nm en los conos ␥450 se
308
9. Percepción del color
A
1,2
Potencia
(W)
potencia (W)
1
0,8
0,6
0,4
0,2
0
400
450
500
550
600
650
700
longitud de onda
Longitud de onda
B
Potencia
(W)
potencia (W)
120
120
100
100
80
80
60
60
40
40
20
20
00
400
400
520
520
650
650
longitud de
de onda
Longitud
onda
Figura 9.3 Distribuciones espectrales de dos estimulaciones blancas. A: estimulación equienergética. B: estimulación trienergética.
acompaña de respuestas de magnitud semejante en los ␤530 y en los ␣560,
debido a los efectos combinados de las energías de 520 y 650 nm. Por tanto, y dada esta semejanza en las respuestas, ¡el muestreo efectuado por los
conos no detectaría un grado diferente de acumulación de energía en ninguna porción del espectro!, siendo lógica la experimentación del blanco.
La Figura 9.4 utiliza puntos de diferentes tamaños para representar la
magnitud de la respuesta relativa producida en los tres tipos de conos y,
consiguientemente, presenta una triada de gruesos puntos para indicar que,
no importa cuales sean las características físicas de los estímulos físicos
causantes de este resultado, siempre que en los tres tipos de conos se dé
309
Percepción
Tipo de cono
L
PROTO
M
DEUTO
C
TRITA
BLANCO
AMARILLO
AZUL
MORADO
Figura 9.4
Respuestas de los tres tipos de conos ante cuatro estimulaciones.
una respuesta alta y de magnitud semejante, un observador común tiene la
experiencia de blanco. La Figura 9.4 proporciona también tríadas correspondientes a otros colores y permite establecer el principio que provoca la
diferenciación entre colores de la siguiente manera: siempre que dos estimulaciones produzcan patrones de actividad diferentes en los tres tipos de
conos, serán percibidas como distintas. Así, las estimulaciones azul y morada se ven como diferentes porque producen niveles de respuesta muy distintos en los conos L (reducido para la estimulación azul, grande para la
morada). Por otra parte, ¿por qué se denomina a los conos como L, M y C?
Para indicar que son, respectivamente, los más sensibles a las longitudes de
onda largas, medias y cortas. La Figura 9.4 también indica la denominación
clínica de cada uno de estos tipos de conos (el origen de esta nomenclatura
se indica en el apartado 5.1).
2.3
Mecanismos oponentes y codificación cromática.
Aunque la comprensión de la fase de codificación tricromático-retiniana es
esencial para explicar aspectos importantes de la percepción del color, no
es suficiente para dar cuenta de las características finales de esta experien-
310
9. Percepción del color
cia. Entre los hechos no explicados se encontrarían aspectos tan relevantes
como la propia naturaleza de la cualidad cromática experimentada. Para dar
cuenta de ella debe ascenderse al nivel funcional en el que se encuentran
los mecanismos oponentes.
Existen dos formas, no antagónicas, de entender el funcionamiento de
los mecanismos del segundo nivel de la percepción del color. Por una parte,
como hizo en el siglo pasado el alemán Ewald Hering (1878), fundador de
la teoría de los procesos oponentes (Boring, 1942), las características de las
experiencias de color pueden analizarse en busca de vivencias que sean incompatibles entre sí y, partiendo de ellas, postular que el funcionamiento
del proceso perceptivo del color se basa en la existencia de estados opuestos. Por ejemplo, puede observarse que, aunque no existan inconvenientes
para experimentar simultáneamente los matices de «rojo» y «amarillo» (lo
que denominamos «naranja») o los de «rojo» y «azul» («morado» o «violeta»), sí que las hay para experimentar simultáneamente «rojo y verde» y
«amarillo y azul». Por tanto, diría Hering, deben existir dos mecanismos
cromáticos, uno que oponga la experiencia del «verde» a la del «rojo», y
otro que haga lo mismo entre las de «azul» y «amarillo» A la vez, aunque
en este caso nos situemos fuera del ámbito de las oposiciones entre matices, puesto que nada puede ser simultáneamente «blanco y negro», parece
también adecuado hablar de un mecanismo acromático.
Ocupémonos ahora de la segunda forma en que es posible conceptualizar el funcionamiento de los mecanismos oponentes (Hurvich, 1981; Lillo
et al, 1995), indicando que se basa en los efectos que tienen las variaciones
de reflectancia sobre la composición espectral de la energía lumínica que
alcanza al ojo. De momento, este tipo de análisis se centrará en los mecanismos cromáticos («amarillo-azul» y «rojo-verde»).
2.3.1 Mecanismos cromáticos.
La característica más específica de las superficies cromáticas es su tendencia a reflejar preferentemente ciertas longitudes de onda. A partir de este
hecho, los mecanismos «amarillo-azul» y «rojo-verde» pueden concebirse
como relacionados con la detección de dos tipos distintos de desequilibrios
energéticos: 1) el sistema azul-amarillo responde ante el predominio de
energía en las longitudes de onda corta («azul») o larga («amarillo»); y 2)
el sistema verde-rojo responde ante el predominio de energía en las longitudes de onda medias («verde») o en cualquiera de los extremos del espectro
(«rojo»).
Antes de analizar el funcionamiento de estos mecanismos se efectuará
un comentario sobre el concepto de extremos del espectro, anteriormente
utilizado, puesto que resulta contradictorio con la costumbre de utilizar las
dicciones extremo rojo y extremo azul del espectro para referirse a las por-
311
Percepción
ciones donde se ubican, respectivamente, las mayores y menores longitudes
de onda. Estas expresiones tienen su origen en que las cualidades predominantes en la experiencia de color en las proximidades de los 400 nm y de
los 700 nm son las de «azul» y «rojo», respectivamente, si bien ninguno de
estos matices se experimenta en solitario. Así, ante una estimulación monocromática de 400 nm el calificativo que mejor refleja lo experimentado es
el de «violeta», puesto que junto al componente predominantes («azul») se
da uno secundario («rojizo»). En modo semejante, para el otro extremo del
espectro, junto al muy predominante matiz «rojizo», existe un componente
secundario mucho más débil y de carácter «amarillento». En síntesis, lo importante es que, sea como componente dominante (porción larga) o secundario (porción corta), la experiencia de «rojo» se da en ambos extremos del
espectro. Por tanto, nada contradice la idea de que ésta es una de las experiencias perceptivas asociadas al funcionamiento de un mecanismo, que
busca detectar predominios energéticos en cualquier extremo del espectro
(«rojo») o en sus porciones centrales («verde»).
Veamos ahora cómo se pasa del nivel de respuesta de los receptores al
de los mecanismos cromáticos oponentes. Para ello debe conocerse la magnitud de la respuesta de estos mecanismos ante cada longitud de onda para,
una vez en disposición de esta información, formular ecuaciones que las relacionen con las funciones de respuesta espectral de los tres tipos de conos
(Figura 9.5). Sin duda alguna, las más importantes calibraciones psicofísicas de la respuesta de los mecanismos cromáticos se realizaron durante la
década de los cincuenta por Leo Hurvich y Dorothea Jameson (Hurvich y
Jameson, 1957; Jameson y Hurvich, 1955; Hurvich, 1981; Krauskopf et al,
1982), quienes emplearon una técnica directa e ingeniosa: la anulación de
matices mediante el uso de estímulos complementarios. Pongamos un
ejemplo para comprender su funcionamiento. Supóngase en disposición de
un aparato capaz de generar estimulación monocromática de cualquier longitud de onda (un monocromator). Este generador proyecta alternativamente, en una pantalla, estimulaciones de 520 nm y 570 nm. La contemplación
de la primera (520 nm) produce la experiencia de «verde-amarillento», y la
correspondiente a la segunda (570 nm) es la de «amarillo-verdoso». Por
tanto, aunque en ambos casos el mecanismo «amarillo-azul» dé el mismo
tipo de respuesta («amarillo»), ésta será mayor en el segundo caso. Pero,
¿cómo podemos asignar un valor de calibración a la diferencia en la magnitud de la respuesta? La solución aplicada por Hurvich y Jameson puede
formularse de la siguiente manera: Dado que la experiencia de «amarillo»
es opuesta (no puede simultanearse) a la de «azul», puede anularse proyectando sobre el estímulo a calibrar cierta cantidad de una estimulación
cuya presentación solitaria produzca la respuesta de «azul». Cuanto más
«azul» se precise para anular la experimentación del componente «amarillento», tanto mayor se estimará el valor de su magnitud en el estímulo a
calibrar.
312
9. Percepción del color
Mecanismo azul-amarillo
Mecanismo azul-amarillo
0,4
0,2
680
650
620
590
560
530
500
470
440
-0,2
410
0
380
Respuesta relativa (+ amarillo; - azul)
Respuesta relativa (+ amarillo; – azul)
0,6
-0,4
-0,6
-0,8
longitud
Longitudde
deonda
onda
Mecanismo verde-rojo
Mecanismo
verde-rojo
0,4
0,2
695
660
625
590
555
520
485
450
-0,2
415
0
380
Respuestarelativa
relativa(+
(+rojo;
rojo;-verde)
– verde)
Respuesta
0,6
-0,4
-0,6
-0,8
longitud
de onda
onda
Longi
tud de
Figura 9.5 Resultados de las calibraciones de los mecanismos cromáticos efectuadas por Hurvich y Jameson. (a) mecanismo amarillo-azul. (b) mecanismo rojo-verde. El signo utilizado en
cada mecanismo sólo sirve para indicar la oposición de experiencias.
313
Percepción
La figura 9.5 muestra los resultados de las calibraciones efectuadas por
Hurvich y Jameson. En 5 (a) puede observarse que la respuesta del mecanismo «amarillo-azul» es nula ante unos 500 nm, tomando el signo de
«azul» por debajo de esta longitud de onda y el de «amarillo» por encima
de ella —recuérdese que la función del mecanismo es la de detectar predominios energéticos en la porción corta («azul») o larga («amarillo») del espectro. Dirigiendo ahora la atención a 5 (b) puede apreciarse que al mecanismo «rojo-verde» le corresponden dos longitudes de onda ante las cuales
su respuesta es igual a cero (ante 480 y 580 nm, aproximadamente). Para
las longitudes de onda media comprendidas entre ellas su respuesta es la de
«verde». Para las que están fuera de tal intervalo, y por tanto en alguno de
los extremos del espectro, la respuesta es la de «rojo».
Puesto que las funciones 5 (a) y (b) representan el resultado final (la salida) de los mecanismos que median nuestras experiencias de color, y dado
que las reproducidas en 4 hacen lo propio con sus datos de partida (la entrada, el nivel de actividad de los fotorreceptores), Hurvich y Jameson
(1957) pudieron deducir las siguientes ecuaciones:
Amarillo/azul = 0,34 ␣560 + 0,06 ␤530 - 0,71␥450
Rojo/verde = 1,66 ␣560 + 0,37 ␥450 - 2,23 ␤530
(1)
(2)
2.3.2 Mecanismo acromático
Dentro de las superficies acromáticas (figura 9.1a), puede distinguirse entre aquellas cuya reflectancia se mantiene alta en todo el espectro (y tienden a percibirse como «blancas»), y aquellas otras en las que el nivel de reflectancia se mantiene a nivel medio («grises») o bajo («negro»). El mismo
mecanismo que es capaz de dar respuestas diferenciadas entre las superficies acromáticas puede hacerlo ante las cromáticas que difieren en su nivel
global de reflectancia. En tal caso, las de mayor reflectancia tenderán a percibirse como «claras», mientras que lo serán como «oscuras» las de características opuestas. Por ello, aunque lo tradicional ha sido llamar blanco-negro al mecanismo perceptivo relacionado con las variaciones en el nivel
global de reflectancia, es más adecuada la denominación de claro-oscuro.
2.4
Discriminación y categorización de colores.
Uno de los aspectos más llamativos de la percepción del color es la notoria
diferencia existente entre la gran capacidad para discriminar colores y la limitada capacidad para utilizar categorías cromáticas. Un par de ejemplos
cotidianos servirán para concretar mejor a que nos referimos.
314
9. Percepción del color
Supongamos que se ha producido un pequeño desconchón en la pintura
de un pasillo y que queremos reparar lo antes posible este problema. Para
ello atendemos a la pintura y concluimos que es verde pálida. Con esta información acudiremos a la tienda y, primera sorpresa desagradable, veremos que son muchas las muestras de pintura que encajan con la descripción
de verde-claro y, segunda sorpresa, probablemente ninguna de ellas es
exactamente igual a la del pasillo de casa, pero esto no podemos saberlo
hasta que contemplamos simultáneamente las pinturas suministradas por la
tienda y la presente en el pasillo de casa.
Segundo ejemplo: asistimos en casa a la retransmisión del primer tiempo de un partido de fútbol y, por cualquier causa, pasamos a contemplar la
segunda parte a través de las imágenes transmitidas mediante otro aparato.
No notamos ningún cambio en los colores contemplados porque el césped
se sigue apreciando como un verde de claridad media, las camisetas de
nuestro equipo rojas, las del contrario azules, etc. Sin embargo, ¿qué sucedería si, en vez de contemplar las imágenes retransmitidas por los distintos
monitores en distintos momentos las pudiéramos contemplar simultáneamente? Esta situación es similar a la que se da en muchas tiendas de electrodomésticos en las que varios monitores de televisión están encendidos al
mismo tiempo y se diferencia (discrimina) más fácilmente los colores supuestamente equivalentes proporcionados por distintos monitores. Esto es,
el césped se ve verde (categoría) en todos los monitores, pero en algunos de
ellos se ve más saturado, en otros más claro, y en otros más oscuro. En síntesis, la visión del color permite realizar un elevado número de discriminaciones entre colores de una misma categoría, siendo necesario para ello que
las muestras a discriminar estén próximas espacio-temporalmente. En este
caso, se podrá utilizar cualquier diferencia detectada por los conos entre las
dos muestras. Cuando estas muestras no se presenten simultáneamente
(como cuando se intenta encontrar en la tienda de pinturas una semejante a
la del pasillo), lo que se comparará será un color recordado (lo almacenado
en nuestra memoria) con el que se esta contemplando. En tal caso, las limitaciones de la capacidad de almacenamiento de la memoria harán que sólo
se utilicen los tipos de respuesta dados en los tres mecanismos oponentes
(si la pintura era clara, media u oscura; si era rojiza o verdosa, y si era azulada o amarillenta; véase Figura 9.6), pero no la magnitud exacta con que
se dio cada tipo de respuesta.
2.5
Lenguaje y categorías lingüísticas
¿Cuántas son las categorías cromáticas que suele utilizar adecuadamente un
observador común para comunicarse verbalmente con otras personas?
Puesto que, como muestra la Figura 9.6, cada uno de los mecanismos opo-
315
Percepción
Denominación del
mecanismo
Información relacionada
con el mecanismo
Claro-oscuro (acromático)
Luminancia relativa
(reflectancia)
Azul-amarillo (cromático 1)
Porción del espectro (larga o
corta) en la que se acumula
relativamente más energía
Rojo-verde (cromático 2)
Porción del espectro (central o
cualquiera de los extremos) en
la que se acumula
relativamente más energía
Figura 9.6
Relación
Información - Sensación
Alta
Media
Baja
«Claro»
«Medio»
«Oscuro»
más en larga
no hay diferencias
más en la corta
Azul
———
Amarillo
más en central
Verde
no hay diferencias ———
más en los extremos Rojo
Información y sensación de los tres mecanismos oponentes.
nentes puede dar tres tipos de respuestas, es fácil predecir la existencia de
27 categorías cromáticas (3 × 3 × 3 = 27). Sin embargo, si se atiende sólo a
las que alcanzan el calificativo de básicas en la habitual nomenclatura científica, su número queda reducido a 11: gris, blanco, negro, rojo, verde,
azul, amarillo, naranja, morado, rosa y marrón.
¿A qué se debe la discrepancia entre el número de categorías predecibles
y el de las básicas? ¿Por qué éstas son menos que las que se pueden utilizar
consistentemente en tareas que no implican el uso del lenguaje? Dos son
los factores relevantes. En primer lugar, puede suceder que una misma categoría básica se dé con varios niveles de claridad: por ejemplo, la de «verde» puede aplicarse a estímulos claros, medios y oscuros. En segundo lugar, puede suceder que algunas combinaciones de tipos de respuesta en los
mecanismos oponentes no den lugar a una categoría básica en el lenguaje:
por ejemplo, la respuesta tipo verde en el mecanismo verde-rojo al combinarse con las dos respuestas extremas posibles en el mecanismo azul-amarillo no da lugar a ninguna categoría básica. Existen, ¡qué duda cabe!, términos para indicar que se experimenta simultáneamente verde y azul
(aguamarina) o verde y amarillo (chartreausse). Sin embargo, los términos
como aguamarina y chartreausse no cumplen con los requisitos requeridos
para ser considerados como términos identificadores de categorías básicas.
Estos requisitos son los siguientes (Berlin y Kay, 1969; Kaiser y Boynton,
1996, cap. 11; Corbet y Davies, 1997):
1) Su denominación debe estar presente en el vocabulario de todos los
hablantes del idioma.
2) El término debe utilizarse de forma consistente en las distintas personas que lo emplean y en las distintas ocasiones en que lo hacen.
316
9. Percepción del color
TIPO
DENOM.
CATEGORÍAS
CLARIDADES
Preferentes
y compatibles
RESPUESTA
ROJO-VERDE
RESPUESTA
AZUL-AMARILLO
Acromática
Gris
Medias
Media (neutral)
Media (neutral)
Acromática
Blanco
Altas
Media (neutral)
Media (neutral)
Acromática
Negro
Bajas
Media (neutral)
Media (neutral)
Primaria
Azul
Baja, Media, Alta
Media (neutral)
Azul
Primaria
Amarillo
Media, Alta
Media (neutral)
Amarillo
Primaria
Verde
Baja, Media, Alta
Verde
Media (neutral)
Primaria
Rojo
Baja, Media.
Rojo
Media (neutral)
Secundaria
Morado
Baja, Media.
Rojo
Azul
Secundaria
Naranja
Media, Alta,
Rojo
Amarillo
Secundaria
Rosa
Media, Alta,
Rojo
Media (neutral)
Secundaria
Marrón
Baja, Media
Rojo?
Amarillo?
Figura 9.7
Naturaleza perceptiva de las categorías básicas
3) El significado del término no debe estar incluido en ningún otro término de color.
4) El término debe ser monolexémico (una sola palabra). Por ejemplo,
es monolexémica la denominación de naranja pero no la de rojoamarillento.
En castellano (para otros idiomas consúltese Kay et al, 1997), los términos considerados como básicos pueden dividirse en los tres siguientes grupos de categorías:
1) Acromáticas (3): gris, blanco y negro.
2) Cromáticas primarias (4): rojo, verde, azul y amarillo.
3) Cromáticas secundarias (4): naranja, morado, rosa y marrón.
La naturaleza perceptiva de las categorías es fácilmente explicable desde
la teoría de los procesos oponentes de la manera siguiente (Lillo, 1998a;
véase Figura 9.7):
1) Se experimenta una categoría acromática (blanco, gris, negro) cuando la respuesta en los dos mecanismos cromáticos fuera nula.
2) Se experimentan categorías cromáticas primarias (rojo, verde, azul,
amarillo), cuando se da una respuesta apreciable en sólo uno de los
317
Percepción
mecanismos cromáticos (en el otro la respuesta es nula o muy reducida).
3) Se experimentan categorías cromáticas secundarias cuando:
A) La respuesta en el mecanismo verde-rojo es de tipo rojo.
B) Se da una respuesta no neutra en el mecanismo acromático (rosa,
marrón) o en el mecanismo azul-amarillo (morado, naranja).
Sin embargo, esta explicación parece adecuada para 10 de las 11 categorías básicas: las tres acromáticas, las cuatro cromáticas primarias, y las tres
primeras cromáticas secundarias (morado, naranja y rosa). No obstante, no
lo es para la cuarta secundaria (marrón), entre otras, por las siguientes razones:
1) Existen abundantes estimulaciones que producen, simultáneamente,
las experiencias de rojo y oscuro en las que, contra lo indicado por
la Figura 9.7, los observadores comunes no utilizan la categoría de
«marrón» En estos casos tampoco se emplea cualquiera otra de las
básicas, sino otras tales como las de «granate» o «burdeos».
2) A diferencia de lo que ocurre con el resto de las categorías cromáticas
secundarias, la de «marrón» se experimenta como correspondiendo
a un matiz único (Fuld, Werner y Wooten, 1983; Quinn, Rosano y
Wooten, 1988). Esto es, mientras que en los prototipos de morado y
naranja se experimentan dos matices diferentes (los indicados en la
Figura 9.7), y en los de rosa se simultanea la experiencia de rojo con
la de blanco, nada parecido a lo anterior sucede en el caso del marrón.
3.
Producción de colores
Sabemos que el color es una respuesta perceptiva dada ante la presencia de
desequilibrios relativos en la energía que alcanza a un observador. Por ello,
puede considerarse que la producción de colores es la producción de desequilibrios energéticos. En la medida de lo posible, para simplificar y abaratar los procesos tecnológicos, este logro debe alcanzarse partiendo del menor número de elementos-base (colores primarios). Dos son los tipos de
sistemas utilizados habitualmente para producir desequilibrios energéticos.
En el primero, la mezcla aditiva de colores, la utilización de cada uno de
los colores primarios añade energía de un determinado tipo a la mezcla que
se quiera conseguir. En el segundo, la mezcla sustractiva de colores, cada
color primario resta energía de un determinado tipo.
318
9. Percepción del color
c (tinta cyan)
c (tinta
cyan)
a (tinta amarilla)
80
80
% reflectancia
% reflectancia
% reflectancia
80
80
reflectancia
100
100
100
100
60
60
%
40
40
20
20
00
60
60
40
40
20
20
corta
corta
media
media
Longitud de onda
0
0
larga
larga
corta
corta
media
media
Longitud de onda
Longitud
de onda
larga
larga
Longitud de onda
b (tinta
magenta)
b (tinta magenta)
d (verde mezcla)
d (verde mezcla)
100
100
100
100
% reflectancia
60
60
40
40
20
20
00
%
reflectancia
80
80
% reflectancia
% reflectancia
80
80
60
60
40
40
20
20
corta
corta
media
Longitud de onda
media
Longitud de onda
larga
larga
00
corta
corta
media
media
Longitud de onda
Longitud de onda
larga
larga
Figura 9.8 Mezcla sustractiva de colores. (a) La utilización de una gran cantidad de tinta amarilla permite que el papel blanco deje de reflejar las longitudes de onda cortas. Las tintas magenta y
cyan hacen lo propio con, respectivamente, (b) las longitudes medias y (c ) las cortas. (d) Estimulación en la que sólo se reflejan las longitudes de onda media («verde») gracias al uso combinado de
tinta cyan («azul claro») y amarillo.
3.1
Mezcla sustractiva
Este tipo de mezcla es el habitualmente empleado para lograr materiales
cromáticos impresos sobre papel. Ejemplos concretos de mezclas conseguidas por este procedimiento son las que se dan cuando se mezcla el trazado
de distintos lápices de colores sobre una hoja de papel en blanco y, también, cuando se imprime en color mediante las impresoras habitualmente
incorporadas por los equipos informáticos. El material sobre el que se imprime es blanco, es decir, su reflectancia es alta para todas las longitudes de
onda (véase p. 303, Figura 9.1a).
Por otra parte, es menos evidente, comprobar que la función de cada una
de las tintas utilizadas es la de oponerse a la reflexión de un cierto grupo de
longitudes de onda. En la forma representada mediante la Figura 9.8, la utilización de tinta amarilla sirve para reducir la proporción en que se reflejan
las longitudes de onda corta (9.8a), y las tintas magenta y cyan hacen lo
319
Percepción
propio con las medias (9.8b) y largas (9.8c), respectivamente. Si se considera que la función de cada tinta es la de restar energía a una gama de longitudes de onda, es fácil explicar cómo se consiguen colores mediante su
mezcla. Así, si se quiere conseguir una estimulación similar a la verde representada en 9.8d, deberán utilizarse simultáneamente las tintas que restan
energía a las longitudes de onda corta (amarillo) y larga (cyan). Este resultado, por otra parte, resultará familiar a quienes hayan utilizado distintos lapiceros para crear colores.
Desde el punto de vista teórico es fácil predecir la obtención de estimulaciones acromáticas mediante la utilización simultánea de las tintas amarilla, magenta y cyan. Todo lo que debe hacerse es utilizar cantidades equivalentes de cada una de ellas a fin de reducir, en el mismo grado, la cantidad
de energía reflejada en las porciones corta, media y larga del espectro. Si
las tres se empleasen en grado reducido se obtendría un «gris» muy claro
(muy próximo al color del papel del que se parte), oscureciéndose el gris
logrado a medida en que se incrementasen las cantidades empleadas. Sin
embargo, puesto que utilizar cantidades exactamente equivalentes de las
tres tintas puede ser difícil de conseguir, son muchos los casos aplicados en
los que las estimulaciones acromáticas se obtienen empleando directamente
tinta negra sobre el papel. De esta forma, siempre se tendrá la seguridad de
obtener una reducción equivalente en la energía reflejada en todas las longitudes de onda.
3.2
Mezcla aditiva
Los principios en los que se basa la mezcla aditiva de colores son, como cabría esperar, opuestos a los descritos en el apartado anterior. Se parte de la
ausencia de estimulación y se utilizan tres colores primarios para añadir
energía en la porción corta (azul), media (verde) y larga (rojo) del espectro.
Su uso conjunto y proporcionado permitirá obtener luz blanca.
Los escenarios de los teatros y los monitores de televisión convencionales proporcionan buenos ejemplos de situaciones cotidianas en las que se
utiliza la mezcla aditiva de colores. Antes de empezar una representación
teatral, o durante los intervalos que permiten cambiar el escenario, éste permanece a oscuras porque no le alcanza la luz de ningún foco. Pocos instantes después, sin embargo, el uso inteligente de estas fuentes de luz permite
crear mil ambientes diferentes mediante la combinación de un mínimo de
tres tipos de focos. Uno de ellos proporciona una luz de apariencia «azulviolácea» cuando se contempla directamente y es el encargado de añadir
energía de longitud de onda corta a las mezclas lumínicas del escenario. El
segundo tipo, «verdoso» a la contemplación directa, hace lo propio con la
energía de longitud de onda media. Mientras que el tercer tipo tiene una
inevitable apariencia «rojiza» y es el encargado del componente energético
320
9. Percepción del color
de longitudes más largas. En muchos casos, el cuarto tipo de foco utilizado
para iluminar el escenario tendrá una apariencia blanca y servirá para aportar la misma cantidad de energía en todo el espectro visible.
En el caso de no haber podido asistir a la representación teatral deberíamos conformarnos con contemplar su retransmisión a través de la televisión. Muy probablemente, todos los colores presentados en pantalla se habrán conseguido mediante la mezcla de la luz producida por tres tipos de
puntitos luminosos que pueden hacerse visibles si se observa la pantalla
desde cerca y con una buena lupa. En este caso, se observará que sus colores son muy parecidos a los de los tres tipos de proyectores de nuestro hipotético teatro (azulados, verdosos y rojizos) debido a que, también los puntitos, tienen la función de aportar energía en una parte concreta del espectro
visible.
4.
Medición del color
El apartado 2 se centró en el estudio de los mecanismos que median en la
percepción del color y, por tanto, proporciona el adecuado marco de referencia para entender las aportaciones de la principal disciplina científica relacionada con la medición de los colores, la colorimetría, cuya finalidad
explícita es la de proporcionar indicadores numéricos relacionados con las
experiencias de color. Con este objetivo la Commission Internacionale de
l’Eclairage (CIE) ha desarrollado una serie de espacios y superficies útiles
para medir el color de las estimulaciones, en función de la respuesta producida en el colorímetro electrónico o, simplemente, colorímetro. Veamos en
qué se basa su funcionamiento.
4.1
Espacios de color CIE
4.1.1 Espacio CIEXYZ
Sabemos que la luz procedente de los objetos cromáticos tiende a mostrar
desequilibrios energéticos, excesos o defectos relativos, y que la retina está
capacitada para su detección debido a que dispone de tres tipos de sensores
especialmente sensibles a la energía de las porciones larga, media y corta
del espectro, respectivamente. Sabiendo esto, ¿por qué no construir un aparato funcionalmente similar a la retina y, por tanto, capaz de detectar el
mismo tipo de desequilibrios? Este aparato recibe el sugerente nombre de
colorímetro.
La Figura 9.9 muestra las curvas de transmitancia de los filtros que puede incorporar un hipotético colorímetro. Como puede apreciarse, el filtro X
deja pasar especialmente la energía acumulada en las longitudes de onda
321
Percepción
Curvas de transmitancia de un colorímetro hipotético
0,8
Y
Z
X
0,4
0
70
0
5
5
67
65
62
5
0
5
0
60
57
55
5
0
0
0
52
50
47
45
42
5
0
40
Transmitancia
Transmitancia relativa
relativa
1,2
-0,4
Longitud
onda
Longitud de
de onda
Figura 9.9 Curvas de transmitancia de los filtros de un colorímetro hipotético. El filtro «X» deja
pasar a su través especialmente la energía acumulada en las longitudes de onda más largas, mientras
que los «Y» y «Z» hacen lo propio, respectivamente, con la acumulada en las medias y las cortas.
más largas, mientras que el Y y el Z hacen lo propio con la acumulada en
las medias y en las cortas respectivamente. Por ello, si se hace pasar la luz,
procedente de un objeto, por cada uno de los filtros y, de alguna manera, se
mide la cantidad de luz que ha conseguido atravesarlos se obtiene una terna
de valores que permiten describir la estimulación en un punto en que, con
toda legitimidad, puede denominarse espacio de color. Pongamos algunos
ejemplos para concretar la idea que se acaba de exponer.
Supongamos que nuestro colorímetro está recibiendo la luz reflejada por
una hoja de papel blanco iluminada por una fuente que contiene la misma
cantidad de energía en todas las longitudes de onda (iluminación equienergética). En tal caso, los tres filtros son atravesados por una cantidad semejante de luz y se obtiene un nivel de medida equivalente para los tres filtros
(p.ej. X = Y = Z = 400). Supongamos ahora que, sin cambiar de iluminación, sustituimos la hoja de papel blanco por otras percibidas como «negra», «amarilla» y «azul». En cada caso se obtendrá una clara variación en
el resultado de la tríada de mediciones efectuadas. Así, para la superficie
negra se obtendrá una reducción general en el nivel de respuesta (debido a
su baja reflectancia), aunque se mantendrá el equilibrio (p.ej. X = Y = Z =
45). Por otra parte, la tendencia de las superficies azul y amarilla a reflejar
especialmente ciertas longitudes de onda, provocará mayores valores relativos en los filtros que más fácilmente las transmiten (p.ej. X = 5, Y = 30, y
Z = 90 para la superficie azul, y X = 70, Y = 75, y Z = 10 para la amarilla).
Es importante recordar que podemos utilizar la tríada de valores obtenidos
ante cada estimulación, a la que denominaremos valores tricromáticos, para
representar la reflectancia de las superficies en un espacio definido por los
ejes X, Y, y Z.
322
9. Percepción del color
Aunque los filtros utilizados en los colorímetros que se ajustan a las recomendaciones de la CIE son algo distintos a los que hasta ahora han servido de ejemplo (Pokorny y Smith, 1986), funcionan basándose en el mismo
principio: permiten la detección de acumulaciones de energía en las porciones larga (X), media (Y) y corta (Z) del espectro.
Son muchas las ocasiones en las que, más que interesar la cantidad absoluta de energía acumulada en cada porción del espectro, lo que realmente
importa es la magnitud relativa o proporción de energía que se acumula en
cada parte del espectro. Para que no puedan existir confusiones respecto a
cuando se habla de cantidades absolutas (valores tricromáticos) y cuando
de relativas (proporciones tricromáticas), en el primer caso siempre se utilizarán las mayúsculas (X, Y, Z), mientras que en el segundo se emplearán
las minúsculas (x, y, z). Pongamos un ejemplo en el que sea fácil apreciar
la utilidad de estas mediciones relativas.
En una reciente visita a Valencia fui informado de la utilización de mediciones colorimétricas para seleccionar calidades diferentes de naranjas.
Puesto que la asignación de un determinado nivel de calidad depende, además de atributos tales como el tamaño y la forma, del color de estos frutos,
¿por qué no aprovechar su desplazamiento en las cintas móviles de la fábrica para efectuar una rápida medición colorimétrica y utilizar posteriormente el resultado medido para controlar el funcionamiento de un automatismo
capaz de separar a las naranjas? Concretemos numéricamente la situación
expuesta asumiendo que las condiciones de iluminación hacen incidir en
las naranjas un nivel de iluminación relativamente alto (p.ej. 1.000 lux).
Partiendo de él pueden medirse los valores tricromáticos correspondientes
a una naranja de color óptimo y obtenerse, por ejemplo, los siguientes:
X1 = 300, Y1 = 120, y Z1 = 20. Estos valores tricromáticos se utilizarían
como referencia para compararlos (mediante un simple programa informático) con los correspondientes a cada una de las naranjas que quisiéramos
clasificar, de forma que sólo la obtención de una diferencia pequeña entre
las dos ternas de valores tricromáticos llevase a concluir que la medición
corresponde a una naranja de alta calidad (una diferencia grande indicaría
que el color medido no se ajusta a esta calidad).
No obstante, para que nuestro mecanismo separador de naranjas pueda,
en principio, funcionar eficazmente, basándose en los valores tricromáticos
proporcionados por un colorímetro CIE, resulta mucho más operativo basar
su actividad en lo que en lo que normalmente se denominan proporciones o
coordenadas tricromáticas (MacAdam, 1985). Supongamos que algún motivo altera las condiciones de iluminación en el habitáculo donde se están
realizando las mediciones colorimétricas. Por ejemplo, supongamos que
por un descuido en el servicio de mantenimiento la cantidad de luz que ilumina a las naranjas se reduce a la mitad y, consiguientemente, también lo
hacen en el mismo grado los valores X, Y, y Z registrados por el colorímetro (X2 = 150, Y2 = 60, y Z2 = 10) La consecuencia de esta variación es que
323
Percepción
la propia naranja que sirvió de referencia para definir el color de la categoría superior sería considerada como no perteneciente a ella por el programa
informático conectado al medidor. Como enseguida veremos, este error no
se producirá si el programa informático utiliza, en lugar de valores, proporciones tricromáticas. Aunque el cambio lumínico redujo a la mitad los valores tricromáticos registrados por el colorímetro, no alteró las relaciones
de magnitud existentes entre ellos, de forma que la mayor cantidad detectada siguió siendo en X (algo lógico, puesto que la naranja refleja especialmente la energía de la parte más larga del espectro), y ésta siguió siendo
unas 2,5 veces superior a la de Y y unas 15 a la de Z. Por tanto, ¿por qué no
utilizar un tipo de medida que se base en las magnitudes relativas existentes entre los valores tricromáticos y no se vea afectado por las variaciones
en el nivel de iluminación? Las proporciones tricromáticas son este tipo de
medida.
El proceso matemático preciso para calcular las proporciones tricromáticas es muy sencillo. Para empezar se asume que la respuesta TOTAL del
colorímetro es la suma de los tres valores tricromáticos:
TOTAL = X + Y + Z
(3)
A continuación, y para determinar la proporción en la que cada uno de
ellos contribuye a la respuesta total, se les divide por el valor de ésta en la
forma especificada por las ecuaciones siguientes:
x = X/TOTAL
y = Y/TOTAL
z = Z/TOTAL
(4)
(5)
(6)
No es difícil comprobar que su aplicación produce, para naranjas idénticas, las mismas proporciones tricromáticas en las dos situaciones lumínicas
consideradas. Así, cuando la iluminación fue reducida, el valor TOTAL fue
igual a 220 (X2 + Y2 + Z2 = 150 + 60 + 10) y, por tanto, la aplicación de las
ecuaciones (4), (5), y (6), permite calcular las proporciones tricromáticas
de la manera siguiente.
x = 150/220 = 0,68
y = 60/220 = 0,27
z = 10/220 = 0,05
Un cálculo semejante aplicado a la situación de mayor iluminación
(X1 = 300, Y1 = 120, Z1 = 20) da exactamente las mismas proporciones
(x = 0,68, y = 0,27, z = 0,05).
Además de proporcionar una medida resistente a las variaciones en la
iluminancia, ¿qué ventajas adicionales proporciona la especificación de un
324
9. Percepción del color
color en función de sus proporciones? La más importante es que permite
reducir a dos el número de cifras utilizadas, debido a que la tercera es deducible partiendo de las anteriores. En términos más concretos, y puesto
que la suma de las tres proporciones debe ser igual a 1, el valor de cualquiera de ellas será igual a 1 menos la suma de las otras dos, por ejemplo
z = 1 - (x + y). Así, en el caso de nuestra naranja, si x = 0,68 e y = 0,27,
z sólo puede valer 0,05, puesto que éste es el valor que se necesita añadir a
la suma de x e y para llegar a la unidad.
4.1.2 Diagrama de cromaticidad CIExy
La reducción a dos del número de valores utilizados para referenciar un
color facilita su representación gráfica y hace posible crear un instrumento,
el diagrama de cromaticidad CIExy (Figura 9.10) muy útil para ciertas aplicaciones tecnológicas (Judd y Wyszecki, 1975).
Los primeros elementos a considerar para entender el diagrama de cromaticidad CIExy son los ejes de coordenadas en los que se encuadra. Estos,
x e y, son dos de las tres proporciones tricromáticas. Por esta razón, cualquier estímulo que refleje cantidades semejantes de energía en las tres partes del espectro (X = Y = Z), al dar lugar a proporciones tricromáticas idén1
0,9
0,8
550
0,7
Proporción y
0,6
500
0,5
0,4
Ac ro m á tic o
600
0,3
650-700
0,2
0,1
Línea d e lo s m o ra d o s
450
0
0
400
0,2
0,4
0,6
0,8
1
Pro p o rc ió n x
Figura 9.10
Diagrama de cromaticidad CIExy.
325
Percepción
ticas (x = y = z = 0,33), se representa en el punto x = .33 e y = .33, que, en
condiciones normales, tales estimulaciones se percibirán como acromáticas
(«blanca», «gris» o «negra») y, por tanto, carentes de matiz.
Ocupémonos ahora de las posiciones en las que se representan los estímulos más cromáticos (de saturación muy elevada) y que son los formados
por una sola longitud de onda (monocromáticos). No es difícil deducir, gracias a la numeración presente en la Figura 9.10, que cada uno de ellos se
representa mediante un punto en la porción curva del diagrama. Por ejemplo, no es difícil comprobar que a una estimulación monocromática de 600
nm le corresponde un valor de x ligeramente mayor a 0,60 (x = 0,627) y
otro y ligeramente inferior a 0,40 (y = 0,3725). Puede asumirse que este par
de valores se obtuvieron haciendo incidir sobre el colorímetro una cierta
cantidad de energía de esta longitud de onda. Tal procedimiento, por supuesto, pudo aplicarse a cada una de las longitudes de onda visibles (el arco
iris), para obtener las coordenadas (x, y) que permiten localizarlas en el
diagrama.
Analicemos, ahora, la porción no curva del perímetro del diagrama de
cromaticidad o, dicho de otra forma, del segmento recto que va desde,
aproximadamente, la posición referenciada como 400 hasta la que lo es
como 700. Como en el resto del perímetro, cada uno de los puntos de esta
recta corresponde a estimulaciones que tienden a percibirse muy saturadas.
Sin embargo, no estarían formadas por una sola longitud de onda, no serían
monocromáticas, sino que lo estarían por un mínimo de dos. Dado que los
matices normalmente experimentados ante este tipo de estimulaciones se
incluyen dentro de los «morados», el segmento del que estamos hablando
se denomina línea de los morados. Dado que estas estimulaciones no se incluyen entre las que definen el conjunto de estimulaciones monocromáticas
del espectro visible (no son parte del arco iris) también se la denomina línea de colores no espectrales.
Una vez que sabemos que el centro del diagrama representa la acromaticidad y que su perímetro sirve para hacer lo propio con las máximas saturaciones experimentables ante los matices presentes en el espectro (porción
curva) o pertenecientes al ámbito de los morados (porción recta), podemos
concretar la forma en que puede utilizarse este instrumento gráfico para especificar el matiz y la saturación de otros colores. Para entenderlo mejor
supondremos que se ha efectuado una medición colorimétrica y que la
energía lumínica procedente de una superficie ha dado lugar a las siguientes coordenadas cromáticas: x = 0,20 e y = 0,40. ¿Qué matiz y saturación
se atribuirían a semejante estimulación (representada mediante «Cr» en la
Figura 9.11)? El axioma del que parte el proceso interpretativo asume que
todos los colores situados en un mismo radio del diagrama son idénticos en
matiz, aunque puedan diferir en saturación. De este modo, puesto que existe un radio que parte del centro del diagrama (x = y = 0,33, origen de radios) y alcanza su periferia en las proximidades de 500 nm, tras pasar por
326
9. Percepción del color
1
Proporción y
0,8
0,6
500
0,4
X
Cr
Ac.
0,2
0
0
0,2
0,4
0,6
0,8
1
Proporción x
Figura 9.11 Determinación de la longitud de onda dominante y de la pureza. Un color tiene la
misma longitud de onda dominante que la del color espectral presente en el mismo radio. Su pureza es la porción de éste que hay que recorrer para llegar a él.
Cr, puede concluirse que Cr tiene el mismo matiz («verdoso») que el poseído por un estimulo monocromático de 500 nm. En síntesis, cuando se utiliza el diagrama para determinar gráficamente el matiz correspondiente a
una estimulación, todo lo que ha de hacerse es trazar el radio que pasa por
el color de interés, considerándose como longitud de onda dominante o de
referencia a la del único estímulo monocromático que también se representa en el mismo radio.
Pasemos ahora a ocuparnos de la forma en que el diagrama de cromaticidad CIExy representa la saturación, recordando el significado de los dos
puntos extremos de cada uno de sus radios. Uno es siempre el propio centro
del diagrama (x = y = 0,33) y corresponde a un nivel de saturación cero. El
otro se sitúa en el perímetro y corresponde a la máxima saturación experimentable en un determinado matiz. Puede concluirse que el alejamiento a
lo largo del radio representa el incremento en la saturación. Por tanto, un
alejamiento igual a la mitad de la longitud del radio corresponderá a un nivel de saturación igual al 50 por ciento de la experimentada ante el estímulo monocromático. ¿Por qué se ha resaltado que los niveles de saturación se
especificaban con relación a la del estímulo monocromático que correspondiera? El diagrama CIExy tiene la importante limitación de que no permite comparar la saturación de estímulos con diferentes longitudes de onda
dominante. Por ejemplo, puesto que todos los estímulos monocromáticos
ocupan el extremo más saturado de un radio, podría pensarse que todos
ellos deberían experimentarse con un nivel de saturación diferente. En contra de esta predicción lo que se encuentra (Wyszecki, 1986) es que aquellos
327
Percepción
colores con longitudes de onda más extremas (próximas a los 400 nm o a
los 700 nm) tienden a percibirse más saturados que los que tienen longitudes de onda centrales. En sentido estricto, lo único que permite determinar
el diagrama de cromaticidad CIExy es la pureza de una determinada estimulación, esto es, el nivel relativo de saturación respecto a la máxima experimentable en el radio que corresponda del diagrama. Por ello, aunque todos
los estímulos monocromáticos tengan una pureza del 100 por ciento no tienen por qué experimentarse con niveles de saturación semejantes.
4.1.3 Limitaciones del espacio CIEXYZ
Las mediciones de los estímulos cromáticos basados en el espacio CIEXYZ
del que el diagrama CIExy es un derivado, tienen dos grandes ventajas: estabilidad y precisión. Al basarse en la medición electrónica de las cantidades
de luz acumuladas en las porciones largas (X), medias (Y) y cortas (Z) del
espectro, una misma estimulación produce siempre el mismo resultado colorimétrico (estabilidad) y éste permite detectar con gran finura pequeñas
variaciones estimulares (precisión). Por otra parte, como veremos enseguida, las mediciones basadas en los parámetros del espacio CIEXYZ, tienen serias limitaciones.
El primer conjunto de limitaciones tiene que ver con la concepción localista en la que se basa. Para computar tanto los valores tricromáticos (X, Y,
Z) como las coordenadas de cromaticidad (x, y), el colorímetro analiza la
energía de una estimulación sin tener en cuenta la naturaleza de lo que le
rodea. Este enfoque no es adecuado porque una misma estimulación puede
dar lugar a experiencias de color muy distintas en función del fondo en el
que se presenta (Wyszecki, 1986).
El segundo conjunto de factores que limitan la utilidad del espacio
CIEXYZ para describir la percepción del color deriva de que, en contra de lo
que está implícito en su uso, los aspectos cualitativos de esta experiencia
perceptiva no pueden explicarse exclusivamente en función de los aspectos
también cualitativos existentes en la estimulación. En este capítulo se ha
afirmado que lo esencial de las estimulaciones cromáticas es que presentan
desequilibrios energéticos (apartado 1.2) y que la detección de tales desequilibrios es la causa fundamental de la percepción del color (apartado 2.2).
Sin embargo, nunca se ha dicho que este factor fuese el único. Fundamentalmente porque tal afirmación resultaría falsa. Analicemos lo que sucedería si fuese verdadera. La longitud de onda dominante (véase 4.1.2) es el
parámetro del espacio CIEXYZ que permite determinar el tipo de desequilibrio energético presente en una estimulación. Por ello, si ésta fuera la única
variable a considerar para predecir los aspectos cualitativos del color, cabría
esperar que todas las estimulaciones con la misma longitud de onda dominante deberían experimentarse con el mismo matiz, independientemente de
328
9. Percepción del color
su intensidad y pureza. La existencia de los efectos Bezold-Brüke y Abney
demuestran que no es así.
El efecto Bezold-Brüke (Valberg et al., 1991) es el cambio experimentado en el matiz de una estimulación que mantiene constante su longitud de
onda dominante y varía en intensidad. Por ejemplo, una luz monocromática
de 605 nm que produce un naranja perfecto (igual de rojiza que amarillenta) a intensidades intermedias, se ve más amarillenta que rojiza a intensidades altas, y más rojiza que amarillenta a las bajas. Trabajando con superficies de colores su nivel de reflectancia puede ser decisivo para que se
experimente, o no, un determinado matiz. Por ejemplo, Boynton y Olson
(1990), en un estudio clásico, encontraron que la categoría de amarillo sólo
se aplica a estimulaciones con reflectancias relativamente altas (superiores
al 60 por ciento, ¡no hay amarillos oscuros!). En la misma línea, investigaciones recientes (Vitini et al., 1998) han encontrado que las mismas longitudes de onda dominantes que producen la denominación de amarillo con
altas claridades, con bajas claridades producen las de verde o marrón (muchos observadores consideran que el término más adecuado para describir
el color visto es el de caqui).
El efecto Abney (Burns et al, 1984) es el cambio experimentado en el
matiz de una estimulación que mantiene constante su longitud de onda dominante y varía en pureza. Por ejemplo, una estimulación de 485 nm se experimenta como un azul casi perfecto cuando su pureza es del 100 por ciento pero se experimenta como azul con un débil componente verdoso a
purezas intermedias.
Consciente de las limitaciones del espacio CIEXYZ, la CIE, que lo creó en
1931, ha desarrollado, en esta segunda mitad de siglo, una serie de espacios
derivados de él (por ejemplo CIE Lu´v´ y CIE L ab) que lo mejoran, tanto
en el ámbito teórico como en el aplicado. Por ejemplo, estos nuevos espacios incorporan un parámetro, L (Lightness), que permite especificar la claridad experimentada ante un estímulo, teniendo en cuenta no sólo la intensidad de la estimulación que envía al ojo, sino también la de las superficies
que le rodean. Un análisis detallado de estos nuevos espacios excede las posibilidades de este capítulo y debe buscarse en otras fuentes (Hunt, 1987)
4.2
Atlas de colores
La forma más precisa de especificar una estimulación cromática es, sin
duda, la conseguida mediante colorímetros electrónicos que especifican las
propiedades estimulares en términos de los espacios CIE. Sin embargo, son
muchas las ocasiones en las cuales no se requiere un excesivo nivel de precisión en la medida y, además, se desea que ésta pueda realizarse e interpretarse por personas con conocimientos limitados sobre la percepción del
color. De darse estas circunstancias puede sustituirse la utilización de un
329
Percepción
colorímetro electrónico, de precio muy elevado, por el empleo de un atlas
de color, que resultará mucho más fácil de encontrar debido a su costo relativamente reducido.
En esencia, un atlas de colores no es más que un sistema organizado de
muestras cromáticas, normalmente presentadas en formato de libro. Para
referenciar un color mediante un atlas debe buscarse en él la muestra que
más se le parece y asignarle la denominación correspondiente a tal muestra.
Como conocen bien los aficionados a la pintura, al bricolaje, a las bellas artes o a la informática, existen múltiples atlas disponibles a nivel comercial.
Sin embargo, aquí nos centraremos en uno, en el atlas NCS distribuido por
AENOR. Esta selección se basa en que 1) la impresión de sus muestras es
de alta calidad, 2) éstas se presentan de forma organizada y significativa
desde el punto de vista psicológico, 3) el número de muestras incluidas en
él es elevado (1.730), y 4) el sistema NCS ha sido oficialmente adoptado
por la Comunidad Económica Europea como un estándar para referenciar
colores, siendo éste el motivo por el cual es distribuido, en España, por AENOR (Agencia Española de Normalización).
El sistema NCS (Natural Color System) es un espacio de referenciación
de los colores directamente basado en las concepciones de la teoría de los
procesos oponentes (apartado 2.3). La nomenclatura NCS se basa en tres
parámetros clave: blancura (w), negrura (s) y cromaticidad (c), debiendo
ser igual a 100 la suma de los tres (w+s+c=100). Los estímulos más fáciles
de describir, mediante la nomenclatura AENOR, son los acromáticos, porque en ellos c=0 (no se experimenta color). Un ejemplo de denominación
aplicada a este tipo de estímulo sería la siguiente: S 7500-N. La letra S indica que esta denominación, al igual que todas las demás del atlas, se especifica en términos del sistema natural de los colores. Tras poner la S, lo primero que se especifica es el nivel de negritud correspondiente a la muestra,
para ello se utilizan las dos primeras cifras (75). Las dos segundas (00) indican el nivel de croma que, lógicamente, es cero para una estimulación
acromática. Este hecho, además, se reconfirma mediante la utilización de la
letra N (no cromática). Ninguna de las cifras presentadas informa explícitamente sobre la blancura, aunque ésta es fácil de deducir (25) si se recuerda
que la suma de cromaticidad, negrura y blancura debe ser igual a 100.
Ocupémonos ahora de la denominación que le corresponde a un estímulo cromático, por ejemplo, S 2070-Y10R. Al igual que antes, los dos primeros pares de cifras indican, respectivamente, la negrura (20) y cromaticidad
(70) y permiten deducir la blancura (10). El resto de la denominación
(Y10R) sirve para especificar el matiz, hallándose éste entre el amarillo (Y)
y el rojo (R), aunque mucho más cerca del primero que del segundo. Al basarse en la teoría de los procesos oponentes, la nomenclatura NCS considera que hay cuatro matices básicos: amarillo (Y), rojo (R), azul (B), y verde
(G), que son los que se experimentan cuando sólo hay respuesta en uno de
los mecanismos cromáticos. Caso de responder ambos, se da uno de los
330
9. Percepción del color
cuatro matices combinados: amarillo-rojo (Y-R), rojo-azul (R-B), azul-verde (B-G) o verde-amarillo (G-Y). Para indicar la fuerza relativa de cada
uno de los matices experimentados se utiliza una escala numérica que va de
0 a 100 y las puntuaciones más bajas corresponden al predominio del primer matiz básico presente en la denominación (p.ej. Y10R indica que es
más amarillento que rojizo), mientras que las más altas corresponden en el
caso de que se dé la situación inversa (p.ej. Y80R indica que es más rojizo
que amarillento).
5.
Alteraciones en la percepción del color
5.1
Tipos de alteraciones
El capítulo se inició recalcando el carácter perceptivo de las experiencias
de color. Para ello se analizaron, entre otras evidencias, los resultados obtenidos mediante el anomaloscopio de Nagel. Como ya se indicó, lo que
esencialmente se hace, al utilizarlo, es presentar una estimulación de referencia y pedir al evaluado que efectúe una mezcla de dos componentes hasta conseguir que su apariencia fuese, para él, idéntica a la de referencia.
Este tipo de igualación puede extenderse utilizando como referentes cada
una de las longitudes de onda del espectro visible. En tal caso, será de especial interés determinar el número mínimo de colores precisos para igualar
mediante su mezcla los matices experimentados ante los estímulos del espectro. Por los motivos que pronto explicaremos, en las personas de tipo
común, el mínimo necesitado es igual a tres, siendo ésta la causa de que se
les considere tricromáticas.
En el apartado 2.2 se hizo uso de las figuras 3 y 4 para mostrar como
dos estimulaciones físicamente distintas (figuras 3a y 3b) podían producir
el mismo patrón de respuesta en los conos de la retina (fila superior de la
Figura 9.4). La Figura 9.4 también se utilizó para ejemplificar el hecho de
que sólo eran dicriminables aquellas estimulaciones que producían patrones
de respuesta diferentes en los conos retinianos. Por consiguiente, es fácil
entender por qué los observadores comunes son tricromáticos: si en una
mezcla se utiliza un componente que aporta energía en la porción corta del
espectro, un segundo que lo haga en la media, y otro en la larga, se activará,
en grado diferente, cada tipo de cono en función de la proporción de cada
tipo de componente que se utilice y, consiguientemente, se emulará el patrón de activación producido por una determinada estimulación. En términos más concretos, si las cantidades representadas en la Figura 9.3b permiten activar en magnitud elevada y semejante a los tres tipos de cono, una
reducción a la décima parte en la cantidad de energía utilizada de 400 nm
disminuirá el nivel de respuesta en los conos C y, por tanto, producirá un
patrón similar al que, en la Figura 9.4, se identifica como amarillo.
331
Percepción
Suponga ahora que en la retina de una persona faltase uno de los tres tipos de conos. Antes de analizar las consecuencias de esta pérdida, introduzcamos la nomenclatura clínica utilizada para describirla. En esencia, se
trata de emplear como prefijos las palabras griegas que significan primero
(proto), segundo (deuta) y tercero (trita) y como sufijo la expresión anopia,
que significa falta del. Partiendo de ello es lógico denominar protanopia a
la deficiencia derivada de la falta del primer tipo de cono, y deutanopia y
tritanopia a las que tienen que ver con las del segundo y tercero, respectivamente.
¿Cuál es la principal característica de la visión de protanopes, deutanopes y tritanopes? Sin duda, que perciben como idénticas estimulaciones
que los tricromáticos experimentan como claramente diferenciadas o, en
términos más técnicos, que tienen muchos más metámeros que los tricromáticos. Por ejemplo, en la Figura 9.4, para un protanope no habría forma
de discriminar entre los estímulos que allí se identifican como azul y morado porque lo único que permite su diferenciación es la magnitud de la
respuesta que se da en el tipo de cono del que carecen. Se utiliza el término de dicromático para referirse a cualquier persona que carezca de uno de
los tres tipos de conos y, consiguientemente, puede indicarse que lo son
protanopes, deutanopes y tritanopes. El origen de este término radica en
que sólo necesitan dos colores para igualar, mediante su mezcla, el matiz
que experimentan ante cualquier longitud de onda del espectro. Cada uno
de los dos actúa especialmente sobre uno de los dos conos de los que dispone el dicromático.
Analizar las limitaciones derivadas de poseer sólo dos conos permite entender por qué los dicromáticos confunden colores que al observador común le parecen diferentes. Sin embargo, no dice nada en relación a los colores que de hecho experimentan. Para obtener respuestas al respecto debe
ascenderse al nivel de análisis de los mecanismos oponentes (apartado 2.3).
Distintas evidencias psicofísicas (Fletcher y Voke, 1985) han llevado a pensar que, en protanopes y deutanopes, se da una no-funcionalidad en el mecanismo rojo-verde, mientras que en tritanopes se da en el azul-amarillo. El
que tanto en protanopes como en deutanopes carezca de funcionalidad el
mismo mecanismo es la causa de que ambas patologías se incluyan en el
grupo de los daltonismos.
Otras dos patologías que también pertenecen al grupo de daltonismos
son la protanomalía y la deutanomalía. Prota y deutanomalía son alteraciones en la visión del color que tienen que ver con la existencia de alteraciones en los protoconos o los deutoconos. El tipo de alteración más común se
puede entender atendiendo a las funciones representadas en la Figura 9.2.
Como puede verse, las que corresponden a protoconos y deutoconos tienen
un alto grado de superposición y coinciden en muchas longitudes de onda
en cuanto a sensibilidad. Sin embargo, exceptuando el punto en el que las
funciones interseccionan, todas las demás longitudes de onda muestran un
332
9. Percepción del color
nivel de respuesta relativamente mayor ante uno de los dos tipos de conos.
El grado de predominancia relativa es una de las claves que permite distinguir entre distintas estimulaciones. Este tipo de información se encuentra
alterada en protanómalos y deutanómalos. En algunos protanómalos la curva de respuesta de los protoconos se encuentra desplazada hacia la izquierda respecto a la normal. En algunos deutanómalos la curva de los deutaconos está desplazada hacia la derecha. En ambos casos se da una reducción
en la distancia entre curvas y, consiguientemente, un mayor grado de solapamiento entre ellas. La consecuencia más importante es que, aunque estas
personas también requieran un mínimo de tres colores para reproducir mediante su mezcla los matices que experimentan ante las distintas longitudes
de onda, los mezclan en proporciones muy distintas a las de los observadores comunes y por esta razón se les denomina tricromáticos anómalos.
El último grupo de alteraciones del que nos ocuparemos, los monocromatismos, implica una nula capacidad para utilizar la información cromática y, esencialmente, un tipo de visión similar al que tiene un observador común al contemplar una película en blanco y negro. Este tipo de afección
puede tener dos orígenes: 1) que en la retina sólo existe un tipo de cono,
caso en el cual se hablará de monocromatismo monocónico; y 2) que no
exista ninguno, caso en el cual se hablará de monocromatismo por ausencia
de conos.
Si una persona sólo tiene un tipo de cono puede ocurrir que dos longitudes de onda diferentes produzcan exactamente la misma respuesta. El secreto se halla en variar la intensidad de forma que compense las posibles
diferencias existentes en la sensibilidad a cada longitud de onda. Por ejemplo, supongamos que se van a presentar dos longitudes de onda, A y B, y
que ante la primera el tipo de cono del que dispone el monocromático es el
doble de sensible que ante la segunda. Si ambas longitudes de onda se presentan con la misma intensidad, la estimulación A producirá una respuesta
doble que la B, pero si esta última se presenta con el doble de intensidad,
las respuestas ante A y B son idénticas y el observador no puede diferenciarlas.
¿Cómo es posible que exista un segundo tipo de monocromatismo y que
éste reciba la sorprendente denominación de monocromatismo por ausencia de conos? ¿No sería ciega esta persona? La respuesta a esta última pregunta es un contundente no, debido a que en la retina existe un tipo de
fotorreceptor, los bastones, a los que no hemos prestado atención hasta
el momento. Los bastones son los fotorreceptores que, gracias a su gran
sensibilidad, nos permiten ver durante la noche cuando los niveles de iluminación son tan reducidos que reciben la denominación de escotópicos. Durante las horas centrales del día, o cuando disponemos de una buena iluminación artificial y nos encontramos por ello en condiciones fotópicas,
apenas contribuyen a la visión porque su capacidad de respuesta esta desbordada. Si es así, ¿pueden ser de alguna utilidad para las personas que
333
Percepción
sólo disponen de ellos en niveles de iluminación como los del mediodía?
La respuesta es afirmativa, si se tiene la precaución de utilizar algún tipo de
gafas ahumadas para reducir la cantidad de luz que llega a la retina. Sin
embargo, la calidad de la visión así conseguida es muy deficiente, ya que
es similar a la del observador común en condiciones escotópicas. Esto es,
aunque permite esquivar bultos relativamente grandes y localizar objetos de
grandes dimensiones (un armario, un pasillo), no permite que se realicen
tareas que implican el manejo de detalles finos (¡no se puede leer un periódico a la luz de la luna!).
5.2
Incidencia y evaluación de las alteraciones en la percepción
del color
De entre las distintas alteraciones en la percepción del color el grupo de mayor incidencia es el formado por los daltonismos. En nuestro país, más del 5
por ciento de los varones sufren alguna versión de este problema (Lillo et al,
1997). El porcentaje de mujeres afectadas es, al igual que en otros países
(Fletcher y Voke, 1985), de una magnitud muy inferior (menos del 0,5 por
ciento). La causa de esta fuerte diferencia entre sexos estriba en que la mayor parte de los daltonismos son de origen genético, están asociados al cromosoma X y se transmiten con carácter recesivo (Hsia y Graham, 1965).
La situación puede simplificarse de la siguiente manera: denominemos
X al cromosoma de tipo común, y X’ al cromosoma asociado a problemas
en la visión del color de tipo daltónico. En el caso de las mujeres podrían
darse las tres siguientes situaciones: 1) XX, dos cromosomas comunes, la
mujer es de tipo común porque ni sufre ni transmite el daltonismo a su descendencia; 2) X’X, un cromosoma común y otro con problemas: la mujer
es portadora, y aunque no experimenta problemas en la visión del color, sí
los puede sufrir su descendencia; y 3) X’X’, dos cromosomas con problemas: la mujer es daltónica y transmite la patología a su descendencia. En el
caso de los varones podrían darse las dos siguientes situaciones: 1) XY, un
cromosoma X del tipo común, la visión del color es normal; y 2) X’Y, un
cromosoma X’ del tipo asociado con problemas en la visión del color, el
hombre es daltónico.
Aunque se base en principios descubiertos a finales del siglo pasado por
Rayleigh, y no se haya modificado esencialmente desde que lo diseñara Nagel a principios de este siglo, el anomaloscopio que lleva el nombre de este
investigador sigue siendo considerado como «la reina indiscutible de todos
los instrumentos de evaluación del color y el único dispositivo de uso común
(a pesar de su alto precio) capaz de discriminar en forma fiable entre dicromáticos y tricromáticos anómalos» (Kaiser y Boynton, 1996, p. 429).
A pesar de que tengan menos precisión que los anomaloscopios tipo Nagel, los tests de láminas pseudoisocromáticas son mucho más utilizadas en
334
9. Percepción del color
A
Figura 9.12
B
C
D
Apariencia general de una lámina de la primera parte del test TIDA.
la detección de los daltonismos debido a que, además de ser mucho más
económicos, permiten combinar una alta sensibilidad en la detección con la
posibilidad de utilizarse de forma rápida. Estas pruebas utilizan láminas
pseudoisocromáticas, es decir, incorporan elementos que son percibidos
con colores semejantes (isocromáticos) para los daltónicos pero no para el
observador común. Por ello se aplica el prefijo de pseudo para referirse,
por ejemplo, a las superficies impresas en tintas verdosas y rojizas que pueden parecerle semejantes a un daltónico, pero no a una persona con visión
normal.
En fecha reciente (Lillo, 1996) se ha desarrollado en nuestro país un
nuevo test de láminas pseudoisocromáticas, el TIDA (Test de Identificación
de Daltonismos), con la finalidad explícita de ser aplicable, además de a
sujetos adultos, a niños en edad escolar. La Figura 9.12 muestra el esquema
gráfico general del que derivan todas las láminas de su primera parte.
Como puede observarse, en ella aparecen dos conjuntos de monos cuyo interior puede imprimirse con distintos colores. En esencia, se debe indicar
cuáles de los monos situados en la fila inferior son parecidos a los de la superior. Más concretamente, puesto que éstos son siempre grises, debe indicarse de entre los inferiores aquellos que también se perciben como carentes de color, deduciéndose la existencia de un daltonismo cuando el
observador selecciona, junto a los genuinamente grises, alguno de los que
normalmente se ven como coloreados.
335
Percepción
Bibliografía comentada
En castellano existen dos manuales sobre la percepción, de fácil comprensión, que
incorporan capítulos relacionados con la percepción del color. Estos son:
Goldstein, E. B. (1988): Sensation and Perception, Madrid, Debate. Permite ampliar lo aquí presentado respecto a las bases psicofísicas de la fase de codificación oponente, aunque, al ser traducción de un texto publicado en inglés en
1984, está algo desactualizado.
Lillo, J. (1993): Psicología de la Percepción, Madrid, Debate. Presenta una buena
descripción de la relación existente entre la mezcla aditiva de colores y el origen
de los espacios CIE. Su lectura también es conveniente para los interesados en
los mecanismos relacionados con la constancia de color.
En fecha reciente se ha publicado un nuevo manual general:
Montserrat, J. (1998): La Percepción visual, Madrid, Biblioteca Nueva. Resulta interesante la descripción efectuada sobre los aspectos fisiológicos relacionados
con la percepción del color.
A este respecto puede consultarse también:
Zeki, Z. (1995): Una Visión del Cerebro, Barcelona, Ariel.
En inglés, el texto introductorio clásico sobre el color es:
Hurvich, L.M. (1981): Color Vision, Sunderland. MA. Sinauer Assoc.
Mucho más completo, pero también mucho más difícil de leer es:
Kaiser, P. K; & Boynton, R. M. (1996): Human Color Vision (Second Edition),
Washington, Optical Society of America. Sin duda, una magnifica visión global
y actualizada de la percepción del color realizada por dos de sus principales investigadores.
336
9. Percepción del color
Preguntas de revisión
1. ¿Qué relación existe entre la presencia de desequilibrios energéticos y
la percepción del color? ¿Qué tipos de desequilibrios se detectan en las
fases tricromática y oponente?
2. ¿Por qué se puede discriminar entre más colores de los que se puede
categorizar?
3. ¿Por qué se considera que un monitor de televisión es un ejemplo de
mezcla aditiva de colores? ¿Qué se puede decir respecto a los colores
obtenidos mezclando el trazo de distintos lápices?
4. ¿Qué caracteriza a los valores tricromáticos de las estimulaciones acromáticas? ¿Qué sucede con las proporciones o coordenadas cromáticas
de estas últimas?
5. ¿Cuál es la diferencia entre la pureza y la saturación de un color?
6. ¿Cuál es la relevancia teórica de los efectos de Abney y Bezold-Bruke?
7. ¿En qué se diferencian dicromatismos y tricromatismos anómalos? ¿Las
personas con estos problemas tienen una visión en blanco y negro?
¿Afectan estos problemas en grado semejante a hombres y mujeres?
8. ¿Cuál sería la apariencia de un color identificado en el atlas de colores
AENOR Como S-7020 R90B?
337
10.
Organización perceptual
y reconocimiento visual
del objeto
Antonio Crespo León
Este capítulo tiene por objeto presentar al lector las principales aportaciones realizadas en dos áreas de trabajo diferentes dentro del estudio de la
percepción: la organización perceptual y el reconocimiento de los objetos
a través de la modalidad visual.
La primera parte del capítulo se dedica a la organización perceptual.
Los investigadores de este campo pretenden descubrir los factores responsables de que los elementos sensoriales se organicen en totalidades coherentes ante nuestra experiencia. Partiendo de las propuestas de la psicología de la Gestalt, y tras una contraposición entre sistemas lineales de
organización y sistemas no-lineales, se revisan fenómenos relevantes como
son la articulación figura-fondo, el agrupamiento perceptual y el principio
mínimo de pregnancia, desarrollado, ampliado y estudiado mucho más
científica y cuantitativamente desde los modelos más recientes de bondad
del patrón. Se finaliza este apartado discutiendo algunas cuestiones interesantes y críticas sobre el valor heurístico de los principios de organización,
la importancia de las partes en la determinación de los todos, y la explicación de los fenómenos de organización mediante el principio de la probabilidad como alternativa al de pregnancia.
La segunda parte del capítulo se dedica al reconocimiento visual de objetos. Se presenta un modelo general de reconocimiento que se va desarrollando en una serie de modelos más específicos seleccionados entre los
más relevantes con el propósito de que el lector capte lo que han sido las
principales aportaciones y teorías en esta área de investigación. Se anali-
339
Percepción
zan los rasgos distintivos de los modelos de plantillas y características, los
modelos de ejes, el reconocimiento por componentes (RBC), los modelos
de alineamiento pictórico, y se finaliza mostrando el funcionamiento de los
modelos conexionistas de reconocimiento visual por procesamiento distribuido en paralelo.
1.
Introducción
Durante el continuo proceso de adaptación al medio los organismos hemos
desarrollado mecanismos psicológicos con objeto de disponer orden ante la
diversidad estimular propia del nicho ecológico en el que nos desenvolvemos. La apariencia fenoménica del medio no se reduce a una simple colección de elementos, partes, colores o texturas yuxtapuestas que se disponen
de forma caótica, sino que por el contrario la percepción tiende hacia la organización y la coherencia, permitiendo la ejecución de respuestas ante las
demandas ambientales. Miro por la ventana y observo una carretera que
atraviesa un campo, que la carretera es transitada por varios vehículos, que
en los bordes de su arcén existen carteles indicadores, que junto a la carretera se sitúan varios edificios de diverso aspecto, a su derecha e izquierda
percibo vegetación, árboles y pájaros de diferentes especies, en el horizonte
un avión que se dirige a no sé qué destino, etc. La percepción no es caótica,
nuestra experiencia perceptual no está constituida por una sinfín de elementos sensoriales aislados (bordes, líneas, superficies, partes, etc.) sino por totalidades organizadas discernibles entre sí: percibo el teléfono de mi despacho y lo distingo de la mesa que a su vez es una totalidad diferente de la
lámpara de mi escritorio. Pero además, estas totalidades organizadas no son
entes estáticos. Los objetos del medio sufren transformaciones en el espacio: el teléfono de mi despacho lo puedo disponer más lejano o cercano,
puedo moverlo a través de diferentes orientaciones en el espacio, puede incidir la luz sobre su superficie ocasionando distintos matices de color, etc.,
las posibilidades son innumerables. Cualquier transformación del objeto en
el espacio y/o cualquier movimiento del observador genera una proyección
diferente en la retina y, sin embargo, tengo una habilidad casi instantánea
en reconocerlo visualmente: no sólo lo distingo de otros objetos significativos del medio, sino que este objeto que genera diferentes proyecciones retinianas es percibido fenoménicamente con una identidad constante. Reflexione el lector por un momento lo caótico que resultaría el mundo si cada
vez que un objeto modificase su proyección retiniana se percibiera algo diferente: ¡la adaptación hubiera sido imposible!
Las relaciones entre organización perceptual y reconocimiento visual
son estrechas, podríamos afirmar que lo último no es posible sin lo primero, ¿cómo reconocer tal o cual objeto si previamente no existe una organización en una totalidad funcional y discernible? Además, ambos fenóme-
340
10. Organización perceptual y reconocimiento visual del objeto
nos se erigen en el centro de la psicología de la percepción como áreas de
investigación de gran trascendencia pero ante las que, lamentablemente y a
pesar de que las propuestas teóricas han proliferado con el tiempo, no existe hoy por hoy una explicación satisfactoria, sino más bien diversidad de
modelos teóricos que ofrecen soluciones parciales y, en numerosas ocasiones, ad hoc.
El propósito de este capítulo es presentar al lector las principales cuestiones científicas relacionadas con los mecanismos de organización perceptual y de reconocimiento visual de los objetos. Para conseguir estos objetivos vamos a dividir el resto del capítulo en dos apartados dedicados a cada
uno de estos mecanismos, respectivamente. Científicamente, la cuestión
central en el estudio de la organización perceptual no es sino descubrir los
factores responsables de que las sensaciones o elementos aparezcan como
totalidades unitarias y coherentes ante nuestra experiencia. Por su parte, el
planteamiento básico para los estudiosos de reconocimiento visual consiste
en dilucidar los mecanismos por los que los objetos del medio se discriminan entre sí y conservan una identidad fenoménica a pesar de las diferentes
transformaciones a las que son sometidos en el espacio.
2.
Organización perceptual
Los psicólogos interesados en el estudio científico de la organización perceptual pretenden descubrir los factores responsables de la interacción entre elementos discretos (partes, líneas, superficies, etc.) para constituir unidades perceptuales significativas que se muestran ante nuestra experiencia
como un todo. Dicho de otra forma, estudiando la organización perceptual
pretendemos averiguar cómo nuestras sensaciones se configuran en totalidades funcionales. Una habitual y sencilla demostración útil para ilustrar el
tema y apreciar cómo la experiencia perceptual supera o va más allá de las
simples propiedades de los elementos constituyentes se observa en la Figura 10.1. Los cuatro estímulos aparecen ante el observador como triángulos,
a pesar de que los elementos o partes que los generan son diferentes: una línea continua en a, una sucesión de puntos en b, textura interna a modo de
línea oblicua en c, y en d se percibe un triángulo que emerge del fondo sin
que existan límites definidos siguiendo un contorno real y físico (figura
anómala de Kanizsa).
Estos ejemplos, como otros que vamos a ir viendo, demuestran que el
estudio de la organización perceptual no puede reducirse a un simple análisis de la recepción del estímulo proximal (energías que afectan a nuestros
receptores sensoriales), sino más bien indican que en una determinada fase
de procesamiento entran en funcionamiento ciertos mecanismos que coadyuvan a generar la experiencia fenoménica unitaria del sujeto. Estudiar tales mecanismos es labor del psicólogo y así se ha venido haciendo desde la
341
Percepción
aa
bb
cc
dd
Figura 10.1 En los cuatro estímulos la organización percibida corresponde a un triángulo, a pesar de la diversidad de los elementos constituyentes.
época de la Gestalt, que sin lugar a dudas ha constituido la escuela psicológica que más empeño puso en este propósito.
2.1
Sistemas lineales versus sistemas no-lineales en el estudio
de la organización perceptual
A inicios del presente siglo, la Gestalt surgió como una reacción de protesta frente al estructuralismo elementalista que venía marcando la manera de
hacer psicología desde el último tercio del siglo anterior. Los estructuralistas adoptaron una posición analítica fundamentada en el método introspectivo, cuya forma de proceder era la de forzar a sujetos altamente entrenados
a describir los estímulos perceptuales en sus elementos sensoriales constituyentes: por ejemplo, los sujetos podían describir el triángulo de la Figura
10.1b como una secuencia horizontal, y dos secuencias inclinadas (hacia
derecha e izquierda) de puntos negros que se conectan en sus extremos. La
idea subyacente de este método analítico debe localizarse en supuestos empiristas desde los que se considera que toda nuestra experiencia se va adquiriendo a lo largo de la vida en forma de sensaciones elementales que
quedan vinculadas entre sí mediante mecanismos asociativos. Frente a este
introspeccionismo analítico, la Gestalt recurre a la demostración fenoménica, presentando al sujeto estímulos con varias posibilidades de organización, debiendo éste indicar la que percibe:
[] [] [] [] []
Por ejemplo, un sujeto puede describir la figura anterior como una organización constituida por diez corchetes individuales abiertos a derecha e izquierda alternativamente, aunque casi con toda seguridad la organización
percibida con mayor probabilidad corresponderá a una secuencia de cinco
cuadriláteros [ ]. Con demostraciones de este tipo la Gestalt llamó la atención por primera vez sobre las totalidades fenoménicas. Si los estructuralistas forzaban el análisis hasta las sensaciones elementales, para los gestaltis-
342
10. Organización perceptual y reconocimiento visual del objeto
tas esta manera de proceder era equivocada, pues la naturaleza o forma del
elemento constituyente no parece ser tan decisiva para configurar un todo
organizado, tal como hemos demostrado con los triángulos de la Figura
10.1. El análisis debe llegar solamente hasta el percepto que aparece ante la
experiencia fenoménica, y el percepto no es sino una totalidad organizada,
diferente e irreductible a las partes componentes.
Consecuencia de este proceder metodológico es que el estructuralismo y
la Gestalt se corresponden respectivamente con visiones lineales y no-lineales en el estudio de la organización perceptual: aquí la linealidad hace referencia a las posibles propiedades resultantes del todo organizado con respecto a las partes. Los estructuralistas defienden un sistema perceptual
lineal donde la percepción del todo es un simple agregado de las partes
constituyentes; alternativamente los gestaltistas sientan las bases de los sistemas perceptuales no-lineales, en donde la organización del todo no es reducible a las partes componentes (el todo es diferente a la suma de las partes).
La Gestalt supuso el punto de arranque genuino en el estudio de los fenómenos de organización perceptual y desde entonces han sido numerosos
los trabajos realizados al respecto, parcelándose este estudio en diversas
áreas que han acaparado el interés de los investigadores. En lo que sigue
vamos a presentar una serie de interesantes fenómenos que son la esencia
de los mecanismos de organización perceptual: la segregación figura-fondo, el agrupamiento perceptual y la pregnancia.
2.2
La articulación figura-fondo
Afortunadamente para el ser humano la ambigüedad perceptual no es lo habitual en el medio ecológico en que se desenvuelve. Imagine por un momento el lector que cada vez que mirase a su alrededor observara, en los estímulos del medio, una ambigüedad análoga a la que muestran las figuras
reversibles de la Figura 10.2. Se denominan figuras reversibles porque el
mismo estímulo puede generar diversas organizaciones perceptuales. La figura de la izquierda fue utilizada por un psicólogo danés, cercano a la Gestalt, llamado Edgar Rubin: es la figura de los rostros y la copa, y según se
persiste en su observación se pueden percibir dos caras una frente a otra, o
la silueta de una copa (probablemente al inicio solamente se perciba una de
ellas hasta que se descubre la alternativa). Algo similar sucede en la figura
de la derecha, popularizada en psicología por Boring, y que corresponde al
grabado de la joven y la vieja: según se persiste en la observación se puede
percibir uno u otro rostro. Lo sorprendente de las figuras reversibles es que
las energías que estimulan nuestros órganos sensoriales permanecen constantes aunque nuestra percepción es multiestable, es decir, percibimos alternativamente organizaciones diferentes aunque solamente una de ellas va a
343
Percepción
ser prevaleciente en un momento determinado, y ello es así porque la organización percibida se constituye en figura que destaca sobre un fondo. Los
fenómenos de multiestabilidad descritos, para tranquilidad del ser humano,
no son los que prevalecen en la vida cotidiana. Sin embargo, esta circunstancia habitual no invalida el supuesto básico referido a que nuestra percepción se articula en la dualidad figura-fondo, pues cuando prestamos atención a algún objeto de nuestro medio realmente lo que hacemos es percibir
una figura sobre un fondo indeterminado constituido por otros objetos, hecho ya advertido originalmente por los psicólogos de la Gestalt, quienes
consideraron esta articulación como el aspecto más elemental de la organización perceptual (Koffka, 1935; Rubin, 1921). En los trabajos de investigación se recurre habitualmente a la presentación de figuras reversibles con
objeto de estudiar los aspectos más interesantes relacionados con la articulación figura-fondo, lo que ha aportado interesantes conocimientos sobre
las cualidades que definen las dos partes del tándem y los principios que
determinarán si, en igualdad de condiciones, una superficie tenderá a ser
percibida como figura o como fondo.
Figura 10.2 Figuras reversibles. A la izquierda, los rostros y la copa de Edgar Rubin; a la derecha, la imagen de la joven y la vieja popularizada por Boring.
En primer lugar, existen unas propiedades cualitativas que distinguen la
figura del fondo. Se asume que la figura es mucho más densa que el fondo,
que tiene un contorno que define una forma con aspecto de solidez, que
puede vincularse a contenidos significativos, que tiende a atraer la atención
en mayor medida que el fondo, el cual tiende a percibirse tras ella como
una superficie que se extiende sin interrupción, sin forma aparente y sin
posibilidad de conexión con significados. En segundo lugar, y de manera
complementaria a estas propiedades cualitativas, desde la Gestalt (muy especialmente a partir de los trabajos de Rubin) se han analizado y determi-
344
10. Organización perceptual y reconocimiento visual del objeto
nado las condiciones que permiten prever si una determinada forma será
percibida como figura o desempeñará el papel de fondo difuso. Estas condiciones son: la simetría, las áreas envueltas, el contraste, la orientación, la
convexidad, y el tamaño relativo (véase Figura 10.3).
Por influencia de la simetría, y a igualdad de condiciones, las formas simétricas se erigirán como Figura frente a las no-simétricas que actuarán
como fondo, motivo por el que tendemos a percibir las columnas negras sobre las blancas en la Figura 10.3a. El principio de áreas envueltas establece
que, en igualdad de condiciones, las áreas envueltas tienden a percibirse
como figuras frente a las áreas envolventes que actúan como fondo; además, por efecto del contraste también se percibirá como figura aquella superficie que más contraste con el entorno. Tanto por un motivo como por
otro, en la Figura 10.3b se tiende a percibir una mancha blanca sobre un
fondo negro y no un rectángulo negro con una abertura irregular en el centro que permite ver un fondo blanco. La orientación también es una condición determinante, pues las direcciones verticales y horizontales tienden a
percibirse como figura frente a otras direcciones alternativas: en la Figura
10.3c se tiende a percibir la cruz frente al aspa. Además, las formas convexas se segregarán más probablemente como figuras que las formas cóncavas, de ahí que en la Figura 10.3d se perciban con mayor probabilidad las
formas blancas (convexas) y no las formas negras (cóncavas). Finalmente,
conforme al principio del tamaño relativo, las áreas de menor tamaño tenderán a percibirse como figura frente a las de mayor tamaño que serán percibidas como fondo, por lo que tendemos a percibir en la Figura 10.3e unas
finas aspas negras sobre un fondo blanco, y no la enorme cruz blanca correspondiente a la organización perceptual alternativa.
En realidad el ser humano, salvo en condiciones de laboratorio, no tiende a percibir estímulos aislados como los descritos sino conjuntos de objetos con cierto grado de significación que se muestran a mayor o menor distancia y que se articulan sobre un fondo constituido por otros objetos o
superficies presentes en el medio. Los principios expuestos que prevén la
segregación figura-fondo no son sino indicativos de que en numerosas ocasiones el sistema visual tiene problemas para organizar la escena en partes
significativas, por lo que es necesario acudir a reglas o condiciones que decidirán cómo se efectuará el proceso de segregación. Consecuencia de todo
ello es que el sistema visual resulta en numerosas ocasiones engañado al
percibir una configuración diferente a la que debiera percibir, algo que queda especialmente puesto de manifiesto en los fenómenos de camuflaje. La
esencia del camuflaje no es sino desarticular o eliminar una determinada
segregación figura-fondo, consiguiendo una nueva organización perceptual
en la que la figura objeto de la detección debe pasar inadvertida. La naturaleza ofrece extraordinarios ejemplos conocidos por todos: multitud de especies animales (camaleones o serpientes) modifican o adaptan el color de su
piel hasta igualarlo a las características del medio para no destacar en el ni-
345
Percepción
a
b
b
a
dd
cc
e
e
ff
Figura 10.3
Ejemplos demostrativos de los principios de articulación figura-fondo.
cho ecológico y salvaguardarse frente a depredadores o no ser descubiertos
por sus presas. En la Figura 10.3f mostramos un ejemplo simplificado de
cómo una determinada organización perceptual se impone a otra diferente
(que es la que interesa camuflar): la mayor parte de observadores perciben
una serie de formas geométricas negras sobre un fondo blanco, siendo muchos de ellos incapaces de percibir perfectamente camuflada una organización alternativa constituida por una palabra oculta. Formas análogas de
comportamiento perceptual subyacen en los mecanismos de camuflaje militar ampliamente estudiados.
346
10. Organización perceptual y reconocimiento visual del objeto
2.3
El agrupamiento perceptual
Un segundo frente de trabajo en el estudio de la organización perceptual,
estrechamente ligado al anterior, es el referido al agrupamiento. En el año
1923, el que es considerado fundador de la Gestalt, Max Wertheimer, se interrogó acerca de las propiedades del estímulo que ocasionaban una concreta organización perceptual. Aunque originalmente Wertheimer formuló cinco principios de agrupamiento perceptual (proximidad, semejanza, destino
común, buena continuación y cierre), con posterioridad otros autores (especialmente Köhler, Koffka y Rubin) ampliaron la lista hasta más de un centenar (Helson enumera 114 proposiciones), que se conocen como leyes de
la Gestalt o principios de la organización perceptual. No obstante, el vocablo leyes debe manejarse con suma cautela, pues no se corresponde a lo que
en ciencia se describe como ley, más que leyes son simples reglas cuyo objetivo es predecir la organización perceptual que prevalecerá con mayor
probabilidad. Seguidamente vamos a presentar los principios de agrupamiento clásicos de Wertheimer a los que añadiremos los principios de región común y conectividad uniforme que recientemente han sido propuestos por Palmer (1992) y por Palmer y Rock (1994) respectivamente.
Conforme al principio de proximidad, y manteniendo el resto de condiciones iguales, se observa que los elementos más cercanos entre sí tienden a
formar un agrupamiento, de tal forma que el observador percibe cuatro configuraciones de dos puntos cada una y no una secuencia de ocho puntos:
•• •• •• ••
El mismo efecto de agrupamiento por parejas es posible generarlo mediante la semejanza, pues manteniendo todas las condiciones constantes,
los elementos más similares tienden a agruparse juntos, de ahí que se perciban parejas de puntos negras y blancas:
••
O O
••
O O
Un tercer factor es el de destino común: a igualdad de condiciones los
elementos que se desplazan en la misma dirección y a la misma velocidad
tenderán al agrupamiento. Algunos investigadores (Palmer, 1992) consideran que el destino común es un principio de semejanza en donde la propiedad de igualdad que determina el agrupamiento viene dada por el movimiento. En la figura inferior, si desplazamos hacia arriba o hacia abajo al
mismo tiempo, según la dirección que indican los apuntamientos, y a la
misma velocidad, observaremos cuatro configuraciones de dos triángulos
cada una, dos moviéndose hacia arriba y las otras dos hacia abajo.
▲▲▼▼▲▲▼▼
347
Percepción
El cuarto principio es el de buena continuación: los segmentos o líneas
entre las que exista una transición suave tenderán a agruparse y percibirse
como una totalidad, de ahí que percibamos dos líneas que se cruzan, y no
dos formas en V rotadas 90º que se encuentran en su vértice.
Finalmente, el último principio propuesto por Wertheimer es el de
cierre: tenderán a agruparse juntos los elementos que constituyan áreas
cerradas. Cubriendo lateralmente la figura anterior, ahora se perciben dos
triángulos isósceles rotados que se tocan en su vértice:
Recientemente Palmer y Rock han añadido dos nuevos principios de
agrupamiento perceptual: región común y conectividad uniforme. La región común establece que, a igualdad de condiciones, los elementos que se
localizan dentro de una misma zona perceptualmente definida tenderán a
percibirse agrupados, de ahí que percibamos agrupaciones de parejas de
puntos porque son coplanares en un mismo espacio definido por los rectángulos:
O
O
O
O
O
O
O
O
De forma alternativa el principio de conectividad mantiene que regiones
conectadas con propiedades visuales uniformes (tales como brillo, líneas,
colores, texturas, movimiento, etc.) tienden a agruparse como una unidad.
A pesar de que la distancia entre los puntos es idéntica, la organización percibida en la figura corresponde a parejas de puntos que se encuentran enlazados entre sí mediante una línea.
348
10. Organización perceptual y reconocimiento visual del objeto
2.4
Desde la pregnancia hasta los modelos de bondad del patrón
Por encima de todos los principios de articulación figura-fondo y de agrupamiento existe un principio superior admitido por los psicólogos de la
Gestalt que actúa como denominador común de los demás. Es el principio
de la pregnancia y se resume de la siguiente manera: de todas las organizaciones posibles que disponga un estímulo se tenderá a percibir la más simple, la que minimice la complejidad del estímulo, por ello este principio
también se denomina principio de simplicidad o principio mínimo. El principio de pregnancia es responsable de que todos los ejemplos y figuras que
hemos presentado al lector hasta ahora se perciban como hemos descrito
porque son las organizaciones más económicas y simples. Koffka (1935, p.
110) describe este principio de la siguiente manera: «la organización psicológica será siempre tan buena como las condiciones psicológicas lo permitan. En esta definición el término bueno es indefinido... Se refiere a propiedades como la regularidad, la simetría, la simplicidad y otras...» Este
principio mantiene una estrecha relación con la visión dinamicista de la organización perceptual defendida por los psicólogos de la Gestalt, quienes
admitieron en su momento un modelo cerebral fundamentado en la teoría
de campos eléctricos de la física. Tal visión dinamicista suele describirse
mediante la denominada metáfora de la pompa de jabón: una burbuja es
una superficie esférica perfecta, pero cualquier presión aplicada en un determinado punto ocasiona distorsiones en la forma. De modo similar se
consideraba que el cerebro es un conductor eléctrico que ante la presentación de un estímulo generaba campos eléctricos cuya distribución o configuración era topológicamente análoga a la organización percibida. Esta
doctrina se denomina isomorfismo y desde ella se mantiene que un determinado orden en el espacio psicológico se corresponde con un orden el espacio fisiológico cerebral.
Aunque hoy en día la doctrina del isomorfismo ha sido refutada, pues se
ha demostrado que el cerebro no actúa tal como se creía, en su momento
fue la idea sobre la que se sostenía el principio de la pregnancia. De acuerdo con este punto de vista el cerebro se organizaba tendiendo hacia la forma más simple, al igual que una pompa de jabón adopta una forma esférica
por su sencillez. La pregnancia es la responsable de que percibamos la mejor de las figuras. La pregunta lógica a esta afirmación no es sino interrogarse acerca de los factores que son responsables de la buena figura o de la
buena forma, y ya vimos en la definición de Koffka que éste recurre a una
serie de descriptores vagos e imprecisos como la simplicidad, la sencillez o
la regularidad. Por ello, el principio de la pregnancia, como cualquier otro
de los principios de la organización, es un simple heurístico cualitativo a
partir del cual resulta complicado decidir la forma más simple, la mejor de
las formas; de ahí que, en época posterior a la Gestalt, se hayan realizado
estudios experimentales que, desvinculándose de las observaciones descrip-
349
Percepción
tivas y fenoménicas, aporten índices cuantitativos con objeto de definir de
una manera operativa el concepto de buena figura, o más rigurosamente el
de bondad del patrón. En lo que sigue analizaremos el modelo informacional y dos modelos transformacionales en el estudio de la bondad de patrones estimulares: el de los grupos R&R y el de los grupos de simetría.
2.4.1 El modelo informacional de Hochberg y McAlister: cuantificación
del estímulo
Hochberg y McAlister realizaron en 1953 uno de los primeros intentos de
cuantificar la bondad de una figura. Consideraron que el concepto de bondad debe ser entendido como un concepto informacional que puede cuantificarse recurriendo al recuento de líneas, ángulos e intersecciones; de ahí
que, en figuras multiestables, sea posible predecir qué tipo de organización prevalecerá en función de la cantidad de información que defina una
organización concreta. El principio informacional propuesto por estos investigadores es el siguiente: cuanto menos cantidad de información sea
necesaria para definir una determinada organización perceptual, más
probable es que sea percibida frente a otras organizaciones alternativas.
Por ejemplo, en la Figura 10.4 se muestra al lector dos ejemplos de los llamados cubos de Kopfermann. Estas figuras son multiestables porque pueden percibirse como un cubo tridimensional o como un hexágono bidimensional. Según el principio de pregnancia propuesto por la Gestalt, la
figura de la izquierda se tiende a percibir como un cubo porque esta organización es mucho más simple y regular que la organización alternativa en
la que se percibiría como un hexágono plano. Algo similar sucede con la
figura de la derecha que tiende a percibirse como un hexágono por ser ésta
la forma más regular.
Cuantificación informativa en dos
dimensiones
Líneas:
Ángulos:
Intersecciones:
16
26
10
12
18
7
Figura 10.4 La cantidad de información necesaria para definir la bidimensionalidad es menor
para la figura de la derecha que para la de la izquierda.
350
10. Organización perceptual y reconocimiento visual del objeto
Siguiendo la propuesta de Hochberg y McAlister, la probabilidad de percibir las figuras anteriores como hexágonos bidimensionales es mayor en la
de la derecha que en la de la izquierda, pues se precisa mucha menos información para definir la bidimensionalidad en esta última que en la figura alternativa (medida por recuento de líneas, ángulos e intersecciones), lo que
vendría a coincidir con las observaciones expuestas relacionadas con el
grado de pregnancia en dos y tres dimensiones: la figura de la izquierda se
percibe como un cubo y la de la derecha como un hexágono porque son las
organizaciones más simples informativamente.
2.4.2 El modelo transformacional de W. R. Garner: redundancia
informativa y tamaño de los conjuntos R&R.
De los trabajos de Hochberg y McAlister parece deducirse que los buenos
patrones son informativamente simples y, dentro de la teoría de la información, la simplicidad informativa se obtiene mediante la redundancia. En comunicación, la redundancia se refiere a un exceso de información que permite, a pesar de los posibles deterioros debidos al ruido, reproducir la señal
completa. En psicología de la percepción, la redundancia es un exceso informativo de tal forma que el todo es predecible desde cualquiera de las
partes. Por ello se asume que los buenos patrones deben ser patrones redundantes.
Garner (1970) también entiende la bondad del patrón en términos de redundancia informativa, aunque ahora operativamente la redundancia se define como el conjunto estimular que se genera al aplicar un total de ocho
transformaciones: cuatro rotaciones en pasos de 90º (0º*, 90º, 180º y 270º)
y cuatro reflexiones de espejo a lo largo de un plano (vertical, horizontal,
diagonal izquierdo y diagonal derecho). Debido a la naturaleza de este tipo
de transformaciones, al conjunto estimular generado se le denomina conjunto R&R (rotaciones y reflexiones). Tal como se muestra en la Figura
10.5 cualquiera de estas transformaciones aplicadas al estímulo A genera
siempre el mismo patrón, de ahí que el tamaño del conjunto R&R sea igual
a 1. Aplicar las ocho transformaciones en las figuras B, C y D genera un
conjunto estimular de cuatro perceptos diferentes, por lo que se dice que el
tamaño del conjunto R&R es de 4. En la figura E, las transformaciones
ocasionan cada una de ellas un percepto distinto por lo que el tamaño del
conjunto R&R es ahora de 8.
El modelo de Garner entiende la redundancia como equivalencia o duplicidad de un patrón cuando es transformado, y desde él se afirma que el
tamaño de los conjuntos R&R no es sino un reflejo de la redundancia inforLa rotación de 0º, es decir dejar la figura intacta, se conoce también como operación
de «identidad» (I).
*
351
Percepción
Rotaciones
0º(I)
90º
V: Reflexión vertical
H: Reflexión horizontal
180º
Reflexiones
270º
V
H
Iz
Tamaño
conjunto
Dch
R&R
Grupo de simetría
1
I 90º 180º 270º
V H Iz Dch
4
IV
4
I Iz
4
I 180º
8
1
Iz: Reflexión diagonal izquierda
Dch: Reflexión diagonal derecha
Figura 10.5 Conjunto estimular (A, B, C, D, y E) cuya bondad se define por el tamaño del conjunto de R&R o por el orden del grupo de simetría.
mativa de un determinado patrón estimular. Efectivamente, se observa que
cuanto menor es el tamaño del conjunto estimular R&R mayor es el grado
de redundancia. Si, como se señaló anteriormente, la redundancia se relaciona directamente con la bondad del patrón, podemos concluir que los
buenos patrones tienen pocas alternativas porque son muy redundantes.
El modelo de Garner es importante por dos razones. Primero, porque es
una teoría pionera que aborda el estudio de la bondad del patrón desde una
perspectiva transformacional. Segundo, frente al modelo informacional de
Hochberg y McAlister, ahora, para determinar el grado de bondad de una
figura no se precisa analizarla en partes o elementos (intersecciones, ángulos o segmentos), sino que el índice cuantitativo que define el grado de
bondad se reduce a un conjunto R&R, generado por una serie de operaciones transformacionales que se ejecutan sobre la totalidad del estímulo, consiguiendo una aproximación más holista al estudio de la buena forma.
2.4.3 El modelo transformacional de S. E. Palmer: grupos de simetría
El modelo de Palmer (1991) constituye una de las aportaciones más recientes al análisis de la bondad del patrón. Este análisis se realiza en términos
de grupos de simetría. Frente a la simetría refleja o imagen en espejo, ahora
352
10. Organización perceptual y reconocimiento visual del objeto
la simetría debe entenderse desde el punto de vista matemático de la invarianza transformacional. Matemáticamente, el concepto de simetría es
equivalente al de invarianza; diremos por tanto que una figura es simétrica
con respecto a una transformación si una vez aplicada ésta la figura es perceptualmente indiscernible de su configuración inicial. Por ejemplo, la letra
Z no dispone de simetría refleja (imagen de espejo), pero si la rotamos en
el plano 180º volv7emos a obtener la misma forma. Se dice, por tanto, que
una transformación constituye una operación de simetría cuando una vez
aplicada dicha transformación el estímulo permanece indiscernible de su
configuración inicial.
Es fácil apreciar que el conjunto de rotaciones (0º, 90º, 180º y 270º) y
reflexiones (V, H, Iz, D) de las que hablábamos anteriormente en la Figura
10.5 pueden constituir operaciones de simetría. Ello será cierto siempre
que, al aplicarse sobre el estímulo, la nueva apariencia sea idéntica a la
configuración inicial. Por ejemplo, el estímulo A dispone de las operaciones I, 90º, 180º, 270º, V, H, Iz, y D, porque aplicando cualquiera de ellas el
estímulo en forma de cruz siempre permanece inalterable. En el estímulo B
sólo son operaciones de simetría la identidad (I) y la reflexión en un plano
vertical (V), pues son las dos únicas operaciones que una vez aplicadas dejan la figura idéntica a su configuración inicial (en forma de T). En C las
operaciones de identidad y reflexión en el plano diagonal izquierdo son las
dos aplicables, y así sucesivamente con el resto de las figuras. Pues bien, al
conjunto de operaciones de simetría que es factible aplicar a un patrón determinado se denomina grupo de simetría, y dicho grupo se define por su
orden. El orden no es sino la cantidad de operaciones de simetría incluidas
en el grupo: por ejemplo, el orden del grupo de simetría de la figura A es
de 8, pues ocho son las transformaciones que una vez aplicadas dejan la figura idéntica a la original; en este mismo sentido, en las figuras B, C y D el
orden del grupo es de 2; y en la figura E el orden es de 1.
Para nuestros propósitos es importante observar cómo el grupo de simetría va a ser determinante en el análisis de la bondad del patrón: si el lector
observa las figuras del gráfico encontrará una relación directa entre el orden del grupo y la bondad del patrón. Así se observa que los mejores patrones, o los buenos patrones, como el de la figura A, presentan grupos de simetría de mayor orden, y los malos patrones, como el de la figura E,
obtienen un orden mínimo. En conclusión, desde el modelo de Palmer se
propone que el buen patrón es aquel que, a pesar de las múltiples transformaciones a las que puede ser sometido, siempre presenta la misma organización perceptual. Por consiguiente, el buen patrón presenta un alto grado
de invarianza transformacional.
Es interesante observar las posibles relaciones entre el modelo de los
conjuntos R&R de Garner y el de los grupos de simetría de Palmer. Tanto
la teoría de Garner como la de Palmer se centran en teorías transformacionales de la bondad del patrón. Sin embargo, el interés de Garner se dirige al
353
Percepción
conjunto de patrones diferentes que se ocasionan una vez aplicadas las
transformaciones (conjunto R&R), mientras que el interés de Palmer son
las transformaciones que dejan el patrón invariante (grupo de simetría), de
ahí que el último modelo, además de ser un modelo transformacional, sea
un modelo de invarianza. Obsérvese que si R es el tamaño del conjunto
R&R y S representa el orden del grupo de simetría, el resultado del producto (T) es siempre de 8, es decir, las ocho operaciones que se han considerado en estos estímulos, de tal forma que R x S = T.
El modelo de Palmer es mucho más robusto y parsimonioso que el de
Garner, pues, además de permitir estudiar el grado de detectabilidad de diferentes simetrías, permite hacer predicciones y comparaciones entre el
grado de bondad presente en múltiples figuras, simplemente conociendo el
orden del grupo de simetría: cuanto mayor sea el orden de una figura mayor será su bondad.
2.5
Algunas reflexiones interesantes
En la actualidad, las ideas y fenómenos presentados por la Gestalt han sido
retomados y analizados desde perspectivas cercanas al procesamiento de la
información. Los manuales de Kubovy y Pomerantz (1981), y Beck (1982),
junto con el trabajo de Epstein (1988) marcan el inicio de esta corriente
neogestaltista, sin olvidar las ideas de algunos autores que consideran que
las propuestas de la Gestalt podían beneficiarse de las aportaciones
realizadas desde los modernos modelos conexionistas de procesamiento distribuido en paralelo (Leeuwen, 1989) o que el estudio de la bondad del patrón debe efectuarse desde perspectivas no-transformacionales (Helm y Leeuwenberg, 1996). Este renovado interés ha supuesto también nuevas
aportaciones en las que incluso se llega a poner en entredicho el mismo
fundamento de la teoría gestáltica. Analizaremos someramente algunas de
ellas: el valor heurístico de los principios, la importancia de las partes en la
determinación del todo, y el desplazamiento del principio de pregnancia
por el principio de probabilidad.
Los principios de organización como simples descripciones heurísticas.
Algunos autores como Hochberg (1974, 1981) han realizado sugerentes críticas no solamente a la supuesta universalidad de los principios, sino a la
misma contribución de la Gestalt al estudio de la organización. Realmente
los principios de organización figura-fondo o de agrupamiento no determinan de forma absoluta la percepción, es decir, no deciden de forma exclusiva una concreta organización frente a las alternativas. Por ejemplo, en las
figuras reversibles el observador, de forma voluntaria, puede cambiar la
percepción entre las áreas que constituyen la figura-fondo, e incluso en
ocasiones estos mismos principios entran en contradicción entre sí, lo que
imposibilita el establecimiento de una jerarquía en el momento de su apli-
354
10. Organización perceptual y reconocimiento visual del objeto
cación. Por esta razón, los principios deben ser comprendidos no como leyes explicativas de la organización perceptual sino como simples reglas con
un cierto valor heurístico.
La importancia de las partes en la determinación del todo. No es completamente cierto que la organización de los todos organizados (Gestalten)
sea independiente de sus partes. La Figura 10.6 muestra dos figuras imposibles en las que la percepción resulta paradójica y curiosa: es como si el dibujante hubiera cometido algún error en el dibujo que afectara a la sensación de profundidad, pues efectivamente dichas figuras no se pueden
construir de forma lógica en un espacio tridimensional siguiendo los principios de la geometría, y ello a pesar de que ante nuestra experiencia aparecen como objetos tridimensionales.
a
Figura 10.6
b
Figuras imposibles.
Las figuras imposibles suponen un reto a las teorías de la organización
perceptual. Es posible etiquetarlas como simples anomalías perceptivas y
buscar explicaciones ad hoc para cada una de ellas, con objeto de preservar
la pureza de los principios de organización. Sin embargo, lo que realmente
están demostrando es que, por encima del nivel de análisis global, existe la
posibilidad de que la organización perceptiva se mueva también a niveles
locales como puede ser la intersección de contornos. Por ejemplo, las figuras que aparecen a continuación son simples intersecciones que pueden interpretarse de varias formas: la figura de la izquierda puede percibirse
como una forma plana constituida por tres líneas que convergen en un punto o también como uno de los extremos de un cubo; la de la derecha se percibe como una T inclinada o también como un contorno que atraviesa una
superficie opaca.
Estos sencillos ejemplos demuestran que una posible explicación al fenómeno de las figuras imposibles exige dirigir la atención del investigador
al análisis de las áreas o zonas más locales, muy especialmente a la confluencia o intersección de líneas o superficies, en donde se producen diversos tipos de organización perceptual que pueden llegar a ser disonantes con
355
Percepción
la organización prevaleciente a escala global, lo que pondría en entredicho
la supuesta superioridad del todo sobre las partes.
Algo similar sucede con otros fenómenos perceptuales como son las ilusiones. En la Figura 10.7a se presenta la ilusión Poggendorff (se distorsiona
la continuación natural del segmento) y en la 10.7b la de Wundt (distorsión
en la que parece romperse el paralelismo físico existente entre las dos líneas horizontales). Las ilusiones son importantes para el estudio del proceso
perceptual: obsérvese, en la de Wundt, que la proyección retiniana corresponde a dos líneas paralelas aunque la organización perceptual que se erige
y predomina no corresponde con la representación física. Las ilusiones han
sido un fenómeno frecuentemente utilizado por la Gestalt como argumento
contundente para refutar la perspectiva estructuralista y con ello demostrar
la falta de validez de los modelos lineales de percepción. No obstante, resulta paradójico que los principios de organización, postulados por la escuela alemana, no resuelvan este enigma perceptual.
a
Figura 10.7
b
Ilusiones; (a) ilusión Poggendorff y (b) ilusión de Wundt.
Pregnancia y probabilidad. Se sabe que, desde el punto de vista de la
Gestalt, el fundamento básico de toda organización es el principio de la
pregnancia, o principio mínimo, desde el que se defiende que la organización perceptual prevaleciente será la más simple que permitan las circunstancias. Alternativamente a este principio, la organización perceptual se ha
explicado mediante el denominado principio de la probabilidad. Conforme
a éste, la organización perceptual prevaleciente será aquella que corresponda de forma más probable al estímulo distal, o, en otras palabras, los
elementos sensoriales se organizarán en el objeto que sea más consistente
con dicho input. El principio de la probabilidad se maneja desde posiciones
356
10. Organización perceptual y reconocimiento visual del objeto
teóricas neoestructuralistas y fue propuesto originalmente por Helmholtz
(1867/1962). Para comprender el debate subyacente a la controversia simplicidad versus probabilidad le sugiero retómese, por un momento, la figura presentada para ilustrar el principio de continuidad: obsérvese la tendencia a la percepción de dos líneas cruzadas en forma de X y no de dos V
conectadas por sus vértices. Pues bien, conforme al principio de simplicidad la organización percibida en forma de X lo es porque es una descripción mucho más simple, más regular o más económica que la alternativa.
Sin embargo, conforme al principio de la probabilidad, el input sensorial se
organiza como una X debido a que es frecuente hallar la continuidad de líneas o contornos, de ahí que sea la organización que prevalezca con mayor
probabilidad.
Algunos investigadores han realizado interesantes trabajos con objeto de
dilucidar el grado de potencia explicativa de uno u otro principio (Pomerantz y Kubovy, 1986). En realidad, la controversia simplicidad-probabilidad se reduce a una contraposición entre diferentes perspectivas del proceso perceptual. Defender una organización perceptual regida por la
simplicidad parece enmarcarse mucho mejor en un contexto innatista bajo
el que subyace el modelo isomórfico, que entiende un funcionamiento cerebral dinámico determinado innatamente; estaríamos refiriéndonos a un
modelo de hardware a causa de que la organización perceptual está determinada por un sistema cerebral con unos principios de funcionamiento innatos. Por su parte, defender una organización perceptual regida por el
principio de la probabilidad se vincula mucho más estrechamente a posiciones empiristas porque las probabilidades de los estímulos del ambiente
deben ser aprendidas; hablaríamos ahora de un modelo de software porque
las reglas de la organización perceptual pueden modificarse progresivamente con el aprendizaje.
Frente a esta contraposición entre simplicidad y probabilidad, debemos
hacer mención a las recientes aportaciones sustentadas en la teoría matemática de la complejidad, desde las que se propone que ambos principios son
equivalentes, debido a que ambos pretenden maximizar la percepción, organizándola de la manera más simple o de la manera más probable (Chater,
1996). Se sugiere, desde esta nueva posición teórica, que el debate y la investigación habría que dirigirlo no a demostrar la superioridad de un principio sobre otro (pues se consideran equivalentes), sino realmente a descubrir
si la percepción actúa o se rige por principios maximalistas.
3.
Reconocimiento visual del objeto
Hasta ahora se han presentado cuestiones relacionadas con la organización
de las sensaciones en totalidades coherentes. Corresponde ahora enfrentarnos al análisis de los mecanismos psicológicos encargados del reconoci-
357
Percepción
miento de los objetos mediante la visión. Con el estudio del reconocimiento
visual pretendemos descubrir los principales procesos responsables de que
los organismos discriminen entre los objetos del medio y de que los perciban como una identidad y con continuidad fenoménica, a pesar de las diferentes proyecciones retinianas que generan como consecuencia de sufrir
transformaciones en el espacio o como consecuencia del movimiento del
observador. La importancia del proceso de reconocimiento visual está fuera
de toda duda y este proceso es crítico en la adaptación del organismo al nicho ecológico; no en vano es uno de los temas de investigación que adquiere mayor trascendencia en el estudio de la percepción humana.
Perspectiva categorial y métrica del reconocimiento. Los matices que
adquiere el enunciado reconocimiento del objeto son diversos y, a priori,
simplificando en exceso, podríamos distinguir entre una perspectiva categorial y otra perspectiva métrica. Por reconocimiento del objeto podemos
entender los procesos de índole clasificadora que permiten al ser humano
manejarse con categorías diferentes y poner orden ante la diversidad estimular, al facilitar el agrupamiento de estímulos y objetos del medio en categorías significativas. En este sentido, reconocer un objeto no es sino
agruparlo con otros objetos con los que comparte una serie de rasgos o propiedades en común. Esta perspectiva categorial se sustenta en dos principios. El primero es el de la adaptación, pues la creación de categorías significativas reduce, de forma importante, la diversidad informativa del medio,
con objeto de hacerlo manejable informativamente. En efecto, somos capaces de reconocer diferentes especies de animales, diferentes colores, diferentes profesiones, capas sociales, o razas, o que un coche de bebé no es lo
mismo que un coche de carreras, los ejemplos son infinitos. Es importante
apreciar que la diversidad del medio debe ser superada con objeto de facilitar nuestra adaptación, lo que ha sido posible desarrollando la facultad de
categorizar el ambiente en clases significativas, agrupando los estímulos
que comparten características comunes, con objeto de ser tratados de forma
equivalente. El segundo principio de la perspectiva categorial es el de la inducción, pues la creación de clases es consecuencia directa de la puesta en
marcha de procesos de pensamiento inductivo: categorizar es agrupar y dicha agrupación se consigue pasando de los elementos particulares, de las
individualidades, a las propiedades generales entendidas como rasgos compartidos, en mayor o menor grado, por los diversos miembros que constituyen una categoría.
Alternativamente a la perspectiva categorial, la perspectiva métrica se
sitúa en el corazón mismo de los procesos perceptivos, y desde ella se entiende el proceso de reconocimiento del objeto como un mecanismo vinculado a la captación de invariantes relacionados con la forma y con las propiedades métricas como son el tamaño, la posición o la orientación en el
espacio. La perspectiva categorial y la métrica no son excluyentes en modo
358
10. Organización perceptual y reconocimiento visual del objeto
alguno, sino perfectamente complementarias, pues reconocer un objeto no
sólo consiste en captar sus atributos métricos y de forma sino en otorgarle
un significado y utilidad funcional asignándolo, en mayor o menor grado, a
una determinada categoría. No obstante, la investigación sobre categorías
ha generado un campo de investigación propio, mucho más vinculado a
procesos de pensamiento y razonamiento, mientras que la perspectiva métrica se relaciona en mayor medida con los procesos perceptivos. Por ello, y
dada la naturaleza de este manual, adelanto al lector que el resto de nuestra
exposición versará en exclusiva sobre las propuestas desarrolladas desde
los modelos métricos.
Un modelo general de reconocimiento visual. La mayor parte de las propuestas teóricas elaboradas desde la psicología y desde la inteligencia artificial, que pretenden dar cuenta del reconocimiento visual del objeto, participan explícita o implícitamente de un sistema de cognición general
descrito formalmente en la Figura 10.8.
Representaciones
Representaciones
almacenadas
en
almacenadas en
memoria
memoria
Figura 10.8
IMAGEN RETINIANA
IMAGEN
RETINIANA
Objeto
Representación
codificada
codificadadel
delinput
inputo
oseñal
señalde
de entrada
entrada
Procesos de ajuste
ajuste yy
emparejamiento
emparejamiento
Modelo general de reconocimiento visual
El objeto, dependiendo del punto de vista del observador y/o de su posición en el espacio, proyecta una imagen en la retina que es codificada
mediante un input o señal de entrada. A su vez existen una serie de representaciones canónicas almacenadas en memoria, estas representaciones canónicas no deben entenderse como una simple réplica del patrón retiniano.
Por canónicas debemos entender representaciones independientes del punto
de vista adoptado por el observador, conservando, de esta forma, las propiedades invariantes más relevantes informativamente. El diagrama indica
que el reconocimiento es en esencia un conjunto de procesos de ajuste y
comparación (matching) entre la codificación del objeto externo a partir
359
Percepción
de la imagen retiniana y las múltiples representaciones o modelos almacenados en memoria. Aunque este modelo general es asumido por la mayor
parte de los teóricos (Banks y Krajicek, 1991; Biederman, 1987; Liu et al,
1995; Logothetis y Sheinberg, 1996; Marr y Nishihara, 1978; Pinker, 1984;
Ullman, 1989), la realidad es que las diferencias surgen cuando se trata de
especificar el formato representacional utilizado para almacenar la información, cuando se debe indicar el número de estadios de procesamiento al
que se somete la imagen retiniana (probablemente sea la teoría de Marr la
más completa en este sentido), y cuando se trata de buscar un acuerdo sobre cuáles son los procesos específicos de ajuste y emparejamiento involucrados. En lo que sigue vamos a analizar los rasgos distintivos de algunos
modelos de reconocimiento visual que mayor impacto han provocado: los
clásicos de plantillas y características, los modelos de ejes, el reconocimiento por componentes (RBC), las propuestas de alineamiento pictórico y,
finalmente, los modelos conexionistas.
3.1
Reconocimiento por comparación de plantillas
Desde esta propuesta se afirma que el reconocimiento del objeto se reduce
a encontrar una plantilla en la que encaje la imagen codificada. Por ejemplo, el reconocimiento de la letra R (Figura 10.9) se produce debido a que
se ha localizado un molde que encaja con el patrón de entrada, rechazándose otros moldes bien por no existir ajuste (W) o por encajar parcialmente (P, B).
R
R
R
R
W
P
P
B
Figura 10.9 Reconocimiento por plantillas. Se ha localizado una plantilla que encaja con la imagen codificada de la letra R; el resto de moldes no son válidos porque no encajan o porque ocasionan ajustes parciales.
Aunque la explicación expuesta es sencilla, los problemas que presentan
estos modelos son numerosos. El primero es que los ajustes parciales mencionados pueden ocasionar a veces falsas alarmas durante el reconocimiento (creer haber reconocido una P o B cuando se presenta una R), aunque es
cierto que en la vida cotidiana, a veces, se producen errores en este sentido
(muy especialmente en el reconocimiento de letras o palabras), lo que va en
360
10. Organización perceptual y reconocimiento visual del objeto
R
favor del modelo. Otro problema más serio es el de los cambios de orientación o de tamaño del estímulo. Ciertamente los objetos del medio pocas veces se contemplan desde las mismas condiciones, pues la distancia a la que
se dispongan así como la perspectiva adoptada ocasionan cambios en la
orientación y en el tamaño percibido, lo que a su vez exigiría una plantilla
para cada una de las perspectivas de observación. Es obvio que una propuesta tal es inconsistente con los límites de almacenamiento en memoria.
Una posibilidad que todavía salvaría el modelo pasaría por admitir, conforme a un principio de economía cognitiva, la actuación de procesos de normalización de la orientación y tamaño. En la Figura 10.10 se observa que
antes de proceder a la comparación con la plantilla, la imagen sería sometida a un conjunto de ajustes o transformaciones que anulasen la diversidad
de perspectivas en el espacio, obteniendo como resultado una imagen normalizada con los parámetros métricos (orientación y tamaño) presentes en
las representaciones almacenadas en forma de plantillas, pasándose seguidamente a la fase de emparejamiento, tal como se ha descrito anteriormente. La posibilidad de normalización del tamaño y de la orientación en tareas
de comparación de patrones cuenta con abundante evidencia acumulada
desde las propuestas originales de Bundesen y Larsen (1975) y Shepard y
Metzler (1971).
Normalización
de la
Normalización de
la
orientación y del
tamaño a valores
canónicos
R
R
R
Figura 10.10 Actuación de un supuesto mecanismo de normalización de la orientación y del tamaño de una imagen con objeto de adaptarla a la plantilla correspondiente.
3.2
Reconocimiento por detección de características o rasgos
Otra forma de proceder en el reconocimiento es mediante la detección de
rasgos o características que definen un patrón estimular dado. Por ejemplo,
distinguimos la letra R de la P porque la primera dispone de una línea inclinada que le proporciona su carácter singular, algo similar cabría decir por
ejemplo al diferenciar la O de la Q. Estas propuestas gozaron de gran popularidad a raíz del modelo Pandemonium de Selfridge (1959) y estuvieron
muy influenciadas por las observaciones fisiológicas de Hubel y Wiesel
que demostraban la existencia de células detectoras de características en la
corteza visual.
361
Percepción
Q
Figura 10.11
Detectores
elementales
Detectores
globales
•
Curva cerrada
•
Detector de O
•
Línea oblicua
•
Detector de Q
Ejecutivo de decisión
Imagen
retinian
Q
Sistema de reconocimiento visual a partir de la detección de características.
Un sistema de reconocimiento por características, ante una tarea de detección de letras, operaría en varios niveles (Figura 10.11). En primer lugar
el sistema dispondría de un nivel de detectores elementales de rasgos, que
se activarían o responderían ante la presencia de líneas horizontales, verticales, oblicuas, curvas cerradas, curvas abiertas, etc. Reconocer la O exige
la activación del rasgo de curva cerrada, reconocer la Q añadiría un segundo rasgo de línea oblicua. Estos detectores de características enviarían su
señal a un nuevo conjunto de detectores globales encargados de localizar
los rasgos propios de las letras que representan, existiendo un detector para
cada una de las letras. En nuestro caso, el detector global de la O responderá cuando el detector de curva cerrada se active, y el detector global de la Q
lo hará ante la presencia de curva cerrada y de línea oblicua. Finalmente,
un último nivel constituido por un ejecutivo de decisión determinará qué
detector global se selecciona, en función del grado de activación alcanzado,
dependiendo del número de características detectadas, completándose así el
proceso de reconocimiento.
Si bien estos modelos han sido útiles en el momento de explicar el reconocimiento de patrones sencillos como caracteres alfanuméricos, o rasgos
elementales como códigos de morse (este último fue el propósito original
de Pandemonium), la realidad es que presentan dificultades cuando lo que
se pretende es explicar la identificación de formas naturales. Imagínese por
un momento la enorme cantidad de características (líneas, curvas y ángulos) que habría que combinar para detectar la forma de un árbol. En casos
de esta naturaleza el sistema cognitivo debería recurrir a complejos criterios combinatorios para identificar la forma global a partir de un conjunto
finito de características como líneas horizontales, verticales y oblicuas, curvas, ángulos, etc., funcionamiento que no parece muy plausible. Además
toparíamos con un problema añadido, y es que este tipo de modelos se suelen limitar a especificar o describir un conjunto de detectores lineales pero
no suelen explicar cómo se establecen las relaciones de los rasgos entre sí,
es decir, cómo se disponen unos con respecto a otros, hecho que, en el mo-
362
10. Organización perceptual y reconocimiento visual del objeto
mento de detectar las formas naturales complejas, les haría más insostenibles todavía.
3.3
Reconocimiento por ejes de coordenadas
Una posibilidad de superar la última de las dificultades citadas (reconocer
el objeto mediante la especificación de las relaciones existentes entre las
partes) consistiría en describirlo recurriendo a un sistema de ejes de coordenadas, de forma análoga a lo que sucede en geometría. Esta posibilidad
es interesante, pues la descripción de la orientación o de la forma de un estímulo se realiza asignando un eje intrínseco o marco de referencia perceptual (MR), de tal forma que existirá invarianza en el reconocimiento del
objeto si la relación entre éste y el MR permanece constante. Obsérvese en
la Figura 10.12 que la descripción de la letra A permanece siempre invariable con respecto al MR interno independientemente de las transformaciones a las que sea sometida. La ambigüedad en la organización perceptual y
en el reconocimiento surgirá cuando una figura disponga de MRs alternativos que ocasionen diferentes descripciones de la forma. Por ejemplo, un
cuadrado rotado 45º se percibirá como un rombo; ello es así porque la figura dispone de dos MRs alternativos cuya prioridad se establecerá a favor de
aquel que coincida con un marco ambiental más amplio (esta misma hoja
de papel) o la vertical gravitacional.
Figura 10.12 Descripción de un estímulo por un marco de referencia perceptual (MR). La A
siempre se percibe como tal porque la relación entre figura y MR permanece constante a pesar de
las transformaciones. El cuadrado-rombo dispone de dos MRs alternativos, por lo que dependiendo
del MR seleccionado se percibirá una u otra figura.
363
Percepción
La mayor parte de los modelos de ejes asumen que el reconocimiento
del objeto consiste en pasar de un MR centrado en el observador a un MR
centrado en el objeto. En los MR dependientes del punto de vista del observador, el origen del sistema de coordenadas se encuentra en el sujeto que
percibe, por lo que resulta fácil deducir que la representación retiniana será
diferente dependiendo del movimiento del sujeto (en la retina un cuadrado
aparecerá proyectado como un rombo si el observador rota su cabeza en un
ángulo de 45º). Alternativamente los MR intrínsecos o centrados en el objeto localizan su origen en el mismo estímulo que se pretende identificar: la
ventaja frente a los anteriores es obvia, pues la identificación del objeto
será independiente de la perspectiva adoptada por el observador y/o de las
posibles transformaciones del objeto (el caso de la A en la Figura 10.12).
Para la mayor parte de estos modelos el reconocimiento visual consiste en
efectuar una descripción del objeto que sea independiente del punto de vista adoptado, permitiendo así la captación de invariantes.
Cuando identificamos un objeto a partir de la asignación de un MR intrínseco, estamos activando una determinada representación canónica almacenada en memoria que puede formalizarse en una descripción estructural.
Por descripción estructural entendemos una representación de conocimiento organizado de manera selectiva. Por ejemplo, en la Figura 10.13 aparece
una descripción estructural simplificada de la forma de un elefante en la
modalidad de red semántica. Los nodos de la descripción estructural corresponden a partes del objeto que, en nuestro ejemplo, se pueden organizar
jerárquicamente. Las líneas indican las relaciones existentes entre las partes. La esencia de la identificación de objetos a partir de MRs no es otra
que la activación de la representación canónica correspondiente en forma
de descripción estructural de las diversas partes componentes.
De los modelos de ejes que activan descripciones estructurales podemos
señalar dos ventajas. La primera es que podemos enfrentarnos al reconocimiento de objetos en tres dimensiones, pues la descripción estructural almacena información canónica concerniente a las partes volumétricas del
objeto y a sus relaciones. Una segunda ventaja es que las descripciones estructurales no solamente se utilizan en psicología para representar información visual apropiada para el reconocimiento, sino que estos formalismos
representan también información no-visual relacionada con las categorías a
las que pertenece el objeto (animales, muebles, etc.) o información sobre
sus usos, de tal forma que los procesos subsecuentes de razonamiento y
pensamiento, en los que se utilizan ambos tipos de conocimiento, se ven facilitados al complementarse los dos tipos de informaciones entre sí.
El modelo computacional de reconocimiento de Marr y Nishihara. En
psicología son numerosas las propuestas teóricas desarrolladas para explicar el reconocimiento por ejes de coordenadas, aunque tal vez sea la de
Marr y Nishihara (1978, utilizada con posterioridad por Marr en 1982) la
que constituye el punto de partida más aceptado y compartido. Estos auto-
364
10. Organización perceptual y reconocimiento visual del objeto
ELEFANTE
ELEFANTE
TORSO
CABEZA
CABEZA
OREJAS
OREJAS
EXTREMIDADES
EXTREMIDADES
COLMILLOS
Figura 10.13 Descripción estructural correspondiente a la categoría elefante. Los nodos corresponden a las partes del cuerpo y las líneas indican relaciones entre ellas.
res comparten el supuesto anteriormente citado al afirmar que el reconocimiento consiste en pasar desde una descripción dependiente del punto de
vista a otra totalmente independiente basada en ejes intrínsecos al objeto,
que permita la comparación de éste con representaciones canónicas almacenadas en memoria. Para conseguir este propósito el sistema visual humano, a partir de la imagen retiniana generada por la luz que reflejan los
objetos, procesa la información en tres estadios sucesivos que generan
diferentes descripciones del estímulo: el esbozo primario, el esbozo 2-D y
el modelo 3-D.
El esbozo primario y el esbozo 2-D pertenecen a un estadio de procesamiento visual temprano o visión de bajo nivel, pues para su formación en
ningún momento se recurre a procesos interpretativos. Ambos esbozos se
limitan exclusivamente a las superficies visibles del objeto, informando de
la estructura: cambios en intensidad luminosa que captan contornos y texturas, orientaciones y distancias de observación. Lo más interesante para el
reconocimiento visual es que tanto el esbozo primario como el 2-D son dependientes del punto de vista adoptado por el observador, de ahí que cualquier movimiento del objeto o del sujeto ocasione diferentes representaciones de la estructura de las superficies del objeto. Para solucionar el
problema de la constancia en el reconocimiento, el sistema visual debe proceder a efectuar una nueva representación del objeto, independiente del
punto de vista del observador, constituyendo, esta representación, el denominado modelo 3-D. El modelo 3-D pertenece a una fase de procesamiento
visual tardío o visión de alto nivel, pues en su generación se recurre frecuentemente a mecanismos conceptuales arriba-abajo; es la esencia del sistema de reconocimiento visual y se sustenta sobre tres supuestos estrechamente relacionados: la asignación de un sistema de coordenadas, la
localización de primitivos y la organización modular.
Un modelo 3-D es una descripción del objeto que recurre a un sistema
de coordenadas intrínseco al objeto, definido por los ejes naturales de alar-
365
Percepción
Figura 10.14 Una jarra de cerveza y su descripción volumétrica en forma de cono generalizado
con su eje correspondiente.
gamiento o simetría que anulan cualquier cambio en la perspectiva adoptada, de tal forma que la descripción del objeto con respecto a este MR permanece invariable. Si la descripción del objeto exige asignar un MR interno, resulta obvio que las formas deben describirse recurriendo a una serie
de elementos primitivos, es decir, a unidades elementales de información
útiles para la descripción que se pueden localizar en los objetos y que son
compatibles con un tratamiento en términos de ejes de coordenadas. Los
primitivos propuestos para los modelos 3-D son formas volumétricas (en
tres dimensiones) denominadas conos generalizados. Como se observa en
la Figura 10.14, un cono generalizado puede definirse como el volumen
que se origina al desplazar una sección transversal a lo largo de un eje; la
sección transversal puede variar en tamaño, pero su forma siempre va a
permanecer constante. Apréciese que el cono generalizado se define perfectamente recurriendo al eje que lo genera.
Aunque cada modelo 3-D es una unidad simple e independiente, pues
proporciona información sobre la forma que representa, es habitual que se
organicen entre sí de forma anidada. Estas organizaciones anidadas posibilitan no sólo la descripción del objeto global sino también de las partes
componentes, hecho destacable debido a que, en el reconocimiento, pueden
existir exigencias de detalle. En la Figura 10.15 se presenta una descripción
anidada de modelos 3-D correspondiente al cuerpo humano adaptada a partir de Marr y Nishihara (1978).
Cada uno de estos modelos 3-D se caracteriza estructuralmente por disponer de dos ejes: el eje del modelo que nos proporciona información sobre
la orientación y el tamaño del objeto global, y los ejes componentes que
nos indican la posición y el tamaño relativo de las partes con respecto al
objeto, y que, a su vez, también son modelos 3-D subordinados. En nuestro
ejemplo, el primer modelo 3-D corresponde a la descripción global del
366
10. Organización perceptual y reconocimiento visual del objeto
Modelo 3-D: cuerpo humano
Modelo 3-D: brazo
Modelo 3-D: antebrazo
Figura 10.15 Organización jerárquica de modelos 3-D correspondiente al cuerpo humano (adaptado de Marr y Nishihara, 1978; p. 278). Cada cuadrado corresponde a un modelo 3-D; a la izquierda de cada modelo se representa el eje del modelo en forma de cono generalizado y a la derecha los ejes componentes, que, a su vez, también constituyen modelos 3-D subordinados.
cuerpo: el cono generalizado de la izquierda corresponde al eje del modelo
y en la derecha se representan los ejes componentes del modelo; cada uno
de estos ejes constituye a su vez otro modelo 3-D subordinado (descripción
del brazo) constituido por un eje de modelo y unos nuevos ejes componentes a partir de los cuales se genera un nuevo modelo 3-D (descripción del
antebrazo), y así sucesivamente.
Algunos problemas de las descripciones mediante ejes. Aunque el reconocimiento de los objetos recurriendo a ejes ha sido ampliamente admitido
y aplicado en numerosos campos de investigación en psicología (comparación de patrones, memoria de formas visuales, rotación mental de objetos,
percepción de figuras multiestables, etc.) estos modelos presentan algunos
inconvenientes.
En primer lugar no parece quedar clara la importancia de determinados
aspectos geométricos de la figura en el establecimiento del MR. Hemos
visto que los conos generalizados corresponden a secciones alargadas y/o
simétricas que facilitan la detección o definición de ejes. Sin embargo,
cuando se contrasta empíricamente el papel del alargamiento y la simetría
en el establecimiento del MR los resultados no son concluyentes (CrespoLeón, 1993): el alargamiento cuenta con escasa evidencia empírica
(Humphreys y Quinlan, 1987) y la simetría, si bien la evidencia a su favor
es mucho más abrumadora, encuentra el problema del reconocimiento de
figuras del medio ambiente que no disponen de simetría, pretendiéndose
salvaguardar la teoría al hablarse de grados de simetría o cuasi-simetrías.
En segundo lugar, cuando cambia la orientación de un objeto el reconocimiento del mismo no siempre se produce recurriendo a un MR intrínseco
independiente del punto de vista adoptado, sino que en ocasiones los obser-
367
Percepción
vadores realizan juicios basándose en la proyección retiniana, lo que hablaría a favor de la utilización de MRs dependientes de la perspectiva de
observación. En este sentido debemos distinguir entre la identificación de
estímulos familiares y la de formas noveles o poco familiares. El reconocimiento de los primeros es bastante sencillo y el sistema visual los suele
describir a partir de un sistema de ejes intrínsecos al objeto que compensa
los posibles cambios de perspectiva u orientación. Sin embargo, el rendimiento en la identificación de estímulos que presentan numerosas partes
relacionadas entre sí (palabras y rostros) y/o que resultan poco habituales
para los sujetos (figuras geométricas abstractas en 3-D) se ve negativamente afectado por los cambios en orientación, lo que hace pensar que, para su
identificación, los sujetos recurren a representaciones basadas en la proyección retiniana, dependientes, por tanto, del punto de vista adoptado (Edelman y Bülthoff, 1992; Humphrey y Khan, 1992; Rock y di Vita, 1987).
3.4
Reconocimiento por componentes (RBC)
A partir de la idea de los primitivos de la forma, imagine el lector un sistema
de reconocimiento visual constituido por un conjunto finito de elementos
universales, que mediante combinación, pudieran ocasionar cualquier forma,
de manera análoga a lo que sucede con el reconocimiento de las palabras del
lenguaje mediante fonemas (24 fonemas permiten codificar todas las palabras del castellano). El modelo de reconocimiento por componentes (RBC:
recognition-by-components) propuesto por Biederman (1987; Hummel y
Biederman, 1992) parte de esta concepción, y entiende que el reconocimiento de los objetos se produce por la identificación de unos elementos primitivos geométricos denominados geones (iones geométricos), volumétricos similares a los conos generalizados que se erigen en las unidades básicas del
reconocimiento.
Detección de contornos
e identificación de componentes
Comparación de componentes
con las representaciones del objeto
Identificación del objeto
368
10. Organización perceptual y reconocimiento visual del objeto
Figura 10.16 A la izquierda un conjunto de geones y a la derecha posibles objetos constituidos
por combinación de los anteriores (adaptado de Biederman, 1987; pp. 123 y 130).
La Figura 10.16 muestra a la izquierda una serie de posibles geones y a
la derecha tres objetos cotidianos que pueden ser descritos recurriendo a estos volumétricos. La identificación de los geones componentes y el subsecuente reconocimiento +del objeto se produce en una serie de fases (véase
el diagrama de flujo). En primer lugar la imagen de la retina es sometida a
un proceso de detección de contornos en función de características como el
color, la luminancia o la textura, lo que proporciona una primera descripción de los límites del objeto. En esta primera fase actúan una serie de operaciones que tienen por misión facilitar la segmentación de la figura en
diversas regiones, tomando como referencia las formas cóncavas, y obteniendo como resultado final una identificación de componentes constituyentes (los geones). En un siguiente estadio se produce una comparación en
paralelo entre los geones identificados y las representaciones del objeto almacenadas en memoria, admitiéndose la posibilidad de ajustes parciales, lo
que iría a favor de la efectividad de los procesos de reconocimiento cuando
se dispone de información incompleta del objeto por encontrarse, por ejem-
369
Percepción
plo, oculto parcialmente por otro objeto. Finalmente, el estadio de identificación se refiere a la localización o activación de la representación correspondiente a un objeto determinado que encaje con los componentes identificados.
La esencia del proceso de reconocimiento en RBC radica en el mecanismo de segmentación de la imagen en componentes elementales o geones.
Los geones corresponden a formas volumétricas que se diferencian entre sí
y son fácilmente detectables independientemente de la perspectiva de observación que se adopte. En este sentido, Biederman reitera con insistencia que
los geones son identificados a partir de la imagen retiniana bidimensional, a
pesar de que subjetivamente son interpretados en tres dimensiones, y el reconocimiento es posible debido a que todas las vistas posibles de un objeto
activan siempre los mismos geones y la misma disposición ordenada entre
ellos (Biederman y Gerhardstein, 1993); es decir, reconocemos la linterna o
la lámpara porque, independientemente de la proyección retiniana, los geones y su disposición unos con respecto a otros se mantiene constante, por
ello siempre se activa la misma descripción estructural. En esencia, la propuesta novedosa de Biederman radica en proponer al geón como formalismo
representacional que, frente a otro tipo de formalismos más abstractos (redes
semánticas, esquemas, etc.), tiene la ventaja de pretender explicar el reconocimiento métrico del objeto recurriendo a un concepto definido de forma
inherente por propiedades geométricas, por lo que podríamos concluir que la
correspondencia entre el modelo y lo modelado es elevada.
3.5
Reconocimiento por alineamiento
El modelo de reconocimiento por alineamiento pictórico desarrollado por
Ullman (1989) es un modelo computacional que participa de algunas características expuestas anteriormente. Dada una imagen retiniana correspondiente a la vista específica de un objeto (V), el reconocimiento del mismo
debe ser entendido como un proceso de búsqueda en un espacio donde se
encuentran ubicados modelos del objeto que abarcan todas sus posibles vistas (M) junto a las transformaciones (T) que pueden aplicarse a dichos modelos.
Estadio de alineamiento
Estadio de emparejamiento
370
10. Organización perceptual y reconocimiento visual del objeto
El modelo de alineamiento participa de dos estadios. En el primero (estadio de alineamiento) se localiza la transformación T que anula los cambios en posición, tamaño u orientación existentes entre la vista V y el modelo M, transformación que se aplica prioritariamente sobre M aunque
también es factible aplicarla sobre V. En el segundo (estadio de emparejamiento), una vez alineados V y M, se debe buscar y localizar el modelo M
que se corresponda con la vista (V). Por consiguiente, la identificación del
objeto se reduce a localizar un modelo concreto M junto con una transformación T que maximice el ajuste (F) entre la imagen retiniana (V) y el modelo (M). Expresado formalmente supone maximizar la relación F(V,(M,
T)), o dicho de otra forma, encontrar un modelo M y una transformación T
que alinee M y V de la manera más óptima. En el ejemplo de la Figura
10.17 se muestra a la izquierda una vista V de un objeto y su modelo M; la
transformación localizada se aplica a M de tal manera que en un primer
momento se alinea el escalamiento y en un segundo momento se alinea la
orientación, obteniendo así un emparejamiento en el que se ha maximizado
el ajuste entre V y M.
T aplicada a M
VV
M
M
T
T
escalamiento
orientación
Ajuste maximizado
Figura 10.17 Reconocimiento por alineamiento. Se encuentra una transformación (T) que anula
en M las diferencias en tamaño y orientación, maximizando el ajuste entre V y M.
Probablemente se aprecie la analogía existente entre el mecanismo de
alineamiento y los procesos de normalización a los que nos referíamos
cuando hablábamos de los modelos de plantillas. Tanto en el alineamiento
como en la normalización se aplica una transformación que anula cualquier
cambio en orientación o tamaño, y cuyo objetivo es facilitar el ajuste entre
V y M (en el modelo de alineamiento) o entre la imagen codificada y la
plantilla (en el modelo de plantillas). A pesar de esta analogía, Ullman considera que el concepto de alineamiento es mucho más amplio que el concepto tradicional de normalización. Por normalización se ha entendido un
conjunto de simples mecanismos que se aplican a imágenes definidas en un
371
Percepción
espacio bidimensional, pretendiendo así anular o compensar las rígidas
transformaciones (habitualmente de orientación y tamaño) a las que han
sido sometidas, por ejemplo reconocer la letra A rotada en el plano. Por su
parte, el mecanismo de alineamiento contempla una serie de transformaciones mucho más complejas que permiten dar cuenta del reconocimiento de
objetos 3-D sometidos a múltiples transformaciones en el espacio; transformaciones que pueden ser rígidas (no hay cambio en la forma del objeto) y
también no-rígidas, en las que el objeto parece moldearse y adoptar otras
formas diferentes, como por ejemplo cuando se reconoce a una persona de
pie, sentada o agachándose. Además, la normalización ha operado exclusivamente con el estímulo global descartando aspectos más locales del mismo, elementos a los que es necesario recurrir en numerosas ocasiones, especialmente en el momento de explicar el reconocimiento en situaciones de
información insuficiente, por ejemplo cuando un objeto se encuentra ocluido parcialmente por otro.
3.6
Reconocimiento por procesamiento distribuido en paralelo
(PDP)
Todos los modelos vistos hasta ahora comparten una circunstancia en común: el reconocimiento del objeto implica la puesta en marcha de una serie
de fases o estadios secuenciales en los que se va operando hasta conseguir
un ajuste entre la imagen del objeto y la representación en memoria; de ahí
que todos ellos puedan representarse mediante diagramas de flujo y se ajusten, en mayor o menor grado, a nuestro modelo general de reconocimiento.
Participarían de lo que se denomina en psicología el modelo del ordenador,
es decir, la mente codifica, transforma, almacena y recupera la información
en memoria de forma análoga a un ordenador.
El último modelo que vamos a presentar rechaza que el reconocimiento
implique una serie de fases o estadios secuenciales de procesamiento en las
que se aplican diversas operaciones. Más bien el reconocimiento consiste
en la activación puntual de una red (véase la Figura 10.18), más o menos
compleja, constituida por simples unidades de computación artificiales
análogas a las neuronas que procesan la información de forma distribuida y
en paralelo (procesamiento distribuido y en paralelo, PDP).
El PDP es propio de las denominadas arquitecturas conexionistas desde
las que se entiende la estructura de la mente como un sistema de unidades
de procesamiento que, en un momento determinado, pueden estar activadas/desactivadas y que se conectan excitatoria/inhibitoriamente con otras
unidades del sistema, generando así un patrón o estado de activación de la
red en conjunto. El funcionamiento mental conexionista no busca explicaciones en el ordenador que procesa secuencialmente la información, sino
que toma como referente el cerebro humano y su forma peculiar de funcio-
372
10. Organización perceptual y reconocimiento visual del objeto
+ 1,5
+1.5
+1
+1
Figura 10.18
++11
Red neuromorfa simplificada con dos unidades de entrada y una de salida.
namiento en paralelo, de ahí que los modelos conexionistas sean modelos
cerebrales de la mente. Con el propósito de reproducir artificialmente un
sistema de computación distribuida y en paralelo, estos modelos recurren a
dos parámetros cuantitativos necesarios para que la red sea capaz de efectuar las computaciones y conexiones necesarias: el peso de conexión y el
valor de umbral. El peso (etiquetas sobre la flecha) indica la naturaleza de
la conexión existente entre las unidades de procesamiento y puede ser excitatoria (pesos con signo positivo) o inhibitoria (pesos con signo negativo).
Por su parte, el valor de umbral (subrayado en el interior) no es otra cosa
que el valor mínimo que debe recibir o ingresar una unidad para activarse.
Manejando estos simples parámetros, la red es capaz de realizar operaciones cognitivas complejas, reduciendo numerosos problemas cognitivos
(memoria, lenguaje, percepción, etc) a simples cuestiones de reconocimiento de patrones. En los ejemplos que vamos a presentar de inmediato asumiremos que una unidad activada responde con 1 y desactivada con 0 (formato binario).
11 → 1
10 → 0
01 → 0
00 → 0
Por ejemplo, nuestra pequeña red de la figura 10.18 es capaz de responder diferencialmente ante un patrón de entrada específico (11) entre los cuatro posibles (11, 10, 01 y 00), y una manera de operacionalizar este caso se
reduce a que la unidad de salida se active (1) cuando las dos unidades de en-
373
Percepción
trada estén activadas (11) y permanecer desactivada (0) en el resto de combinaciones (10, 01, 00). Pues bien, partiendo de los valores asignados, la red
es capaz de reconocer el patrón 11 frente a los tres restantes (10, 01, 00). En
efecto, si las dos unidades de entrada se activan (ambas responden con 1), el
input que ingresa la unidad de salida es de: (1 × 1) + (1 × 1) = 2, valor que
supera el umbral de +1,5, la unidad de salida se activará y contestará con 1.
Sin embargo, frente al patrón 10 (o ante el inverso 01) la unidad de salida no
se activará y responderá con 0, pues ingresa un valor de (1x1) + (0 × 1) = 1,
que está por debajo del umbral [(0 × 1) + (1 × 1) = 1, ante 01]. Finalmente,
ante el patrón 00 la unidad de salida ingresa un valor nulo que, obviamente,
sigue encontrándose por debajo del umbral [(0 × 1) + (0 × 1) = 0] por lo que
permanece desactivada, respondiendo con 0. Como se puede apreciar, la red
responde diferencialmente ante distintas entradas a partir de la activación o
desactivación de sus unidades, lo que en esencia constituye un proceso de
reconocimiento de patrones de entrada: nuestra red reconoce cuatro entradas
estimulares diferentes (11, 10, 01 y 00) que implican un patrón de activación/desactivación entre todas la unidades de la red.
Como se aprecia, estos sistemas de reconocimiento procesan la información de manera distribuida entre todas las unidades del sistema, y en paralelo, es decir, cada unidad efectúa su propia computación según su posible
activación (1 ó 0 en el ejemplo citado, activada o desactivada). De ahí que
optemos por denominar a estos modelos de reconocimiento modelos de
procesamiento distribuido en paralelo (PDP). Es sorprendente que la red, a
partir de reiterados intentos, aprende por sí misma los valores necesarios
que le permiten alcanzar un determinado estado de activación. Para conseguir un resultado deseado, la red modifica progresivamente los pesos y valores de umbral hasta que éstos adoptan unos valores congruentes con lo
que se pretende representar. Los mecanismos de aprendizaje son múltiples
y suelen recurrir a algoritmos cuyo objetivo es reducir los errores al mínimo. Uno de los más utilizados es el de la retropropagación (Chauvin y Rumelhart, 1996; Hinton, 1989). Este algoritmo computa, para la unidad de
salida, la diferencia o error existente entre la actividad real y la deseada,
produciéndose seguidamente una modificación progresiva de los pesos que
conectan las unidades, hasta que el error desaparezca, estableciéndose nuevas conexiones excitatorias (pesos con valor positivo) o inhibitorias (pesos
con valor negativo).
Todos los modelos de reconocimiento por PDP se ajustan, en general, al
funcionamiento descrito, aunque cada uno de ellos presenta ciertas particularidades que le faculta en el desempeño de la tarea para la que han sido específicamente diseñados. Los modelos más complejos están constituidos
por numerosas unidades de computación, tal como sucede en el modelo de
activación interactiva y competitiva (IAC) de reconocimiento de palabras
representado en la Figura 10.19 (McClelland y Rumelhart, 1981; Rumelhart y McClelland, 1982). Este modelo está diseñado para reconocer una
374
10. Organización perceptual y reconocimiento visual del objeto
Nivel de palabras
Nivel de letras
Nivel de rasgos
Figura 10.19 Representación simplificada del modelo IAC de reconocimiento de palabras (adaptado a partir de McClelland y Rumelhart, 1981).
palabra de cuatro letras de un conjunto total de 1.179 extraídas del inglés a
partir del establecimiento de conexiones excitatorias e inhibitorias entre capas de unidades de procesamiento. Para entender el modelo es necesario tener siempre en cuenta que las elipses disponen en su interior de unidades
de procesamiento que se conectan entre sí inhibitoriamente, mientras que
entre los niveles pueden existir tanto conexiones excitatorias (señaladas por
las flechas) como inhibitorias (señaladas por líneas con cabeza de punto).
Formalizar el modelo implica utilizar 1.395 unidades de procesamiento que
se distribuyen de la siguiente manera.
En un primer nivel de características se detectan los rasgos individuales
de las letras. IAC utiliza un sistema de detección de segmentos similar al
mostrado en la Figura 10.20 que permite representar, a partir de 28 unidades de procesamiento insertas en cada elipse, los rasgos horizontales, verticales y diagonales de las letras: 14 de estas unidades detectan la presencia y
otras 14 detectan la ausencia del rasgo correspondiente. Las 28 unidades de
cada elipse se conectan inhibitoriamente entre sí y compiten por alcanzar
un grado de activación. Las señales tanto excitatorias como inhibitorias de
las unidades de rasgos ingresan en un siguiente nivel o nivel de letras, en
donde existen en cada elipse 26 unidades de procesamiento que corresponden a cada una de las letras del abecedario inglés. El funcionamiento entre
el nivel de rasgos y el de letras es sencillo; en nuestro ejemplo, para la primera posición, la unidad de rasgo que detecta la presencia de la línea hori-
375
Percepción
zontal superior de la letra T envía una señal excitatoria a todas aquellas unidades de letras que presentan este rasgo (B, Z, P, ...), y una señal inhibitoria
a todas las unidades de letras que no disponen de esa característica (H, L,
M, ...); algo idéntico sucedería con la A en la segunda posición y con la E
en la cuarta. Finalmente, el reconocimiento de la palabra se produce por la
activación de una de las 1.179 unidades de procesamiento del tercer nivel,
de tal manera que, al igual que sucedían entre los niveles anteriores, las conexiones excitatorias e inhibitorias entre el segundo y tercer nivel decidirán
qué palabra se reconoce. Por ejemplo, la unidad de letra T activada en primera posición establece conexiones excitatorias con todas aquellas unidades de palabras que tienen una T al comienzo (TAKE, THIN, ...) e inhibitorias con todas aquellas unidades de palabras que disponen de cualquier otra
letra (CAKE, LONG, ...). En el nivel de palabras, una vez que se ha activado una unidad (p. ej. TAKE), ésta envía señales excitatorias a las unidades
de letras que detectan éstas en las posiciones respectivas e inhibitorias a
aquellas que no la detectan: en nuestro ejemplo, la activación de la unidad
de palabra TAKE enviaría señal excitatoria a la unidad de letra T en primera posición e inhibitoria a todas las demás unidades de letra de primera posición; excitaría a la unidad de letra A en segunda posición e inhibiría a todas las demás unidades de letra de segunda posición; y así sucesivamente.
En conclusión, el reconocimiento de una palabra se reduce a un sencillo
procesamiento distribuido y en paralelo entre las tres capas de unidades que
establecen entre sí conexiones excitatorias e inhibitorias.
Los modelos de reconocimiento por procesamiento distribuido en paralelo han experimentado un enorme auge en psicología desde mediados de
los ochenta. Una de sus ventajas es la parsimonia explicativa que, a partir
de sencillos conceptos asociativos basados en la inhibición/excitación, son
capaces de simular el funcionamiento cognitivo, recurriendo a conceptos
cercanos al funcionamiento cerebral. No obstante, estos modelos neuromorfos parecen haber quedado reducidos a simples programas de simulación por ordenador, a partir de los cuales se han generado escasas predic-
Figura 10.20
376
Sistema de detección discreto utilizado por la red IAC en el nivel de rasgos.
10. Organización perceptual y reconocimiento visual del objeto
ciones susceptibles de contrastación empírica. Además, actualmente no
existe un modelo conexionista general de reconocimiento visual de amplio
espectro, sino una serie de micromodelos ad hoc que no pueden ir más allá
de la tarea para la que han sido diseñados específicamente: modelos de reconocimiento de patrones, de letras (IAC); e incluso adaptación de modelos
anteriores (RBC) en forma de redes neuronales como es el caso del modelo
JIM de Hummel y Biederman (1992) que en su primera capa de unidades
comienza detectando los contornos del objeto hasta llegar a la última capa
en la que se produce el reconocimiento del mismo.
Bibliografía comentada
Cualquier texto básico sobre percepción incluye siempre un apartado, más o menos
extenso, dedicado a cuestiones de organización perceptual y, en menor medida,
al reconocimiento visual. Para el lector interesado en ampliar o completar los
contenidos de este capítulo sugiero las siguientes lecturas en castellano:
Goldstein, E. B. (1995): Sensación y percepción, Madrid, Alianza. La lectura del
Capítulo 7 de este manual clásico puede resultar interesante, pues en él se aborda de forma conjunta aspectos de organización del estímulo y temas de reconocimiento visual, estos últimos un poco reducidos a modelos de plantillas y características.
Mayor, J. y Pinillos, J. L. (1992): Tratado de Psicología General, Vol. 3. Atención y
Percepción. Madrid, Alianza. El lector que acuda a este tercer volumen del tratado tiene la oportunidad de realizar una consulta mucho más monográfica. En
primer lugar puede proceder al Capítulo 7, escrito por Mª. Dolores Luna «Percepción visual de la forma y organización perceptual» que se dedica de forma
exclusiva a cuestiones de percepción de la forma y organización perceptual; es
uno de los monográficos más completos y documentados en castellano. Además de este capítulo el lector puede recurrir al Capítulo 6, redactado por Luis F.
Melero «Reconocimiento de patrones» en el que se hace una revisión de la problemática del reconocimiento visual a través de la propuesta de diversas teorías
sobre reconocimiento.
En inglés las lecturas son mucho más abundantes. Vamos a sugerir solamente dos
entre las más clásicas, ambas citadas en las referencias. Sobre organización perceptual consúltese el capítulo de Kubovy y Pomerantz (1986). Es uno de los
más interesantes y completos, pues tras un planteamiento teórico sobre cuestiones organizacionales en percepción dedica la segunda parte a evidenciar la importancia del principio de pregnancia frente al de probabilidad. Sobre reconocimiento visual resulta obligado citar a un clásico que ha servido de inspiración
para otros trabajos posteriores: es el artículo original de Pinker (1984) aparecido en la revista Cognition cuya primera parte aborda múltiples aspectos de reconocimiento visual, realizando una exhaustiva revisión de las principales teorías y modelos propuestos desde la psicología y la inteligencia artificial.
377
Percepción
Preguntas de revisión
1. Describa los siguientes conceptos:
a) organización perceptual,
b) isomorfismo,
c) figuras imposibles,
d) figuras reversibles,
e) principio de pregnancia,
f) principio de la probabilidad.
2. Contraponga conceptualmente la idea de sistemas lineales frente a la
de sistemas no lineales en el estudio de la organización perceptual.
3. Describa los principios de agrupamiento y de articulación figura-fondo
propuestos por la Gestalt.
4. ¿Cómo se relaciona el grado de bondad de un determinado patrón con
el orden del grupo de simetría?
5. Describa los siguientes conceptos:
a) reconocimiento visual,
b) plantilla,
c) cono generalizado,
d) marco de referencia visual,
e) modelo 3-D,
f) algoritmo de retropropagación.
6. Contraponga la perspectiva métrica frente a la categorial en el estudio
del reconocimiento visual.
7. ¿Cómo se describe el proceso de reconocimiento visual desde el modelo
RBC? ¿Y desde el modelo de alineamiento pictórico?
8. Describa los tres tipos de representaciones admitidos en el modelo de
reconocimiento computacional de Marr y Nishihara.
9. En el estudio de reconocimiento visual, ¿es idéntico el concepto de
normalización que el de alineamiento? Si no lo es, exponga sus diferencias.
378
11. Percepción
de la profundidad,
de la distancia y del tamaño
Enric Munar i Roca
Este capítulo se halla dividido en dos partes estrechamente relacionadas
entre sí y que actualmente forman el grueso de la investigación sobre percepción visual del espacio desde la perspectiva psicológica. En la primera
parte se exponen los indicios que permiten la percepción de la denominada
tercera dimensión o, en otras palabras, la percepción de la distancia y de la
profundidad. Estos indicios se dividen en los de naturaleza binocular (disparidad retiniana y convergencia binocular) y los que se pueden desplegar
en condiciones monoculares (acomodación del cristalino, indicios a través
del movimiento y claves pictóricas). En la segunda parte del capítulo se exponen los conocimientos más destacables sobre la percepción y la constancia del tamaño, destacando la ley del ángulo visual y la ley de Emmert. Finalmente, se describen algunas ilusiones en la percepción del tamaño y en
la percepción de la distancia, indicando algunas hipotéticas explicaciones
al respecto. La ilusión de la luna ocupa el último apartado como fenómeno
ampliamente analizado por los estudiosos de la percepción.
1.
Introducción
Kant (1781) mantenía que el espacio es el presupuesto necesario para la
existencia de objetos, actúa como receptáculo para la aprehensión de los
mismos y se experimenta como una entidad en sí misma. Postulaba que
cada persona nace con una noción espacial, la cual ha evolucionado en la
379
Percepción
especie y no necesita ser aprendida por cada individuo. En el caso de que
cojamos un objeto o un organismo y le quitemos, uno por uno, todos los rasgos empíricos (forma, color, peso, etc.) todavía quedará el espacio que ocupaba el objeto, ahora vacío. Por tanto, el espacio es un medio para aprehender el mundo externo. Según las ideas kantianas, esta noción de espacio es
un constructo mental a priori, el cual organiza datos sensoriales, y no necesariamente debe tener su correlato en el mundo físico. No obstante, la idea
de espacio y de relaciones espaciales ha de ser un reflejo relativamente fiel
de algunos aspectos de la organización del mundo físico o, de lo contrario,
no sería útil para el organismo en su proceso de adaptación.
El concepto de espacio más extendido a lo largo de la historia es la noción descrita bajo la perspectiva de la geometría euclidiana. Se consideran
tres dimensiones espaciales, determinadas física y matemáticamente por
sendos ejes perpendiculares entre sí, habitualmente etiquetados como x, y y
z. El estudio de la psicología de la percepción ha utilizado y utiliza tres dimensiones eventualmente análogas a las anteriores: vertical, horizontal y
profundidad. Por consiguiente, existe la tendencia y la tentación de suponer
que el uso psicológico de las tres dimensiones es una consecuencia de la
realidad externa, descrita en términos de la geometría clásica. Por contra,
algunos autores (Bohr, 1949; Eilan, McCarthy y Brewer, 1993) han señalado la posibilidad de una propuesta inversa, es decir, que la perspectiva de la
física clásica no sea más que una consecuencia del funcionamiento de
nuestro sistema perceptivo del espacio. Berkeley (1709) defendía que el
conocimiento del espacio deriva de las percepciones; las cosas existen en
tanto que son percibidas; cuando dejan de ser percibidas dejan de existir,
debido a que su esencia no es otra que nuestra percepción. En definitiva, se
pueden producir planteamientos circulares y paradójicos: ¿el espacio psicológico-perceptivo es consecuencia de la estructura física del espacio? o ¿la
estructuración física del espacio es consecuencia de nuestra percepción espacial?
La física ha centrado sus investigaciones en el componente exterior a
nuestro organismo y la psicología de la percepción lo ha hecho en el componente mental o interno. Consecuentemente, existen algunas diferencias
relevantes entre el estudio del espacio de la física clásica y el de la psicología de la percepción. En la geometría euclidiana las tres dimensiones anteriormente apuntadas son equivalentes en cuanto a las reglas que las rigen:
aquellos fenómenos (distancia entre dos puntos, paralelismo, etc.) que se
producen en una extensión son, en general, aplicables a las otras dos. Sin
embargo, la psicología no puede considerar una equivalencia funcional entre la percepción de la dimensión vertical, la percepción de la dimensión
horizontal y la percepción de la profundidad o de la distancia. Si bien las
dos primeras dependen de procesamientos muy similares entre sí, basados,
fundamentalmente, en las representaciones retinianas, existen unas leves diferencias entre la percepción de la dimensión horizontal y la de la vertical.
380
11. Percepción de la profundidad, de la distancia y del tamaño
Por ejemplo, somos ligeramente más precisos en la discriminación de posiciones en el plano horizontal que en el plano vertical. En cambio, no hay
ninguna duda de que la percepción de la profundidad y de la distancia sigue
un tratamiento perceptivo diferente al que utiliza la percepción de las otras
dos dimensiones, de ahí que se otorgue a aquélla el calificativo de tercera
dimensión, distinguiéndola de las otras dos.
Este capítulo está dedicado a la percepción visual de la tercera dimensión, en la que podemos distinguir la percepción de la distancia, cuando tratamos la tercera dimensión como percepción de relaciones entre objetos, y
la percepción de la profundidad, cuando nos referimos a la captación de la
tercera dimensión en un mismo objeto. La visión es el sistema perceptivo
que capta más rápidamente y con mayor precisión la información sobre
profundidad y distancia. No obstante, no debemos olvidar que tanto el sistema auditivo como el sistema táctil nos pueden aportar algunas informaciones sobre el espacio. Para ello remitimos al lector a los capítulos 13 y
16, respectivamente. En la segunda parte del capítulo trataremos los fenómenos de la percepción y de la constancia del tamaño, propiedad del objeto
directamente vinculada a la percepción de la distancia.
2.
Percepción de la profundidad y de la distancia
En condiciones normales cualquier imagen que se anteponga al ojo provoca
una representación bidimensional en la retina del mismo. En dicha representación pueden distinguirse posiciones en el plano horizontal y en el plano
vertical. En principio, parece lógico razonar que nuestra percepción del espacio es bidimensional. Las imágenes retinianas, o estímulos proximales de
la visión, no transmiten información directa sobre la distancia entre el observador y los objetos (distancia absoluta) ni entre los diferentes objetos (distancia relativa). Obsérvese la Figura 11.1: la imagen retiniana separa la posición del punto a de la del punto b a partir de la representación de los
correspondientes puntos a’ y b’, que se reflejan en lugares distintos de la retina. En cambio, las representaciones de los puntos a y c se concretan en el
mismo lugar de la retina. ¿Cómo es posible que nuestro sistema visual distinga entre las posiciones a y c? ¿Cómo es posible que, a partir de una representación bidimensional, podamos construir percepciones tridimensionales?
Berkeley (1709), rechazando la suposición racionalista según la cual algunas entidades de nuestra mente son innatas, afirmaba que la tercera dimensión debía percibirse por la asociación de claves visuales con la posición de los objetos, experimentada a través del tacto, argumento postulado,
siglos antes, por algunos pensadores de la Grecia clásica. En una crítica
simple y poco precisa a los planteamientos de Berkeley, podemos señalar
que cualquiera de nosotros puede experimentar el efecto de profundidad
que se origina en la visión de la mayoría de imágenes, incluso en ilustracio-
381
Percepción
Figura 11.1 La representación retiniana delimita la posición de los puntos situados en diferentes posiciones verticales u horizontales, por ejemplo la diferencia de las posiciones a y b correlaciona con la diferencia de sus posiciones retinianas, a’ y b’. En cambio, la representación retiniana no recoge la diferencia de posiciones en distancia, como es el caso de a y c, y sus
correspondientes a’ y c’.
nes elaboradas sobre soportes de dos dimensiones, aunque no poseamos conocimiento táctil del entorno ilustrado. Por ejemplo, podemos comprobar la
percepción de profundidad en la observación de fotografías. Puesto que la
información sobre la profundidad no viene dada de modo inmediato por las
imágenes retinianas de los objetos, tiene que haber algún otro indicio que
nos permita generar una apreciación de la profundidad de los objetos y de
la distancia entre ellos.
Es habitual dar por supuesta la propiedad tridimensional del mundo que
nos rodea. Así, pocas veces reflexionamos sobre nuestra percepción de la
distancia y de la profundidad. Por consiguiente, los indicios que nos proporcionan dicha percepción deben funcionar, en nuestro quehacer cotidiano, a un nivel rápido y poco consciente. Esta rapidez e inadvertencia ha llevado al establecimiento de dos perspectivas sobre los orígenes de la
percepción de la tercera dimensión. Los autores que defienden la perspectiva nativista-racionalista entienden que la percepción del espacio es una facultad innata de la mente o, en otras palabras, que estamos programados o
predispuestos a la percepción tridimensional. La corriente asociacionistaempirista mantiene que dicha percepción es el resultado de nuestra experiencia sensorial, recabada, fundamentalmente, en la infancia. La finalidad
del capítulo presente no es la de analizar dicha controversia, pero sí la de
interesarse por el planteamiento realizado desde ambos enfoques: ¿cuáles
son las claves que utiliza nuestro sistema cognitivo-perceptual para captar
la distancia y la profundidad?
382
11. Percepción de la profundidad, de la distancia y del tamaño
A continuación, se exponen aquellas claves consideradas de mayor relevancia para la consecución de la percepción tridimensional. Pueden realizarse varias clasificaciones de estos indicios. En este capítulo hemos optado por dividir dichas claves entre aquellas basadas en la información
emanada de la visión binocular y aquellas que pueden ser utilizadas monocularmente.
2.1
Indicios binoculares
El hecho de poseer dos ojos es una característica profusamente extendida
en el mundo animal. En concreto, las especies que se consideran que tienen
un mayor grado de desarrollo filogenético poseen un sistema visual compuesto por dos órganos receptores. Ello nos hace suponer que este hecho
proporciona un alto rendimiento en la adaptación al medio, si bien no todas
las especies con dos ojos tienen la misma disposición espacial interocular,
—por ejemplo algunas aves tienen situados los ojos de forma que la unión
de los dos campos visuales abarca, aproximadamente, los 360 grados alrededor del cuerpo. En cambio los seres humanos los tienen situados en dirección a la zona frontal del cuerpo, de forma que el campo visual abarcado
sólo alcanza, aproximadamente, los 200 grados. Como consecuencia de
ello, y si tenemos en cuenta que un ojo humano puede abarcar un campo
visual cercano a los 180 grados, hallamos una amplia zona de solapamiento
entre los campos monoculares (véase el Capítulo 7). ¿Tiene alguna función
este solapamiento? Y si la tiene, ¿cuál es? Existe suficiente evidencia empírica para suponer que el solapamiento de los dos campos visuales proporciona indicios para la percepción de la distancia. En la visión binocular,
como indicio de la percepción de la distancia, podemos distinguir dos claves o procesos que aportan información a este objetivo: la disparidad retiniana y la convergencia binocular.
2.1.1 Disparidad retiniana
Cada uno de nuestros ojos proporciona una perspectiva ligeramente diferente del entorno visible. Para comprobar este hecho, colóquese el dedo índice en posición vertical frente a los ojos, a unos 30 centímetros de distancia. Acto seguido, ciérrese el ojo derecho y obsérvese la relación espacial
del dedo con el fondo: se podrá comprobar que el dedo cubre una parte
concreta del fondo. A continuación ciérrese el ojo izquierdo y ábrase el derecho. Ahora se podrá apreciar cómo la relación de oclusión del dedo sobre
el fondo ha cambiado, es decir, parece como si el dedo se hubiera desplazado hacia la izquierda. A partir de esta evidencia podemos afirmar que las
representaciones retinianas de los dos ojos son ligeramente dispares, y que
383
Percepción
el origen de dicha disparidad retiniana reside en la separación horizontal,
de unos seis-siete centímetros, entre los ojos.
El organismo aprovecha esta disparidad retiniana para realizar estimaciones sobre la distancia entre objetos, es decir, sobre la distancia relativa. Veamos cómo se origina este proceso. Cuando se enfoca la visión en un objeto,
las proyecciones de los ojos convergen en dicho objeto, como lo hacen los
ojos de la figura 11.2-I en la posición a, de forma que su imagen se representa en la fóvea de ambos ojos. Cualquier otro punto que se sitúe en la denominada línea del horóptero (en el dibujo representada mediante la curva
continua), como es el caso de la posición b, provoca un desplazamiento de
sus correspondientes imágenes, respecto a la fóvea, en el mismo sentido y
de igual magnitud en ambas retinas, es decir: el desplazamiento a’-b’, en el
ojo izquierdo, se realiza en el mismo sentido y es de la misma magnitud que
a’’-b’’, en el ojo derecho. Ello quiere decir que existe paridad retiniana en
aquellos objetos situados en la línea del horóptero, y que el sistema visual
estima que estos puntos se hallan a la misma distancia del observador, sin
efectuar estimaciones de la distancia absoluta. No obstante, el fenómeno de
paridad retiniana no se restringe a la línea del horóptero, sino que existe una
zona anterior y una posterior a dicha línea, en las cuales también existe paridad retiniana: es la denominada área de Panum. En la Figura 11.2 viene representada por la zona entre las curvas discontinuas alrededor de la línea del
horóptero. A pesar de que físicamente puede atribuirse disparidad retiniana
entre los puntos del área de Panum, el sistema visual no atribuye disparidad a
las diferencias ocasionadas en la representación retiniana o bien no las detecta.
¿Qué ocurre con aquellas posiciones que se encuentran fuera del área de
Panum? Veamos la situación de la Figura 11.2-II. La posición b se encuentra en la misma dirección que a respecto al punto medio entre los ojos, pero
fuera del área de Panum que ocasiona la línea del horóptero centrada en el
punto a. El desplazamiento de la representación del punto b respecto a la
fóvea es similar en ambos ojos, si bien el desplazamiento b’-a’, en el ojo
izquierdo, es de sentido contrario al a’’-b’’, del ojo derecho; mientras la
imagen de b en el ojo izquierdo se halla a la izquierda de la fóvea, en el ojo
derecho se halla a la derecha de la misma. Por tanto, existe disparidad retiniana y este hecho nos informa de que la posición b se halla más cerca que
la posición a. Si ambos desplazamientos fueran de sentido contrario al expuesto, es decir, si el desplazamiento en el ojo izquierdo fuera a’-b’ y en el
derecho b’’-a’’, siempre suponiendo que a’ y a’’ representan las fóveas, ello
significaría que el objeto situado en la posición b se hallaría a una distancia
absoluta superior al área de Panum correspondiente a la posición a.
En el caso de la Figura 11.2-III, la posición b se halla fuera del área de
Panum y en una dirección diferente de la de a. La consecuencia concreta de
esta situación es que el desplazamiento a’-b’ es mucho más pequeño que el
a’’-b’’, aunque se produzca en el mismo sentido. En consecuencia, también
existe disparidad retiniana entre ambas representaciones, hecho que el sis-
384
11. Percepción de la profundidad, de la distancia y del tamaño
Área de
Panum
Línea del
horóptero
Figura 11.2 La disparidad retiniana es una fuente de información para la estimación de la distancia relativa. Aquellas posiciones que se hallan en la línea del horóptero o en el área de Panum no
provocan disparidad retiniana, como en el caso I en el cual el desplazamiento a’-b’, del ojo izquierdo, y a’’-b’’, del ojo derecho, tienen la misma magnitud y el mismo sentido. En cambio, posiciones
fuera del área de Panum provocan disparidad retiniana a causa de un desplazamiento de sentido
contrario, como en el caso II: b’-a’ y a’-b’, o a un desplazamiento de diferente magnitud como en
el caso III, o a la combinación de ambos factores. La línea del horóptero viene representada por la
curva continua y el área de Panum por la zona entre las dos curvas discontinuas.
385
Percepción
tema visual aprovecha para realizar estimaciones de distancia entre objetos.
Además de estos casos, se pueden encontrar otros ejemplos donde varíe la
combinación entre las direcciones y las distancias de los objetos respecto al
observador, la magnitud del desplazamiento retiniano y el sentido del desplazamiento retiniano, provocando situaciones específicas de disparidad retiniana y aportando información diferente sobre la distancia relativa. El valor mínimo de disparidad retiniana que nuestro sistema visual puede
detectar es el de un micrómetro de diferencia de desplazamiento, una milésima parte de un milímetro.
La disparidad retiniana, además de ser una fuente de información sobre
la distancia relativa, produce algunos efectos fenoménicos de relevante interés en el estudio de la percepción. Los efectos de fusión visual y de doble
visión, se pueden considerar como diferentes resultados del proceso subyacente a la paridad-disparidad retiniana. La fusión visual consiste en la integración de ambas representaciones oculares en un único percepto, ello
ocurre con las representaciones perceptivas de aquellos objetos que se hallan en el área de Panum específica de la situación. En caso de que estos
objetos se hallen fuera de dicha área, se produce el fenómeno de doble visión, es decir, objetos que se hallan por delante o por detrás del área de Panum se perciben de forma doble, debido a que la disparidad retiniana supera los niveles máximos a los cuales nuestro sistema visual puede efectuar la
fusión visual. Podemos provocar un ejemplo de doble visión colocando el
dedo índice frente a nuestros ojos, al igual que en el caso anteriormente expuesto, y enfocar nuestra visión sobre el fondo; como consecuencia de ello
percibiremos doble visión de nuestro dedo, a causa de que éste se halla en
la zona anterior al área de Panum. El fenómeno de visión doble se reproduce en el medio cinematográfico a partir de la borrosidad de aquellos objetos fuera del enfoque visual.
La fusión visual es la base de los conocidos efectos estereoscópicos, los
cuales son producto de la fusión de dos imágenes ligeramente distintas,
proyectadas, cada una a un ojo. Wheatstone (1838) elaboró el primer estereoscopio. Este constaba de dos tablones en los cuales se podían sujetar
sendas imágenes que se reflejaban en dos espejos, para luego, ambas imágenes reflejadas en cada uno de ellos, alcanzar un ojo diferente. Manipulando las imágenes colocadas en los tablones se pueden crear uno u otro
efecto de distancia, semejante al que ocurre en la Figura 11.3. Si se centra
la mirada de los dos ojos en sendas configuraciones —lo que se puede facilitar colocando un folio de unos 25 centímetros entre ambas— conseguiremos, con un poco de paciencia, la fusión perceptiva de ambas imágenes: el
resultado será la percepción de un objeto tridimensional en el cual el rectángulo interior aparece más próximo que el exterior.
Desde la época de Wheatstone hasta nuestros días se han desarrollado
muchos tipos de estereoscopios, hasta el punto de convertirse en productos
de masiva comercialización. Entre ellos, podemos hallar algunas variantes
386
11. Percepción de la profundidad, de la distancia y del tamaño
Figura 11.3 Si se coloca una hoja en blanco entre las dos configuraciones y fijamos la mirada de
cada ojo en cada una de ellas, conseguiremos percibir un objeto tridimensional en el cual el cuadrado interior flotará por delante del exterior.
de destacable interés para la psicología de la percepción: los compuestos
por estereogramas y los compuestos por anaglifos. Julesz (1971) desarrolló
los estereogramas de puntos aleatorios con la idea de analizar el proceso de
la estereopsis. En la Figura 11.4 podemos ver un ejemplo de estereograma
de puntos aleatorios. Si realizamos un procedimiento similar al anteriormente descrito para conseguir el efecto estereoscópico, podremos comprobar que la mirada independiente de ambos ojos a sendas configuraciones
provoca la impresión de un cuadrado tridimensional tras unos segundos de
cierta rivalidad binocular. En la parte inferior de la figura se describe el
modo de elaborar las configuraciones con el objetivo de conseguir el efecto
estereoscópico de un cuadrado en relieve.
Anaglifo es una palabra proveniente del griego que significa escultura
en relieve. En el estudio de la percepción de la profundidad se ha utilizado
este término para referirse a aquellas configuraciones que consiguen el
efecto estereoscópico a partir de la utilización de colores opuestos (véase
Capítulo 9). La configuración se dibuja en verde y rojo (colores opuestos
más utilizados), el observador debe utilizar unas gafas con un filtro rojo en
un ojo y con un filtro verde en el otro y la consecuencia es la recepción de
imágenes diferentes por parte de cada ojo; si los estímulos han sido elaborados para tal fin se obtiene el efecto estereoscópico de profundidad. Frisby
(1979) muestra una gran cantidad de configuraciones que producen dicho
efecto mediante la utilización de anaglifos.
Existen otras formas de conseguir el efecto estereoscópico de profundidad, como, por ejemplo, la utilización de contornos ilusorios. Debido a que
la exposición de estas técnicas ocasionaría un texto excesivamente extenso
387
Percepción
Figura 11.4 Estereogramas de puntos aleatorios: siguiendo el procedimiento descrito en la figura
11.3 podemos obtener la percepción de un cuadrado sobresaliendo de fondo de puntos aleatorios.
En la parte inferior podemos observar cómo ambas configuraciones parten de un mismo patrón de
puntos aleatorios. En el caso del estímulo de la derecha se ha realizado un desplazamiento hacia la
izquierda de un grupo de puntos que forman un cuadrado (c), y la parte descubierta (d) ha sido rellenada por otro conjunto de puntos aleatorios.
para los objetivos planteados en este capítulo, nos parece adecuado remitir
a obras de sumo interés en la temática de los efectos esteroscópicos, como
la anteriormente citada de Frisby (1979), y las de Bruce, Green y Georgeson (1996) y Lillo (1993). Algo similar ocurre con la exposición de los
modelos explicativos del fenómeno estereoscópico y de la fusión visual, es
decir, considerando que la exposición de estos modelos excedería los objetivos de este capítulo, los textos anteriormente citados son una buena referencia para indagar sobre esta materia.
2.1.2 Convergencia binocular
El otro indicio binocular de distancia es el proceso de convergencia de la
mirada de los dos ojos, el cual se basa en el grado de inclinación horizontal
que llevan a cabo ambos ojos. La medida de este indicio se realiza a través
del denominado ángulo de convergencia. En la Figura 11.5, podemos ob-
388
11. Percepción de la profundidad, de la distancia y del tamaño
Figura 11.5 El ángulo de convergencia binocular es mayor cuanto más cerca del observador se
halle el objeto enfocado, en este caso, ␣ es mayor que ␤, debido a que a se encuentra más cerca del
observador que b.
servar la relación que existe entre el ángulo formado por la convergencia de
la mirada de ambos ojos y la distancia a la que se halla el objeto enfocado.
Cuanto más cerca del observador se halle el objeto observado mayor será el
ángulo de convergencia, y menor cuanto más lejos se sitúe el objeto.
El fundamento de esta clave reside en algunos movimientos oculares.
Para que la convergencia binocular sea considerada como un indicio de
profundidad es necesario que nuestro sistema perceptivo sea informado de
dichos movimientos. Sin embargo, han existido dudas sobre la ejecución de
esta retroinformación motora hacia los sistemas centrales, en este caso, perceptivos. En los últimos años, Gamlin, Yoon y Zhang (1996) y Zhang y
Gamlin (1998), a partir de estudios de carácter neurofisiológico, han aportado algunas evidencias de la relación del proceso de convergencia binocular con la actividad de regiones concretas del encéfalo. No obstante, en
aquellas investigaciones que aportan datos en beneficio de la hipótesis de
que el sistema visual utiliza la convergencia binocular para realizar estimaciones de distancia absoluta, se advierte que, probablemente, el uso de esta
clave esté restringido a distancias inferiores a los tres metros, entre el observador y el objeto. En situaciones de ausencia de estímulos visuales adecuados sobre los que proyectar la mirada, la convergencia se produce a una
distancia situada en el intervalo de 25-75 centímetros del observador (Rosenfield, 1997).
389
Percepción
2.2
Indicios monoculares
A pesar de que la disparidad retiniana es una clave potente para la estimación de la profundidad, ello no supone que, para la percepción de la tridimensionalidad, sea imprescindible la visión binocular. Si se cierra un ojo se
comprueba como todavía se pueden realizar estimaciones, más o menos
adecuadas, de las distancias absolutas y de las relativas. Ello significa que
también existen indicios monoculares de distancia y profundidad. No obstante, no serán tan fiables como las que se realizan con visión binocular. A
continuación, se exponen aquellos indicios monoculares más relevantes,
agrupados en tres apartados: la acomodación del cristalino, los indicios derivados del movimiento y las claves pictóricas.
2.2.1 Acomodación del cristalino
La acomodación del cristalino proporciona un indicio basado en un proceso
de adaptación del cristalino, con el fin de reflejar adecuadamente la imagen
del objeto observado en la retina. Los músculos ciliares, mediante los procesos de tensión y distensión, son los responsables de la acomodación del
cristalino. Así, el cristalino puede adoptar una forma redondeada o una forma más plana dependiendo de la distancia a la que se halla el punto de observación. Cuanto más cerca se halle el objeto observado mayor abombamiento del cristalino y, cuanto más lejos, mayor aplanamiento.
Algunos textos presentan conjuntamente las claves de acomodación del
cristalino y de convergencia binocular, debido a que comparten una serie de
características. En primer lugar, ambas claves dependen de movimientos
musculares, de ahí su clasificación como indicios oculomotores o indicios
fisiológicos. En segundo lugar, todavía existe la duda de que ambas claves
sean utilizadas en el proceso de estimación de la distancia, independientemente de que se produzcan ambos fenómenos cuando estimamos distancias, si bien, recientemente, Zhang y Gamlin (1998) han presentado evidencias en este sentido. En tercer lugar, y en el supuesto de aceptar la tesis de
que son claves de profundidad, ambos indicios aportan únicamente información sobre la distancia absoluta, en ningún caso realizan aportaciones a
la percepción de la distancia relativa.
2.2.2 Indicios a través del movimiento
Los indicios de distancia expuestos anteriormente pueden ser utilizados en
situaciones estáticas, aunque en la mayor parte de los casos que actúa la
percepción de la profundidad se produce en circunstancias dinámicas. En el
Capítulo 12 de la presente obra se hallan las particularidades propias de la
390
11. Percepción de la profundidad, de la distancia y del tamaño
detección y percepción de movimiento. En este apartado únicamente trataremos el movimiento como fenómeno que facilita información para la percepción de la distancia y de la profundidad. De esta forma, distinguiremos
dos situaciones, aquella en que el observador se halla en movimiento y
aquella en que es el objeto observado el que se mueve.
2.2.2.1 Paralaje del movimiento
Cuando el observador se mueve ocurre el fenómeno expuesto en la Figura
11.6. En la posición 1, la distancia retiniana entre las representaciones de
los puntos a y b es pequeña. En cambio, después de un desplazamiento hasta la posición 2, la distancia retiniana entre las representaciones de a y b es
mucho mayor. Esta variación nos proporciona información sobre la distancia relativa entre los puntos a y b. El proceso puede ser descrito de la manera siguiente: el desplazamiento retiniano entre a’ y a’’ es mayor que el desplazamiento entre b’ y b’’, ello significa que a se halla más cerca que b.
Además, este caso también nos proporciona una cierta información sobre la
distancia absoluta de ambos puntos, otorgando lejanía al punto b y cercanía
al punto a. Enright (1996) comprobó que la diferencia entre las proyecciones retinianas, antes y después de un movimiento sacádico, permite realizar
una estereopsis secuencial de la situación, es decir: el sujeto realiza un proceso de disparidad retiniana antes del movimiento sacádico; a continuación
se produce el movimiento sacádico y el sujeto vuelve a realizar otro proceso de disparidad retiniana; la diferencia entre los resultados de estos dos
procesos de estereopsis es suficiente para aportar información sobre distancias tridimensionales.
En la literatura sobre el estudio de la percepción, el fenómeno descrito
en la Figura 11.6 se denomina paralaje de movimiento. El concepto de paralaje hace referencia a un cambio de posición. Como consecuencia de este
efecto, podemos señalar que si el observador se halla en movimiento, las
imágenes de los objetos cercanos atravesarán su retina a mayor velocidad
que aquellas imágenes de objetos que se encuentren más alejados. Este
efecto se puede comprobar cuando se viaja en un automóvil. Mirando por
la ventanilla lateral se puede observar qué rápido atraviesan nuestro campo
visual aquellos objetos que se hallan cerca de la carretera, pero, en cambio,
se comprueban los diminutos cambios que se producen en las imágenes de
las montañas lejanas; es más, se puede observar que aquellos objetos más
alejados, como es el caso de la luna, parece que nos acompañan en nuestro
viaje.
391
Percepción
Figura 11.6 Paralaje del movimiento: obsérvese la diferencia del punto retiniano de proyección
de a y b dependiendo de la posición del sujeto (1 ó 2). Si el sujeto se desplaza de 1 a 2 consigue información de la distancia relativa entre a y b a partir de la comparación de la representación retiniana en la posición 1 y de la resultante en la posición 2.
2.2.2.2 Efecto cinético de profundidad
El efecto cinético de profundidad se produce cuando se mueve el objeto observado y, como consecuencia de este movimiento, el observador extrae información sobre la tridimensionalidad del objeto en cuestión. En situaciones estáticas no es sencillo obtener información sobre la profundidad del
objeto observado, aunque las claves de disparidad retiniana, de sombreado
y de familiaridad nos pueden ayudar a extraer dicha información. Sin embargo, el movimiento del objeto nos proporcionará una mayor cantidad de
información sobre su tridimensionalidad. Por tanto, el efecto cinético de
profundidad es una clave de tridimensionalidad del mismo objeto, y no lo
es ni de distancia absoluta, a no ser que se combine con el indicio de tamaño familiar, ni de distancia relativa. Werkhoven y van Veen (1995) comprobaron la relación existente entre la velocidad del objeto y la validez de la
información tridimensional percibida; en concreto, a mayor velocidad menor precisión en la percepción de la profundidad del objeto.
2.2.3 Indicios pictóricos
A partir del Renacimiento, un gran número de pintores empezaron a utilizar algunas de las estrategias pictóricas, actualmente muy extendidas, para
conseguir la percepción de la profundidad en el visionado de sus obras. Es-
392
11. Percepción de la profundidad, de la distancia y del tamaño
tas estrategias fueron inferidas de claves que utilizamos habitualmente en la
vida real para percibir la tercera dimensión. A partir de este hecho, pasaron
a denominarse indicios pictóricos aquellas claves de profundidad que pueden plasmarse en un lienzo o en un dibujo. En general, dichos indicios son
simples consecuencias de la geometría euclidiana. A continuación, se exponen los siete indicios pictóricos que hemos considerado de mayor relevancia, aunque pueden hallarse algunos más.
2.2.3.1 Oclusión
La clave de oclusión, también llamada de interposición, parte del supuesto
que aquellos objetos que cubren parcialmente la posición de otros objetos
se hallan más cerca del observador. Se supone que el objeto que cubre está
situado delante del objeto cubierto (figura 11.7). La oclusión es, probablemente, una de las claves de mayor potencia en la percepción de la distancia
relativa.
Figura 11.7 Se puede comprobar la apariencia de que el cuadrado se halla frente a la elipse, ello
es debido a la clave de oclusión. Obsérvese que, en dicho proceso, también interviene la ley de
cierre de la organización perceptual (véase el Capítulo 10).
2.2.3.2 Sombras
En la observación de un objeto, podemos centrar nuestro interés en la falta
de uniformidad en la iluminación de su superficie. Ramanchandran (1988)
destaca la impresión de solidez que nos produce este efecto de sombreado,
y la información que aporta sobre la estructura y sobre las partes que componen el objeto. Fíjese en la Figura 11.8, donde se puede observar cómo los
objetos que aparecen en la parte izquierda del lector proporcionan una impresión de hendidura en la parte central (convexidad), mientras los de la derecha provocan una impresión de saliencia en la parte central (concavidad).
La explicación de este fenómeno que ha obtenido mayor consenso entre la
comunidad científica procede de la perspectiva de la evolución filogenéti-
393
Percepción
Figura 11.8 Obsérvese como los dos objetos de la izquierda nos proporcionan una impresión de
concavidad; en cambio, los de derecha provocan una percepción de convexidad. Ello es debido a la
distribución de intensidades lumínicas reflejadas por diferentes partes de los objetos o, en otras palabras, por el juego de luces y sombras.
ca: las proyecciones de la luz solar sobre los objetos y la reflexión de estas
luces hasta nuestros ojos tienen unas direcciones específicas (dependiendo
de la situación del sol y de la del observador) que han determinado la distribución de luces y sombras en la percepción de los objetos. Por una parte,
podemos observar que la única diferencia entre los dos tipos de objetos es
la distribución del patrón de iluminación: mientras que los de la izquierda
reflejan una mayor cantidad de luz en dos zonas cercanas a los lados (horizontales en la superior y verticales en la inferior), en los de la derecha el reflejo de iluminación es mayor en su parte central. El haz de luz que ilumina
el objeto procede de posiciones superiores al objeto (al igual que la luz solar) y éste refleja parte del haz al observador. De esta forma, en el supuesto
de que la superficie del objeto sea uniforme en su composición, aquellas
partes del objeto más cercanas al observador reflejarán mayor cantidad de
luz hacia éste, debido al menor recorrido que deberá realizar la luz, que
aquellas partes más alejadas, en las cuales el recorrido será mayor y, por
tanto, habrá un mayor efecto de difracción de la luz. Por tanto, las zonas
blancas producen la impresión de una menor distancia al observador que
aquellas zonas grises o negras. Éste es, en parte, el proceso que subyace a
la técnica conocida con el nombre de claroscuro o combinación de luces y
sombras.
Además del fenómeno de falta de uniformidad en la iluminación de la
superficie de un objeto, también se debe destacar la importancia del efecto
de sombras entre objetos que se produce en la percepción de la profundidad. Este efecto de sombras proyectadas, es decir, de las sombras de objetos que caen sobre superficies contiguas, desempeña un cierto protagonismo en la estimación de distancias relativas.
394
11. Percepción de la profundidad, de la distancia y del tamaño
2.2.3.3 Gradiente de textura
Gibson (1979) propuso que las impresiones de superficies planas son las
unidades básicas para la percepción de la tridimensionalidad, y no los objetos individualizados. Según este autor, la percepción de la distancia de un
punto determinado depende de la situación de dicho punto respecto a las
superficies bidimensionales, como por ejemplo la superficie del suelo, la
de una pared o la de un techo. Estas superficies están estructuradas según
un gradiente de textura. Por gradiente de textura debemos entender la variación de la densidad de textura en relación con la distancia. La densidad
de textura puede ser medida por el número de unidades componentes de la
superficie en una área determinada, entendida esta última como área retiniana. Así, las áreas más cercanas al observador presentarán una menor
densidad de textura que aquellas más alejadas (véase figura 11.9). Ejemplos de este indicio son la observación de un suelo compuesto por baldosas
o el de una pared de ladrillos.
2.2.3.4 Perspectiva lineal
El efecto conocido como perspectiva lineal, en la producción artística, fue
introducido por Alberti en su obra De Pictura en 1435, con el fin de dotar a
sus obras de impresión tridimensional. A pesar de ser una técnica ampliamente utilizada en la pintura y en el dibujo, su origen se halla en la percepción real de la profundidad; la perspectiva lineal también es una clave de
uso frecuente en nuestras percepciones para la construcción de la tercera
dimensión.
El mejor ejemplo para explicar la clave de perspectiva lineal consiste en
el caso de dos líneas paralelas dispuestas en profundidad: cuanto mayor es
la distancia de las líneas al observador será menor la separación, en las representaciones retinianas, entre las dos líneas. De esta forma, dos líneas paralelas dispuestas en profundidad, dan lugar a un punto imaginario de convergencia en el estímulo proximal o en la representación bidimensional del
observador: es el denominado punto de fuga. La Figura 11.9, además del
indicio de gradiente de textura, proporciona la clave de perspectiva lineal:
los cuadrados, que pueden ser observados como baldosas de un suelo, forman líneas paralelas que, en una representación pictórica, tienen menor separación entre ellas a medida que se perciben a mayor distancia. Tanto la
perspectiva lineal como el indicio de gradiente de textura son consecuencias geométricas de la posición del observador. En situaciones reales podemos comprobar cómo se produce una reducción en la magnitud de las proyecciones retinianas del objeto con el incremento de distancia entre éste y
el observador.
395
Percepción
Figura 11.9 El gradiente de textura nos ofrece una fuente de información de profundidad. En la
figura el área que tiene una menor densidad de textura (número de elementos por unidad de espacio) se percibe más cerca que aquella que tiene mayor densidad. En este caso, esta clave se conjuga
con la perspectiva lineal.
2.2.3.5 Perspectiva aérea
La clave de perspectiva aérea se basa en la interferencia atmosférica que se
produce entre el objeto observado y el observador. Las partículas de la atmósfera provocan una serie de distorsiones físicas sobre los rayos de luz;
así, a mayor recorrido del haz de luz, mayor posibilidad de que se produzcan distorsiones. De esta forma, aquellas reflexiones de luz procedentes de
los objetos más alejados sufrirán normalmente una mayor dispersión y,
como consecuencia, el objeto se percibirá más borroso y más azulado. La
explicación de que el objeto alejado proporcione una impresión azulada se
halla en el fenómeno de difracción de Rayleigh, según el cual las longitudes de onda corta (azul) sufren mayor difracción que las largas y esta dispersión, que se halla en la atmósfera y no en los objetos, provoca una impresión azulada en aquellos objetos alejados o en el mismo cielo.
Con relación a la perspectiva aérea conviene destacar la importancia de
la saturación del aire a causa de partículas volátiles en situaciones concretas. Por ejemplo, en las grandes ciudades se produce el efecto de borrosidad en la observación de elementos no excesivamente alejados, y ello es
debido a la cantidad de polución atmosférica existente. En cambio, en lugares montañosos, donde el aire es mucho más puro, podemos observar la nitidez de colinas muy alejadas, hecho que puede inducir a engaño a alguien
que realice apreciaciones de distancias a partir de su perspectiva aérea.
2.2.3.6 Tamaño relativo y tamaño familiar
El tamaño del área que ocupa la imagen de un objeto en la representación
retiniana tiene cierta trascendencia en la apreciación de la distancia a la que
se halla dicho objeto. Cuanto más cerca del observador se halle un objeto,
mayor será el tamaño que ocupa en la representación bidimensional. Por
396
11. Percepción de la profundidad, de la distancia y del tamaño
consiguiente, en la percepción de dos objetos totalmente desconocidos se
aprecia una distancia menor en aquel objeto que ocupa una mayor dimensión de la imagen retiniana que en el que ocupa una área más pequeña (Ittelson y Kilpratick, 1951). Este caso es un buen ejemplo de la clave de tamaño relativo, según la cual se otorga el mismo tamaño a ambos objetos
desconocidos y, en consecuencia, se supone una mayor aproximación al objeto que ocupa una mayor área retiniana.
En cambio, en las situaciones en las cuales conocemos el tamaño del objeto utilizamos esta información para la percepción de la distancia absoluta,
realizando un cálculo más aproximado de la distancia que en el caso de objetos desconocidos. Ésta es la denominada clave del tamaño familiar. Por
ejemplo, si una moneda de cinco pesetas ocupa la misma área retiniana que
una de 500 pesetas, percibiremos como más cerca la primera debido a su
menor tamaño familiar (Epstein, 1965). En el apartado 3 se trata, con mayor detalle, la relación entre la percepción de la distancia y la percepción
del tamaño.
2.2.3.7 Altura relativa
En la Figura 11.10 se observa cómo la situación del conejo en la parte inferior provoca una impresión de cercanía, a diferencia del conejo situado cerca de la línea superior. La clave de altura relativa explica este fenómeno. Si
nos situamos por debajo de la línea del horizonte, aquellos objetos que se
hallan a menor altura nos provocarán una impresión de cercanía, a diferencia de aquellos cuya base se sitúe cerca de la línea del horizonte, los cuales
percibiremos como alejados. En cambio, por encima de la línea del horizonte ocurre el proceso inverso: aquellos objetos situados a menor altura,
es decir, más cerca de la línea del horizonte, se percibirán más alejados que
aquellos que se hallen a mayor altura. Tanto en un caso como en otro, existe una relación lógica con las situaciones reales: el horizonte es el punto
más alejado que el ser humano puede percibir; en consecuencia, aquellos
objetos cercanos al horizonte también son percibidos como lejanos. Según
Cutting (1986) está clave ya fue descrita por Euclides en el siglo III a. C.
2.3
Integración de claves
Hasta ahora se han expuesto, uno por uno, los indicios más relevantes para
la percepción de la profundidad: el paso siguiente consiste en el planteamiento de cómo funcionan conjuntamente estos indicios para conseguir la
percepción tridimensional particular del ser humano. La propuesta tiene difícil solución. Actualmente, pocos autores se han atrevido a postular un
modelo al respecto; por consiguiente, podemos afirmar que no existe nin-
397
Percepción
Figura 11.10 La clave de altura relativa nos indica que el conejo situado en la parte baja de la
imagen produce una impresión de mayor cercanía que el conejo situado en la parte superior. Por
encima de la línea del horizonte la relación es a la inversa: la paloma situada en la parte superior
de la imagen parece encontrarse más cerca del observador que la situada cerca de la línea del horizonte.
gún sistema global consensuado, ni tan solo destacable, que integre el uso
de las diferentes claves de profundidad según situaciones concretas. A partir de investigaciones sobre la inclinación, Zimmerman, Legge y Cavanagh
(1995) proponen un modelo parcial que defiende la existencia de dos o, posiblemente, más representaciones de la dimensión espacial de la profundidad. Estos autores proponen una representación local derivada primariamente de las claves pictóricas y otra representación de la distancia, centrada
en el observador, derivada inicialmente de la disparidad retiniana y del paralaje del movimiento.
Con el fin de dar alguna orientación a lo expuesto hasta este momento,
cabe la posibilidad de utilizar las conclusiones de algunos experimentos
que han empleado más de una clave, ya sea en conflicto o como facilitación, y las deducciones lógicas y razonadas de las mismas. Una primera
conclusión que podemos extraer de este tipo de investigaciones es el hecho
de que la disponibilidad de varios indicios proporciona una percepción más
fiable y más acorde con la realidad que el uso de una única clave. La utilización de la disparidad retiniana junto a la acción de las señales oculomotoras, acomodación y convergencia, parecen ser suficientemente eficaces en
distancias relativamente cortas, y de mayor validez que cualquiera de ellas
de forma individual. Cuando coinciden gran parte de las señales pictóricas
398
11. Percepción de la profundidad, de la distancia y del tamaño
en una escena, en una pintura o en un dibujo, el efecto de profundidad es
más enérgico que en aquella circunstancia donde sólo aparecen uno o dos
indicios. La combinación del efecto de profundidad cinética y la reproducción de paralaje del movimiento en películas cinematográficas potencía la
percepción tridimensionalidad de las escenas.
Una segunda conclusión consiste en la conveniencia de combinaciones
concretas de los diferentes indicios, es decir, la necesidad de combinar procesos de percepción de distancia absoluta y procesos de distancia relativa
para conseguir una percepción tridimensional lo más acorde posible con la
información exterior. Si queremos utilizar dos claves de distancia para captar la tridimensionalidad de una escena visual, parece conveniente emplear
una clave de mayor potencialidad para la distancia absoluta y otra de mayor
peso en la percepción de la distancia relativa. De todas formas, no podemos
olvidar que la percepción de la distancia y de la profundidad no actúa independientemente de otros mecanismos perceptivos. En concreto, la percepción de la distancia tiene una marcada interacción con la percepción del tamaño de los objetos, como vimos anteriormente en el apartado de los
indicios pictóricos de tamaño relativo y de tamaño familiar. Por consiguiente, a continuación, expondremos el funcionamiento de los mecanismos perceptivos básicos para la percepción del tamaño.
3.
Percepción y constancia del tamaño
La percepción del tamaño puede ser estudiada bajo la perspectiva de situaciones estáticas, concretas e individuales, en cuyo caso, en este apartado,
hablaremos del concepto de percepción del tamaño, o bien bajo la perspectiva de situaciones cambiantes, en cuyo caso trataremos el fenómeno denominado constancia del tamaño. En el primer caso, el espectador percibe el
tamaño, únicamente, en función de la reflexión del tamaño real del objeto
en su retina, aunque ésta no suele ser la circunstancia más habitual en la
que nos desenvolvemos, pues el ambiente que nos rodea está frecuentemente compuesto de situaciones en donde se produce movimiento y, además,
cada uno de nosotros posee una experiencia concreta sobre el tamaño de los
objetos. Por consiguiente, si tenemos en cuenta que el tamaño real de un
objeto no depende únicamente de la reflexión de su imagen en nuestra retina, y debido a que el tamaño retiniano va cambiando según se mueva el observador o el objeto, el sujeto deberá adecuar la percepción del estímulo
proximal o imagen retiniana a un tamaño percibido más acorde con la realidad, y ello lo hará en función de su experiencia pasada y de su experencia
inmediata. La experiencia inmediata viene determinada por la información
sobre el movimiento del sujeto o del objeto y por los cambios que se produzcan en el estímulo proximal.
399
Percepción
3.1
Percepción del tamaño
En la percepción del tamaño, entendida en sentido estricto, debemos distinguir dos tipos de situaciones de consecuencias perceptivas claramente diferenciables y que se distinguen por la concepción otorgada al término tamaño. En el primer tipo de situaciones el tamaño se define como la longitud
extendida en el plano formado por las dimensiones vertical y horizontal o
plano frontoparalelo; si se realiza una estimación únicamente en función de
la dimensión vertical se denomina altura, y si se realiza en función de la
horizontal se denomina anchura; este grupo también incluye estimaciones
de tamaño en orientaciones diagonales. En el otro tipo de situaciones el tamaño se define en función de la longitud extendida en el eje de profundidad, o fondo; en este grupo deben incluirse aquellos casos en que se combina la profundidad con el plano frontoparalelo. Mientras que, en el primer
tipo de situaciones, el sistema visual es muy sensible a pequeñas diferencias de tamaño (Munar, 1997), los errores de las estimaciones en el segundo tipo de situaciones se incrementan de forma notable (Norman, Todd, Perotti y Tittle, 1996).
3.1.1 La ley del ángulo visual
En etapas primarias, la percepción del tamaño está relacionada con el tamaño que ocupa la imagen del objeto en la retina o tamaño retiniano. El tamaño retiniano se puede medir indirectamente a partir del ángulo visual. La
ley del ángulo visual afirma que nuestra percepción del tamaño de un objeto está determinada por la magnitud del ángulo visual que ocupa el objeto
(en la comparación entre la figura 11.11-I y la 11.11-II podemos observar
dicha relación). El denominado ángulo visual se determina por el ángulo
que forman dos líneas imaginarias, una extendida desde el ojo hasta el extremo superior del objeto y, la otra, desde el ojo hasta el extremo inferior
del objeto. Cuanto mayor sea el ángulo visual mayor será el tamaño retiniano. De esta manera, si un objeto provoca un tamaño retiniano mayor que
otro, percibiremos el tamaño del primero como mayor que el del segundo,
siempre que percibamos que se hallan a la misma distancia. Sin lugar a dudas, la ley del ángulo visual, o su correlato del tamaño retiniano, es el factor más decisivo en la percepción del tamaño sin información de distancia.
No obstante, existen otros factores que influyen, en menor medida, en la
percepción del tamaño. Veamos cuáles son estos otros factores.
400
11. Percepción de la profundidad, de la distancia y del tamaño
Figura 11.11 El ángulo visual es el ángulo que se forma entre el ojo, como vértice, y los puntos
superior e inferior del objeto observado. En I, dos personas de diferente altura y situadas a distintas
distancias provocan el mismo ángulo visual y el mismo tamaño en la imagen retiniana. En II, la
persona situada en el punto a provoca un mayor ángulo visual y, en consecuencia, una imagen retiniana de mayor tamaño que en el caso I.
3.1.2 Otros factores intervinientes en la percepción del tamaño
La forma interviene en la percepción del tamaño (Anastasi, 1936). Concretamente, aquellos objetos más alargados (rombos o rectángulos) parecen
más grandes que aquellos objetos de igual tamaño pero de forma mucho
más compacta (cuadrados o círculos). El tamaño del fondo también influye
claramente en la percepción del tamaño de la figura; así un objeto que se ve
frente a un fondo grande parecerá más pequeño que aquel mismo objeto
frente a un fondo pequeño (Rock y Ebenholtz, 1959). Otro factor que interviene es la luminosidad percibida; si el fondo es oscuro y la figura del objeto es más clara, el objeto parecerá más grande que el mismo objeto oscuro
en un fondo más claro (van Erning, Gerrits y Eijkman, 1988), además, a
mayor contraste de luminosidad entre figura y fondo existe una percepción
de tamaño mayor que a menor contraste. Recientemente, Bertamini, Yang y
Proffitt (1998), utilizando distancias grandes, han comprobado que los juicios de tamaño relativo son más precisos cuando los objetos se sitúan cerca
del horizonte que cuando la ubicación de éstos se halla lejos de él.
401
Percepción
3.2
Constancia del tamaño
Atendiendo únicamente a los factores anteriormente mencionados, no podemos explicar la razón por la que consideramos que el tamaño de nuestro
amigo, que se está alejando, es constante a pesar de la disminución del tamaño retiniano de su imagen. La constancia del tamaño es un fenómeno
perceptivo según el cual el tamaño de un objeto tiende a ser percibido relativamente invariable a pesar de los cambios de tamaño que se produzcan en
nuestra imagen retiniana.
Sin lugar a dudas, estos cambios son debidos a los desplazamientos en
distancia entre el observador y el objeto. Por tanto, se establece una relación indirecta entre la constancia del tamaño y la percepción de la distancia
(Figura 11.11-I). Monserrat (1998) nos presenta la relación formal entre la
altura del objeto (H), la distancia entre sujeto y objeto (D) y el ángulo visual (a):
H = 2 · D · tangente (a/2)
Para calcular el ángulo visual a partir de la altura y de la distancia del
objeto, podemos despejar a y la fórmula queda como sigue:
a = 2· arctan [H/(2D)]
Habitualmente se define la constancia del tamaño a partir de la percepción de la distancia, es decir, la constancia del tamaño es un fenómeno según el cual mantenemos el tamaño percibido de un objeto a pesar de que
varíe la distancia entre nosotros y el objeto. Respecto al estudio de esta relación, nos parece adecuado destacar dos eventos históricos: la ley de Emmert y el experimento de Holway y Boring (1941).
3.2.1 La ley de Emmert
Emmert, en 1881, comprobó que el tamaño de una postimagen retiniana
parece mayor si el estímulo se proyecta sobre una superficie más distante
que sobre una más cercana (Boring, 1942). Fácilmente, se puede repetir el
procedimiento utilizado por Emmert para llegar a semejante conclusión.
Para ello, se fija la mirada durante un minuto, aproximadamente, en un círculo negro de unos dos centímetros. A continuación, se observa el espacio en
blanco contiguo al círculo y se logra un postefecto de la imagen con su tamaño percibido específico; si se parpadea ligeramente se puede lograr un
mayor efecto de la postimagen. Posteriormente, se repite la operación, pero
ahora proyectando la postimagen en una pared blanca; se puede comprobar
cómo el tamaño percibido de esta segunda postimagen es mucho mayor que
402
11. Percepción de la profundidad, de la distancia y del tamaño
el de la primera. A partir de esta observación, Emmert formuló la siguiente
relación: TP = TR x DP, donde TP es el tamaño percibido, TR es el tamaño
retiniano, y DP es la distancia percibida. La ley de Emmert ofrece una relación formal entre tamaño percibido y distancia percibida.
3.2.2 El experimento de Holway y Boring (1941)
Holway y Boring (1941) llevaron a cabo una serie de experimentos a partir
de los cuales demostraron la importancia de la información de la distancia
en la determinación de la constancia del tamaño. El sujeto se colocaba en la
intersección, en ángulo recto, que formaban dos pasillos. Los estímulos
eran discos de luz situados en uno de los pasillos a diferentes distancias (de
3 a 36 metros). Para cada distancia se seleccionaba un disco de diferente tamaño, de forma que todos los discos proyectaran en la retina el mismo grado de ángulo visual. El sujeto estimaba el tamaño del estímulo comparando
con un modelo situado en el otro pasillo, a una distancia de unos 10 metros.
El experimentador variaba el tamaño del modelo de comparación hasta que
el sujeto le indicaba que había conseguido una equiparación satisfactoria.
Se dispusieron cuatro condiciones diferentes, las cuales dependían del número de claves disponibles de distancia. Los resultados mostraron que a
mayor número de claves disponibles de distancia más correlacionaba el tamaño percibido con el tamaño real. En consecuencia, comprobaron que la
constancia del tamaño depende de la percepción de la distancia. Sin información acerca de la distancia, no conseguimos una buena constancia del tamaño. En un experimento similar (Lichten y Lurie, 1950) se eliminaron todas las claves de profundidad mediante el uso de pantallas, de forma que
sólo se permitía contemplar los círculos de prueba. En tales condiciones, se
eliminó la constancia del tamaño y las percepciones de los sujetos se ajustaron plenamente a la ley del ángulo visual. Por tanto, parece evidente la
existencia de un mecanismo de calibración tamaño-distancia.
3.2.3 Otras explicaciones de la constancia del tamaño
Los principios de la explicación expuesta anteriormente, según la cual un
observador calcula el tamaño de un objeto percibido combinando su tamaño retiniano y la distancia percibida, fueron propuestos por Helmhotz
(1866). Según este autor dichos cálculos no se realizan de una forma consciente, de ahí el término de inferencia inconsciente tan célebre en los escritos de Helmhotz. Otros autores han utilizado otros conceptos para referirse
a este tipo de explicación, como los de teoría de la toma en consideración
(Rock, 1985) o hipótesis de no variación del tamaño y la distancia (Matlin
y Foley, 1996). Aunque esta explicación es la que ha conseguido mayor
403
Percepción
consenso, existen algunos hallazgos no explicables desde esta perspectiva.
Por ejemplo, Brenner, van Damme y Smeets (1997) presentan unas conclusiones experimentales según las cuales la información cinestésica de la distancia del objeto no mejora los juicios visuales del tamaño del objeto.
Algunos autores han propuesto que la proporción entre el tamaño de la
imagen retiniana de un objeto y el de otro objeto puede servir de marco de
referencia para lograr la constancia del tamaño. De esta forma, la percepción y la constancia del tamaño de un objeto pueden explicarse mediante la
razón entre el ángulo visual de un objeto y el ángulo visual de otro objeto.
Esta explicación ha recibido varios nombres: teoría de la relación entre estímulos (Rock, 1985), principio de proporcionalidad (Dember y Warm,
1990) y explicación del tamaño relativo (Matlin y Foley, 1996).
No podemos olvidar la explicación de la constancia del tamaño que se
ofrece desde la perspectiva ecológica. Gibson recurre al concepto de invarianza o invariante, según el cual los aspectos de la percepción, como el tamaño, persisten en el tiempo y en el espacio y no sufren cambios durante
ciertas transformaciones como, en el caso de la constancia del tamaño, las
variaciones en distancia entre observador y objeto. Por consiguiente, según
Gibson, el tamaño es un aspecto inherente al objeto que la percepción capta
de forma inmediata y que no varía a pesar de los cambios del estímulo proximal.
3.3
Ilusiones visuales de tamaño y distancia
Nuestra experiencia diaria de la percepción del tamaño está dominada por
la constancia del tamaño. Ello es así a causa de que nuestra experiencia
suele darse en condiciones en las que existe suficiente información válida
sobre la distancia. No obstante, podemos hallar algunas situaciones en que
la información perceptiva sobre la profundidad y el tamaño provoque ilusiones perceptivas, en nuestro caso, de distancia y de tamaño. Es decir, situaciones en las que la información perceptiva del evento no correlaciona
de forma fiel con la información del exterior. Sin embargo, debemos tener
en consideración que las ilusiones visuales forman parte del funcionamiento normal de nuestra visión: todas las personas las perciben de forma ilusoria y, podemos afirmar, que es el coste que debe asumir el sistema visual
por el tipo de procedimiento que ejecuta. Es más, los estudiosos de la percepción utilizan las ilusiones para desvelar las claves de funcionamiento del
sistema visual.
En este apartado no es nuestra intención realizar una exposición exhaustiva de las ilusiones visuales. Simplemente, expondremos, de forma breve,
algunos casos de ilusiones de tamaño y la clásica ilusión de la luna. Gregory (1970, 1986), Gregory y Gombrich (1973), y Wade (1990) aportan extensa información sobre las ilusiones visuales.
404
11. Percepción de la profundidad, de la distancia y del tamaño
3.3.1 Ilusiones de longitud y profundidad de líneas
Con el concepto de ilusiones de longitud y profundidad de líneas nos referimos a las estimaciones ilusorias sobre el tamaño de los objetos componentes de una configuración estimular, provocadas por una determinada
disposición de las líneas constituyentes de dicha configuración. En la Figura 11.12 aparecen algunos ejemplos de este tipo de ilusiones. En la ilusión
de Müller-Lyer (a) la línea con puntas de flecha hacia adentro se aprecia
más larga que la otra línea, cuando, en realidad, son del mismo tamaño. En
la ilusión de Ponzo (b), la caja situada en la parte superior parece de mayor
tamaño que la situada en la parte inferior, siendo físicamente las dos cajas
iguales, ello es debido a la impresión de profundidad que ocasiona la disposición de las dos líneas laterales, esta ilusión parece depender de los mismos mecanismos subyacentes que el indicio de profundidad de perspectiva
lineal. En la ilusión horizontal-vertical (c) la línea vertical parece de mayor
longitud que la horizontal, cuando en realidad son iguales. En el paralelogramo de Sander, la línea discontinua de la izquierda parece de mayor lon-
a
c
b
d
Figura 11.12 Ilusiones de longitud de líneas: a) ilusión de Müller-Lyer; b) ilusión de Ponzo; c)
ilusión horizontal-vertical; d) paralelogramo de Sander.
405
Percepción
gitud que la línea discontinua de la derecha, siendo ambas de la misma longitud.
Se han realizado varias propuestas para la explicación de las ilusiones de
longitud y profundidad de líneas. Según la teoría de la constancia mal aplicada estas ilusiones pueden interpretarse como la representación de un espacio tridimensional en uno bidimensional, de forma que la aplicación
correcta de los indicios de distancia y de las reglas de la constancia del tamaño provocan el surgimiento de una ilusión (Gregory, 1970; Luo y Wang,
1997). La teoría del movimiento ocular defiende que la explicación radica
en el patrón de los movimientos oculares necesarios para inspeccionar la
configuración estimular: por ejemplo, en la ilusión de Müller-Lyer existiría
un mayor recorrido ocular en la inspección de la línea con puntas de flecha
hacia adentro que en la inspección de la otra línea (Coren, 1981). Para un
mayor conocimiento sobre los modelos explicativos de este tipo de ilusiones consúltese alguno de los siguientes textos: Gregory (1970), Gillam
(1980), Matley y Foley (1995) o Higashiyama (1996).
3.3.2 Ilusiones de la magnitud de áreas
En las ilusiones de tamaño y de distancia, además de las que involucran la
longitud y la profundidad de líneas, existen otros tipos de ilusiones, como
pueden ser las relacionadas con la apreciación de áreas. La habitación de
Ames es la más clásica de este segundo tipo de ilusiones. Para conseguir
esta ilusión se construye una habitación que, desde el punto de vista del observador, parece cuadrada, aunque, realmente, el vértice de la izquierda del
observador se halla a mayor distancia que el derecho; ello se consigue manipulando algunas claves de profundidad (el tamaño relativo de los objetos
que componen la habitación, la perspectiva lineal de los lados superiores e
inferiores de ventanas y paredes, el gradiente de textura del suelo, etc.). Entonces una persona se coloca en el vértice izquierdo y otra en el derecho; el
observador, al creer que se hallan a la misma distancia absoluta, estima que
la persona del vértice izquierdo es mucho mayor que la del derecho, ya que
basa su juicio, única y exclusivamente, en el ángulo visual que ocupan las
imágenes de ambas personas en su retina.
En este tipo de ilusiones podemos encontrar aquellas en las que la comparación de dos magnitudes de sendas áreas se ve influida por el entorno
que rodea dichas áreas. En la ilusión de Delboeuf se compara la magnitud
de dos círculos de área idéntica: uno (a) rodeado por un círculo mayor que
éste, mientras en el otro (b) se halla un círculo menor en su interior; el área
de (b) parecerá mayor que el área de (a).
406
11. Percepción de la profundidad, de la distancia y del tamaño
3.3.3 La ilusión de la luna
La ilusión de la luna consiste en la percepción de un mayor tamaño de la
luna cuando se halla cerca del horizonte que cuando está situada en el cenit.
Según algunos estudios, la luna se percibe un 30 por ciento mayor en una
condición que en otra. El ángulo visual que ocupa la imagen de la luna en
nuestra retina es el mismo en ambos casos, por lo que, la explicación no
puede provenir de la ley del ángulo visual. Desde la Antigüedad se ha intentado hallar una explicación a este fenómeno y, por este motivo, son numerosas las aportaciones en este sentido. Hershenson (1989) presenta una
compilación de posibles explicaciones al fenómeno de la ilusión de la luna.
La propuesta que, en la actualidad, tiene mayor aceptación es la teoría de la
distancia aparente; esta explicación parte del supuesto de que un objeto
contemplado cerca del horizonte da la impresión de mayor lejanía que otro
situado en el cenit. Ello es debido a que, en el caso de la luna situada cerca
del horizonte, se visualiza una configuración en la que existe un espacio
poblado de objetos en el recorrido entre el observador y la luna. En cambio,
cuando se halla en el cenit no suele aparecer ningún otro objeto en la configuración que se contempla y este hecho provoca una apariencia de menor
distancia entre el observador y la luna. Por tanto, ya que en las dos situaciones la luna ocupa el mismo ángulo visual y en el horizonte se percibe más
alejada, aplicando la ley de Emmert obtendremos que la luna situada cerca
del horizonte se percibe más grande que cuando se ubica en el cenit.
Bibliografía comentada
La obra de Bruce y Green (1990) Percepción Visual se halla traducida al castellano.
En ella podemos hallar una breve exposición de los indicios de profundidad y,
lo que es más interesante, un buen resumen de los modelos explicativos de la
estereopsis y, en concreto, de la fusión visual.
En la misma línea, Frisby (1979) nos presenta un adecuado compendio de los modelos explicativos de fusión visual y un gran número de ejemplos de anaglifos y
estereogramas.
Goldstein (1984), además de exponer, de forma breve, los distintos indicios de profundidad, presenta un adecuado resumen de la perspectiva ecológica de Gibson
en el tema de la percepción de la distancia y la profundidad. También aparece
un capítulo dedicado exclusivamente a las constancias perceptuales.
La obra de Matlin y Foley (1995), es una adecuada referencia, tanto para la comprensión de la percepción de la profundidad como para la de la percepción del
tamaño. No obstante, debe destacarse, fundamentalmente, por su exposición de
los conocimientos sobre la constancia del tamaño y sobre el estudio de las ilusiones visuales.
La obra de Rock (1985), tiene dos capítulos de destacable interés para la materia
tratada. En el capítulo «Múltiples caminos llevan a la tercera dimensión» se rea-
407
Percepción
liza una buena exposición de las principales claves de profundidad, así como del
origen de la percepción de la profundidad. En el capítulo «Ilusiones geométricas» se realiza una brillante exposición de las principales ilusiones visuales estudiadas en el ámbito de la psicología.
En general, la obras de Gregory (1970, 1973, 1986, entre otras) son un buen referente para el estudio de las ilusiones visuales asociadas al tamaño y a la distancia, aunque ninguna de ellas ha sido traducida al castellano. En la misma línea,
podemos hallar la obra de Wade (1990) con gran cantidad de ejemplos de ilusiones visuales.
Preguntas de revisión
1. En este caso se propone un ejercicio que consiste en la aplicación de
los conocimientos expuestos anteriormente. En concreto, a partir de
los avances sobre estereopsis realizados por Julesz (1971), el lector
debe configurar un estereograma de puntos aleatorios, de forma que la
observación del mismo, en las condiciones pertinentes, provoque la
percepción de un círculo que realce sobre el fondo. Como alternativas a
la figura a realzar podemos ofrecer las de un triángulo, un rombo o el
de una línea de medio centímetro de grosor.
2. En la vida cotidiana hacemos uso de los indicios pictóricos de profundidad, si bien su denominación proviene del campo de la pintura y del
dibujo. La tarea de este ejercicio es conseguir una reproducción de un
dibujo, de una pintura o de una foto en la que podamos hallar los siete
indicios pictóricos expuestos anteriormente. Esta reproducción se debe
acompañar de un comentario donde se ejemplifique cada uno de los indicios, a partir del contenido de la reproducción.
3. Se sitúa un objeto (a) de 30 centímetros de altura a 3 metros del observador y otro objeto (b) de 40 centímetros a 4,5 metros del observador: ¿cuál de los dos ocupa un mayor tamaño retiniano en altura? A
continuación, el observador estima correctamente la distancia del objeto (a), pero yerra en la estimación del objeto (b), situándolo a una
distancia de 337 centímetros: ¿qué conclusión extraerá el observador
sobre los tamaños percibidos de ambos objetos?
4. La teoría de la distancia aparente es la propuesta que mayor consenso
ha conseguido en la búsqueda de explicaciones para la ilusión de la
luna. La tarea, en esta pregunta, es la de hallar una ilusión similar en
cuanto pueda ser explicada por la teoría de la distancia aparente, e in-
408
11. Percepción de la profundidad, de la distancia y del tamaño
tentar comentar y describir el fenómeno hallado. Una ligera pista se
puede obtener en la observación de barcos situados en el mar, a través
de las calles de la ciudad, para aquellos que habiten en la costa, o en
la visualización de montañas a través de las calles para aquellos que
las puedan observar desde su localidad.
5. «Lena saltaba y oscilaba al ritmo de la calesa, pero aquello carecía de
importancia nada a fin de cuentas tenía importancia en aquel lento desaparecer que es un viaje en calesa. Yo estaba absorbido por algo más,
un algo incorpóreo, formado por la relación entre la velocidad con la
que desaparecían los objetos más próximos y la más lenta de los objetos más distantes, así somos por la inmóvil presencia de aquellos situados a gran distancia... eso dominaba mi atención.» ( W. Gombrowicz, Cosmos, p. 131). En el fragmento anterior se describe un
fenómeno que se ha tratado durante la exposición del capítulo: ¿cuál
es este fenómeno? Además, el lector debe comentar el fragmento anterior a partir de la utilidad perceptiva señalada en el capítulo. También
deben incorporarse esquemas gráficos que ejemplifiquen los fundamentos geométricos de este fenómeno.
6. Elabora un par de anaglifos con el objetivo de percibir una cruz, u otro
objeto simple, en relieve. Puede realizarse con el par de colores opuestos rojo-verde o con el par amarillo-azul. Para construir las gafas pertinentes puedes utilizar papeles transparentes de colores.
7. Diseña una situación experimental para poder evaluar la importancia
de la acomodación del cristalino como indicio de profundidad. Para
ello, debes evitar la influencia del resto de claves de profundidad.
409
12. Percepción
del movimiento
Enric Munar i Roca y Jaume Rosselló Mir
En este capítulo se exponen los conocimientos más relevantes sobre la percepción del movimiento. Tras la introducción al tema, se desarrolla en el
segundo apartado una conceptualización sumaria de la terminología fundamental, ofreciendo al lector algunos valores psicofísicos de interés para
la percepción de movimiento real. El tercer apartado trata sobre el movimiento ilusorio, a menudo referido como movimiento aparente. Siguiendo
los cánones clasificatorios tradicionalmente aceptados, se describen los
cuatro tipos de ilusión del movimiento: movimiento estroboscópico, movimiento inducido, movimiento autocinético y postefectos de movimiento. A
continuación, se exponen las principales perspectivas de estudio de la percepción visual del movimiento. En primer lugar, se describen los postulados básicos de la aproximación ecológica, desarrollada a partir de la
aproximación de Gibson. En segundo lugar, la perspectiva computacional
nos introduce a la forma en que se elabora la información de movimiento
para culminar en un percepto. Finalmente, se ofrece una panorámica de los
resultados que, obtenidos desde la aproximación de las neurociencias, introducirán al lector a la forma en que cooperan distintas regiones de nuestro cerebro para que podamos ver el movimiento. El quinto apartado se dedica a la percepción auditiva del movimiento, a menudo subestimada, pero
que, sin duda, ha generado un cuerpo de conocimientos de inestimable valor. Como en el caso de la modalidad visual, hemos creído conveniente dividir este apartado tratando en primer lugar los contenidos de carácter
psicofísico, para profundizar finalmente en su base neural.
411
Percepción
1.
Introducción
Movimiento es una palabra muy utilizada en nuestro vocabulario cotidiano.
Esto se debe, en parte, a la gran cantidad de acepciones que presenta. Concretamente, en el Diccionario de la lengua española, de la Real Academia,
podemos hallar hasta catorce. La primera de ellas define que movimiento
es «acción y efecto de mover o moverse» (p. 1410). Si, por extensión, atendemos al significado del verbo mover podemos hallar la siguiente definición: «hacer que un cuerpo deje el lugar o espacio que ocupa y pase a ocupar otro» (p. 1409). En este marco, podemos introducir el concepto de
percepción del movimiento y definirlo como la capacidad cognitiva que
posee un organismo que le permite captar, de forma inmediata, el cambio
de lugar de un objeto o de un cuerpo y, a la vez, aprehender algunos atributos relacionados con este cambio (velocidad, dirección, etc.).
Resulta sorprendente la ingente cantidad de investigaciones que, desde
la psicología evolutiva, incorporan el movimiento en sus tareas experimentales para examinar otras habilidades (por ejemplo, la permanencia del objeto), dando por sentada, incluso en el recién nacido, una buena capacidad
para percibir movimiento (Nelson y Horowitz, 1987). Esta importancia
otorgada a la percepción del movimiento en el estudio del desarrollo ontogenético puede ser explicada desde diversas perspectivas. Una de ellas afirmaría que el desarrollo de un número importante de funciones perceptivas
(visuales, auditivas y táctiles) depende de una adecuada estimulación ambiental basada en el movimiento, de forma que la sensibilidad a la percepción del movimiento se halla presente a partir del nacimiento, requiriendo
tan sólo de una mínima facilitación. El sistema nervioso de los mamíferos
parece tener preinstalada la percepción del movimiento. Algunos autores
han sugerido que esta predisposición biológica puede ser adaptativa para el
neonato, en el sentido de que responder a un objeto en movimiento puede
ser más importante que saber exactamente qué es lo que se mueve (Sekuler,
1975). Por tanto, la percepción del movimiento parece ser una habilidad
fundamental en los recién nacidos.
Desde el punto de vista filogenético, Sekuler (1975) comenta que, durante la evolución, es posible que la percepción del movimiento fuera moldeada
por presiones selectivas más fuertes y directas que las que determinaban
otros aspectos de la visión. De esta forma, es más importante responder rápidamente a un objeto que ha sido arrojado en nuestra dirección que identificar qué objeto es. Este mismo autor señala que, después de una lesión cerebral que causa pérdidas temporales de las funciones visuales, la primera
función que se recupera es la percepción del movimiento (véase el apartado
4.3.1, para una mejor compresión de los mecanismos neurales que pueden
dar cuenta de este hecho).
Walls (1963) indica que la visión humana es un complejo de abundantes
y ricas experiencias, y que el ser humano se ha diversificado tanto en inte-
412
12. Percepción del movimiento
reses y hábitos que pocos individuos valoran del mismo modo su capacidad
de ver. Según Walls, si preguntásemos a un relojero, éste destacaría la precisión; un astrónomo enfatizaría la sensibilidad; un pintor, posiblemente,
daría más importancia al color. «Pero si preguntáramos a los animales que
inventaron el ojo del vertebrado, los cuales mantienen la patente sobre la
mayoría de los rasgos del modelo humano, el registro visual de movimiento
sería el de mayor importancia.» (Walls, 1963, p. 342).
Dada la relevancia de la aprehensión de movimiento para nuestro sistema perceptivo, pensamos que vale la pena exponer por separado las dos
grandes categorías de percepción del movimiento tradicionalmente descritas. La primera categoría se refiere a la percepción de movimiento real, es
decir, en este caso la percepción del movimiento se basa en el desplazamiento de un objeto de un lugar a otro en el mundo físico. En otros términos, podemos hablar de percepción verídica del movimiento, concepto según el cual la información adquirida a través de una modalidad perceptiva
es consistente con la información adquirida a través de otros canales perceptivos o cognitivos, y puede ser contrastada por la acción (Kolers, 1972).
En la segunda categoría, la percepción del movimiento no se corresponde a
un desplazamiento real de un objeto, sino que viene determinada por unas
características situacionales o contextuales que provocan movimiento aparente sin que exista movimiento en el mundo físico: es el caso de la ilusión
de movimiento.
2.
Percepción del movimiento real
No siempre que se produce movimiento físico el sujeto percibe movimiento. Por ejemplo, sabemos que las agujas del reloj se mueven, deducción a la
que podemos llegar tras observar que, en un momento dado, el minutero
está sobre las nueve, mientras al cabo de quince minutos se encuentra sobre las doce. En cambio, podemos no percibir directamente el movimiento
de esa aguja, y mucho menos el de la que marca las horas. A menudo, percibir o no movimiento depende de una serie de variables no siempre tan obvias como las que intervienen en el caso de las agujas del reloj. Los investigadores de la percepción del movimiento han considerado pertinente
determinar qué parámetros psicofísicos intervienen en la percepción de
movimiento y cuáles son los valores que han de tomar dichos parámetros
para provocarla.
El umbral de velocidad de detección de movimiento es, posiblemente, el
parámetro psicofísico más destacado, y se define como la velocidad mínima a la que un objeto debe desplazarse para que un observador detecte movimiento. Aubert (1886) comprobó que la velocidad mínima para detectar
una línea en movimiento es de 10 a 20 minutos de arco visual por segundo
(‘/s). Sin embargo, si se coloca un marco de referencia —por ejemplo un
413
Percepción
rectángulo que encuadre el punto inicial y el punto final de desplazamiento—, el umbral desciende a 1 o 2 ‘/s (véase Figura 12.1). Por tanto, se puede afirmar que el umbral de velocidad de detección de movimiento varía
según el entorno del objeto. Un marco de referencia como el anteriormente
descrito también influye en la apreciación de la aceleración, de forma que
un objeto que se acerca a una velocidad constante a uno de los lados del
rectángulo parece aumentar su velocidad a medida que se halla más cerca
de éste (Brown, 1931a).
aa
bb
cc
Figura 12.1 El umbral de velocidad de detección de movimiento es mucho mayor en la situación
a que en la b o en la c.
El marco de referencia no es el único factor que influye en el valor del
umbral de velocidad de detección de movimiento. Veamos algunos ejemplos. En primer lugar, el umbral no se ve afectado por la presencia de marcos de referencia con estímulos de breve duración (250 milisegundos), pero
sí con presentaciones más largas (Leibowitz, 1955). Por otra parte, el umbral disminuye con un aumento de luminancia (Leibowitz, 1955). También
resulta más fácil detectar movimiento en el centro del campo visual cuando
no hay movimiento en la periferia que cuando lo hay (Mundt, 1988). Asimismo, el conocimiento sobre la dirección en que se moverán los estímulos
influye también en los valores del umbral: si se conoce la dirección del movimiento se obtendrán umbrales menores (Matlin y Foley, 1980).
Otra variable de importancia en la percepción del movimiento es la relación entre el tamaño del objeto y el marco de referencia en el cual se mueve. El efecto de transposición de velocidad surge del fenómeno subyacente
a esta relación. La transposición de velocidad muestra que es posible percibir como iguales dos velocidades diferentes en objetos de distinto tamaño,
a pesar de que la velocidad de uno de ellos sea mayor que la del otro. Esto
se debe a dos factores: el tamaño de los objetos y los marcos de referencia.
414
12. Percepción del movimiento
Brown (1931b) pidió a los sujetos que igualasen la velocidad de un punto
de gran tamaño que se movía a través de un rectángulo grande a la de un
punto diminuto que se movía a través de un rectángulo menor (véase Figura
12.2). Los resultados demostraron que, cuando el primer rectángulo era
diez veces más grande que el otro, el punto mayor tenía que moverse siete
veces más deprisa que el pequeño para conseguir la misma velocidad aparente. Este fenómeno tiene importantes implicaciones para la proyección de
material cinematográfico (Goldstein, 1988).
Figura 12.2 Transposición de velocidad: para que ambos estímulos se perciban a la misma velocidad, el círculo grande deberá moverse más deprisa que el pequeño.
La constancia de la velocidad es otro efecto relevante, según el cual, en
determinadas circunstancias, un aumento de velocidad retiniana (velocidad
a la que se van activando los receptores retinianos) no se corresponde con
un aumento de velocidad percibida. Más concretamente, podemos decir
que si mantenemos la velocidad constante de un objeto que se desplaza de
derecha a izquierda y nos vamos alejando de este objeto, la velocidad percibida seguirá siendo la misma, a pesar de que el distanciamiento haya provocado un descenso notable en la velocidad angular a la que se desplaza el
objeto a través del campo visual y, por consiguiente, en la velocidad a la
que se desplaza su imagen en nuestra retina.
La falta de correlación entre la velocidad percibida y la velocidad retiniana también se produce cuando seguimos con nuestra mirada un objeto
en movimiento. Aunque mantengamos la representación del objeto en la
misma zona retiniana, percibimos movimiento del objeto en cuestión (véase el apartado 4.3.2 para conocer los posibles mecanismos neurales que explican este fenómeno). Resulta evidente que la percepción del movimiento
no depende exclusivamente de la existencia de movimiento en la representación retiniana del objeto. Un enfoque de gran poder heurístico es el que
recoge Mack (1986), distinguiendo entre claves de movimiento relativo y
claves de movimiento absoluto. Las primeras, también llamadas claves exo-
415
Percepción
céntricas, percepciones configuracionales o claves relativas al objeto, dependen totalmente de la información retiniana y nos dan información del
desplazamiento de un objeto en relación con otro o con el fondo. Sin embargo, estas claves no nos informan de qué objeto se mueve: el desplazamiento relativo entre dos objetos puede ser producto del movimiento de
cualquiera de los dos o de ambos. En cambio, las claves de movimiento absoluto, también llamadas claves relativas al sujeto o egocéntricas, dependen de la comparación entre las claves retinianas y las extrarretinianas
(p.ej., el movimiento de los ojos o de la cabeza) y pueden ayudarnos a solucionar esa ambigüedad. Normalmente, ambos tipos de claves coinciden.
Sin embargo, en el caso de conflicto, cabe destacar que son las relativas (al
objeto) las que predominan, determinando nuestra percepción del movimiento (Mack, 1986) (véase apartado 4.3, para las bases neurales del procesamiento de esas claves).
3.
Ilusiones de movimiento o movimiento aparente
Puede resultar paradójico que en un gran número de investigaciones sobre
el estudio de la percepción del movimiento se hayan utilizado estímulos estáticos (Rechea, 1992; Perrott y Strybel, 1997). Para hablar del fenómeno
subyacente a la percepción de movimiento en condiciones estáticas es frecuente recurrir al término de movimiento aparente (Kolers, 1972; Rechea,
1992; Perrott y Strybel, 1997). Sin embargo, consideramos que este término puede llevar a engaño, ya que también se produce movimiento aparente
en la mayoría de situaciones en las que existe movimiento real, aunque hay
que tener en cuenta que el constructo se acuñó con la intención de referirse
a la percepción de movimiento que no fuera causada por un movimiento
real del objeto. De todas formas, creemos que puede ser más adecuado utilizar el término ilusión de movimiento o movimiento ilusorio para referirnos
a aquella percepción de movimiento provocada por una combinación determinada de estímulos estáticos. Veamos ahora cuáles son los principales tipos de movimiento ilusorio.
3.1
Movimiento estroboscópico
El concepto de movimiento estroboscópico hace referencia a la ilusión de
movimiento producida mediante un patrón rápido de estimulación sobre
distintas partes de la retina, a partir de una distribución espaciotemporal específica de estímulos estáticos. La primera investigación sistemática sobre
movimiento ilusorio la llevó a cabo Exner (1875), que demostró que dos
objetos estáticos que emiten destellos, si se colocan de forma adecuada y se
procura a la emisión lumínica cierto patrón temporal, se perciben como un
416
12. Percepción del movimiento
objeto en movimiento. Exner utilizó dos fuentes eléctricas productoras de
destellos colocadas una al lado de otra, y fue variando el intervalo temporal
entre los dos destellos. Los sujetos percibían movimiento cuando el intervalo temporal entre los dos destellos era, como mínimo, de 14 ms (movimiento óptimo o β). En cambio, cuando la separación temporal disminuía a
aproximadamente 10 ms, los sujetos tenían la impresión de ver dos destellos de forma simultánea (simultaneidad), mientras que si aumentaba lo suficiente, el sujeto sólo percibía una sucesión de destellos (sucesión).
Treinta y cinco años más tarde, Wertheimer iniciaba sus trabajos en este
ámbito. Entretanto, se habían inventado las cámaras y los proyectores de
películas en movimiento. Wertheimer (1912) llevó a cabo un estudio mucho
más sistemático, en el que manipuló fundamentalmente los parámetros espaciales y temporales, obteniendo algunos resultados ligeramente diferentes a
los obtenidos por Exner. Sus experimentos revelaron que las tres etapas descritas por su antecesor (movimiento óptimo, simultaneidad y sucesión) podían complementarse con la inclusión de los llamados movimiento parcial y
movimiento φ (fi). El movimiento parcial se caracteriza por un movimiento
ilusorio del primer destello hacia el centro, movimiento que desaparece antes de llegar a este punto medio, y por la aparición del segundo destello
desplazado hacia el centro y moviéndose aparentemente hasta el lugar donde efectivamente se había producido (véase Figura 12.3). El movimiento φ o
movimiento puro puede describirse como una impresión de movimiento sin
percepción concomitante de objetos moviéndose; la analogía en términos
físicos podría basarse en el fenómeno que se da cuando un objeto aparece
en un lugar, reaparece en otro, y se mueve lo suficientemente rápido entre
esos dos lugares para que únicamente se pueda captar su movimiento (de
ahí, el nombre de movimiento puro) y no, por ejemplo, los detalles de su
forma. Este fenómeno fue precisamente la base del famoso trabajo que publicó Wertheimer en 1912, que llevaba por título El estudio experimental del sentido del movimiento, y que supuso un hito histórico en la psicología científica al considerarse el punto de partida de la psicología de la Gestalt y representar la ruptura definitiva con la tradición estructuralista de
Wundt.
Algunos años más tarde, Korte (1915) establecía los principios del movimiento estroboscópico que posteriormente se denominarían las leyes de
Korte. Este autor midió cuidadosamente las condiciones espaciales y temporales necesarias para crear este tipo de ilusión de movimiento. Durante
muchos años, estas leyes han sido supuestos básicos en el estudio de la percepción del movimiento, pero, actualmente, debemos tomarlas como generalidades que adolecen de ciertas limitaciones. Las tres leyes de Korte son:
1) Con un intervalo interestimular (ISI) fijo, la separación espacial de
las fuentes productoras de destellos (S) debe variar de forma directamente proporcional a la intensidad de los destellos (I), y viceversa.
417
Percepción
Sucesión
O
O Más de 200-300 ms
Movimiento φ
O
>O
Entre 60 y 200 ms
Movimiento óptimo β
O
>O
40-60 ms aproximad.
Movimiento parcial
O
>O
Entre 20 y 40 ms
Simultaneidad
O
>
O Menos de 20 ms
Figura 12.3 Diferentes situaciones en las que se produce el movimiento estroboscópico (movimiento φ, movimiento óptimo, y movimiento parcial).
2) Con una separación espacial fija (S), el intervalo interestimular
(ISI) debe ser inversamente proporcional a la intensidad de los destellos (I) y viceversa.
3) Con una intensidad fija (I), la separación espacial (S) y el intervalo
interestimular (ISI) deben variar de forma directamente proporcional.
El movimiento estroboscópico también se puede dar en disposiciones
estimulares complejas, aunque bajo ciertas condiciones específicas. Ternus
(1926) realizó un experimento en el que demostró que la naturaleza del movimiento estroboscópico dependía de la configuración global del estímulo
(correspondencia global). Colocó dos luces, que llamaremos 2 y 3, y las encendió simultáneamente dos veces con un intervalo temporal determinado,
comprobando que no existía percepción de movimiento. A continuación, situó dos luces más, la 1 y la 4, formando la distribución 1-2-3-4. Con esta
disposición, primero encendió simultáneamente las luces 1, 2 y 3; luego las
2, 3 y 4: ahora sí se daba ilusión de movimiento. Tanto en la primera ocasión como en la segunda las luces 2 y 3 se encendían y se apagaban de la
misma forma, pero, curiosamente, en una ocasión se producía percepción
de movimiento y en la otra no. Este resultado constituye un firme argumento a favor del principio gestáltico que dice que el todo es más que la suma
de las partes.
Kolers (1972) realizó un experimento con tres objetos luminosos que denominaremos A, B y C. En primer lugar, se encendía B y, después, A y C.
Si A y C eran iguales entre ellos se percibían dos movimientos, uno hacia
418
12. Percepción del movimiento
la izquierda del observador (A) y otro hacia la derecha (C), pero si B era similar a A y distinto a C sólo se percibía un movimiento hacia la posición en
la que el segundo objeto que se encendía era similar al primero (B). A este
fenómeno Kolers lo denominó selección figural. En la misma línea de trabajo, Berbaum, Lenel y Rosenbaum (1981) comprobaron que se producían
ilusiones de movimiento cuando se presentaban dos figuras con cierta similitud de forma sucesiva, tales como un cuadrado y un paralelogramo.
Probablemente, los mecanismos subyacentes a los fenómenos hallados
por Kolers (1972) y Berbaum, Lenel y Rosenbaum (1981) son mecanismos
similares a los que nos permiten percibir movimiento al contemplar una reproducción cinematográfica. No debemos olvidar que la cinematografía se
basa en la presentación de unas 24 imágenes por segundo y que es nuestro
sistema perceptivo el que construye la concatenación espacio-temporal entre esas imágenes. En definitiva, el cine constituye un buen ejemplo de
cómo se manipulan determinados parámetros para provocar el movimiento
estroboscópico a partir de disposiciones estimulares complejas (fotogramas).
3.2
Movimiento inducido
El movimiento inducido es el movimiento ilusorio de un objeto provocado
por el movimiento real, en sentido contrario, del marco de referencia en el
cual se halla situado ese objeto. Los ejemplos de percepción de movimiento
inducido en nuestra vida cotidiana son múltiples. Durante la noche, es fácil
comprobar el movimiento de la luna inducido por el movimiento de las nubes en dirección opuesta. Si observamos cómo anda una paloma parece
que, al hacerlo, va moviendo la cabeza adelante y atrás: una observación
más detallada a partir de una filmación en vídeo nos demuestra que, efectivamente, primero la paloma mueve la cabeza hacia delante, para, acto seguido, llevar el cuerpo a la altura de la cabeza: así pues, el hecho de que
nos parezca que la cabeza se desplaza hacia atrás no es más que el movimiento inducido por el cuerpo desplazándose hacia delante. También constituye un ejemplo de movimiento inducido el caso del coche parado en el
semáforo comentado al final del apartado 4.1. En los efectos especiales cinematográficos —o en los videojuegos— se ha utilizado a menudo este fenómeno para, a partir del movimiento del fondo de una escena en un sentido, inducir la impresión de que un objeto determinado (p.ej., un coche) se
desplaza en sentido opuesto.
El primer investigador en describir un experimento de movimiento inducido fue Duncker (1929). En una habitación oscura, los sujetos tenían que
observar un pequeño círculo luminoso situado en el interior de un rectángulo luminoso. Cuando el experimentador movía el rectángulo hacia la izquierda, los sujetos informaban que el círculo se había desplazado hacia la
419
Percepción
derecha y viceversa. El fenómeno se ha intentado explicar desde diversas
perspectivas y a partir de hipótesis no siempre compatibles, pero que se enmarcan en la base de las propias explicaciones de la percepción del movimiento en general. Puede consultarse el apartado 4.3.2.1. para profundizar
en una de las posibles bases neurales del efecto.
3.3
Movimiento autocinético
El movimiento autocinético es una ilusión de movimiento que se produce
cuando percibimos movimiento de un objeto estático sobre un fondo uniforme. Resulta relativamente sencillo provocar una situación de movimiento autocinético: si observamos atentamente un foco débil de luz en una habitación oscura, fácilmente tendremos la impresión de que la luz parece
moverse.
Uno de los trabajos pioneros con este tipo de movimiento ilusorio lo llevó a cabo Sherif (1935). Este autor instruyó a los sujetos para que observaran, en un entorno de oscuridad, un punto de luz. A pesar de que la luz permanecía estática, les dijo a los sujetos que iba a moverse y que, tan pronto
percibieran el movimiento, debían presionar un interruptor. A continuación,
el sujeto tenía que informar del desplazamiento que se había producido.
Sherif estableció dos condiciones: una individual y otra en grupos de dos o
tres personas. En la condición individual, los sujetos informaron de movimiento en un rango de magnitudes que iba de 2 a 9 cm. En la condición de
grupos, todos los observadores informaron que el punto se había movido
unos 11 centímetros. Así pues, parece que se daba algún tipo de interinfluencia entre los distintos observadores en esta última condición: sus percepciones, incluso entre grupos diferentes, resultaban similares. Este resultado, aparentemente enigmático, es coherente con la evidencia de que el
movimiento inducido se halla altamente influido por la sugestión. Esta relación ha hecho que algunos autores hayan considerado que el movimiento
autocinético puede utilizarse como una prueba proyectiva de personalidad,
al estilo del test de Rorschach, en la que el sujeto debe informar de las palabras que cree ver escritas por la trayectoria de una luz en movimiento autocinético (Rechschaffen y Mednick, 1955). No obstante, otros autores señalan que, a pesar de algunos informes aislados en los que, efectivamente,
el sujeto percibe ciertas palabras, en la mayoría de casos sólo se informa de
ligeros movimientos.
El efecto del movimiento autocinético parece disminuir si se coloca algún otro estímulo cerca del que debe provocar el movimiento ilusorio. Hay
quien sostiene que el movimiento autocinético es consecuencia de los ligeros movimientos espontáneos de los ojos, necesarios para que la imagen de
un objeto no se proyecte siempre en el mismo lugar de la retina —lo que
provocaría un debilitamiento de la actividad fotoquímica de la retina por
420
12. Percepción del movimiento
agotamiento de los fotopigmentos. Sin embargo, podemos encontrar varias
explicaciones alternativas.
3.4
Postefectos de movimiento
El postefecto de movimiento, como su nombre indica, aparece tras la observación sostenida de un movimiento continuo, y consiste en una ilusión de
movimiento en sentido contrario al que se produce en esa observación inicial. Adams, en 1838, realizó una de las primeras descripciones sistemáticas de este tipo de ilusiones a la que denominó ilusión de la cascada (Boring, 1942). Esta ilusión se produce si, durante al menos medio minuto, se
observa fijamente una cascada y, a continuación, la mirada se dirige a un
punto del paisaje adyacente que permanece estático: se percibe entonces un
cierto movimiento hacia arriba del punto observado.
El postefecto de la espiral rotatoria es otro ejemplo. Si fijamos la mirada durante aproximadamente un minuto en el centro de la espiral que aparece en la Figura 12.4, mientras se halla girando a una velocidad apropiada
(p.ej., en un plato de un tocadiscos a 33 revoluciones) y, de repente, la paramos, comprobaremos que tenemos la impresión que se mueve en sentido
contrario al anteriormente experimentado. También resulta sorprendente la
impresión que se produce si, una vez se detiene la espiral, fijamos inmediatamente la mirada en otro punto. De forma parecida, se han obtenido algu-
Figura 12.4
Estímulo para conseguir el postefecto de la espiral rotatoria.
421
Percepción
nos resultados de postefectos de movimiento auditivo, que va acompañado
de una pérdida de sensibilidad de la velocidad (Grantham, 1989; Ehrenstein, 1994) (véase apartado 5.2.).
La explicación de estos postefectos resulta controvertida (Wade, 1994).
Algunos piensan que se debe a un fenómeno debido a la adaptación de los
detectores de movimiento relativo de la retina (Swanston y Wade, 1992):
esa adaptación haría que su tasa de respuesta disminuyera, aumentando el
peso relativo de la tasa de respuesta de los receptores para el movimiento
en sentido contrario. Sin embargo, últimamente se tiende a pensar que la
adaptación que origina los postefectos se da también a nivel central, en
múltiples estadios de procesamiento (Swanston, 1994; Ashida y Susami,
1997).
4.
Perspectivas sobre la percepción visual del movimiento
Zenón de Elea, nacido entre el 464 y el 440 a.C., en su afán de defender los
postulados de Parménides reunió diversos argumentos en contra de la existencia del movimiento. Su primer argumento, el estadio, estriba en la paradoja entre el infinito número de divisiones espaciales que se pueden realizar al intentar recorrer: un espacio concreto y la finitud de una particular
porción de tiempo. Es decir, es imposible atravesar cualquier espacio porque, antes de alcanzar el final, se debe alcanzar el punto medio entre los
dos puntos a recorrer una vez situado en el punto medio, se debe alcanzar
el punto medio entre esta nueva posición y el final, punto medio que se volverá alcanzar aunque, posteriormente, será necesario alcanzar, otra vez,
otro punto medio entre este nuevo punto y el final, y así sucesivamente hasta el infinito: siempre nos quedará, por pequeña que sea, una mitad que recorrer. El segundo argumento, Aquiles o la tortuga, dice lo siguiente: el corredor más lento (la tortuga), si sale algo adelantado, no será nunca
alcanzado por el más rápido (Aquiles), pues es necesario que éste llegue al
punto de donde partió la tortuga, de modo que, cuando lo haga, ésta ya se
hallará adelantada. Este argumento, aplicado de forma sucesiva, nos lleva a
la inevitable deducción de que el perseguidor más veloz nunca podrá atrapar al más flemático de los perseguidos. Por lo tanto, concluye Zenón, el
movimiento es imposible —dado que autores como Descartes, Hobbes,
Leibniz, Mill, Russell o Bergson han razonado la falsedad de esta falacia
lógica, nosotros preferimos abstenernos.
Sin embargo, cabe considerar aquí una de las posibles implicaciones de
las paradojas de Zenón: la percepción no se basa en la información sensorial momentánea, sino que lo hace en la memoria de la posición y del tiempo o, en otras palabras, en la comparación o la inferencia. Esta interpretación defiende que lo que realmente detecta el sistema visual son objetos en
distintos lugares en diferentes momentos, de forma que captamos esta dis-
422
12. Percepción del movimiento
paridad y creamos la impresión de movimiento para resolverla. Esta teoría
fue la idea dominante sobre la percepción del tiempo hasta finales del siglo
XIX —el mismo William James, emulando a Zenón, decía que nunca podían
transcurrir catorce minutos, dado que antes debían transcurrir siete y, antes
de siete, tres y medio, etc. Sin embargo, Exner (1875) estaba convencido
que la percepción del movimiento es tan inmediata que la memoria no puede ser la responsable de este fenómeno. Por consiguiente, cabe pensar (con
Exner), que el movimiento (como el tiempo) no es un atributo inferido sino
que es un elemento fundamental de las capacidades mentales.
A lo largo del siglo XX han ido apareciendo varias propuestas sobre el
funcionamiento de la percepción del movimiento en sintonía con los paradigmas en uso. El siglo se inicia con una cierta visión elementalista del
complejo mental a partir de las teorías estructuralistas de Wundt y Titchener. En los años veinte, se impone la perspectiva gestáltica destacando los
aspectos holistas y fenoménicos (Wertheimer, 1912). La eclosión y el dominio del conductismo relevarán a un segundo plano el estudio psicológico
de la mente durante un largo período. Pese a ello, J. J. Gibson, considerándose conductista, desarrollará una perspectiva idiosincrática sobre la percepción en general y sobre la percepción del movimiento en particular. A
partir de los años sesenta, con la aparición del cognitivismo nacerán y renacerán un gran número de propuestas teóricas, las cuales hemos englobado
bajo el epígrafe de perspectiva del procesamiento de la información, conociendo de antemano la temeridad que supone usar este término, aunque haciéndolo de todas formas porque pensamos que la oposición de esta perspectiva a la denominada perspectiva ecológica de Gibson facilita en gran
medida la comprensión de ambas.
4.1
Perspectiva ecológica o de la percepción directa
En otros capítulos se ha hecho referencia a la perspectiva ecológica de Gibson (1979), que postula la percepción directa de la información y resta importancia al procesamiento de información de carácter computacional que
se pueda dar en el sistema nervioso. Según Gibson, el aspecto relevante es
la información basada en la escena, en los sucesos. Los sucesos pueden ser
definidos como cambios del medio que procuran una percepción de significado, siendo mucho más complejos que las situaciones de laboratorio, las
cuales califica de artificiales. A continuación, se comentan algunas de las
fuentes de información que, desde la óptica ecológica, contribuyen a la percepción de movimiento:
1) Los cambios relativos entre el fondo y el objeto sirven de indicio
para la percepción de movimiento. Podemos considerar tres situaciones: una en la que el observador mantiene la mirada fija en la es-
423
Percepción
cena mientras el objeto se mueve; otra en la que el observador sigue
el movimiento del objeto con la mirada, y una tercera en la que el
observador mueve su mirada a través de una escena estática (objeto
incluido). En la primera situación, la representación del objeto se
mueve a través de la retina, mientras el fondo permanece estático.
En la segunda, es la representación del fondo la que se mueve, en
tanto que la representación del objeto se forma aproximadamente en
la misma zona de la retina. En la tercera situación, objeto y fondo se
mueven al unísono en la representación retiniana. Este indicio ha
sido objeto de numerosas críticas dado que se ha demostrado la posibilidad de percibir movimiento de objetos sin información sobre
su relación con el fondo.
2) El cambio de tamaño de la imagen de un objeto es un indicio para
detectar el movimiento en profundidad, es decir, para saber si el objeto se aleja o se acerca. El aumento del tamaño retiniano de un objeto nos sugiere que se acerca o que nosotros nos aproximamos a él.
Su disminución, la interpretamos en el sentido de que el objeto se
aleja, o de que nos alejamos nosotros de él (Regan, Beverley y Cynader, 1979).
3) La información derivada del paralaje del movimiento es otro indicio
para la percepción de movimiento. Para una adecuada comprensión
de esta clave, véase el apartado 2.2.2.1 del Capítulo 11.
4) Las claves binoculares también son útiles en la percepción del movimiento. Según Señalan Regan, Beverley y Cynader (1979), si un
objeto se aproxima a nosotros exactamente desde enfrente percibiremos movimientos idénticos con el ojo derecho y con el izquierdo,
pero si se da el caso de que la imagen retiniana del derecho se mueve más deprisa que la del izquierdo, percibiremos que el objeto se
acerca por nuestro lado derecho.
Mención aparte merece el concepto de patrón de flujo óptico. Según
Gibson, este fenómeno es suficiente para dar origen a la percepción de que
nos movemos en un sentido determinado. Los patrones de flujo óptico son
generados por el movimiento del objeto combinado con el del observador
(Andersen, 1986). Para comprender el concepto de patrón de flujo óptico
puede servirnos de ejemplo el caso que se produce cuando viajamos en los
asientos delanteros de un vehículo. La información retiniana es cambiante
y los objetos parecen moverse respecto a un punto central (si nos hallamos
en una recta, será el punto de la carretera más alejado del observador que
alcanza la vista), similar al punto de fuga de la perspectiva lineal (véase
Capítulo 11). En caso de que el movimiento de los objetos respecto a dicho punto sea centrífugo (divergente), percibiremos que nos movemos hacia delante. Si el movimiento es centrípeto (convergente), la percepción
será de retroceso. Los patrones de flujo óptico son utilizados frecuente-
424
12. Percepción del movimiento
mente en simuladores de conducción o de vuelo, videojuegos, etc. Aunque
estos patrones son complejos, el sistema visual humano puede determinar
qué se está moviendo: el objeto, el observador o ambos. Sin embargo, el
movimiento del observador puede sesgar los juicios de detección y velocidad de los objetos en movimiento. Probst et al (1987) comprobaron
que, en una situación de conducción real a cierta velocidad, la detección
de movimiento de otros vehículos requería umbrales más altos y mayores
tiempos de reacción que cuando el observador se hallaba parado, lo que
era debido al propio movimiento más que al del otro vehículo. Al parecer,
cuando nos hallamos en movimiento somos menos sensibles al movimiento de otros objetos. Los patrones de flujo óptico parecen ser responsables
de la ilusión de movimiento propio, un caso concreto de ilusión de movimiento inducido. Esta ilusión es la que se produce cuando nos hallamos
parados en un semáforo y el movimiento hacia delante del coche que tenemos al lado nos produce la impresión de que es el nuestro el que se desplaza hacia atrás, lo que, normalmente, nos lleva a pisar el freno de forma
refleja.
Desde la perspectiva ecológica, también se ha desarrollado el estudio del
denominado movimiento biológico, que se refiere al patrón de movimiento
natural de las personas al caminar, correr, danzar, etc. (Johansson, 1973).
Según las investigaciones de este autor, tenemos la capacidad de reconocer
de forma casi inmediata ese tipo de movimientos, incluso antes de que lleguen a la conciencia, argumento que ha servido para defender nuestra predisposición innata para la percepción del movimiento biológico. Los bebés
alcanzan esa competencia entre los seis y los nueve meses de edad.
4.2
Perspectiva computacional
No podemos afirmar que exista una teoría computacional de la percepción
del movimiento. Más bien debemos hablar de una perspectiva genérica que
engloba numerosos modelos de carácter computacional. La característica
común a dichos modelos se basa en la asunción de que el sistema perceptivo elabora la información desde la entrada sensorial hasta el percepto. Este
planteamiento considera que, a partir de la información inicial, el proceso
transcurre a través de diferentes etapas que operan en serie o a través de
módulos dispuestos en paralelo, generando representaciones intermedias de
la imagen susceptibles, a su vez, de ser sometidas a diversas formas de procesamiento. Tradicionalmente, la perspectiva computacional se ha encontrado estrechamente ligada a los planteamientos derivados del estudio del
mecanismo neural de la percepción. En los últimos años ese vínculo se ha
hecho aún más firme, dado el auge espectacular de la investigación neurocientífica. Sin embargo, en este capítulo hemos considerado conveniente
presentar ambas aproximaciones en diferentes apartados, para facilitar al
425
Percepción
lector una mejor comprensión de los diversos planteamientos teóricos que
abordan el estudio de la percepción del movimiento.
En el estudio computacional de la percepción del movimiento se establece la distinción entre dos procesos (Anstis, 1986; Hildreth y Ullman, 1989):
el proceso de frecuencia corta y el proceso de frecuencia larga. El movimiento que supone distancias y tiempos de pequeña magnitud se analiza a
través del proceso de frecuencia corta. Hay quien piensa que este proceso
involucra únicamente etapas iniciales de la visión, probablemente a nivel
retiniano. Marr (1982) propone la posibilidad de percibir la dirección del
movimiento a partir de la información existente en la etapa del procesamiento de contornos (véase el Capítulo 8). El movimiento que se lleva a
cabo en distancias y tiempos mayores se computa mediante el proceso de
frecuencia larga, que incluye procesamiento de más alto nivel, lo que implica que tiene un carácter más cognitivo y por tanto más flexible —el proceso
de frecuencia corta tiene una naturaleza más sensorial o perceptiva que genuinamente cognitiva. Para dar lugar a las ilusiones de movimiento anteriormente descritas, parece ser un requisito indispensable que se dé el proceso
de frecuencia larga. No obstante, los dos procesos no son absolutamente independientes: parece ser que el proceso de frecuencia corta transmite información al de frecuencia larga.
La cuestión de mayor interés para las teorías computacionales del movimiento es el denominado problema de la correspondencia: ¿cómo se integran las diferentes representaciones de un objeto para dar lugar a la percepción de un objeto que se mueve? Esta cuestión es similar a la que se plantea
en la percepción de la profundidad a partir de la disparidad entre las dos
imágenes retinianas, aunque, en el caso del movimiento, las imágenes no
son simultáneas sino sucesivas en el tiempo.
Según Kolers (1972), la percepción del movimiento es un proceso constructivo basado en unas determinadas reglas que permiten la equiparación
espacio-temporal de las representaciones de la primera imagen con las de la
segunda. A partir de esta definición, se ha planteado el problema de la correspondencia, el cual, curiosamente, ha suscitado mayor número de investigaciones en el ámbito del movimiento ilusorio que en el del movimiento
real. Ejemplo de ello son los trabajos de la correspondencia global de Ternus y de la selección figural de Kolers, ya comentados en el apartado 3.1.
Hay diversas propuestas de solución al problema de la correspondencia,
pero ninguna de ellas ha conseguido el consenso necesario para ser aceptada como canónica. Esa cuestión, de alguna manera, ya fue abordada por los
psicólogos de la Gestalt, aunque no desde una perspectiva computacional,
sino en términos de correspondencia fenoménica. Estos autores suponían
una prioridad de la percepción de la forma o de la organización perceptiva
sobre la percepción del movimiento. De esta forma, principios gestaltistas
como el de destino común o el de buena continuación (véase Capítulo 10)
podrían servir de fundamento a la correspondencia de las figuras en imáge-
426
12. Percepción del movimiento
nes sucesivas. En cambio, Ramachandran y Anstis (1986) afirman que la
correspondencia depende más de la luminosidad que de la forma.
4.3
Bases neurales de la percepción visual del movimiento
Como hemos visto, la percepción visual del movimiento resulta esencial
para la adaptación a un medio dinámico y constantemente cambiante, posibilitando, además, la predicción de la futura ubicación de un estímulo que
se desplaza; habilidad crucial, por ejemplo, para coger un objeto móvil o
para evitarlo. De hecho, en muchos animales la evolución ha priorizado la
detección de la dirección y velocidad del movimiento sobre otras capacidades visuales: aunque los primates superiores somos, hasta cierto punto, un
caso aparte, muchos mamíferos son prácticamente ciegos a objetos que no
se mueven.
Las investigaciones sobre la base neural de la visión del movimiento de
un objeto que se desplaza por nuestro campo visual han resultado básicas,
junto a las de la visión del color, como paradigma en el que fundamentarse
para establecer la segregación topográfica en la organización neuroanatómica de la corteza visual humana y su especialización funcional (Zeki,
1995). Además, dado que el área de la corteza preestriada que se ha revelado como la zona fundamental de procesamiento del movimiento (V5) fue la
primera región especializada en ser estudiada detalladamente desde la perspectiva funcional (Zeki, 1973), puede decirse que la comprensión de cómo
procesa el movimiento nuestra corteza cerebral ha sido un modelo de inestimable valor como guía para la investigación funcional de otras áreas de la
corteza (visual o no).
Como hemos visto en el apartado 2, nuestro sistema visual puede detectar el movimiento de dos maneras distintas: a partir de la información del
desplazamiento de los objetos respecto a nosotros mismos —claves de movimiento absoluto o claves relativas al sujeto— o a partir de la información
del desplazamiento relativo de los objetos entre sí —claves de movimiento
relativo o claves relativas al objeto. En el primer caso, resultará relevante
el desplazamiento de la imagen en la retina y la información extrarretiniana. En el segundo, las claves serán exclusivamente retinianas, y sólo nos
ofrecerán información del desplazamiento de un objeto respecto a otro o
respecto al fondo. Por supuesto, en un momento dado, puede haber indicios
de ambos tipos —por ejemplo, siempre que hay claves de movimiento absoluto se dan las condiciones para que aparezcan claves relativas al objeto
(aunque no al revés). En los apartados que siguen vamos a intentar ofrecer
un panorama de los conocimientos que, generados desde el ámbito de las
neurociencias, pueden ayudarnos a comprender cómo utiliza nuestro cerebro las claves de movimiento absoluto y las de movimiento relativo para
que el percepto emergente resulte de máxima utilidad funcional.
427
Percepción
4.3.1 Neuroanatomía funcional de la percepción del movimiento
de un objeto en el campo visual
Las primeras células nerviosas sensibles al movimiento visual las encontramos ya en la retina: se trata de las células ganglionares llamadas células M,
que poseen una alta resolución temporal. Éstas, al contrario que las llamadas células P (de alta resolución espacial y especializadas en detectar la
longitud de onda del estímulo), son más abundantes en la periferia que en
el centro de la retina. Esta parece ser la razón fundamental de que detectemos muy bien el rápido movimiento de los objetos que se hallan en los extremos de nuestro campo visual (Brown, 1972; Perry, Oehler y Cowey,
1984). Sin embargo, para saber qué es lo que se mueve, es mucho más eficaz la zona central de la retina, rica en células P: por este motivo, un estímulo en rápido desplazamiento que aparece en la periferia del campo visual elicita, normalmente, un movimiento sacádico de los ojos, que se
dirigen hacia él de forma refleja, lo que propicia la proyección del objeto
en la fóvea y, consiguientemente, facilita una precisa identificación. Resulta obvio el valor adaptativo de esta respuesta de orientación.
Aunque sea en la retina donde se da el primer paso en la codificación
neural y en la computación del movimiento (Albright y Stoner, 1995), resulta obvio que es fundamentalmente en el cerebro donde tiene lugar el
complejo procesamiento que dará lugar a lo que llamamos percepción visual del movimiento. Esto ya le pareció evidente a Exner, allá por 1875,
que vaticinó la existencia de un centro neural del movimiento. Desde la retina, surgen ciertas vías que se dirigen a estructuras subcorticales, entre las
que destaca, por lo que se refiere a la percepción del movimiento, el llamado colículo superior, que también recibe inputs de todas las áreas visuales
de la corteza y, a su vez, conecta, por ejemplo, con V5. Parece que la visión
colicular puede detectar el movimiento, aunque, al menos en la especie humana, cabe suponer que, de darse el caso, esa visión no accedería a la conciencia: los sujetos podrían ver el movimiento, pero serían incapaces de saber que lo habían visto.
De todas formas, la ruta nerviosa fundamental implicada en la transmisión de información de movimiento la constituye el llamado sistema
magnocelular —aunque el parvocelular, exclusivo de los primates y relacionado con la percepción del color y de la forma asociada a él, parece
también contribuir de algún modo a dicha función (p.ej., a la hora de detectar el movimiento de un objeto que se distingue del fondo sólo por el
color) (Logothetis et al., 1990). Las vías magnocelulares parten de las células ganglionares M de la retina —también llamadas «células parasol»
(Livingstone y Hubel, 1988)—, pasan por el núcleo geniculado lateral del
tálamo y se dirigen hacia la corteza estriada occipital o zona V1. Desde
ahí se proyectan conexiones, por una parte, hacia la zona V2 y la V3, en
la llamada corteza preestriada occipital, y, por otra, hacia la V5. Tanto V3
428
12. Percepción del movimiento
Figura 12.5 Patrón simplificado de las interconexiones básicas entre las principales áreas corticales del cerebro de un macaco que intervienen en la percepción del movimiento.
como V5 reciben también un input directo procedente de V2 (véase Figura 12.5).
Pero vayamos por partes. Una vez dejamos atrás la retina, las vías que
parten de las células M llegan a las dos capas M del núcleo geniculado lateral del tálamo, especializadas en el procesamiento del movimiento y de
la forma dinámica. Desde estas dos capas, se emite un output que se integra a nivel de la capa 4B del área V1 occipital, aunque una parte de dicho
output se dirige a las células que, en esa capa, responden selectivamente a
la orientación y a la dirección (relacionadas con el movimiento), mientras
que la otra conecta con células que sólo responden selectivamente a la
orientación (relacionadas con la forma). Mientras que en V1 (y en V2) se
hallan representadas todas las propiedades del estímulo visual (contraste,
color, orientación, tamaño, profundidad, movimiento, etc.), parecen ser V3
y, sobre todo, V5 (también conocida por área temporal media o MT) las
regiones corticales directamente implicadas en el procesamiento especializado del movimiento visual (Desimone y Ungerleider, 1989; Sereno,
1993; Zeki, 1995). Así pues, aunque en V1 ya parece detectarse el movimiento lineal que se corresponde con un desplazamiento de la imagen en
la retina, el procesamiento de movimientos más complejos (p.ej., el movimiento rotatorio), la computación de las claves extrarretinianas, la percepción de la estructura del movimiento y su asociación a un objeto determinado, etc., no se da hasta zonas más especializadas de la corteza
preestriada. Sobresimplificando, podríamos decir que V1 ve lo que ve la
retina: las elaboraciones más sofisticadas suceden en las áreas más especializadas. Más específicamente, es principalmente en V5 donde se trata la
información de movimiento (véase Figura 12.5 y Figura 12.6), mientras
V3 se halla más relacionada con el procesamiento de la forma dinámica,
es decir, se encarga de computar la forma en movimiento. Parece ser que
prácticamente todas las células del área V5, organizadas funcionalmente
429
Percepción
en columnas, responden al movimiento, y casi todas ellas son direccionalmente selectivas.
Desde la neuropsicología clínica, se han aportado evidencias adicionales
en torno a la relevancia de V5 en la percepción del movimiento. Zihl, Cramon y Mai (1983) han informado del extraño caso de una paciente que, tras
un accidente vascular que afectó precisamente a esa zona de forma bilateral, quedó ciega al movimiento (akinetopsia), aunque sí podía apreciar
cómo los objetos iban cambiando de posición —sería como ver una secuencia de fotografías sin captar su relación témporo-espacial, es decir, sin
llegar a percibir el cine de la escena.
En la última década, y gracias al auge de la neurociencia cognitiva, se
han aplicado las revolucionarias técnicas de neuroimagen (TEP, IRMf, etc.)
al estudio de las zonas cerebrales humanas cuya activación correlaciona con
distintas situaciones y con distintos tipos de percepción del movimiento. En
dichos trabajos, que permiten un registro no invasivo de las zonas corticales
activadas por los patrones de movimiento estudiados, aparece claramente
vinculada la zona V5 con la percepción estructurada del movimiento (Watson et al, 1993), aunque la meticulosidad y la precisión de estas investigaciones ha hecho que los resultados obtenidos vayan más allá: valga como
ejemplo la evidencia de que, mientras la percepción de señales con direcciones de movimiento cambiando al azar correlaciona con la activación de la
V5 humana, justo detrás de esa área parece haber una zona de la neocorteza
occipital lateral —las llamadas cuña y precuña (véase Figura 12.6)— que se
activa selectivamente cuando se perciben señales de movimiento de dirección coherente: a esta nueva zona se la ha denominado región cinética occipital (Dupont et al, 1997; Van Oostende et al, 1997; Brandt et al., 1998).
En cuanto al estudio de la relación V1/V3/V5, se han obtenido suficientes evidencias para pensar que no es en absoluto de índole unidireccional y
estrictamente jerárquica, sino que todas ellas se intercomunican recíprocamente. Así, por ejemplo, el producto del procesamiento del movimiento en
la zona V5 (la más especializada de las tres) revierte, mediante una vía de
retroinformación, en las células que, en V1, son sensibles a la orientación y
a la dirección, las cuales, como hemos visto, conectan a su vez con V5. Las
vías de retorno de V5 a V1 son, sin duda, funcionalmente relevantes. Por
ejemplo, podrían propiciar la localización precisa del movimiento en el espacio: una vez elaborado exhaustivamente el input de movimiento en el
área V5, es necesario ubicar dicho movimiento en el espacio, cosa que V5
por sí sola no puede hacer, dado que su representación topográfica (retinotópica) del campo visual es muy pobre. Esto no es así en V1 (o en V2),
donde la retina se halla representada topográficamente con gran exactitud.
Así pues, el movimiento procesado por V5 podría situarse en el espacio visual a través de estas retroconexiones con las áreas no especializadas, las
cuales, una vez finalizada su computación espacial, informarían a V5 del
resultado (Zeki, 1995).
430
12. Percepción del movimiento
Figura 12.6 Situación del área V5 (MT) en una visión lateral del cerebro humano, y del área parieto-occipital superior (SPO) y la región cinética occipital (KO) en una visión mediosagital.
Otros autores piensan que son ciertas áreas temporales o parietales
(p.ej., MST, 7a) las que, tras recibir los correspondientes outputs de V5, se
encargan de integrar los estímulos en movimiento en un mapa espacial tridimensional (Andersen, 1989; Roy y Wurtz, 1990). A nivel de esas regiones témporo-parietales, la información parece ser reelaborada de formas diversas, dando sentido a algunas de las características más complejas de la
percepción del movimiento. En múltiples estudios realizados en macacos se
destaca la importancia de la zona temporal superior medial (MST), cuya
equivalente funcional humana (aunque no exactamente homóloga) podría
ser la llamada área parieto-occipital superior (SPO) (Reppas et al, 1996)
(véase Figura 12.6). Por ejemplo, dicha zona parece esencial en la percepción del movimiento rotatorio (Tanaka et al, 1989; Ashida y Susami, 1997),
aunque su función fundamental parece estar más relacionada con las cuestiones que veremos en el apartado 4.3.2.1.
Tengan razón Zeki y colaboradores o la tengan sus oponentes (o sea, digamos, una razón compartida), la forma de integración de los distintos niveles de procesamiento en el sistema visual, basada en la intercomunicación multifásica y en la reciprocidad, resulta esencial en la comprensión de
cómo nuestro cerebro elabora la información de movimiento, a partir de la
actividad simultánea de todas las áreas implicadas, incluyendo las subcorticales.
4.3.2 Cómo distinguimos el movimiento de un objeto del producido
por nuestra actividad motora
A menudo, nuestros ojos, nuestra cabeza, o incluso todo nuestro cuerpo, se
desplazan mientras contemplamos un objeto que se mueve en nuestro campo visual: suele ocurrir, por ejemplo, que sigamos con la mirada el objeto
431
Percepción
en movimiento o que acompañemos su trayectoria girando lentamente la
cabeza. En ese caso, la proyección retiniana del objeto apenas cambia de
ubicación, mientras que, por el contrario, es el fondo de la escena el que se
mueve en nuestra retina. Sin embargo, nosotros seguimos percibiendo un
estímulo en movimiento sobre un fondo estático. ¿Cómo podemos entonces
saber que es el objeto el que se mueve y no el resto de la escena visual?
¿En qué mecanismos neurales puede basarse esa capacidad? La respuesta
no está aún del todo clara, aunque ya se conocen algunos mecanismos que
podrían contribuir a explicar una cuestión tan sibilina.
4.3.2.1 La teoría de la descarga corolaria
Tradicionalmente, se ha recurrido a la llamada teoría de la descarga corolaria para intentar explicar por qué al mover los ojos siguiendo un objeto
en movimiento sigue pareciéndonos que es el objeto el que se mueve y no
el fondo, pese a que la imagen retiniana que realmente se desplaza es la de
éste último, mientras que la del objeto en sí se proyecta aproximadamente
en un mismo punto. En cambio, si probamos de mover el glóbulo ocular
presionando suavemente con un dedo el párpado superior (¡suavemente!),
el efecto cambia y toda la escena se imbuye de movimiento. Según este
modelo, en el primer caso habría una señal nerviosa (la descarga corolaria)
que informaría del movimiento voluntario de los ojos y daría pie a un supuesto sistema comparador de movimiento (Holst, 1954; Teuber y Mishkin,
1954; Stevens, 1975) a tener en cuenta dicha señal con relación a la información aferente que le llegaría de la retina. Si dichas aferencias sobre el
movimiento de la escena visual encajan con la previsión de movimiento deducible a partir del movimiento de los ojos, no habrá percepción de movimiento. En cambio, sí se percibe cuando entre la aferencia sensorial y la
descarga corolaria se da cierta disparidad: en el caso de seguir con la mirada un objeto móvil, las aferencias retinianas del objeto no encajan con el
desplazamiento que debe sufrir toda la escena visual de acuerdo con el movimiento de nuestros ojos —aunque sí lo hacen las correspondientes al resto de la escena, suponiendo que permanezca inmóvil—, por lo que el comparador informa a las áreas sensoriales pertinentes de la disparidad
existente y, a pesar de las claves retinianas, acabamos percibiendo un objeto
móvil sobre un fondo estático. Esa señal nerviosa que hemos llamado descarga corolaria parece darse sólo cuando se da un movimiento voluntario
elicitado por los músculos propios de dicho movimiento —en este caso los
músculos externos del ojo—, lo que explicaría por qué, cuando movemos el
glóbulo ocular presionando el párpado con un dedo, sí percibimos cómo se
mueve todo el campo visual. Según Teuber (1972), la descarga corolaria
puede concebirse como un marcador fisiológico de la voluntariedad de un
movimiento autoiniciado. Es necesaria para que el cerebro tenga constancia
432
12. Percepción del movimiento
de que las consecuencias sensoriales de nuestras acciones son internamente
generadas y no corresponden a cambios reales de los estímulos. Esa concepción genérica hizo que el concepto de descarga corolaria no se limitara
a las señales procedentes de los músculos extraoculares, sino que se ampliara también a las que informan del movimiento de seguimiento con la
cabeza, del desplazamiento del cuerpo entero, de los cambios de postura,
etcétera: por extensión, muchos autores hablan de la descarga corolaria
como de aquella información extraretiniana asociada a la actividad motora
intencional o voluntaria que se compara con las aferencias sensoriales retinianas (Mack, 1986).
Una cuestión que ha sido objeto de controversia es la verdadera naturaleza de esa señal: ¿se trata de una copia de la orden motora o resulta, en
cambio, de una aferencia propioceptiva que informa de la actividad muscular habida? Como ya demostraron Guthrie, Porter y Sparks (1983), este interrogante se ha resuelto a favor de la primera de las posibilidades (véase
Figura 12.7).
Al parecer, la corteza frontal premotora medial genera una réplica de la
orden eferente (Gazzaniga, 1995) que podría dirigirse al putativo mecanismo comparador, o podría ser integrado directamente en determinadas áreas
corticales implicadas en la percepción del movimiento. Este punto no está
todavía nada claro. Algunos autores (p.ej., Clark y Horch, 1986) distinguen
entre la teoría de la descarga corolaria y la teoría de la copia eferente, dos
hipótesis explicativas que, pese a que a menudo se identifican, tienen un
origen histórico distinto. Según Clark y Horch (1986), la descarga corolaria
es una copia de la orden motora asociada a los movimientos voluntarios
que se dirige directamente a los centros perceptuales corticales, reservando
el término copia eferente para designar a la señal que, asociándose también
a los movimientos involuntarios, se dirigiría previamente a un sistema comparador de orden inferior —a nivel subcortical—, cuyo output sería utilizado tanto para corregir nuestra percepción como para modular las propias
órdenes motoras.
Sea cual sea el término más apropiado —descarga corolaria o copia
eferente—, si aceptamos que se da una comparación como la descrita, cabe
preguntarse, en primer lugar, cuál es el substrato neural que lleva a cabo esa
función. Para algunos autores, es el colículo superior el principal candidato
(Robinson y Wurtz, 1976; Sparks y Mays, 1983), dado que, entre otras evidencias, en diversas investigaciones neurofisiológicas llevadas a cabo con
macacos se han detectado neuronas de esa estructura subcortical del sistema visual que aumentan su tasa de descarga cuando el ojo permanece inmóvil y un determinado estímulo atraviesa su campo receptor, pero que, en
cambio, permanecen inactivas cuando, debido al movimiento de los ojos, es
el campo receptivo el que se mueve con relación a un estímulo estático. La
inactividad en esta última situación se debería a que, pese a que el estímulo
se mueve en la retina —y en el campo receptor de dichas neuronas—, la
433
Percepción
CENTRO MOTOR
CENTRO SENSORIAL
(corteza frontal)
(V3, V5, SPO, etc.)
SISTEMA COMPARADOR
¿colículo sup.?, ¿núcleo pulvinar?, ¿áreas corticales?
Sistemas
Sistemas
motores
p. ej.: músculos
sensoriales
p. ej.: imagen
extraoculares
retiniana
Figura 12.7 Representación esquemática del mecanismo de la descarga corolaria y de las posibles
estructuras neurales implicadas.
copia motora de la orden para mover los músculos que provocan el desplazamiento ocular neutralizaría la aferencia retiniana. Otros trabajos más recientes, sin subestimar el papel del colículo superior, implican también al
núcleo pulvinar talámico, sugiriendo que ese gran núcleo subcortical interviene de forma fundamental en la capacidad de nuestro sistema visual para
compensar los efectos que puedan tener nuestros distintos movimientos sobre la imagen retiniana (Robinson y Petersen, 1992). Según estos autores,
el pulvinar recibe información sobre el movimiento de los ojos procedente
del colículo superior y la compara con la imagen visual recibida de V1. El
output resultante de esta comparación lo envía a las zonas corticales preestriadas especializadas en la percepción del movimiento (V5, V3, etc.), resultando así de inestimable ayuda para que dichas áreas puedan discernir
entre los desplazamientos de la imagen retiniana debidos a un objeto que se
mueve, de los producidos por el movimiento ocular (aunque no se sabe con
certeza si el pulvinar interviene también en el caso de la compensación de
los movimientos de la cabeza o de los del cuerpo entero).
En los trabajos más recientes se aprecia una clara tendencia a subrayar el
papel de las áreas neocorticales en este proceso de comparación que venimos tratando. Diversos estudios neurofisiológicos apuntan a que ciertas
neuronas del área MST del macaco pueden combinar la información visual
con la de los movimientos oculares, constituyendo lo que podríamos llamar
434
12. Percepción del movimiento
un sistema comparador neocortical (Barinaga, 1996). Estas evidencias parecen confirmarse en investigaciones llevadas a cabo con técnicas de neuroimagen (Andersen, 1997). En la especie humana parece que las neuronas
responsables de esos cálculos se encuentran en el área parieto-occipital superior (SPO) (véase Figura 12.6), según revela el análisis mediante IRMf
(Reppas et al., 1996), lo que implica que a ese nivel debe integrarse una señal tipo descarga corolaria. Aunque todavía no se sabe a ciencia cierta, parece lógico pensar que a esos niveles también debe integrarse otra información extrarretiniana (vestibular, cinestésica, etc.) que puede resultar útil
para el sistema comparador. Un estudio reciente (Brandt et al., 1998),
apunta a que se da una inhibición recíproca entre el área SPO y una región
de la corteza vestibular, un área parietal que se considera un centro de integración multisensorial para la percepción de la orientación del cuerpo y la
automoción. De este modo, cuando, por ejemplo, viajamos en un vehículo
que acelera o decelera, este mecanismo neurofisiológico produce, a partir
de la activación de la corteza vestibular, una desactivación relativa de la
corteza visual del área SPO, dando, de esta forma, preponderancia a la información vestibular y somestésica, lo que se traduce en el hecho de que
percibamos que somos nosotros los que nos movemos y no el paisaje que
vemos por la ventanilla. Según estos autores, cuando la automoción se da a
velocidad constante —o cuando nuestro vehículo no se mueve— ocurre el
mecanismo inverso: se activa la corteza visual a expensas de la vestibular,
lo que implica que, en ese tipo de movimiento, es SPO el área encargada de
discernir entre el movimiento real de la escena y la automoción. Esta forma
de prioridad de la información visual sobre la vestibular podría explicar
ciertas formas de movimiento inducido (véase apartado 3.2.) como la ilusión de movimiento propio, ilustrada con un ejemplo que puede resultar familiar a los conductores en el apartado 4.1.
4.3.2.2 Neuronas para procesar las claves de movimiento relativo
Vayamos ahora, aunque sea brevemente, con el segundo caso de percepción
del movimiento que comentábamos al iniciar el apartado 4.3, es decir, con
la percepción del movimiento relativo o en base a claves relativas al objeto.
En la línea gibsoniana (véase apartado 3.1.), hay investigadores que
piensan que es suficiente con el análisis de la información retiniana (visual)
para dar cuenta de la distinción entre el movimiento de un objeto y el provocado por nuestra actividad motora: resultan innecesarias claves extrarretinianas como la descarga corolaria (Swanston y Wade, 1992). Estudios
pormenorizados (Born y Tootell, 1992) han demostrado que V5 no es una
zona funcionalmente uniforme, sino que las células de dicha área relacionadas con el procesamiento del movimiento global se hallan segregadas de las
que tratan el movimiento local. Otros autores apuntan a que, mientras las
435
Percepción
neuronas de V5 poseen una sensibilidad extrema para la detección de movimientos locales, las de la zona SPO humana extraen información sobre el
movimiento global de la imagen (Reppas et al., 1996). Diversos estudios
neuropsicológicos, neurofisiológicos y algunos llevados a cabo con técnicas de neuroimagen, apuntan a que en la zona ventral del área MST del macaco y en la SPO humana hay células que podrían utilizar esa doble información para responder al movimiento relativo de un objeto respecto a toda
la escena: aunque movamos los ojos o la cabeza, no hay movimiento relativo de las distintas partes que forman el fondo, pero sí lo hay entre el objeto
que realmente se mueve y dicho fondo (Tanaka et al., 1993; Albright y Stoner, 1995; Reppas et al., 1996). Así pues, hay evidencias que sugieren la
existencia de una base neural específica para la detección del movimiento
relativo. La cuestión es si dichos mecanismos son suficientes para explicar
cómo distinguimos el movimiento de un objeto en nuestro campo visual del
desplazamiento de la imagen retiniana originada por nuestra actividad motora, o si ese análisis complejo de la información visual coexiste con el sistema comparador que coteja la información visual con la extrarretiniana.
Todo apunta a que, pese al principio de la parsimonia, nuestro cerebro lleva
a cabo ambos tipos de computación de forma concurrente.
4.3.2.3 Supresión temporal de la visión
En los últimos años se ha puesto de manifiesto un mecanismo adicional
que ayuda a prevenir la confusión visual que podría darse durante los rápidos movimientos oculares. Cuando nuestros ojos se mueven rápidamente
desde una posición a otra, el consiguiente desplazamiento del input visual
en la retina debería dar lugar a una visión borrosa, en cierto modo semejante a la imagen que nos ofrece una cámara de vídeo que efectúa un rápido
barrido a través de una escena. Como es obvio, esto no sucede así. La razón
radica en la desconexión parcial de las áreas de la corteza visual durante los
movimientos sacádicos de los ojos. Esta supresión temporal de la visión,
que parece afectar sobre todo a las áreas relacionadas con el sistema magnocelular (Burr, Morrone y Ross, 1994; Paus et al., 1995), es fácilmente
contrastable. Si el lector se sitúa frente a un espejo y, en primera instancia,
fija la mirada en su ojo izquierdo para, después, desplazarla rápidamente al
ojo derecho, podrá comprobar que no puede ver cómo se mueven sus ojos.
Podría pensarse que esto es debido a que el desplazamiento ocular es demasiado rápido. Sin embargo, si le proponemos a otra persona que haga lo que
nosotros hemos hecho ante el espejo, es decir, que se fije primero en nuestro ojo izquierdo y después desplace su mirada para fijarla en el derecho,
veremos que el movimiento de sus ojos es perfectamente detectable. De algún modo —posiblemente mediante un mecanismo similar al de la descarga corolaria—, al producirse un movimiento sacádico de los ojos, llega a
436
12. Percepción del movimiento
nuestra corteza visual una señal que produce esa desactivación temporal.
Esa ceguera breve y transitoria parece no ser total, dado que sólo se desconectan las áreas visuales superiores. Resultados recientes sugieren que también sufrimos esos instantes de ceguera funcional durante el parpadeo y los
movimientos oculares de convergencia y divergencia (Skoyles, 1997).
4.3.3 Respuesta neural al movimiento ilusorio: tras el rastro
de la conciencia
Recientemente se ha empezado a estudiar la respuesta de las áreas corticales responsables de la percepción del movimiento ante situaciones que provocan movimiento ilusorio. Las implicaciones de estos estudios pueden ser
sumamente relevantes para determinar la base neural de la percepción subjetiva de movimiento. Aunque los trabajos no son aún lo suficientemente
abundantes —ni los resultados lo bastante coherentes— para poder ofrecer
conclusiones definitivas, hay indicios de que ciertas áreas responden tanto
al movimiento real como a la impresión de movimiento (Reppas et al.,
1996). En concreto, el área V5 parece ser una de ellas (Brandt et al., 1997):
aproximadamente la mitad de las neuronas de V5 no responden al patrón
retiniano de movimiento, sino al movimiento percibido por el sujeto, lo que
pone de relieve que el procesamiento llevado a cabo en dicha área participa
en la impresión de movimiento transmitida a la conciencia (Barinaga,
1997). Sin embargo, parece que dicha percepción consciente requiere también de V1 y V2 (Zeki, 1995). No se descarta la contribución de otras
áreas. De Jong et al., (1994), en un estudio realizado a partir del movimiento ilusorio producido por un flujo óptico que simulaba movimiento hacia
delante, encontraron activación en el área V3, en el lóbulo parietal superior
derecho y en un área témporo-occipital. Así pues, habrá que esperar a que
futuras investigaciones aporten nuevos datos que nos ayuden a entender
cómo procesa nuestro cerebro el movimiento ilusorio: si lo conseguimos
habremos dado un paso importante en la comprensión de la base neural de
la experiencia consciente de movimiento, lo que, a su vez, puede constituir
un punto de partida de inestimable valor para entender cómo accede a la
conciencia la información visual procesada en nuestra corteza cerebral.
5.
Percepción auditiva del movimiento
5.1
Psicofísica de la percepción auditiva del movimiento
En las reuniones científicas sobre el estudio de la audición es frecuente que
algún ponente destaque la preponderancia otorgada a la información visual
en detrimento de la auditiva. También es habitual que se comente que vivi-
437
Percepción
mos en un mundo eminentemente visual. Probablemente, esto sea así (y es
difícil que pueda ser de otra manera), pero no debemos olvidar que el progreso hacia nuestro estilo de vida también se ha fundamentado en aprovechar nuestra relación auditiva con el mundo exterior. Por ejemplo, la potente industria cinematográfica utiliza, despliega e investiga efectos acústicos
y auditivos que mejoran el producto final. En mente de todos se halla el conocido fenómeno de la estereofonía que permite una representación auditiva tridimensional y se relaciona claramente con la percepción auditiva del
movimiento. Por consiguiente, consideramos que no debemos relegar la información auditiva a la función de simple acompañamiento de la información visual. Podríamos exponer muchos más argumentos para defender esta
tesis, aunque no es ésta la intención de este apartado, que pretende ofrecer
al lector los conocimientos más relevantes sobre la percepción auditiva del
movimiento; conocimientos que, aunque sea en segunda instancia, pueden
ayudar a otorgar a la audición del movimiento el lugar que sin duda merece.
El concepto de percepción auditiva del movimiento puede definirse
como la capacidad auditiva que nos permite detectar el movimiento y, a la
vez, captar una serie de atributos relacionados con dicho movimiento,
como por ejemplo la dirección, la velocidad y la posición en un momento
concreto. A partir de esta definición, no debe suponerse que los atributos
mencionados deban darse al unísono: es posible que cada uno de ellos dependa de claves diferentes y, por consiguiente, que su procesamiento cognitivo sea ligeramente distinto.
En el estudio de la percepción auditiva del movimiento hallamos más investigaciones que utilizan simulación de movimiento que movimiento real.
Este hecho puede tener consecuencias negativas para el conocimiento del
mecanismo auditivo de la percepción del movimiento, ya que aún no conocemos en profundidad los indicios que facilitan esta capacidad (Perrott y
Strybel, 1997). Una fuente sonora en movimiento produce una cierta variedad de claves potenciales, mono y binaurales. En una simulación eficaz de
movimiento, de alta fidelidad, las señales acústicas que llegan a nuestros
oídos deberían contener toda la información necesaria para que el sistema
auditivo se comportase del mismo modo que en situaciones de movimiento
real. Por otro lado, también parece conveniente estudiar aisladamente cada
una de las claves con objeto de conocer su auténtico potencial.
Por lo que se refiere a la detección, los aspectos temporales de la secuencia estimular parecen ser los únicos determinantes de la presencia o no
de percepción auditiva de movimiento (Perrott y Strybel, 1997). Para conseguir movimiento auditivo aparente se requiere de una duración de la señal
superior a 10 ms (Strybel, Witty y Perrott, 1992). En cambio, la distribución espacial de los eventos discretos, más que la temporal, parece ser el
mecanismo subyacente a la habilidad auditiva para identificar correctamente la dirección del movimiento. En condiciones monoaurales se puede detectar el movimiento, pero difícilmente se determina su dirección (Strybel,
438
12. Percepción del movimiento
Manligas y Perrott, 1989). Este resultado hace suponer que la percepción
de la dirección del movimiento depende de las claves derivadas de las diferencias interaurales, que sólo son funcionales en condiciones binaurales.
El mínimo ángulo en movimiento audible (MAMA), derivado del mínimo
ángulo audible (MAA) estático, es la medida más utilizada en la evaluación
de la percepción auditiva del movimiento. El MAMA puede definirse como
el cambio más pequeño en la posición de un estímulo en movimiento que
puede detectarse auditivamente. En las mismas condiciones, los valores de
MAMA siempre son mayores que los de MAA. Perrott y Musicant (1977)
obtuvieron un MAMA de 8,3º en la posición de 0º en el plano horizontal o
de acimut (frente al sujeto) con un tono de 500 Hz, mientras que Mills
(1958), en la misma posición, obtuvo un MAA cercano a 1º con un tono de
800 Hz.
Algunos de los resultados experimentales más destacables obtenidos en
el estudio del MAMA son:
— En el plano horizontal, los MAMA más pequeños se obtienen con
estímulos situados frente al sujeto (0º) y aumentan a medida que aumenta el ángulo de acimut (Harris y Sergeant, 1971; Grantham,
1986).
— Los valores de MAMA obtenidos con señales de banda ancha son
menores que los obtenidos con estímulos puros (Harris y Sergeant,
1971; Saberi y Perrott, 1990).
— Cuando evaluamos MAMA con estímulos puros, los MAMA son
mayores en el intervalo de frecuencias de 1.300 a 2.000 Hz (Perrott y
Tucker, 1988; Chandler y Grantham, 1992), fenómeno similar al que
ocurre con los MAA (Mills, 1958).
— Las velocidades óptimas para obtener valores pequeños de MAMA
son las que se hallan en el rango comprendido entre 2 y 10º /s: velocidades superiores o inferiores aumentan considerablemente el
MAMA (Perrott y Musicant, 1977; Saberi y Perrott, 1990).
— Parece ser que el sentido del movimiento (izquierda-derecha o derecha-izquierda) no provoca diferencias en el MAMA (Chandler y
Grantham, 1992).
Los MAMA obtenidos en orientaciones oblicuas (45º de la horizontal)
son similares a los obtenidos en la orientación horizontal (Saberi y Perrott,
1990). Sin embargo, los MAMA en el plano vertical son mayores que los
del plano horizontal en todas las condiciones, con una diferencia media de
unos 8º.
A partir de estos estudios, han surgido dos grandes perspectivas teóricas
sobre el funcionamiento de la audición del movimiento. Por una parte, se
ha sugerido la existencia, en el sistema auditivo, de mecanismos específicamente sensibles a los estímulos en movimiento o, en otras palabras, de de-
439
Percepción
tectores de movimiento (Perrott y Marlborough, 1989; Perrott, Costantino y
Ball, 1993). De este modo, el sistema auditivo parece sensible a los aspectos dinámicos de las claves de localización, como pueden ser las diferencias
interaurales de intensidad o las de fase. De acuerdo a este enfoque, la velocidad de la fuente sería un atributo perceptivo captado directamente a partir
del estímulo en movimiento.
La perspectiva alternativa se basa en el supuesto que la percepción de
fuentes sonoras en movimiento horizontal no incluye mecanismos especiales de movimiento, sino que se fundamenta en la discriminación de las posiciones espaciales y en la secuencia temporal asociada a los puntos de la
trayectoria. Esta aproximación teórica se conoce con el nombre de hipótesis
del fotograma (snapshot hipothesis) (Grantham, 1986 y 1997; Chandler y
Grantham, 1992). Consecuentemente, el sistema nervioso simplemente registraría la localización de la fuente sonora en dos momentos distintos e interpretaría como movimiento un cambio de posición. Grantham (1997), a
partir de los resultados obtenidos en una serie de experimentos, concluye
que, para una velocidad de 20º /s, es más adecuado el modelo de detectores
de movimiento que la hipótesis del fotograma. En cambio, los resultados
sugieren que el modelo de detectores de movimiento es inoperante cuando
las velocidades son superiores a los 60º /s, en cuyo caso parece plausible la
hipótesis del fotograma.
Lakatos (1993) y Pich (1997) aportan datos a partir de los cuales puede
interpretarse que el sistema auditivo tiene una cierta capacidad para reconocer patrones espaciales en el plano dimensional: dígitos alfanuméricos en el
primer trabajo y trayectorias en el segundo. Desde luego, son necesarias
unas condiciones espacio-temporales concretas para que pueda manifestarse dicha capacidad.
La percepción auditiva del movimiento, al igual que la localización de la
fuente sonora, es inherentemente tridimensional, de forma que no sólo captamos la dirección de la fuente sonora, sino que también percibimos auditivamente su distancia y su cambio de distancia. A pesar de la evidencia incontrovertible de esta fenomenología cotidiana, se han investigado en
mayor pro
Descargar