Subido por FRANZ FERNANDEZ

Producción de voz - Wikipedia, la enciclopedia libre

Anuncio
Producción de voz
De Wikipedia, la enciclopedia libre
La producción del habla es el proceso por el cual los pensamientos se traducen en habla. Esto
incluye la selección de palabras, la organización de formas gramaticales relevantes y luego la
articulación de los sonidos resultantes por el sistema motor utilizando el aparato vocal. La
producción del habla puede ser espontánea, como cuando una persona crea las palabras de una
conversación, reactiva, como cuando nombra una imagen o lee en voz alta una palabra escrita, o
imitativa, como en la repetición del habla. La producción de voz no es lo mismo que la producción
de lenguaje, ya que el lenguaje también se puede producir manualmente por signos.
En una conversación fluida ordinaria, las personas pronuncian aproximadamente cuatro sílabas,
diez o doce fonemas y dos o tres palabras de su vocabulario (que puede contener de 10 a 100 mil
palabras) cada segundo. [1] Los errores en la producción del habla son relativamente raros y
ocurren a una tasa de aproximadamente una vez por cada 900 palabras en el habla espontánea. [2]
Las palabras que comúnmente se hablan o aprenden temprano en la vida o que se imaginan
fácilmente son más rápidas de decir que las que rara vez se dicen, se aprenden más adelante en la
vida o son abstractas. [3] [4]
Normalmente el habla se crea con la presión pulmonar proporcionada por los pulmones que
genera sonido por fonación a través de la glotis en la laringe que luego es modificada por el tracto
vocal en diferentes vocales y consonantes. Sin embargo, la producción del habla puede ocurrir sin
el uso de los pulmones y la glotis en el habla alaríngea mediante el uso de las partes superiores del
tracto vocal. Un ejemplo de tal discurso alaringeo es la charla del Pato Donald. [5]
La producción vocal del habla puede estar asociada con la producción de gestos con las manos que
actúan para mejorar la comprensibilidad de lo que se dice. [6]
El desarrollo de la producción del habla a lo largo de la vida de un individuo comienza desde el
primer balbuceo de un bebé y se transforma en un habla completamente desarrollada a la edad de
cinco años. [7] La primera etapa del habla no ocurre hasta alrededor de la edad de un año (fase
holofrástica). Entre las edades de un año y medio y dos años y medio, el bebé puede producir
oraciones cortas (fase telegráfica). Después de dos años y medio, el bebé desarrolla sistemas de
lemas utilizados en la producción del habla. Alrededor de cuatro o cinco los lemas del niño
aumentan en gran medida; Esto mejora la producción del habla correcta del niño y ahora puede
producir el habla como un adulto. Un adulto ahora desarrolla el habla en cuatro etapas: activación
de conceptos léxicos, selección de lemas necesarios, codificación morfológica y fonológica del
habla, y la palabra está codificada fonéticamente. [7]
Tres etapas
La producción del lenguaje hablado implica tres niveles principales de procesamiento:
conceptualización, formulación y articulación. [1] [8] [9]
El primero son los procesos de conceptualización o preparación conceptual, en los que la intención
de crear un discurso vincula un concepto deseado con las palabras habladas particulares que se
expresarán. Aquí se formulan los mensajes preverbales que especifican los conceptos a expresar.
[10]
La segunda etapa es la formulación en la que se crea la forma lingüística requerida para la
expresión del mensaje deseado. La formulación incluye codificación gramatical, codificación
morfofonológica y codificación fonética. [10] La codificación gramatical es el proceso de seleccionar
la palabra o lema sintáctico apropiado. El lema seleccionado activa el marco sintáctico apropiado
para el mensaje conceptualizado. La codificación morfo-fonológica es el proceso de descomponer
las palabras en sílabas para ser producidas en el habla abierta. La silabificación depende de las
palabras anteriores y siguientes, por ejemplo: I-com-pre-hend vs. I-com-pre-hen-dit. [10] La parte
final de la etapa de formulación es la codificación fonética. Esto implica la activación de gestos
articulatorios dependientes de las sílabas seleccionadas en el proceso morfo-fonológico, creando
una partitura articulatoria a medida que se construye la expresión y se completa el orden de los
movimientos del aparato vocal. [10]
La tercera etapa de la producción del habla es la articulación, que es la ejecución de la puntuación
articulatoria por los pulmones, la glotis, la laringe, la lengua, los labios, la mandíbula y otras partes
del aparato vocal que resultan en el habla. [8] [10]
Neurociencia
El control motor para la producción del habla en personas diestras
depende principalmente de áreas en el hemisferio cerebral izquierdo.
Estas áreas incluyen el área motora suplementaria bilateral, la
circunvolución frontal inferior posterior izquierda, la ínsula izquierda, la
corteza motora primaria izquierda y la corteza temporal. [11] También hay
áreas subcorticales comprometidas, como los ganglios basales y el
cerebelo. [12] [13] El cerebelo ayuda a la secuenciación de las sílabas del
habla en palabras rápidas, suaves y organizadas rítmicamente y
expresiones más largas. [13]
Trastornos
Para las personas
diestras, la mayor
parte de la actividad
de producción del
habla ocurre en el
hemisferio cerebral
izquierdo.
La producción del habla puede verse afectada por varios trastornos:
Afasia
Afasia anómica
Apraxia del habla
Aprosodia
Trastorno del procesamiento
auditivo
Desorden
Dispraxia verbal del
desarrollo
Disprosodia
Habla infantil
Ceceo
Malapropismo
Pronunciación incorrecta
Trastorno del habla
Error de voz
Trastorno del sonido del
habla
Spoonerismo
Tartamudez
Historia de la investigación de producción de discurso
Hasta finales de la década de 1960, la investigación sobre el habla se centró en la comprensión. A
medida que los investigadores recopilaron mayores volúmenes de datos de error del habla,
comenzaron a investigar los procesos psicológicos responsables de la producción de sonidos del
habla y a contemplar posibles procesos para el habla fluida. [14] Los hallazgos de la investigación
sobre errores del habla pronto se incorporaron a los modelos de producción del habla. La
evidencia de los datos de error de voz apoya las siguientes conclusiones sobre la producción del
habla.
Algunas
de estas
ideas
Ejemplos de errores de habla. El objetivo es lo que el orador pretendía decir. El error es lo que
realmente dijo el orador. Estos errores han sido estudiados para aprender sobre la estructura de la
producción del habla.
incluyen:
1. El discurso se planifica con anticipación. [15]
2. El léxico está organizado semántica y fonológicamente. [15] Eso es por el significado y por el
sonido de las palabras.
3. Se ensamblan palabras morfológicamente complejas. [15] Las palabras que producimos que
contienen morfemas se juntan durante el proceso de producción del habla. Los morfemas son
las unidades más pequeñas del lenguaje que contienen significado. Por ejemplo, "ed" en una
palabra en tiempo pasado.
4. Los afijos y funtores se comportan de manera diferente a las palabras de contexto en lapsus
de la lengua. [15] Esto significa que las reglas sobre las formas en que se puede usar una
palabra probablemente se almacenen con ellas, lo que significa que generalmente cuando se
cometen errores de habla, las palabras erróneas mantienen sus funciones y tienen sentido
gramatical.
5. Los errores de habla reflejan el conocimiento de las reglas. [15] Incluso en nuestros errores, el
habla no es absurda. Las palabras y oraciones que se producen en los errores del habla son
típicamente gramaticales y no violan las reglas del idioma que se habla.
Aspectos de los modelos de producción del habla
Los modelos de producción de voz deben contener elementos específicos para ser viables. Estos
incluyen los elementos a partir de los cuales se compone el habla, que se enumeran a continuación.
Los modelos aceptados de producción de habla discutidos con más detalle a continuación
incorporan estas etapas, ya sea explícita o implícitamente, y las que ahora están obsoletas o
disputadas han sido criticadas por pasar por alto una o más de las siguientes etapas. [16]
Los atributos de los modelos de voz aceptados son:
a) una etapa conceptual donde el hablante identifica abstractamente lo que desea expresar. [16]
b) una etapa sintáctica donde se elige un marco en el que se colocarán las palabras, este marco
suele ser la estructura de la oración. [16]
c) una etapa léxica donde se produce una búsqueda de una palabra basada en el significado. Una
vez que se selecciona y recupera la palabra, la información sobre ella está disponible para el
hablante que involucra fonología y morfología. [16]
d) una etapa fonológica donde la información abstracta se convierte en una forma similar al habla.
[16]
e) Una etapa fonética donde se preparan instrucciones para ser enviadas a los músculos de la
articulación. [16]
Además, los modelos deben permitir mecanismos de planificación anticipada, un amortiguador y
un mecanismo de monitoreo.
Los siguientes son algunos de los modelos influyentes de producción del habla que explican o
incorporan las etapas mencionadas anteriormente e incluyen información descubierta como
resultado de estudios de errores del habla y otros datos de disfluencia,[17] como la investigación de
la punta de la lengua.
Modelo
The Utterance Generator Model (1971)
El modelo generador de expresiones fue propuesto por Fromkin (1971). [18] Se compone de seis
etapas y fue un intento de explicar los hallazgos previos de la investigación del error del habla. Las
etapas del modelo generador de expresiones se basaron en posibles cambios en las
representaciones de una expresión en particular. La primera etapa es donde una persona genera el
significado que desea transmitir. La segunda etapa implica que el mensaje se traduzca a una
estructura sintáctica. Aquí, el mensaje recibe un esquema. [19] La tercera etapa propuesta por
Fromkin es donde/cuando el mensaje adquiere diferentes acentuaciones y entonaciones basadas
en el significado. La cuarta etapa sugerida por Fromkin se refiere a la selección de palabras del
léxico. Después de que las palabras han sido seleccionadas en la Etapa 4, el mensaje se somete a la
especificación fonológica. [20] La quinta etapa aplica reglas de pronunciación y produce sílabas que
deben ser emitidas. La sexta y última etapa del Modelo Generador de Expresiones de Fromkin es
la coordinación de los comandos motores necesarios para el habla. Aquí, las características
fonéticas del mensaje se envían a los músculos relevantes del tracto vocal para que se pueda
producir el mensaje deseado. A pesar del ingenio del modelo de Fromkin, los investigadores han
criticado esta interpretación de la producción del habla. Aunque el modelo generador de
expresiones tiene en cuenta muchos matices y datos encontrados por los estudios de errores de
habla, los investigadores decidieron que todavía tenía espacio para mejorar. [21] [22]
El modelo Garrett (1975)
Un intento más reciente (que el de Fromkin) de explicar la producción del habla fue publicado por
Garrett en 1975. [23] Garrett también creó este modelo compilando datos de error de voz. Hay
muchas superposiciones entre este modelo y el modelo de Fromkin en el que se basó, pero agregó
algunas cosas al modelo de Fromkin que llenaron algunos de los vacíos señalados por otros
investigadores. Los modelos de Garrett Fromkin distinguen entre tres niveles: un nivel conceptual
y un nivel de oración, y un nivel motor. Estos tres niveles son comunes a la comprensión
contemporánea de la producción del habla. [24]
Modelo de Dell (1994)
En 1994,[25] Dell propuso un modelo de la red léxica que se convirtió en fundamental en la
comprensión de la forma en que se produce el habla. [1] Este modelo de la red léxica intenta
representar simbólicamente el léxico y, a su vez, explicar cómo las personas eligen las palabras que
desean producir y cómo esas palabras deben organizarse en el habla. El modelo de Dell estaba
compuesto por tres etapas, semántica, palabras y fonemas. Las palabras en la etapa más alta del
modelo representan la categoría semántica. (En la imagen,
las palabras que representan la categoría semántica son
invierno, calzado, pies y nieve representan las categorías
semánticas de bota y patín). El segundo nivel representa las
palabras que hacen referencia a la categoría semántica (En
la imagen, bota y patín). Y, el tercer nivel representa los
fonemas (información silábica que incluye inicio, vocales y
codas). [26]
Modelo Levelt (1999)
Esta es una interpretación del modelo
de Dell. Las palabras en la parte
superior representan la categoría
semántica. El segundo nivel representa
las palabras que denotan la categoría
semántica. El tercer nivel representa
los fonemas (información silábica que
incluye inicio, vocales y codas).
Levelt refinó aún más la red léxica propuesta por Dell.
Mediante el uso de datos de error de voz, Levelt recreó los
tres niveles en el modelo de Dell. El estrato conceptual, el
nivel superior y más abstracto, contiene información que
una persona tiene sobre ideas de conceptos particulares. [27]
El estrato conceptual también contiene ideas sobre cómo los
conceptos se relacionan entre sí. Aquí es donde ocurriría la
selección de palabras, una persona elegiría qué palabras
desea expresar. El siguiente, o nivel medio, el lema-estrato, contiene información sobre las
funciones sintácticas de las palabras individuales, incluyendo el tiempo y la función. [1] Este nivel
funciona para mantener la sintaxis y colocar las palabras correctamente en la estructura de la
oración que tiene sentido para el hablante. [27] El nivel más bajo y final es el estrato de forma que,
de manera similar al modelo de Dell, contiene información silábica. Desde aquí, la información
almacenada a nivel de estrato de forma se envía a la corteza motora donde el aparato vocal se
coordina para producir físicamente los sonidos del habla.
Places of articulation
The physical structure of the human nose, throat, and vocal cords
allows for the productions of many unique sounds, these areas can be
further broken down into places of articulation. Different sounds are
produced in different areas, and with different muscles and breathing
techniques.[28] Our ability to utilize these skills to create the various
sounds needed to communicate effectively is essential to our speech
production. Speech is a psychomotor activity. Speech between two
people is a conversation - they can be casual, formal, factual, or
transactional, and the language structure/ narrative genre employed
Human vocal apparatus
differs depending upon the context. Affect is a significant factor that
used to produce speech
controls speech, manifestations that disrupt memory in language use
due to affect include feelings of tension, states of apprehension, as well
as physical signs like nausea. Language level manifestations that affect
brings could be observed with the speaker's hesitations, repetitions, false starts, incompletion,
syntactic blends, etc. Difficulties in manner of articulation can contribute to speech difficulties and
impediments.[29] It is suggested that infants are capable of making the entire spectrum of possible
vowel and consonant sounds. IPA has created a system for understanding and categorizing all
possible speech sounds, which includes information about the way in which the sound is produced,
and where the sounds is produced.[29] This is extremely useful in the understanding of speech
production because speech can be transcribed based on sounds rather than spelling, which may be
misleading depending on the language being spoken. Average speaking rates are in the 120 to 150
words per minute (wpm) range, and same is the recommended guidelines for recording
audiobooks. As people grow accustomed to a particular language they are prone to lose not only
the ability to produce certain speech sounds, but also to distinguish between these sounds.[29]
Articulation
Articulation, often associated with speech production, is how people physically produce speech
sounds. For people who speak fluently, articulation is automatic and allows 15 speech sounds to be
produced per second.[30]
An effective articulation of speech include the following elements – fluency, complexity, accuracy,
and comprehensibility.[31]
Fluency: Is the ability to communicate an intended message, or to affect the listener in the way
that is intended by the speaker. While accurate use of language is a component in this ability,
over-attention to accuracy may actually inhibit the development of fluency. Fluency involves
constructing coherent utterances and stretches of speech, to respond and to speak without
undue hesitation (limited use of fillers such as uh, er, eh, like, you know). It also involves the
ability to use strategies such as simplification and gestures to aid communication. Fluency
involves use of relevant information, appropriate vocabulary and syntax.
Complexity: Speech where the message is communicated precisely. Ability to adjust the
message or negotiate the control of conversation according to the responses of the listener,
and use subordination and clausal forms appropriate per the roles and relationship between
the speakers. It includes the use of sociolinguistic knowledge – the skills required to
communicate effectively across cultures; the norms, the knowledge of what is appropriate to
say in what situations and to whom.
Accuracy: This refers to the use of proper and advanced grammar; subject-verb agreement;
word order; and word form (excited/exciting), as well as appropriate word choice in spoken
language. It is also the ability to self-correct during discourse, to clarify or modify spoken
language for grammatical accuracy.
Comprehensibility: This is the ability to be understood by others, it is related with the sound of
the language. There are three components that influence one’s comprehensibility and they are:
Pronunciation – saying the sounds of words correctly; Intonation – applying proper stress on
words and syllables, using rising and falling pitch to indicate questions or statements, using
voice to indicate emotion or emphasis, speaking with an appropriate rhythm; and Enunciation
– speaking clearly at an appropriate pace, with effective articulation of words and phrases and
appropriate volume.
Development
Incluso antes de producir un sonido, los bebés imitan expresiones faciales y movimientos. [32]
Alrededor de los 7 meses de edad, los bebés comienzan a experimentar con sonidos comunicativos
al tratar de coordinar la producción de sonido con la apertura y el cierre de la boca.
Hasta el primer año de vida, los bebés no pueden producir palabras coherentes, sino que producen
un balbuceo recurrente. El balbuceo permite al bebé experimentar con sonidos articulados sin
tener que prestar atención al significado. Este balbuceo repetido inicia la producción inicial del
habla. El balbuceo trabaja con la permanencia de objetos y la comprensión de la ubicación para
apoyar las redes de nuestros primeros elementos léxicos o palabras. [7] El crecimiento del
vocabulario del bebé aumenta sustancialmente cuando son capaces de entender que los objetos
existen incluso cuando no están presentes.
La primera etapa del habla significativa no ocurre hasta alrededor de la edad de un año. Esta etapa
es la fase holofrástica. [33] La etapa holística se refiere a cuando el habla infantil consiste en una
palabra a la vez (es decir, papá).
La siguiente etapa es la fase telegráfica. En esta etapa, los bebés pueden formar oraciones cortas
(es decir, papá sentado o mamá bebe). Esto ocurre típicamente entre las edades de un año y medio
y dos años y medio. Esta etapa es particularmente notable debido al crecimiento explosivo de su
léxico. Durante esta etapa, los bebés deben seleccionar y hacer coincidir las representaciones
almacenadas de las palabras con la palabra objetivo perceptiva específica para transmitir
significado o conceptos. [32] Con suficiente vocabulario, los bebés comienzan a extraer patrones de
sonido y aprenden a descomponer las palabras en segmentos fonológicos, aumentando aún más el
número de palabras que pueden aprender. [7] En este punto del desarrollo del habla de un bebé, su
léxico consta de 200 palabras o más y son capaces de entender incluso más de lo que pueden
hablar. [33]
Cuando llegan a los dos años y medio su producción del habla se vuelve cada vez más compleja,
particularmente en su estructura semántica. Con una red semántica más detallada, el bebé
aprende a expresar una gama más amplia de significados, ayudando al bebé a desarrollar un
complejo sistema conceptual de lemas.
Around the age of four or five the child lemmas have a wide range of diversity, this helps them
select the right lemma needed to produce correct speech.[7] Reading to infants enhances their
lexicon. At this age, children who have been read to and are exposed to more uncommon and
complex words have 32 million more words than a child who is linguistically impoverished.[34] At
this age the child should be able to speak in full complete sentences, similar to an adult.
See also
FOXP2
KE family
Neurocomputational speech processing
Psycholinguistics
Silent speech interface
Speech perception
Speech science
References
1. Levelt, WJ (1999). "Models of word production" (http://www.columbia.edu/~rmk7/HC/HC_Read
ings/Levelt.pdf) (PDF). Trends in Cognitive Sciences. 3 (6): 223–232. doi:10.1016/S13646613(99)01319-4 (https://doi.org/10.1016%2FS1364-6613%2899%2901319-4).
PMID 10354575 (https://pubmed.ncbi.nlm.nih.gov/10354575). S2CID 7939521 (https://api.sem
anticscholar.org/CorpusID:7939521).
2. Garnham, A, Shillcock RC, Brown GDA, Mill AID, Culter A (1981). "Slips of the tongue in the
London–Lund corpus of spontaneous conversation" (http://dare.ubn.kun.nl/bitstream/2066/156
15/1/6017.pdf) (PDF). Linguistics. 19 (7–8): 805–817. doi:10.1515/ling.1981.19.7-8.805 (http
s://doi.org/10.1515%2Fling.1981.19.7-8.805). hdl:11858/00-001M-0000-0013-33D0-4 (https://h
dl.handle.net/11858%2F00-001M-0000-0013-33D0-4). S2CID 144105729 (https://api.semantic
scholar.org/CorpusID:144105729).
3. Oldfield RC, Wingfield A (1965). "Response latencies in naming objects". Quarterly Journal of
Experimental Psychology. 17 (4): 273–281. doi:10.1080/17470216508416445 (https://doi.org/1
0.1080%2F17470216508416445). hdl:11858/00-001M-0000-002C-17D2-8 (https://hdl.handle.n
et/11858%2F00-001M-0000-002C-17D2-8). PMID 5852918 (https://pubmed.ncbi.nlm.nih.gov/5
852918). S2CID 9567809 (https://api.semanticscholar.org/CorpusID:9567809).
4. Bird, H; Franklin, S; Howard, D (2001). "Age of acquisition and imageability ratings for a large
set of words, including verbs and function words" (http://brm.psychonomic-journals.org/conten
t/33/1/73.full.pdf) (PDF). Behavior Research Methods, Instruments, and Computers. 33 (1):
73–9. doi:10.3758/BF03195349 (https://doi.org/10.3758%2FBF03195349). PMID 11296722 (ht
tps://pubmed.ncbi.nlm.nih.gov/11296722).
5. Weinberg, Bernd; Westerhouse, Jan (1971). "A Study of Buccal Speech". Journal of Speech
and Hearing Research. American Speech Language Hearing Association. 14 (3): 652–658.
doi:10.1044/jshr.1403.652 (https://doi.org/10.1044%2Fjshr.1403.652). ISSN 0022-4685 (http
s://www.worldcat.org/issn/0022-4685). PMID 5163900 (https://pubmed.ncbi.nlm.nih.gov/51639
00). also published as Weinberg, B.; Westerhouse, J. (1972). "A Study of Buccal Speech" (http
s://doi.org/10.1121%2F1.1981697). The Journal of the Acoustical Society of America.
Acoustical Society of America (ASA). 51 (1A): 91. Bibcode:1972ASAJ...51Q..91W (https://ui.ad
sabs.harvard.edu/abs/1972ASAJ...51Q..91W). doi:10.1121/1.1981697 (https://doi.org/10.112
1%2F1.1981697). ISSN 0001-4966 (https://www.worldcat.org/issn/0001-4966).
6. McNeill D (2005). Gesture and Thought. University of Chicago Press. ISBN 978-0-226-514635.
7. Harley, T.A. (2011), Psycholinguistics. (Volume 1). SAGE Publications.
8. Levelt, WJM (1989). Speaking: From Intention to Articulation. MIT Press. ISBN 978-0-26262089-5.
9. Jescheniak, JD; Levelt, WJM (1994). "Word frequency effects in speech production: retrieval of
syntactic information and of phonological form". Journal of Experimental Psychology: Learning,
Memory, and Cognition. 20 (4): 824–843. CiteSeerX 10.1.1.133.3919 (https://citeseerx.ist.psu.
edu/viewdoc/summary?doi=10.1.1.133.3919). doi:10.1037/0278-7393.20.4.824 (https://doi.org/
10.1037%2F0278-7393.20.4.824). S2CID 26291682 (https://api.semanticscholar.org/CorpusI
D:26291682).
10. Levelt, W. (1999). "The neurocognition of language", p.87 -117. Oxford Press
11. Indefrey, P; Levelt, WJ (2004). "The spatial and temporal signatures of word production
components". Cognition. 92 (1–2): 101–44. doi:10.1016/j.cognition.2002.06.001 (https://doi.or
g/10.1016%2Fj.cognition.2002.06.001). hdl:11858/00-001M-0000-0013-1C1F-E (https://hdl.ha
ndle.net/11858%2F00-001M-0000-0013-1C1F-E). PMID 15037128 (https://pubmed.ncbi.nlm.ni
h.gov/15037128). S2CID 12662702 (https://api.semanticscholar.org/CorpusID:12662702).
12. Booth, JR; Wood, L; Lu, D; Houk, JC; Bitan, T (2007). "The role of the basal ganglia and
cerebellum in language processing" (https://www.ncbi.nlm.nih.gov/pmc/articles/PMC2424405).
Brain Research. 1133 (1): 136–44. doi:10.1016/j.brainres.2006.11.074 (https://doi.org/10.101
6%2Fj.brainres.2006.11.074). PMC 2424405 (https://www.ncbi.nlm.nih.gov/pmc/articles/PMC2
424405). PMID 17189619 (https://pubmed.ncbi.nlm.nih.gov/17189619).
13. Ackermann, H (2008). "Cerebellar contributions to speech production and speech perception:
psycholinguistic and neurobiological perspectives". Trends in Neurosciences. 31 (6): 265–72.
doi:10.1016/j.tins.2008.02.011 (https://doi.org/10.1016%2Fj.tins.2008.02.011). PMID 18471906
(https://pubmed.ncbi.nlm.nih.gov/18471906). S2CID 23476697 (https://api.semanticscholar.or
g/CorpusID:23476697).
14. Fromkin, Victoria; Bernstein, Nan (1998). Speech Production Processing Models. Harcourt
Brace College. p. 327. ISBN 978-0155041066.
15. Fromkin, Victoria; Berstien Ratner, Nan (1998). Chapter 7 Speech Production. Harcourt Brace
College. pp. 322–327. ISBN 978-0155041066.
16. Field, John (2004). Psycholinguistics. Routledge. p. 284. ISBN 978-0415258906.
17. Fromkin, Victoria; Berstein, Nan (1998). Speech Production Processing Models. p. 328.
ISBN 978-0155041066.
18. Fromkin, Victoria; Bernstein Ratner, Nan (1998). Chapter 7 Speech Production (Second ed.).
Florida: Harcourt Brace College Publishers. pp. 328–337. ISBN 978-0155041066.
19. Fromkin, Victoria (1971). Utterance Generator Model of Speech Production in Psycholinguistics (2 ed.). Harcourt College Publishers. p. 328. ISBN 978-0155041066.
20. Fromkin, Victoria (1998). Utterance Generator Model of Speech Production in Psycholinguistics (2 ed.). Harcourt. p. 330.
21. Garrett (1975). The Garrett Model in Psycho-linguistics. Harcourt College. p. 331. ISBN 9780155041066.
22. Butterworth (1982). Psycho-linguistics. Harcourt College. p. 331.
23. Fromkin, Victoria; Berstein, Nan (1998). The Garret Model in Psycho-linguistics. Harcourt
College. p. 331. ISBN 978-0155041066.
24. Garrett; Fromkin, V.A.; Ratner, N.B (1998). The Garrett Model in Psycho-linguistics. Harcourt
College. p. 331.
25. "Psycholinguistics/Models of Speech Production - Wikiversity" (https://en.wikiversity.org/wiki/Ps
ycholinguistics/Models_of_Speech_Production). en.wikiversity.org. Retrieved 2015-11-16.
26. Dell, G.S. (1997). Analysis of Sentence Production (https://archive.org/details/psychologyoflear
0000unse_e2t0/page/133). Psychology of Learning and Motivation. Vol. 9. pp. 133–177 (http
s://archive.org/details/psychologyoflear0000unse_e2t0/page/133). doi:10.1016/S00797421(08)60270-4 (https://doi.org/10.1016%2FS0079-7421%2808%2960270-4).
ISBN 9780125433099.
27. Levelt, Willem J.M (1999). "Models of Word Production". Trends in Cognitive Sciences. 3 (6):
223–232. doi:10.1016/S1364-6613(99)01319-4 (https://doi.org/10.1016%2FS1364-6613%289
9%2901319-4). PMID 10354575 (https://pubmed.ncbi.nlm.nih.gov/10354575). S2CID 7939521
(https://api.semanticscholar.org/CorpusID:7939521).
28. Keren, Rice (2011). Consonantal Place of Articulation. John Wily & Sons Inc. pp. 519–549.
ISBN 978-1-4443-3526-2.
29. Harrison, Allen. E (2011). Speech Disorders : Causes, Treatments, and Social Effects. New
York: Nova Science Publishers. ISBN 9781608762132.
30. Field, John (2004). Psycholinguistics The Key Concepts. Routledge. pp. 18–19. ISBN 9780415258906.
31. Rebecca Hughes; Beatrice Szczepek Reed (2016). Teaching and Researching Speaking:
Third Edition (https://books.google.com/books?id=cC4lDwAAQBAJ&pg=PA6). Taylor &
Francis. pp. 6+. ISBN 978-1-317-43299-9.
32. Redford, M. A. (2015). The handbook of speech production. Chichester, West Sussex; Malden,
MA : John Wiley & Sons, Ltd, 2015.
33. Shaffer, D., Wood, E., & Willoughby, T. (2005). Developmental Psychology Childhood and
Adolescence. (2nd Canadian Ed). Nelson.
34. Wolf, M. (2005). Proust and the squid:The story and science of the reading brain, New York,
NY. Harper
Further reading
Gow DW (June 2012). "The cortical organization of lexical knowledge: a dual lexicon model of
spoken language processing" (https://www.ncbi.nlm.nih.gov/pmc/articles/PMC3348354). Brain
Lang. 121 (3): 273–88. doi:10.1016/j.bandl.2012.03.005 (https://doi.org/10.1016%2Fj.bandl.20
12.03.005). PMC 3348354 (https://www.ncbi.nlm.nih.gov/pmc/articles/PMC3348354).
PMID 22498237 (https://pubmed.ncbi.nlm.nih.gov/22498237).
Hickok G (2012). "The cortical organization of speech processing: feedback control and
predictive coding the context of a dual-stream model" (https://www.ncbi.nlm.nih.gov/pmc/article
s/PMC3468690). J Commun Disord. 45 (6): 393–402. doi:10.1016/j.jcomdis.2012.06.004 (http
s://doi.org/10.1016%2Fj.jcomdis.2012.06.004). PMC 3468690 (https://www.ncbi.nlm.nih.gov/p
mc/articles/PMC3468690). PMID 22766458 (https://pubmed.ncbi.nlm.nih.gov/22766458).
Hickok G, Houde J, Rong F (February 2011). "Sensorimotor integration in speech processing:
computational basis and neural organization" (https://www.ncbi.nlm.nih.gov/pmc/articles/PMC3
057382). Neuron. 69 (3): 407–22. doi:10.1016/j.neuron.2011.01.019 (https://doi.org/10.1016%
2Fj.neuron.2011.01.019). PMC 3057382 (https://www.ncbi.nlm.nih.gov/pmc/articles/PMC30573
82). PMID 21315253 (https://pubmed.ncbi.nlm.nih.gov/21315253).
Hickok G, Poeppel D (2004). "Dorsal and ventral streams: a framework for understanding
aspects of the functional anatomy of language". Cognition. 92 (1–2): 67–99.
doi:10.1016/j.cognition.2003.10.011 (https://doi.org/10.1016%2Fj.cognition.2003.10.011).
PMID 15037127 (https://pubmed.ncbi.nlm.nih.gov/15037127). S2CID 635860 (https://api.sema
nticscholar.org/CorpusID:635860).
Poeppel D, Emmorey K, Hickok G, Pylkkänen L (October 2012). "Towards a new neurobiology
of language" (https://www.ncbi.nlm.nih.gov/pmc/articles/PMC3495005). J. Neurosci. 32 (41):
14125–31. doi:10.1523/JNEUROSCI.3244-12.2012 (https://doi.org/10.1523%2FJNEUROSCI.
3244-12.2012). PMC 3495005 (https://www.ncbi.nlm.nih.gov/pmc/articles/PMC3495005).
PMID 23055482 (https://pubmed.ncbi.nlm.nih.gov/23055482).
Price CJ (August 2012). "A review and synthesis of the first 20 years of PET and fMRI studies
of heard speech, spoken language and reading" (https://www.ncbi.nlm.nih.gov/pmc/articles/PM
C3398395). NeuroImage. 62 (2): 816–47. doi:10.1016/j.neuroimage.2012.04.062 (https://doi.or
g/10.1016%2Fj.neuroimage.2012.04.062). PMC 3398395 (https://www.ncbi.nlm.nih.gov/pmc/a
rticles/PMC3398395). PMID 22584224 (https://pubmed.ncbi.nlm.nih.gov/22584224).
Stout D, Chaminade T (January 2012). "Stone tools, language and the brain in human
evolution" (https://www.ncbi.nlm.nih.gov/pmc/articles/PMC3223784). Philos. Trans. R. Soc.
Lond. B Biol. Sci. 367 (1585): 75–87. doi:10.1098/rstb.2011.0099 (https://doi.org/10.1098%2Fr
stb.2011.0099). PMC 3223784 (https://www.ncbi.nlm.nih.gov/pmc/articles/PMC3223784).
PMID 22106428 (https://pubmed.ncbi.nlm.nih.gov/22106428).
Kroeger BJ, Stille C, Blouw P, Bekolay T, Stewart TC (November 2020) "Hierarchical
sequencing and feedforward and feedback control mechanisms in speech production: A
preliminary approach for modeling normal and disordered speech" (https://www.frontiersin.org/
articles/10.3389/fncom.2020.573554/full) Frontiers in Computational Neuroscience 14:99
doi=10.3389/fncom.2020.573554 (https://www.frontiersin.org/articles/10.3389/fncom.2020.573
554/full)
Retrieved from "https://en.wikipedia.org/w/index.php?title=Speech_production&oldid=1146998972"
Descargar