UD1 Percepción de Los Sonidos y Del Habla
UD1 Percepción de Los Sonidos y Del Habla
UD1 Percepción de Los Sonidos y Del Habla
Pensamiento y Lenguaje
2. Resumen .................................................................................................................. 23
2
UD 1. Percepción de los sonidos y del habla
En esta unidad, veremos, en primer lugar, las características del sonido y sus parámetros más
destacables. Posteriormente, las bases fisiológicas de la percepción auditiva y, finalmente, el
proceso de percepción del habla.
3
1. Desarrollo del contenido
Al igual que el sentido de la vista, el sentido del oído es de suma importancia para poder
desenvolvernos correctamente en el mundo que nos rodea. Desde los inicios de la humanidad,
ambos sentidos jugaron un papel adaptativo necesario para la supervivencia. De hecho, la
mayoría de especies animales necesitan de ambos sentidos para poder evitar a los predadores,
buscar alimento o poder reproducirse, y para muchas especies es incluso más importante a nivel
adaptativo el sentido del oído o del olfato que el de la vista.
Muchos consideran que para el ser humano la visión juega un papel más importante que el oído,
puesto que la mayoría de información que recibimos del medio es visual. Actualmente, ambos
sentidos no son estrictamente necesarios para poder sobrevivir pero sí cruciales para poder
relacionarse con los demás o poder captar múltiple información del medio.
4
La información captada solo visualmente o solo auditivamente podría diferir en gran medida; no
hay más que hacer la prueba, por ejemplo, quitando el sonido y captando solamente la
información visual, o cerrando los ojos y escuchando solo el mensaje verbal. En este tipo de
anuncios los mensajes verbales pueden parecernos en ocasiones poco inteligentes o incluso sin
sentido (por ejemplo, en un anuncio de perfumes), sensación que tiende a diluirse si atendemos
al mismo tiempo a la información visual. Las personas ciegas pueden encontrarse a menudo en
situaciones similares, puesto que, en muchísimas ocasiones, atendiendo solo a la información
auditiva y a falta de información visual, los mensajes se pueden interpretar de manera muy
diferente. No obstante, en lo que se refiere a la comunicación y a las relaciones sociales,
posiblemente estas personas, los ciegos, tengan más facilidad, puesto que la mayoría de los actos
comunicativos tienen lugar por la vía auditiva (prácticamente toda la vida académica y familiar,
reuniones con amigos, etc.). Los individuos sordos, sin embargo, pierden un porcentaje muy
importante de la información; el resto de individuos, salvo excepciones, no acostumbran a
conocer el lenguaje de los signos o no realizan los esfuerzos necesarios para hacerse entender,
tendiendo a quedar el sordo, de esta manera, aislado y fuera del acto social y comunicativo, por
no mencionar el resto de estímulos que no llegan a ser escuchados (música, sonidos de la
naturaleza, etc.). El hecho de escuchar o de percibir un mensaje o un sonido es un proceso
complejo que requiere de la participación de los centros neurales superiores, que es donde tiene
lugar la interpretación del estímulo recibido, en este caso, las ondas sonoras. En este proceso de
interpretación intervienen múltiples elementos, como la memoria, los conocimientos y las
experiencias previas, la motivación o los intereses del individuo, entre otros. Antes de abordar
estas cuestiones, veamos las características de la señal acústica y la estructura y funciones del
sistema auditivo.
El sonido se desplaza más rápido en sólidos que en líquidos y más rápido en líquidos que en
gases.
El sonido consiste en ondas que s e propagan y viajan a través de diferentes medios, como
pueden ser el aire (por ejemplo, en una conversación), el agua (por ejemplo, comunicación
entre cetáceos) o entre elementos sólidos (por ejemplo, a través de un objeto de metal).
Las ondas sonoras producen vibraciones en las partículas del medio, por lo que cualquier
medio que tenga partículas que puedan vibrar transmitirá un sonido; sin embargo, la onda
sonora no puede desplazarse en el vacío. La naturaleza del medio (sólido, líquido o gaseoso)
determinará la velocidad con la que las vibraciones pasen de partícula en partícula y, por
consiguiente, la velocidad del sonido.
5
El sonido viaja más rápido en aquellos medios en los que los átomos están más unidos, lo
que significa que en general el sonido viajará más rápido en sólidos que en líquidos y más
rápido en estos que en gases. Si tienes la oportunidad de hacer la prueba, comprobarás
que el sonido llega antes a través del metal que del aire. Para que el lector pueda hacerse
una idea, el sonido viaja a través del metal a una velocidad de unos 4900 m/s, a través
del agua a unos 1550 m/s, mientras que a través del aire viaja a unos 325 m/s. Cuando
se da este último caso, hay que tener en cuenta que el viento mueve el aire en el que la
onda sonora viaja, así que para calcular la velocidad de un sonido en una situación
determinada el viento será un factor que tener en cuenta; si la onda y el viento se
mueven en la misma dirección, se realizará una operación aditiva, mientras que si ocurre
lo contrario, la velocidad de la onda será menor. Otro factor que afecta a la velocidad del
sonido es la temperatura; cuando mayor es esta, las partículas vibran más rápidamente y el
sonido se propaga a mayor velocidad.
El sonido consiste en ondas sonoras que se propagan a través del medio (gases, fluidos o cuerpos
sólidos). Se trata de un movimiento ondulatorio que se representa en ondas sinusoidales como
las siguientes:
El sonido produce un tipo característico de onda más compleja y cambiante que estas, puesto
que los sonidos del mundo que nos rodea habitualmente son más complejos o están superpuestos.
Sin embargo, puede descomponerse en una suma de ondas sinusoidales simples, con forma
regular, mediante la transformada de Fourier (véase teorema de Fourier), para poder analizar
cada componente frecuencial de manera independiente. La acústica estudia las propiedades
físicas de los sonidos. Cuando el sonido es más agudo, las partículas vibran más rápido y tiene
una frecuencia más alta, mientras que si el sonido es más grave, la frecuencia es más baja. Por
lo que respecta al espectro audible, sucede igual que en el caso de la visión: el ser humano solo
percibe una parte del espectro, concretamente podemos oír desde los 20 hasta los 20 000 Hz
aproximadamente.
6
A, B, C…
Teorema de Fourier
Las ondas complejas se pueden representar como la suma de ondas simples, de manera que
podemos construir una onda compleja periódica mediante la suma sucesiva de ondas simples.
Aunque no podemos percibir los ultrasonidos como hacen otras especies, podemos detectarlos y
medirlos con instrumental especializado y utilizarlos en determinados campos, como pueden ser
la medicina, la ingeniería, etc. De hecho, ¿cómo sabemos el sexo de un bebé antes de nacer?
Estando a bordo de un barco, ¿cómo sabemos a qué profundidad está el fondo marino? ¿Qué es
el sonar de un submarino?
La voz de las mujeres y los niños suele tener una frecuencia más alta que la de los hombres.
Mediante la emisión de ultrasonidos en una dirección determinada, nos podemos formar una
imagen de determinados elementos que se encuentran fuera de nuestro alcance visual. Tras
emitir el ultrasonido, este rebota o se refleja en una determinada superficie, y vuelve hasta un
instrumento que se encarga de recibir y codificar el sonido. De esta manera se orientan los
murciélagos.
Frecuencia
7
La frecuencia se expresa en hercios (Hz), y el espectro audible humano se sitúa entre los 20 y
los 20 000 Hz. 20 Hz, por ejemplo, significa que se ese sonido se ha visto sometido a 20 ciclos
por segundo. Por encima de este rango se encuentran los ultrasonidos, mientras que por debajo
de este, los infrasonidos. En edades avanzadas, normalmente el intervalo se estrecha,
especialmente para las frecuencias más altas (sonidos agudos), aunque, por supuesto, existen
variaciones individuales. El habla suele estar en un intervalo de frecuencia aproximadamente
entre 250 y 3000 Hz, por lo que los individuos que tengan algún tipo de problema de audición
que se encuentre en dicho rango tendrán más dificultades para percibir el habla que si tuvieran
una deficiencia en frecuencias por encima o por debajo.
Longitud de onda
Amplitud o intensidad
Es sinónimo a la magnitud del sonido y se mide en decibelios (dB). Cuanto mayor es la amplitud,
más intensidad o fuerza tendrá el movimiento o la vibración de las partículas y con más fuerza
llegarán las ondas sonoras al oído (el individuo percibe más fuerte el sonido); coloquialmente
hablando se puede decir que equivale al «volumen». Si la intensidad del sonido es demasiado
alta, podrían producirse daños en las células ciliadas de la cóclea (el umbral del dolor suele
situarse en unos 120 dB), mientras que, si la intensidad es demasiado baja, por ejemplo, 2 o
3 dB, el estímulo sonoro podría no llegar a ser percibido.
En nuestra vida diaria nos vemos sometidos a muchos tipos de intensidades sonoras; una
conversación estándar se suele situar entre los 10 y los 50 dB, mientras que el sonido de una
motocicleta pasando cerca de nosotros en la calle, o un martillo neumático, podría fácilmente
llegar a los 90 o 100 dB.
8
Relación intensidad-frecuencia
Viaja
9
Esta relación entre la intensidad y la frecuencia es de especial importancia en campos como el de
la audiología. Los audiólogos son profesionales que, entre otras cosas, se dedican a adaptar
audífonos para aquellos pacientes que tienen pérdidas auditivas. Estos audífonos son
personalizados, ya que cada individuo tiene unas características y unas necesidades
determinadas; es decir, no hay audífonos estándar.
Armónicos.
Un armónico de una onda es un componente sinusoidal de una señal, resultado de una serie
de variaciones adecuadamente acomodadas en un rango o frecuencia. Son uno de los
parámetros que generan el timbre característico de una fuente de sonido.
La prueba de evaluación más importante que el clínico realiza en estos casos es una audiometría,
en la que someterá a la persona a una serie de sonidos de diferentes intensidades y de diferentes
frecuencias. La tarea del paciente radica en escuchar y avisar cuándo empieza y cuándo deja de
percibir el sonido, de modo que el audiólogo podrá evaluar la capacidad auditiva del sujeto para
cada intensidad y frecuencia. La audiometría ficticia que se presenta a continuación representa
una pérdida auditiva leve en ambos oídos; se aprecia una pérdida auditiva para las frecuencias
altas. Este individuo podría tener dificultades para seguir una conversación, en concreto,
necesitará que le hablen entre los 20 y los 40 dB para poder percibir el intervalo de frecuencias
en los que se sitúa el habla, una intensidad considerable.
Figura 2. Ejemplo de audiometría en el que se presenta una pérdida auditiva leve. (Cada línea de la gráfica representa
un canal auditivo).
10
Timbre
Como se ha comentado antes, los sonidos son complejos y cada sonido, producido ya sea por
un instrumento musical, por una voz humana, etc., es algo único y diferente, en función de los
armónicos que lo compongan. Esta diferencia existente en cada una de las fuentes sonoras es
lo que constituye el timbre.
Es la razón por la que distinguimos la voz de un amigo de la de otro y posibilita que, aunque
dos cantantes diferentes entonen la misma nota, reconozcamos como diferentes ambas voces.
Sonoridad
Tono
El tono constituye también un atributo psicológico, una sensación en el individuo sobre qué
sonidos son más graves o más agudos, es decir, cuáles tienen más altura o menos. Aunque el
tono es de carácter psicológico, guarda relación con la frecuencia, que pertenece al ámbito
objetivo, de tal manera que las frecuencias más bajas se perciben como tonos más graves,
mientras que las frecuencias más altas, como tonos agudos.
El proceso auditivo comienza en la parte más exterior, la oreja o pabellón auricular, formada en
su mayor parte por cartílago y piel, cuya función es captar las ondas acústicas del medio,
amplificarlas y canalizarlas hacia el interior del oído.
Estas ondas viajan por el canal auditivo, (un conducto de unos tres centímetros de largo
ligeramente curvado y conectado con el oído interno), que protege las estructuras internas del
oído frente a cualquier tipo de traumatismo, e impide la entrada de cuerpos extraños.
11
Los sonidos llegan al tímpano, que es donde comienza el oído medio.
Sabías que:
Si nos exponemos a sonidos superiores a los 100-120 dB se mueren los cilios que tenemos
en la cóclea. Los cilios son una especie de pelillos necesarios para poder realizar la
transducción sin la cual los sonidos no podrían ser enviados al nervio auditivo y, por lo tanto,
no podrían llegar al cerebro.
La presión a la que está sometida la ventana oval es unas veinte veces superior que la del
tímpano, por lo que esta amplificación resulta necesaria para transmitir la vibración a la siguiente
estructura. La ventana oval al vibrar produce cambios de presión en el líquido que se encuentra
dentro de los canales semicirculares y la cóclea (ambos pertenecen al oído interno), cuyo
funcionamiento es sumamente complejo. Los canales semicirculares, además de intervenir en la
audición, desempeñan un papel fundamental en el equilibrio.
12
Estructura y funciones del sistema auditivo (II)
La cóclea, también conocida como el caracolillo, tiene líquido en su interior y miles de minúsculos
pelos conocidos como células ciliares. Cuando la membrana oval transmite la vibración a la cóclea,
el líquido que está en el interior de esta se desplaza y mueve a los cilios. Estos, al detectar el
movimiento y el cambio de presión, generan una caída de potencial, convirtiendo la señal
mecánica en electroquímica y, posteriormente, en impulsos nerviosos que viajarán hasta la
corteza auditiva para ser interpretados.
En el mundo que nos rodea existen múltiples variaciones de tonos, de frecuencias, timbres, etc.;
en definitiva, la señal acústica consta de múltiples parámetros físicos y el oído interno no se puede
limitar a amplificar el sonido simplemente, sino que tendrá que analizar y desglosar cada
frecuencia o cualquier otro parámetro acústico que llegue al oído.
Efectivamente, los parámetros del sonido, principalmente los relativos a la frecuencia, se analizan
por separado en un proceso sumamente complicado. Las células ciliadas que se encuentran en el
interior de la cóclea son las encargadas de llevar a cabo este análisis.
13
La cóclea funciona como una especie de analizador de frecuencias, y cada grupo de estas células
está especializado en recibir y analizar un rango de frecuencias determinadas. En concreto, las
frecuencias más altas en general excitan las células situadas en la parte más basal (de abajo),
mientras que las frecuencias más bajas, las de la zona apical (zona interna), tal y como se ve en
la siguiente figura:
Esta distribución recibe el nombre de organización tonotópica. Esta organización que se reproduce
de la misma manera en el nervio auditivo. El nervio auditivo enviará impulsos nerviosos hasta los
núcleos cocleares. Los axones de las neuronas del núcleo coclear homolateral como ipsilateral
forman el lemnisco lateral, que asciende hasta el tálamo. Pero antes pasará por dos estaciones
intermedias: el complejo olivar superior y los colículos inferiores. En el complejo olivar superior
hay neuronas que responden a estímulos procedentes de ambos oídos (binaurales), motivo por
el cual la oliva superior está especializada en la localización de la fuente sonora. Los colículos
inferiores envían proyecciones hasta el núcleo geniculado medial del tálamo (en ambos también
se da una especialización tonotópica). La información viaja entonces hasta la corteza auditiva
primaria, localizada en la cara superior del lóbulo temporal, junto a la cisura de Silvio (áreas 41
y 42 de Brodman). El recorrido de la información auditiva pasará de la corteza auditiva primaria
a la corteza auditiva secundaria, como el área de Wernicke, donde tiene lugar la decodificación
de las señales auditivas, que establece conexión con el área de Broca, para la formulación y
programación motriz del lenguaje. Las áreas de asociación terciarias están constituidas por el
córtex prefrontal, el córtex parietal inferior y la corteza inferotemporal. Estas áreas de asociación
se encargan del análisis morfosintáctico y semántico de los mensajes verbales, la dotación de
significado y la generación de conceptos.
14
Estructura y funciones del sistema auditivo (III)
En el lenguaje participan también corteza premotora, los ganglios de la base y la corteza límbica.
Una extensa porción del córtex primario, secundario y de asociación para las funciones formales
del lenguaje se encuentra en el hemisferio izquierdo en el 87 % de los humanos; en el resto, el
lenguaje se asienta en el hemisferio derecho o de forma repartida en ambos hemisferios.
A, B, C…
En la mayoría de las personas, las regiones correspondientes del hemisferio derecho se encargan
de los aspectos de prosodia, adecuación contextual, y aspectos melódico-emocionales del
lenguaje.
En la sordera de conducción, el daño está ubicado en el oído externo o medio. Las estructuras del
oído medio están destinadas principalmente a amplificar la señal acústica, a hacerla más intensa,
y cualquier fallo se puede «reparar» con relativa facilidad, por ejemplo, con un audífono.
15
En la sordera neurosensorial o esencial, se da un déficit en la zona del oído interno o del nervio
auditivo. Cualquier fallo en el oído interno es más difícil de reparar. Al tener dañadas las células
internas del órgano de Corti o parte del nervio auditivo, no se pueden procesar los sonidos por
mucho que se amplifiquen.
Con la invención de los implantes cocleares (unos dispositivos que terminan en unos electrodos
que estimulan directamente en nervio auditivo dentro del caracol), las personas con este
problema pueden acceder al mundo sonoro (aunque de un modo diferente); esto es muy
importante en las edades tempranas.
La existencia del lenguaje aceleró el progreso humano y determinó en gran parte la capacidad de
crear y de dominar el mundo por parte de los primeros homínidos.
El ser humano no es la única especie que tiene capacidad de comunicación, de hecho, la mayoría
de especies animales hacen uso de la comunicación para llevar a cabo conductas de alimentación,
reproducción, para evitar depredadores, comunicar estados de ánimo, etc. Este tipo de
comunicación a menudo incluye gruñidos, gritos, silbidos, movimientos y rituales de diversa
índole, que pueden ser más o menos complejos.
Otras especies animales además del Homo sapiens fueron capaces de caminar erguidos, fabricar
herramientas y utilizar el fuego, pero nuestros antecesores dieron un salto cualitativo: los Homo
sapiens fueron capaces de imaginar, planificar y comunicarse de un modo más sofisticado, gracias
al desarrollo del lenguaje. La aparición del lenguaje, por lo tanto, parece jugar un papel crucial
en el avance humano y en la construcción de las primeras civilizaciones.
Aunque el acto comunicativo puede tener lugar de muchas formas (verbal, no verbal, gráfico,
etc.), el lenguaje hablado es uno de los códigos que se utiliza con más frecuencia.
Una definición de lenguaje sería «un sistema de símbolos y reglas que nos permite
comunicarnos». Las palabras, escritas o habladas, son símbolos. Las reglas especifican las formas
en que se ordenan las palabras para construir frases.
16
Llega más lejos
Viaja
El lenguaje da lugar a dos vertientes: la lengua y el habla. Veamos las diferencias entre estos dos
conceptos.
La lengua
Tiene un carácter más bien psíquico porque es algo aprendido y almacenado en las estructuras
cerebrales correspondientes.
17
El habla
Es el uso individual, por parte de cada individuo, que se hace del código (la lengua).
Tiene un componente sensorial y motor importante porque depende de los órganos del habla
que permiten la emisión física de los sonidos articulados.
Es un producto individual.
Figura 7. Representación esquemática la señal auditiva. Ondas sonoras, tímpano, cóclea, células de receptores
auditivos, espectro de frecuencia de respuesta del oído, e impulso del nervio. Fuente: Wikimedia.
La percepción del habla trata de cómo identificamos y comprendemos los sonidos del lenguaje y
reconocemos las palabras. Se puede distinguir un código preléxico, que es el reconocimiento del
sonido antes de percibir la palabra.
Las palabras habladas se presentan de forma muy breve, mientras que en el caso de la palabra
escrita disponemos de ella el tiempo necesario y podemos volver atrás para comprobarla tantas
veces como se quiera.
La segmentación de las palabras en sus sonidos constituyentes no es fácil, ya que los sonidos se
mezclan unos con los otros. A pesar de ello, el proceso de comprensión del habla es automático;
la percepción del habla es rápida y se da sin esfuerzo.
18
El papel del contexto es importante, y las palabras en un contexto significativo se reconocen
mejor y más rápidamente que las palabras aisladas, fuera de contexto.
Por una parte, los fonemas presentan variabilidad acústica, dependiente del contexto en el que
se produce, de manera que un mismo fonema puede tener un sonido distinto según el contexto
de sus fonemas circundantes. Por ejemplo, cuando producimos un sonido, al anticipar nuestro
aparato vocal la forma que tiene que adoptar el siguiente fonema, se producen efectos de
coarticulación; se está preparando para cambiar de nuevo de posición y articular el siguiente
sonido. Esto presenta ventajas, ya que el habla se puede producir más deprisa y, para el que
escucha, un fonema en un momento dado le proporciona información sobre los fonemas
circundantes y le permite anticipar qué viene a continuación.
Por otro lado, el problema de la segmentación se da porque los sonidos se producen de manera
conjunta y no es fácil separarlos. Los sonidos se producen conjuntamente y no se pueden separar
fácilmente, tanto dentro de las palabras como entre palabras, por ejemplo, en inglés, «I scream»
(yo grito) y «ice cream» (helado) suenan igual.
Una vía para segmentar el habla es de forma que cada segmento corresponda a una posible
palabra. Otras estrategias son segmentar en función de la acentuación o hacerlo en función de
las sílabas. La estrategia de segmentación que se utiliza dependerá de la forma del idioma del
oyente y de su exposición a ese idioma.
19
Cabe destacar que el proceso de comparación es de especial importancia, puesto que comparando
el estímulo que se acaba de percibir con otros, frutos de experiencias anteriores, se puede
clasificar correctamente una experiencia. Por ejemplo, si nos enseñan una silla que no hemos
visto nunca, la seguiremos reconociendo como «silla», puesto que, en los centros neurales donde
se produce la percepción y donde se interpretan los estímulos atendidos, existe un sistema de
clasificación que nos permite reconocerla como tal. Del mismo modo, somos capaces de reconocer
palabras que presenten pequeñas variaciones con respecto a la forma correcta de denominarlas,
por ejemplo, si en vez de «persiana» escuchamos «persania», también seremos capaces de
interpretar el significado, porque en la memoria tenemos almacenado el sonido «persiana», que
se parece mucho a «persania». En el proceso interpretativo y de dotación de significado que tiene
lugar en los centros superiores, aparte de entrar en acción mecanismos como los comentados
(memoria, comparación, etc.), en el caso de la percepción del habla también intervienen a
menudo procesos como la motivación, las necesidades y las expectativas.
¿Cuántas veces hemos oído el dicho «oyes lo que te interesa» o nos ha parecido escuchar algo
que realmente no se ha dicho? En ocasiones, especialmente cuando la señal acústica no es nítida,
o existe ruido de fondo y no podemos percibir con claridad, nuestro sistema interpretativo
completa la información que falta con la que considera más oportuna, ayudándose del contexto,
de experiencias similares almacenadas en la memoria, o simplemente de los deseos, expectativas
o necesidades que tenemos.
El hecho de que factores como las experiencias acumuladas o las expectativas contribuyan al
proceso de interpretación también guarda relación con otro tipo de procesamiento, denominado
procesamiento de arriba-abajo (o top-down). En este caso se dice que el procesamiento está
guiado por los conocimientos del sujeto, que determinarán el proceso perceptivo. Este tipo de
procesamiento también es denominado en ocasiones guiado por los conceptos. En este caso
percibimos algo, no en función de nuestros receptores sensoriales como la audición, sino más
bien basándonos en determinadas experiencias o conceptos, de manera que el procesamiento se
da de arriba abajo, porque el procesamiento comienza por los conceptos, conocimientos,
experiencias o expectativas, más que por los datos físicamente observables (o claramente
audibles).
El procesamiento de abajo a arriba o guiado por los datos funciona de manera inversa, de tal
manera que realizamos una interpretación basada en lo registrado por nuestros receptores
sensoriales.
20
Durante el proceso perceptivo, no obstante, la información recabada no es solo guiada por los
datos o guiada por los conceptos, es más bien una mezcla de ambas que interactúan mutuamente,
y puede haber casos en los que predomine un tipo de procesamiento o el otro. En los casos en
los que las condiciones ambientales sean difíciles (por ejemplo, poca visibilidad, múltiple
estimulación, etc.), podría predominar el procesamiento top-down o guiado por los conceptos,
mientras que si las condiciones ambientales son óptimas, podría predominar el procesamiento
guiado por los datos. El mecanismo perceptivo no es lineal, sino que en ocasiones se vuelve a
etapas anteriores, se establecen comprobaciones, comparaciones, etc.
Esta complejidad aumenta más todavía cuando se trata del habla, puesto que, además de todos
los elementos y parámetros del sonido vistos hasta ahora, intervienen otros procesos más
complejos como el reconocimiento y diferenciación de los fonemas, de las sílabas y de las
palabras, la memoria, que realiza comparaciones de la señal acústica y que almacena pequeñas
variaciones de cualquiera de los elementos intervinientes en el habla (diferencias de
pronunciación de un hablante a otro, comprensión de una lengua extranjera, idiosincrasias
propias de cada hablante, como pausas, etc.), y la comprensión y la interpretación de lo que
oímos, etapa en la que intervienen gran cantidad de procesos cognitivos de nivel superior.
Recapitulando, para poder percibir correctamente el habla, se debe, en primer lugar, y esto es
común a la codificación de cualquier señal sonora, interpretar el sonido a partir de sus
características acústicas (intensidad, frecuencia, etc.).
En segundo lugar, por tratarse de unidades lingüísticas, se debe dar un proceso de segmentación
de las unidades y se deben categorizar (en esta etapa empezaría a darse la percepción).
21
Después se realiza una comparación fonética, morfosintáctica, semántica, etc., que complementa
la información acústica recibida y categorizada en el paso anterior.
En los centros neurales superiores (córtex primario, secundario y de asociación) tendrán lugar la
percepción y la categorización del mensaje. Se otorgará un significado y se comparará con los
conocimientos y experiencias previas que tenemos almacenados en la memoria. Estas etapas en
la comprensión del habla no funcionan de manera lineal y serial, sino que existen avances y
retrocesos de la información que viaja de una estructura a otra o de una etapa a otra, funcionando
de manera paralela en algunos casos y serial en otros. En los casos en los que existan
ambigüedades, se producirán más avances y retrocesos en las diferentes etapas para poder
establecer comparaciones. Además, en todos los casos de percepción (visual, auditiva, olfativa,
etc.), contamos con las formas de procesamiento abajo-arriba y arriba-abajo.
Gran parte de la investigación llevada a cabo en el contexto de la percepción del habla se esfuerza
por dilucidar cuáles son las unidades básicas de segmentación del habla o las unidades más
pequeñas que maneja el oyente en el proceso de percepción, y si existen diferencias entre idiomas
en lo que a estas unidades básicas se refiere.
Mientras que algunos autores consideran que el fonema constituye la unidad básica del habla,
otros creen que la unidad mínima podría ser la sílaba. Los que están a favor de la sílaba como
unidad básica argumentan que en diversas investigaciones se confirma que los individuos
reconocen e interpretan la información lingüística gracias a la información silábica y, que con
posterioridad a la comprensión silábica, se reconocen los fonemas, pero que estos por sí solos no
intervienen en la comprensión del habla. Sin embargo, estas investigaciones arrojan en ocasiones
resultados difíciles de explicar, por lo que en general la tónica actual es más proclive a aceptar el
fonema como unidad básica. Sea como fuere, el proceso de percepción auditiva, en general, y el
del habla, en particular, constituyen un ejemplo de complejidad en la que los centros neurales
superiores integran la información con una extraordinaria eficacia.
22
2. Resumen
En esta unidad hemos visto diferentes conceptos relacionados con la recepción e interpretación
de la señal acústica, cómo los centros neurales procesan y dotan de significado la información
recibida y cómo determinados aspectos, como las experiencias, las expectativas, los deseos o las
necesidades del individuo, pueden afectar a la interpretación de la información percibida.
Se han abordado, en primer lugar, las características del sonido y sus diferentes parámetros,
como la frecuencia, la intensidad, el tono, la sonoridad, etc. En segundo lugar, se han descrito
brevemente la estructura y funcionamiento del sistema auditivo y cómo las ondas acústicas se
transforman en impulsos nerviosos que serán conducidos hasta las estructuras neurales
encargadas de procesar la información auditiva. El último paso para una total interpretación de
la información recibida es la comparación con informaciones anteriores fruto de experiencias
previas y la modificación de dicha información causada por aspectos internos del individuo
(expectativas, deseos, necesidades, etc.). En el último punto, nos aproximamos a la percepción
del habla y al estudio de las unidades básica que la constituyen (los fonemas o las sílabas).
23
3. Mapa conceptual
24
4. Recursos bibliográficos
Bibliografía básica
Harley, T. (2013). Psicología del lenguaje. De los datos a la teoría (3.ª ed.). McGraw-Hill.
Bibliografía complementaria
Castro, L. y Toro, M. A. (2017). La evolución del lenguaje. Ludus vitalis, 13(24), 203-210.
Chomsky, N. (2017). The language capacity: architecture and evolution. Psychonomic bulletin
& review, 24(1), 200-203.
Cuetos Vega, F., González Álvarez, J. y Vega Rodríguez, M. D. (2018). Psicología del lenguaje.
Médica Panamericana.
Pinker, S. (1994). El instinto del lenguaje. Cómo crea el lenguaje la mente. Alianza.
Otros recursos
http://www.asha.org/
http://www.implantecoclear.org/
http://www.aelfa.org/
http://www.nlm.nih.gov/medlineplus/spanish/ency/article/003044.htm
http://www.haskins.yale.edu/understandingspeech.html
https://cursodesonido.webnode.com.co/news/teoria-01-frecuencia-e-intensidad/
25