SIGNApuntes - (lengua de signos)

Apuntes sobre la Lengua de Signos y el ejercicio profesional de su interpretación
 
ÍndiceÍndice  BIENVENIDOSBIENVENIDOS  CalendarioCalendario  GaleríaGalería  FAQFAQ  BuscarBuscar  MiembrosMiembros  Grupos de UsuariosGrupos de Usuarios  RegistrarseRegistrarse  Conectarse  

Volver al

 
Buscar
 
 

Resultados por:
 
Rechercher Búsqueda avanzada
Últimos temas
Navegación
 Portal
 Índice
 Miembros
 Perfil
 FAQ
 Buscar
Temas similares
Foro

Comparte | 
 

 BASES NEUROLÓGICAS DEL LENGUAJE HABLADO Y SIGNADO - V. Herrera Fernández

Ver el tema anterior Ver el tema siguiente Ir abajo 
AutorMensaje
Admin
Admin


Cantidad de envíos : 3851
Fecha de inscripción : 18/11/2008

MensajeTema: BASES NEUROLÓGICAS DEL LENGUAJE HABLADO Y SIGNADO - V. Herrera Fernández   Mar Abr 27 2010, 09:57


BASES NEUROLÓGICAS DEL LENGUAJE HABLADO Y SIGNADO NEUROLOGICAL BASES OF SPEECH AND SIGN LANGUAGE


Prof. Dra. Valeria Herrera Fernández.
Universidad Metropolitana de Ciencias de la Educación.
Dirección de Postgrados.



REVISTA CHILENA DE FONOAUDIOLOGÍA (2006) VOL. 7 (2) PP. 59-71.
valeria.herrera@umce.cl valeria2hf@yahoo.com

Resumen

El estudio de los lenguajes de signos, ha permitido ampliar la comprensión del sistema neuronal que subyace al lenguaje. El presente artículo tiene por objeto desarrollar una revisión de la literatura, respecto de las relaciones entre las regiones cerebrales implicadas en la comprensión y producción del lenguaje de signos en comparación con el lenguaje oral. En esta revisión, se presentan los estudios que distintos grupos de investigación, a nivel mundial, han desarrollado para explorar las complejas relaciones entre lenguaje y cerebro.
Palabras claves: cerebro, lenguaje, ambiente.
Abstract
This article is bibliographical review, respect of the most recent studies on the cerebral regions implied in the comprehension and production of the language of signs compared with the speech language. This review presents the research that groups different of investigation worldwide have developed to explore the relations complex between language and brain.
Word key: brain, language, environment

INTRODUCCIÓN

Hasta algunas décadas atrás, primaba la falsa premisa, respecto de que los lenguajes de signos no eran más que simples gestos y pantomimas, sin estructura propia, ni mucho menos organización interna. Afortunadamente, hoy sabemos que los lenguajes de signos son formas de comunicación manual, que dependen fundamentalmente del canal visual para percibir la información lingüística y que son utilizados por las distintas comunidades de sordos del mundo como el principal medio de comunicación. Al ser lenguajes visuales, utilizan dimensiones de espacio y movimiento para transmitir información sobre diversos parámetros espaciales simultáneamente. Los lenguajes de signos son sistemas organizados a partir de movimientos convencionales, estructurados gramaticalmente para la comunicación. El interés por estudiar las lenguas de signos, radica en que son lenguas que poseen las mismas las propiedades formales que cualquier lengua oral, pero en una modalidad visual.
Ahora bien, aunque los lenguajes hablados y signados difieren radicalmente en su forma externa, comparten propiedades a nivel abstracto. Los lenguajes hablados se codifican mediante variaciones de los sonidos en un lapso de tiempo y los lenguajes signados se codifican mediante variaciones de los movimientos en un espacio determinado. En este sentido, la pregunta más relevante en los últimos años ha sido averiguar cómo esta diferencia afecta a la organización neuronal del lenguaje. Si los lenguajes orales se procesan principalmente en el hemisferio cerebral izquierdo, entonces podríamos suponer, que los lenguajes signados, por ser visuales, debieran ser procesados principalmente en el hemisferio cerebral derecho.

ANTECEDENTES LINGÜÍSTICOS
Antes de abordar los estudios que aportan las bases neurológicas para comprender las relaciones entre lenguaje oral y lenguaje signado, consideramos relevante esclarecer algunos conceptos acerca de la lingüística de la lengua de signos. La fonología propia de las lenguas de signos, se caracteriza, como es obvio, por carecer de sonidos, por ello, algunos signolingüistas le dan el nombre de querología. Los queremas, o parámetros formacionales, son las unidades mínimas sin significado de las lenguas de signos. Sobre la base de investigaciones recientes (Rodríguez, 1992; Siedlecki, T., & Bonvillian, J., 1993,1997, 1998; Petitto, 2000; García Orza; 2002; Domínguez & Alonso, 2004), podemos señalar que los distintos niveles lingüísticos de las lenguas de signos presentan, a grandes rasgos, las siguientes características:
1. Nivel fonológico o querológico: En la mayoría de las lenguas de signos se distinguen al menos cuatro elementos básicos o parámetros formativos; (a) la configuración de la mano (queirema), (b) la orientación de la mano (queirotropema), (c) el movimiento de la mano (kinema) y (d) el lugar en el cuerpo donde se articula el signo (toponema). A partir de la combinación de estos parámetros básicos es posible expresar infinidad de mensajes lingüísticos. Por tanto, los signos que realizan las personas signantes, no son elementos globales, sino que se pueden descomponer en segmentos lingüísticos más pequeños sin significado.
2. Nivel morfológico: La mayoría de las lenguas de signos estudiadas se caracterizan por una morfología compleja. En la mayoría de ellas se pueden encontrar morfemas libres (aquellos que por sí solos pueden formar una palabra) y morfemas ligados (aquellos que necesitan combinarse con otros para formar una palabra). Sin embargo, la peculiaridad más relevante de la morfología de las lenguas de signos es el uso de los clasificadores, a través de éstos se marcan categorías semánticas y propiedades visuales. Los clasificadores tienen una naturaleza principalmente icónica y comúnmente están ligados al uso de verbos de movimiento o lugar, indicando el camino y la dirección del movimiento o el lugar del nombre al que se refieren.
3. Nivel sintáctico: En este nivel las estrategias fundamentales son la morfología no-flexiva y el orden, que generalmente suele ser Objeto-Sujeto-Verbo. El uso del espacio en la sintaxis de las lenguas de signos es muy importante, ya que en casi todas las lenguas estudiadas se utiliza el espacio para marcar relaciones gramaticales. Las distintas entidades se colocan en el espacio y a partir de estas ubicaciones, se pueden usar pronombres señalando la ubicación de cada entidad, o se pueden emplear signos verbales que conectan unos con otros en una acción.
4. Nivel discursivo: En este nivel el uso del espacio continúa siendo fundamental para marcar las relaciones discursivas. De este modo, durante la producción de un discurso la consistencia del signante en las localizaciones espaciales que se adscriben a cada una de las entidades es lo que da cohesión al discurso.
El estudio de las lenguas de signos ha traspasado el ámbito meramente lingüístico y actualmente se buscan antecedentes neurológicos que proporcionen más pistas sobre su organización y funcionamiento a nivel cerebral. En las últimas décadas, las investigaciones respecto de los distintos lenguajes de signos en todo el mundo, han estado marcadas por la incorporación de medios técnicos y conocimientos teóricos proveniente de la neuropsicología.

ESPECIALIZACIÓN HEMISFÉRICA Y LENGUAJE
La investigación sobre lateralización cerebral en sujetos sordos ha ampliado las implicaciones para una teoría general del desarrollo cerebral. Numerosos estudios plantean que si la organización cerebral se establece por factores genéticos y prenatales, la privación sensorial debiera tener un impacto menor en la organización cerebral, ya que, la organización cerebral estaría dada desde el momento del nacimiento. Sin embargo, la organización cerebral para el lenguaje puede depender de una variedad de factores, como el input auditivo durante la infancia, el desarrollo motor del habla, la exposición a la secuencia temporal inherente al lenguaje hablado, etc. Partiendo de estos supuestos, Gibson y Bryden (1984) plantean que si estos factores son importantes en el desarrollo de la organización cerebral, entonces los niños sordos deberían desarrollar un patrón de organización cerebral diferente al de los niños oyentes.
Para la población oyente se ha determinado que el lenguaje oral está representado primariamente en el hemisferio izquierdo y las habilidades espaciales en el hemisferio derecho. Los fallos espaciovisuales graves, como la incapacidad de copiar un dibujo sencillo, con frecuencia están asociados a lesiones en el hemisferio derecho, en cambio los fallos en la producción del lenguaje a lesiones en el hemisferio izquierdo. Al respecto, dos de las regiones del hemisferio cerebral izquierdo, que desempeñan papeles importantes en el procesamiento del lenguaje, son las áreas de Broca y de Wernicke. En los oyentes el área de Broca se activa al hablar, al igual que en los sordos al signar. Del mismo modo, el área de Wernicke interviene tanto en la comprensión de los sonidos del habla, como en la comprensión de los movimientos del lenguaje signado.
Asimismo, los estudios de asimetría cerebral en sujetos sordos muestran que no existe superioridad del campo visual derecho durante el procesamiento de material verbal. En este sentido, los investigadores han establecido que las deficiencias en la habilidad de producción y comprensión del lenguaje de signos están asociadas con lesiones del hemisferio cerebral izquierdo, del mismo modo que ocurre en los oyentes con el lenguaje hablado. Por otra parte, los resultados con material no verbal tienden a ser inconsistentes, en general, los estudios de asimetría visual en sordos sugieren un grado distinto de lateralización cerebral que el presentado por los oyentes. Es decir, el tratamiento de la información lingüística ocurre principalmente en el hemisferio izquierdo, tanto en sordos como en oyentes. En cambio, el tratamiento de la información no- lingüística presenta un grado distinto de lateralización, en sordos que en oyentes.
Al respecto, Gibson y Bryden (1984) llevaron a cabo un estudio con una muestra de 19 niños sordos y 20 niños oyentes, con una edad promedio de 11 años. Los participantes sordos habían estado expuestos a un sistema de Comunicación Total (signos, dactilología y audición). Los estímulos lingüísticos fueron 6 sonidos (fonemas) y los no lingüísticos 6 figuras. Para la evaluación de la especialización cerebral se usó el método de escucha dicótica, que consiste en la presentación simultánea de dos estímulos auditivos distintos, uno en cada oído, en este caso los estímulos presentados fueron fonemas. Los resultados obtenidos coinciden con la literatura existente en especialización hemisférica, los niños oyentes presentaron un desempeño relativamente mejor del lado izquierdo en la tarea verbal y un desempeño superior del lado derecho en la tarea no verbal. Al contrario, los niños sordos presentaron mayor implicación del lado derecho en la tarea verbal y un patrón similar al de los oyentes en la tarea no verbal (ver figura 1). Los autores interpretan estos resultados señalando que en los sordos ambos hemisferios son sensibles a los componentes espaciales de la información, pero el hemisferio derecho está más involucrado en la tarea verbal de lo que lo está en los oyentes. Para la tarea espacial o no verbal en los sordos hay evidencia de que ambos hemisferios podrían estar involucrados.
Figura 1. Implicación del Hemisferio Izquierdo (HI) y el Hemisferio Derecho (HD) según las características de la tarea en sordos y oyentes.




Tarea
Niños
Lingüística
No-lingüística
Sordos
HI / HD
HD
Oyentes
HI
HD

Los investigadores sostienen que las personas que han estado privadas de sonidos, responden a aspectos diferentes de la información espacial. De este modo, la información espacial en los sordos llega a ser el patrón primario para el que ambos hemisferios responden, cada uno a su modo. Para los sordos que emplean lenguaje de signos, el hemisferio izquierdo es sensible a los aspectos sintácticos y semánticos de la información espacial y el hemisferio derecho a los aspectos globales de la información espacial. En cambio, cuando la información espacial es descompuesta analíticamente en sus partes componentes, hay una tendencia a involucrar mayormente el hemisferio izquierdo. Cuando la información espacial es percibida como un patrón global, está más involucrado el hemisferio derecho. Para ambos hemisferios, la información espacial es más relevante, y como tal, sirve como unidad básica en la organización de la información.
AMBIENTE, CEREBRO Y LENGUAJE
Como es sabido, durante mucho tiempo el punto de vista dominante en la comprensión del desarrollo neuronal, ha sido que los estímulos del medio desempeñan simplemente una función de desencadenantes, que facilitan un proceso determinado fuertemente por los genes. Según esta teoría, los diferentes sistemas cerebrales tendrían determinaciones intrínsecas que les permiten tratar algunos tipos de información. Por ejemplo, la corteza auditiva sólo podría tratar la información auditiva y no la información visual. No obstante, cada vez hay más evidencia que apoya el papel predominante del ambiente en el establecimiento de las características funcionales del cerebro.
Al respecto, Neville y Bavelier (1996) postulan que la experiencia sensorial influye poderosamente en el desarrollo de la corteza cerebral. Plantean que el papel de la experiencia tendría que ser específico de cada sistema funcional y diferente según el nivel de maduración de cada sistema. Para comprobar esta hipótesis utilizaron dos técnicas de imaginería cerebral. En primer lugar, utilizaron la técnica de Potenciales Evocados (PE), procedimiento que registra la actividad eléctrica del encéfalo, como respuesta a estímulos visuales, auditivos o sensoriales. En segundo lugar, utilizaron Imágenes por Resonancia Magnética (IRM), método que permite registrar la activación neuronal durante los cambios de concentración de oxígeno en la sangre. Ambos procedimientos se llevaron a cabo mientras los sujetos (sordos y oyentes) realizaban diversas tareas sensoriales o de habla. En los sordos congénitos, la respuesta desencadenada por los estímulos centrales era parecida a la de los oyentes, en cambio los estímulos periféricos provocaban potenciales dos o tres veces más importantes en las regiones temporales superiores, en las proximidades de la corteza auditiva. A partir de estos hallazgos surge la hipótesis de que en los sordos, la parte del sistema visual especializada en el tratamiento de la información periférica, espacial y del movimiento podría, en los sordos, apropiarse de las regiones de la corteza temporal dedicadas normalmente a la audición.
Para probar esta nueva hipótesis, Neville y Bavelier (1996) registraron la actividad eléctrica del encéfalo (a través de PE). Los estímulos fueron presentados en la pantalla de un computador, la tarea consistía en que los sujetos miraran de frente y prestaran atención al movimiento de un cuadrado blanco que aparecía en la periferia o en el centro de su campo visual. En los sordos, la respuesta cerebral inducida por los estímulos visuales periféricos fue varias veces superior a la respuesta de los oyentes, con una distribución diferente en el cuero cabelludo, que indicaba la intervención de sistemas neuronales distintos, ya que, junto con estimular la región parietal del hemisferio cerebral opuesto al campo visual que contenía el cuadrado blanco, del mismo modo que en los oyentes, se estimulaban áreas occipitales de los dos hemisferios ligadas a la visión. Asimismo, la actividad de las regiones temporal y parietal izquierda fue mucho más nítida que en los oyentes. Estos resultados respaldan la tesis de la modificación del sistema visual y el desplazamiento de las áreas dedicadas a la audición en los sordos.
En base a los antecedentes obtenidos, las autoras sugieren que en las personas oyentes las conexiones redundantes del sistema auditivo y del sistema visual serían eliminadas o inhibidas. Mientras que en los sordos, en ausencia de competencia entre estímulos visuales y auditivos, fibras que normalmente tendrían que haber tenido una función auditiva adquirirían una función visual. Argumentan que las similitudes, a nivel de procesamiento cerebral, observadas entre el lenguaje oral y el lenguaje signado, permiten suponer la intervención de sistemas cerebrales comunes. Para Neville y Bavelier (1996) es posible suponer que la corteza que rodea la cisura de Silvio del hemisferio izquierdo (áreas de Broca y de Wernicke), asociada normalmente al tratamiento auditivo-oral del lenguaje, también está implicada en el tratamiento del Lenguaje de Signos Americano (ASL). Sin embargo, el ASL recurre en la mayoría de las etapas del análisis lingüístico al tratamiento de la información espacial visual y no temporal como en las lenguas habladas. En este caso se utilizarían especialmente el hemisferio derecho y las estructuras parietales, por tanto, es factible suponer que el aprendizaje precoz de los signos provoca una mayor participación de las estructuras del hemisferio derecho en el tratamiento del lenguaje.
Hickok, Kirk, y Bellugi (1998) estudian la organización hemisférica del procesamiento visual-espacial a nivel global y local en signantes sordos y su relación con la afasia en lenguaje de signos. Para ello seleccionan una muestra conformada por 20 adultos sordos que han usado lenguaje de signos durante toda la vida, 12 de los cuales presentan lesión en el hemisferio izquierdo y 8 en el hemisferio derecho. Para registrar la actividad cerebral utilizan la técnica de IRM, mientras los sujetos observan frases en ASL reproducidas en cintas de video. Los resultados muestran que los sujetos sordos con lesión en el hemisferio izquierdo muestran un desempeño menor al reproducir rasgos a nivel local (análisis morfológico-léxico) que en la reproducción a nivel global (análisis contextual). Mientras que los sujetos con lesión en el hemisferio derecho muestran el patrón inverso. Los investigadores sugieren que, el hemisferio derecho de los sordos que utilizan como primera lengua una lengua de signos, está involucrado en el procesamiento visual-espacial del lenguaje a nivel global y que el hemisferio izquierdo está involucrado en el procesamiento visual-espacial del lenguaje a nivel local. En este sentido, son varias las investigaciones que han determinado que el déficit en la habilidad para producir y comprender lenguaje de signos (afasia en lenguaje de signos), está asociado con lesiones en el hemisferio cerebral izquierdo. Hickok et. al (1998) concluyen que los sistemas especializados en el procesamiento del lenguaje, son los mismos para el lenguaje signado y para el lenguaje hablado, independientemente de la modalidad particular a través de la cual sean percibidos y expresados.
En la misma línea de investigación, Hickok, Love-Geffen y Bellugi (2002) investigaron el rol de los hemisferios cerebrales en la comprensión del ASL. El estudio tuvo por objeto recabar evidencia empírica respecto del grado de asimetría hemisférica en la comprensión del ASL. Los investigadores postulan que si el lóbulo temporal izquierdo es particularmente importante para la comprensión de ASL, entonces es posible esperar que los pacientes sordos con daño en el lóbulo temporal izquierdo presenten déficit severos en la comprensión de ASL. Hickok et. al (2002) evaluaron la habilidad en la comprensión de signos de 19 sordos con daño cerebral, todos ellos signantes de toda la vida, 11 con daño en el hemisferio cerebral izquierdo y 8 con daño en el hemisferio cerebral derecho. Examinaron la comprensión de signos mediante 3 condiciones; (a) comprensión de signos en forma asilada, (b) comprensión de signos en oraciones simples y (c) comprensión de signos en oraciones complejas. Los resultados fueron relacionados con dos variables; el hemisferio involucrado (derecho versus izquierdo) y la implicación del lóbulo temporal izquierdo.
Los investigadores concluyen en primer lugar, que los signantes con lesión en el hemisferio izquierdo se desempeñan con menor eficiencia que los signantes con lesión en el hemisferio derecho en todas las tareas de comprensión de ASL. En segundo lugar, que los signantes con lesión en el hemisferio izquierdo y con implicación del lóbulo temporal izquierdo, presentan mayores dificultades en la comprensión de signos, en las tres condiciones formuladas, que los signantes con lesión en el hemisferio derecho sin implicación del lóbulo temporal izquierdo. Ello sugiere que el lóbulo temporal izquierdo juega un rol particularmente importante en la comprensión del lenguaje de signos, tal como ocurre en la comprensión del lenguaje oral, en los sujetos oyentes. En tercer lugar, aunque se observan algunas discrepancias en el desempeño de los signantes con lesión en el hemisferio derecho en la tarea de comprensión de oraciones complejas, esto es semejante a lo observado en sujetos oyentes con daño cerebral derecho.
Hickok, et. al. (2002) señalan que estos descubrimientos son inconsistentes con la idea de que el sistema crucial para la comprensión del lenguaje signado esté más bilateralmente organizado que el sistema para la comprensión del lenguaje hablado. Finalmente, sugieren que el daño en el lóbulo temporal izquierdo es una condición necesaria para producir un déficit en la comprensión del ASL. Indican que basados en los paralelos encontrados entre pacientes sordos y oyentes respecto al síndrome afásico y sus lesiones asociadas (Hickok, et. al., 1998) advierten una relación similar entre el sistema temporal izquierdo y el frontal izquierdo en la comprensión del lenguaje de signos.
Recientemente, Emmorey, Grabowsky, McCullough, Damasio, Ponto, Hichwa, y Bellugi, (2003) realizaron un importante estudio sobre los sistemas neuronales subyacentes a la recuperación léxica del lenguaje de signos. Para esta investigación seleccionaron una muestra de 10 sujetos diestros (lateralidad derecha), 5 hombres y 5 mujeres entre 19 y 38 años, con 12 años o más de educación formal. Todos tenían padres sordos y adquirieron el ASL como primera lengua desde el nacimiento. Todos eran sordos profundos (90 db. de pérdida o más). Para el estudio se utilizó la técnica de Tomografía de Emisión de Positrones (TEP), que permite visualizar los cambios bioquímicos a nivel celular. Los sujetos respondieron ante 4 tareas distintas; (a) producción de nombres de personajes famosos usando dactilología, (b) producción de nombres de animales usando dactilología, (c) producción de nombres de animales usando ASL y (d) una tarea control donde se juzgaba la orientación (correcta o invertida) de rostros de personas desconocidas, en la que los sujetos debían responder “si” cuando el rostro aparecía en posición correcta y “no” cuando aparecía invertido.
Como esperaban los investigadores, el contraste entre la tarea control y la tarea de recuperación léxica de signos para animales revela gran activación en la corteza inferotemporal ventral y mesial en los signantes sordos, en la misma región que la activada en los hablantes oyentes cuando nombran animales. Basados en estos datos los investigadores señalan que la modalidad del lenguaje no afecta la ubicación anatómica en la mediación entre conceptos y secuencia fonológica. Emmorey et. al. (2003) señalan que para hablantes y signantes la recuperación de elementos léxicos depende de un sistema neuronal parcialmente segregado. Estos resultados sugieren que la modalidad de la representación fonológica (auditivo-oral versus visual-manual) no altera sustancialmente el sustrato neuronal para la mediación léxica entre conceptos y la producción del elemento léxico. Los resultados son coherentes con los de estudios realizados con signantes sordos que presentan lesión cerebral, los cuales indican que tanto la producción de signos como la producción de habla está fuertemente lateralizada en el hemisferio izquierdo. Los autores concluyen que la mayoría de las estructuras neuronales que intervienen en la producción del lenguaje, al menos a nivel de nombrar entidades concretas, son las mismas independientemente de la modalidad de producción.
En un nuevo estudio, Hickok, Bellugi y Klima (2003) exponen los principales resultados de sus investigaciones a partir de sus estudios sobre lesiones cerebrales y afasias. Entre los resultados más relevantes de este y otros estudios desarrollados destacan; primero, en lo que al lenguaje se refiere, la organización del cerebro no parece estar afectada por la forma en que se percibe o produce el lenguaje. Segundo, los resultados obtenidos a partir de las técnicas no invasivas de obtención de imágenes cerebrales, han permitido ver que el área de Broca se activa en los sujetos con audición cuando hablan y en los sujetos sordos cuando signan. Tercero, las imágenes cerebrales han confirmado que las regiones que intervienen en la comprensión del lenguaje de signos son, en gran medida, las mismas que intervienen en la comprensión del lenguaje hablado.
DISCUSIÓN
La explicación más aceptada, entre los diferentes grupos de investigadores a nivel mundial, respecto de los resultados anteriormente expuestos, es la que sugiere la naturaleza modular del cerebro. Desde esta premisa, cada módulo se encuentra organizado en torno a una tarea computacional concreta. Según esta concepción, el procesamiento de la información visual-espacial no se encuentra confinado en una sola región del cerebro; por el contrario, distintos módulos nerviosos procesan de modo diverso las señales visuales que el cerebro recibe. Por ejemplo, las señales visuales portadoras de información lingüística se traducirían en un formato optimizado para el procesamiento lingüístico, dando acceso al cerebro a los significados de los signos, a la extracción de las relaciones sintácticas y las cualidades del discurso signado. Pero, los estímulos visuales que transportan información de distinto tipo, como los rasgos y contornos de un objeto, serían trasladados a un formato optimizado para, por ejemplo, efectuar órdenes motoras para la producción de un dibujo. Las experiencias computacionales de estos tipos de tareas de procesamiento son muy diferentes; por ello, los sistemas neuronales que intervienen en el procesamiento de los distintos tipos de información visual-espacial son también diferentes.
Como advierten la mayoría de los autores antes reseñados, los lenguajes hablados y signados se diferencian de forma radical en su modalidad receptiva y expresiva, es decir, a nivel de procesamiento periférico. Sin embargo, ambos lenguajes, parecen implicar cómputos lingüísticos muy similares. En consecuencia, es esperable que los lenguajes hablados y signados compartan gran cantidad de territorio neuronal en los niveles cerebrales más centrales y de nivel superior, y diverjan en los niveles de procesamiento más periférico. Por ejemplo, en el extremo sensorial el procesamiento periférico del habla tiene lugar en la corteza auditiva de ambos hemisferios, mientras que el procesamiento inicial de los signos se produce en la corteza visual primaria. No obstante, tras las primeras etapas de procesamiento, las señales parecen encaminarse hacia sistemas lingüísticos centrales o superiores que tienen una organización nerviosa común para hablantes y signantes.
Por último, cabe la reflexión respecto de la utilidad de conocer y manejar los componentes neurológicos del lenguaje, ya que como hemos podido analizar, el cerebro humano en su evolución, ha destinado gran cantidad de recursos para especializarse en el procesamiento de la información lingüística, y como tal, no establece diferencias en el procesamiento de estímulos lingüísticos auditivos o visuales a nivel central. Los lenguajes de signos son lenguajes en toda regla, que poseen una estructura gramatical compleja y cuyo procesamiento a nivel de estructuras cerebrales es prácticamente idéntico al de los lenguajes hablados. Finalmente, los lenguajes de signos proveen una posibilidad única para comprender el sistema neuronal que subyace al lenguaje, debido a su modalidad única de comprensión y producción.
BIBLIOGRAFÍA
Corina, D. P. (1999). On the Nature of Left Hemisphere Specialization for Signed Language. Brain and Language, 69 (2), 230- 240.
Dominguez, A. & Alonso, P. (2004). La educación de los alumnos sordos hoy. Perspectivas y respuestas educativas. Aljibe: Málaga.
Emmorey, K., Grabowsky, T., McCullough, S., Damasio, H., Ponto, L., Hichwa, R. & Bellugi, U. (2003). Neural systems underlying lexical retrieval for sign language. Neuropsychologia, 41, 85-95.
Emmorey, K., Grabowsky, T., McCullough, S., Ponto, L., Hichwa, R. & Damasio, H. (2005). The neural correlates of spatial language in English and American Sign Language: a PET study with hearing bilingual. NeuroImage, 24, 832-840.
García Orza, J. (2002). Neuropsicología cognitiva de la lengua de signos: una piedra de toque para el estudio del lenguaje, la visión, las emociones faciales y el movimiento. Revista de Psicología General y Aplicada, 55 (1), 89-104.
Gibson, C.J., & Bryden, M.P. (1984). Cerebral laterality in deaf and hearing Children. Brain and Language, 23, 1-12.
Herrera, V. (2005). Adquisición temprana de lenguaje de signos y dactilología”. Revista Psicopedagógica, 77-78, 2-10.
Hickok, G., Kirk, K., & Bellugi, U. (1998). Hemispheric Organization of Local and Global Level Visuospatial Processes in Deaf Signers and Its Relation to Sign Language Aphasia. Brain and Language, 65 (2), 276- 286.
Tomado de:


Tal vez también te interese:
- LAS BASES NEUROBIOLÓGICAS DEL LENGUAJE EN PERSONAS SORDAS Viviana Burad (2009)


P.D.: Los links e hipervínculos sólo funcionan una vez identificado en SIGNApuntes con nick y contraseña
Volver arriba Ir abajo
Ver perfil de usuario http://signapuntes.8forum.info
 
BASES NEUROLÓGICAS DEL LENGUAJE HABLADO Y SIGNADO - V. Herrera Fernández
Ver el tema anterior Ver el tema siguiente Volver arriba 
Página 1 de 1.
 Temas similares
-
» Puntas para bases de cajas acústicas
» ayuda puntas desacoplo
» Bases altavoz SOUNDCARE
» Bases de desacoplo
» China ya tiene 15 bombarderos estratégicos capaces de atacar bases estadounidenses

Permisos de este foro:No puedes responder a temas en este foro.
SIGNApuntes - (lengua de signos) :: APUNTES :: LINGÜISTICA DE LA L.S.-
Cambiar a: