in Boletín de Filología
El reconocimiento de palabras y el acceso léxico: revisión de modelos y pruebas experimentales
Abstract
1. INTRODUCCIÓN
En el presente trabajo, pretendemos dar cuenta de las complejidades involucradas en el reconocimiento de palabras. Su naturaleza radica en que, a pesar de responder a un acto lingüístico, los procesos cognitivos que subyacen a él son variados y, principalmente, de naturaleza psicológica. En efecto, la comprensión del discurso se enmarca dentro de una serie de habilidades mentales superiores, porque conllevan actos conscientes y sistemáticos que originan cambios de estado, de lo que se colige que no hay actividad aleatoria en dicho acto. Una de las formas de ilustrar este proceso ha sido mediante la metáfora de la computadora: mente y cerebro son dos dimensiones de una máquina que computa los estímulos del mundo exterior. Por una parte, el segundo término corresponde a un sistema físico y biológico, mientras que, por otra parte, el primero se configura como un mecanismo abstracto capaz de almacenarlos y procesarlos.
El reconocimiento de palabras, por lo tanto, se constituye en un proceso que sucede en la mente y activa contenidos, tanto en la memoria de largo plazo como en la de trabajo. Reconocer una palabra conlleva la activación de estructuras representadas en el cerebro del sujeto a través del acople de estímulos externos (auditivos o visuales), mediante unidades subléxicas (fonemas, sílabas, morfemas) y recursos morfológicos como la derivación y la composición. En este punto, el sujeto la transforma en una representación de salida que se caracteriza por integrar la información fonológico ortográfica, morfológica, sintáctica y semántica de acuerdo a las reglas de la lengua. El producto, finalmente, es un objeto mental nuevo de dos niveles: uno formal y uno semántico.
2. EL RECONOCIMIENTO DE PALABRAS
La identificación de palabras se convierte en el primer peldaño de la comprensión del lenguaje. Su emergencia requiere de tres clases de información que actúan entrelazadamente a partir del saber (ola competencia) y el actuar (discriminación del contexto de empleo de dicha palabra). La información estimular está circunscrita a las características fonémicas y ortográficas y constituye en la "puerta acceso" al léxico, dado que es el input que el reconocimiento requiere. La información léxica incluye sílabas y morfemas, los que permiten construir una palabra de acuerdo a las reglas de combinación de cada una de estas unidades subléxicas; finalmente, la información contextual, activa los significados y las palabras de acuerdo al contexto de producción o emisión.
Los factores señalados anteriormente dependen de una serie de representaciones parciales que las activan. La representación fonológica, la primera dentro de este proceso ascendente, da cuenta de la estructura segmental, que distingue una palabra de otra en la cadena hablada o bien los componentes de una unidad léxica; la representación ortográfica, activada en los procesos de lenguaje escrito, transforma los estímulos visuales en fonológicos, estableciendo la equivalencia con el lenguaje oral; la representación morfológica asigna la función gramatical de la pieza léxica dentro de la cadena hablada o del texto escrito. La representación sintáctica permite asignar el patrón de empleo contextual, es decir, el orden determinado dentro del texto. Los dos últimos elementos están relacionados con el significado propiamente tal: la definición misma y los términos asociados. Estos distintos niveles configuran un fenómeno complejo en la representación del léxico en la memoria de los individuos: su organización no se limita solo a un repertorio de palabras y un significado asociado, sino que conlleva una serie de otros elementos que activan o inhiben dichos significados. Por ejemplo, el conocimiento de la representación ortográfica permitirá al sujeto discernir si la palabra corresponde o no al repertorio de la lengua propia. En términos prácticos, permite la discriminación entre palabras y pseudopalabras en pruebas experimentales, como la tarea de decisión léxica. También la confluencia de los aspectos fonéticos y ortográficos permite analizar la familiaridad léxica en un individuo mediante prueba de nombrado (Naming Task), puesto que tanto más ajena sea la representación ortográfica, más difícil será la conversión grafema-fonema y, consecuentemente, más lento el reconocimiento. Variables como concreción e imaginabilidad están íntimamente relacionadas con las dimensiones semánticas de la palabra, ya que, como veremos más adelante, entregan información sobre lo precisa o amplia que pueda ser la información contenida en ella. Finalmente, la configuración de campos semánticos y de sinónimos de la palabra organiza el lexicón, lo que deriva en su disponibilidad en la memoria del sujeto, la que puede ser medida mediante pruebas de priming, ya sea en contexto o en palabras aisladas (Haberlandt 1994); esta facilitación en la activación de una palabra está relacionada con las zonas compartidas por el significado.
2.1. TEORÍAS DE ACCESO LÉXICO
Las teorías de acceso léxico explican la forma cómo el cerebro procesa los estímulos visuales o auditivos y reconoce las palabras. En una primera clasificación, se encuentran los modelos de carácter directo e indirecto. Los primeros postulan que las palabras se reconocen apenas se presenta el estímulo, sin que sea necesaria la activación de niveles previos o simultáneos; a la inversa, los modelos indirectos proponen que el acceso léxico ocurre por medio de una serie de niveles. Por otra parte, los modelos pueden ser concebidos, bajo la concepción de su "arquitectura", como seriales o interactivos. Los primeros postulan que las palabras se activan a través de una secuencia de procesos ascendentes, mientras que los segundos sostienen que dichos procesos ocurren en paralelo, es decir, dos o más procesos pueden suceder en forma simultánea o bien no necesariamente obedecen a una secuencia ascendente, sino que niveles superiores pueden apoyar la activación de los inferiores (Alameda, Domínguez y Álvarez 1999).
Uno de los modelos más influyentes en el acceso léxico es el Modelo del Logogén, propuesto por Norton en 1969. Dicho modelo es considerado como interactivo y directo e introduce la noción de "activación". Su principal característica son los "logogenes", que representan al léxico en la memoria. Los logogenes se almacenan como entradas simbólicas, equivalentes a recipientes o casillas que, conforme reciben información estimular, se llenan hasta el momento cuando la información es suficiente para activar uno específico. El reconocimiento no siempre ocupa la misma cantidad de información, sino que es variable; así, una palabra frecuente requiere de menos estímulos para ser reconocida, mientras que una infrecuente requerirá de un proceso más extenso para su reconocimiento. También se debe considerar que, al activarse una partícula, se activan también otros logogenes que comparten ciertas similitudes tales como longitud de sílaba, grafemas, fonemas, etc. Este hecho es de vital importancia, pues desencadenará una serie de efectos al momento de describir el proceso de activación léxica: se producen una serie de fenómenos, tales como la frecuencia léxica, el efecto de lexicalidad, el efecto de longitud y el efecto priming. Cada uno se ha verificado por medio de pruebas experimentales, generando tiempos de reacción característicos para cada uno de ellos ( Alameda et al. 1999 ; Perea y Lupker 2004; Perea, Rosa y Gómez 2005; Carreiras y Perea 2005).
El Modelo de Búsqueda, propuesto a partir de los trabajos de Rubinstein y colaboradores en 1971 y que desarrolla Forster en sus trabajos de 1976 y 1990 (para una extensa revisión, véase de Vega 1999) concibe el acceso léxico de otra manera. La principal noción de este modelo es la metáfora de la biblioteca, que postula que las palabras deben ser buscadas ordenadamente en la memoria, lo que convierte al modelo en indirecto y serial; en este último punto, recoge los supuestos del modularismo fodoriano en cuanto al flujo unidireccional de la información estimular. El modelo cuenta con tres archivos periféricos que permiten el proceso de búsqueda: un archivo ortográfico, que permite el rastreo de las entradas visuales; el fonológico, destinado a las entradas auditivas y el semántico, para la producción de palabras. Utilizando la información de estos archivos, se produce una búsqueda ordenada de los rasgos, lo que explica el efecto de la frecuencia: las palabras de mayor frecuencia estarán más fácilmente disponibles. Sin embargo, dicha ordenación no se define según la entrada completa, sino a partir de características fonológicas u ortográficas; en otras palabras, la frecuencia de los rasgos organiza la ordenación hasta que la entrada correcta sea seleccionada. Posterior a ese momento, las características sintácticas y semánticas quedan disponibles cuando se activa el archivo central o principal (Belinchón, Rivière e Igoa 1992).
En el caso de los efectos experimentales, el Modelo de Búsqueda explica la frecuencia a través de la distinción palabra versus pseudopalabra, pues la última arroja tiempos de reacción mayores, debido a que la búsqueda exhaustiva de la forma es infructuosa. El mayor tiempo de procesamiento implica que la búsqueda se realiza con toda la forma dentro del lexicón mental del sujeto, ya que si se descartara la forma solo por su compartimento inicial, la latencia de rechazo sería menor. Por otra parte, el efecto priming se explica por la conexión entre la representación semántica y el archivo central. De esta forma, el efecto que produce profesor en escuela se explica porque escuela se vale de las referencias cruzadas que tiene con profesor, por lo que no requiere ser procesada por el archivo periférico, lo que redunda en menores tiempos de latencia.
Una tercera forma de entender el procesamiento del léxico es a través del Modelo de Cohorte, propuesto por Masrlen y Wilson en 1984. Se ubica en un espacio intermedio entre los modelos de activación -Morton- y los de búsqueda -Forster-, pues ofrece una explicación mixta consistente en una primera parte autónoma, encargada de activar un conjunto finito de candidatos léxicos (la cohorte) a partir de las propiedades fonéticas. Seguidamente, se inicia el proceso interactivo que inhibirá a los candidatos cuyas características sean incompatibles hasta activar solo la entrada léxica correspondiente. En este modelo, el momento de reconocimiento inequívoco de la palabra es el llamado "punto de unicidad" y que sucede cuando ha terminado la etapa de acústico-fonética. La principal objeción que se ha hecho a este modelo es respecto del efecto frecuencia, ya que, para explicar por qué ante un punto de unicidad se activa primeramente la palabra de mayor frecuencia (ca*ta / ca*ta), se incorpora el concepto de activación; sin embargo, no hay suficiente sustento empírico que lo justifique Lo mismo sucede con los errores, especialmente cuando se produce un fallo perceptivo que afecte la porción inicial de la palabra: en casos como carro-tarro, no se puede producir corrección porque la cohorte inicial contiene candidatos que comienzan por [carr-] y no por [tarr-] (Belinchón et al. 1992).
2.2. OPERACIONES EN EL RECONOCIMIENTO DE PALABRAS
Los modelos comentados más arriba explican el procesamiento a partir de diferentes enfoques. No obstante las discrepancias, es posible apreciar cierto consenso en distinguir las siguientes etapas del proceso de reconocimiento léxico:
a) Contacto léxico inicial: en este primer momento, se produce la percepción de la entrada léxica ya sea en el plano auditivo u ortográfico. Esta activación rara vez termina en la selección de una palabra de forma biunívoca, puesto que es común la activación de vecinos léxicos.
b) Activación: el contacto inicial gatillará la excitación o inhibición de aquellas entradas con las que el estímulo comparta características. Se debate si la diferencia en la excitación de los rasgos obedece a alguna característica del vecindario; no obstante, el efecto de la frecuencia explica la mayor disponibilidad, por lo que redundará en la selección de la palabra debida. Asimismo, desde una perspectiva interactiva, el contexto en el cual se presenta la palabra favorece dicha selección.
c) Selección: esta etapa se caracteriza por el abandono de los candidatos menos adecuados, a través de una activación diferencial consistente en que, a partir de la información sensorial que no es pertinente a la entrada buscada, los candidatos son descartados. Otra forma de explicar el paso de la selección es mediante la disminución de la cohorte y una tercera forma de explicarlo es a través de la lista de frecuencia.
d) Reconocimiento: es la culminación de los pasos anteriores, corresponde al momento en que la palabra seleccionada se aprueba sin duda ni error. Belinchón y colaboradores (1992) exponen las diferentes formas de asumir este reconocimiento tanto para los modelos conexionistas como para los autónomos; no obstante, toda corrección surgida a partir de la información sintáctica, semántica y pragmática, se considerará "posléxico" y no debe ser incluido en las operaciones de reconocimiento.
e) Acceso al léxico: el acceso léxico se define como el momento en que quedan disponibles las características léxicas no activadas previamente. Cada modelo establece una forma propia para dicho acceso: los modelos autónomos proponen que estas características se activan cuando ha concluido el proceso de reconocimiento formal, mientras que los conexionistas proponen que esta activación es simultánea al reconocimiento. Este último rasgo implicaría que un individuo puede acceder a la información semántica antes de terminar de reconocer la palabra.
3. EL LUGAR DEL LÉXICO EN LA COMPRENSIÓN LECTORA
Las diferentes teorizaciones en el campo de la lectura han llevado a la formulación de varios modelos de comprensión. Las conclusiones de los trabajos experimentales han permitido establecer estrechas relaciones entre las habilidades del lector y las características del texto, tal como se pueden observar en el cuadro propuesto por McNamara y Magliano (2009 ):
Tal como se puede observar, las características se han organizado en cuatro grupos: el A, donde se ubica un lector estratégico y un texto con facilidad de procesamiento; el B, donde se ubica un lector con un bajo desempeño estratégico y un texto fácil de procesar; el C, encontraremos un lector con pocas habilidades estratégicas y un texto difícil de procesar, lo que derivará en procesos de comprensión básicos y centrados en la estructura de superficie; finalmente, el peor desempeño será en el cuadrante D, donde confluyen un lector poco estratégico y un texto de difícil procesamiento, lo que inevitablemente derivará en la sensación de no comprensión por parte del lector.
Perfetti y Adlof ( 2012) proponen un modelo que organiza el procesamiento del vocabulario desde el ingreso del estímulo en el input visual hasta la comprensión propiamente tal. En el esquema siguiente, se expone la propuesta de un sistema de conocimiento de la lengua que transita desde el sistema ortográfico al lingüístico, donde el léxico tiene una posición intermedia entre las unidades mínimas y los procesos de comprensión. El proceso de los estímulos visuales, en el caso de la lectura, activa las unidades fonológicas y ortográficas que derivarán en palabras con el valor semántico, morfológico y estructural debido para activar el proceso de comprensión. La interconexión entre el léxico como constituyente del sistema ortográfico y la comprensión está mediada por el conocimiento general.
En este sistema, los procesos superiores dependen y se desarrollan a partir de la identificación de las palabras, de ahí su valor fundamental para la comprensión. El estudio de la identificación de las palabras ha puesto en evidencia los errores que se producen en la comprensión a partir de la asociación con significados inadecuados. Seguidamente, estas diferencias se reflejan en el desempeño de buenos y malos comprendedores, especialmente en estos últimos, con serias debilidades en el control explícito de palabras, dada la exigencia del adecuado funcionamiento de los niveles inferiores por parte de los superiores.
Por lo tanto, la comprensión lectora puede abordarse desde dos prismas: la lectura de palabras - lo que implica básicamente la decodificación- y la comprensión del lenguaje, que busca establecer el sentido de las palabras. La lectura y la comprensión de palabras son pilares fundamentales -aunque no suficientes- para caracterizar a un lector competente; si bien ambos elementos están correlacionados, son disociables, tal como sucede cuando alguien lee en otro idioma (Adlof, Perfetti y Catts 2011). De este modo, la unión de decodificación, vocabulario y comprensión configuran lo que Perfetti (2010 ) formula como el triángulo dorado de la comprensión. En esta representación, se ilustra la relación causal entre los factores señalados anteriormente con ciertas restricciones:
Tal como se observa en la figura, el triángulo no está formado por flechas y flujos interconectados, sino que se producen relaciones más o menos estrechas entre cada uno de ellos. En primer lugar, la relación entre la decodificación y el vocabulario es directa e interdependiente: la decodificación exitosa contribuye a recuperar significados familiares, establecer enlaces entre palabras no familiares y su contexto y, finalmente, el conocimiento del significado facilita la conexión palabra-texto. En la evidencia empírica, se ha demostrado que los lectores con menos habilidades en la decodificación tienen dificultades para el reconocimiento de palabras poco familiares, ya que un proceso incompleto impide el establecimiento de la representación específica de la palabra.
Por otra parte, la relación entre el vocabulario y la comprensión también está en una relación de dependencia mutua: la comprensión depende del conocimiento de las palabras al ser leídas. Lo anterior supone que acceder al léxico en diferentes contextos es una habilidad que debe estar debidamente desarrollada. Del mismo modo, en los malos comprendedores, la comprensión apoyará la identificación de palabras, siempre que la palabra desconocida esté en un segmento del texto de modo tal que el significado pueda ser derivado.
Respecto de la relación entre codificación y comprensión, Perfetti (2010 ) señala que no hay una relación causal en ambas direcciones, pues el efecto de la decodificación en la comprensión está mediado por el significado de la palabra decodificada, sino que la relación es indirecta, pues la correcta decodificación ayuda a la identificación de palabras, mientras que entre más automatizado es el proceso de decodificación, la comprensión cuenta con más recursos cognitivos para el procesamiento.
A partir de estos supuestos, se espera identificar las relaciones que Perfetti postula en el triángulo dorado:
a) La habilidad de la comprensión lectora está afectada por la habilidad en la decodificación y la de vocabulario.
b) La habilidad léxica será afectada por la comprensión y la decodificación.
c) La decodificación (entendida como reconocimiento de palabras) estará condicionada al conocimiento del vocabulario.
3.1. VALORES LÉXICOS
El acceso al léxico, como se ha expuesto, obedece a ciertos procesos cognitivos que activan o inhiben los estímulos y están condicionados a factores extra cognitivos que, por los efectos que producen, tienen una especial relevancia psicolingüística. Esto quiere decir que los sujetos emplean toda información disponible para reconocer palabras en los contextos de lectura.
El primer factor considerado es la frecuencia léxica, que se define como la tasa de uso de una palabra en la lengua. Este valor encuentra su origen en la Ley de Zipf, formulada en la primera década del siglo XX y que postula que la frecuencia es una función lineal en una escala de frecuencias, lo que equivale a que una palabra se vuelve frecuente por su uso frente a un conjunto
reducido de palabras y uso mínimo del resto (Belinchón et al. 2005). La importancia de este valor ha quedado demostrada en pruebas empíricas de decisión léxica, nombrado y rastreo de movimientos oculares. Del mismo modo, la frecuencia ha sido considerada por los principales modelos de reconocimiento de palabras precisamente para explicar las diferencias en
los tiempos de activación léxica. La evidencia psicolingüística arroja que las palabras de mayor frecuencia léxica son más fácilmente reconocidas por los sujetos (Balota y Chumbley 1984); sin embargo, la frecuencia, combinada con la longitud de la palabra -que en el caso del español se mide en sílabas-, ofrece diferencias en los tiempos de procesamiento, lo que redundará en la facilitación u obstrucción de la comprensión. La frecuencia léxica no funciona por sí misma para activar una palabra en el lexicón de un sujeto; la significancia de la entrada léxica también juega un papel combinado, pues los sujetos emplean cualquier atisbo de información para discriminar palabras de pseudopalabras. Esto mismo explica que las palabras de baja frecuencia demoren más en ser procesadas, ya que no solo están más alejadas de la memoria de trabajo, sino que el nivel de información que contienen es tan bajo que pueden hasta confundirse con pseudopalabras (Balota 1994). También hay evidencia de que el reconocimiento de palabras en lectores avanzados sucede en forma encapsulada ( Fajardo et al. 2012), lo que implicaría que, en el caso de lecturas más especializadas, las palabras propias de una disciplina ofrecen una ruta de acceso que depende menos del contexto. Aun con esta salvedad, las diferencias en la velocidad de reconocimiento siguen dependiendo de la frecuencia. Por ejemplo, un sujeto puede reconocer una palabra con una velocidad que varía entre 200 y 400 ms, y en contextos de premura lectora, hasta en 200 ms.
La frecuencia léxica no incide aisladamente en el lexicón de un sujeto, sino que se conjuga con dos elementos adicionales: la familiaridad y la concreción. Ambos son valores subjetivos que dependen, por una parte, del empleo relativo que el sujeto haga de la palabra y, por otra parte, de la información semántica de la que disponga para comprenderla. La familiaridad se define como la impresión subjetiva de escuchar, leer o usar una palabra determinada y suele ser medida mediante escalas aplicadas a los hablantes. Efectivamente, hay alta conelación entre la frecuencia y la familiaridad, pues entre más frecuente es una palabra en su uso, el sujeto la puede percibir como más familiar (Balota y Chumbley 1984; Balota 1994). En ese mismo sentido, los efectos de esta variable pueden convertirse en un predictor importante en las tareas de reconocimiento. Por lo tanto, dichas interacciones podrían llevar a varias premisas: este índice subjetivo no implica que el sujeto conozca la acepción de la palabra, pero el hecho de saberla familiar debería facilitar la tarea de decisión o de nombrado, por una parte y, por otra, de carácter textual, que las palabras que configuran un determinado género discursivo podrían ser fácilmente accesibles más por el hecho de ser familiares que frecuentes y que una alta familiaridad no necesariamente constituiría un correcto conocimiento de las palabras.
El tercer factor que incide en el procesamiento de palabras es la concreción. Los conceptos de concreto y abstracto están basados en sistemas representacionales concebidos a partir de propiedades diferentes: la concreción se entiende como un referente perceptible por los sentidos (Balota 1994). Las palabras concretas ofrecen una ventaja cognitiva al momento
de ser procesadas, en comparación con las palabras abstractas, debido a la facilidad de asociar la representación semántica con la percepción. Por lo tanto, en la concepción más clásica, las palabras que representan objetos perceptibles sensorialmente son clasificadas como concretas, mientras que aquellas que no tienen un vínculo directo con la realidad percibida se
consideran abstractas.
Abstracción y concreción son dos factores que deben ser considerados al momento de indagar sobre las habilidades léxicas. Una de las razones para tal consideración está en que la concreción, junto con la alta frecuencia y la familiaridad, son facilitadores del reconocimiento léxico. En el caso de la concreción, la característica es inherente a la adquisición de la lengua,
toda vez que los sustantivos concretos son los primeros que se adquieren (Monsalve y Cuetos 2001). Si bien esta es una diferencia cuantitativa, existe una diferencia cualitativa que es la diferenciación en los principios de organización de palabras concretas y abstractas (Crutch y Warrington 2004; Fajardo et al. 2012). El efecto de la abstracción se ha investigado
especialmente en sujetos con lesiones neurológicas que han afectado su capacidad de procesar palabras abstractas, las que, a diferencia de las palabras concretas, carecen de referentes sensibles, tienen baja disponibilidad de información contextual y cuentan con menor soporte semántico. Estas características han derivado en que palabras abstractas y concretas obedecen
a principios de organización diferentes. Para explicar esta problemática, Paivio (1991 ) propone la "Teoría de código dual", la que explica dicha organización de palabras concretas y abstractas a través de una relación ortogonal entre los sistemas simbólicos y los sistemas sensorio-motores, que están directamente relacionados con las nociones de abstracción y concreción en las palabras. De esta forma, una palabra no necesariamente encontrará un referente en el sistema sensorio-motor, por lo que deberá buscar la información respectiva en el sistema simbólico. Estos dos sistemas son funcionalmente independientes y no se presuponen para activarse, lo que trae consigo efectos en la recuperación de las palabras, debido al recorrido que debe efectuar la entrada léxica en los tres niveles de procesamiento que propone la teoría.
No obstante lo anterior, estas variables están lejos de agotar la discusión y la investigación científica. En este contexto, Iliev y Axelrod (2016 ) proponen la precisión como una medida de abstracción basada en la cantidad de información computada por el sujeto, lo que quiere decir que los conceptos " abstracto" y "concreto" son niveles de información semántica de las
palabras:
El cuadro anterior ilustra cómo la cantidad de información puede tener un rol paradoja! al momento de ser procesada: una palabra concreta tiene mucha información, lo que lentificaría su decisión, no así las abstractas, que por tener una menor carga referencial -incluida la experiencia directa- la facilitaría.
Entonces, la discusión sobre la inclusión de estas variables léxicas en la evaluación de la lectura se justifica plenamente. La frecuencia léxica permite organizar en un primer gran grupo las palabras que los estudiantes novatos deben enfrentar; considerar que solamente esta variable es la que afecta el reconocimiento y la comprensión, sin embargo, constituiría una visión
incompleta del problema. Al incluir familiaridad y concreción, incorporamos elementos adicionales que permitirán entender mejor el problema de investigación, puesto que las interacciones que se producen entre ellas nos pueden entregar cierta claridad en la forma de reconocer palabras.
4. TÉCNICAS EXPERIMENTALES DE PROCESAMIENTO LÉXICO
Haberlandt ( 1994) compara el procesamiento de un texto con las luces de un tablero que se activan a medida que obedecen a una secuencia determinada. En el caso de la comprensión, esta activación está directamente relacionada con los conceptos procesados a medida que se avanza en la lectura a partir de los significados activados y los conocimientos previos. Por su parte, Perea y Rosa (1999 ) refuerzan el interés científico por el reconocimiento visual de palabras porque reviste una importancia fundamental en la psicología de la lectura por ser el proceso básico sobre el cual se sustentan los demás procesos de comprensión. En el caso de la evaluación de lectura y de las habilidades lectoras, ha estado centrada principalmente en métodos a posteriori (Vega y Cuetos 1999),justificada sustancialmente por su economía tanto en los recursos involucrados, como en la aplicación colectiva. Estas técnicas dan cuenta del proceso final de la tarea lectora, pero no entregan mayores datos sobre cómo se ha llegado a tal resultado. Por otra parte, la técnicas en curso están centradas en medir los tiempos que los sujetos invierten en procesar palabras u oraciones, normalmente presentadas en un monitor y sobre los cuales se esperan respuestas que son ingresadas y procesadas informáticamente. La latencia entre la visualización del estímulo y la respuesta -conjuntamente con la precisión de la misma- refleja el tiempo necesario para el procesamiento de la información. Dicho de otra manera, la latencia en la respuesta se convierte en la variable dependiente, cuya interpretación será diversa según las peculiaridades del diseño de investigación. Las principales ventajas de las tareas de decisión radican en que permiten controlar la elección, niveles y tiempo de las pruebas, lo que ha traído consigo una amplia serie de hallazgos en el acceso léxico y procesos de comprensión lectora (Haberlandt 1994).
Una de las pruebas experimentales más usada durante décadas para medir los procesos cognitivos implicados en el reconocimiento de palabras en el código escrito ha sido la tarea de decisión léxica (TDL). Generalmente, se diseñan con decenas o cientos de estímulos. Debido a la velocidad de presentación de estos estímulos, los procesos tienden a ser automáticos y, por ende, se homologa al procesamiento de la lectura natural. En una tarea de decisión léxica normal, se consideran las características que inciden en el procesamiento normal de las palabras, a saber: largo de la palabra, regularidad ortofónica, vecindario léxico, frecuencia silábica, frecuencia léxica, imaginabilidad, transparencia morfológica, profundidad ortográfica y bilingüismo (Katz et al.2012). Katz y colaboradores (2012) trabajaron en una tarea de decisión léxica para establecer si dicha tarea, junto con la prueba de nombrado, están condicionadas por la decodificación o el reconocimiento visual de palabras; también se plantearon el problema si la fluidez lectora se correlaciona con la velocidad de nombrado o reconocimiento en la TDL y, en tercer lugar, si el tamaño del lexicón de un sujeto se correlaciona con el desempeño en dichas pruebas. Estos problemas psicolingüísticos orientan una serie de enfoques sobre la relación entre vocabulario y la comprensión: en la medida en que se disponga de datos sobre la organización del lexicón en individuos, podremos establecer correlaciones con su desempeño lector, ya que los tiempos de recuperación léxica permiten proyectar las dificultades de comprensión que pudieran producirse, precisamente porque hay vacíos léxicos o bien ciertas configuraciones del vocabulario que inhiben falsamente la recuperación de palabras. Por lo tanto, la TDL, junto con la tarea de priming, permiten detectar la activación y rastrearla en el curso temporal, por lo que se convierte en una oportunidad para pesquisar el dinamismo de los cambios durante la activación del lexicón.
En la situación experimental, el sujeto debe responder si el estímulo visual corresponde a una palabra o no. Para aquello, el investigador prepara una serie de estímulos -en la forma de cadena de letras- de acuerdo a las reglas fonotácticas y morfológicas de la lengua investigada. El objetivo de esta tarea es verificar el reconocimiento del estímulo en el léxico mental a partir de la activación de los grafemas, que derivan en diferentes tiempos de reacción que reflejan la diferencia entre palabras de alta y baja frecuencia. Por consiguiente, las variables trabajadas son, principalmente, el tiempo y la precisión de la respuesta.
La TDL se convierte, por lo tanto, en una interesante herramienta para establecer los procesos involucrados en la decodificación de palabras; por lo mismo, en su implementación, los investigadores han desarrollado los experimentos de acuerdo a los requerimientos de sus hipótesis de estudio y, por lo tanto, no es fácil encontrar una "receta" a la hora de diseñarla para otra hipótesis. Por ejemplo, la decisión frente al estímulo palabra/ no palabra exige que el sujeto pulse una u otra tecla programada como respuesta afirmativa o negativa. Otra forma de establecer la decisión es por medio de la variante go/no go, donde solo se responde en caso afirmativo; en el caso de que el sujeto descarte la palabra, después de una cantidad de tiempo fijada por el investigador, el programa computacional continuará con el siguiente estímulo. Estas variantes en la metodología de respuesta pueden tener diferentes utilidades: en el caso de sujetos con sus capacidades motoras y cognitivas normales, la selección de respuestas pulsando teclas diferentes es habitual, mientras que en sujetos con ciertas limitaciones, se prefiere la segunda.
En cuanto a los aspectos metodológicos de la TDL en particular y las pruebas cronométricas en general, se debe configurar una medida de tiempo para evitar el procesamiento estratégico, que surge producto de los reiterados ensayos, la reiteración de patrones o bien de la tendencia a la adivinación de quien participa en los experimentos. Esta medida de tiempo se llama, en inglés, stimulus onset asynchrony (SOA) y consiste en la manipulación que el investigador efectúa de la distancia temporal entre la presentación de uno y otro estímulo en la TLD, o bien, entre el prime y el target en el caso de la prueba de priming (Haberlandt 1994). En el caso de la decisión de significados para palabras ambiguas, la evidencia señala que un SOA sobre 200 ms mantiene activos ambos significados; en el caso de tiempos superiores, el significado relacionado se selecciona y se mantiene activo. Por lo tanto, en el diseño de experimentos que buscan indagar sobre la disponibilidad léxica, es muy recomendable que los tiempos en la secuenciación de los estímulos estén espaciados sobre 500 ms de modo tal que la latencia del estímulo anterior no genere un efecto no controlado al momento de aparecer el siguiente.
4.1.- EVIDENCIAS EN TDL
Una tarea de decisión léxica debe organizar sus estímulos de modo que permitan medir solamente los factores pensados en el diseño experimental. Si bien, como se ha sostenido, velocidad y precisión son las variables medidas, dichas variables están sujetas al control de aspectos como la frecuencia léxica, el número de sílabas, la constitución silábica, el vecindario léxico y el efecto priming que puede afectar tanto la ortografía como el significado del estímulo. Los investigadores recurren a listas normadas de palabras, generadas a partir de investigaciones preliminares para seleccionar y organizar los estímulos sin descuidar las variables señaladas anteriormente (Bleasdale 1989; Pérez, Campoy y Navalón 2001; Katz et al. 2012); asimismo, se recurre al empleo de diccionarios de frecuencias léxicas para el mismo fin.
Kroll y Merves (1987) prepararon tres experimentos con TDL para comparar la velocidad y precisión de la respuesta en palabras concretas y abstractas a partir de los postulado en la Teoría del código dual de Pavio. Los aspectos teóricos de la discusión en este trabajo se sustentan en evidencias obtenidas en sujetos con daño en el hemisferio cerebral izquierdo, la diferencia en la capacidad y un lexicón especial para las palabras concretas ubicado en el hemisferio cerebral derecho. El objetivo de este experimento fue establecer las diferencias en los patrones eran consistentes o no con un sistema único o múltiple de memoria y si el código dual permite presuponer la existencia de sistemas de memoria para palabras comunes y palabras para propósitos específicos.
En lo que respecta a la implementación, en el primer experimento se configuraron listas cerradas de palabras concretas y abstractas, subdivididas a su vez en cuatro bloques de 25 palabras, junto con 25 pseudopalabras. Los estímulos fueron calibrados en frecuencia y extensión grafémica y el orden de presentación de los cuatro bloques fueron contrabalanceados entre sujetos. En el caso del segundo experimento, se consideraron listas mixtas de palabras - mitad concreta, mitad abstracta-, mientras que en el tercero se presentaron alternadamente listas de palabras concretas y abstractas. El procedimiento para los tres experimentos consideraba un punto de fijación de 100 ms seguido de un espacio en blanco de 400 ms, para después presentar el estímulo durante 200 ms, y los sujetos respondieron a través de un dispositivo computacional. En el caso de este experimento, el participante toma la decisión léxica después de que el estímulo desapareció, lo que implica que el procesamiento de la cadena de letras sucedió en los primeros 200 ms y la decisión ocupó, en promedio, sobre 500 ms. La ventaja de esta metodología reside en que, al desaparecer el estímulo, la respuesta del sujeto está menos expuesta a factores pos léxicos y, consecuentemente, refleja de mejor manera el proceso de activación en la memoria. Esta opción metodológica, no obstante, no está exenta de crítica, por cuanto la exposición tan breve al estímulo podría incidir en que el acceso léxico no se verifique cabalmente, ya que los aspectos semánticos no se activan hasta tiempo muy superiores (Camargo y Hederich y Buitrago 2001 ).
El trabajo de Millis y Bution (1989 ), a su vez, buscaba establecer la relación entre polisemia, como la cantidad de definiciones de las que un determinado sujeto es capaz de pensar para una palabra. El estudio se propuso establecer ciertas relaciones entre frecuencia y polisemia que no eran lo suficientemente robustas. En la discusión teórica sobre la materia, se sostiene que la relación entre los significados de diccionario y la frecuencia depende del adecuado control que se haga sobre los estímulos. Esto nos orienta a que definir correctamente la secuenciación de los estímulos dará mayor consistencia. Para tal efecto, no deben cruzarse conceptos como polisemia o familiaridad. Para el experimento, Millis y Bution partieron del supuesto de que familiaridad y frecuencia están altamente correlacionadas, por lo que las palabras escogidas tenían índices muy diversos respecto de la primera variable. Asimismo, en la selección de las palabras, participaron en un estudio normativo previo 17 sujetos que clasificaron las palabras en una escala de 1 a 7 y se les requirió una acepción para cada una de ellas. En la implementación misma del experimento, los investigadores programaron, igual que en el experimento de Kroll y Merves, el punto de fijación durante 500 ms para atraer la concentración del sujeto; inmediatamente después de esto, se presentó el estímulo hasta que el sujeto respondiera, pulsando dos teclas previamente definidas por los investigadores: una tecla al lado
derecho del participante para decidir afirmativamente y otra a la izquierda para decidir pseudopalabra; después de la decisión, se dejó un espacio en blanco de 1000 ms. Los materiales del experimento fueron cuarenta palabras y cuarenta pseudopalabras; los sujetos, asimismo, respondieron diez ejercicios de práctica similares antes de contestar el experimento. En el caso de los dos experimentos sucesivos, los autores solo cambiaron la cantidad de palabras y mantuvieron el proceso anteriormente detallado. En este experimento, ya encontramos una diferencia respecto del primero en cuanto a la presentación y duración de los estímulos, la forma cómo el sujeto responde y los tiempos que median entre cada una de las decisiones. Los resultados no son comparables por cuanto cada uno de los experimentos buscaba comprobar hipótesis diferentes: en el trabajo de Kroll y Merves, los tiempos de reacción promediaron 696 ms para palabras concretas y 716 para abstractas; en el de Millis y Bution, los tiempos fueron de 589 ms para las palabras polisémicas y 6 76 para aquellas con un significado.
5. COMENTARIOS DE CIERRE
El estudio de la comprensión lectora ha generado una riquísima evidencia a lo largo de más de medio siglo de investigación psicolingüística. Se han desarrollado modelos de comprensión y enfoques evaluativos y, no obstante, las críticas que se han formulado a diversas técnicas, la incidencia del léxico en la comprensión mantiene toda su vigencia e interés científico. Las investigaciones tanto en inglés como en español han provisto de evidencia tanto en el ámbito educativo, a través de sujetos en edad escolar; en el ámbito clínico, con sujetos con alguna dificultad lingüística a causa de daño neurológico y también en sujetos normales. En la medida en que las tareas de comprensión lectora se especializan en determinados grupos de individuos para explicar fenómenos muy específicos, se requerirán de diseños de investigación dedicados para dar cuenta de dichos problemas. No obstante, tampoco se puede dejar de considerar el empleo de técnicas más sofisticadas, como el registro de movimientos oculares (Eye Tracking), potenciales evocados (ERP) o resonancia magnética funcional (fMRI), lo que ha derivado en un conocimiento más acabado de los procesos neurológicos involucrados en la comprensión del lenguaje. Sin embargo, a pesar de esta ventaja, lo invasivo de algunas de estas técnicas o su alto costo económico otorga a la TDL una ventaja al momento de realizar experimentos.
La selección de los reactivos para los experimentos léxicos requiere que el investigador controle variables como el largo de sílaba, la conformación de la sílaba inicial, la frecuencia léxica, la familiaridad y la concreción, entre las variables lingüísticas más relevantes. La interacción de todos estos elementos permitirá entender de diversa forma la organización léxica en los sujetos, ya que los tiempos de reacción dejan entrever su disponibilidad o bien su ausencia. En el caso de la enseñanza superior, entender los procesos que subyacen a la lectura se toman muy relevantes, puesto que desde el enfoque de la literacidad, conocer el léxico y la lecturabilidad de lo que los universitarios leen facilita el diseño de programas de alfabetización académica coherentes con las necesidades de los sujetos, puesto que las falencias en los desempeños lectores están asociadas con la deficiente activación de las palabras y, consecuentemente, con los resultados en la lectura.
Abstract
1. INTRODUCCIÓN
2. EL RECONOCIMIENTO DE PALABRAS
2.1. TEORÍAS DE ACCESO LÉXICO
2.2. OPERACIONES EN EL RECONOCIMIENTO DE PALABRAS
3. EL LUGAR DEL LÉXICO EN LA COMPRENSIÓN LECTORA
3.1. VALORES LÉXICOS
4. TÉCNICAS EXPERIMENTALES DE PROCESAMIENTO LÉXICO
4.1.- EVIDENCIAS EN TDL
5. COMENTARIOS DE CIERRE