SciELO - Scientific Electronic Library Online

 
vol.29 número2Aburrimiento y disfrute en clase de Lengua española en secundaria: predictores motivacionales y efectos sobre el rendimientoProcesos de automatización cognitiva en alumnado con altas capacidades intelectuales índice de autoresíndice de materiabúsqueda de artículos
Home Pagelista alfabética de revistas  

Servicios Personalizados

Revista

Articulo

Indicadores

Links relacionados

  • En proceso de indezaciónCitado por Google
  • No hay articulos similaresSimilares en SciELO
  • En proceso de indezaciónSimilares en Google

Compartir


Anales de Psicología

versión On-line ISSN 1695-2294versión impresa ISSN 0212-9728

Anal. Psicol. vol.29 no.2 Murcia may. 2013

https://dx.doi.org/10.6018/analesps.29.2.135231 

 

Validez predictiva e incremental de un dispositivo de evaluación dinámica sobre el rendimiento y el progreso en lectura

Predictive and incremental validity of a dynamic assessment device on academic performance and progress in reading

 

 

Juan-José Navarro1 y Joaquín Mora2

1Universidad Autónoma de Chile y Universidad de Sevilla
2Universidad de Sevilla

Dirección para correspondencia

 

 


RESUMEN

El presente artículo analiza la validez predictiva de un dispositivo de evaluación dinámica de procesos implicados en la lectura sobre el rendimiento (RE) y el progreso en comprensión (PR) de un grupo de estudiantes con especiales dificultades en la comprensión lectora (DL). Asimismo, se analiza en qué medida los resultados obtenidos ofrecen información adicional con respecto a la obtenida con pruebas estáticas de evaluación de la comprensión y la inteligencia. Para ello se utilizan dos criterios externos: (a) la valoración del profesorado sobre el RE y el PR; y (b) las calificaciones en el área de Lengua. La muestra estuvo compuesta por 60 estudiantes entre 9 y 16 años a los que se aplicó experimentalmente el dispositivo. Los resultados revelan que las puntuaciones dinámicas mostraron valores de predicción significativos sobre el RE y el PR, así como una validez incremental significativa con relación a la predicción realizada con base en las pruebas estáticas de evaluación de la comprensión y del CI. Se analizan los posibles mecanismos causales en relación a la modalidad de prueba dinámica y al contenido específico de las actividades como factores que podrían explicar los resultados obtenidos.

Palabras clave: Evaluación dinámica; rendimiento académico en lectura; dificultades de aprendizaje; comprensión lectora; validez incremental.


ABSTRACT

The present study focuses on establishing the predictive validity of dynamic assessment device of processes involved in reading tasks, in relation to school performance and progress of reading comprehension difficulties children (RD). We also analyse to what extent the results obtained offer additional information to the one provided by static assessment tests on reading comprehension or cognitive performance. With this aim, we used two external criteria: (a) the teacher's assessment of academic performance and progress, and (b) the qualifications in the area of Language. The sample consisted of 60 students between 9 and 16 years who were applied the device. Dynamic scores showed significant predictive validity on school performance and progress. Likewise, dynamic scores showed a significant incremental validity in relation to the prediction based on static tests of reading comprehension and evaluation of the IQ. We discuss the possible causal mechanisms related to the dynamic assessment approach and the specific content of the activities as factors that could explain the results.

Key words: Dynamic assessment, reading achievement; reading difficulties; reading comprehension; incremental validity.


 

Introducción

A pesar de los diferentes enfoques y modelos que se han desarrollado en el ámbito de la investigación relativa a la evaluación dinámica (ED), podríamos definir ésta básicamente como un procedimiento de evaluación del proceso de aprendizaje, caracterizado por la interacción entre evaluador y sujeto evaluado, y que a su vez incluye elementos de mediación o intervención en el proceso evaluativo (Dörfler, Golke y Artelt, 2009; Grigorenko, 2009). Estos procedimientos han sido desarrollados en su mayor parte en relación al trabajo con sujetos que presentan discapacidad intelectual, dificultades de aprendizaje o deprivación socio-cultural, y la relevancia de su aplicación parece ser mayor precisamente en estos casos (Campione y Brown, 1987; Carlson y Wiedl, 2000; Saldaña, Mora y Moreno, 2007).

En general, el diseño de la mayoría de las pruebas o dispositivos de ED desarrollados responden a dos modelos: (a) pretest/ mediación/ postest y (b) pretest/ tarea-retroalimentación continua /postest. En el primero, los sujetos reciben un pretest formado habitualmente por pruebas estandarizadas que poseen además un carácter estático en relación al formato de aplicación; posteriormente, en la fase de mediación, los sujetos reciben instrucción relacionada con las aptitudes valoradas en el pretest y, por último, se aplica un postest normalmente integrado por las mismas pruebas que configuraron la fase inicial o pruebas equivalentes. La respuesta del sujeto a la mediación y la valoración de su desarrollo potencial vendría dada por las diferencias establecidas entre la valoración obtenida en las fases pre y postest. Entre los dispositivos dinámicos que en mayor o menor medida son exponentes de este primer modelo se encuentran el LPAD (Learning Potencial Assessment Device) de Feuerstein (1998), la evaluación del potencial de aprendizaje (EPA) (Fernández-Ballesteros y Calero, 2000), el TPC-S (Swanson-cognitive processing test) (Swanson, 2000) o el modelo de ED basado en el currículum (ACFS, Lidz, 2000). Por su parte, en el segundo de los modelos más utilizados se actúa de forma que cada uno de los ítems propuestos en la prueba va acompañado de una serie de sugerencias que, de una forma graduada, van presentándose al sujeto en caso de no resolver el ítem. La cantidad y el tipo de ayuda que reciben los sujetos son determinadas por el evaluador en función de cuándo y cómo son resueltos cada uno de los ítems de respuesta, pudiendo continuar esta ayuda gradualmente hasta que se llegue a la solución correcta. Esta cantidad y tipo de ayuda ofrecida es lo que sirve en este modelo para establecer una valoración dinámica del desarrollo, determinando a su vez los apoyos requeridos para resolver con éxito una determinada actividad. El enfoque de sugerencias graduadas de Campione y Brown (1987), es el más claro exponente de este modelo. Aunque la mayoría de las pruebas desarrolladas se ajustan en mayor o menor medida a estos dos modelos (Sternberg y Grigorenko, 2003), existen otras posibilidades. En este sentido, el enfoque Lerntest (Pruebas de Aprendizaje) (Guthke y Beckmann, 2000) incluye en su batería breve una fase de instrucción dentro del procedimiento de prueba, y el Testing the limits de Carlson y Wiedl (2000) establece distintas condiciones de intervención con cantidades variables de verbalización y retroalimentación, tratando de determinar las condiciones óptimas para la meiora del rendimiento en la prueba. Para una detallada exposición y revisión crítica puede consultarse Haywood y Lidz (2007) o Sternberg y Grigorenko (2003).

Aún con distintos enfoques, los diversos modelos han tratado de optimizar el proceso de evaluación, tratando de obtener información sobre el potencial de aprendizaie del suieto y sobre sus necesidades de apoyo durante el proceso de mediación. De este modo, la ED trataría de ofrecer información adicional a la ofrecida por pruebas estáticas o convencionales, permitiendo obtener datos no sólo acerca del producto final de la actividad desarrollada, sino también sobre el proceso de aprendizaie que tiene lugar durante su desarrollo, y en qué medida el suieto se ha beneficiado de la mediación ofrecida (Resing, 2000; Jensen, 2000; Saldaña, 2004). La ED establecería de esta forma una conexión entre evaluación e intervención, por cuanto el análisis y la obtención de información se realizan a raíz de, o durante, la intervención y está orientada a la meiora de los procesos evaluados (Gersten y Dimino, 2006). Asimismo, la ED permite acceder a una valoración más integrada de distintos procesos y habilidades implicados en una actividad (Rapp y Broek, 2005). En este sentido, el análisis de los mecanismos que facilitan la construcción de aprendizajes y su mejora, puede revelarse crítico en la orientación de la acción educativa, permitiendo establecer conexiones más potentes entre procesos de evaluación e intervención (Grigorenko, 2009). En consonancia con lo anterior, un objetivo consustancial a los procedimientos dinámicos y que se refleja explícita o implícitamente en los dispositivos de ED es la mejora del funcionamiento cognitivo de los sujetos. Es en este sentido en el que la ED se aleja significativamente de los objetivos que presiden en gran medida las pruebas convencionales. De este modo, las pruebas dinámicas evalúan la modificabilidad y el cambio, en qué sentido se produce, cuál es la calidad y la cantidad de ese cambio, cómo tiene lugar y mediante qué tipo de intervención; todo esto con el objetivo de orientar una acción educativa óptima que continúe desarrollando el potencial de aprendizaje. En esta misma línea, desde estos modelos se ha enfatizado la falta de sensibilidad que muestran las pruebas estáticas para la evaluación educativa, ya que no permitirían obtener información sobre el proceso de aprendizaje o las dificultades encontradas durante el mismo, ni asimismo identificar las ayudas que requiere el estudiante para incrementar su rendimiento. Al no considerar el carácter procesual de las aptitudes, las pruebas estáticas terminarían por mezclar la medición de aptitudes ya desarrolladas con la de aptitudes en proceso de desarrollo (Sternberg y Grigorenko, 2003).

Esta consideración de las aptitudes como formas de experiencia en desarrollo (Sternberg y Grigorenko, 2003), en contraposición a asumirlas como entidades estables y estáticas que nos vienen dadas, conduce de forma lógica a los procedimientos dinámicos de evaluación como la metodología más coherente y válida para aproximarse a la valoración de la naturaleza dinámica y experiencial de las funciones en desarrollo. En este sentido, entre los argumentos citados a favor de los modelos dinámicos, se encuentra el de mostrar una mayor validez para determinar el potencial de aprendizaje y el desarrollo de aptitudes en niños con deprivación socio-cultural o pertenecientes a minorías étnicas, aspectos que de otra forma podrían quedar ocultos (Dörfler et al., 2009; Resing, Tunteler, de Jong y Bosma, 2009). El acento en la valoración del proceso y la capacidad de aprendizaje, focalizando su atención esencialmente en las competencias que se encuentran en desarrollo y tratando de establecer equivalencia inicial con relación a los contenidos a trabajar, contribuyen a que estos modelos puedan obtener información que escapa a las pruebas de aptitud convencionales (Dörfler et al., 2009; Sternberg y Grigorenko, 2003). Entre las conclusiones compartidas por la mayoría de estudios de ED, se puede encontrar que cualquier propuesta que se extrajera contando exclusivamente con la información proporcionada por las puntuaciones pretest, debería considerarse cuanto menos incompleta, ya que a menudo las puntuaciones experimentan cambios significativos incluso con cantidades pequeñas de intervención. La aplicación de modelos dinámicos ha mostrado por tanto evidencias de incremento significativo en el potencial de aprendizaje y el rendimiento de estudiantes con especiales dificultades. Diversos trabajos muestran efectos significativos en los grupos de tratamiento tras la aplicación de estos procedimientos (Beckmann, Beckmann y Elliott, 2009; Carlson y Wiedl, 2000; Fernández-Ballesteros y Calero, 2000; Resing, 2000; Resing et al., 2009; Resing y Elliott, 2011; Saldaña et al., 2007). Estas mejoras se han observado también en relación a dominios específicos como el cálculo, la memoria de trabajo o la lectura (Swanson y Howard, 2005).

La investigación relativa a la ED ha centrado su interés mayoritariamente en el análisis de funciones cognitivas generales y en el hallazgo de valores que predijeran comparativamente mejor que el CI, el rendimiento posterior de los sujetos (Kozulin y Garb, 2002; Sternberg y Grigorenko, 2003). Sin embargo, a pesar de la obtención de indicadores estadísticos de validez y fiabilidad en algunas de estas pruebas (Caffrey, Fuchs y Fuchs, 2008), este planteamiento no parece haber repercutido significativamente en la mejora contextualizada de los sujetos y del proceso de evaluación en el marco escolar (Delclos, Vye, Burns, Bransford y Hasselbring, 1992; Elliott, 2003; Jensen, 2000; Ruijssenaars, Castelijns y Hamers, 1993). Si bien algunos estudios revelan el poder predictivo de estas pruebas sobre el rendimiento académico (RE), la mayoría lo hacen desde enfoques dinámicos que priman la descontextualización de las tareas y del proceso de evaluación (Lauchlan y Elliott, 2001; Sternberg y Grigorenko, 2003). En este sentido, la escasa conexión entre las actividades y contenidos de los procesos de evaluación y de intervención educativa, podría afectar significativamente a la validez ecológica de las conclusiones aportadas (Elliott, 2003; Thurman y McGrath, 2008).

En los últimos años ha tenido lugar un cierto redescubrimiento de la aplicación de procedimientos dinámicos de evaluación a dominios específicos de aprendizaje escolar, contribuyendo este hecho significativamente a una revisión de las posibles aportaciones anteriores realizadas desde este ámbito de investigación al proceso de enseñanza-aprendizaje (Guterman, 2002; Haywood y Lidz, 2007; Kalyuga y Sweller, 2005; Lidz, 2000; Resing y Elliott, 2011; Swanson y Howard, 2005; Thurman y McGrath, 2008). El renovado interés que suscita la ED de dominios específicos, responde asimismo a los cambios producidos en la conceptualización misma de procesos como la lectura y en el tratamiento de sus dificultades. En este sentido, adquiere especial importancia la consideración de enfoques educativos interactivos y sistémicos, que acentúan la actividad constructiva y metacognitiva del lector (Hacker, Dunlosky y Graesser, 2009; Thiede, Anderson y Therriault, 2003). Desde estos enfoques, se destaca la relevancia de actuar sobre las competencias del sujeto para controlar y regular el proceso de lectura, interpretando los textos de forma progresivamente autónoma, autointerrogándose sobre su contenido, planificando y supervisando el logro de objetivos, o evaluando la propia comprensión. La consideración preferente de estos y de otros procesos implicados en la lectura por parte de los modelos dinámicos, ha permitido trascender algunos inconvenientes descritos en relación a la viabilidad de establecer procedimientos dinámicos dirigidos a este ámbito. Estos inconvenientes hacían referencia a la cualidad "cristalizada" de dominios específicos como la lectura (lo que dificultaría valorar su modificabilidad a corto plazo) y a la relevancia del conocimiento previo del alumno en la evaluación de la comprensión, lo que dificultaba el establecimiento de control sobre la historia previa (Kozulin y Garb, 2002). En la medida en que el foco de los investigadores se ha resituado en los procesos implicados en la lectura y no tanto en los contenidos textuales y la comprensión como producto, la relevancia de plantear modelos de evaluación centrados en la respuesta del sujeto a la intervención y en el proceso mismo de aprendizaje, ha cobrado mayor interés.

Esta revisión a la que hacíamos referencia anteriormente en relación a las aportaciones anteriores realizadas desde enfoques dinámicos descontextualizados, ha supuesto también un replanteamiento de la investigación sobre la validez predictiva de los modelos dinámicos. En este sentido, algunos estudios han tratado de establecer el poder predictivo de aplicaciones dinámicas sobre la lectura en comparación con pruebas estáticas. Por ejemplo, Hamers, Penning y Guthke (1994) encontraron que los resultados obtenidos por el alumnado en lectura, correlacionaban en mayor medida con la aplicación dinámica de unas pruebas de aprendizaje con contenido específico de lectura, que con un test de inteligencia o una prueba de aprendizaje general aplicada convencionalmente. Lidz, Jepsen y Miller (1997) también hallaron mejoras significativas en cuanto al valor predictivo sobre lectura aplicando dinámicamente unos subtests específicos del Cognitive Assessment System basado en el modelo PASS (Naglieri y Das, 1987), en comparación con pruebas estáticas. Byrne, Fielding-Bamsley y Ashley (2000) analizaron longitudinalmente el rendimiento en lectura de un grupo de niños desde preescolar hasta quinto curso, hallando mediante modelos de regresión múltiple que la puntuación dinámica que reflejaba la tasa de progreso en lectura durante varias semanas, predecía el rendimiento significativamente mejor que la puntuación obtenida en el postest con una prueba estática, mostrando una validez adicional de entre el 9% y el 21% en las diferentes medidas. En general, los estudios que han analizado la validez predictiva adicional de la ED sobre el rendimiento en dominios específicos, han incluido como posibles variables predictoras, por una parte, las medidas pretest y postest provenientes de pruebas convencionales de lectura y de tests de inteligencia, y, por otra, las puntuaciones obtenidas de la aplicación de las distintas pruebas dinámicas empleadas (Caffrey et al., 2008).

Por otra parte, se ha mostrado la relevancia de que la modalidad de prueba, es decir la metodología de evaluación adoptada, y la metodología de enseñanza, guarden una estrecha conexión (Carlson y Wiedl, 2000). Esta conexión entre evaluación e intervención remite a la validez ecológica de las pruebas como una de las premisas esenciales de propuestas orientadas al contexto educativo. Esta validez podría determinarse en función de los contenidos de la prueba, pero también en función del procedimiento de evaluación utilizado. En este sentido, en la medida en que éste se asemeje a los procedimientos de enseñanza-aprendizaje trabajados en el contexto escuela, podríamos hablar de una mayor validez ecológica del proceso y, como consecuencia, de los resultados (Thurman y McGrath, 2008). Es especialmente en este segundo punto donde la ED volvería a distanciarse de los procedimientos estáticos de evaluación. De este modo, los resultados parecen ser más consistentes cuando la predicción se ha realizado sobre situaciones de aprendizaje prolongado que guardaban relación conceptual y metodológica con los contenidos y procedimientos de la ED (Jensen, 2000; Saldaña et al., 2007; Sternberg y Grigorenko, 2003). En otras palabras, la mayor validez predictiva de una prueba dinámica en el contexto escolar, estaría en función de la relación entre el contenido de ambos procesos, evaluación e intervención educativa.

El presente trabajo se propone examinar el valor predictivo de un dispositivo de evaluación dinámica de procesos implicados en la lectura (EDPL) con relación al RE y el progreso (PR) obtenidos por un grupo de estudiantes con dificultades de comprensión lectora (DL). Este valor predictivo se analiza en relación a dos aspectos: modalidad de prueba y contenidos de la evaluación. En relación a la modalidad de prueba se contrastan dos estrategias de evaluación, una aproximación dinámica y otra de carácter estático; en relación al contenido de la evaluación se contrastan también dos estrategias, una en la que el contenido de la evaluación es específico de dominio, y otra en la que este contenido tiene un carácter más descontextualizado con relación al dominio específico de aprendizaje. Con el fin de contrastar estas estrategias, y en consonancia con la investigación precedente, hemos utilizado como potenciales variables predictoras (a) las medidas pretest y postest de una prueba de comprensión lectora y de un test de inteligencia general, ambas aplicadas convencionalmente, así como (b) las puntuaciones dinámicas obtenidas a raíz de la aplicación del dispositivo EDPL. En este sentido, hemos formulado dos hipótesis específicas. La primera sostiene que las puntuaciones dinámicas obtenidas de la aplicación contextualizada del dispositivo EDPL se relacionarán significativamente con el RE y el PR en lectura, siendo mayor esta relación que la presentada por las pruebas estáticas de comprensión e inteligencia (Hipótesis 1). En segundo lugar, esperamos que las puntuaciones dinámicas constituyan un factor explicativo adicional del RE y el PR en lectura con relación a la predicción realizada con base en las pruebas estáticas de inteligencia y comprensión (Hipótesis 2). Por último, a modo de hipótesis, esta validez incremental de las puntuaciones dinámicas podría explicarse en función de la estrategia evaluativa adoptada. Esta estrategia integra la implementación dinámica y contextualizada de pautas de mediación en actividades estrechamente relacionadas con contenidos específicos de lectura. De este modo, la verificación de esta posible explicación tendría lugar en caso de obtener datos de validez incremental del dispositivo con relación a las dos pruebas estáticas utilizadas como batería de criterio.

 

Método

Participantes

La muestra está compuesta por 60 estudiantes con DL (32 de educación primaria, 20 chicos y 12 chicas, y 28 de educación secundaria, 17 chicos y 11 chicas), con un rango de edad entre 9 y 16 años (M =12.40, DT =2.44). De estos estudiantes, 25 fueron catalogados como sujetos con dificultades de aprendizaje (DA), en ausencia de discapacidad o desventaja sociocultural, 15 como sujetos con desventaja sociocultural en ausencia de discapacidad (DEP) y 20 como sujetos con discapacidad cognitiva (CI < 75) (DIS). El estudio presentado es parte de una investigación más amplia, en la que participaron 13 centros educativos de Sevilla y Cádiz (Andalucía-España), 7 de educación primaria y 6 de secundaria obligatoria. El conjunto de la muestra contemplaba un grupo experimental, al que se aplicó el dispositivo EDPL (N =60) y dos grupos control (con DL, N =73; sin DL, N =202). El nivel socio-económico del conjunto de la muestra fue catalogado como medio-bajo a raíz de la información proporcionada por cada uno de los centros.

Instrumentos

El dispositivo EDPL (Navarro y Mora, 2011) consta de 32 actividades de evaluación-intervención estructuradas en red y en función de diversos procesos implicados en la lectura, contemplados en consonancia con la investigación precedente (Compton et al., 2010; Graesser, Singer y Trabasso, 1994; Hacker, 1998; Kintsch, 1988; Kintsch y Kintsch, 2005). Estos procesos están agrupados en tres bloques: (1) Procesos Metacognitivos, incluyendo: (a) metaconocimientos relativos a la lectura, contenidos, estrategias y aspectos afectivo-emocionales; y (b) procesos de autorregulación de la comprensión; (2) Análisis e Integración de la Información, incluyendo: (c) procesos de asociación grafemafonema; (d) procesos psicológicos subyacentes (memoria, atención y aspectos perceptivo-visuales); (e) procesos de integración textual; y (f) procesos de integración texto-conocimientos previos; y, por último, (3) Procesos de Ajuste Personal-Social. Por su parte, cada actividad contempla: (a) el proceso a evaluar; (b) una descripción de la tarea a realizar; (c) la propuesta metodológica de aplicación; (d) las pautas de mediación y evaluación de procesos metacognitivos; y (e) los indicadores de evaluación. Para facilitar la recogida y valoración del proceso de mediación efectuado (Anexo 1), los aplicadores disponen de Hojas de registro y evaluación (Anexo 2) para cada actividad. En estas hojas, deben valorar la puesta en práctica de una serie de indicadores que están recogidos al final de cada actividad, a modo de criterios de evaluación. Estos indicadores fueron desarrollados para facilitar el análisis del proceso de resolución de las tareas y guardan relación con los procesos a evaluar en cada una de las actividades. De este modo, la evaluación del aprendizaje en desarrollo se realiza en el dispositivo a través de la valoración de estos indicadores que, junto con las pautas de mediación propuestas, constituyen los elementos que permiten obtener información orientada a la intervención, es decir, información sobre las dificultades experimentadas por el sujeto durante el proceso, así como sobre el tipo y grado de apoyo que éste requiere para optimizar su actividad, lo que permite establecer conexiones entre evaluación e intervención (Dörfler et al., 2009). El objetivo es obtener información contextualizada sobre el potencial de aprendizaje, estableciendo no sólo las dificultades del sujeto, sino especialmente aquellas pautas de mediación que podrían facilitar significativamente una ejecución óptima de la tarea o la obtención de información valiosa orientada a la intervención. En este sentido, el proceso de mediación propuesto en EDPL contempla este conjunto de pautas metodológicas-no estandarizadas- en forma de guía metacognitiva, sugerencias graduadas, preguntas o feedback, que se proponen de forma específica para cada una de las actividades. Los aplicadores implementan estas pautas de mediación con el objetivo de evaluar el proceso mismo de ejecución y el grado y tipo de apoyo que necesita el sujeto durante la resolución de las tareas y, asimismo, con el objetivo de observar y valorar en qué medida el sujeto incorpora algunas de las estrategias que son objeto de mediación. En este sentido, la capacidad de apropiación de estas estrategias, especialmente de aquellas relacionadas con los procesos metacognitivos, o, en otras palabras, la modificabilidad que muestre el sujeto, en el sentido de incorporar e interiorizar determinados procedimientos en su repertorio estratégico que incrementen sus posibilidades de acceso a la comprensión, constituiría, no solo un elemento revelador del funcionamiento cognitivo actual, sino también de su competencia para beneficiarse de aprendizajes futuros (Guterman, 2002).

La cuantificación de las valoraciones efectuadas por los aplicadores sobre los indicadores propuestos en EDPL para cada proceso contemplado, se realiza a través de un sistema de análisis que permite operativizar el proceso de aplicación y disponer de puntuaciones dinámicas (PD). De este modo, las PD globales obtenidas proceden de la valoración integrada de los distintos procesos contemplados en el dispositivo a raíz de la valoración de los indicadores de evaluación presentes en cada actividad. El sistema adoptado (Moreno y Saldaña, 2005) está basado en una escala gradual compuesta por cuatro apreciaciones: (1) No aparece la conducta. El indicador no se ha puesto en práctica; (2) Indicios, conducta rudimentaria; (3) Conducta claramente apreciable (aunque no sea de gran calidad); y (4) Conducta intensa o de gran calidad. Los análisis relativos a la estimación de fiabilidad interobservadores, mediante el cálculo del coeficiente de correlación intra-clase, permitieron constatar la consistencia interna de las valoraciones. Para estos cálculos seleccionamos aquellas actividades realizadas por un mayor número de sujetos y calculamos el coeficiente Alfa de Cronbach. Los análisis se efectuaron sobre un total de 15 casos, siendo el número de ítems (indicadores valorados por los aplicadores en las 9 actividades seleccionadas) de 149 y el número total de observaciones de 2235. Los resultados globales mostraron un valor Alfa de .98, con una correlación inter-ítems de .26 (F= 7.459; p <.000). Con relación al coeficiente de correlación intra-clase, los cálculos mostraron que tanto el contraste para la medición simple (.29), como el efectuado para la medición promedio del coeficiente (valor Alfa), resultaron estadísticamente muy significativos (F= 60.813; p <0.000 para 14 gl.). Por su parte, los análisis de consistencia interna para las 9 actividades seleccionadas, mostraron un valor promedio de los coeficientes Alfa de .83, siendo el valor más bajo de .70 para la actividad Lectura de palabras y el mayor de .94 para la actividad Extracción y construcción del significado. Con relación a la validez de constructo, la matriz de correlaciones entre las puntuaciones obtenidas en los distintos procesos contemplados en el dispositivo y entre estos y la PD global, refleja un valor promedio del coeficiente de correlación de Pearson para los 21 contrastes efectuados de .45, con 16 contrastes significativos (14 al nivel de probabilidad p <.01 y 2 al nivel p <.05). Asimismo, en la Tabla 1 recogemos los valores de correlación entre las puntuaciones obtenidas en las 9 actividades seleccionadas a raíz de las cuales se efectuaron los cálculos de fiabilidad. El alto número de correlaciones significativas entre las distintas actividades, así como entre los distintos procesos entre sí y con la PD global, vendría a reforzar la consistencia del dispositivo en cuanto a su contenido y a la teoría de base que lo sustenta, así como también el sistema de codificación y valoración utilizado. No obstante, debemos señalar que el efecto significativo de muchas correlaciones es sólo moderado. En este sentido, debemos tener en cuenta que en la evaluación de la lectura son considerados diversos procesos que constituyen en sí mismos elementos claramente diferenciales en la configuración de la propia actividad lectora, así como en la determinación de las dificultades específicas en este ámbito (Cuetos, Rodríguez, Ruano y Arribas, 2007). Esto explicaría los diferentes niveles de correlación que hayamos entre los procesos contemplados en EDPL, así como entre las actividades seleccionadas. En este sentido, no es extraño observar en la Tabla 1 que la lectura de pseudopalabras mantenga niveles bajos y no significativos de correlación con tareas de construcción del significado o realización de inferencias, poniendo de manifiesto que se trata de actividades netamente diferenciadas en cuanto a requerimientos cognitivos y de procesamiento de la información. Los datos revelan de este modo el hecho conocido de que un buen número de estudiantes que no plantean mayores dificultades en procesos de decodificación, muestran en cambio dificultades importantes en habilidades complejas de procesamiento semántico. En síntesis, los procesos contemplados pertenecerían a un mismo conjunto de elementos que contribuyen a su vez a valorar un determinado constructo, en este caso la comprensión, aún cuando quede patente su entidad y contribución diferencial al análisis. Por su parte, con relación a la validez de criterio, el presente trabajo ofrece diversos contrastes entre las puntuaciones dinámicas obtenidas a raíz de la aplicación de EDPL y el criterio de valoración del profesorado sobre el rendimiento y el progreso en lectura.

Por otra parte, en la investigación se utilizaron una serie de pruebas-criterio con un triple objetivo: establecer equivalencia inicial en los niveles de comprensión e inteligencia entre grupo experimental y control, examinar el valor de predicción del dispositivo (objeto del presente estudio), y evaluar su impacto en los sujetos experimentales. Se aplicaron dos pruebas de evaluación de la comprensión: ECO1, de aplicación en primaria, y ECOS, elaborada para secundaria. Ambas fueron construidas en función de los objetivos del estudio y pretenden dar respuesta a la valoración del conocimiento y uso de estrategias de lectura, así como de la comprensión global (Navarro y Mora, 2012). Las pruebas ECO1 y ECOS se componen de 10 textos con diversas estructuras y pertenecientes a ámbitos relacionados con áreas curriculares de primaria y secundaria respectivamente, seguidos de una serie de preguntas (43 para ECO1 y 56 para ECOS) con opción múltiple de respuesta. Algunos indicadores relativos a la validez y fiabilidad de estas pruebas se muestran en la Tabla 2. En cuanto a la evaluación de la inteligencia, ésta se realizó con el test de factor "G" de Cattell-2 Forma-A (Cattell y Cattell, 1974/2001). Con relación a la equivalencia inicial, los análisis mostraron que los grupos no presentaban diferencias significativas de partida. En relación a la inteligencia, los valores promedio del grupo experimental (GE) (82.57, DT = 14.00) y del grupo control (GC) (80.91, DT = 18.05), asumiendo la igualdad de varianzas (prueba "Levene", p > .05), fueron equivalentes (t(2, 103) = .53, p < .60). La comprensión también mostró equivalencia, tanto en primaria, Media GE = 84.18, DT = 8.75 y Media GC = 86.16, DT = 8.9 (t(2, 66) = -.93, p < . 36), asumiendo varianzas iguales (prueba "Levene", p > .05); como en secundaria, Media GE = 88.25, DT = 10.24 y Media GC = 91.17, DT = 8.02 (t(2, 63) = -1.29, p < .20), asumiendo también varianzas iguales (prueba "Levene", p > .05). Por su parte, con relación a la evaluación de impacto del dispositivo en los sujetos experimentales (Navarro y Mora, 2012), la valoración del incremento experimentado por el GE a raíz de su participación en las sesiones de aplicación, fue evaluada mediante la aplicación pretest/postest de las pruebas-criterio de inteligencia y comprensión a las que se hace anteriormente mención.

Diseño y procedimiento

La investigación marco de este estudio utilizó un diseño pretest-postest con grupo control no equivalente. Su principal objetivo consistía, en síntesis, en analizar la aplicación experimental del dispositivo EDPL en el contexto escolar. Más concretamente, se pretendía valorar su grado de eficacia con relación a la información que era posible obtener con su aplicación; examinar su validez predictiva con relación al rendimiento y el progreso en lectura; configurar patrones metodológicos de mediación que se hubieran revelado claves en la optimización del proceso de enseñanza-aprendizaje vinculado a la aplicación contextualizada de actividades específicas de lectura; y valorar su capacidad para inducir cambios en el proceso de aprendizaje de estudiantes con especiales dificultades lectoras. Asimismo, esta investigación marco contemplaba un proceso de evaluación continua, en el que es posible obtener datos periódicos que permiten valorar el proceso de aprendizaje. En este sentido, un aspecto de especial interés para nosotros consistía en analizar la evolución de las puntuaciones dinámicas durante la aplicación del dispositivo. Este análisis podría ser reflejo del proceso de aprendizaje, y las dificultades experimentadas, en relación a las habilidades trabajadas, así como del proceso de mediación desarrollado por los aplicadores.

En función del objetivo del presente estudio, nuestro análisis se centrará en el grupo de tratamiento. Debemos señalar que aunque el dispositivo fue configurado para facilitar en la práctica una aplicación flexible en función de los procesos y actividades en los que se observan dificultades, los objetivos de su aplicación experimental aconsejaron que ésta se realizara sobre el conjunto y siguiendo una secuencia de actividades ya pre-determinada, que iba desde aquellas más relacionadas con procesos de asociación grafemafonema hasta aquellas relativas al contexto y a procesos de integración texto-conocimientos previos. De este modo, la aplicación del dispositivo EDPL fue realizada durante 16 semanas por 12 profesores/orientadores (aplicadores) que participaron voluntariamente y recibieron formación relativa a las bases teórico/metodológicas de la propuesta. Se trataba de profesionales implicados en proyectos de innovación, con formación y experiencia de al menos 5 años en orientación educativa y/o educación especial. La aplicación se realizó en pequeños grupos y tuvo lugar en el contexto educativo habitual de los estudiantes. Cada uno de los 11 grupos de aplicación invirtió una media de 2 sesiones semanales de 45-50 minutos. Por su parte, 48 profesores-tutores colaboraron en la cumplimentación de las escalas de valoración sobre el RE y el PR. La selección inicial de la muestra se realizó con base en la información proporcionada por el profesorado especialista y los equipos o departamentos de orientación; por su parte, la asignación a los distintos subgrupos se realizó con base en esta información anteriormente proporcionada, así como en la puntuación CI obtenida en la fase pretest. Como apuntábamos anteriormente, para la recogida y valoración del proceso de mediación efectuado, los aplicadores dispusieron de las hojas de registro y evaluación para cada una de las actividades. En estas hojas, los aplicadores valoraron la puesta en práctica de los indicadores recogidos al final de cada actividad, y posteriormente, con objeto de obtener las PD, se procedió a la cuantificación de estas valoraciones mediante el sistema de análisis descrito en el apartado de Instrumentos. Asimismo, los aplicadores implementaron las pautas de mediación propuestas con el objetivo de evaluar el proceso de resolución de las tareas, y el grado y tipo de apoyo que necesitaron los sujetos durante el desarrollo de las mismas; los aplicadores observaron y valoraron también en qué medida los estudiantes incorporaban a su ejecución algunas de las estrategias objeto de mediación.

Por otra parte, en nuestro análisis del valor predictivo, utilizamos dos criterios externos: (a) la valoración del profesorado acerca del RE y del PR observado durante el periodo de aplicación (Caffrey et al., 2008; Resing, 2000), y (b) las calificaciones en Lengua (CA). La valoración del profesorado como medida del rendimiento y el progreso otorga potencialmente una mayor validez ecológica al estudio, permitiendo además introducir elementos valorativos de carácter procesual que difícilmente pueden valorarse con medidas estáticas de rendimiento. Asimismo, la valoración del profesorado ha demostrado ser un excelente predictor del rendimiento académico (Clemente, Albiñana y Doménech, 1999).

Confeccionamos una plantilla-registro en la que el profesorado, finalizada la aplicación, debía valorar mediante una escala cualitativa 7 criterios de evaluación formulados con base en los procesos contemplados en nuestra investigación, así como en los criterios propuestos por la Administración para el área de Lengua (Tabla 3). La valoración fue realizada por los tutores y también por los profesores/orientadores que implementaron el dispositivo. La gradación cualitativa fue: (1) Nivel bajo-muy bajo; (2) Nivel medio-bajo; (3) Nivel medio-alto; y (4) Nivel alto-muy alto. Asimismo, el profesor debía valorar el progreso observado marcando en la plantilla "P" o "NP" junto a cada criterio contemplado. De igual forma, al finalizar la fase experimental, solicitamos las CA finales. Es importante destacar aquí que las principales conclusiones derivadas de este estudio provienen de las valoraciones efectuadas por los tutores del alumnado participante, sin que estos participaran en la aplicación del dispositivo ni conocieran la distribución de los sujetos en relación a su participación del grupo experimental o control.

Análisis de datos

Hemos efectuado análisis de correlación de Pearson y diversos análisis de regresión con el fin de precisar la información sobre el valor predictivo. En este sentido, con el objetivo de determinar la efectividad de las diferentes medidas contempladas, hemos realizado análisis de regresión por pasos para los diversos valores de RE, PR y CA mediante la introducción simultánea en la ecuación de las medidas pretest y postest de las pruebas-criterio (Cattell y ECO1/ECOS), las puntuaciones de mejora (PM), obtenidas de la diferencia postest-pretest, y las PD. En estos análisis, las variables que salvan el criterio de entrada (p < .05) aparecen ordenadas en la ecuación en función del porcentaje de varianza explicada. Asimismo, con objeto de analizar el valor predictivo adicional del dispositivo EDPL se realizaron análisis jerárquicos de regresión múltiple utilizando el método Introducir del programa SPSS/PC-19. En este caso, se introducía para cada contraste en un primer bloque cada una de las medidas-criterio (puntuación postest) de inteligencia o comprensión, y posteriormente las PD como valor predictivo adicional. Este procedimiento permite obtener un valor incremental de predicción de la variable incluida en segundo lugar (PD), una vez controlado el efecto de la primera. La utilización en estos análisis de las medidas postest obedece a que se trata de la medición más próxima a la valoración del RE y del PR efectuada por el profesorado y, por tanto, de la opción más conservadora con relación a nuestra hipótesis. Estos análisis se han realizado para el conjunto de la muestra, así como para los distintos subgrupos contemplados. Por otra parte, todas las puntuaciones manejadas en la investigación fueron transformadas inicialmente a través de la aplicación de una escala derivada (M =100, DT =16) (Botella, León, San Martín y Barriopedro, 2001).

Hemos adoptado en nuestros análisis una diferenciación cualitativa propuesta originalmente por Budoff (1987), efectuando contrastes para aquellos sujetos que obtuvieron mejoras postest partiendo de bajas puntuaciones (< 84) en las pruebas-criterio de comprensión (mejoradores), así como para aquellos que partiendo igualmente de bajas puntuaciones, no consiguieron ganancias (no-mejoradores). En cuanto a las medidas dinámicas contempladas en nuestro estudio, éstas han sido: (1) la puntuación global obtenida en EDPL (PD); y (2) las PM. Estas medidas dinámicas, especialmente las PD, deberían aportar un significado adicional a la predicción del RE y el PR de los sujetos con relación a la información obtenida de las pruebas-criterio.

 

Resultados

En la Tabla 4 exponemos datos descriptivos relativos a las valoraciones efectuadas. Posteriormente nos adentramos en el análisis del valor predictivo con relación a la comprensión lectora (primaria y secundaria) y la inteligencia, presentando en primer lugar las correlaciones entre los valores y puntuaciones obtenidos en las diversas medidas observadas y exponiendo a continuación los resultados de los análisis de regresión efectuados. Los tamaños de las muestras en los diversos contrastes presentados están en función de los recogidos en la Tabla 4.

 

Valor predictivo con relación a la comprensión en primaria

En la Tabla 5 aparecen las correlaciones entre los valores y puntuaciones obtenidos en primaria en relación a la comprensión lectora.

En consonancia con los coeficientes de correlación obtenidos, el análisis de regresión por pasos sobre el rendimiento valorado por el tutor (RE-T), revela que sólo la PD salva el criterio de entrada en la ecuación, prediciendo este valor significativamente (R2 =.38; F = 18.32, p < .000). Con relación a la valoración que los tutores hicieron del progreso (PR-T), los análisis muestran la inclusión de dos variables: en primer lugar la PD, R2 =.19 (F = 6.46, p < .017) y posteriormente el pretest, incrementando R2 en .15; la conjunción de ambas explica el 33.8% del progreso valorado (F = 6.87, p < .004). En cuanto al rendimiento valorado por el profesorado de apoyo (RE-A), la PM predice un 27.2% de la varianza (F = 7.09, p < .015), la PD un 19.6% (F = 4.88, p < .039) y el postest un 15.4% (F = 3.45, p < .079); el análisis de regresión por pasos muestra que sólo la PM salva el criterio de entrada. La valoración sobre el progreso efectuada por el profesorado de apoyo (PR-A) fue también sometida a este análisis, apareciendo sólo la PD en la ecuación (R2 =.22; F = 5.21, p < .034). Por su parte, la PM es explicada por el postest en un 35,6% (F = 15.51; p < .000); los análisis de regresión muestran que el postest y la PD explican conjuntamente el 48.2% de la varianza, incrementando R2 en .13 al introducir la PD. Las CA son explicadas en un 20.1% por el pretest (F =4.28, p <.054), aunque ninguna variable es introducida en la ecuación al efectuar la regresión por pasos. En síntesis, los resultados para el grupo de primaria confirman nuestra primera hipótesis, por cuanto las PD obtienen niveles de correlación significativos con el RE y el PR, mostrándose estos valores superiores a los obtenidos por la prueba estándar de comprensión.

Análisis de regresión para los subgrupos de mejoradores y no-mejoradores

Para el subgrupo de mejoradores (n = 8), la PD obtiene el valor explicativo más alto (R2 =.31; F = 2.65, p < .16) con relación al RE-T, aunque ninguna variable sobrepasa el criterio de entrada en la regresión por pasos, lo que ocurrió también en el resto de valoraciones del profesorado. Con relación al postest, los análisis muestran que sólo la PM explica individualmente la varianza en este subgrupo, con un 74.2% (F = 17.29, p < .006). Por su parte, la correlación entre la PD y el postest es positiva (r = .31; p < .45), con un valor R2 = .10. Con relación al subgrupo de no-mejoradores, presentamos los cálculos efectuados para el grupo de sujetos que no obtuvo ganancias postest independientemente de su puntuación inicial (n = 16), ya que sólo 3 sujetos no obtuvieron ganancias partiendo de bajas puntuaciones. Los resultados del análisis de regresión por pasos muestra que la PD predice en un 61.7% el RE-T, siendo la única variable introducida en la ecuación (F = 22.59, p < .000). De igual forma, para el RE-A (n = 10), la PD es la única variable incluida en la ecuación, explicando el 44% de la varianza (F = 6.40, p < .035).

Valor predictivo con relación a la comprensión en secundaria

La Tabla 6 muestra las correlaciones entre los valores y puntuaciones obtenidos en secundaria en relación a la comprensión lectora.

Los resultados confirman también para este grupo nuestra primera hipótesis. Los análisis para esta etapa con relación al RE-T mediante la introducción conjunta de las variables en la ecuación, muestran un modelo compuesto que explica el 32.8% de la varianza (p < .043). En cambio, la regresión por pasos revela que sólo la PD salva el criterio de entrada (R2 =.18; F =4.88, p < .038 para 23 gl.). Así mismo, con relación al PR-T, sólo la PD entra en la ecuación (R2 =.26; F =7.75,p < .011). Resultado similar muestra la regresión por pasos con relación al RE-A y el PR-A; los valores predictivos para la PD son, con respecto al RE-A, R2 = .29 (F =6.14, p < .026), y con respecto al PR-A, R2 =.49 (F =14.25, p < .002). En este último caso, el pretest, que correlaciona negativamente con el PR-A, entra en la ecuación incrementando R2 en .16; de este modo, el modelo explica conjuntamente el 64.4% del PR-A (F =12.69, p < .001). Con relación a la PM, los resultados muestran que la PD no es incluida en la ecuación, permaneciendo sólo el postest como factor explicativo (R2 =.357; F =12.77, p < .002). El análisis de regresión por pasos efectuado con relación a las CA no muestra ninguna variable significativa.

Análisis de regresión para los subgrupos de mejoradores y no-mejoradores

En el subgrupo de mejoradores (n =11) la regresión por pasos para el RE-T no muestra ninguna variable en la ecuación. La PM aparece como el factor que mejor predice este valor, obteniendo una correlación de r =.52 (p < .052). La PD obtiene una correlación positiva pero no significativa con el RE-T (r =.40; p < .23), al igual que el postest (r =.34; p < .31). Por su parte, el pretest correlaciona negativamente (r = -.08) con el RE-T. Con relación al PR-T, los análisis muestran que sólo la PD salva el criterio de entrada (R2 =.62; F =14.45, p < .004). El resto de variables quedan excluidas del modelo, con valores de correlación negativos (r = -.16 para el pretest) o moderados (r =.20 para el postest y r =.38 para la PM). Por su parte, los análisis con relación al RE-A (n =10) no muestran la inclusión de ninguna variable en la ecuación. La correlación más alta es la obtenida por la PM (r =.49; p < .076), seguida por la PD (r =.36; p < .16). Con relación al PR-A, la regresión por pasos muestra a la PD como única variable (R2 =.62; F =13.02, p < .007). En cuanto a las CA, el análisis de regresión no revela ninguna variable en la ecuación. Por su parte, el subgrupo de no-mejoradores estuvo compuesto por una reducida muestra (n =2) que no permitió extraer conclusiones relevantes sobre las valoraciones efectuadas.

Valor predictivo con relación a la inteligencia

En la Tabla 7 recogemos las correlaciones entre valores obtenidos y puntuaciones CI.

La regresión por pasos con relación al RE-T muestra que sólo la PD salva el criterio de entrada en la ecuación, con un valor R2 =.32 (F = 25.93, p < .000). Idéntico resultado obtenemos del análisis efectuado para la valoración del PR-T; la PD aparece como la única variable en la ecuación, explicando el 24.1% de la varianza (F =17.55, p < .01). Para la valoración del RE-A, también es la PD la que mejor predice el resultado, con un 24.6% de la varianza (F =11.76, p < .01). Por su parte, el análisis efectuado para la valoración del PR-A, muestra a la PM como la mejor predictora, con un valor R2 =.16 (F =6.73, p < .014). Para las CA, ninguna variable salva el criterio de entrada estipulado. Con relación a la PM, los resultados muestran que la PD no es incluida en la ecuación de regresión, que revela al postest como principal factor explicativo (R2 =.22; F =15.50, p < .000). En definitiva, estos resultados confirman igualmente nuestras expectativas en relación a la primera hipótesis formulada, esta vez en relación a la prueba-criterio de inteligencia.

Validez incremental del dispositivo

El análisis de la validez incremental del dispositivo EDPL, es decir, en qué medida su aplicación ofrece información adicional a la que puede obtenerse con las pruebas-criterio estandarizadas, constituye, en línea con investigaciones precedentes, uno de nuestros objetivos fundamentales (Caffrey et al., 2008). Con esta finalidad se realizaron análisis jerárquicos de regresión múltiple. En primer lugar, como podemos ver en las Tablas 8 y 9, se introdujeron en un primer bloque las distintas medidas-criterio correspondientes a la puntuación postest de inteligencia o comprensión (Modelo1) y, posteriormente, se incluyeron en el análisis las PD como valor predictivo adicional (Modelo 2). En la medida que las PD predijeran significativamente los valores de la variable dependiente (RE, PR o CA), controladas las puntuaciones de las pruebas-criterio, podríamos asumir que ofrecen información adicional. Con relación a estos análisis, hemos realizado diversos contrastes relativos a los supuestos de independencia, normalidad y homocedasticidad. En este sentido, debemos reseñar que los datos no muestran multicolinealidad entre las variables predictoras. El promedio de los valores estadísticos de "Tolerancia" para los 9 contrastes efectuados (3 para cada una de las pruebas, en función de las distintas N observadas) se sitúa en .97, sin ningún valor por debajo de .93. La proximidad de estos valores al valor máximo (rango 0-1) indica la independencia de las aportaciones de las variables predictoras sobre los valores de rendimiento y progreso. Con relación a los contrastes efectuados para los diversos subgrupos, los datos tampoco muestran problemas de multicolinealidad. El promedio de los valores de "Tolerancia" para los 24 contrastes efectuados (9 para cada una de las pruebas, en función de las distintas condiciones y N observadas) se sitúa en .87, con veinte valores por encima de .80. Por su parte, los contrastes para determinar la normalidad de las distribuciones muestrales revelan el incumplimiento de este supuesto en algunas de las submuestras, lo que a su vez ha ocasionado el uso de procedimientos alternativos en los análisis posteriormente realizados. En este sentido, hemos procedido a la transformación logarítmica (LOG) y raíz cuadrada (SQRT) de las puntuaciones correspondientes a estas submuestras, con el objetivo de normalizar las distribuciones y homogeneizar las varianzas. Hemos contrastado asimismo la igualdad de las varianzas residuales, obteniendo en la mayoría de los casos un resultado acorde con la hipótesis de homocedasticidad. No obstante, en algunos casos no se cumple este supuesto, a pesar de haber realizado las transformaciones mencionadas. Así, y en virtud de la mayor cautela con la que es preciso interpretar los resultados obtenidos en estos casos, es preciso señalar que aunque el análisis de regresión del PR-A sobre las puntuaciones en ECOS y EDPL para el subgrupo con DA, revela un incremento significativo en la proporción de varianza explicada por el modelo que incluye las PD, no hay homocedasticidad entre las puntuaciones de ECOS y de PR-A. Por otra parte, cuando la transformación ha supuesto la obtención de distribuciones normales o la homogeneidad de varianzas, hacemos referencia a este aspecto a pie de tabla. También debemos señalar que en algunos casos no ha sido posible obtener el estadístico de contraste de homogeneidad debido a la ausencia de subgrupos en las puntuaciones. Por último, hemos constatado que el promedio de los valores residuales absolutos y tipificados es de 0 (DT ≈ 1) en todos los contrastes efectuados. También en todos los casos, la gráfica de dispersión de los valores residuales tipificados muestra una distribución normal.

Una vez considerados los aspectos anteriores, los resultados confirman nuestra segunda hipótesis, mostrando un incremento significativo en la explicación del RE y el PR valorado por tutores y profesorado especialista cuando se introducen en la ecuación las PD (Tabla 8). Este valor de predicción adicional significativo se produce -para la muestra completa- con relación al CI para el RE-T, el PR-T y el REA (p < .01), y con relación a las medidas de comprensión lectora, para el RE-T, el RE-A y el PR-A en primaria, y para todos los valores de RE y PR en secundaria (p < .05 y p < .01).

Hemos efectuado también análisis de regresión múltiple en función de los distintos subgrupos contemplados, lo que nos permite valorar la validez diferencial del dispositivo en función del nivel de logro obtenido y de distintas características presentes en la muestra (Beckmann, 2006). En este sentido, los resultados muestran para los mejoradores que las PD, una vez controlado el postest de ECO1, explican adicionalmente el 31% de la varianza del RE-T y el 30% del PR-T, aunque los modelos resultantes no son significativos. Sí resultan significativos los modelos obtenidos para los no mejoradores; en este caso, las PD explican adicionalmente el 62% de la varianza del RE-T (t (2,15) = 4.71, p < .00) y el 47% del PR-T (t(2,15) = 3.37, p < .00). Asimismo, para los mejoradores en secundaria, las PD explican adicionalmente el 59% de la varianza en el PR-T (t(2,10) = 3.56, p < .007) y el 60% en el PR-A (t(2,9) = 3.36, p < .012). Por otra parte, en la Tabla 9 mostramos los análisis realizados para los subgrupos de estudiantes con dificultades de aprendizaje, deprivación sociocultural y discapacidad. La reciente revisión de Caffrey et al. (2008) hace referencia al distinto valor predictivo de las pruebas dinámicas en función del subgrupo poblacional evaluado. En este sentido, diversos estudios han mostrado valores de predicción diferencial entre los subgrupos aquí contemplados. En la presentación de estos datos, eliminamos la columna correspondiente a las calificaciones, ya que no aporta resultados significativos. Posteriormente, en la discusión, se abordan algunas de las dificultades encontradas en relación al uso de este criterio externo de rendimiento. En cualquier caso, los resultados más relevantes con relación a las calificaciones se incluyen en el texto.

Centrándonos sólo en las valoraciones efectuadas por los tutores, los datos muestran para el RE-T una validez incremental significativa de las PD sobre el CI en relación a los distintos subgrupos contemplados. El valor adicional se sitúa entre el 20% para los estudiantes con DA y el 39% para los estudiantes con DIS p < .05 y p < .01). Asimismo, para el PR-T, las PD ofrecen validez adicional para el alumnado con DA y con DIS (p < .05). Con relación a la comprensión en primaria, el dispositivo explica adicionalmente el 47% de la varianza en el RE-T para los sujetos con DEP y el 67% para los sujetos con DIS (p < .01); para este último subgrupo explica también el 36% del PR-T, con un nivel de significatividad marginal (p < .06). Por último, en cuanto a la comprensión en secundaria, las PD también explican adicionalmente porcentajes importantes de la varianza en el RE-T y el PR-T para los distintos subgrupos, aunque sin alcanzar la significatividad estadística. En cambio, sí lo hacen de forma significativa en un 38% de la varianza en las calificaciones para el subgrupo DA (p <.01). En síntesis, los análisis efectuados en función de los distintos subgrupos, confirman en parte nuestra segunda hipótesis, destacando especialmente el valor incremental de las PD con relación a las puntuaciones CI y las puntuaciones en comprensión obtenidas en primaria.

Finalmente, planteábamos a modo de hipótesis que la validez incremental de EDPL sobre el RE y el PR en relación a las puntuaciones estáticas, podría explicarse con base en la estrategia dinámica adoptada, caracterizada por la implementación contextualizada de pautas de mediación en actividades específicas de lectura. La aplicación de estas pautas otorgaría información sobre las dificultades experimentadas durante el proceso, información orientada a la intervención específica en estas dificultades, al tiempo que podría facilitar la apropiación de estrategias que optimizaran el rendimiento de los sujetos. Los resultados obtenidos apoyarían esta idea. En este sentido, hemos obtenido datos de validez incremental con relación a las dos pruebas-criterio utilizadas. Entendemos de este modo que la puesta en práctica de las pautas de mediación, así como la especificidad de contenido de las tareas, se habrían constituido en factores significativos de predicción diferencial en comparación con una modalidad estándar de evaluación y basada en contenidos descontextualizados.

 

Discusión y conclusiones

El objetivo del presente artículo era examinar la validez predictiva e incremental del dispositivo de evaluación dinámica EDPL con relación al RE y el PR de un grupo de estudiantes con dificultades de comprensión lectora, comprobando en qué medida las puntuaciones dinámicas obtenidas de la aplicación contextualizada del dispositivo, podrían aportar validez incremental en relación a pruebas estándar de evaluación de la comprensión y del CI. En primer lugar, hemos podido verificar que las PD mantienen una relación significativa con el RE y el PR en lectura, y que el nivel de correlación entre las PD y estas variables es superior al que presentan las puntuaciones estáticas obtenidas en las pruebas de comprensión y en el test de inteligencia (Hipótesis 1). En este sentido, hemos mostrado con relación al análisis del valor predictivo en comprensión, la insuficiencia del pretest para explicar el RE y el PR, así como la dirección de las diferencias observadas entre las fases inicial y final de las pruebas-criterio (PM) o la actuación de los sujetos en EDPL. Por el contrario, las PD predicen la mayoría de valores analizados, contribuyendo significativamente a explicar el RE y el PR. Los análisis revelan igualmente que las PD logran explicar mejor que las medidas pretest y postest la valoración del RE para los mejoradores y no-mejoradores.

Por otra parte, nuestra segunda hipótesis aventuraba que las PD constituirían un factor explicativo adicional del RE y el PR en lectura con relación a las pruebas estándar de inteligencia y comprensión. En este sentido, los resultados muestran con nitidez que los valores predictivos de EDPL sobre el RE y el PR fueron notablemente superiores a los obtenidos por las pruebas estándar utilizadas, y han supuesto un valor incremental significativo con relación a estas pruebas-criterio (Hipótesis 2). Por su parte, los análisis de validez diferencial en relación a los distintos subgrupos, se han mostrado consistentes con los datos aportados por Caffrey et al. (2008) en su revisión; las PD explican adicionalmente el RE y el PR de estudiantes con discapacidad con mayor potencia que para el resto de subgrupos, aunque en nuestro caso, también para los sujetos con DA y DEP se obtienen resultados positivos. Esta validez incremental, tanto en el caso de la muestra completa como en el de los subgrupos, representaría cuantitativamente el potencial de aprendizaje, es decir, la habilidad para aprender y beneficiarse de la mediación ofrecida, aspectos no evaluados en las pruebas convencionales utilizadas (Beckmann, 2006). Así mismo, en línea con lo expresado en la introducción de este artículo en relación a establecer aquellos mecanismos de acción que pudieran optimizar el proceso de aprendizaje, la información obtenida a través de la aplicación del dispositivo EDPL es cualitativamente distinta a la que podemos obtener con la aplicación de una prueba estándar de comprensión. Esta información "adicional" a la otorgada por las pruebas estáticas, versaría fundamentalmente sobre las dificultades que manifiesta el sujeto durante el proceso de resolución de las tareas, así como sobre aquellas pautas de mediación que se habrían revelado eficaces en el proceso de aplicación. En este sentido, estudios posteriores deben desarrollar con mayor precisión el análisis de esta información cualitativa adicional, especialmente con el objetivo de identificar aquellas pautas de mediación que se relacionan específicamente con una respuesta óptima del sujeto a la intervención en función de los procesos trabajados. De este modo, sería posible inferir procedimientos de intervención basados en los contenidos y procesos desarrollados durante la aplicación del dispositivo, así como en las necesidades específicas que plantean los sujetos. En esta línea, también requiere de mayor desarrollo el análisis de la evolución de las PD durante el proceso de aplicación. Nuestros primeros análisis de conjunto sobre este aspecto nos permiten constatar la relevancia que habría tenido la implementación secuenciada de las actividades en la evolución de las valoraciones otorgadas, observándose una tendencia general decreciente en las puntuaciones obtenidas por los estudiantes. Esta tendencia podría explicarse en parte por la progresiva dificultad que para los sujetos habrían representado las tareas a ejecutar. A medida que avanzaba la aplicación del dispositivo, se iban introduciendo tareas más complejas que exigían a su vez la puesta en práctica de habilidades de progresiva dificultad, con requerimientos de integración del contenido del texto con conocimientos y experiencias previas, realización de inferencias, distinción de la información relevante, etc. De este modo, un número de sujetos creciente habría encontrado mayores dificultades a medida que avanzaba la aplicación, obteniendo bajas puntuaciones en algunos procesos aún en el caso de haber experimentado mejoras relativas en su rendimiento a juicio de los aplicadores.

El artículo presentado se ha dirigido a examinar el valor predictivo e incremental del dispositivo EDPL sobre el RE y el PR en relación a dos aspectos: modalidad de prueba (dinámica vs. estática) y contenidos (especificidad/ contextualización vs. descontextualización). A tenor de los resultados obtenidos, la consideración conjunta de ambos aspectos parece tener una relevancia notable en la configuración de dispositivos de evaluación de la lectura en el contexto escolar. En este sentido, el presente trabajo se ha hecho eco de propuestas alternativas de ED que incluyen esencialmente actividades contextualizadas estrechamente relacionadas con contenidos escolares (Cioffi y Carney, 1983; Delclos et al., 1992; Elliott, 2003; Haywood y Lidz, 2007; Jensen, 2000; Lidz, 2000; Ruijssenaars et al., 1993). Estas propuestas entienden que el objetivo básico de la ED es la mejora de los estudiantes y la optimización del proceso educativo. La predicción del rendimiento cobra sentido en la medida en que contribuya a validar un procedimiento ecológico de evaluación y, con esto, la información que de él puede desprenderse. La relevancia de establecer el valor predictivo de una prueba dinámica se basaría de esta forma en obtener datos que permitan inferir los mecanismos de acción de la prueba y realizar propuestas que optimicen el proceso de aprendizaje (Calero, 2004). Uno de estos mecanismos tiene que ver precisamente con la elaboración de pruebas específicas dirigidas a ámbitos particulares del aprendizaje, es decir, con la especificidad de contenidos y la contextualización del proceso (Dörfler et al., 2009; Hamers et al., 1994; Kozulin y Garb, 2002). La inclusión de actividades propias del contexto escolar, podría facilitar una mayor conexión entre los resultados de la ED y los del aprendizaje (Ruijssenaars et al., 1993). En este sentido, nuestra propuesta contiene actividades para diversos ámbitos específicos de la lectura, entre ellos la conciencia fonológica, la lectura de pseudopalabras, la estructuración sintáctica o el establecimiento de relaciones texto-conocimientos previos (Navarro y Mora, 2011). De este modo, la consideración de estas actividades específicas en procedimientos de ED orientados al contexto escolar, junto con la implementación de aquellas pautas de mediación que permitan guiar y optimizar el proceso, estableciendo conexiones entre evaluación e intervención, se tornaría especialmente relevante para la obtención de valores predictivos más consistentes y ecológicamente válidos (Thurman y McGrath, 2008). En sintonía con esto, los resultados obtenidos en relación a la validez incremental de las PD, tanto para la muestra completa como para los distintos subgrupos, apoyarían la posible explicación que hemos manejado a modo de hipótesis, por cuanto la adopción de una estrategia de ED caracterizada por la implementación de pautas de mediación en tareas contextualizadas y específicas de lectura, habría estado en la base de los valores de predicción adicional obtenidos, contribuyendo a establecer una conexión significativa, y adicional a la obtenida con las pruebas estáticas, entre la valoración contextualizada del profesorado sobre el RE y el PR, y las valoraciones dinámicas efectuadas durante la aplicación del dispositivo.

Por otra parte, con relación a las medidas del rendimiento, la investigación sobre la validez predictiva de las pruebas dinámicas ha descrito ciertas dificultades para establecer relaciones entre medidas dinámicas del potencial de aprendizaje y medidas del rendimiento académico, habitualmente de carácter más estático (Beckmann, 2006; Calero, 2004; Sternberg y Grigorenko, 2003). En este sentido, nuestros resultados han puesto de manifiesto estas limitaciones por cuanto las PD no mantienen niveles altos de correlación con las medidas postest de las pruebas de comprensión (que podrían ser consideradas medidas del rendimiento en contenidos del área de Lengua). Aunque la correlación de las PD evoluciona positivamente desde el pretest al postest, no podemos olvidar que se trata de medidas estándar de rendimiento que guardan poca relación con la valoración del proceso de aprendizaje efectuado durante la aplicación de EDPL. Por otra parte, con relación a las calificaciones, más allá de la subjetividad que puede poner en cuestión de forma general la validez de este criterio, la constatación acerca de la diversidad de criterios adoptados en los Centros para la valoración del alumnado con dificultades de aprendizaje o discapacidad, habría originado cierta inconsistencia en las correlaciones entre las distintas valoraciones efectuadas. Esto se pone de manifiesto en la divergencia mostrada entre la propia valoración del tutor sobre el RE y las CA (sobre todo en primaria). Si a esto unimos los datos sobre la relación entre las CA y los demás valores observados (especial mención merece la correlación negativa y significativa con la PM), hemos de concluir que el criterio de rendimiento basado en las calificaciones no parece cumplir en esta etapa la función para la que había sido incluido en el diseño de investigación. Sin embargo, como hemos tenido oportunidad de comprobar, las medidas de RE y PR obtenidas de la valoración del profesorado han mostrado niveles de correlación muy significativos con las PD, siendo estas puntuaciones las que a su vez mejor predecían estos valores de RE y PR. En este sentido, como apuntábamos al describir el procedimiento seguido, es posible que en estas valoraciones del rendimiento hayan actuado mecanismos distintos que podrían haber influido positivamente en la obtención de niveles significativos y adicionales de predicción. De este modo, el hecho de que facilitáramos al profesorado unos ítems de valoración cualitativa, así como los procesos que debían ser valorados, puede haber contribuido a que las valoraciones efectuadas hayan tenido un carácter más contextualizado y procesual, y menos estático, lo que podría explicar los resultados positivos y significativos de los análisis.

En cuanto a las limitaciones del estudio, junto a las relacionadas con las medidas utilizadas como criterios externos de validez (especialmente en relación al uso de las calificaciones), debemos destacar también las limitaciones propias derivadas de las características de la población de estudio. Entre éstas destacan el reducido número de estudiantes que componen la muestra, así como los diversos subgrupos contemplados, aspecto éste último que si bien puede contribuir a configurar empíricamente la población sobre la que el dispositivo puede ofrecer información más ajustada, podría repercutir en la potencia de las conclusiones obtenidas, así como en su generalización. Otro aspecto a tener en cuenta es la consideración de diferentes momentos evolutivos en relación a la competencia lectora. En este sentido, con relación a la implementación del dispositivo, debemos señalar inicialmente que los profesores/orientadores participantes en el estudio desarrollan su trabajo habitualmente con grupos de apoyo formados por estudiantes con distintos grados de competencia, debiendo adaptar continuamente contenidos y métodos de trabajo. La estructura, y en ocasiones la composición, de estos grupos de apoyo fue la base de los grupos de aplicación de EDPL. Asimismo, la adaptación continua en función de éste y otros aspectos relativos a diferencias individuales, era considerado consustancial a la implementación del dispositivo, siendo objeto por tanto de análisis y discusión, tanto en las sesiones iniciales de formación como en las de seguimiento. Por otra parte, con relación al nivel socio-económico de la muestra, cabe destacar que en función de los diferentes contextos de referencia y de la amplitud de la muestra poblacional que integra la descripción efectuada por los Centros, esta catalogación no justificaría un análisis restringido de los resultados a efectos de su toma en consideración. La distinción en los resultados en función del nivel socio-cultural vendría dada específicamente por los análisis diferenciados que se realizan para el subgrupo DEP.

Finalmente, si bien destacábamos más arriba que la aplicación del dispositivo puede ofrecer una información cualitativa adicional a la que es posible obtener con las pruebas estáticas, es preciso tener en cuenta las necesidades de formación específica que esto conlleva. En la práctica, no podemos obviar que resulta complejo tratar de valorar un proceso de aprendizaje, debiendo manejar: (a) contenidos específicos relativos a las tareas y a las dificultades de aprendizaje de los sujetos, (b) pautas de mediación relativas tanto a aspectos específicos como de autorregulación o ajuste personal-social y (c) indicadores que permiten valorar los logros del sujeto en cada sesión. No obstante, el estudio permitió comprobar que tras las sesiones de formación inicial y, con mayor pericia, una vez que avanzábamos en posteriores sesiones de seguimiento, los aplicadores lograban implementar de forma efectiva las pautas de mediación propuestas, trasladando sus valoraciones posteriormente a las hojas de registro. En su valoración cualitativa de las fortalezas y debilidades del dispositivo, más allá de las dificultades metodológicas mencionadas anteriormente, los aplicadores destacaron las ventajas de contar con indicadores y pautas de mediación que facilitaban la observación de las dificultades y la valoración de las ayudas más eficaces. Asimismo, destacaron la utilidad práctica de la información obtenida durante el proceso de aplicación en relación al establecimiento de conexiones constantes entre los procesos de evaluación e intervención.

 

Referencias

1. Beckmann, J. F. (2006). Superiority: Always and everywhere? On some misconceptions in the validation of dynamic testing. Educational y Child Psychology, 23(3), 35-49.         [ Links ]

2. Beckmann, N., Beckmann, J. F. y Elliott, J. G. (2009). Self-confidence and performance goal orientation interactively predict performance in a reasoning test with accuracy feedback. Learning and Individual Differences, 19(2), 277-282.         [ Links ]

3. Botella, J.; León, O.; San Martín, R. y Barriopedro, M. I. (2001). Análisis de Datos en Psicología I. Madrid: Pirámide.         [ Links ]

4. Budoff, M. (1987). The validity of learning potential assessment. En C. S. Lidz (Ed.), Dynamic assessment: An interactional approach to evaluating learning potential. (pp. 52-81). New York: Guilford Press.         [ Links ]

5. Byrne, B., Fielding-Barnsley, R., y Ashley, L. (2000). Effects of preschool phoneme identity training after six years: Outcome level distinguished from rate of response. Journal of Educational Psychology, 92, 659-667.         [ Links ]

6. Caffrey, E., Fuchs, D. y Fuchs, L. (2008). The predictive validity of dynamic assessment. A review. The Journal of Special Education, 41(4), 254-270.         [ Links ]

7. Calero, M. D. (2004). Validez de la evaluación del potencial de aprendizaje. Psicothema, 16(2) 217-221.         [ Links ]

8. Campione, J. C. y Brown, A. L. (1987). Linking dynamic testing with school achievement. En C. S. Lidz (Ed.), Dynamic assessment: An international approach to evaluating learning potential (pp. 82-115). New York: Guilford Press.         [ Links ]

9. Carlson, J. S. y Wiedl, K. H. (2000). The validity of dynamic assessment. En C. S. Lidz y J. G. Elliot (Eds.), Dynamic Assessment: Prevailing Models and Applications (6) (pp. 681-712). Greenwich, CT, Elsevier-JAI.         [ Links ]

10. Cattell, R. B. y Cattell, A. K. S. (1974/2001). Test de factor "G" (Escalas 2 y 3). Madrid: TEA.         [ Links ]

11. Cioffi, G. y Carney, J. (1983). Dynamic assessment of reading disabilities. Reading Teacher, 36, 764-768.         [ Links ]

12. Clemente, A., Albiñana, P. y Domenech, F. (1999). Escala de valoración del profesor I-S. Anales de Psicología, 15(2), 233-238.         [ Links ]

13. Compton, D., Fuchs, D., Fuchs, L., Bouton, B., Gilbert, J., Barquero, L., et al. (2010). Selecting at-risk first-grade readers for early intervention: eliminating false positives and exploring the promise of a two-stage gated screening process. Journal of Educational Psychology, 102(2), 327-340.         [ Links ]

14. Cuetos, F., Rodríguez, B., Ruano, E. y Arribas, D. (2007). PROLEC-R. Batería de Evaluación de los Procesos Lectores, Revisada. Madrid: TEA Ediciones.         [ Links ]

15. Delclos, V. R., Vye, N.J., Burns, M. S., Bransford, J. D. y Hasselbring, T. S. (1992). Improving the quality of instruction: Roles for dynamic testing. En H. C. Haywood y D. Tzuriel (Eds.), Interactive testing (pp. 317-332). New York: Springer-Verlag.         [ Links ]

16. Dörfler, T., Golke, S. y Artelt, C. (2009). Dynamic assessment and its potential for the assessment of reading competence. Studies in Educational Evaluation, 35, 77-82.         [ Links ]

17. Elliott, J. (2003). Dynamic assessment in educational settings: realising potential. Educational Review, 55, 1, 15-32.         [ Links ]

18. Fernández-Ballesteros, R. y Calero, M. D. (2000). The assessment of learning potential: the EPA instrument. En C. S. Lidz y J. G. Elliott (Eds.), Dynamic assessment: prevailing models and applications (pp. 293-323). Greenwich, CT: Elsevier-JAI.         [ Links ]

19. Feuerstein, R. (1998): El modelo de Experiencia de Aprendizaje Mediado (EAM). Conferencia presentada en el "International Workshop in Structural Cognitive Modifiability". Jersusalem, Israel.         [ Links ]

20. Gersten, R. y Dimino, J. (2006). New directions in research RTI (response to intervention): rethinking special education for students with reading difficulties (yet again). Reading Research Quarterly, 41(1), 99-108.         [ Links ]

21. Graesser, A. C., Singer, M. y Trabasso, T. (1994). Constructing inferences during narrative test comprehension. Psychological Review, 101(3), 371-395.         [ Links ]

22. Grigorenko, E. (2009). Dynamic assessment and response to intervention. Two sides of one coin. Journal of Learning Disabilities, 42 (2), 111-132.         [ Links ]

23. Guterman, E. (2002). Toward dynamic assessment of reading: applying metacognitive awareness guidance to reading assessment tasks. Journal of Research in Reading, 25(3), 283-298.         [ Links ]

24. Guthke, J. y Beckmann, J. (2000): The learning test concept and its application in practice. En C. S. Lidz y J. G. Elliott (Eds.), Dynamic assessment: Prevailing models and applications (pp. 17-69). Greeenwich, CT, Elsevier-JAI.         [ Links ]

25. Hacker, D. (1998). Self-regulated comprehension during normal reading. In D. Hacher, J. Dunlosky y A. Graesser (Eds.), Metacognition in educational theory and practice (pp. 165-192). Hillsdale, N. J.: Lawrence Earlbaum Associates.         [ Links ]

26. Hacker, D. J., Dunlosky, J., y Graesser, A. C. (Eds.) (2009). Handbook of metacognition and self-regulated learning. New York: Routledge.         [ Links ]

27. Hamers, J. H. M.; Pennings, A. y Guthke, J. (1994). Training-based assessment of school achievement. Learning and Instruction, 4 (pp. 347-360).         [ Links ]

28. Haywood, H. C. y Lidz, C. S. (2007). Dynamic assessment in practice: Clinical and educational applications. New York: Cambridge University Press.         [ Links ]

29. Jensen, M. R. (2000). The MindLadder model: Using dynamic assessment to help students learn to assemble and use knowledge. En C. S. Lidz y J.G. Elliott (Eds.), Dynamic Assessment: Prevailing models and applications (pp. 187-227). Greeenwich, CT, Elsevier-JAI.         [ Links ]

30. Kalyuga, S. y Sweller, J. (2005). Rapid dynamic assessment of expertise to improve the efficiency of adaptive E-learning. ETRyD, 53 (3), 83-93.         [ Links ]

31. Kintsch, W. (1988). The role of knowledge in discourse comprehension: A construction-integration model. Psychological Review, 95(2), 163-182.         [ Links ]

32. Kintsch, W. y Kintsch, E. (2005). Comprehension. In S.G. Paris y S.A. Stahl (Eds.), Children's reading comprehension and assessment (pp. 71-91). Mahwah, NJ: Lawrence Erlbaum.         [ Links ]

33. Kozulin, A. y Garb, E. (2002). Dynamic assessment of EFL text comprehension. School Psychology International, 23, 112-127.         [ Links ]

34. Lauchlan, F. y Elliott, J. (2001). The Psychological assessment of learning potential. British Journal of Educational Psychology, 71, 647-665.         [ Links ]

35. Lidz, C. S. (2000). The application of Cognitive Functions Scale (ACFS): An example of curriculum-based dynamic assessment. En C. S. Lidz y J. G. Elliott (Eds.), Dynamic Assessment: Prevailing models and applications (pp. 407-439). Greenwich, CT, Elsevier-JAI.         [ Links ]

36. Lidz, C. S.; Jepsen, R.H. y Miller, M.B. (1997). Relationships between cognitive processes and academic achievement: Application of a group dynamic assessment procedure with multiply handicapped adolescents. Educational and Child Psychology, 14, 56-67.         [ Links ]

37. Moreno, J. y Saldaña, D. (2005). Use of a computer-assisted program to improve metacognition in persons with severe intelectual disabilities. Research in Developmental Disabilities, 26, 341-357.         [ Links ]

38. Naglieri, J. y Das, J. (1987). Construct and criterion related validity of planning, simultaneous and successive cognitive processing tasks. Journal of Psychoeducational Assessment, 4, 353-363.         [ Links ]

39. Navarro, J. J. y Mora, J. (2011). Analysis of the implementation of a dynamic assessment device of processes involved in reading with learning-disabled children. Learning and Individual Differences, 21(2), 168-175, doi: 10.1016/j.lindif.2010.11.008        [ Links ]

40. Navarro, J. J. y Mora, J. (2012). Evaluación dinámica de las dificultades de aprendizaje de la lectura. Revista de Psicodidáctica, 17(1), 27-50.         [ Links ]

41. Rapp, D. y Broek, P. (2005). Dynamic text comprehension: an integrative view of reading. Current directions in psychological science, 14(5), 276-279.         [ Links ]

42. Resing, W. C. M. (2000). Assessing the learning potential for inductive reasoning (LIR) in young children. En C. S. Lidz y J. G. Elliott (Eds.), Dynamic assessment:prevailing models and applications (pp. 224-262). Greenwich, CT: Elsevier-JAI.         [ Links ]

43. Resing, W. y Elliott, J. G. (2011). Dynamic testing with tangible electronics: Measuring children's change in strategy use with a series completion task. British Journal of Educational Psychology, 81, doi: 10.1348/20448279.002006        [ Links ]

44. Resing, W., Tunteler, E., de Jong, F. y Bosma, T. (2009). Dynamic testing in indigenous and ethnic minority children. Learning and Individual Differences, 19(4), 445-450.         [ Links ]

45. Ruijssenaars, A. J. J. M.; Castelijns, J. H. M. y Hamers, J. H. M. (1993). The validity of learning potential tests. En J. H. M. Hamers, K. Sijtsma y A. J. J. M. Ruijssenaars (Eds.), Learning potential testing (pp. 69-82). Amsterdam: Swets and Zeitlinger, pgs.         [ Links ]

46. Saldaña, D. (2004). Interactive assessment of metacognition: Exploratory study of a procedure for persons with severe mental retardation. European Journal of Psychology of Education, 19(4), 349-364.         [ Links ]

47. Saldaña, D.; Mora, J. y Moreno, J. (2007). Evaluación dinámica en retraso mental severo: descripción de un procedimiento ecológico para la valoración de la metacognición. En J. N. García (Coord.), Dificultades del Desarrollo, Madrid: Pirámide.         [ Links ]

48. Sternberg, R. J. y Grigorenko, E. L. (2003). Evaluación dinámica. Naturaleza y mediación del potencial de aprendizaje. Barcelona: Paidós.         [ Links ]

49. Swanson, H. L. (2000): Swanson-Cognitive Processing Test: Review and applications. En C. S. Lidz y J. G. Elliott (Eds.), Dynamic Assessment: Prevailing Models and Applications, (pp. 71-107). Greenwich, CT: Elsevier-JAI.         [ Links ]

50. Swanson, H. L. y Howard, C. B. (2005). Children with reading disabilities: Does dynamic assessment help in the classification? Learning Disability Quarterly, 28(1), 17-34.         [ Links ]

51. Thiede, K., Anderson, M. y Therriault, D. (2003). Accuracy of metacognitive monitoring affects learning from texts. Journal of Educational Psychology, 95 (1), 66-73.         [ Links ]

52. Thurman, S. y McGrath, M. (2008). Environmentally based assessment practices: Viable alternatives to standardized assessment for assessing emergent literacy skills in young children. Reading y Writing Quarterly, 24, 1, 7-24.         [ Links ]

 

 

Dirección para correspondencia:
Juan-José Navarro
Facultad de Educación
Universidad Autónoma de Chile
C/ Ricardo Morales
3369, Comuna San Miguel, Santiago de Chile (Chile)
E-mail: jjnavarro@uautonoma.cl
jjnavarro@us.es

Articulo recibido: 08-09-2011
revisado: 08-05-2012
aceptado: 25-05-2012

Creative Commons License Todo el contenido de esta revista, excepto dónde está identificado, está bajo una Licencia Creative Commons