SciELO - Scientific Electronic Library Online

 
vol.43 número1Construyendo test adaptativos de elección forzosa “On The Fly” para la medición de la personalidadCuestiones abiertas en el uso de las nuevas tecnologías en la evaluación psicológica índice de autoresíndice de materiabúsqueda de artículos
Home Pagelista alfabética de revistas  

Servicios Personalizados

Revista

Articulo

Indicadores

Links relacionados

  • En proceso de indezaciónCitado por Google
  • No hay articulos similaresSimilares en SciELO
  • En proceso de indezaciónSimilares en Google

Compartir


Papeles del Psicólogo

versión On-line ISSN 1886-1415versión impresa ISSN 0214-7823

Pap. Psicol. vol.43 no.1 Madrid ene./abr. 2022  Epub 27-Jun-2022

https://dx.doi.org/10.23923/pap.psicol.2986 

Sección Monográfica

El uso de las nuevas tecnologías en las evaluaciones educativas: la lectura en un mundo digital

The use of new technologies in educational assessments: reading in a digital world

Javier Suárez-Álvarez1  , Rubén Fernández-Alonso2  , Francisco J García-Crespo3  , José Muñiz4 

1Universidad de Massachusetts Amherst, Estados Unidos

2Universidad de Oviedo, España

3Universidad Complutense de Madrid, España

4Universidad Nebrija, España

RESUMEN

Ser un lector competente en un mundo digital requiere una base sólida de Lectura, pero también la capacidad para pensar críticamente; una tarea pendiente para muchos estudiantes españoles. Las pruebas adaptativas informatizadas y los datos de proceso (información sobre las acciones que realizan los estudiantes al responder a la prueba) son especialmente importantes cuando se evalúan competencias como la Lectura. El objetivo de este trabajo es analizar cómo el uso de la tecnología está cambiando el concepto de Lectura y las formas para evaluarlo. Esto tiene implicaciones tanto para el alumnado español como para cualquier profesional encargado de interpretar y diseñar evaluaciones educativas. El investigador debe asegurar que el uso de los datos y la tecnología sea el adecuado para los objetivos de la evaluación y sirva de forma fiable, válida y justa a las personas involucradas, pero también del usuario saber cuándo, cómo y para qué utilizar los datos.

Palabras clave Tecnología; Datos de proceso; Tests adaptativos informatizados; PISA; Competencia lectora

ABSTRACT

Being a proficient reader in a digital world requires a strong reading foundation, but also the ability to think critically, which is a challenge for many students in Spain. Computerized adaptive tests and process data (information about students’ actions when responding to the test) are especially important when assessing skills such as reading. This work aims to analyze how the use of technology is changing the concept of reading and the ways to evaluate it. This has implications for Spanish students and any professional in charge of interpreting and designing educational evaluations. The researcher must ensure that the use of data and technology is adequate for the objectives of the evaluation and that it works in a reliable, valid, and fair way for the people involved, but also the user must know when, how, and for what purposes to use the data.

Key words Technology; Process data; Computerized adaptive tests; PISA; Reading

Durante mucho tiempo se ha pensado que de los millenials para adelante hay que dar por supuestas las habilidades digitales. Esto se está empezando a cuestionar. No cabe duda de que el alumnado actual usa más la tecnología, pero ¿sabe usarla bien? Si algo muestran los datos es que tener más exposición a la tecnología no implica necesariamente una mayor competencia digital y las diferencias son enormes entre estudiantes de entornos favorecidos y desfavorecidos (OECD, 2021a). Numerosos estudios han demostrado que las generaciones más jóvenes pueden estar más familiarizadas con la tecnología que las precedentes; sin embargo, los “nativos digitales” no siempre están necesariamente equipados con las habilidades adecuadas en términos de acceso y uso de la información digital (Breakstone et al., 2018; Macedo-Rouet et al., 2020; McGrew et al., 2018; OECD, 2011). Los estudiantes necesitan utilizar las tecnologías de la información y la comunicación (TIC) para acceder a textos a través de buscadores, utilizar enlaces y pestañas, procesar información de múltiples fuentes, evaluar la calidad de las fuentes de información, detectar posibles conflictos y resolverlos. Las definiciones de lo que significa ser un lector competente están en continua actualización para responder a cambios en la tecnología, la sociedad, la economía, y la cultura, y con ellas las formas de evaluar estas competencias. El objetivo de este trabajo es analizar la forma en que el uso de las Nuevas Tecnologías está cambiando el concepto de Lectura y, en consecuencia, las formas para evaluarlo. En este artículo abordamos algunas de las implicaciones más importantes que tienen estos cambios para el alumnado español, así como para cualquier profesional encargado de interpretar o diseñar evaluaciones educativas que aprovechen los avances de la tecnología. Para más información sobre el impacto de las nuevas tecnologías en otros ámbitos de evaluación como la Psicología y la evaluación ambulatoria ver Andrés et al. (2022), Fonseca-Pedrero et al. (2022) y Santamaría y Sánchez-Sánchez (2022) en este monográfico.

LA LECTURA EN UN MUNDO DIGITAL: EL CONSTRUCTO EN CONTINUO CAMBIO

Según los últimos datos del Programa de Evaluación Internacional de Estudiantes (PISA 2018), el estudiante promedio de 15 años en España pasa unas 35 horas semanales conectado a Internet – lo que supone un incremento de un 66% en 6 años y son datos previos a la pandemia Covid-19 por lo que esta cifra posiblemente no ha llegado a su techo (OECD, 2021a). Sin embargo, aproximadamente uno de cada tres estudiantes en España respondió en las pruebas PISA que hacer clic en el enlace de un correo electrónico de phishing era algo apropiado o muy apropiado1. Menos de la mitad de los jóvenes de 15 años en España son capaces de distinguir hechos de opiniones en las tareas de PISA2. España se encuentra por debajo de la media de la OCDE en ambos indicadores, aunque la diferencia es de menos de 10 puntos porcentuales (INEE, 2021). La buena noticia es que trabajar estas competencias en el aula – por ejemplo, aprender a detectar información sesgada – está relacionado con una mejor competencia lectora – por ejemplo, ser capaz de distinguir hechos y opiniones (Suarez-Alvarez, 2021). Estos datos confirman que la escuela puede jugar un papel fundamental en el aprendizaje de las competencias digitales y ayudar a reducir los riesgos asociados a ellas, aunque, por supuesto, no existen fórmulas mágicas.

Si bien es cierto que 29 de las 35 horas semanales que los estudiantes españoles pasan en Internet son fuera de la escuela, aquellos países cuyos estudiantes pasan más horas utilizando tecnología en el aula no siempre son los que mejor competencia digital muestran (OECD, 2021a). La relación entre el rendimiento en Lectura y el tiempo dedicado a utilizar dispositivos digitales para el trabajo escolar fue negativa en 36 países y economías, incluida España. En Australia, Dinamarca, Corea, Nueva Zelanda y Estados Unidos, esta relación fue positiva después de tener en cuenta la situación socioeconómica de los estudiantes y de las escuelas. Tampoco podemos olvidar que el uso de las tecnologías digitales responde a una realidad multidimensional: en ocasiones el uso de la tecnología en el aula se hace de manera complementaria a otras actividades que también son importantes, mientras que en otros casos pueden llegar a reemplazarlas. La clave puede estar, no tanto en el uso en sí, sino en el cómo se realiza una actividad concreta.

Por ejemplo, aún existe un beneficio claro de leer en papel, algo en lo que coincide la literatura que ha investigado este asunto (Clinton, 2019; Delgado et al., 2018). Estos resultados también son consistentes en los más de 70 países y economías que participaron en PISA 2018: los estudiantes que leen con más frecuencia libros en papel que en formato digital puntúan mejor en las pruebas de Lectura de PISA 2018 e invierten más tiempo leyendo por placer. Estos datos sugieren que no deberíamos desterrar al papel en favor de un monopolio digital y parece razonable buscar una compatibilidad entre formatos de Lectura tradicionales y analógicos. De hecho, los estudiantes más competentes en Lectura son aquellos capaces de optimizar las ventajas de ambos formatos. El alumnado con buenas competencias lectores parece responder al siguiente perfil: lee libros en papel y utiliza dispositivos digitales, dependiendo del objetivo, es decir, puede leer una novela en papel, pero lee diariamente las noticias online.

Otro ejemplo claro es el tipo de estrategias de Lectura que los estudiantes aprenden en la escuela, hecho que en el caso de España es particularmente interesante. Los estudiantes en España obtuvieron una puntuación particularmente alta en dos de los tres índices de conocimiento de estrategias de Lectura incluidos en PISA 2018 (comprender y recordar un texto, y redactar un resumen), pero menos en el índice de estrategias de Lectura para evaluar la credibilidad de las fuentes de información (INEE, 2021). Los datos sugieren que los estudiantes en España tienen un conocimiento relativamente bueno de los aspectos tradicionales y aún importantes de la Lectura. Sin embargo, todavía carecen, en promedio, del conocimiento y las habilidades relevantes para navegar en un mundo digital. Leer no consiste solamente en aprender a decodificar palabras escritas durante la infancia, sino en aprender un conjunto de competencias que van cambiando a lo largo de la vida. Para convertirse en lectores competentes en un mundo digital, los estudiantes necesitan una base sólida de Lectura, pero también la capacidad de pensar críticamente, y ajustar su comportamiento en función de la tarea, así como motivarse para perseverar frente a las dificultades.

En este sentido, España podría beneficiarse de fortalecer los conocimientos y habilidades de los estudiantes para navegar a través de la ambigüedad, contrastar y validar puntos de vista. Sin embargo, agregar asignaturas específicas sobre habilidades digitales en la escuela sin ajustar otras partes del currículo podría ser problemático. Es importante equilibrar el contenido y las competencias para abordar las nuevas demandas sociales sin sobrecargar el plan de estudios. El reto consiste en tratar de responder a las necesidades cambiantes y, al mismo tiempo, minimizar la expansión y la sobrecarga de contenido. Una posibilidad para encontrar el equilibrio entre la actualización curricular y la sobrecarga consiste en incorporar temas transversales o competencias en materias existentes (OECD, 2020), así como la utilización de métodos innovadores de enseñanza y aprendizaje (Paniagua y Istance, 2018; Pérez et al., 2018).

LA TECNOLOGÍA EN LA EVALUACIÓN EDUCATIVA: LAS PRUEBAS ADAPTATIVAS Y LOS DATOS DE PROCESO

Las definiciones de las competencias escolares, no solo de la Lectura como se ha descrito anteriormente, sino también de otras competencias como las matemáticas y las ciencias, están en continuo proceso de actualización para reflejar los cambios en la tecnología, la sociedad, la economía, y la cultura (Fraillon et al., 2019; Mullis y Martin, 2019; OECD, 2018). La navegación, se ha convertido en un componente transversal a cualquier tipo de aprendizaje en un mundo digital y, como describiremos a continuación, también a la forma en que se evalúan estas competencias.

Las evaluaciones a gran escala coordinadas por organismos internacionales como PISA, TIMSS (Estudio internacional de tendencias en Matemáticas y Ciencias) o PIRLS (Estudio Internacional para el Progreso de la Comprensión Lectora) se administran mayoritariamente por ordenador, siendo éste su método principal de administración también en España. Las administraciones públicas españolas llevan probando desde hace algún tiempo las pruebas informatizadas en sus evaluaciones de diagnóstico o de sistema, aunque su uso aún no está generalizado. La realidad de las aulas españolas no es muy diferente. Las evaluaciones educativas en el aula (exámenes, rúbricas, etc.) aunque habituales en muchos centros educativos aún no se ha convertido en el status quo. Sin embargo, la tendencia es clara: a medida que el acceso a internet y a dispositivos digitales aumentan también lo hace su uso. Los avances en la tecnología informática también han influido sustancialmente en las formas en que se realizan, administran, califican y se informa a los examinados (Zenisky y Sireci, 2002). En este artículo nos centramos en dos áreas emergentes que su imparable auge ha generado un cambio de paradigma en la evaluación educativa. Para más información sobre otras aplicaciones como computational psychometrics y machine learning, ver por ejemplo von Davier et al. (2019);en este monográfico Elosua (2022).

La primera y quizá más extendida es la posibilidad de realizar test adaptativos informatizados (Olea et al., 2010; en este monográfico Abad et al., 2022). Los tests adaptativos informatizados permiten aumentar la precisión en la medición utilizando menos preguntas o ítems por estudiante. Esto se logra presentando a los estudiantes ítems que están alineados con su nivel de competencia. A diferencia de las evaluaciones no adaptativas que habitualmente se centran en evaluar a estudiantes de rendimiento medio, las pruebas adaptativas también permiten una diferenciación más refinada de la capacidad del estudiante en los extremos superior e inferior del nivel de competencia del estudiante (Tabla 1). Este aspecto de las pruebas adaptativas es particularmente relevante cuando se comparan grupos de alto y bajo rendimiento o estudiantes de familias favorecidas y desfavorecidas. Al mismo tiempo, la experiencia de las pruebas para los estudiantes es mejor, ya que no necesitan responder preguntas que sean demasiado difíciles para ellos o demasiado fáciles que hagan que su interés en la prueba se reduzca. El uso de pruebas adaptativas ya se utiliza en la inmensa mayoría de evaluaciones educativas a gran escala como PISA, TIMSS, y PIRLS e incluso en la evaluación de la personalidad (Pedrosa et al., 2016; Postigo et al., 2020; en este monográfico Abad et at., 2022).

TABLA 1 RESUMEN DE LAS VENTAJAS E INCONVENIENTES DE LOS TESTS ADAPTATIVOS INFORMATIZADOS FRENTE A LOS CONVENCIONALES 

El segundo cambio revolucionario en la evaluación informatizada es la posibilidad de almacenar archivos de registro, también conocidos como datos de proceso. Estos datos contienen información sobre las acciones realizadas por los examinados cuando interaccionan con las tareas que se le presentan en el ordenador y el tiempo dedicado a cada acción durante el proceso (Tabla 2). Este tipo de datos proporciona información adicional más allá de los datos de respuesta que, por lo general, muestran si la pregunta fue respondida de forma correcta o no (He et al., 2019, 2021; von Davier et al., 2019). Por ejemplo, la cantidad de tiempo que los estudiantes dedican a responder a las pruebas puede reflejar su nivel de compromiso (si están dando lo mejor de sí) y, en consecuencia, afectar al rendimiento en la prueba (Wise et al., 2021). Esta información puede ayudar a los responsables de la formulación de políticas, a los investigadores y los educadores a comprender mejor las estrategias cognitivas de los estudiantes y las causas subyacentes del bajo y alto rendimiento. Esto, a su vez, puede repercutir en una mejora del diseño de las evaluaciones y conducir a programas de formación y aprendizaje más eficaces (OECD, 2019a).

TABLA 2 RESUMEN DE INDICADORES DE NAVEGACIÓN BASADOS EN LOS DATOS DE PROCESO 

Nota: Adaptado de (OECD, 2021a).

EJEMPLO ILUSTRATIVO DEL USO DE DATOS DE PROCESO EN PISA

PISA es una encuesta trienal de estudiantes de 15 años de todo el mundo que evalúa en qué medida han adquirido los conocimientos y las habilidades clave esenciales para una participación plena en las sociedades. PISA introduce por primera vez las pruebas adaptativas informatizadas en 2018 para evaluar la competencia lectora de los estudiantes de 15 años (últimos datos disponibles hasta la fecha). La naturaleza interactiva de las evaluaciones adaptativas informatizadas como PISA las convierte en candidatos ideales para análisis basados en datos de proceso (Goldhammer et al., 2016; Vörös et al., 2021).

La capacidad de los estudiantes para pensar, monitorear y ajustar su actividad a una tarea en particular son aspectos esenciales a la hora de leer en entornos digitales (OECD, 2019b). Los lectores digitales no solo necesitan seguir estructuras de información lineales, si no también construir sus propios textos seleccionando y evaluando información de diferentes fuentes. Una buena navegación, por tanto, debería ser consistente con estos objetivos. La prueba de Lectura de PISA 2018 permite a los estudiantes navegar a través de las diferentes tareas de tal forma que el estudiante puede decidir cómo interactuar con el texto y qué estrategia es más eficaz. Por ejemplo, un estudiante puede decidir seguir estrictamente las instrucciones de cada tarea según aparecen mientras que otros pueden preferir explorar qué tareas vendrán a continuación para gestionar su tiempo y conocimientos de manera diferente.

El reciente informe PISA, Lectores del Siglo XXI, desarrollando la competencia lectora en un mundo digital, utiliza datos de proceso para agrupar a los estudiantes en función de su navegación en la unidad de Lectura basada en escenarios, Rapa Nui3 (CR551, ver Apéndice A):

  • 4 Sin navegación: estudiantes que no tienen actividades de navegación ni en ítems con textos de fuente única (ver Apéndice A ítems 1, 2, 3, 4 y 5) ni en ítems con textos de múltiples fuentes de información (ver Apéndice A ítems 6 y 7)

  • 4 Navegación limitada: estudiantes que navegan simplemente en ítems con textos de una sola fuente (ver Apéndice A ítems 1, 2, 3, 4 y 5), pero no a través de ítems con textos de múltiples fuentes (ver Apéndice A ítems 6 y 7)

  • 4 Navegación estrictamente enfocada: estudiantes que siguen estrictamente las instrucciones de las tareas para navegar activamente en ítems con textos de múltiples fuentes de información (ver Apéndice A ítems 6 y 7), pero limitaron la navegación en ítems con textos de fuente única (ver Apéndice A ítems 1, 2, 3, 4 y 5), y

  • 4 Navegación exploratoria activa: estudiantes que navegan activamente en ítems con textos de fuente única y múltiple (ver Apéndice A ítems 1, 2, 3, 4 y 5, 6, y 7).

La Figura 1 muestra que el rendimiento en Lectura está fuertemente relacionado con el tipo de navegación de los estudiantes. En la mayoría de los países y economías se encontró un patrón consistente entre las puntuaciones en Lectura y los patrones de navegación. Los datos señalan una diferencia de 66 puntos entre los estudiantes que navegaron activamente entre las páginas y los que no ejecutaron actividades de navegación. El 11% de los estudiantes que pertenecían al grupo de navegación exploratoria activa obtuvieron las puntuaciones más altas en Lectura. Estos estudiantes navegaron activamente a través de tareas de fuente única (ver Apéndice A ítems 1, 2, 3, 4 y 5) y múltiple (ver Apéndice A ítems 6, y 7). Su navegación en tareas con textos de fuente única superó el número de páginas requerido para completar la tarea de lectura. Es decir, no solo leyeron la página requerida, sino también otras páginas accesibles. Este tipo de navegación podría ayudar a los estudiantes a obtener una idea general de toda la prueba de Lectura y prepararse mejor para las siguientes tareas. Esto también podría explicar, al menos en parte, la razón por la que el grupo de estudiantes de exploración activa puntuó mejor en la prueba de lectura que el grupo de estudiantes que siguió estrictamente las instrucciones de la tarea.

Fuente: (OECD, 2021a). Base de datos PISA 2018, Tabla B.3.9

FIGURA 1 SOCIACIÓN ENTRE EL RENDIMIENTO EN LECTURA Y LAS CONDUCTAS DE NAVEGACIÓN 

Las chicas presentan mejores estrategias de lectura que los chicos en los tres índices incluidos en PISA 2018 (comprender y recordar un texto, redactar un resumen, y evaluar la credibilidad de las fuentes de información). Este hecho se repite en todos los grupos de navegación. Aun así, tanto los chicos como las chicas que navegaron y exploraron activamente la unidad Rapa Nui tienen un mejor conocimiento de las estrategias de lectura para evaluar la credibilidad de las fuentes que los estudiantes con una navegación limitada o nula. Además, las diferencias de género en las estrategias de lectura son más estrechas entre los estudiantes con una navegación más activa que aquellos sin navegación (Figura 2).

DISCUSIÓN

El uso de la tecnología en la evaluación educativa permite utilizar nuevas fuentes de datos tanto para el proceso de evaluación (el diseño de las pruebas) como para el producto (las puntuaciones en la prueba). Los test adaptativos informatizados y los datos de proceso son dos de las áreas emergentes que más beneficios tienen en la evaluación educativa. El uso de datos de proceso en pruebas informatizadas es particularmente valioso cuando se evalúan competencias que requieren tareas interactivas y el uso de tecnología. En el caso de la evaluación de la competencia lectora, ejemplo analizado en este artículo, los estudiantes necesitan utilizar las tecnologías de la información y la comunicación (TIC) para acceder a textos a través de buscadores, utilizar enlaces y pestañas, procesar información de múltiples fuentes, evaluar la calidad de las fuentes de información, detectar posibles conflictos y resolverlos. Los datos de proceso, más concretamente las secuencias de acciones realizadas por los estudiantes cuando responden a la prueba, permiten identificar las estrategias de navegación utilizadas por los estudiantes cuando interaccionan con textos en un entorno digital. Estos datos se podrían utilizar para medir el grado en que los estudiantes se involucran en la tarea de la forma esperada y mejorar así la validez de las interpretaciones, pero también se podría utilizar junto a las respuestas de los estudiantes para estimar sus puntuaciones en las competencias examinadas (Wise et al., 2021).

De esta forma, los datos de proceso, que a priori son aspectos inherentes al método de evaluación y diseño de la prueba (el proceso), se convierten en cierta medida en el objeto de la evaluación (el producto). Es decir, la tecnología ha calado en todas las capas de la evaluación educativa de tal forma que es casi imposible desenredar la medición del constructo. Las posibilidades que este tipo de datos tiene para la evaluación educativa son incontables (Jiao et al., 2021), pero como nos recuerda el refranero español: es importante no poner el carro delante de los bueyes. Existen al menos tres consideraciones importantes para optimizar el uso de este tipo de datos:

Nota: Todas las diferencias entre chicas y chicos son estadísticamente significativas. Fuente: (OECD, 2021a). Base de datos PISA 2018, Tabla B.5.29.

FIGURA 2 ASOCIACIÓN ENTRE LAS ESTRATEGIAS DE LECTURA PARA EVALUAR LA CREDIBILIDAD DE LAS FUENTES DE INFORMACIÓN Y LAS CONDUCTAS DE NAVEGACIÓN 

Diseñar la prueba con el objetivo de extraer y utilizar datos de registro. Los datos de proceso son un subproducto de características inherentes al software utilizado para realizar la evaluación. Es decir, en la inmensa mayoría de casos, las pruebas no están construidas y diseñadas con el objetivo de utilizar estos datos, sino que más bien se utilizan a modo de serendipia para mejorar el proceso y el producto de la evaluación una vez la prueba ha sido administrada y las respuestas a las preguntas codificadas. Si bien mejorar el proceso y el producto de la evaluación no tiene nada de malo, de hecho, los estándares para las pruebas educativas y psicológicas así lo recomiendan (AERA et al., 2014), es importante analizar las consecuencias que puedan tener en otras áreas también importantes de la evaluación. Por ejemplo, si el objetivo es mejorar el producto de las evaluaciones (las puntuaciones) pero el uso de datos de proceso no se ha tenido en cuenta en el diseño de la prueba, la validez de contenido (Pedrosa et al., 2014) puede verse alterada con respecto a su marco conceptual de evaluación. En otras palabras, el riesgo de dar significado a datos a posteriori es que puede desviar el objetivo y el contenido de la evaluación del originalmente propuesto en los marcos conceptuales de evaluación. Para una discusión sobre este tema ver, por ejemplo, cómo cambiarían los rankings de PISA si este tipo de datos se tuviera en cuenta en la estimación de puntuaciones (Pohl et al., 2021).

La extracción de datos de proceso debe estar basada en consideraciones teóricas y analíticas. La elección de qué información se está registrando mientras el examinado responde a la prueba no responde a consideraciones teóricas ni analíticas. Es decir, el software registra ciegamente toda la actividad del examinado, sea ésta relevante o no. Por lo tanto, la extracción de datos de proceso debe estar guiada por consideraciones teóricas y analíticas para evitar interpretaciones espurias. Una aplicación particularmente interesante del uso de datos de proceso para mejorar la medición (el proceso) consiste en utilizar tiempos de respuesta para identificar diferencias en el proceso de respuesta entre grupos culturales y lingüísticos diferentes y así mejorar la validez de las interpretaciones que de lo contrario podrían pasar por alto en los análisis de Funcionamiento Diferencial de los Ítems4 (Ercikan et al., 2020).

La interpretación de los datos de registro debe estar guiada por modelos cognitivos. Es importante señalar que los procesos de respuesta cognitiva no son observables ni en las pruebas convencionales ni en las digitales. Al igual que sucede con otros métodos para obtener evidencia de validez de los procesos de respuesta como los laboratorios cognitivos, o los protocolos de pensamiento en voz alta (Padilla y Benítez, 2014), los datos de registro no reflejan procesos cognitivos en sí, sino rastros o huellas de los procesos cognitivos que los estudiantes utilizaron. La interpretación, por tanto, requiere la utilización de métodos mixtos que compaginen interpretaciones cualitativas y cuantitativas. En otras palabras, es fundamental que la interpretación de los datos de proceso esté guiada por modelos teóricos, en este caso, cognitivos. Por ejemplo, la evaluación de constructos complejos como el razonamiento o el pensamiento crítico puede involucrar procesos cognitivos como tiempos de respuesta explícitamente incluidos en la definición del constructo. Otro ejemplo, como veíamos en este artículo, es la inclusión de conductas de navegación como un aspecto transversal en el aprendizaje de la competencia lectora en un mundo digital.

La tecnología potencia el conocimiento a niveles inimaginables, sea este conocimiento el adecuado o no. De hecho, es habitual que el conocimiento inadecuado o erróneo tenga una mayor capacidad de expansión. Véase como ejemplo la transmisión de información en las redes sociales; una noticia falsa se extiende a una velocidad más rápida que una noticia verdadera (Vosoughi et al., 2018). Mutatis mutandis, los estudios que son más difíciles de replicar tienden a ser más citados (Serra-Garcia y Gneezy, 2021). En España, además, el uso de los test en el ámbito profesional es enorme y la formación y conocimiento sobre el uso de ellos relativamente bajo (Muñiz et al., 2020; en este monográfico Hernández et at., 2022). Es la responsabilidad del investigador asegurar que el uso de los datos y la tecnología sea el adecuado para los objetivos de la evaluación y sirva de forma fiable, válida y justa a las personas involucradas, pero también del usuario saber cuándo, cómo y para qué utilizar los datos. Esperamos que este artículo ayude a reflexionar sobre ambas cosas.

1PISA 2018 incluyó una tarea en que se invitaba a los estudiantes a que hicieran clic en el enlace de un correo electrónico de un conocido operador de telefonía móvil y que llenaran un formulario con sus datos para ganar un teléfono inteligente, también conocido como correos electrónicos de phishing.

2La Pregunta 3 de la unidad Rapa Nui evalúa la capacidad de distinguir hechos de opiniones. Se trata de un ítem de respuesta parcial donde la respuesta nula se califica con 0, la respuesta parcial se califica con 0.5 y la respuesta completa se califica con 1. El porcentaje correcto estimado para la respuesta completa en este ítem es menor al 41% en España y menor al 47 % en promedio en Países de la OCDE. La pregunta 3 de Rapa Nui es un ítem de nivel 5. Esto significa que los estudiantes deben tener un nivel de competencia 5 para tener un 62 % de probabilidad de obtener la puntuación completa en este ítem.

3La unidad de Lectura basada en escenarios, Rapa Nui (CR551) consta de tres textos: una página web del blog de un profesor, una reseña de un libro y un artículo de noticias de una revista de ciencia. En estas situaciones de lectura de múltiples textos, los lectores deben tomar decisiones sobre cuál de los fragmentos de texto disponibles es el más importante, relevante, preciso o veraz.

4La existencia de funcionamiento diferencial del ítem (DIF) indica que personas que tienen igual grado de habilidad en la competencia evaluada presentan diferente probabilidad de responder correctamente a un ítem, lo que se relaciona con el sesgo, es decir, favorecer a un grupo sobre otro en la evaluación

REFERENCIAS

Abad, F. J., Schames, R., Sorrel, M., Nájera, P., García-Garzón, E., Garrido, L. E., y Jiménez, M. (2022). Construyendo tests adaptativos de elección forzosa “on the fly” para la medición de la personalidad. Papeles del Psicólogo, 43(1), 29-35. https://doi.org/10.23923/pap.psicol.2982Links ]

AERA, APA, y NCME. (2014). Standards for educational and psychological testing (2nd ed.). Washington, DC: American Educational Research Association (AERA). [ Links ]

Andrés, J. C., Aguado, D., y de Miguel, J. (2022). ¿Qué hay detras de LinkedIn? Midiendo a través de rúbricas las LinkedIn Big Four Dimensions. Papeles del Psicólogo, 43(1), 12-20. https://doi.org/10.23923/pap.psicol.2979Links ]

Breakstone, J., McGrew, S., Smith, M., Ortega, T., y Wineburg, S. (2018). Why we need a new approach to teaching digital literacy. Phi Delta Kappan, 99(6), 27–32. https://doi.org/10.1177/0031721718762419Links ]

Clinton, V. (2019). Reading from paper compared to screens: A systematic review and metafianalysis. Journal of Research in Reading, 42(2), 288–325. https://doi.org/10.1111/1467-9817.12269Links ]

Delgado, P., Vargas, C., Ackerman, R., y Salmerón, L. (2018). Don’t throw away your printed books: A meta-analysis on the effects of reading media on reading comprehension. Educational Research Review, 25, 23–38. https://doi.org/10.1016/j.edurev.2018.09.003Links ]

Elosua, P. (2022). Impacto de la TIC en el entorno evaluativo. Innovaciones al servicio de la mejora continua. Papeles del Psicólogo, 43(1), 3-11. https://doi.org/10.23923/pap.psicol.2985Links ]

Ercikan, K., Guo, H., y He, Q. (2020). Use of response process data to inform group comparisons and fairness research. Educational Assessment , 25 (3), 179–197. https://doi.org/10.1080/10627197.2020.1804353Links ]

Fonseca-Pedrero, E., Ródenas, Gabriel, Pérez-Albéniz, A., AlHalabí, S., Pérez, M., y Muñiz, J. (2022). La hora de la evaluación ambulatoria. Papeles del Psicólogo, 43(1), 21-28 https://doi.org/10.23923/pap.psicol.2983Links ]

Fraillon, J., Ainley, J., Schulz, W., Duckworth, D., y Friedman, T. (2019). IEA International Computer and Information Literacy Study 2018 Assessment Framework. IEA International Computer and Information Literacy Study 2018 Assessment Framework. https://doi.org/10.1007/978-3-030-19389-8Links ]

Goldhammer, F., Martens, T., Christoph, G., y Lüdtke, O. (2016). Test-taking engagement in PIAAC. OECD Education Working Papers, No. 133, OECD Publishing, Paris, https://doi.org/10.1787/5jlz?6fhxs2-en. [ Links ]

He, Q., Borgonovi, F., y Paccagnella, M. (2019). Using process data to understand adults’ problem-solving behaviour in the Programme for the International Assessment of Adult Competencies (PIAAC): Identifying generalised patterns across multiple tasks with sequence mining. OECD Publishing, Paris. https://www.oecd-ilibrary.org/education/using-process-data-to-understand-adultsproblem-solving-behaviour-in-the-programme-for-the-international-assessment-of-adult-competencies-piaac_650918f2-enLinks ]

He, Q., Borgonovi, F., y Paccagnella, M. (2021). Leveraging process data to assess adults’ problem-solving skills: Using sequence mining to identify behavioral patterns across digital tasks. Computers & Education, 166, 104-170. https://doi.org/10.1016/j.compedu.2021.104170Links ]

Hernández, A., Elosua, P., Fernández-Hermida, J. R., y Muñiz, J. (2022). Comisión de Test: Veinticinco años velando por la calidad de los test. Papeles del Psicólogo, 43(1), 55-62. https://doi.org/10.23923/pap.psicol.2978Links ]

INEE. (2019). PISA 2018. Items liberados. Secretaria General Técnica. Subdirección General de Atención al Ciudadano, Documentación y Publicaciones. https://sede.educacion.gob.es/ publiventa/descarga.action?f_codigo_agc=20232Links ]

INEE. (2021). Nota país: Lectores del siglo XXI. PISA 2018. Secretaria General Tecnica. Subdireccion General de Atencion al Ciudadano, Documentacion y Publicaciones. [ Links ]

Jiao, H., He, Q., y Veldkamp, B. P. (2021). Editorial: Process data in educational and psychological measurement.Frontiers in Psychology, 12. https://doi.org/10.3389/fpsyg.2021.793399Links ]

Macedo-Rouet, M., Salmerón, L., Ros, C., Pérez, A., Stadtler, M., y Rouet, J.-F. (2020). Are frequent users of social network sites good information evaluators? An investigation of adolescents’ sourcing abilities. Journal for the Study of Education and Development, 43(1), 101–138. https://doi.org/10.1080/02103702.2019.1690849Links ]

McGrew, S., Breakstone, J., Ortega, T., Smith, M., y Wineburg, S. (2018). Can students evaluate online sources? Learning from assessments of civic online reasoning. Theory & Research in Social Education, 46(2), 165–193. https://doi.org/10.1080/00933104.2017.1416320Links ]

Mullis, I. V. S., y Martin, M. O. (2019). Assessment Frameworks PIRLS 2021. Chestnut Hill, MA: TIMSS & PIRLS International Study Center, Boston College. [ Links ]

Muñiz, J., Hernández, A., y Fernández-Hermida, J. R. (2020). Utilización de los test en España: el punto de vista de los psicólogos. Papeles del Psicólogo, 41(1), 1-15. https://doi.org/10.23923/pap.psicol2020.2921Links ]

OECD. (2011). PISA 2009 Results: Students On Line. PISA, OECD Publishing, Paris. https://doi.org/10.1787/9789264112995-enLinks ]

OECD. (2018). PISA 2021 Mathematics Framework. PISA, OECD Publishing, Paris. [ Links ]

OECD. (2019a). Beyond proficiency: Using log files to understand respondent behaviour in the survey of adult skills. OECD Publishing, Paris. https://doi.org/10.1787/0b1414ed-enLinks ]

OECD. (2019b). PISA 2018 Assessment and analytical framework. PISA, OECD Publishing, Paris. https://doi.org/10.1787/b25efab8-eLinks ]

OECD. (2020). Curriculum Overload. PISA, OECD Publishing, Paris. https://doi.org/10.1787/3081ceca-enLinks ]

OECD. (2021a). 21st-Century readers: Developing literacy skills in a digital world. PISA, OECD Publishing, Paris. https://doi.org/10.1787/a83d84cb-enLinks ]

Olea, J., Abad, F. J., y Barrada, J. R. (2010). Tests informatizados y otros nuevos tipos de tests. Papeles del Psicólogo, 31(1), 94–107. [ Links ]

Padilla, J. L., y Benítez, I. (2014). Evidencia de validez basada en los procesos de respuesta. Psicothema, 26(1), 136–144. https://doi.org/10.7334/PSICOTHEMA2013.259Links ]

Paniagua, A., y Istance, D. (2018). Teachers as designers of learning environments . OECD Publishing, Paris. https://doi.org/10.1787/9789264085374-enLinks ]

Pedrosa, I., Suárez-Álvarez, J., y García-Cueto, E. (2014). Evidencias sobre la validez de contenido: Avances teóricos y métodos para su estimación. Acción Psicológica, 10(2), 3. https://doi.org/10.5944/ap.10.2.11820Links ]

Pedrosa, I., Suárez-Álvarez, J., García-Cueto, E., y Muñiz, J. (2016). A computerized adaptive test for enterprising personality assessment in youth. Psicothema, 28(4). https://doi.org/10.7334/psicothema2016.68Links ]

Pérez, A., Potocki, A., Stadtler, M., Macedo-Rouet, M., Paul, J., Salmerón, L., y Rouet, J.-F. (2018). Fostering teenagers’ assessment of information reliability: Effects of a classroom intervention focused on critical source dimensions. Learning and Instruction, 58, 53–64. https://doi.org/10.1016/j.learninstruc.2018.04.006Links ]

Pohl, S., Ulitzsch, E., y von Davier, M. (2021). Reframing rankings in educational assessments. Science, 372(6540), 338–340. https://doi.org/10.1126/science.abd3300Links ]

Postigo, Á., Cuesta, M., Pedrosa, I., Muñiz, J., y García-Cueto, E. (2020). Development of a computerized adaptive test to assess entrepreneurial personality. Psicologia: Reflexão e Crítica, 33(1), 6. https://doi.org/10.1186/s41155-020-00144-xLinks ]

Santamaría, P. y Sánchez-Sánchez, F. (2022). Cuestiones abiertas en el uso de las nuevas tecnologías en la evaluación psicológica. Papeles del Psicólogo, 43(1), 48-54. https://doi.org/10.23923/pap.psicol.2984Links ]

Serra-Garcia, M., y Gneezy, U. (2021). Nonreplicable publications are cited more than replicable ones. Science Advances, 7(21). https://doi.org/10.1126/sciadv.abd1705Links ]

Suarez-Alvarez, J. (2021). "Are 15-year-olds prepared to deal with fake news and misinformation?". PISA in Focus, No. 113, OECD Publishing, Paris, https://doi.org/10.1787/6ad5395e-enLinks ]

von Davier, A. A., Deonovic, B., Yudelson, M., Polyak, S. T., y Woo, A. (2019). Computational psychometrics approach to holistic learning and assessment systems. Frontiers in Education, 4. https://doi.org/10.3389/feduc.2019.00069Links ]

von Davier, M., Khorramdel, L., He, Q., Shin, H. J., y Chen, H. (2019). Developments in psychometric population models for technology-based large-scale assessments: An overview of challenges and opportunities. Journal of Educational and Behavioral Statistics, 44(6), 671–705. https://doi.org/10.3102/1076998619881789Links ]

Vörös, Z., Kehl, D., y Rouet, J.-F. (2021). Task characteristics as source of difficulty and moderators of the effect of time-on-task in digital problem-solving. Journal of Educational Computing Research, 58(8), 1494–1514. https://doi.org/10.1177/0735633120945930Links ]

Vosoughi, S., Roy, D., y Aral, S. (2018). The spread of true and false news online. Science, 359(6380), 1146–1151. https://doi.org/10.1126/science.aap9559Links ]

Wise, S. L., Im, S., y Lee, J. (2021). The Impact of Disengaged Test Taking on a State’s Accountability Test Results. Educational Assessment, 26(3), 163–174. https://doi.org/10.1080/10627197.2021.1956897Links ]

Zenisky, A., y Sireci, S. (2002). Technological Innovations in Large-Scale Assessment. Applied Measurement in Education, 15(4), 337–362. [ Links ]

Apéndice A

Unidad CR551: Isla de Pascua (INEE, 2019)

Recibido: 01 de Noviembre de 2021; Aprobado: 21 de Diciembre de 2021

Correspondencia: Javier Suárez-Álvarez, Ph.D.. Senior Research Fellow, Center for Educational Assessment. University of Massachusetts Amherst. College of Education. 813 North Pleasant Street. Amherst, MA 01003. USA. E-mail: suarezj@umass.edu

CONFLICTO DE INTERESES. No existe conflicto de intereses.

Creative Commons License Este es un artículo publicado en acceso abierto (Open Access) bajo la licencia Creative Commons Attribution Non-Commercial No Derivative, que permite su uso, distribución y reproducción en cualquier medio, sin restricciones siempre que sin fines comerciales, sin modificaciones y que el trabajo original sea debidamente citado.