Inconsistencia de las pruebas PISA

2211-arton4999

Esta semana se vuelve a hablar de las pruebas PISA. Se leen titulares como el siguiente: ?gLos alumnos espanoles suspenden las pruebas de habilidades practicas del informe PISA?h. Sin embargo es preciso cuestionar la validez y fiabilidad de este instrumento que solo sirve para clasificar sistemas educativos. Cuando de un instrumento de medida se trata, es clasico y aceptado por toda la comunidad cientifica que debe ser fiable y valido. Fiable, en el sentido de que sea posible volver a medir y la diferencia observada sea casi inexistente, o mas bien que su exactitud sea tal que, al medir lo mismo, el resultado sea identico al anteriormente obtenido. Cuando se habla de la validez del instrumento, se hace referencia a que es adecuado para medir lo que se pretende medir. Un ejemplo claro: no es posible medir la altura de alguien con una bascula. Esta es valida para medir pesos, no alturas.

Pues bien desde el gabinete de innovacion e investigaciones de CGT se vienen realizando estudios sobre la validez y fiabilidad de las pruebas PISA, y no queda suficientemente claro que las pruebas se apliquen con el control de las variables que le confieren fiabilidad. Por supuesto, al no cumplir este requisito, las conclusiones seran erroneas.

De hecho la pregunta, que se hace la CGT, es si las pruebas PISA en realidad lo que vienen a informar es de la mayor o menor desgana con que el alumnado, de ciertos paises y contextos, las contesta. Precisamente se ha requerido informacion, de la agencia espanola que coordina la aplicacion de las pruebas PISA, es decir, el Instituto Nacional de Evaluacion Educativa (INEE), sobre como se controla la actitud del alumnado que contesta las pruebas. Se tiene constancia, por la informacion que aportan algunos profesores, que algun alumnado deja preguntas sin responder, y que algunos de ellos han manifestado su escaso interes por “calentarse el coco”, literalmente hablando. Como la actitud del alumnado, al afrontar la cumplimentacion de las pruebas, es esencial para poder considerar el resultado obtenido, solicito CGT a ese INEE informacion sobre que actuaciones estan disenadas para controlar esta potente variable.
El INEE aporta, del informe tecnico de PISA 2009, como se tratan los items “missing” (no respondidos) y los “not reched” (que se han dejado al final sin contestar). Ademas se pueden encontrar una serie de tablas con el numero medio de items en esas situaciones en cada pais y se aporta informacion del tratamiento estadistico de estas preguntas no respondidas. Ademas, en el cuestionario que el alumnado tiene que cumplimentar, se le pregunta por ejemplo ?Que nivel de esfuerzo has tenido que hacer? O esta otra ?Que nivel de esfuerzo habrias dedicado si las notas de esta prueba formaran parte de tu calificacion escolar?

Tanto este cuestionario como el estudio estadistico de los resultados, siempre a posteriori, no aportan ningun elemento de control de variables tan potentes como la actitud, con la que cada alumna o alumno se enfrenta a la prueba. De la motivacion inicial depende casi todo el resultado que se obtenga. Por ello, mientras no se controlen variables de este tipo, el diseno no es fiable, no pudiendo predicarse sobre las competencias a valorar del alumnado participante, ya que se desconoce la actitud con la que lo hace.


Rafael Fenoy Rico
Comunicacion Educacion CGT >

Comparte

Últimas noticias