¿Innovación basada en ocurrencias o en evidencias?

Por: Federico Malpica Basurto

La mayoría de las decisiones sobre mejora e innovación se toman con base en pruebas de resultados de aprendizaje. Sin embargo, estas no proporcionan datos sobre las causas que arrojan estos resultados. Una forma de proceder con mayor fundamento es analizar la práctica educativa de forma consistente, sistemática y colectiva mediante un diagnóstico educativo, para obtener datos sobre la práctica y su correlación con el aprendizaje que se quiere conseguir.

Nunca hemos identificado las prácticas educativas excelentes de una manera objetiva y fiable. En lugar de ello, solemos adscribir a sus atributos algún tipo de calidad mística que podemos reconocer y reverenciar, pero no replicar. El gran docente tiene utilidad como héroe, pero, irónicamente, nunca como lección. (Ripley, 2010)

 

La trampa de los resultados

Hoy en día la mayoría de las evaluaciones realizadas de forma periódica en los centros educativos, así como las pruebas estandarizadas internacionales tipo PISA y evaluaciones del sistema educativo, tanto nacionales como regionales, básicamente son fotografías sobre los resultados de aprendizaje (efectos), pero no sobre los procesos que han llevado a ellos (causas).

Esto podemos comprobarlo porque, cada vez que tenemos en nuestras manos los informes de resultados sobre estas evaluaciones, nos surgen inmediatamente dos preguntas: ¿Cómo hemos llegado a estos resultados? ¿Qué hacemos para obtener mejores resultados?

Desgraciadamente, dichos informes no contienen evidencias para responder a estas preguntas. Sin embargo, hasta la fecha, la mayoría de las Administraciones y organizaciones educativas siguen pidiendo que se tomen decisiones basadas en los bajos resultados que arrojan estas evaluaciones. Una demanda errónea, sin duda, pues esto es como intentar conducir un vehículo viendo siempre por el retrovisor. ¿Qué puede pasar si intentamos hacer esto? Pues que seguramente acabaríamos teniendo un accidente. Para conducir adecuadamente, hay que ver lo que pasa delante y, de tanto en tanto, echar una mirada rápida al retrovisor.

Las pruebas que arrojan resultados de aprendizaje son siempre de aquello que ya pasó, de resultados que ya se dieron, de estudiantes que ya se fueron, que ya pasaron de curso o que ya avanzaron en el programa. Esta es una forma muy reactiva de proceder, pues si ese grupo de estudiantes evaluados se mantiene en la media, si no se detecta un problema de bajo rendimiento, parece que no hace falta mejorar nada y, por tanto, se tiende a seguir enseñando de la misma manera.

Por el contrario, si hay bajos resultados y queremos mejorar solo con estas evaluaciones, tenemos un problema, pues dejamos de usar datos y comenzamos a inferir, hacer hipótesis basadas en corazonadas o intuiciones sobre sus causas. Entonces comienzan las discusiones sobre lo que deberíamos hacer: «Salimos mal en matemáticas, pues más matemáticas, más ejercicios, más horas, más recursos, otras metodologías… Sí, pero ¿cuáles? Yo fui a un curso de una metodología muy interesante de matemáticas manipulativas, ¿y si la ponemos en práctica?». Así, acabamos tomando decisiones sobre innovaciones y mejoras basadas en ocurrencias, ya no en evidencias.

En la práctica están las respuestas

Otra forma más proactiva de proceder es obtener, de forma consistente, sistemática y colectiva, datos sobre lo que estamos realizando en la práctica educativa. De hecho, solo haciendo una observación profunda, sincera y fundamentada de la práctica colectiva en las aulas, seguramente ya aparecen mejoras que realizar, ya sea porque hay prácticas que no llevamos a cabo todos o no de forma consistente, o porque encontramos que aún hay prácticas que no atienden a aquello que queremos que aprendan nuestros estudiantes o incluso van en contra de lo que queremos que aprendan. Es decir, así como los constructores no esperan al final de la construcción para evaluar si el edificio se aguanta, en educación no es necesario esperar los resultados de los estudiantes para darnos cuenta de varios aspectos que podemos mejorar e innovar con relación a nuestra práctica.

El análisis fundamentado de práctica educativa

¿Y cómo conseguimos hacer este tipo de evaluaciones? Se trata de obtener información de cada docente, para luego hacer una imagen colectiva de la práctica. Sin embargo, para que sea fiable la información, no se trata de pedir al docente que juzgue su práctica «del 1 al 10 qué tan bien lo realizas» o «esto lo haces siempre, casi siempre, casi nunca o nunca», pues los resultados de este tipo de instrumentos tienden a reflejar una autopercepción de cómo se juzga cada docente, no de la práctica que realiza. Se trata de pedirle a cada docente que describa su práctica: «tú qué haces en tu clase», así, sin juzgarla. Posteriormente, con los datos recogidos, se puede hacer una valoración y determinar la alineación efectiva de las prácticas educativas en los aspectos que más correlacionan con los resultados de aprendizaje que se quieren conseguir.

En los años que llevamos aplicando un instrumento de estas características y siempre que ha habido una buena sensibilización al colectivo docente sobre los objetivos del ejercicio (únicamente recoger datos para la mejora de forma anónima), hemos comprobado que se obtiene una participación voluntaria cercana al 100% y una fiabilidad que no varía aproximadamente 5% de lo que realmente pasa en las aulas.

El instrumento que hemos desarrollado para poder valorar la práctica educativa en el Instituto Escalae y que llamamos autodiagnóstico pedagógico está basado en indicadores de proceso (cómo se realiza la práctica educativa en cuanto a la programación, impartición, evaluación y liderazgo, agrupados en 16 ámbitos de análisis y 120 características) que suman alrededor de 480 indicadores basados en las teorías elaboradas desde la psicología del aprendizaje, las neurociencias y la didáctica, con un claro contraste en la práctica, a partir de aplicaciones clínicas y estudios de caso (cuadro 1).

Cuadro 1. Dieciséis ámbitos de análisis de la práctica educativa (en amarillo los ámbitos de programación, en verde los de impartición, en azul los de evaluación y en rojo los de liderazgo)

La validación del instrumento de análisis

En estos 13 años, hemos tenido la oportunidad de realizar la verificación científica de la herramienta por distintas metodologías:

Metodología cuantitativa de validación, contrastando los indicadores mediante verificación de la dispersión de los datos y coherencia de las respuestas, así como verificando del algoritmo de ponderación de las respuestas, a través de una observación directa aleatoria en las aulas, en función de las respuestas de los docentes.

Metodología cualitativa de validación mediante una verificación de un máximo de 10% de utilización de la opción «Otra respuesta» en cada pregunta, agregando posibles respuestas que se repitan en esta opción abierta, así como diversas revisiones de los ámbitos, características e indicadores con expertos de diferentes perfiles que han ayudado a evaluar el sistema y triangular la información ofrecida en los centros.

Hasta el momento, más de 1200 instituciones educativas han aplicado este instrumento en diez países (de infantil hasta la universidad), con la participación de más de 22.000 docentes del ámbito público y privado.

Conclusiones de su implementación

Si realmente queremos mejorar los resultados del aprendizaje en nuestros estudiantes, es necesario un proceso continuo de reflexión y mejora de la práctica educativa. El beneficio de mantener esta actividad es que cada vez podremos explicar con mayor detalle los procesos de enseñanza que nos están llevando a obtener los resultados educativos que aparecen en las pruebas estandarizadas, tomar decisiones basadas en evidencias, así como atender los condicionantes que puede experimentar la práctica educativa, desarrollando una de las capacidades básicas de las escuelas que aprenden (Senge, 2000).

También incrementa la seguridad en los docentes y los responsables del centro sobre las decisiones que tomar respecto a la implementación de mejoras e innovaciones en la práctica educativa, ayuda a reconocer las mejores prácticas edu- cativas que se llevan a cabo en el centro escolar, así como los méritos docentes y sus necesidades de formación.

Cuando este proceso es además, riguroso y sistemático, permite que cada profesional de la educación y cada colectivo docente se comprometan después con aspectos concretos de mejora e innovación, basados en evidencia sobre la propia práctica, en función de principios fundamentados sobre cómo enseñar para que suceda el aprendizaje que queremos.

Fuentes

RIPLEY, A. (2010): «What Makes a Great Teacher?» [en línea]. The Atlantic Magazine, enero. www.theatlan- tic.com/magazine/archive/2010/01/what-makes-a- great-teacher/7841/

SENGE, P. (2000): Las escuelas que aprenden. Barcelona.Granica.

MALPICA, F. 8 ideas clave. Calidad de la práctica educativa. Referentes, indicadores y condiciones para la mejora de la enseñanza-aprendizaje. Barcelona. Graó, 2013

 

¿Te gustaría hablar sobre cómo podemos colaborar para lograr tus objetivos en relación al tema de este artículo? Aquí tienes mi agenda para reservar tu espacio sin ningún costo:

https://calendly.com/fmalpica/reuniones-para-explorar-colaboracion

Si quieres estar informado sobre nuestras más recientes publicaciones, no olvides suscribirte a nuestra newsletter.


El Instituto Escalae para la Calidad de la Enseñanza-Aprendizaje, es una institución privada internacional comprometida con la investigación y desarrollo de soluciones para garantizar la innovación pedagógica sostenible y la transformación educativa positiva.
Dedicamos nuestros esfuerzos, desde el 2005, a desarrollar herramientas tecnológicas, procesos de trabajo y material específico para garantizar la mejora continua de los procesos pedagógicos y organizativos, además de acompañar a las entidades educativas en su transformación y a los docentes en su desarrollo profesional, de forma positiva.
Conoce más sobre el Instituto Escalae y nuestras investigaciones. ¿Estás interesado en nuestras soluciones educativas? Contacta con nosotros: info@escalae.org