La Experiencia en Kirby Science Center

La Experiencia en Kirby Science Center

¿Por qué preguntar?

La evaluación ha sido durante mucho tiempo parte de cualquier estrategia de planificación interpretativa, especialmente para exhibiciones de centros interpretativos o museos. Cuando considere los costos de las exposiciones a las agencias (estimado en $ 300 por pie cuadrado de espacio de exhibición), pensaría que antes de que se entregaran las exposiciones, la agencia querría asegurarse de que "funcionaron", es decir, cumplió los objetivos para los que fueron diseñadas. . Desafortunadamente, este proceso de evaluación rara vez ocurre y muchas exhibiciones "fallan" en silencio para establecer contacto con los visitantes.

Recientemente formamos parte del equipo de Derse Exhibits para planificar, diseñar, construir y "evaluar" exhibiciones para el nuevo Kirby Science Center, en Sioux Falls, Dakota del Sur, Estados Unidos. Tenían tres pisos vacíos y querían exhibiciones de ciencia de alta calidad para llenar el edificio, un proyecto de US$ 3 milones. Parte del proyecto total que el cliente quería era una evaluación exhaustiva de las exposiciones para asegurarse de que cada exposición cumpliera sus objetivos interpretativos específicos. Este breve artículo resumirá qué y cómo se llevó a cabo la evaluación y lo que en nuestrol equipo aprendimos de esta experiencia "desgarradora" llamada evaluación.


¿Qué se suponía que debían hacer las exposiciones?

Antes de poder evaluar cualquier cosa, primero debe saber qué se supone que debe lograr. Parte del plan de exhibición total fue un plan de "Exhibición interpretativa". Esto consistía en que cada exhibición individual tenía, por escrito, un concepto específico que la exposición debía presentar, y objetivos específicos de aprendizaje, comportamiento y emocionales que cada exposición debía cumplir. Más tarde evaluaríamos las exhibiciones de maquetas contra los objetivos establecidos.

La estrategia de evaluación

Para esta estrategia de evaluación, desarrollamos varios métodos de evaluación que se utilizaron para la evaluación total. La evaluación llevaría aproximadamente 4 semanas para ser realizada. Establecimos proyectos / exhibiciones de maquetas en el almacén de Derse Exhibits, evaluando aproximadamente 15 exposiciones cada semana, que representan seis áreas temáticas de ciencias diferentes. Luego acordamos con las escuelas locales que los maestros trajeran sus alumnos para "probar las exhibiciones" para nosotros. Probaríamos cada conjunto de 15 exposiciones en el transcurso de una semana.

Las estrategias de evaluación incluyeron:

Una prueba escrita y una prueba posterior. Trajimos autobuses escolares de niños de diferentes escuelas para ser nuestra "audiencia" para la evaluación. Antes de que se les permitiera usar las exposiciones, cada grupo realizó una breve selección múltiple por escrito y una prueba previa de verdadero / falso relacionada con los objetivos de cada exposición. Después de la prueba previa, los niños podrían ir y "usar" las exhibiciones. Después de pasar unos 45 minutos con las exhibiciones, regresaron para una prueba escrita. Queríamos ver si había algún cambio en lo que sabían sobre los conceptos científicos probados desde antes de ver y usar las exhibiciones, y luego después de que interactuaran con las exhibiciones.

Estudios de observación. Esta parte de la evaluación utilizó un observador capacitado ubicado en cada exhibición para simplemente observar / registrar lo que los niños hicieron o no hicieron. Esto nos dijo mucho sobre cosas como "instrucciones", ubicaciones gráficas y temas que los niños tenían y en los que no tenían ningún interés.

La solución rápida, otra solución y solución nuevamente .

Esencialmente, nuestro plan era que dos grupos de niños probaran las exhibiciones el lunes de cada una de las cuatro semanas. Luego, analizamos los resultados de las pruebas y nuestros resultados de observación: realizaramos cualquier cambio en las exhibiciones el martes, trajimos dos nuevos grupos de estudiantes el miércoles, hicimos más correcciones el jueves, realizamos una prueba final el viernes e hicimos los ajustes finales. para luego enviar las exhibiciones completas de esas semanas de pruebas al Centro de Ciencias durante el fin de semana. Luego repetiríamos el proceso de evaluación la próxima semana para 15 exhibiciones diferentes.

Lo que descubrimos: ¡Oh, dolor!

¿Qué aprendimos de esta experiencia? Aprendimos que si no hubiéramos hecho las pruebas, ¡la gran mayoría de las exhibiciones que nosotros "adultos" planeamos hubieran sido un fracaso! Prácticamente TODAS las exhibiciones que probamos tenían que ser "arregladas" de alguna manera. Aquí hay algunos ejemplos de algunas de las cosas que observamos:

Por ejemplo, con esta exhibición en "magnetismo" (arriba) se le indicó a usted (foto de la izquierda) que moviera el imán en la cadena BAJO los objetos, los elementos magnéticos se moverían. Ningún niño siguió estas instrucciones. ¡Sólo usaron el imán desde arriba! Querían ver el imán en la cadena interactuar directamente con el artículo en la exhibición (foto derecha). Arreglamos esto cambiando las direcciones y levantando artículos en cada contenedor para que los objetos magnéticos reaccionaran con el imán sostenido desde arriba. Encontramos que los niños encontraron que cualquier instrucción escrita era "invisible". En el 98% de los casos, los niños no miraron ni leyeron "ninguna" instrucciones a menos que un adulto sugiriera que lo hicieran. Si tenían que leer instrucciones complejas para realizar la actividad, generalmente abandonaban la actividad.

Otro ejemplo interesante de qué y cómo piensan los niños fue nuestra exhibición de "cómo los murciélagos encuentran la comida" (a continuación).

También pudimos probar la construcción de las exhibiciones y algunas de las herramientas de exhibición. Por ejemplo, nuestros microscopios "indestructibles" (foto de abajo) no duraron una semana.


Lo que aprendimos

Este largo proceso de evaluación de un mes nos enseñó mucho a todos, y lo más importante fue que si no hubiéramos hecho la evaluación, habríamos construido exhibiciones utilizando ideas de adultos sobre cómo los niños aprenden, lo que los niños NO habrían aprendido.

Algunos puntos clave:

A partir de las pruebas previas a la publicación, descubrimos que había algunos sujetos en los que los estudiantes ya tenían un buen nivel de comprensión del concepto: pruebas previas con una respuesta correcta del 80% o superior en la prueba escrita; y algunas áreas de las que tenían una comprensión muy deficiente, con respuestas correctas en la prueba previa del 50% o menos. Encontramos que al comparar la prueba previa y los resultados posteriores a la prueba, a menudo hubo aumentos en las respuestas correctas en las pruebas posteriores, según las pruebas individuales. Por lo tanto, las exhibiciones funcionaron en general, pero las mejoras iniciales posteriores a la prueba generalmente fueron muy débiles, pueden ser solo mejoras del 5 al 15% en las postevaluaciones al comienzo de la semana (pruebas de lunes). Pero para el viernes, después de que las exhibiciones habían pasado por muchos cambios en el diseño, la presentación de las instrucciones y la presentación del concepto, estábamos en un promedio de 80% de comprensión o más en las pruebas posteriores para la mayoría de las exhibiciones. Al realizar esta evaluación formativa durante la semana de pruebas, terminamos con exhibiciones "de muy buena a excelente" en la medida en que sus objetivos educativos se alcanzaron a un nivel del 70% o superior (nuestro objetivo).

Encontramos que CADA exposición que evaluamos durante el período de 4 semanas (aproximadamente 60 exposiciones) tuvo que tener algunas "mejoras". Algunas exhibiciones solo necesitaban una pequeña solución, como la adición de una etiqueta que decía "presionar el botón" (de lo contrario, el botón para iniciar la actividad no se presionaría), a algunas exhibiciones que necesitaban un importante rediseño.

Descubrimos que los niños ni siquiera miraban, y mucho menos leían las instrucciones "escritas". Pero tuvimos éxito en el rediseño de instrucciones en dibujos animados o formatos de "cómics", más instrucciones de presentación visual. Las instrucciones en sí tenían que parecer divertidas o interesantes. Para que muchas de estas exhibiciones se usen de manera más eficiente, se necesitaría un docente, un educador de ciencias o un maestro para ayudar a facilitar y dirigir la actividad de aprendizaje. Pero las exhibiciones funcionaron de manera efectiva por sí mismas después de la evaluación impulsadas por los nuevos diseños. Cuando nuestros investigadores facilitaron el aprendizaje, explicando direcciones, etc., las exhibiciones funcionaron maravillosamente.

El equipo de diseño y el cliente aprendieron que la ÚNICA manera de saber con certeza si tiene una exhibición "exitosa", no solo una bonita, es evaluarla con su grupo objetivo de mercado objetivo. Los visitantes le dirán si su exhibición logra comunicarse con ellos o no, ¡si les pregunta!

Resumen

Este breve artículo solo comienza a tocar algunos de los muchos problemas educativos complejos y los desafíos de diseño que encontramos al realizar esta evaluación. Nuestro objetivo era proporcionar una introducción sobre por qué evaluar y cómo el proceso nos ayudó a diseñar y construir finalmente exposiciones que fueron realmente exitosas desde el punto de vista educativo, de acuerdo con todo lo que aprendimos acerca de los usuarios de la exhibición de este museo, la evaluación de cualquier proyecto de exhibición no es una opción, sino un requisito para el verdadero éxito de la exhibición.

Referencias

Veverka, John A 1998 Kirby Science Center Informe de evaluación de la exposición. Informe no publicado para el Kirby Science Center, Sioux Falls, Dakota del Sur.

Veverka, John A. 1994 Planificación maestra interpretativa. Naturalistas De Bellota, Tustin, CA.

Veverka, John A. 1999. "Where is the Interpretation in Interpretive Exhibits". Documento no publicado disponible en línea en: www.heritageinterp.com (en nuestra BIBLIOTECA).