TUTORÍA TÉCNICAS DE RECOGIDA DE INFORMACIÓN 6 NOVIEMBRE 2025
TÉCNICAS DE RECOGIDA DE INFORMACIÓN
- GRABACIÓN TUTORÍA 30 OCTUBRE 2025 1ª PARTE TEMA 2
- GRABACIÓN TUTORÍA T2 2024 LA MEDIDA EN EDUCACIÓN CALIDAD DE LOS ÍTEMS
- Tema 2 Características técnicas de los instrumentos de medida
- Tema 2 Transparencias Equipo Docente Parte 1
- Tema 2 Transparencias Equipo Docente Parte
- la fiabilidad absoluta, también llamado error típico de medida, que vendría a ser la desviación típica de las puntuaciones empíricas (X) con respecto a la puntuación verdadera (V) tras la aplicación de un test infinitamente a un sujeto.
- Y la fiabilidad relativa, que podemos calcularla estadísticamente, como coeficiente de estabilidad, mediante la correlación entre las puntuaciones obtenidas en dos aplicaciones de un test pasado un tiempo prudencial para que no influya el efecto memoria.
- Esta fiabilidad como estabilidad la llamamos test - retest, y debe transcurir al menos 20-25 días entre aplicaciones, algunos autores establecen este intervalo en tres meses
- También es posible hallar la fiabilidad pasando dos tests parecidos, que midan lo mismo, el mismi rasgo, que tenga los mismos objetivos, contenidos, misma longitud y condiciones de aplicación similares, por lo que no es sencillo, obtenemos la correlación de sus puntuaciones y entonces la llamamos fiabilidad como equivalencia, o de formas paralelas.
- O podemos hallar la correlación entre puntuaciones pares e impares de un test, o de la primera mitad con la segunda, y entonces se denomina fiabilidad como equivalencia, y se halla mediante la fórmula del alfa de Cronbach alfa = n/n-1 [1- ES^2j/S^2x], por ejemplo 8 ítems, la suma de varianzas indiviiduales ítems 16, varianza test 54, ¿alfa Cronbach? alfa = 8/(8-1) . [1 - 16/54] = 0,804
- También podemos aplicar la fórmula de Spearman Brown Rxx = 2rxx / (1+rxx), por ejemplo fiabilidad test correlación ítems pares - impares rxx = 0,79, pues como se resolvería Rxx = 2 . 0,79 / (1+0,79) = 0,88
- O la fórmula de Rulon determinando la diferencia entre la primera y segunda mitad d = X1 - X2 y después restar a 1 la relación entre la varianza de la diferencia y la varianza total rxx = 1 - S^2d / S^2 x
- O la fórmula de Guttman calculando para cada sujeto la varianza en cada mitad y calculando la varianza total rxx = 2[1 - (S^2 1 + S^2 2) / S^2 x]
- > 0,9 excelente
- > 0,8 buena
- > 0,7 aceptable
- > 0,6 cuestionable
- > 0,5 pobre
- < 0,5 inaceptable
- VALIDEZ DE CONTENIDO cuando tiene una longitud adecuada, y el conjunto de ítems recoge una muestra representativa y suficiente de las conductas que el constructo evalúa
- VALIDEZ DE CONSTRUCTO que es consistente y replica el número de dimensiones o factores que tiene el constructo que se está midiendo. De alguna manera, permite ir a la raíz del problema, eso qué medimos, ¿qué es?. La cuantificación de esta validez requiere una acumulación progresiva de información que irá dando más consistencia a la construcción inicial, o por el contrario irá desechando el planteamiento presentado. La dimensionalidad hace referencia a el número de dimensiones o factores que mide un test, que habitualmente se halla sometiendo al test a un análisis factorial, cuanto menos dimensiones mida, más homogéneo es el test.
- VALIDEZ APARENTE que indica que cualquier persona a la que se presente el test, diría que mide lo que decimos que mide, y se refiere a cuestiones de aspecto externo: legibilidad, claridad, instrucciones, manejo.
- Y la más importante, que requiere cálculos matemáticos, y es la que vais a utilizar en la PEC, y la que utilizaréis en los problemas de la prueba de examen es la VALIDEZ CRITERIAL, es decir, las puntuaciones del test correlacionan con la puntuación en el rasgo que estamos midiendo que aporte un experto externo, que puede ser otro test, o la puntuación que un experto profesional otorgue, y que a su vez podemos que es PREDICTIVA (y la utilizamos como inferencia para predecir el éxito en el rasgo que estamos midiendo, midiendo el criterio después del test) o CONCURRENTE (las dos medidas del test y del criterio se toman simultáneamente). Y a su vez podemos hablar del índice de validez de un ítem cuando correlacionamos un ítem con un criterio, o del test, cuando correlacionamos la puntuación del test con un criterio, recordando la fórmula de la correlación de Pearson:
- N Exy - Ex Ey
- rqsr [[N Ex^2 - (Ex)^2] [N Ey^2 - (Ey)^2]]
- Items
- Sujetos 1 2 3 4 CriterioY Ex Ex^2 EY^2 Exy
- A 1 0 1 1 4 3 9 16 12
- B 0 1 1 0 2 2 4 4 4
- C 0 1 1 1 4 3 9 16 12
- D 1 0 0 0 1 1 1 1 1
- 11 9 23 37 29
- 4 29 - 9 11
- rqsr [4.23 - 9^2] [4.37- 11^2]
- 116 - 99
- rqsr [92 - 81] [148 - 121]
- 17 / rqsr 11 . 27
- 17 / rqsr 297
- 17 / 17,23
- 0,986
- n = 50/30 = 1,66
- Rxy = 0,50 . sqr 1,66
- _________________
- sqr [1 + (1,66-1) . 0,8]
- Rxy = 0,50 . 1,288
- _______________
- sqr [1 + 0,66 . 0,8]
- Rxy = 0,644 / sqr [1 + 0,528] = 0,644 / sqr 1,528 = 0,644 / 1,236 = 0,521
- Diferenciar la TCT de la TRI
- Calcular los parámetros de un ítem desde la TRI
- Interpretar la información de los parámetros y características de un ítem desde la TRI
- P (-1) = e ^ 1,7 (-1-0) / 1+e^-1,7
- P (-1) = e ^-1,7 / 1+e^-1,7
- En la calculadora e^x -1,7 = 0,18
- P (0) = e^1,7 (0-0) / 1+e^1,7.0
- P (0) = e^0 / 1+e^0
- P (0) 1 / 1+1
- P(0) 1 / 2 = 0,5
- P (2) = e^1,7 (2-0) / 1+e^3,4
- P (2) = e^3,4 / 1+e^3,4
- P (2) = 29,96 / 30,96 = 0,96
- Creación de bancos de ítems
- Conjunto de ítems con propiedades métricas conocidas
- De éstos se escogen aquellos relacionados con el rasgo que pretendamos medir
- Diseño de tests adaptativos
- Se adaptan al nivel de competencia del sujeto
- Maximizamos la información que nos dan sobre el sujeto, minimizando el error
- Consiguen la misma precisión que los no adaptativos con menor número de ítems
GRADO EN PEDAGOGÍA TÉCNICAS E INSTRUMENTOS PARA LA RECOGIDA DE INFORMACIÓN CURSO 2024/2025
ENUNCIADO DE LA “PRÁCTICA A” (“Diseño, aplicación y valoración de una prueba objetiva”)
1ª Fase: Diseño y construcción de la prueba.
- Definir el objetivo de la prueba: es decir, definir la variable que será objeto de medida (por ejemplo, “medir la competencia matemática”).
- Definir la población diana de la prueba: es decir, definir la población de referencia sobre la cual se aplicará la prueba (por ejemplo, “niños y niñas escolarizados en 5º Primaria en España”).
- Definir la utilidad esperada de la prueba: es decir, anticipar a qué uso se van a destinar los resultados derivados de la aplicación de la prueba (por ejemplo, “para detectar niños y niñas susceptibles de recibir atención educativa especial en el área de Matemáticas”).
- Fundamentar y definir el contenido de la prueba: es decir, definir el universo de contenidos que serán objeto de la prueba (por ejemplo, “sumas, restas, multiplicaciones y divisiones, con números de hasta dos cifras”); dicha definición debe estar fundamentada, es decir, debe apoyarse en algún tipo de documento que evidencie que el universo de contenidos corresponde a la variable y población definidos anteriormente (por ejemplo, un Real Decreto, Orden, o documento curricular similar, que especifique “la competencia matemática exigida para el nivel de 5º Primaria”).
- Los documentos citados deben ser referenciados al final del trabajo, en un apartado de “Referencias”, según el estilo APA.
- Realizar la tabla de especificación de la prueba: es decir, construir una tabla en la cual se dispongan en las columnas las áreas que componen el universo de contenidos a medir, y en las filas los procesos cognitivos que operarán sobre dichos contenidos.
- Por ejemplo:
- Contenidos Suma Resta Multiplicación División
- Procesos Conocer/Calcular Comprender/Aplicar
- Definir el tipo de prueba: en este caso, es obligatorio que en todos los trabajos se opte por una “prueba objetiva compuesta por ítems de elección múltiple con, al menos, 3 alternativas de respuesta (sólo 1 alternativa correcta)”.
- Las alternativas de respuesta deben nombrarse como A, B, C…
- Definir la longitud de la prueba: es decir, definir el número de ítems que compondrán la prueba. La prueba debe tener una longitud de, al menos, 10 ítems. Igualmente, debe haber al menos 1 ítem por cada una de las celdas definidas en la tabla de especificación. Siguiendo con nuestro ejemplo, “definimos que nuestra prueba tendrá una longitud de 10 ítems, distribuidos de la siguiente manera”:
- Contenidos Suma Resta Multiplicación División TOTAL
- Procesos
- Conocer/Calcular 1 1 1 1 4
- Comprender/Aplicar 2 2 1 1 6
- TOTAL 3 3 2 2 10
- Redactar los ítems: para lo cual recomendamos seguir las indicaciones de la página 143 del texto básico. Cada ítem redactado, debe acompañarse con sus correspondientes especificaciones.
- Por ejemplo: Para tu cumpleaños, quieres regalar a cada uno de tus 25 compañeros de clase, una bolsita con 12 caramelos ¿Cuántos caramelos te hacen falta para conseguirlo?: A. 280 B. 300 C. 320
- Contenido Proceso Opción correcta Especificaciones Multiplicación
- Comprender/Aplicar B
- Ordenar/Numerar los ítems: es decir, especificar el orden en el cual se presentarán los ítems anteriormente redactados (ítem 1, ítem 2, ítem 3…).
- Redactar las instrucciones de la prueba: puede tomarse como referencia el ejemplo de instrucciones que se presenta en las páginas 144 y 145 del texto básico.
- Nota importante: una vez redactados y ordenados los ítems de la prueba, y redactadas las instrucciones, se puede presentar el conjunto definitivo de la prueba como “Anexo” al final del trabajo.
- Se recomienda que dicho anexo incluya igualmente la plantilla con las respuestas correctas a los ítems de la prueba.
- Definir el tiempo de aplicación: es decir, definir, de manera justificada, cuál es el tiempo de aplicación de la prueba (por ejemplo, “se estima que cada uno de los 10 ítems de la prueba puede ser contestado en un máximo de 3 minutos; por tanto, el tiempo total de aplicación será de 30 minutos”).
- Definir el soporte de aplicación: es decir, definir si la prueba será aplicada en formato papel, en formato digital, por teléfono… en caso de realizar el trabajo con una muestra real, recomendamos vivamente aplicar la prueba en formato digital, utilizando para su virtualización la herramienta “Google Forms” o similar; puesto que con ella las respuestas de los sujetos quedarán grabadas automáticamente en una matriz de datos que servirá de base para los posteriores análisis.
- Definir el tipo de aplicación: es decir, si la aplicación se hará de manera individual o colectiva; con o sin la presencia del investigador.
- Definir la muestra de aplicación: es decir, definir el tamaño de la muestra sobre la cual se va aplicar la prueba. Se exige que se aplique al menos a 20 sujetos.
- Obtener la matriz de respuestas directas: una vez aplicada la prueba se obtendrá, y así debe aportarse en el trabajo, una primera matriz de datos con las respuestas directas de los sujetos.
- Es decir, una matriz con tantas filas como sujetos, tantas columnas como ítems tenga la prueba, y en cada una de las celdas aparecerá la respuesta directa (“A”, “B”, “C”…) dada por el sujeto al ítem.
- Se recomienda añadir una columna inicial a la izquierda que incluya un identificador del sujeto (“Sujeto1”, “Sujeto2”, “Sujeto3”…o “ID1”, “ID2”, “ID3”…).
- Obtener la matriz de aciertos/errores: es decir, a partir de la matriz anterior, debe obtenerse, y aportarse en el trabajo, una segunda matriz en donde cada una de las respuestas directas sea sustituida por “0” (en caso de respuesta incorrecta) o “1” (en caso de respuesta correcta”).
- Cálculo de la puntuación total de cada sujeto en la prueba: finalmente, a la matriz de aciertos/errores, se le añadirá una columna adicional que contendrá la puntuación total de cada sujeto en la prueba.
- Para simplificar los posteriores análisis, se permite calcular la puntuación total como simple suma de aciertos del sujeto a lo largo de la prueba (es decir, sin hacer la corrección por azar = los fallos no restan).
- Calcular el Índice de Dificultad (ID’), para todos y cada uno de los ítems que componen la prueba. En este caso, sí que se exige que se calcule aplicando la corrección debida a los efectos del azar. Se pide igualmente representar de manera gráfica cómo evoluciona el ID’ a lo largo de los ítems de la prueba.
- Escoger 1 de los ítems de la prueba (se recomienda escoger un ítem de dificultad media), y sobre el mismo calcular:
- Índice de Discriminación (D). Para simplificar, por ejemplo en el caso de tener 20 sujetos, se puede coger como ‘extremo superior’ el 25% de sujetos (=5 sujetos) con mayor puntuación en la prueba, y como ‘extremo inferior’ el 25% de sujetos (=5 sujetos) con menor puntuación en la prueba.
- Índice de Homogeneidad (IH). Se recomienda utilizar el procedimiento de correlación ítem – total (excluido el ítem).
- Análisis de los Distractores. Es decir, comprobar la equiprobabilidad de los distractores mediante la prueba Ji-Cuadrado.
- Calcular la fiabilidad de la prueba en su conjunto, como consistencia interna. Se admite tanto el procedimiento de las dos mitades como el alfa de Cronbach.
- Definir un criterio externo relevante para estudiar la validez criterial de la prueba. (Por ejemplo, “nota media en Matemáticas obtenida en la última evaluación de 5º Primaria”).
- Tras definir de manera justificada el criterio elegido, deberá añadirse a la matriz de acierto/error una nueva columna con la puntuación directa de cada sujeto en dicho criterio (que será necesariamente una puntuación simulada).
- Calcular la validez criterial de la prueba, con respecto al criterio previamente definido.
- Baremar la prueba: se pide calcular el valor de los deciles (percentil 10, 20,…, 80, 90) y cuartiles (percentil 25, 50, 75), correspondientes a la puntuación total en la prueba.
- OPCIONAL: De manera opcional, se pide transformar las puntuaciones totales de los sujetos en la prueba a puntuaciones típicas (z).
- Valorar los Índices de Dificultad (ID’) obtenidos:
- ¿Cuáles son los dos ítems más fáciles de la prueba?
- ¿Cuáles son los dos ítems más difíciles?
- ¿Cuál es el ID’ promedio de la prueba?
- ¿La prueba en su conjunto es de dificultad baja, media, alta?
- ¿Sigue la prueba la recomendación de presentar los ítems en dificultad creciente (los más fáciles al principio y los más difíciles al final)?
- Para el ítem escogido, valorar el Índice de Discriminación (D), el Índice de Homogeneidad, y la equiprobabilidad de sus distractores.
- En conjunto, ¿cómo valorarías la calidad de este ítem? ¿lo incluirías en una próxima versión perfeccionada de tu prueba?
- ¿Por qué?
- Valorar la fiabilidad de la prueba: ¿Cómo dirías que es la fiabilidad de tu prueba? ¿Excelente, Buena, Aceptable, Cuestionable…?
- Dada la fiabilidad encontrada, ¿crees que puedes extraer conclusiones de tus resultados?
- En caso de que tu prueba tenga una fiabilidad por debajo de 0,80, ¿cómo podrías incrementarla?
- Valorar la validez criterial de la prueba: ¿Cómo dirías que es la validez criterial de la prueba? ¿Cómo interpretas el valor de validez criterial que has obtenido?
- Aplicación práctica de la baremación realizada:
- ¿Qué sujetos se encuentran por debajo del percentil 20? ¿les aplicarías alguna medida educativa especial?
- ¿qué sujetos se encuentra por encima del percentil 80? ¿les aplicarías alguna medida educativa especial?
- Valoración global de la prueba construida.
- ¿Cuáles crees que son los puntos fuertes de tu prueba?
- ¿Cuáles son sus puntos débiles?
- ¿Cómo crees que se podría mejorar para el futuro?
- ¿Qué has aprendido?
- ¿Qué competencias has adquirido?
- ¿Cómo relacionas dichas competencias con tu futuro perfil profesional de pedagogo/a?
- ¿Tienes algún comentario o sugerencia al respecto de esta “Práctica A”?
Criterios de Evaluación: La “Práctica A” será calificada en la convocatoria ordinaria por el Tutor/a del Centro Asociado (y por el Equipo Docente de la Sede Central en la convocatoria extraordinaria), a través de la plataforma virtual, en una escala de 0 a 10 puntos. Para evaluar la práctica, se aplicarán los siguientes criterios:
- Adecuado diseño y construcción de la prueba: 20% de la calificación.
- Adecuada aplicación y puntuación de la prueba: 20% de la calificación.
- Adecuado análisis de las propiedades métricas: 30% de la calificación.
- Adecuada valoración de las propiedades métricas: 20% de la calificación.
- Adecuada reflexión final: 10% de la calificación.
Formato de Entrega: La “Práctica A” se debe entregar en formato Word (.doc, .docx), y con las matrices de datos en formato de tabla editable (no como imagen), de forma que el Tutor/a o Equipo Docente pueda copiar/pegar dicha información en una hoja de cálculo para hacer las comprobaciones necesarias. Se recomienda letra Times New Roman, tamaño de 12 puntos, interlineado 1,15 o 1,5. La extensión orientativa del trabajo es de 15-20 páginas (sin contar anexos).
2ª Fase: Aplicación y puntuación de la prueba.
Nota importante: la aplicación de la prueba puede realizarse sobre una muestra real o simulada. o
- Definir el tiempo de aplicación: es decir, definir, de manera justificada, cuál es el tiempo de aplicación de la prueba (por ejemplo, “se estima que cada uno de los 10 ítems de la prueba puede ser contestado en un máximo de 3 minutos; por tanto, el tiempo total de aplicación será de 30 minutos”).
- Definir el soporte de aplicación: es decir, definir si la prueba será aplicada en formato papel, en formato digital, por teléfono… en caso de realizar el trabajo con una muestra real, recomendamos vivamente aplicar la prueba en formato digital, utilizando para su virtualización la herramienta “Google Forms”1 o similar; puesto 1 https://www.google.es/intl/es/forms/about/ que con ella las respuestas de los sujetos quedarán grabadas automáticamente en una matriz de datos que servirá de base para los posteriores análisis.
- Definir el tipo de aplicación: es decir, si la aplicación se hará de manera individual o colectiva; con o sin la presencia del investigador. o Definir la muestra de aplicación: es decir, definir el tamaño de la muestra sobre la cual se va aplicar la prueba. Se exige que se aplique al menos a 20 sujetos.
- Obtener la matriz de respuestas directas: una vez aplicada la prueba se obtendrá, y así debe aportarse en el trabajo, una primera matriz de datos con las respuestas directas de los sujetos. Es decir, una matriz con tantas filas como sujetos, tantas columnas como ítems tenga la prueba, y en cada una de las celdas aparecerá la respuesta directa (“A”, “B”, “C”…) dada por el sujeto al ítem. Se recomienda añadir una columna inicial a la izquierda que incluya un identificador del sujeto (“Sujeto1”, “Sujeto2”, “Sujeto3”…o “ID1”, “ID2”, “ID3”…).
- Obtener la matriz de aciertos/errores: es decir, a partir de la matriz anterior, debe obtenerse, y aportarse en el trabajo, una segunda matriz en donde cada una de las respuestas directas sea sustituida por “0” (en caso de respuesta incorrecta) o “1” (en caso de respuesta correcta”).
- Cálculo de la puntuación total de cada sujeto en la prueba: finalmente, a la matriz de aciertos/errores, se le añadirá una columna adicional que contendrá la puntuación total de cada sujeto en la prueba. Para simplificar los posteriores análisis, se permite calcular la puntuación total como simple suma de aciertos del sujeto a lo largo de la prueba (es decir, sin hacer la corrección por azar = los fallos no restan).
- Calcular el Índice de Dificultad (ID’), para todos y cada uno de los ítems que componen la prueba. En este caso, sí que se exige que se calcule aplicando la corrección debida a los efectos del azar. Se pide igualmente representar de manera gráfica cómo evoluciona el ID’ a lo largo de los ítems de la prueba. o Escoger 1 de los ítems de la prueba (se recomienda escoger un ítem de dificultad media), y sobre el mismo calcular:
- Índice de Discriminación (D). Para simplificar, por ejemplo en el caso de tener 20 sujetos, se puede coger como ‘extremo superior’ el 25% de sujetos (=5 sujetos) con mayor puntuación en la prueba, y como ‘extremo inferior’ el 25% de sujetos (=5 sujetos) con menor puntuación en la prueba.
- Índice de Homogeneidad (IH). Se recomienda utilizar el procedimiento de correlación ítem – total (excluido el ítem).
- Análisis de los Distractores. Es decir, comprobar la equiprobabilidad de los distractores mediante la prueba Ji-Cuadrado.
- Calcular la fiabilidad de la prueba en su conjunto, como consistencia interna. Se admite tanto el procedimiento de las dos mitades como el alfa de Cronbach.
- Definir un criterio externo relevante para estudiar la validez criterial de la prueba. (Por ejemplo, “nota media en Matemáticas obtenida en la última evaluación de 5º Primaria”). Tras definir de manera justificada el criterio elegido, deberá añadirse a la matriz de acierto/error una nueva columna con la puntuación directa de cada sujeto en dicho criterio (que será necesariamente una puntuación simulada).
- Calcular la validez criterial de la prueba, con respecto al criterio previamente definido. o Baremar la prueba: se pide calcular el valor de los deciles (percentil 10, 20,…, 80, 90) y cuartiles (percentil 25, 50, 75), correspondientes a la puntuación total en la prueba.
- OPCIONAL: De manera opcional, se pide transformar las puntuaciones totales de los sujetos en la prueba a puntuaciones típicas (z).
- Valorar los Índices de Dificultad (ID’) obtenidos:
- ¿Cuáles son los dos ítems más fáciles de la prueba?
- ¿Cuáles son los dos ítems más difíciles? ¿Cuál es el ID’ promedio de la prueba?
- ¿La prueba en su conjunto es de dificultad baja, media, alta?
- ¿Sigue la prueba la recomendación de presentar los ítems en dificultad creciente (los más fáciles al principio y los más difíciles al final)?
- Para el ítem escogido, valorar el Índice de Discriminación (D), el Índice de Homogeneidad, y la equiprobabilidad de sus distractores.
- En conjunto, ¿cómo valorarías la calidad de este ítem?
- ¿lo incluirías en una próxima versión perfeccionada de tu prueba? ¿Por qué?
- Valorar la fiabilidad de la prueba:
- ¿Cómo dirías que es la fiabilidad de tu prueba? ¿Excelente, Buena, Aceptable, Cuestionable…?
- Dada la fiabilidad encontrada, ¿crees que puedes extraer conclusiones de tus resultados?
- En caso de que tu prueba tenga una fiabilidad por debajo de 0,80, ¿cómo podrías incrementarla?
- Valorar la validez criterial de la prueba:
- ¿Cómo dirías que es la validez criterial de la prueba? ¿Cómo interpretas el valor de validez criterial que has obtenido?
- Aplicación práctica de la baremación realizada:
- ¿Qué sujetos se encuentran por debajo del percentil 20?
- ¿les aplicarías alguna medida educativa especial?
- ¿qué sujetos se encuentra por encima del percentil 80?
- ¿les aplicarías alguna medida educativa especial?
- Valoración global de la prueba construida.
- ¿Cuáles crees que son los puntos fuertes de tu prueba?
- ¿Cuáles son sus puntos débiles?
- ¿Cómo crees que se podría mejorar para el futuro?
- ¿Qué has aprendido?
- ¿Qué competencias has adquirido?
- ¿Cómo relacionas dichas competencias con tu futuro perfil profesional de pedagogo/a?
- ¿Tienes algún comentario o sugerencia al respecto de esta “Práctica A”?
La “Práctica A” será calificada en la convocatoria ordinaria por el Tutor/a del Centro Asociado (y por el Equipo Docente de la Sede Central en la convocatoria extraordinaria), a través de la plataforma virtual, en una escala de 0 a 10 puntos. Para evaluar la práctica, se aplicarán los siguientes criterios:
- Adecuado diseño y construcción de la prueba: 20% de la calificación.
- Adecuada aplicación y puntuación de la prueba: 20% de la calificación.
- Adecuado análisis de las propiedades métricas: 30% de la calificación.
- Adecuada valoración de las propiedades métricas: 20% de la calificación.
- Adecuada reflexión final: 10% de la calificación.
Formato de Entrega: MUY IMPORTANTE: La “Práctica A” se debe entregar en formato Word (.doc, .docx), y con las matrices de datos en formato de tabla editable (no como imagen), de forma que el Tutor/a o Equipo Docente pueda copiar/pegar dicha información en una hoja de cálculo para hacer las comprobaciones necesarias.
Se recomienda letra Times New Roman, tamaño de 12 puntos, interlineado 1,15 o 1,5.
La extensión orientativa del trabajo es de 15-20 páginas (sin contar anexos).
Comentarios
Publicar un comentario