Análisis de las pruebas de ensayo en geografía. Basado en los resultados de las pruebas de prueba.

Análisis de las pruebas de ensayo en geografía.  Basado en los resultados de las pruebas de prueba.

Análisis de los resultados de las pruebas de prueba.para el 28.10.09 Institución Estatal “Escuela Secundaria No. 6” 11º grado.

1. En las pruebas participaron 30 estudiantes de 30, lo que representa el 100% de los estudiantes graduados.

2. La puntuación media es 77,8, que es 0,1 puntos más que el resultado de la última prueba, la calidad del conocimiento es -20%, que es un 10% más baja que los resultados de la última prueba. éxito académico 100%.

A) Dinámica positiva de la puntuación media y la calidad del conocimiento en las materias:

idioma ruso GPA-19, que es 1 punto más que el resultado de la prueba anterior, calidad -90%, rendimiento académico -100%, profesora - Dmitrieva T.M.;
Temas que caen:

Sección de morfología y ortografía;

Sintaxis y puntuación:

Estilos de habla;

Causas:

la etapa de repetición introductoria del curso de idioma ruso de la escuela básica no se ha completado

  • Geografía la puntuación media es 11,9%, un 1,9% más que el resultado de la última prueba, la calidad -42,9, un 42,9% más que el resultado de la última prueba, el rendimiento académico -100%, el profesor - Zhezher L.S.;
    Temas que caen:

Áreas naturales del mundo y la República de Kazajstán;

"Estructura de la corteza terrestre"

Causas:

Muchos estudiantes no se han decidido del todo por la elección de la quinta asignatura;

No se ha completado la etapa de repetición introductoria del material.

B) Dinámica negativa del puntaje promedio y la calidad del conocimiento en las materias:

. idioma kazajo puntuación promedio - 18, que es 0,2 inferior a la anterior, calidad 90%, que es superior a la anterior en un 3,3%, rendimiento académico - 100%, profesora - Mamelbaeva G.S., Kuishinova Zh.T.

Temas que caen:

  • comprensión de términos lingüísticos;
  • unidades fraseológicas;
  • sintaxis;

- Causas:

Limitado léxico

. Matemáticas el puntaje promedio es 11,5, que es 0,5 menor que el resultado de la prueba anterior, calidad -50, que es un 3,3% menor que el resultado de la última prueba, rendimiento académico -100% docente - Matais T.V.;
Temas que caen:

Problemas de texto para componer ecuaciones y sistemas de ecuaciones;

Progresión;

Ecuaciones y desigualdades irracionales;

Logaritmos, expresiones logarítmicas, ecuaciones y desigualdades;

- Causas:

Material fallido;

La etapa introductoria de repetición no se ha completado;

Falta de motivación para aprender fórmulas matemáticas.

. Historia de k. puntaje promedio - 14, calidad - 53,3%, que es un 10% más bajo que el resultado de la última prueba, rendimiento académico - 100%, profesor - Guseva E.E.; Temas que caen:

Período soviético en la historia de Kazajstán:

Reformas administrativo-territoriales del siglo XIX;

Tribus y uniones tribales en el territorio del antiguo Kazajstán.
Causas:

Nivel insuficiente de autoformación de los estudiantes;

Bajo nivel de motivación de los estudiantes;

Gama irrazonablemente amplia de cambios en el contenido de las preguntas en las colecciones de pruebas
diferentes años;

Una gran cantidad de preguntas demasiado detalladas cuyas respuestas son diferentes.
diferentes fuentes, mientras que los detalles menores se destacan.

. Física el puntaje promedio es 10.1, que es 0.6 menor que el resultado de la prueba anterior, calidad -20, que es un 5% menor que el resultado de la última prueba, rendimiento académico -100%, maestro - T.I. Galoton;
Temas que caen:

Primera Ley de la Termodinámica;

Navegación según cartas;
- Ley de Coulomb;

Trabajar con gráficos;

Ecuación básica de MKT.
Causas:

Falta de sistema de autoformación;

Mayor nivel de ansiedad;

. Biología puntaje promedio - 17, calidad -87,5, que es un 3,4% más bajo que el resultado de la última prueba, rendimiento académico -100%, maestro - Boyko G.S.;

Temas que caen:

- “Desarrollo de la vida en la Tierra”;

- “Raíz, tallo, hoja”;
- “Líquenes”:

- “Mayor actividad nerviosa”;

Causas:

El material de formación no se ha completado;

Errores en las pruebas;

5. Porcentaje en la elección de la 5ª asignatura:

Física - 33,3%, biología - 26,6%, geografía - 23,5%, idioma extranjero- 16,6% - planes profesionales de egresados.

6. Distribución de estudiantes por número de puntos obtenidos:
0-49 - 1; 50-59-3; 60-70-8; 71-89-11; 90-100-2; 101 y más -4.

8. El número de estudiantes que obtuvieron “4” y “5” al final del año pasado es 15, y
según los resultados de las pruebas de prueba - 6. Tienen una calificación de “3” Belozor I- en historia; Bushuev D - en matemáticas, historia K, física; Kolesnichenko K - en matemáticas.; Pleshakova E - en física, historia K; Solovyova E - en física; Shumyakova N - en física, historia K; Yatsenko V - en física; Kulinich K - en matemáticas; Vakalov A - en física, historia K.

Formas de resolver problemas:

1. Debido a la creciente complejidad de las tareas de prueba, continuar analizando el sistema de repetición de los materiales y trabajos de los estudiantes cubiertos en la nueva colección de Pruebas 2009. Estructurar los errores cometidos por los estudiantes y organizar la repetición temática. Ajustar planes de preparación de la UNT.

2. Introducir técnicas racionales para la memorización de fórmulas. Profesores de matemáticas y física realizarán una serie de consultas temáticas sobre el desarrollo de técnicas y habilidades para el autocontrol del trabajo realizado. Continuar el taller sobre la resolución de problemas que requieren operaciones secuenciales repetidas, llamar la atención de los estudiantes sobre los cambios en el contenido de las tareas, orientarlos para determinar un algoritmo racional, completar una tarea de prueba, repetir formas racionales operaciones informáticas.

3. Mejorar la calidad de las consultas a los estudiantes.



Desarrollar un algoritmo racional para su uso. materiales de referencia a la tasa.

  1. Sobre la historia de Kazajstán y la geografía, los profesores de asignaturas deben analizar
    capacidades de la biblioteca en materiales periódicos. Ofrecer datos a los estudiantes
    fuentes de información, lograr el estudio y toma de notas de nuevas estadísticas
    datos por secciones del programa.
  2. Realizar un trabajo sistemático y específico con la categoría de estudiantes,
    tener un “tres” según los resultados de las pruebas.

5. La administración escolar debe fortalecer el control sobre la organización y calidad del evento.
profesores de materias trabajo correccional con los estudiantes, para la eficiencia
repetición sistemática de material educativo.

5. Continuar la preparación sistemática para las pruebas en el nuevo formato, tener en cuenta los aspectos negativos de las pruebas de prueba y ajustar los planes de preparación teniendo en cuenta las características de las pruebas en el nuevo formato.

Preparado por Miroshnik N.V.

Una condición importante para realizar pruebas de prueba es obtener resultados estadísticamente confiables, que se garantiza mediante el cumplimiento de una serie de condiciones:

Las pruebas piloto deberían realizarse en varios grupos paralelos*. Al mismo tiempo, se recomienda realizarlo dos veces en cada grupo, pero con la condición de que los sujetos reciban versiones de prueba con tareas que no hayan respondido antes. Es aconsejable que se realicen pruebas piloto repetidas en el mismo grupo en días diferentes;

El número de sujetos en grupos debe ser lo suficientemente grande (al menos 20 personas);

Todos los grupos paralelos deben estar en las mismas condiciones (tiempo asignado para la prueba, ubicación y horario*);

Todas las materias dentro de un grupo también deben estar en condiciones idénticas, sin “descuentos” o “indulgencias” para materias individuales. Todos los sujetos deben recibir tareas aproximadamente iguales (paralelas) en complejidad;

El tiempo asignado a las pruebas de prueba debe ser tal que los más preparados tengan tiempo para responder todas las preguntas de la prueba*;

Para obtener resultados confiables, se debe minimizar la posibilidad de incitaciones entre los sujetos.

Las pruebas de prueba utilizando un programa especializado y una PC están sujetas a aproximadamente los mismos requisitos que las pruebas "en papel".

Análisis de los resultados de las pruebas de prueba y selección de pruebas de prueba.

Tareas

Matriz de resultados de pruebas

Después de la prueba de prueba, se verifican las respuestas de los examinados y se procesan los resultados de la prueba. El procesamiento de los resultados debe comenzar con la compilación de matrices de los resultados de las pruebas (en una versión informática de las pruebas, dichas matrices deben ser creadas automáticamente por el programa). Es muy importante que por el número de la versión del examen y el número de la tarea que contiene, sea posible determinar sin ambigüedades qué tareas realizó el examinado. Esto es necesario para, como se señaló anteriormente, excluir del conjunto general precisamente aquellas tareas que no pueden llamarse de prueba.



Se recomienda preparar las matrices de resultados de las pruebas utilizando una PC, por ejemplo, un procesador de hojas de cálculo Excel, lo que facilitará significativamente el procesamiento de datos y la verificación de las propiedades estadísticas de cada tarea. En la tabla se da un ejemplo de dicha matriz. 3.4.

Tabla 3.4 – Matriz* de resultados de pruebas en un grupo de 10 personas

(para todas las tareas regla general evaluaciones: respuesta correcta – 1, incorrecta – 0)

Artículo No. Apellido Opción de prueba no. Número de tarea (las tareas están numeradas y ordenadas en orden de dificultad creciente: No. 1 /más fácil/ ® No. 10 /más difícil/) Puntuación total de la prueba
Abramov
Dmitriev
Vasíliev
Borísov
Shchetinin
Zykov
grigoriev
Kirillov
Ivánov
Zhúkov
S -

En la matriz de resultados de la prueba (Tabla 3.4), las líneas con los resultados de los examinados deben disponerse en orden descendente de la suma de los puntos obtenidos durante la prueba, es decir, en la primera línea está el estudiante más fuerte, en la última, el más débil. En las columnas de la tabla que contiene las puntuaciones de los sujetos de la prueba para cada una de las tareas de la prueba, las tareas deben ordenarse en orden de dificultad creciente, es decir, desde lo más fácil hasta lo más difícil.

Línea inferior de la tabla. 3.4 contiene la suma de los puntos obtenidos por todos los sujetos para cada una de las 10 tareas de la prueba. Es esta suma (más precisamente, su valor inverso) la que en el caso general sirve medida de dificultad tareas y el criterio por el cual una tarea en particular recibe su lugar (número ordinal) en el sistema de tareas de prueba. Inicialmente, como se mencionó anteriormente, el profesor determina la dificultad de las tareas basándose en su propia experiencia. La fila inferior de la matriz de resultados de la prueba contiene más de evaluación objetiva la dificultad de las tareas, que en algunos casos puede no coincidir con la opinión inicial del profesor. En tal situación, una tarea cuya dificultad difiera de la esperada originalmente debe colocarse en un lugar diferente, asignándole un nuevo número correspondiente a su dificultad. En este caso, se deben tener en cuenta las respuestas a la misma tarea obtenidas en otros grupos (paralelos) de sujetos.

análisis estadístico resultados de pruebas y selección de tareas

Para inclusión en pruebas.

En mesa La Tabla 3.5 muestra algunos indicadores calculados en base a los resultados de las pruebas de prueba.

Tabla 3.5 - Análisis de los resultados de las pruebas*

INDICADORES Número de empleo
Número de respuestas correctas
Número de respuestas incorrectas
Proporción de respuestas correctas, pag j 0,8 0,7 0,6 0,5 0,5 0,4 0,3 0,2
Proporción de respuestas incorrectas, q j 0,2 0,3 0,4 0,5 0,5 0,6 0,7 0,8
Dificultad potencial q j/ pag j 0,00 0,25 0,43 0,67 1,00 1,00 1,50 2,33 4,00 -
Dispersión de puntos, pagq j 0,16 0,21 0,24 0,25 0,25 0,24 0,21 0,16
Coeficiente de correlación de las puntuaciones de la tarea con las puntuaciones totales de toda la prueba - 0,41 0,62 0,75 0,82 0,82 0,75 0,62 0,41 -

El más importante de los enumerados en la tabla. 3.5 indicadores son:

1) potencial de dificultad;

2) dispersión de puntajes;

3) el coeficiente de correlación de las puntuaciones de la tarea con las puntuaciones totales de toda la prueba.

Estos indicadores son los criterios mediante los cuales se puede juzgar si una tarea en forma de prueba se puede utilizar en las pruebas, es decir, ser llamado tarea de prueba .

El primer indicador cumple con el requisito (ver sección 1.2) dificultad conocida tareas. Como se puede ver en la tabla. 3.5, las tareas No. 1 y No. 10 no cumplen con este requisito, lo que implica la necesidad de su "revisión" por parte del desarrollador para identificar las razones (la tarea es demasiado fácil o demasiado difícil, está formulada incorrectamente, contiene un " pista” en las opciones de respuesta, es percibida incorrectamente por los examinados, etc.). P.). Después de la "revisión", la tarea se reelabora o se elimina y no se utiliza en las pruebas.

Igualmente importante es la dispersión de las puntuaciones, que puede servir como indicador capacidad diferenciadora tareas, es decir su capacidad para dividir un grupo de sujetos en fuertes y débiles. Cuanto mayor sea la dispersión de puntuaciones, mejor será la capacidad diferenciadora de la tarea. Sin embargo, las tareas con un valor de dispersión bajo (por ejemplo, las tareas 2 y 9) también se pueden utilizar en las pruebas (teniendo en cuenta el valor del coeficiente de correlación con las puntuaciones totales de toda la prueba). Estas tareas permiten separar más claramente a los que no están preparados en absoluto de los que saben con "3" y, en consecuencia, a los que saben con "5", de los que "no alcanzan" la puntuación máxima.

El tercer indicador es coeficiente de correlación de las puntuaciones de la tarea con las puntuaciones totales de toda la prueba , es lo mas importante. Si su valor es pequeño, entonces, aparentemente, puede prescindir de la tarea correspondiente en la prueba. Por el contrario, las tareas con un valor grande del coeficiente especificado (por encima de 0,7) pueden considerarse tareas "principales" o "formadoras de pruebas", "clave" para una disciplina determinada o su sección. Se recomienda incluir la tarea en la prueba siempre que el coeficiente de correlación no sea inferior a 0,25-0,3.

Para calcular el coeficiente de correlación en nuestro caso, la fórmula más conveniente parece ser

¿Dónde está la puntuación de la tarea? - puntuación total de la prueba; - número de sujetos en el grupo.

Por ejemplo, calculemos el coeficiente de correlación de las puntuaciones de la tarea número 5 con las puntuaciones totales de las pruebas en relación con la matriz de resultados de las pruebas que figura en la Tabla 3.4 (consulte la Tabla 3.6).

Tabla 3.6 – Cálculo del coeficiente de correlación S

Cuando se utiliza tecnología informática para analizar los resultados de las pruebas, es recomendable utilizar la función correspondiente del procesador de hoja de cálculo Excel para calcular los coeficientes de correlación.

No menos importante es la comparación de los resultados de las pruebas obtenidos en grupos paralelos (diferentes). Esta comparación se realiza comparando los potenciales de dificultad, las variaciones y los coeficientes de correlación de las puntuaciones de las tareas con las puntuaciones totales de la prueba, que idealmente deberían diferir ligeramente. Diferencias significativas en estos indicadores pueden indicar una baja reproducibilidad de los resultados de la prueba (es decir, en grupos del mismo nivel, la misma prueba arroja resultados diferentes) o un nivel significativamente diferente de preparación de los examinados en diferentes grupos(es decir, los grupos no son paralelos).

El paralelismo de los grupos se puede verificar evaluando la homogeneidad de las varianzas de los resultados totales de la prueba utilizando los criterios estadísticos apropiados: Fisher, Cochran, Bartlett. Según estos criterios, es posible, con suficiente nivel alto Significancia (recomendado 0,05) compruebe cómo los grupos paralelos difieren en el nivel promedio de preparación.

Otra técnica que se puede utilizar al procesar los resultados de las pruebas es combinar los resultados de las pruebas de grupos paralelos. Se recomienda el uso de esta técnica con un número reducido de sujetos en grupos separados, pero antes de “combinar” los resultados, es aconsejable comprobar la homogeneidad de las varianzas según los criterios mencionados anteriormente.

A. S. Kusainova, B. S. Imasheva, K. K. Dosmambetova, L. Z. Karsakbaeva, G. A. Derbisalina, A. U. Baidusenova, A. A. Kauysheva, A. K. Eshmanova

ANÁLISIS DE LOS RESULTADOS DE LAS PRUEBAS DE PRUEBAS DE MÉDICOS INTERNOS

Universidad Médica Estatal de Karaganda, Centro Republicano tecnologías innovadoras educación médica y ciencia

Para implementar el programa estatal “Salamatty Kazajstán”, el Centro Republicano de Tecnologías Innovadoras de Educación y Ciencia Médicas (RCITMOiN) junto con el Departamento de Recursos Humanos y Ciencia del Ministerio de Salud de la República de Kazajstán durante dos años recientes realizó un ensayo de pruebas independientes de médicos internos universidades médicas RK.

Anteriormente, los graduados eran examinados únicamente por las propias universidades, por lo que a menudo existía un enfoque subjetivo para evaluar la calidad de la formación de los pasantes. La razón principal de los altos indicadores sesgados fue la falta de mecanismos efectivos para el control externo de la calidad de la educación. Como muestra la experiencia internacional, en países con sistemas eficientes En educación, incluso con una creciente descentralización, el control de calidad sigue estando estrictamente centralizado.

El control y seguimiento unificados, externos e independientes de la calidad de los servicios educativos en las organizaciones de educación médica pueden tener un impacto significativo en la mejora de la calidad de la educación.

En 2011, el Ministerio de Educación de la República de Kazajstán introdujo cambios y adiciones a la Ley de Educación de la República de Kazajstán, en el artículo 55, con adiciones a los incisos 4, 5 y 6 de la siguiente manera:

"Evaluación externa logros educativos es uno de los tipos de seguimiento de la calidad de la educación independiente de las organizaciones. La evaluación externa de los logros educativos se lleva a cabo para evaluar la calidad de los servicios educativos y determinar el nivel de dominio de los estudiantes en materia educativa. planes de estudio, previsto por el Estándar Estatal de Educación Superior."

De acuerdo con programa estatal Desarrollo de la educación en la República de Kazajstán para 2011-2020. Se introducirá un sistema de evaluación externa de los logros educativos de los estudiantes (EAEA). Está previsto que el procedimiento se lleve a cabo mediante pruebas informáticas utilizando nuevos tecnologías de la información. Este sistema se está introduciendo para evaluar la calidad de los servicios educativos y determinar el nivel de dominio de los programas educativos por parte de los estudiantes.

Durante dos años, RCITMOiN realizó pruebas informáticas en todas las especialidades de la pasantía: terapia, cirugía, obstetricia-ginecología, pediatría, cirugía pediátrica, medicina general, odontología. El objetivo principal de dicho examen independiente es mejorar la calidad de la educación médica.

Análisis comparativo Los resultados de las pruebas realizadas durante dos años mostraron una mejora en los conocimientos teóricos de los graduados. Esto se debió a la calidad de la base de las tareas de prueba y a la mayor responsabilidad tanto de los pasantes como de los profesores. Si comparamos las puntuaciones medias entre las universidades, podemos observar la estabilidad de los indicadores de la Universidad Médica Estatal de Karaganda (la puntuación media en 2010 fue 74,0, que fue el mejor resultado entre las universidades de medicina, y en 2011, 80,3).

En 2011, el número de calificaciones insatisfactorias en todas las universidades disminuyó drásticamente (del 40% en 2010 al 7,5% en 2011). En 2011, en la Universidad Estatal de Medicina de Semey, se observó un porcentaje mínimo de insatisfacción.

Arroz. 1. Resultados de las pruebas (puntuación media de las universidades)

Arroz. 2. Resultados de las pruebas (% de calificaciones insatisfactorias)

Arroz. 3. Resultados de las pruebas (puntuación media por especialidad)

Arroz. 4. Resultados de las pruebas (% de calificaciones insatisfactorias por especialidad)

calificaciones satisfactorias (0,5%).

El análisis de los resultados de las pruebas por especialidad mostró que los peores indicadores de conocimientos teóricos se observaron entre los pasantes que estudiaron en las especialidades "práctica médica general" y "odontología".

Según los resultados de una prueba informática unificada,

formación en 2009-2010 año académico el porcentaje de calificaciones insatisfactorias en todas las especialidades de prácticas fue del 34,8%, la puntuación media fue de 63,0. En el año académico 2010-2011, el porcentaje de calificaciones insatisfactorias en todas las especialidades disminuyó al 7,1% y la puntuación media aumentó a 80,0.

Medicina y ecología, 2012, 2.

En 2011, la comisión de apelación estaba centralizada y trabajaba sobre la base de RCITMO-iN, lo que afectó la calidad del trabajo. Si en 2010 la comisión de apelación se creó en base a cada universidad y estaba formada por el profesorado de la misma institución educativa y casi todas las solicitudes presentadas fueron satisfechas, luego, en 2011, representantes de todas las universidades médicas se convirtieron en miembros de una única comisión de apelación centralizada. Con tal organización del trabajo de la comisión de apelación, el porcentaje de apelaciones satisfechas fue sólo del 16,9%.

Durante las pruebas informáticas, se identificaron algunos problemas. Por lo tanto, había un número insuficiente de testólogos y expertos capacitados, existía el peligro de un "sesgo" hacia la capacitación de pasantes para resolver problemas de pruebas a expensas de la capacitación clínica, el uso de medios de comunicación por parte de los pasantes durante las pruebas y la falta de un marco regulatorio legítimo.

Según los autores, las formas de resolver los problemas identificados deberían buscarse mediante la celebración de seminarios de formación para testólogos y expertos, la aprobación de una lista de expertos capacitados, la realización de certificaciones independientes de habilidades prácticas (el examen no debe limitarse únicamente a las pruebas), la compra y utilizar durante las pruebas medios que interfieran en las comunicaciones celulares.

El análisis de los resultados de las pruebas informáticas durante 2 años mostró que realizar exámenes a los pasantes puede convertirse en una herramienta eficaz para la evaluación independiente de los conocimientos de un graduado universitario. Sobre esta base, la evaluación de conocimientos puede tomarse como base para un mayor desarrollo de un sistema de evaluación externa de los logros educativos de los graduados en educación médica. En este caso, es de gran importancia incrementar la responsabilidad del profesorado por la formación de calidad de los especialistas.

Recibido el 07/05/2012

A. S. Kusainova, B. S. Imasheva, K. K. Dosmambetova, L. Zh. Karsakbayeva, G. A. Derbisalina, A. U. Baydusenova, A. A. Kauysheva, A. K. Yeshmanova ANÁLISIS DE LOS RESULTADOS DE LAS PRUEBAS DE INTERNOS MÉDICOS

El análisis de los resultados de las pruebas informáticas de 2 años ha demostrado que la realización de exámenes internos puede convertirse en una herramienta eficaz para la evaluación independiente de los conocimientos de la escuela de posgrado. En consecuencia, la certificación de conocimientos puede tomarse como base para un mayor desarrollo de la evaluación externa de los logros educativos de los graduados en educación médica. De gran importancia es la mayor responsabilidad del profesorado por la calidad de la formación.

A. S. Kusayynova, B. S. Imasheva, K. K. Dosmambetova, L. Zh. Karsatsbaeva, G. A. Derbkalina, A. U. Bayduysenova, A. A. Kauysheva, A. K. Eshmanova D6R1GER-INTERNDERD1 SONA TEST1LEUDSH N6TIZHELER1N TALDAU

EKi zhylry computerlk testsheu netizhelersh taldauy internderge emtihandar etyuzudsch zhorary oku orny tYlekterinich 6miMiH teuelaz baralau kuraly bola alatynyn kersetken. Soran baylanysty, etyuztgen 6miM certificadotauyn medicallyk 6miM berudep oku zhepspktermsch syrtky baralau zYYesin odan eri damytura negiz retinde kabyldaura bolada. Bul rette profesor-okytushylar kuramynych mamandardy sapali dayarlaudar zhauapkershiligin arttyrudych machyzy zor.

resultados de la prueba

Los resultados de las pruebas deben interpretarse de manera coherente con el propósito de la prueba (consulte la Tabla 4.1).

Tabla 4.1 - Áreas de aplicación de las pruebas, finalidad de las pruebas e interpretación de sus resultados

Ámbito de aplicación

pruebas

Propósito de la prueba

Interpretación

resultados de la prueba

Selección profesional

Selección de quienes mejor cumplen con los requisitos, con conocimientos y habilidades críticas para la profesión.

Ranking de materias según el nivel de idoneidad profesional, competencia, análisis integral de resultados.

Prueba de ingreso

Selección de los más preparados (definición puntaje de aprobación), identificando lagunas en la estructura del conocimiento.

Clasificación de materias por nivel de preparación, procesamiento estadístico de resultados.

Determinación del “lugar” en el grupo para cada asignatura de acuerdo con los criterios seleccionados

Clasificación de sujetos según el parámetro medido, procesamiento estadístico de resultados.

Control actual* 14, monitoreo

Seguimiento del progreso proceso educativo, identificación de lagunas en la estructura del conocimiento de los sujetos e identificación de posibles razones de su aparición.

Análisis de la estructura y perfil del conocimiento, procesamiento estadístico de resultados.

Remoto

educación

Estímulo actividad cognitiva estudiantes, aumentar la motivación para aprender, rastrear el progreso del proceso educativo, identificar lagunas en la estructura del conocimiento de las materias y descubrir las posibles razones de su aparición.

Ranking de materias por nivel de preparación, análisis por parte del docente (tutor) de la estructura y perfil del conocimiento, procesamiento estadístico de resultados.

Autoestudio (libros de texto multimedia, programas de formación, etc.)

Estimular la actividad cognitiva de los estudiantes.

Los resultados de las pruebas son interpretados por los sujetos de la prueba de forma independiente o con "indicaciones" del programa.

Como se desprende de la tabla. 4.1, la prueba debe considerarse como una unidad: 1) método; 2) resultados obtenidos mediante un determinado método; y 3) resultados interpretados obtenidos mediante un método particular.

La interpretación de los resultados de las pruebas se realiza principalmente basándose en la media aritmética, los indicadores de variación de las puntuaciones de las pruebas y las llamadas normas porcentuales, que muestran qué porcentaje de sujetos tienen un resultado de prueba peor que el del sujeto de interés.

Durante las pruebas de acceso, la selección profesional o la determinación de una calificación en un grupo, la tarea principal al interpretar los resultados es clasificar a los examinados según su nivel de preparación. Al monitorear o Control actual una tarea más importante es analizar la estructura y el perfil del conocimiento. Cuando se trabaja de forma independiente (educación a distancia, aprendizaje utilizando libros de texto multimedia, etc.), el objetivo principal de las pruebas es estimular la actividad cognitiva de los estudiantes, darles la oportunidad de evaluar sus propios éxitos e identificar lagunas en los conocimientos adquiridos.

Independientemente del alcance de la prueba, los resultados de la prueba deben someterse a procesamiento estadístico para determinar las características principales de los elementos de la prueba, verificar la confiabilidad de las mediciones y la validez de los resultados de la prueba.

Pruebas de ingreso. El procesamiento primario de los resultados obtenidos durante las pruebas de ingreso se reduce a compilar una tabla (matriz) de resultados de las pruebas de acuerdo con las reglas descritas anteriormente (ver Tabla 3.4). Esto permite no sólo evaluar claramente el nivel y la estructura de preparación de los sujetos de la prueba, sino también identificar a los "más fuertes" del grupo sometido a la prueba.

Como se señaló en el Capítulo 3, lo ideal sería que la distribución de las puntuaciones de las pruebas bien diseñadas fuera cercana a lo normal (razonablemente). grandes grupos– al menos 20 personas). En la Fig. La figura 4.1 muestra, a modo de ejemplo, la distribución de los puntos obtenidos durante la prueba de acceso en un grupo de 80 personas. La tarea consistía en seleccionar a 50 de las personas más preparadas de este grupo. La prueba contenía 24 tareas, se otorgaba 1 punto por cada respuesta correcta. Con base en la suma de los puntos obtenidos, el comité de selección identificó a las primeras 50 personas que obtuvieron la mayor cantidad de puntos y determinó una puntuación aprobatoria (en este ejemplo, 11 puntos).

Arroz. 4.1 - Determinación de la puntuación para aprobar las pruebas de acceso (ejemplo).

El número máximo posible de puntos en este ejemplo es 24.

El ejemplo mostrado en la Fig. 4.1 es en cierto sentido “ideal”. Entonces, si en el mismo ejemplo fuera necesario seleccionar no 50, sino 52 personas (o por ejemplo 47 personas), surgirían problemas al establecer una puntuación para aprobar. ciertas dificultades– con un valor inferior (10 puntos), habría más personas que aprobaron la prueba de las necesarias y viceversa. En esta situación, se puede proponer la siguiente solución: el comité de admisiones establece una puntuación de aprobación más alta, en la que el número de personas que aprueban el examen es menor que el requerido. La comisión selecciona el número de personas que faltan entre aquellas que no alcanzaron la calificación aprobatoria. En este caso, se da preferencia a quienes mejor cumplan con los requisitos (por ejemplo, tener experiencia laboral en la especialidad elegida, beneficios al ingreso, mayor puntaje promedio en documentos de educación básica, etc.). A estas mismas personas se les puede ofrecer realizar cursos preparatorios, etc., pagando una tarifa adicional.

Durante las pruebas de ingreso, además de determinar la puntuación para aprobar, es muy importante un análisis de la estructura y el perfil del conocimiento (se discutirá más adelante).

Control de corriente (seguimiento). Las pruebas para el control y seguimiento de la corriente se crean según los mismos principios que las pruebas para otros fines. Pero el objetivo principal de las pruebas en este caso es rastrear el progreso del proceso educativo, identificar lagunas en la estructura del conocimiento, distorsiones en el perfil de conocimientos de cada uno de los examinados y aclarar posibles razones su apariencia.

Bajo estructura del conocimiento En general, se debe entender un grado de integridad de los conocimientos y habilidades de un estudiante que cubra uniformemente todas las secciones de la disciplina (o varias disciplinas) y permita a los sujetos completar con éxito las tareas de prueba, independientemente de a qué sección de la disciplina pertenezcan.

Si un sujeto completa tareas (incluidas las bastante difíciles) relacionadas con una sección de la disciplina y no puede completar tareas en otra sección (incluidas las de baja dificultad), esto indica una violación (lagunas) en la estructura del conocimiento. Es bastante obvio que tales trastornos pueden ser individuales u observarse en un número suficientemente grande de sujetos. En este último caso, es necesario analizar los motivos de la aparición de lagunas (mala presentación del apartado o disciplina separada, falta o falta de apoyo metodológico, etc.) y tomar medidas para eliminarlos.

Una condición necesaria para obtener información confiable sobre la estructura del conocimiento es la representatividad de los ítems de la prueba en relación con la cantidad de conocimiento que se prueba con su ayuda. En otras palabras, las tareas incluidas en la prueba deben cubrir de manera suficientemente completa y uniforme todas las secciones de la disciplina, curso, etc. En este caso, es deseable que cada sección de la disciplina esté representada por varias tareas de distintos niveles de complejidad.

Para facilitar el análisis de la estructura del conocimiento, es aconsejable organizar los resultados de las pruebas en una matriz como se muestra en el ejemplo (Tabla 4.2). En este ejemplo, cada sección de la disciplina está representada en la prueba por cinco tareas de distintos niveles de dificultad. Los resultados del sujeto No. 2, que completó las tareas de prueba según la opción No. 7, mostraron un desconocimiento casi total de la sección 2 de la disciplina, mientras que más o menos hizo frente a las tareas de la sección 1. En tales casos, hablan de lagunas en la estructura del conocimiento.

Término perfil de conocimiento , que los testólogos llaman la totalidad de puntos en cada fila de la tabla de resultados de la prueba, se puede ilustrar con el ejemplo que se muestra en la tabla. 4.3 (fragmento de matriz de la Tabla 3.4).

Tabla 4.2 – Análisis de la estructura del conocimiento a partir de la matriz de resultados de las pruebas

No. opciones de prueba

Calificaciones de las tareas de prueba por secciones de la disciplina (dentro de cada sección, las tareas están ordenadas en orden de dificultad creciente)

Sección 1

Sección 2

Tabla 4.3 – Perfiles de conocimiento distorsionados (línea No. 6) y no distorsionados (líneas No. 5 y No. 7)

No. opciones de prueba

Calificaciones de las tareas de prueba (las tareas están ordenadas en orden de dificultad creciente: No. 1 /más fácil/  No. 10 /más difícil/)

Puntuación total de la prueba

Como puede verse en el ejemplo, los sujetos cuyos resultados están en las líneas 5 y 6 obtuvieron la misma cantidad de puntos en la prueba, sin embargo, el sujeto No. 5 hizo frente a las primeras 5 tareas más fáciles, sin hacer frente al resto. Los resultados del sujeto número 6 son algo ilógicos: al no poder hacer frente a tareas relativamente fáciles al comienzo de la prueba, logró completar tareas más difíciles. En tales casos, se habla de un perfil de conocimiento distorsionado (invertido).

Las razones de las distorsiones en el perfil de conocimientos pueden ser muy diferentes: una prueba mal diseñada, características psicológicas individuales de la persona examinada, baja calidad de la enseñanza, falta de apoyo metodológico y literatura, etc. Según el prof. V.S. Avanesov y otros especialistas en pruebas, La tarea de una buena educación es generar perfiles de conocimiento correctos (no distorsionados)..

El análisis de la estructura y el perfil de conocimientos durante las pruebas de acceso y el control continuo (seguimiento) permite a los profesores tener una idea general del nivel de preparación de los examinados, identificar rápidamente lagunas de conocimientos, errores en los métodos de enseñanza y tomar las medidas adecuadas. En las instituciones educativas que implementan sistemas de gestión de la calidad, el seguimiento constante del proceso de aprendizaje utilizando tecnologías de prueba debería ser una de las principales herramientas para el ajuste (mejora) constante del proceso educativo.

La educación a distancia. EN sistemas existentes aprendizaje a distancia (SDO “Prometheus”, “KhPI de clase web”, Lotus Learning Space, etc.), por regla general, se proporciona un seguimiento actual y final del dominio del material educativo. El control se puede realizar mediante un programa de prueba separado, o los módulos (programas) para la prueba se integran directamente en cursos a distancia.* 15 En este último caso, el curso a distancia podrá utilizarse para trabajo independiente, sin la participación de un docente.

Los sistemas de educación a distancia, o los propios cursos a distancia, deben estar equipados con programas que sean “capaces” no sólo de guardar los resultados de las pruebas de cada materia, sino que también permitan al profesor (tutor) o desarrollador del curso realizar su procesamiento estadístico en un tiempo mínimo. gastados para determinar la confiabilidad de la medición pedagógica y la validez de los resultados de las pruebas. Desafortunadamente, no todos los sistemas de educación a distancia utilizados brindan esta oportunidad.

Las pruebas desarrolladas para su uso en la educación a distancia están sujetas a los mismos requisitos que las pruebas de control continuo (seguimiento).

Trabajo independiente. Como señalan los expertos, las pruebas bien desarrolladas tienen un alto potencial de aprendizaje, lo que puede aumentar significativamente la motivación para aprender y, en consecuencia, aumentar su eficacia. EN Últimamente En el proceso educativo se utilizan cada vez más material didáctico como cursos de formación, libros de texto multimedia, simuladores electrónicos, etc., que pueden denominarse publicaciones electrónicas educativas (EEP). Su principal ventaja es la posibilidad de aprendizaje independiente con una mínima intervención del profesor. La IE debe contar con pruebas para el control actual y final, y preferiblemente aquellas que permitan al estudiante no solo ver qué es exactamente lo que no sabe, sino también "explicar" por qué tal o cual respuesta es incorrecta y "recomendar" volver a la sección apropiada para volver a estudiarla.

Las pruebas de IE, así como las pruebas para otros fines, deben ser representativas de la totalidad de los conocimientos y habilidades que se evalúan. No menos importante es la prueba preliminar de las tareas incluidas en estas pruebas para determinar su dificultad y otras características. Al tener información sobre la dificultad de cada tarea, el desarrollador de IE puede asegurarse de que durante la prueba el programa se las "entregue" al sujeto de prueba según el principio "de la más fácil a la más difícil". En este caso, es deseable tener un número suficientemente grande de tareas paralelas para que, durante las pruebas repetidas, el examinado reciba nuevas tareas que no haya completado antes.

En los libros de texto multimedia y otros materiales educativos, por regla general, no es necesario guardar los resultados de las pruebas y, además, realizar su procesamiento estadístico. La principal tarea de las pruebas utilizadas en la IE es estimular la actividad cognitiva del estudiante y ajustar su “trayectoria de aprendizaje” individual.

REFERENCIA

basado en el análisis de los resultados de las pruebas de diagnóstico de prueba en el formato del Examen Estatal Unificado en matemáticas, lengua rusa y materias optativas
De acuerdo con el plan de preparación para la certificación estatal (final) de los egresados ​​​​de 11º grado, aprobado por orden del Gimnasio No. 353 de 20 de septiembre de 2012. y orden No. 406 de 20 de octubre de 2012. “Sobre la realización de pruebas de diagnóstico de prueba en el formato del Examen Estatal Unificado para graduados del 11º grado” con el fin de preparar a los graduados del 11º grado para aprobar la certificación final estatal, practicar habilidades para trabajar con formularios del Examen Estatal Unificado, trabajar con pruebas, participaron los estudiantes del 11º grado en pruebas de diagnóstico en lengua rusa, matemáticas y materias optativas.

Dotación de personal




Artículo

Nombre del profesor

Categoría

Matemáticas

Safonova L.G.

categoría 1er trimestre

idioma ruso

Ziyatdinova A.I.

categoría de calificación más alta

Física

Gilmanova N.N.

categoría 1er trimestre

Ciencias Sociales

Kuzyukova O.V.

categoría de calificación más alta

Ciencias de la Computación

Salakhieva E.M.

categoría 1er trimestre

Historia

Karametdinova R.F.

categoría 1er trimestre

idioma en Inglés

Ismagilova G.I., Shamseeva A.D.

categoría 1er trimestre

Biología

Kropacheva L.L.

categoría de calificación más alta

Química

Yuskaeva Ch.M.

categoría 1er trimestre

Así, en el 11º grado paralelo trabajan profesores cualificados.

Paralelamente al undécimo grado, en el año académico 2012/2013, 45 graduados estudian en dos clases. En las pruebas diagnósticas participaron un total de 40 estudiantes (89% del total).

41 de 45 estudiantes de 11º grado participaron en pruebas de diagnóstico en idioma ruso (esto es el 91% de numero total). Amirova R., Badertdinova L., Yakubova A., Bilyalov A. no participaron.

Los resultados del Examen Estatal Unificado de prueba en idioma ruso se presentan en la tabla:


Clase

Idioma ruso (mínimo – 36)

por debajo del mín. nivel

Satisfecho.

nivel


Bien. nivel

Excelente nivel

Desempeño académico, %

Calidad, %

Puntuación media

0-35

36-63

64-79

80-100

11A

0

12

3

2

100

29

63,9

11B

0

6

11

7

100

75

72,8

total

0

18

14

9

100

56

69,1

Así, el rendimiento de la prueba en ruso es del 100% y la calidad es del 56%. La puntuación media de las pruebas en idioma ruso es de 69,1 puntos: en 11A - 63,8 puntos, en 11B - 72,8 puntos. Permítanme recordarles que, según la asignación del contrato, la puntuación media en idioma ruso debe ser de al menos 72 puntos. Como puede ver, la tarea no se completó.

En el curso académico 2012/2013, por primera vez en la práctica de un unificado examen de Estado, por orden de Rosobrnadzor del 29 de agosto de 2012 No. 3499-10, se estableció un número mínimo de puntos en todas las materias del Examen Estatal Unificado, lo que confirma que los participantes del examen han dominado lo básico programas de educación general educación general secundaria (completa) de acuerdo con los requisitos del estado federal estándar educativo educación general secundaria (completa). En ruso, el número mínimo de puntos es 36 puntos. En nuestras pruebas de prueba, todos los graduados del 11º grado completaron el trabajo con puntuaciones superiores al umbral. El menor número de puntos lo obtuvieron 3 estudiantes de la clase 11A: Fassakhova A., 11A - 52b., Galiullin B., 11A - 52b., Khalimova A., 11A - 53b.

9 graduados completaron el trabajo, obteniendo más de 80 puntos, pero la mayoría resultados máximos en Plaksin V., 11b – 95b., Gulyaeva T., 11b – 95b., Nechaeva Yu., 11b – 90b., Sitdikov D., 11b – 90b.

En el diagrama se muestran los resultados comparativos con los resultados de las pruebas de diagnóstico en idioma ruso, realizadas por los mismos estudiantes en el último año académico. El año pasado, el 97% de los estudiantes pudieron completar el trabajo satisfactoriamente. Este año – 100%. Es comprensible que el año pasado, al momento de completar el trabajo, los muchachos no estuvieran listos para realizar el trabajo, muchos temas no fueron estudiados. Pero la calidad del trabajo, lamentablemente, se mantiene en el mismo nivel.

Los resultados comparativos también se presentan para las clases por separado. Lo que demuestra que en la clase de humanidades la calidad del trabajo es menor que el año pasado. Aunque esta materia en esta clase se estudia a nivel especializado.

El análisis de errores mostró que en el idioma ruso los estudiantes cometieron errores en tareas relacionadas con el análisis de textos, signos de puntuación, ortografía combinada y separada de palabras, determinación de métodos de formación de palabras, elección de medios lingüísticos de expresión, determinación de tipos. oración compleja. Al completar la tarea Parte C, debido a la lectura distraída del texto, no pudimos formular y comentar correctamente el problema y seleccionar argumentos.
36 de 45 estudiantes participaron en las pruebas de diagnóstico en matemáticas (esto es el 80% del número total). No participaron: Badertdinova L., Farkhutdinova I., Yakubova A., Bilyalov A., Kiyko D., Nechaeva Y., Sklyarov A., Sklyarova V.

Los resultados de las pruebas de prueba en matemáticas se presentan en la tabla:


Clase

Matemáticas (mínimo – 24)

por debajo del mín. nivel

Satisfecho.

nivel


Bien. nivel

Excelente nivel

Desempeño académico, %

Calidad, %

Puntuación media

0-23

24-46

47-64

65-100

11A

1

10

5

0

94

33

37,8

11B

0

7

9

4

100

65

52

total

1

17

14

4

97

53

45,6

Así, el rendimiento en las pruebas de matemáticas es del 97%, la calidad es del 53%. La puntuación media de las pruebas de matemáticas es de 45,6 puntos: en 11A - 37,8 puntos, en 11B - 52 puntos. Permítanme recordarles que, según la asignación del contrato, la puntuación media en idioma ruso debe ser de al menos 57 puntos. Como puede ver, la tarea no se completó.

Según las matemáticas, el número mínimo de puntos se fija en 24 puntos. En las pruebas de prueba, una graduada de la clase 11A no superó el valor umbral: Vakhitova V., 11A – 20b. 1 graduada de la clase 11A Khalimova A. obtuvo exactamente 24 puntos, es decir su actuación está al borde del “2”. Sólo 4 graduados obtuvieron un nivel excelente, de los cuales sólo uno obtuvo más de 80 puntos: Plaksin V., 11B – 81b.

En el diagrama se muestran los resultados comparativos con los resultados de las pruebas de diagnóstico en matemáticas, realizadas por los mismos estudiantes en el año escolar anterior. El año pasado, el 76% de los estudiantes pudieron completar el trabajo por encima del umbral. Este año – 97%. Es comprensible que el año pasado, al momento de completar el trabajo, los muchachos no estuvieran listos para realizar el trabajo, muchos temas no fueron estudiados. Pero los resultados podrían haber sido diferentes si todos los participantes hubieran participado en la prueba (no pretendo juzgar si es mejor o peor).

Los resultados comparativos también se presentan para las clases por separado. Esto demuestra que en la clase de humanidades el desempeño laboral ha aumentado.

El análisis de errores mostró que en matemáticas los estudiantes cometieron errores en tareas: derivada e investigación de una función, transformación de expresiones, problemas de planimetría y estereometría, solución problemas de palabras. En las tareas de la parte C:

Sólo el 35% hizo frente a la decisión. ecuaciones trigonométricas y sistemas de ecuaciones. El principal inconveniente a la hora de realizar. de esta tarea fue que la tarea se resolvió de forma completamente correcta, pero la respuesta se indicó incorrectamente;

el 43% completó la tarea C3: resolver desigualdades;

el 19% completó tareas de geometría;

El 100% no logró completar la tarea con parámetros y solo dos intentaron resolverla (Sitdikov D., Plaksin V.);

La tarea C6 también fue completada únicamente por D. Sitdikov y V. Plaksin.
Se realizaron pruebas de diagnóstico de prueba para estudiantes de 11º grado en materias optativas. Para aprobar el Examen Estatal Unificado en las materias de su elección, los estudiantes eligieron las siguientes materias: física - 15 personas (33% del número total de graduados del 11º grado), estudios sociales - 20 personas (44%), historia - 11 personas ( 24%), inglés – 10 personas (22%), literatura – 8 personas (18%), química – 9 personas (20%), biología – 8 estudiantes (18%), informática – 9 estudiantes (20%).

11 graduados eligieron solo una materia optativa, 25 graduados - 2 materias y 9 graduados - 3 materias.

Los datos sobre el número de personas que participaron en las pruebas de prueba se presentan en la tabla:


artículo

Número de personas que eligieron este elemento para el examen estatal

Número de personas que participaron en las pruebas de diagnóstico

% de los que participaron en las pruebas de diagnóstico

FI de ausentes

física

15

14

93%

Kiiko D.

Ciencias Sociales

20

17

85%

Badertdinova L.,

Farhutdinova I.,

Yakubova A.


historia

11

8

73%

Ivanova K.,

Senkina E.,

Tsaturyan R.


idioma en Inglés

10

10

100%

literatura

6

5

83%

Amirova R.

química

9

8

89%

Bilyalov A.

biología

8

3

37%

Bilyalov A.,

Nechaeva Yu.,

Sklyarov A.,

Sklyarova V.


También se analizó la elección de materias especializadas y clases especializadas correspondientes. En la clase de ciencias sociales y humanidades, 15 estudiantes eligen estudios sociales, lo que representa más de la mitad, e historia, 6 estudiantes. En una clase de física y matemáticas, la mitad de la clase (12 estudiantes) elige física. La elección de las materias indica la implementación del perfil elegido por los estudiantes. Hay alumnos en las clases que no han elegido ninguna de las materias troncales, a excepción de las materias obligatorias. En 11A son Safina I. (ella elige biología, química) y Gainutdinov D. (él elige física). En 11B son Govorukhina I., Tsybulya K. (eligen estudios sociales, historia, inglés), Ivanova K. (historia, inglés, literatura), Ignatieva A., Kaimakov M. (eligen estudios sociales), Senkina E. (historia, inglés), Tsaturyan R. (estudios sociales, historia).

Los resultados de las pruebas de prueba se presentan en las tablas:


Clase

Física (mínimo – 36)

A continuación se muestra el mínimo. nivel

Satisfecho.

nivel


Bien. nivel

Excelente nivel

Desempeño académico, %

Calidad, %

Puntuación media

0-35

36-52

53-67

68-100

11A (3)

1

2

0

0

67

0

38,7

11B (12)

0

3

6

2

100

73

57,7

Total

1

5

6

2

93

62

53,6

Kiiko D., estudiante del grado 11B, no participó en la prueba.

La tasa de éxito de las pruebas de diagnóstico en física es del 93% y la calidad del 62%. La puntuación media de la prueba es 53,6.

Según la orden de Rosobrnadzor del 29 de agosto de 2012 No. 3499-10 en física, el número mínimo de puntos se establece en 36 puntos. En la prueba de prueba, una graduada de la clase 11A no superó el valor umbral: Khalimova A., 11A – 30b. 1 graduada de la clase 11A, Ibragimova A. obtuvo exactamente 36 puntos, el trabajo es muy débil, es decir. su actuación está al borde del “2”. Además, Albina Ibragimova elige este punto "por si acaso". Al igual que Gazetdinov, Albert en 2011 eligió la informática "por si acaso" y, en consecuencia, completó el trabajo con un "2". 2 graduados completaron el trabajo a un nivel excelente y obtuvieron más de 80 puntos: Sitdikov D., 11B - 81b., Plaksin V., 11B - 86b.


Clase

Estudios sociales (mínimo – 39)

A continuación se muestra el mínimo. nivel

Satisfecho.

nivel


Bien. nivel

Excelente nivel

Desempeño académico, %

Calidad, %

Puntuación media

0-38

39-54

55-66

67-100

11A (15)

0

7

5

0

100

42

52,8

11B (5)

1

1

3

0

80

75

55,6

Total

1

8

8

0

94

50

53,6

Badertdinova L., Farkhutdinova I., Yakubova A., estudiantes del grado 11A, no participaron en las pruebas.

La tasa de éxito de las pruebas de diagnóstico en estudios sociales es del 94%, la calidad es del 50%. La puntuación media de las pruebas es de 53,6 puntos.

Según la orden de Rosobrnadzor de 29 de agosto de 2012 No. 3499-10, el número mínimo de puntos en estudios sociales es 39 puntos. En las pruebas de prueba, un graduado del grado 11B no superó el valor umbral: M. Kaymakov – 37b. Vakhitova V., una estudiante del grado 11A, obtuvo exactamente 39 puntos.

El análisis de errores mostró que los estudiantes de estudios sociales cometieron errores en tareas relacionadas con la economía (factores de producción, referencia a realidades sociales e información gráfica). Se producen dificultades a la hora de definir términos y conceptos. En las tareas de la parte C, se encontraron dificultades para enumerar características, fenómenos, utilizar conceptos en un texto determinado y revelar posiciones teóricas mediante ejemplos.

La maestra también notó la peculiaridad del trabajo en que los niños enfrentaron tareas de mayor dificultad y en las tareas nivel básico errores cometidos.


Clase

Historia (mínimo – 32)

A continuación se muestra el mínimo. nivel

Satisfecho.

nivel


Bien. nivel

Excelente nivel

Desempeño académico, %

Calidad, %

Puntuación media

0-31

32-49

50-67

68-100

11A (6)

0

4

1

1

100

33

50,3

11B (5)

0

0

1

1

100

100

66

Total

0

4

2

2

100

50

54,3

Ivanova K., Senkina E., Tsaturyan R., los estudiantes del grado 11B no participaron en las pruebas.

La tasa de éxito de las pruebas de diagnóstico en la historia es del 100%, la calidad es del 50%. La puntuación media de las pruebas es de 54,3 puntos.

Según la orden de Rosobrnadzor del 29 de agosto de 2012 No. 3499-10, el número mínimo de puntos en la historia es 32 puntos. Ibragimova A., estudiante del grado 11A, obtuvo el menor número de puntos: 37 puntos. Como resultado, Albina no está en física ni en historia. aprobar el examen estatal unificado No preparado. Dos estudiantes escribieron trabajos a un nivel excelente, pero ninguno completó el trabajo por encima de 80 puntos. La puntuación más alta entre los participantes en la prueba de historia es de 69 puntos (Saifullina A., Tsybulya K.).

El análisis de errores mostró que los estudiantes de historia cometieron errores en las tareas para establecer la secuencia cronológica de los eventos. Todos los participantes de la prueba experimentaron dificultades al trabajar con diversas fuentes de información. En las tareas de la parte C, hubo dificultades en la capacidad de formular la propia posición sobre los temas en discusión, utilizar información histórica para la argumentación y presentar los resultados de las actividades históricas y educativas en forma libre.


Clase

Idioma inglés (mínimo – 20)

A continuación se muestra el mínimo. nivel

Satisfecho.

nivel


Bien. nivel

Excelente nivel

Desempeño académico, %

Calidad, %

Puntuación media

0-19

20-58

59-83

84-100

11A (6)

0

2

3

1

100

67

66,2

11B (4)

0

0

1

3

100

100

88

Total

0

2

4

4

100

80

74,9

El 100% de los egresados ​​que eligieron esta asignatura participaron en la prueba.

Rendimiento de las pruebas de diagnóstico idioma en Inglés es 100%, la calidad es 80%. La puntuación media de la prueba es de 74,9 puntos.

Según la orden de Rosobrnadzor del 29 de agosto de 2012 No. 3499-10, el número mínimo de puntos en inglés es 20 puntos. Vakhitova V., estudiante del grado 11A, obtuvo el menor número de puntos: 48b. 4 estudiantes escribieron su trabajo a un nivel excelente, tres de ellos obtuvieron calificaciones puntuaciones altas: Govorukhina I., 11B – 97b., Senkina E., 11B – 93b., Ivanova K., 11B – 92b. Farkhutdinova I., grado 11A completó el trabajo con 85 puntos.

Todos los errores cometidos se deben a una lectura desatendida del texto, desconocimiento del vocabulario que se encuentra en el texto. Surgieron dificultades en la comprensión del texto escuchado.


Clase

Literatura (mínimo – 32)

A continuación se muestra el mínimo. nivel

Satisfecho.

nivel


Bien. nivel

Excelente nivel

Desempeño académico, %

Calidad, %

Puntuación media

0-31

32-54

55-66

67-100

11A (5)

0

1

1

2

100

75

62

11B (1)

0

0

1

0

100

100

60

Total

0

1

2

2

100

80

61,6

Amirova R. no participó en las pruebas.

La tasa de éxito de las pruebas de diagnóstico según la literatura es del 100%, la calidad es del 80%. La puntuación media de la prueba es de 61,6 puntos.

Según la orden de Rosobrnadzor del 29 de agosto de 2012 No. 3499-10, el número mínimo de puntos para literatura es 32 puntos. Bagautdinov A., estudiante de la clase 11A, obtuvo el menor número de puntos: 43b. 2 estudiantes escribieron trabajos en un nivel excelente, pero no superior a 80 puntos: Zateeva N., 11A - 73b., Saifullina A., 11A - 73b.

Se cometieron errores al determinar los medios de expresividad de una obra lírica. En las tareas de la parte C no pudieron aportar los argumentos necesarios.


Clase

Química (mínimo – 36)

A continuación se muestra el mínimo. nivel

Satisfecho.

nivel


Bien. nivel

Excelente nivel

Desempeño académico, %

Calidad, %

Puntuación media

0-35

36-55

56-72

73-100

11A (1)

0

1

0

0

100

0

47

11B (8)

0

5

2

0

100

28,5

52,6

Total

0

6

2

0

100

25

51,9

Bilyalov A., Gulyaeva T. no participaron en las pruebas.

La tasa de aprobación de las pruebas de diagnóstico en química es del 100%, la calidad es del 25% (la calidad más baja). La puntuación media de la prueba es de 51,9 puntos.

Según la orden de Rosobrnadzor del 29 de agosto de 2012 No. 3499-10 en química, el número mínimo de puntos se establece en 36 puntos. Casi todos los participantes de la prueba escribieron a un nivel débilmente satisfactorio. Se cometieron errores en muchas tareas del curso de química. No empezamos a resolver muchos problemas porque el material se estudiará en el curso de 11º grado.


Clase

Biología (mínimo – 36)

A continuación se muestra el mínimo. nivel

Satisfecho.

nivel


Bien. nivel

Excelente nivel

Desempeño académico, %

Calidad, %

Puntuación media

0-35

36-54

55-71

72-100

11A (1)

0

0

1

0

100

100

68

11B (7)

0

0

1

1

100

100

67

Total

0

0

2

1

100

100

67,5

Solo 4 de 8 estudiantes participaron en las pruebas de esta materia (A. Bilyalov, Yu. Nechaeva, A. Sklyarov, V. Sklyarova no participaron).

La tasa de éxito y la calidad de las pruebas de diagnóstico en biología es del 100%. La puntuación media de las pruebas es de 67,5 puntos.

Según la orden de Rosobrnadzor del 29 de agosto de 2012 No. 3499-10 en biología, el número mínimo de puntos se fija en 36 puntos. Los participantes de la prueba cometieron errores en temas de los grados 8-9, es decir Estas preguntas no fueron repetidas por los chicos.
En informática, no se realizaron pruebas de prueba escolares, ya que en la víspera, por orden del Ministerio de Educación y Ciencia de la República de Tartaristán, todas las escuelas de la república, incluidos nosotros, participaron en el experimento de realización de la Examen Estatal Unificado de Informática en formato informatizado. Los días 23, 26 y 30 de octubre, 27 graduados de 11º grado, incluidos los que eligieron informática, escribieron el K-USE. Los resultados se resumieron en especial. programa instalado, y enviado al IMC. Los resultados de las pruebas aún no se han informado.
A partir de los resultados del Examen Estatal Unificado de prueba, se compiló una clasificación de los graduados basada en la puntuación total y el promedio. Puntuación del examen estatal unificado.

12 graduados tienen una puntuación superior a 220 puntos (ya que las universidades prestigiosas requieren una puntuación mínima de 220 puntos): Govorukhina I., Saifullina A., Tsybulya K., Ivanova K., Gulyaeva T., Salikova S., Khojakhanov B ., Zateeva N., Plaksin V., Butakova K., Rafikova L., Sitdikov D., Sadykova A., Khasanshina G.

Dos graduados tienen una puntuación media en todos los exámenes estatales unificados superior a 80: Plaksin V. - 87,3b., Sitdikov D. - 83,3b.

12 graduados tienen una puntuación media en todos los exámenes estatales unificados inferior a 50. La puntuación media más baja la tienen dos graduados: Vakhitova V. - 40,8b., Khalimova A. - 37,8b.
Cuando se trata de completar los formularios del Examen Estatal Unificado, los graduados del 11º grado fueron más responsables que los del 9º grado. Algunos participantes no tenían anotados los datos de su pasaporte en el formulario o no firmaron en la casilla correspondiente. Pido a los profesores de asignaturas de los grados 9 y 11 que llamen la atención de los estudiantes sobre el diseño de la letra "C" en los formularios. La escritura poco clara o incorrecta de cualquier letra dará como resultado que el estudiante no reciba sus calificaciones, lo que afectará el resultado final.
Con base en lo anterior, CONCLUSIONES y RECOMENDACIONES:


  1. Todos los profesores de materias deben tomar el control de la preparación de los estudiantes para el USE, desarrollar un plan para cerrar las brechas de conocimiento y trabajar más a menudo con tareas de prueba con completar respuestas en formularios especiales a través del aula y actividades extracurriculares.

  2. Preparar a los graduados para realizar trabajos de diagnóstico a través del sistema StatGrad (12 de diciembre – en ruso, 18 de diciembre – en matemáticas).

  3. Preparar a los graduados para realizar trabajos de diagnóstico remunerados en la ciudad (19 de diciembre - en ruso para los grados 9, 11, 20 de diciembre - en matemáticas para los grados 9, 11).

  4. Profesores de clase Shamseeva A.D., Ziyatdinova A.I. presentar los resultados de las pruebas de prueba a los padres de estudiantes de 11º grado en una reunión de padres el 26 de noviembre de 2012.

  5. Krasnoperova A.R., subdirectora de SD, profesores de clase Shamseeva A.D., Ziyatdinova A.I. Realizar conversaciones individuales con los estudiantes y sus padres que no aprobaron la prueba en las materias.
El certificado fue redactado por la subdirectora del SD A.R. Krasnoperova

El certificado fue leído en reunión con el director el 19 de noviembre de 2012.



arriba