Pages Menu
TwitterFacebook
Categories Menu

Posted by on nov 24, 2012 in Avaliação Educacional, ENEM, INEP, Psicométrica, TRI | 0 comments

Educação, um investimento arriscado. Resultado do Enem 2011.

 

Associação de Pais e Alunos das Instituições de Ensino do DF – ASPA-DF

 

Existem inúmeros desafios que a educação nos tem imposto. Também há muitos obstáculos pela frente com as cotas sociais e raciais que dividem (em percentual ainda incerto) as oportunidades de acesso à universidade pública entre alunos cotistas e alunos não cotistas. De outro lado, a qualidade da educação pública e os artifícios mirabolantes encontrados pelos seus gestores ainda não nos dão segurança de que a qualidade da educação melhorará em médio prazo. Por tudo isso, costumamos dizer que investimento em educação no Brasil é tão inseguro, incerto e arriscado quanto o investimento na bolsa de valores.

Mais uma vez os pais e alunos têm diante de si a dura realidade de nossas escolas. O DF ainda é o 4º lugar em termos de boas escolas. O DF é a unidade da Federação com maior número de escolas privadas proporcionalmente e a cada ano surge uma nova escola. Empresários de diversos ramos estão de olho na renda per capita do brasiliense, a maior do País. Isso tudo acende o sinal vermelho para nós, pais, que investimos não só na educação privada, mas na pública através da alta carga tributária e dela não usufruímos.

Como sempre dizemos: no DF contamos nos dedos de uma mão as escolas que têm efetivamente uma melhor qualidade de ensino, que são em torno de cinco e, entra ano e sai ano, essa realidade não muda. Temos 652 escolas públicas e 480 privadas. Esse número exíguo de escolas com bons resultados só nos mostram o quanto temos que ficar de olho no dinheiro investido ao longo do ano com escolas.

Pesa ainda o fato de que o Enem só avalia as escolas que têm o ensino médio. Ficam de fora as escolas que vão até o 5º ano e aquelas que vão até o 9º ano. Nesse caso, o investimento é feito às cegas, pois não há avaliação censitária pelo INEP nessas etapas de ensino. No ano passado, estivemos no INEP e entregamos um ofício onde pedimos que essas escolas fossem avaliadas censitariamente pela PROVA BRASIL, em nosso último contato com aquele órgão sequer localizaram nosso ofício!

O ENEM desse ano trouxe uma excelente novidade: a não divulgação das notas das escolas que não contaram com, ao menos, 50% de participação de seus alunos matriculados. Isso estava sendo usado por escolas pouco éticas, pois selecionavam alunos e figuravam artificialmente no topo da lista, ignorando, entretanto, a sua colocação em grau de participação percentual estabelecido no Enem 2010. Essas distorções apenas desaparecerão quanto o ENEM for obrigatório.

Os dados divulgado no ENEM 2011 apenas refletem os dados do IDEB, divulgados recentemente, que apontaram a estagnação do ensino privado. sobre Isso para nós não era novidade, pois os pais sentem isso no dia a dia. Para refletirmos um pouco sobre esses dados, destacamos algumas preocupações dos pais de alunos.
Sabemos que o Enem não mede todos os aspectos da qualidade do ensino de uma escola, mas dá, sim, um forte indício para orientar onde investir de acordo com seus objetivos. A ASPA quer mais que o 4º lugar para o DF, por isso continuará lutando e pressionando Governo e escolas por uma melhor qualidade do ensino. O DF deve ser modelo para o restante do País, só falta mais ação e menos exploração.

Luis Claudio Megiorin, Presidente da ASPA, Coordenador da CONFENAPA e Membro da Comissão de Direito do Consumidor da OAB-DF

INDICADORES PARA OS QUAIS OS INVESTIDORES (PAIS) DEVEM ATENTAR QUANTO AO RESULTADO DO ENEM 2011

FATOS:
- Dentre as 20 melhores escolas do Brasil, a nossa Capital não figura com nenhuma instituição*;

- O DF possui 480 escolas privadas e apenas cerca de 5 delas apresentam um resultado satisfatório à sociedade;

- As escolas que vão apenas até os 5ºs e 9ºs anos não são avaliadas censitariamente, pois não possuem o ensino médio, aí o investimento é feito no escuro;

- As escolas que possuem filiais não conseguem manter o mesmo grau de aprovação nos vestibulares e notas no ENEM, ou seja, nome pode não garantir a mesma qualidade;

- As escola mais bem avaliadas não possuem filiais e têm turmas reduzidas;

- Algumas escolas possuem salas superlotadas, além do recomendado, cerca de 50 alunos por sala, o que implica em baixa interação com os professores e menor rendimento;

- Os indicadores do IDEB 2012 mostraram estagnação das escolas privadas e o ENEM 2011 confirma esse fato;

- Algumas escolas públicas tiveram desempenho equivalentes às escolas privadas!

- Colégio Militar de Brasília não figura entre as 10 melhores escolas públicas do Brasil**

- A cotas sociais e raciais, somadas às cotas raciais existentes nas universidades, abocanharão mais da metade das vagas nas universidades;

RANKING DAS 5 MELHORES PRIVADAS DO DF:

Nº Participantes Percentual % Nota

1º OLIMPO 42 87,50 675
2º PODION 19 51,35 656
3º GALOIS 128 64,65 651
4º SIGMA – SUL 297 61,49 649
5º SIGMA – NORTE 142 56,13 645

RANKING DAS 5 MELHORES ESCOLAS PÚBLICAS DO DF

(1º COL. MILITAR D.PII – PÚBLICO/PRIVADO) ?
62 62 578
1º CEM INTEGR. GAMA 69 64,49 551
2º CEM SETOR OESTE 218 68,13 534
3º CED 03 GUARÁ 60 54,55 526
4º CEM ASA NORTE CEAN 72 52,55 516
5º CEM TAGUAT NORTE 223 73,11 515

Acesse a Aspa-DF.

Facebook Twitter Email
Read More

Posted by on nov 14, 2011 in Avaliação Educacional, ENEM, INEP, Testagem adaptativa, TRI | 0 comments

Pré-teste do Enem americano é feito no mesmo dia do exame

Fonte: IG.



A recente batalha jurídica em torno da anulação ou não de questões do Exame Nacional do Ensino Médio (Enem) que foram divulgadas antecipadamente a alunos de colégio em Fortaleza levanta, pelo terceiro ano consecutivo – o mesmo tempo que o teste passou a ser usado para selecionar vagas do ensino superior –, uma discussão sobre a logística, organização e metodologia do exame. Além dos problemas de segurança e impressão já apresentados, o Enem tem agora questionados seu banco de questões e a maneira como elas são testadas.
Para defender o exame, o governo já recorreu algumas vezes às qualidades da Teoria de Resposta ao Item (TRI), método tradicionalmente utilizado em exames norte-americanos que permite que edições distintas de uma avaliação tenham nível de dificuldade igual. Com objetivo de entender como um dos mais tradicionais, o SAT – Scholastic Assessment Test – ou Teste de Avaliação Escolar, é aplicado e como suas questões são formuladas, o iG foi aos Estados Unidos.
Exame obrigatório para os alunos do ensino médio que querem ingressar em uma faculdade americana, o teste existe há 85 anos e já foi ministrado a mais de 100 milhões de estudantes – só em 2011, cerca de 1,65 milhão de pessoas se submeteram ao exame. Diferentemente do Enem, que é gratuito para alunos de escolas públicas, para prestar o SAT o aluno tem que pagar uma taxa de US$ 49. Além disso, ele não é um exame anual, sendo ministrado 7 vezes por ano nos EUA em diferentes localidades. “Os alunos se inscrevem no site da instituição e agendam a data da prova. Se eles não forem bem, eles podem fazer um novo teste em 3 meses”, explica Wil Hatcher, professor especialista em testes de padronização. 

O SAT foi criado em 1926 pela College Board – uma organização sem fins lucrativos fundada em 1900 pelos presidentes das principais universidades americanas que queriam democratizar o acesso às universidades. Inicialmente, a College desenvolveu testes obrigatórios para alunos que quisessem ingressar nessas faculdades específicas. Anos mais tarde, durante a Primeira Guerra Mundial, os testes foram ministrados a alunos do exército americano. Já em 1926, o então presidente da College Board, Carl C. Brigham, professor da Universidade de Princeton que havia trabalhado nos experimentos do exército, decidiu criar um exame que fosse aplicado a estudantes do ensino médio em um novo formato de múltipla escolha – surgia assim o SAT.


Seção experimental foi introduzida desde o início


A grande novidade do teste, já naquela época, era a inclusão de uma seção experimental que pudesse avaliar novas questões. “Pelo menos 30 minutos de cada aluno era dedicado a essa seção experimental e os estudantes não sabiam que estavam fazendo uma prova com itens que não tinham validade para a sua nota final. E isso era exatamente o que a College queria”, explica Thomas Ewing, porta voz da College Board. Segundo arquivos da própria organização, nos primeiros três anos do teste, o professor Brigham realizou cerca de 20 seções experimentais que depois foram reavaliadas, reescritas ou descartadas. 
 

Em 1947, a College Board, o Conselho Americano de Educação e a Fundação Carnegie para o Avanço do Ensino, criaram a ETS (Educational Testing Service), uma empresa privada dedicada à pesquisa e avaliação do progresso da educação nos EUA. “Desde então a ETS é a responsável pelo SAT, e pela maioria dos testes de padronização como o TOEFL (de proficiência na língua inglesa), o GRE e dezenas de outros. Isso é tudo o que eles sabem fazer”, declara Wil Hatcher.

Além de ter a College como seu principal cliente, a ETS herdou todo o expertise que a organização tinha na criação e realização destes exames. “A seção experimental existe até hoje. É assim que eles analisam se as questões realmente testam o que elas deveriam para produzir uma curva perfeita de avaliação dos alunos. Então, basicamente os estudantes são as cobaias do SAT. Eles sabem que há uma seção experimental, mas não sabem qual das 10 seções não tem validade”, completa Wil. 


O professor acredita que este é o melhor modelo para garantir a idoneidade da amostragem. “Na minha opinião, o SAT funciona aqui porque a amostragem é perfeita. Todos os estudantes que estão fazendo o teste respondem às questões experimentais. Então a ETS não precisam realizar simulados com estudantes que não são o público alvo do teste. Assim também não há vazamento de informações”, explica. 


Repetições de questões não acontece

Apesar de um mesmo estudante poder fazer o SAT mais de uma vez no ano, a College Board garante que a probabilidade de as questões se repetirem nas provas é praticamente nula. “As questões são feitas por especialistas neste tipo de teste, muitos dos quais são ex-professores ou experts no assunto. Nós também temos equipes de comitês de desenvolvimento externo, compostas principalmente por professores, que ajudam na formulação das questões iniciais que são refinadas pelos nossos especialistas da parte de desenvolvimento”, explica o porta-voz da College Board. Segundo ele, a organização não pode detalhar o tamanho do banco de dados de questões, mas está constantemente desenvolvendo novas perguntas, porque realiza testes frequentes. “As questões utilizadas não podem ser usadas novamente. Mesmo as questões da seção experimental passam por uma revisão adicional e são, muitas vezes, reescritas antes de acabarem fazendo parte de um exame no futuro. Mas a probabilidade de uma mesma seção experimental cair igualzinha em uma prova futura é praticamente nula”, completa Thomas. 
TRI desde 1950
O SAT utiliza a TRI (Teoria de Resposta ao Item) desde 1950. Esse sistema permite que todas as provas tenham o mesmo nível de dificuldade. O mesmo sistema é utilizado pelo Enem há apenas há 3 anos. Além disso, no exame brasileiro, as cores das provas podem variar e, com elas, a ordem das questões, mas as perguntas são iguais para todos. Já no SAT, em um mesmo dia há diferentes grupos de provas distintas sendo aplicadas. “Por questões de segurança não podemos revelar quantas são, mas poucos grupos de alunos respondem às mesmas questões”, declara o porta voz do College Board.
Depois de impressas, as provas do SAT passam por uma série de procedimentos de segurança. Primeiro, um funcionário do ETS se responsabiliza pela certificação da qualidade dos testes impressos ainda na gráfica. Depois disso, as provas são numeradas, embaladas a vácuo e transportadas em caixas lacradas. “Ter vários formatos do teste certamente dificulta o vazamento de informações, mas nossos procedimentos de segurança contribuem para isso também”, diz Thomas. 

Os alunos norte-americanos têm 3 horas e 45 minutos para responderem às 10 seções do teste, divididas em Leitura e Interpretação de Textos, Matemática, Redação e Seção Experimental. A maioria das questões é de múltipla escolha. 


Os gabaritos são corrigidos eletronicamente por computador. “O primeiro passo para calcular a pontuação do aluno é determinar o escore bruto para cada uma das três seções válidas. Uma resposta correta vale um ponto, enquanto que uma resposta incorreta subtrai 0,25 pontos do escore do aluno”, explica Wil Hatcher. “O sistema é para não encorajar o aluno a chutar a resposta se ele não souber. É melhor deixar a questão em branco do que responder errado. Se ele deixar em branco ele não perde nem ganha pontos”, completa.


Sistema não está livre de falhas

Apesar de todas as medidas de segurança, o SAT não está livre de erros. Em 2005, uma falha na leitura dos gabaritos deixou mais de 4.400 alunos com notas menores do que as que eles deveriam receber. O erro foi corrigido e o dinheiro devolvido aos estudantes, que tiveram a oportunidade de realizar outro exame.

Já em setembro passado, sete alunos foram presos em Long Island depois de serem acusados de trapacear no SAT. Cada um deles teriam pago US$ 2,5 mil para o estudante Sam Eshaghoff, de 19 anos, fazer a prova no lugar deles. Sam teria se passado por pelo menos mais cinco estudantes e agora deve responder na justiça por conspiração e falsidade ideológica.


Na época o presidente executivo da ETS, Kurt Landgraf, disse à imprensa americana que sua empresa gasta US$ 25 milhões por ano em segurança e que cerca de 3 mil, dos mais de 2 milhões de exames aplicados anualmente, são cancelados todos os anos por irregularidades ou salto de notas de alunos que tinham tido uma pontuação muito menor em testes anteriores.
Facebook Twitter Email
Read More
Social links powered by Ecreative Internet Marketing