NOTÍCIA
Nos últimos 20 anos, órgãos públicos avançaram na geração de informações, mas torná-las públicas de maneira mais eficaz segue como desafio
Publicado em 27/03/2017
Os anos 90 do século passado marcaram a entrada das avaliações de larga escala no rol dos instrumentos diagnósticos e das políticas públicas de educação no Brasil. Em 1990 era introduzido o Sistema de Avaliação da Educação Básica (Saeb), então aplicado nas séries ímpares do ensino fundamental (1ª, 3ª, 5ª e 7ª), apenas em escolas públicas e com abrangência amostral. Nas edições de 1990, 1993 e 1995, foram avaliadas as áreas de língua portuguesa, matemática, ciências da natureza e redação.
A partir de então, o Saeb começou a passar por uma série de alterações, devendo a próxima ser anunciada brevemente pelo Instituto Nacional de Estudos e Pesquisas Educacionais, o Inep. Em 1996, foi introduzido o Provão (hoje Enade), para avaliar os cursos superiores brasileiros; em 1998, o Enem, para aferir as competências e habilidades desenvolvidas pelos alunos do ensino médio. Depois, na década seguinte, houve a criação da Prova Brasil, tornando as avaliações da educação básica censitárias, e do Índice de Desenvolvimento da Educação Básica (Ideb), mesclando os resultados da Prova Brasil e os indicadores de aprovação. Por fim, o novo Enem, em 2009, com funções multiplicadas.
Desde então, um dos maiores desafios das autoridades públicas tem sido o de informar de modo claro e transparente os resultados das avaliações, sinalizando para as variadas possibilidades de análise das diversas realidades educacionais brasileiras, sem induzir jornalistas e sociedade em geral a uma leitura simplista, normalmente expressa pela criação de rankings. Luta-se também para evitar os vaticínios absolutos com base em números cuja significação muitas vezes não foi bem contextualizada.
Em janeiro de 2000, no terceiro ano de circulação da revista Educação (que faz 20 anos em maio de 2017), o jornalista Aloysio Biondi, em sua Pensata mensal, analisava a divulgação dos dados do Provão do ano anterior, registrando a mudança de postura do Ministério da Educação.
“Não há como negar: desta vez, o MEC fez tudo diferente (quem não mudou foi a imprensa, que voltou a abrir manchetes arrasadoras contra o sistema educacional e os estudantes brasileiros)”, criticava o jornalista na abertura de seu texto.
Biondi (1936-2000), que morreria em julho daquele ano, foi um dos expoentes da cobertura de economia na imprensa e, à época, era colaborador regular da Editora Segmento. Começou a carreira na Folha da Manhã, em 1956, tendo depois trabalhado na Folha de S.Paulo, Gazeta Mercantil, Diário do Comércio e Indústria (SP), Correio da Manhã (RJ), Diário da Manhã (GO) e nas revistas Veja e Visão, onde ganhou dois prêmios Esso de jornalismo, em 1967 e 1970. Em livro, deixou registrada sua ácida repulsa à política econômica de Fernando Henrique Cardoso (O Brasil privatizado – Um balanço do desmonte do Estado, 1999, Fundação Perseu Abramo, disponível no site da instituição).
Na Pensata, Biondi ressalta o fato de o MEC, então representado pelo ministro Paulo Renato Souza e pela presidente do Inep (hoje secretária executiva do MEC), Maria Helena Guimarães de Castro, ter abandonado “a prática de divulgar apenas ‘médias’, sempre enganosas”, fornecendo mais dados sobre o desempenho dos estudantes, inclusive percentuais das faixas de rendimento (piores, regulares e melhores).
Isso ajudava a ver que uma instituição, apesar de obter a pior classificação, tinha 17,6% de seus estudantes no grupo daqueles com as melhores notas.
Biondi fazia a ressalva de que a maior média obtida era de 4,9 pontos, numa escala que ia de 0 a 10, na qual o índice intermediário era considerado bom. Se era assim, por que estabelecer uma escala que ia até o dobro, dando sempre a impressão à opinião pública “de que os cursos e instituições estão em condições sofríveis, senão lamentáveis?”, perguntava. Além disso, sugeria discutir a adaptação do Provão às diferenças regionais e socioeconômicas.
Evolução
As críticas e o cansaço do constante alarmismo das manchetes parecem ter feito o cenário evoluir. É o que pensa, por exemplo, o jornalista Antonio Gois, colunista de O Globo e presidente da Associação de Jornalistas de Educação (Jeduca), entidade fundada em 2016 para dar subsídios técnicos a uma cobertura jornalística de educação mais consistente.
Para o jornalista, antes o resultado da prova era visto como o retrato fiel da educação do país. “Nos primeiros anos após o Enem passar a ser divulgado com ranking de escolas, não se falava de nível socioeconômico. Hoje, essa é uma ponderação que já aparece nas matérias, além de alertas sobre quantos alunos fazem a prova”, diz. Isso porque, como brincava o ex-presidente do Inep Francisco Soares, havia escolas – ou talvez ainda haja – que promoviam churrascos para que seus piores alunos não fossem fazer o Enem, o que pioraria a média da instituição.
Para que a cobertura jornalística seja melhor, com análise mais consistente dos dados, é preciso que eles sejam divulgados antes para a imprensa, com embargo de publicação. Assim, possibilita-se o cruzamento de resultados com informações de contexto. É o que defende a Jeduca.
“O último Ideb foi divulgado sem embargo, o que leva a uma cobertura mais rasa. Por isso, fomos a Brasília conversar com o ministro e a presidente do Inep, para solicitar que tenhamos acesso antes”, diz Gois.
Há, também, demora na divulgação dos microdados e, quando de sua disponibilização, falta uma plataforma mais amigável para quem quer consultá-los, problema também presente em outros dados públicos, como os do IBGE. Uma plataforma como o Qedu (qedu.org.br) cumpriria bem essa função.
Criação de indicadores
Para Rodrigo Capelato, superintendente do Semesp, que representa as instituições de ensino superior privadas, o Inep hoje gera mais e melhores dados sobre o terceiro grau, mas ainda falta expandir sua utilização.
Como índice da evolução, menciona o Indicador de Diferença entre o Desempenho Observado e o Esperado (IDD), que mostra o quanto o curso superior agregou ao conhecimento do aluno, ao contrário dos tempos do Provão, em que havia só o resultado final. Por outro lado, as muitas mudanças ao longo dos anos não permitem a comparabilidade dos dados, o que torna mais difícil saber se o ensino superior melhorou ou não.
“O universo de dados aumentou e melhorou de qualidade, mas a utilização para criação de indicadores ainda é pouca. A vantagem de criar vários indicadores é contemplar a diversidade que o sistema oferece, de acordo com a especificidade do curso, da instituição. É possível criar um indicador de trajetória dos alunos, por exemplo, para saber quantos anos eles levam para se formar, em quantas instituições, qual é a evasão”, exemplifica Capelato.