Um necessário passo atrás na avaliação do ensino superior
Na busca contínua pela melhoria e aperfeiçoamento da qualidade na educação, os indicadores são parte indissociável, constituindo aquilo que na visão de Fayol é um dos quatro pilares da administração: o controle. Afinal, sem mensuração adequada, é impossível avaliar os efeitos das decisões tomadas e das políticas educacionais adotadas, igualmente inviabilizando qualquer planejamento crível, baseado em evidências e não em “achismos”.
Mas o tema é complexo e não há solução simples, uma vez que envolve inúmeras perspectivas educacionais distintas, diversos fatores envolvidos, além de aspectos regionais, econômicos e sociais dos quais a educação não pode ser vista de modo dissociado. Mais especificamente no ensino superior, essa discussão vem de longa data com o questionamento quanto a real capacidade de mensuração da qualidade da educação a partir dos indicadores oficiais produzidos pelo Ministério da Educação, por meio do Inep.
Esse debate ganhou força quando o Tribunal de Contas, por meio do Acórdão 1.175 de 2018, chancelou essa constatação ao auditar os processos de regulação e avaliação do MEC, afirmando que o Conceito Preliminar de Curso (CPC) e o Conceito de Curso (CC) “não refletem a qualidade/excelência dos cursos superiores de graduação”, na prática constituindo apenas um mero “ranking entre os cursos avaliados”.
Os argumentos tornaram-se ainda mais fortes em dezembro de 2018, quando o Organização para a Cooperação e Desenvolvimento Econômico (OCDE) concluiu o relatório intitulado Rethinking quality assurance for higher education in Brazil (“Repensando a garantia da qualidade na educação superior no Brasil”, em tradução livre), demandado pelo MEC/Inep ainda em 2017. Em suas 184 páginas, o documento questiona abertamente a validade do Índice Geral de Cursos (IGC) e do CPC para fins de mensuração da qualidade, afirmando que “seu poder de discriminação entre as instituições é baixo” e “não introduzem informações novas de desempenho para as lideranças institucionais”.
Diante desses e de outros fatos, a Comissão Nacional de Avaliação da Educação Superior (Conaes) decidiu, em recente reunião, interromper a divulgação destes indicadores, reconhecendo a sua inadequação para os fins para os quais foram propostos. Ao mesmo tempo, deixou em aberto a possibilidade de eventual retomada – a ser desenvolvida uma nova metodologia que permita aprimorá-los suficientemente.
Se por um lado a decisão é acertada, pois elimina injustiças e possíveis interpretações incorretas dos resultados, por outro expõe um importante vácuo na avaliação da qualidade do ensino superior brasileiro, tanto em sua totalidade quanto em termos de cursos e instituições. E isso tem um potencial especialmente danoso no atual contexto em que o ensino superior enfrenta intensos dilemas e questionamentos, tanto em relação às instituições públicas quanto às privadas.
Mas e o Enade? Sim, no Exame Nacional de Desempenho dos Estudantes encontramos um bom indicador dos conhecimentos adquiridos pelos alunos ao longo da graduação e, juntamente com o IDD, da qualidade dos respectivos cursos e instituições. Todavia, ainda assim, não é suficiente para o atendimento de todas as necessidades de avaliação e regulação, e tampouco está imune a críticas metodológicas.
Apesar de décadas de intensa dedicação e sincero comprometimento de pesquisadores, especialistas e técnicos do MEC e Inep, ainda há muito a avançarmos no tema, com grande potencial de contribuição para a qualidade da educação brasileira. Por vezes é preciso dar um passo atrás para, depois, dar dois adiante.
Jeanfrank T. D. Sartori, graduado em Administração e mestrando em Gestão da Informação, é pesquisador nas áreas de avaliação do ensino superior e gestão do conhecimento e membro da Comissão Própria de Avaliação (CPA) da Universidade Positivo.