O desastrado "ranking universitário" da Folha de S.Paulo

Chamado de “RUF”, índice inclui quesito “Avaliação do Mercado”, calculado segundo método simplório, porém capaz de distorcer gravemente resultados

por Leandro Tessler* no Amálgama

.

Chamado de “RUF”, índice inclui quesito “Avaliação do Mercado”, calculado segundo método simplório, porém capaz de distorcer gravemente resultados

por Leandro Tessler* no Amálgama

Há uma máxima que aprendi com os computeiros quando ainda era estudante: GIGO: Garbage In, Garbage Out, ou Entra Lixo, Sai Lixo. É um trocadilho com FIFO (First In, First Out, ou Primeiro a Entrar, Primeiro a Sair), uma estratégia usada no gerenciamento de estruturas de dados. GIGO pode ser entendido como dados errados invariavelmente levam a conclusões equivocadas.

O universo acadêmico brasileiro começou a semana passada com uma notícia bomba: a divulgação do Ranking Universitário da Folha, o RUF. A exemplo do Times, que publica um dos mais respeitados rankings mundiais de universidades, a Folha de São Paulo decidiu fazer um ranking independente das avaliações oficiais feitas pelo INEP. Uma iniciativa desse tipo só merece elogios e tenho certeza que no futuro será uma referência fundamental. Até o ministro da Educação, responsável pela avaliação oficial, elogiou a iniciativa. Rankings universitários consistem num assunto polêmico sobre o qual não quero me alongar agora (talvez no futuro).

A exemplo de rankings internacionais, o RUF adotou uma mistura de parâmetros com pesos arbitrários mas bastante razoáveis para seu objetivo: 55% para um indicador de Pesquisa Acadêmica, 20% para Qualidade de Ensino, 20% para Avaliação do Mercado e 5% para Inovação. Com base nos parâmetros adotados, trata-se de um ranking voltado para orientar os estudantes na escolha de uma instituição, a exemplo do QSForbes e US News. No contexto brasileiro, eu daria menos peso para a pesquisa, mas isso é uma questão de opinião pessoal.

Cada um dos parâmetros precisa ser medido ou estimado por uma metodologia própria. Os resultados são computados, pesados e tabelados. O resultado final foi: 1º USP; 2º UFMG; 3º UFRJ; 4º UFRGS; 5º Unicamp; 6º Unesp; 7º UFPR; 8º UnB; 9º UFSC; 10º UFPE.

Não há surpresas quanto às 10 primeiras colocadas — as 3 universidades públicas paulistas e mais 7 federais de reconhecida qualidade. No entanto, fiquei muito surpreso com a posição da Unicamp como 5ª colocada*. Em todos os rankings acadêmicos internacionais (ARWUTHEQSScimagoUS News), a Unicamp aprece em segundo lugar no Brasil, com exceção do de Leiden, onde ela está em terceiro. Mesmo no Webometrics, que eu não considero um ranking acadêmico, ela está em terceiro.

Um resultado surpreendente como esse levou a uma análise detalhada. No RUF a Unicamp aparece em primeiro lugar em Inovação, segundo lugar nos parâmetros Pesquisa Acadêmica e Avaliação do Ensino, e 42 em Avaliação do Mercado.

Como assim, 42?! Não devemos esquecer que, segundo Douglas Adams (e o Google), 42 é a resposta para a vida, o universo e tudo mais. Pena que não se saiba mais qual a pergunta

Isso exige uma explicação. De fato, o RUF encontrou uma supremacia das universidades privadas na Avaliação do Mercado, ao contrário do esperado. O próprio RUF aponta a diferença entre a UNIP (9ª segundo a Avaliação do Mercado) e a Unicamp (42ª) . Segundo ele: ”O executivo valoriza a instituição que lhe oferece bons profissionais – em geral, eles saem de escolas do local de atuação da empresa. Podem ser até instituições de ensino superior sem papel relevante na pesquisa científica, mas que tenham fama de oferecer boa formação. O cientista, por outro lado, valoriza as que se destacam na produção em suas respectivas áreas, dependentemente da região do país.”

Essa interpretação não é minimamente razoável, nem compatível com as leis do “mercado”. A grande maioria dos jovens brasileiros busca no ensino superior uma garantia de emprego e bom salário. Se o “mercado” prefere os formados nas universidades privadas, por que a concorrência no vestibular das públicas é tão maior?

Sempre que uma medida dá um resultado muito surpreendente, os cientistas têm vários caminhos a tomar. Antes de divulgar alguma bobagem, que pode derrubar sua reputação para sempre, o responsável pelo resultado deve verificar a consistência. Por exemplo, verificar se algum outro laboratório encontrou resultado semelhante. No caso, não. Por exemplo, no relatório do QS a Unicamp aparece em segundo entre as brasileiras no geral e no parâmetro Employer Reputation, apesar de a metodologia usada não estar explícita. Ou seja, o dado do RUF é muito diferente do QSapenas nesse parâmetro.

Outra possibilidade é verificar a consistência entre o parâmetro medido e os demais parâmetros. Para isso é preciso fazer algumas considerações: No caso do “mercado”, o que ele esperaria de um profissional? Por mais que imaginemos que o empresariado brasileiro seja pouco criativo e descompromissado com inovação ou pesquisa (não é!), certamente ele buscaria os profissionais educados onde a qualidade de ensino é mais alta. No entanto, entre as 40 primeiras segundo a Avaliação do Mercado, 10 receberam zero em Avaliação do Ensino. É razoável supor que o “mercado” privilegie universidades com um ensino tão mal avaliado? Haveria uma máfia de responsáveis por recursos humanos que de propósito privilegiaria egressos de certas escolas, ainda que de qualidade inferior?

A resposta para essas questões está no relatório técnico que detalha a metodologia usada para estimar a Avaliação do Mercado. Como foi dito no início desse texto, GIGO: Entra lixo, sai lixo.

A metodologia usada para medir a Avaliação do Mercado é de uma ingenuidade incompatível com sua pretensão de orientar políticas públicas. Foram entrevistados por telefone 1212 responsáveis por recursos humanos em empresas de diversas áreas. Os 20 cursos pesquisados estão neste quadro. Cabe notar que a maior parte dos cursos está presente prioritariamente nas universidades privadas. A Unicamp não oferece graduação em pelo menos 8 desses cursos. Nada mais óbvio que não seja lembrada — aliás, assim como muitas das universidades públicas, que só detém 25% da matrícula em graduação.

Nenhuma das explicações oferecidas se sustenta, simplesmente porque a metodologia que foi usada para estimar a Avaliação do Mercado avalia a presença de profissionais em empresas, mas não como o “mercado” avalia os formados em cada instituição.

Isso poderia ser feito de outras maneiras, certamente mais trabalhosas, que alguns dos rankings internacionais usam: por exemplo, computar a empregabilidade dos formados, que salário médio eles obtém no início de carreira (isso sim dá uma boa ideia de como o “mercado” percebe cada universidade), que tipo de cargo ocupam após alguns anos na empresa, etc.

É difícil acreditar que na experiente equipe que elaborou o RUF ninguém tenha se dado conta de que o indicador de Avaliação do Mercado tem algo de inconsistente. O blog Cidadania e Cultura, do Fernando Nogueira Costa, fez uma análise similar.

O raciocínio aqui exposto aplica-se também à UFSCar, uma das universidades mais concorridas do país e que não forma nas áreas privilegiadas pelo RUF. Se refazemos o ranking ignorando o parâmetro mal medido, ela pula do 17oº para o 10oº lugar.

Só posso esperar que a Folha reconheça o erro e reveja seus métodos nas próximas edições do RUF.

—–

O autor é professor e assessor do reitor da Unicamp, universidade que devido à metodologia utilizada foi classificada em 5º lugar pelo RUF, significativamente abaixo de sua real relevância no ensino superior brasileiro.

Leia Também:

Um comentario para "O desastrado "ranking universitário" da Folha de S.Paulo"

  1. Concordo com a crítica, mas não com sugerida ilegitimidade do segundo lugar. A UFMG não é uma universidade paulista, mas merece a posição que ocupa.

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *