Un
hospital en el que no existen salas de internación no es un
hospital, es un policlínico. Del mismo modo, una institución de
educación terciaria en donde no se investiga no es una universidad;
es justamente eso: un instituto de educación terciaria. Ahora bien, difícilmente alguien pueda estar en desacuerdo si digo
que las universidades tienen dos cometidos fundamentales: enseñar e
investigar. También tienen otros propósitos como el de la extensión
práctica de sus conocimientos hacia la sociedad. Pero investigación
y enseñanza son sus cometidos principales y definitorios. En Uruguay
hay problemas educativos en los tres niveles educativos (primaria,
secundaria y terciaria). Eso no es novedad. Algo novedoso, en cambio,
es el debate sobre el posicionamiento de las universidades uruguayas
en el concierto mundial en relación a estos dos objetivos.
Diferentes rankings internacionales consistentemente ubican nuestras
universidades en lugares para nada privilegiados, no solo a escala
mundial sino también regional. En términos de investigación, por
ejemplo, tienen marcados problemas de cantidad, calidad y extensión.
En el
mes de agosto, el Director de Educación del MEC, Luis Garibaldi,
declaró que el 80% de la investigación del país se produce en la
Universidad de la República. Ese dato surge de la interpretación de
uno de los indicadores utilizados en el "Scimago Institutions
Ranking, World Report 2012". Este lunes pasado, los economistas
Juan Dubra y Néstor Gandelman publicaron una breve
nota que intenta responder a
los comentarios de Garibaldi sobre el déficit de las universidades
privadas en términos de investigación.ii
Dubra y Gandelman proponen un interesante análisis: comparar las
publicaciones en revistas científicas referadas en el área de
economía realizadas por investigadores de universidades privadas
frente a las conseguidas por investigadores afiliados a la
Universidad de la República (UdelaR). Dejando de lado los detalles
metodológicos del estudio, el resultado es el siguiente: desde 2006,
los 19 economistas de las universidades privadas incluidos en el
Sistema Nacional de Investigadores (SNI) han logrado publicar más en
revistas referadas de mayor calidad que los 36 economistas de la
UdelaR que pertenecen al SNI. Dubra y Gandelman sugieren que este
hecho pone en tela de juicio la afirmación de Garibaldi que en las
universidades privadas no se investiga. Al menos en economía sí se
hacen, y con mayor nivel de impacto.
El
ejercicio de Dubra y Gandelman tiene limitaciones importantes. Como
los mismos autores puntualizan, su análisis sólo examina un
conjunto de publicaciones en revistas de economía lo cual invalida
la posibilidad de realizar generalizaciones hacia otras áreas del
conocimiento. Ciertamente la participación de investigadores
catalogados en el SNI que investigan en universidades privadas es
sustancialmente menor al número que lo hace en la UdelaR. Haciendo
un ejercicio desprolijoiii
podemos ver algunas tendencias importantes. Para empezar, actualmente
el SNI registra 1388 investigadores activos radicados en el país.
Ese número se divide en seis áreas principales: ciencias agrícolas,
sociales, médicas, naturales, humanidades e ingeniería/tecnología.
Para empezar, hay áreas en donde la investigación de las
universidades privadas es inexistente. Por ejemplo, ninguna de las
principales universidades privadas del país investiga en el área de
ciencias médicas y de la salud. Asimismo, de los 192 investigadores
catalogados en el área de ciencias agrarias, sólo dos
investigadores realizan su trabajo desde una universidad privada. Las
proporciones de miembros del SNI por tipo de universidad en las otras
áreas favorecen siempre a la UdelaR. Solo 10 de los 124
investigadores en el área de humanidades, 58 de los 283 catalogados
en ciencias sociales y 19 de los 132 del área de ingeniería y
tecnología, investigan desde una universidad privada. Esos números
no solo nos muestran la desproporción en cantidad de investigadores
reconocidos por el SNI sino también la escasa - y en algunos casos-
nula participación de las universidades privadas en la investigación
e innovación (no necesariamente en la enseñanza) en ciertos campos
del conocimiento. Las razones que explican este hecho son múltiples
y no pueden ser tratadas en este espacio. Lo que sí parece evidente
es que el análisis de Dubra y Gandelman difícilmente pueda ser
repetido en muchas más áreas de investigación.
Pero
naturalmente esto no nos dice nada sobre la calidad de la producción
científica generada en estos centros de estudio. Dubra y Gandelman
tienen un argumento que no se puede desatender fácilmente: cantidad
no es sinónimo de calidad. Para la confección de los rankings de
producción académica, diez artículos publicados en revistas
nacionales o regionales van a valer considerablemente menos que una
publicación en una revista top a nivel internacional. Esta lógica
ha sido criticada y denostada por muchos. ¿Quién determina cual es
una revista top y cual no? ¿Bajo qué criterios podemos decir que lo
que se publica en la Revista Uruguaya de Ciencia Política vale menos
que lo publicado en el American Political Science Review? Es normal
tener ese tipo de suspicacias hacia el sistema de evaluación. Sobre
todo porque no todas las áreas de investigación producen artículos
científicos como su principal producto. Sin embargo, no es demasiado
inteligente quedarse con la idea que los rankings son inútiles o
tendenciosos. Pensemos en un caso análogo para entender mejor la
situación en la que estamos. Imaginen al maestro Tabárez decidiendo
la pareja de delanteros para disputar el mundial de Sudáfrica.iv
El número de goles es el indicador más importante para comparar
delanteros. Si Tabárez se hubiera guiado por ese indicador, entonces
un jugador como el Chino Ximenez debería poder disputar el puesto
con Suárez y Forlán. Esa situación parece poco razonable. ¿Por
qué? Porque no sólo se debería evaluar el número de goles
obtenidos por cada delantero, sino el contexto en donde esos goles
fueron conseguidos. No es lo mismo hacer 30 goles en la liga peruana
que hacerlos en la liga española. El nivel de exigencia entre estas
ligas es tan dispar que no parece razonable utilizar solo un
indicador cuantitativo. La calidad importa en esta ecuación.
Con varios
matices, algo similar sucede con la producción académica en muchas
áreas del conocimiento. Publicar los resultados de una investigación
en una revista top a nivel mundial requiere pasar por filtros de
exigencia sustancialmente mayores a los que se necesita para hacerlo
en revistas regionales. Es razonable que asi sea, dado que las
revistas de mayor prestigio son las que marcan el rumbo de las
diferentes disciplinas científicas. Y para publicar en esos ámbitos,
el investigador debe convencer a un buen numero de expertos que los
resultados de su investigación merecen ser compartidos y difundidos
en la comunidad científica global.v
El tema es
qué hacer con los investigadores nacionales que logran publicar o
difundir sus resultados de investigación al más alto nivel. Tomando
en cuenta que calidad y no solo cantidad son las variables
importantes en esta ecuación: ¿Debemos premiar la excelencia?
¿Debemos incentivar la formación de investigadores de elite?
¿Debemos incentivarlos para que se queden en el país? Esas son sólo
unas pocas preguntas cuyas respuestan afectan notoriamente a la
comunidad científica nacional. Ahora ya es tiempo para que se debata con
seriedad qué indicadores de calidad y cantidad vamos a aceptar para
medir nuestra producción académica. Y eso no implica reinventar la
rueda, sino atender un poco más a las soluciones que otros países
han encontrado. El mundo científico va en una dirección bastante
marcada. ¿Es nuestra mejor
estrategia negar esa tendencia y seguir midiendo nuestros resultados
con nuestros criterios domésticos? La conclusión no es novedosa:
debemos exigirnos más y mejor investigación en más áreas del
conocimiento. Y eso corre para universidades públicas y privadas.
*Una versión de esta nota fue publicada en Brecha (12/10/2012)
**Agradezco los comentarios de Juan Bogliaccini y Anibal Corti. Naturalmente, todo lo dicho aqui es de mi entera responsabilidad.
iiLa
nota con el cuadro de resultados se puede ver
aquí:
http://www.um.edu.uy/universidad/reportajes/672_Calidad-de-la-Investigacion-en-Uruguay/#imagenes
http://www.um.edu.uy/universidad/reportajes/672_Calidad-de-la-Investigacion-en-Uruguay/#imagenes
iiiNo
tuve acceso a la distribución exacta de investigadores del SNI por
área y deglosado por institución. Los numeros aquí presentados
son estimaciones en base a los cvs publicados on line por el SNI.
Aunque los numeros de investigadores distribuidos por institución y
área no sean exactos, estos sirven para entender las tendencias y
proporciones.
ivEste
argumento esta más desarrollado en mi entrada:
http://razonesypersonas.blogspot.com/2011/06/rankings-y-mediciones-para-llorar-y.html
vEsta
práctica no esta libre de problemas. Por ejemplo, temas y agendas
de investigación que son extremadamente importantes para nuestro
país pueden ser poco atractivas a nivel internacional.