Exigirnos más*


Un hospital en el que no existen salas de internación no es un hospital, es un policlínico. Del mismo modo, una institución de educación terciaria en donde no se investiga no es una universidad; es justamente eso: un instituto de educación terciaria. Ahora bien, difícilmente alguien pueda estar en desacuerdo si digo que las universidades tienen dos cometidos fundamentales: enseñar e investigar. También tienen otros propósitos como el de la extensión práctica de sus conocimientos hacia la sociedad. Pero investigación y enseñanza son sus cometidos principales y definitorios. En Uruguay hay problemas educativos en los tres niveles educativos (primaria, secundaria y terciaria). Eso no es novedad. Algo novedoso, en cambio, es el debate sobre el posicionamiento de las universidades uruguayas en el concierto mundial en relación a estos dos objetivos. Diferentes rankings internacionales consistentemente ubican nuestras universidades en lugares para nada privilegiados, no solo a escala mundial sino también regional. En términos de investigación, por ejemplo, tienen marcados problemas de cantidad, calidad y extensión.

En el mes de agosto, el Director de Educación del MEC, Luis Garibaldi, declaró que el 80% de la investigación del país se produce en la Universidad de la República. Ese dato surge de la interpretación de uno de los indicadores utilizados en el "Scimago Institutions Ranking, World Report 2012". Este lunes pasado, los economistas Juan Dubra y Néstor Gandelman publicaron una breve nota que intenta responder a los comentarios de Garibaldi sobre el déficit de las universidades privadas en términos de investigación.ii Dubra y Gandelman proponen un interesante análisis: comparar las publicaciones en revistas científicas referadas en el área de economía realizadas por investigadores de universidades privadas frente a las conseguidas por investigadores afiliados a la Universidad de la República (UdelaR). Dejando de lado los detalles metodológicos del estudio, el resultado es el siguiente: desde 2006, los 19 economistas de las universidades privadas incluidos en el Sistema Nacional de Investigadores (SNI) han logrado publicar más en revistas referadas de mayor calidad que los 36 economistas de la UdelaR que pertenecen al SNI. Dubra y Gandelman sugieren que este hecho pone en tela de juicio la afirmación de Garibaldi que en las universidades privadas no se investiga. Al menos en economía sí se hacen, y con mayor nivel de impacto.

El ejercicio de Dubra y Gandelman tiene limitaciones importantes. Como los mismos autores puntualizan, su análisis sólo examina un conjunto de publicaciones en revistas de economía lo cual invalida la posibilidad de realizar generalizaciones hacia otras áreas del conocimiento. Ciertamente la participación de investigadores catalogados en el SNI que investigan en universidades privadas es sustancialmente menor al número que lo hace en la UdelaR. Haciendo un ejercicio desprolijoiii podemos ver algunas tendencias importantes. Para empezar, actualmente el SNI registra 1388 investigadores activos radicados en el país. Ese número se divide en seis áreas principales: ciencias agrícolas, sociales, médicas, naturales, humanidades e ingeniería/tecnología. Para empezar, hay áreas en donde la investigación de las universidades privadas es inexistente. Por ejemplo, ninguna de las principales universidades privadas del país investiga en el área de ciencias médicas y de la salud. Asimismo, de los 192 investigadores catalogados en el área de ciencias agrarias, sólo dos investigadores realizan su trabajo desde una universidad privada. Las proporciones de miembros del SNI por tipo de universidad en las otras áreas favorecen siempre a la UdelaR. Solo 10 de los 124 investigadores en el área de humanidades, 58 de los 283 catalogados en ciencias sociales y 19 de los 132 del área de ingeniería y tecnología, investigan desde una universidad privada. Esos números no solo nos muestran la desproporción en cantidad de investigadores reconocidos por el SNI sino también la escasa - y en algunos casos- nula participación de las universidades privadas en la investigación e innovación (no necesariamente en la enseñanza) en ciertos campos del conocimiento. Las razones que explican este hecho son múltiples y no pueden ser tratadas en este espacio. Lo que sí parece evidente es que el análisis de Dubra y Gandelman difícilmente pueda ser repetido en muchas más áreas de investigación.

Pero naturalmente esto no nos dice nada sobre la calidad de la producción científica generada en estos centros de estudio. Dubra y Gandelman tienen un argumento que no se puede desatender fácilmente: cantidad no es sinónimo de calidad. Para la confección de los rankings de producción académica, diez artículos publicados en revistas nacionales o regionales van a valer considerablemente menos que una publicación en una revista top a nivel internacional. Esta lógica ha sido criticada y denostada por muchos. ¿Quién determina cual es una revista top y cual no? ¿Bajo qué criterios podemos decir que lo que se publica en la Revista Uruguaya de Ciencia Política vale menos que lo publicado en el American Political Science Review? Es normal tener ese tipo de suspicacias hacia el sistema de evaluación. Sobre todo porque no todas las áreas de investigación producen artículos científicos como su principal producto. Sin embargo, no es demasiado inteligente quedarse con la idea que los rankings son inútiles o tendenciosos. Pensemos en un caso análogo para entender mejor la situación en la que estamos. Imaginen al maestro Tabárez decidiendo la pareja de delanteros para disputar el mundial de Sudáfrica.iv El número de goles es el indicador más importante para comparar delanteros. Si Tabárez se hubiera guiado por ese indicador, entonces un jugador como el Chino Ximenez debería poder disputar el puesto con Suárez y Forlán. Esa situación parece poco razonable. ¿Por qué? Porque no sólo se debería evaluar el número de goles obtenidos por cada delantero, sino el contexto en donde esos goles fueron conseguidos. No es lo mismo hacer 30 goles en la liga peruana que hacerlos en la liga española. El nivel de exigencia entre estas ligas es tan dispar que no parece razonable utilizar solo un indicador cuantitativo. La calidad importa en esta ecuación.

Con varios matices, algo similar sucede con la producción académica en muchas áreas del conocimiento. Publicar los resultados de una investigación en una revista top a nivel mundial requiere pasar por filtros de exigencia sustancialmente mayores a los que se necesita para hacerlo en revistas regionales. Es razonable que asi sea, dado que las revistas de mayor prestigio son las que marcan el rumbo de las diferentes disciplinas científicas. Y para publicar en esos ámbitos, el investigador debe convencer a un buen numero de expertos que los resultados de su investigación merecen ser compartidos y difundidos en la comunidad científica global.v

El tema es qué hacer con los investigadores nacionales que logran publicar o difundir sus resultados de investigación al más alto nivel. Tomando en cuenta que calidad y no solo cantidad son las variables importantes en esta ecuación: ¿Debemos premiar la excelencia? ¿Debemos incentivar la formación de investigadores de elite? ¿Debemos incentivarlos para que se queden en el país? Esas son sólo unas pocas preguntas cuyas respuestan afectan notoriamente a la comunidad científica nacional. Ahora ya es tiempo para que se debata con seriedad qué indicadores de calidad y cantidad vamos a aceptar para medir nuestra producción académica. Y eso no implica reinventar la rueda, sino atender un poco más a las soluciones que otros países han encontrado. El mundo científico va en una dirección bastante marcada. ¿Es nuestra mejor estrategia negar esa tendencia y seguir midiendo nuestros resultados con nuestros criterios domésticos? La conclusión no es novedosa: debemos exigirnos más y mejor investigación en más áreas del conocimiento. Y eso corre para universidades públicas y privadas.

*Una versión de esta nota fue publicada en Brecha (12/10/2012)
**Agradezco los comentarios de Juan Bogliaccini y Anibal Corti. Naturalmente, todo lo dicho aqui es de mi entera responsabilidad.
iiiNo tuve acceso a la distribución exacta de investigadores del SNI por área y deglosado por institución. Los numeros aquí presentados son estimaciones en base a los cvs publicados on line por el SNI. Aunque los numeros de investigadores distribuidos por institución y área no sean exactos, estos sirven para entender las tendencias y proporciones.
vEsta práctica no esta libre de problemas. Por ejemplo, temas y agendas de investigación que son extremadamente importantes para nuestro país pueden ser poco atractivas a nivel internacional. 

Una muy peleadora reflexión electoral sobre las propuestas en educación, o de cómo somos el perro que se persigue la cola

Autor: Pablo Menese Camargo Advertencia Soy sociólogo. Perdón. Advertencia adicional En febrero, me propusieron escribir para Razones...