A+ A-

Revista: Publicar a cualquier precio


El precio de publicar a cualquier coste

En investigación, el peor de los precios de publicar a cualquier precio es no descubrir nada. Y esto puede ocurrir porque publicar no es descubrir, aunque muchos lo confunden.

  • Alonso Rodríguez Navarro

  • Profesor emérito en el Centro de Biotecnología y Genómica de Plantas de la Universidad Politécnica de Madrid

P
ara empezar hay que admitir que la investigación es un oficio raro. En casi todos los oficios se produce algo y en la investigación también, aunque sea intangible. Pero si en lugar de mirar al colectivo de los investigadores miramos a cada uno individualmente, la situación cambia, sobre todo en las ciencias con mayor carga experimental, porque la participación real de muchos investigadores, quizás de la mayor parte, en el progreso del conocimiento es casi nula, aparentemente. Parece que si muchos investigadores hubieran tenido otro oficio, nada habría cambiado, la ciencia estaría donde está. Pero esto es una verdad a medias, por eso la investigación es un oficio raro. Todos los investigadores que lo son de verdad tienen una cierta probabilidad de hacer descubrimientos importantes, dependiendo de su capacidad y de su entorno. Pero los que no lo consiguen también fueron útiles, ya que sin sus exploraciones fallidas, el que acertó también habría fallado. En otras palabras: muchos tienen que fallar para que muy pocos acierten.

Este bajo rendimiento en descubrimientos de la investigación plantea un serio problema para la política científica, cuando la investigación alcanza la dimensión que ahora tiene en los países avanzados, ya que la motivación personal no es suficiente y hay que generar estímulos y controles en las carreras de los investigadores, que no son fáciles de establecer. Una solución atractiva es el análisis bibliométrico de las publicaciones, pero esto es un arma de doble filo, como vamos a ver.

Figura 1. Thomas Khun (1922-1996), científico y filósofo de la ciencia, autor de la obra La estructura de las revoluciones científicas

Figura 2. A la izquierda, Eugene Garfield (1925), fundador y presidente emérito del Institute for Scientific Information (ISI), y Derek John de Solla Price (1922-1983), físico e historiador de la ciencia, considerado como el padre de la cienciometría. Ambos desarrollaron, en los años sesenta, las bases de los análisis bibliométricos actuales

En la década de 1960 se producen algunas claves para este análisis: Thomas Kuhn publica su conocido estudioLa estructura de las revoluciones científicas, y algunos otros trabajos menos conocidos, a la vez que Eugene Garfield y Derek John de Solla Price desarrollan las bases de los análisis bibliométricos actuales –el origen de la bibliometría es anterior– y Garfield crea el ISI (Institute for Scientific Information).Kuhn pone de manifiesto la baja proporción de los descubrimientos y la dificultad de determinar el origen de las ideas que los impulsaron y los segundos abren la puerta a solventar estas dificultades por análisis formales. En el marco de estos análisis formales, investigadores y responsables políticos encuentran en el número de trabajos publicados un mecanismo de estímulo y control sin tener que juzgar los descubrimientos. Pero sustituir el fin de la investigación por el medio que usan los investigadores para comunicar su actividad conllevaba el riesgo de que finalmente alguien confundiera las dos cosas.

«Es obvio, pero algunos no asumen, que la suma de mil trabajos normales no se convierte en un descubrimiento. Los descubrimientos son hechos de baja frecuencia en todos sitios, pero su frecuencia no es la misma en todos los países o instituciones, por eso unos tienen mejor investigación que otros.»

Y así ocurrió en Europa, donde a últimos de la década de 1980 y principios de la siguiente, la Comisión Europea se enamoró de los análisis bibliométricos y arrastró a muchos países en el enamoramiento. Y como prueba fehaciente queda la paradoja europea, que dice que «Europa es mejor que Estados Unidos en ciencia pero no sabe aprovecharla». Pero no es paradoja, sino la consecuencia de contar publicaciones en lugar de descubrimientos, error que se habría solventado contando los premios Nobel. Es obvio, pero algunos no asumen, que la suma de mil trabajos normales no se convierte en un descubrimiento. Los descubrimientos son hechos de baja frecuencia en todos sitios, pero su frecuencia no es la misma en todos los países o instituciones, por eso unos tienen mejor investigación que otros. Por ejemplo, la ratio de trabajos publicados por premio Nobel en Química, Física y Fisiología o Medicina es de 80000 en Estados Unidos y alrededor de 300000 en Europa.

Además, contar publicaciones conduce a lo que la ley de Goodhart previene. En investigación, esta ley se puede enunciar como: «Cuando una medida se convierte en un objetivo deja de ser una buena medida».1 Pero en el caso del número de trabajos publicados las consecuencias son peores, ya que la medida ni siquiera mide el progreso de la ciencia. Por eso, usarla conlleva disminuir las probabilidades de descubrir algo. Es decir, publicar más para descubrir menos.

Por otra parte, contar todas las publicaciones sin distinción, lo mismo en revistas prestigiosas que en hojas parroquiales, era un error que saltaba a la vista. Había que distinguirlas y el ISI tenía aparentemente la solución con sus listados de revistas por campos, ordenadas por el factor de impacto, que es una media de las citas que recibe cada revista. Y el método de valorar cada trabajo por el factor de impacto de la revista en la que se había publicado hizo furor, adoptándose con desmesura, sin límites culturales o económicos, de Finlandia a Pakistán.

Pero el uso del factor de impacto para evaluar las publicaciones es estadísticamente inaceptable. Nadie duda de que las revistas prestigiosas garantizan el rigor y el interés de los trabajos que publican, pero de ahí a convertir al factor de impacto y a la posición en los listados del ISI en una medida del valor científico de cada publicación individual hay una distancia insalvable. Porque ello equivale a suponer que todos los artículos de una revista reciben el mismo número de citas: el factor de impacto; algo tan radicalmente acientífico que es difícil de entender cómo llegó a aplicarse en un entorno de científicos. Tarde, pero llegó el rechazo a semejante disparate. Primero de investigadores aislados, después de las asociaciones de matemáticos y estadísticos y, finalmente, de la comunidad científica en general: editores de revistas, instituciones e investigadores. Todos unidos en la San Francisco Declaration On Research Assessment (DORA), en la que los métodos descritos quedan proscritos para siempre (véase recuadro adjunto).

DORA: hacia una evaluación adecuada de la investigación científica

La Declaración de San Francisco de Evaluación de la Investigación (DORA), impulsada por la Sociedad Americana de Biología Celular (BCSV), junto con un grupo de directores y editores de revistas científicas, reconoce la necesidad de mejorar la forma en que se evalúan los resultados de la investigación científica.

El grupo, que se reunió en diciembre de 2012 en el marco de la Reunión Anual de la BCSV en San Francisco (Estados Unidos), hizo circular posteriormente un proyecto de declaración de los diversos grupos de interés. Actualmente, DORA ha aumentado su influencia, gracias a los miles de firmantes (casi diez mil) que han dado su apoyo al centenar de firmantes originales. Se trata de una iniciativa mundial que abarca todas las disciplinas académicas y que, desde su portal en internet, anima a quienes estén preocupados por la evaluación adecuada de la investigación científica, ya sean personas u organizaciones, a firmar DORA.

Un análisis de los datos disponibles sobre los firmantes DORA individuales (desde el 24 de junio 2013) muestra que el 6% son de humanidades y el 94% de disciplinas científicas, el 46,8% proceden de Europa, el 36,8% de Norteamérica y América Central, el 8,9% de América del Sur, el 5,1% de Asia y el Oriente Medio, el 1,8% de Australia y Nueva Zelanda, y el 0,5% de África.

La Declaración se puede leer y firmar en http://am.ascb.org/dora/.

Redacción

«Publicar miles de trabajos y descubrir poco es el resultado de una mala política científica, no de la mala suerte.»

Llegado a este punto uno puede preguntarse qué queda para juzgar la calidad de la ciencia y a los científicos. Pues queda lo que dicta el sentido común y la estadística. Para juzgar a países e instituciones, donde se acumulan muchos cientos de investigadores y miles de trabajos publicados, hay que contar los descubrimientos. Por baja que sea la proporción, siempre habrá alguno para contar, y si no lo hay, mala cosa, pero no mala suerte. Publicar miles de trabajos y descubrir poco es el resultado de una mala política científica, no de la mala suerte. Por el contrario, en el caso de los investigadores individuales, los descubrimientos importantes no se pueden contar debido a su baja frecuencia y para ellos solo existe el juicio de los pares, debidamente informados.

Contar descubrimientos es difícil, pero, para estimarlos, la bibliometría tiene recursos. Y para hacerlo basta con clasificar las publicaciones por el número de citas y atender a la cola de la derecha de la distribución, que es donde se sitúan las publicaciones muy citadas que se corresponden con los descubrimientos.2 Como en todo proceso de medida, habrá trabajos que reciban menos y otros que reciban más citas de las que merecen, lo que se asume cuando se caracteriza a una población.

Situación en España

Esta historia, contada a grandes rasgos, nos sitúa en condiciones de abordar el problema que más nos interesa a los españoles: ¿qué pasa en España? Y lo que pasa es que somos campeones en eso de publicar y no hacer descubrimientos.3 Empezando por el final de la historia que precede, cabe recordar que en España la mayor parte de las evaluaciones se basan en el número de trabajos publicados. En ocasiones, incluyendo factores de impactos y listados de revistas, como establecen las normas oficiales, por muy acientíficas que sean y por muy proscritas que estén por la comunidad científica.

Para nuestros políticos científicos, todas las publicaciones españolas tienen exactamente el número de citas que corresponde al factor de impacto de la revista. Suena raro, pero está publicado en el BOE.

También está escrito que el CSIC, que es firmante de DORA, aplica en sus evaluaciones del Plan Estratégico, para evaluar la Productividad por Cumplimiento de Objetivos, todo lo que DORA critica. En resumen, en España el objetivo es publicar a cualquier precio y descubrir, que lo hagan otros.

Explicar las causas que nos han llevado a la situación actual puede ser largo si se entra en detalles, pero se puede resumir como la mezcla destructiva de la LRU (Ley de Reforma Universitaria de 1983), prorrogada con las LOU (Ley Orgánica de Universidades de 2001 y 2007) y la falta de compromiso económico y político con la investigación.

La segunda causa es evidente si se consideran los fondos asignados a los proyectos de investigación fundamental, que son la fuente de los descubrimientos que alimentan tanto al progreso científico como a sus aplicaciones industriales o médicas. Pero si la decisión incuestionable es invertir poco, lo lógico habría sido diseñar un sistema de investigación pequeño, bien financiado y dotado de personal técnico suficiente. Menos competitivo habría sido diseñar un sistema grande de producción lenta, pero el error se podría entender. Lo que no se entiende es que se haya diseñado un sistema grande y presionado para publicar mucho, porque ese diseño no podía ser operativo; si lo hubiera sido, los países avanzados habrían sido unos derrochadores y España estaría dando una lección de eficiencia al mundo. Obviamente, de lecciones, ninguna; pero nuestros responsables ignoran los análisis, dicen que somos los mejores y el problema queda solventado. Y así, el Gobierno dice que nuestra investigación adelanta en calidad a la de Suiza4 y los rectores de las universidades dicen que la universidad española es la cuarta del mundo en investigación si se considera la inversión.5 Pero lo único que ha ocurrido es que con la política actual jamás tendremos un premio Nobel,2 lo que no es anecdótico, porque ello conlleva un sistema débil en avances científicos y técnicos, solo especializado en publicar trabajos razonables y técnicamente correctos.3

¿Y qué culpa tiene la LRU en todo esto? Pues diseñar un autogobierno para la universidad de espaldas a su función, reflejo del Gobierno de la nación, con su propio Parlamento, que ha llevado a un clientelismo feroz en las elecciones de sus gobernantes y en la toma de muchas decisiones. Con ello, los intereses de los que componen la institución se anteponen a los de la sociedad.

Esta situación, amplificada por la política autonómica, impide el diseño de una estructura universitaria equilibrada entre docencia e investigación. Por eso, todas las universidades en España son, por definición, investigadoras. Se equivocan quienes piensan que 50 o 60 universidades son muchas para España, pero no hay duda que ese número es insostenible si todas son investigadoras y aspiran a ser como Harvard o el MIT. Un sistema científico de semejante dimensión no es financiable, incluso invirtiendo mucho más de lo que España invierte en investigación.

España necesita un número apreciable de universidades solo docentes, al estilo de los liberal arts collages de Estados Unidos y de otros muchos países, con la investigación justa para mantener una buena docencia, que no incluye el doctorado. Quienes duden de que ese modelo funciona pueden comprobar el prestigio de los titulados en Amherst, Williams, Swarthmore y muchos otros colleges. Pero transformar una universidad en solo docente sin que lo apruebe el parlamento universitario, que no lo aprobará, sería un pecado contra la autonomía universitaria.

Volviendo al principio, un sistema de investigación mal financiado y mal gestionado, dedicado a publicar a bajo coste, conduce a descubrir poco. Y ese es el precio de publicar a cualquier precio.


¿Te ha gustado este artículo? Compártelo en las redes sociales: