La evaluación de la producción científica cobra cada vez mayor importancia en el mundo, como una forma de visibilizar más lo que se hace y rendir cuentas a quienes financian esa labor.
Para el caso de Ciencias Sociales y Humanidades aún queda mucho por evaluar, pero se debe lograr el consenso y definir modelos que se adapten o amolden a esas áreas del conocimiento, pero no pueden ser estos menos rigurosos.
Así lo manifestó la Dra. Elea Giménez Toledo, investigadora del Centro Superior de Investigaciones Científicas (CSIC), de España y representante de ese país europeo en Latindex, quien impartió dos conferencias en la Universidad de Costa Rica tituladas Evaluación de la producción científica en Ciencias Sociales y Humanidades y la Evaluación de la producción científica con herramientas en acceso abierto, del 20 al 21 de marzo.
La especialista en documentación y evaluación de publicaciones y editoriales científicas trabaja en el Instituto de Estudios Documentales sobre Ciencia y Tecnología y en el Centro de Ciencias Humanas y Sociales.
Para Giménez no se trata de pretender excepcionalidades para las Ciencias Sociales y las Humanidades, sino de ampliar las fuentes de información con publicaciones locales y definir los indicadores más adecuados, no utilizar los de otras áreas del conocimiento.
Los estándares de calidad son necesarios en todas las publicaciones y es preferible combinar en la evaluación la parte cualitativa con los indicadores bibliométricos cuantitativos, expresó la expositora.
Añadió que para evaluar mejor se requieren parámetros consistentes, matemáticos y reproducibles y expresó “si nosotros no podemos ver porque ocurre la citación, no es válido contarla”.
Por otra parte señaló la importancia de equilibrar la tendencia a sobrevalorar el Factor de Impacto (número de citas de un artículo durante dos años, en revistas de élite) y utilizar otros indicadores de calidad, como la producción científica de autores, instituciones y departamento y número de veces que ha sido citado un documento, sea cual sea su naturaleza y las veces que se ha descargado y comentado los artículos, para tener una visión más integradora.
Añadió que la evaluación de contenido no es la panacea, porque no es una solución objetiva.
El Dr. Ronny Viales, investigador del año en la UCR por el área de las Ciencias Sociales y director de la Escuela de Historia hizo un análisis de la exposición de la Dra. Elea Giménez Toledo y coincidió con ella en la importancia de aplicar el multicriterio en la evaluación, en respetar los estilos diferentes de hacer ciencia en estas disciplinas y de exigir calidad en las publicaciones.
Para su criterio hay que superar la cienciometría e incorporar otros aspectos de evaluación, se deben consultar también a los investigadores “pequeños” y tratar de que al menos las revistas de la UCR tengan impacto en América Latina.
Asimismo opinó sobre la necesidad de seguir avanzando en la evaluación de las publicaciones, con miras a desarrollar un sistema propio, combatir el endogenismo (editor que publica en la misma revista) e invitar a quienes publican en revistas nacionales para que lo hagan en las internacionales y viceversa.
Por su parte Giménez reconoció que por medio de UCRIndex, la Universidad de Costa Rica, está haciendo una gran labor para mejorar la calidad en sus publicaciones.
Sobre la evaluación que se hace con herramientas de acceso abierto Giménez resaltó el avance logrado a través del tiempo, pues con ellas se facilita o permita ahora una evaluación más completa de la producción científica.
Explicó que debido al costo tan oneroso que tienen los servicios comerciales como Web of Sciences o Scopus, han surgido una serie de iniciativas en el mundo que contribuyen a amplíar y democratizan la literatura científica, aportan otros indicadores de medición de calidad y de distinta naturaleza para artículos, revistas, capítulos de libro y libros completos. Además con estas herramientas abiertas se mitiga la preponderancia del factor de impacto.
Estas herramientas están disponibles en Internet, en forma gratuita. Entre ellas detalló el caso de Latindex, Scielo, Redalyc, Miar, resh, SPI, ERIH, Google Scholar, Scimago, entre muchos otros.
No obstante la expositora aclaró que estas herramientas también tienen un costo, que asumen las instituciones que las respaldan y “debemos pedir que ese apoyo institucional se siga dando”, expresó.
Advirtió que algunas de esas herramientas son vulnerables de ser manipuladas y que los evaluadores y editores de revistas deben saber esto para que tengan cuidado en ese sentido.
Las actividades académicas fueron organizadas por UCR Index y la Escuela de Bibliotecología y Ciencias de la Información.
© 2024 Universidad de Costa Rica - Tel. 2511-4000. Aviso Legal. Última actualización: diciembre, 2024