Esta página tiene fondo negro para ahorrar energía
PREGUNTAS MÁS FRECUENTES
GRUPO DIH
E-mail: indice.h4@gmail.com
Antes de plantear una duda, por favor, mira a ver si es alguna de las que recogemos aquí
P0--¿Quíenes sois? ¿Porqué mantenéis el anonimato?
R0--El Grupo para la Difusión del Índice h (DIH) intenta dar a conocer a los
científicos con mayor índice h de entre los que trabajan en España. Creemos que este índice
aumenta con la calidad de la investigación que se publica y, por tanto, permite establecer rankings de los mejores
investigadores. Invitamos a los curiosos a que comprueben si en la cabecera de muchos rankings están o no los que, con
carácter general, son reconocidos como los mejores en sus especialidades. No se olvide que están allí porque
tienen un alto índice h y no por el número de veces que aparecen en la prensa.
Dado que la información procede de una base de datos de gran prestigio (ISI Web of Knowledge, la mejor de caracter
general), que los valores de h que se obtienen son objetivos y que está al alcance de todos subsanar cualquier error que
hayamos cometido, no creemos necesario tener el respaldo de institución alguna ni dar a conocer nuestros nombres, lo que,
por otra parte, garantiza nuestra independencia. Baste decir que somos veteranos investigadores científicos, que todos
estamos
en los rankings de nuestras áreas con valores de h por encima de la media pero en ningún caso, en cabeza.
Somos conscientes de que quienes no están muy al tanto de las
prácticas usuales en Ciencia critican nuestra decisión de trabajar anónimamente. Sin embargo, los
científicos estamos acostumbrados a que se nos acepten o no nuestras publicaciones, o proyectos para los que
solicitamos subvención, siguiendo siempre el criterio de colegas que, anónimamente, deciden si tienen el nivel y
calidad que exigen las revistas o las instituciones que conceden las ayudas. Nuestro papel en este estudio es también
de evaluación; incluso más: al
establecer rankings hacemos algo más que los que evalúan publicaciones. Estos aprueban o no un artículo pero ni lo
puntúan ni lo comparan, generalmente, con los de otros colegas. Por otra parte, si diéramos a
conocer nuestras instituciones perderíamos también parcialmente nuestro anonimato.
Solo aceptamos felicitaciones, muestras de agradecimiento y críticas razonadas y constructivas.
Martes, 1 de diciembre de 2020
Historia de la página en la que se publican rankings de investigadores científicos residentes en España
confeccionados ordenándolos por áreas científicas y su valor del índice h.
La aventura empezó hace 10 años y, en este momento, nuestra base de datos cuenta con 3971 investigadores, de los
cuales 2382 aparecen en los rankings de 178 áreas. Además, publicamos rankings de las mejores científicas, rankings
de provincias en función del número de investigadores y de sus valores de Fhm (ver pregunta 13), tanto del conjunto total de
investigadores como para los 10 campos de investigación que estudiamos y, finalmente, un ranking de los que han
obtenido premios nacionales o internacionales de Sociedades científicas de prestigio, según nuestro criterio.
Recientemente, hemos creado una página para informar sobre artículos de divulgación publicados por científicos
residentes en España y que cumplen unos requisitos que están publicados.
En esta página se pueden ver respuestas a las preguntas más frecuentes y el procedimiento que seguimos para calcular
los valores de h usando la base de datos ISI WoS. Nuestra política es la de usar para ese cálculo criterios de
carácter general, públicos y objetivos. Nuestra labor se limita a recibir las propuestas para ser incluidos, la
actualización de los valores de h y la comprobación de que se han calculado siguiendo nuestro procedimiento general,
lo que suele ocuparnos aproximadamente 1 año. En cualquier caso, los investigadores pueden, durante el periodo que se
indique en nuestra página, discrepar, razonadamente, de los valores asignados de h. En cualquier caso, el
árbitro que decide las publicaciones que consideramos de cualquier autor y sus citas es Clarivate que administra ISI
WoS. Sin duda, puede que haya otros criterios y, cuando se nos ha puesto de manifiesto y convencido de alguna posible
mejora los hemos cambiado. No faltan quienes creen que, a pesar de todo, podríamos usar otros mejores pero si no nos
convencen lo lógico es que quienes tengan otros puntos de vista emprendan la realización y publicación de otros
estudios basados en sus propios criterios.
P00--¿Si no tenéis ningún beneficio económico, cual es vuestro interés
en llevar a cabo este trabajo?
R00--Lo de obtener un beneficio económico no es mala idea pero, de momento, no está
en nuestros planes. El cambio de hosting de webcindario a hostinger supone un gasto que asumimos desinteresadamente.
Si observas algún anuncio no tiene nada que ver con nosotros.
¿ Nuestro interés? (1) La satisfacción de dar a conocer a excelentes investigadores que, es posible, tal vez
solo lleguen a ser reconocidos, fuera de su entorno científico, por aparecer en nuestros rankings; (2) el poder realizar un
ranking de mujeres investigadoras y (3) hacer un ranking con aquellos que han recibido algún premio de modo que se pueda echar
de menos a algunos que, injustamente, no aparecen en el ranking de premiados. Con este fin estamos añadiendo en cada campo de
investigación una tabla en la que indicamos que algunos muy destacados
investigadores (Fhm>1,5) que todavía no han sido premiados, deberían ser propuestos para ello.
P000--¿En vuestros rankings están todos los que pueden calificarse de excelentes investigadores
españoles?
R000--No. En nuestros rankings no aparecen todos. Por ejemplo, no están aquellos (1) que
voluntariamente,
o porque ignoran nuestro trabajo, no han solicitado su inclusión o (2) cuya producción puede ser excelente
pero escasa, en cuyo caso, su número de citas puede ser muy alto pero su valor de h no llegar al mínimo
requerido. Este problema no creemos que pueda resolverse haciendo los rankings en función del número total
de citas ya que este parámetro depende de factores no siempre ligados a la calidad de la publicación. Por
ejemplo, es muy alto para publicaciones de revisión o con muchos autores. Sin embargo, de lo que si estamos
convencidos es de que todos los que aparecen en nuestros rankings son excelentes investigadores. Por otra parte, en nuestra
opinión, las diferencias entre unos y otros solo se pueden considerar significativas si lo son las de los valores de h.
P0000--Mi valor de h es 54 y, por tanto, estoy muy sorprendido de no aparecer en ningun ranking
R0000--No entiendo su sorpresa ya que ninguna base de datos en el mundo permite saber que investigadores
tienen un valor dado de h. Si exigimos ademas que el autor sea de un area dada el problema es doblemente imposible. Si uno consigue
encontrar todas las publicaciones de un autor, cualquier base de datos nos da su h. El problema es obtener esa lista y no es
suficiente con saber su nombre ni usar su ORCID, que esta confeccionado "a mano" por el autor. Por todo esto para incluirlo
debe enviarnos el BOLETIN PARA SOLICITAR SER INCLUIDO EN LOS RANKINGS y calcular su h siguiendo
COMO HACER LAS BUSQUEDAS EN ISI.
Usar el Orcid carece de sentido ya que la lista la hace el propio autor y creame que todavia no hemos visto un ORCID donde no
sobre ni falte una publicacion de su autor.
P1--Tanto el número de mis artículos como mi índice h es superior al que indicáis.
¿Cómo puedo comunicároslo?
R1--Tal vez no usas ISI WoS. El índice h depende de la base de datos que se utilice y, por tanto,
un ranking solo tiene sentido si se usa la misma base de datos para todos los investigadores. Tras un estudio de las tres
más importantes de caracter general (ISI WoS, Scopus y Google académico) concluimos que nuestro estudio solo se
podía realizar con ISI WoS. Por ejemplo, nos marcamos como objetivos deducir nosotros mismos el índice h de los
investigadores así como poder comprobar la información suministrada por quienes no hubieramos detectado. Esto
exigía, en la inmensa mayor parte de los casos, usar como campo de búsqueda la dirección del investigador.
Entre otras razones, ésta nos descartó Google académico. Además, Google no es una base de datos es
un listado de las publicaciones que su ordenador encuentra de todos los que tienen el mismo nombre lo que supone que asigna a
muchos autores publicaciones que no son suyas. Son los propios autores los que se encargan de depurar la lista lo que,
evidentemente, deja muchas dudas sobre su fiabilidad. Por otra parte, las citas que asigna a cada publicación son las
que encuentra en internet de procedencias muy diversas, dudosas y sin que los autores puedan opinar sobre su correción
o incluso sobre su ausencia. Recientemente se ha publicado un estudio sobre la escasa fiabilidad
de los estudios bibliométricos realizados usando Google.
Para no usar Scopus nos basamos en la
información que la propia empresa nos suministró al detectar que una publicación anterior a 1996 no
aparecía: "Scopus has a content policy that is post 1995, this means that most of the journals in Scopus are complete from
1996 onwards. We do have much pre 1996 content but there are many gaps in that content and this is the reason that it would be
irresponsible for us to calculate the H index based on that incomplete pre 1996 content." Muy recientemente se ha
publicado (doi: https://doi.org/10.1038/d41586-021-00239-0) que Scopus alberga artículos de más de 300 revistas
potencialmente "depredadoras" que tienen prácticas de publicación cuestionables. Un análisis ha revelado
que estos títulos aportaron en conjunto más de 160.000 artículos en tres años, casi el 3% de los
estudios indexados en Scopus durante ese periodo. Su presencia en Scopus y en otras bases de datos de investigación
populares hace temer que los estudios de baja calidad puedan inducir a error a los científicos y contaminar la
literatura científica. Puede que el uso de Scopus eleve, por esto, el indice h de muchos autores. Si es su caso, ya sabe
la razón.
En algunos casos, cuando se usa ISI WoS, existen diferencias entre los distintos métodos de búsqueda. En nuestros
rankings usamos el siguiente método. A veces, la diferencia que se observa es
consecuencia del uso de All Databases en lugar de Web of Science Core Collection (seleccionando solo Science Citation Index
Expanded (SCI-EXPANDED) --1900-present). Nuestra decisión está justificada porque de este modo nos garantizamos
que las bases de datos que se usan son de tipo científico lo que no ocurre en All Databases.
En conclusión, para poder ser incluido en un determinado ranking es imprescindible usar la misma base datos (ISI WoS) y el
mismo método de búsqueda para todos los incluidos en cada ranking.
Evidentemente, cualquier autor es libre de usar otros valores de h obtenidos por otras vias. Sin embargo, es esencial que
indique su procedencia: h (Google), h (Scopus), h (ISI WoS) y cómo puede cualquiera comprobar que ese valor es correcto.
Las diferencias entre estos valores son, en la mayoría de los casos, importantes. El índice h que se calcula usando
nuestro protocolo lo llamamos índice h(ISI-DIH)
Si no apareces en el ranking y has seguido nuestro protocolo, envíanos los datos que se recogen en el siguiente
boletín.
Te sugerimos que leas también la R6.
P2--¿Cómo tengo que hacer la búsqueda que me permite saber cuáles son la 125 publicaciones que me asignáis? ¿Cómo puedo obtener el valor de h?
R2--Lee estas reglas para ver el procedimiento general de búsqueda.
Puesto que nuestro trabajo consiste en comparar los valores de h de los investigadores es esencial aplicar el mismo
procedimiento a todos.
P3--Mi área no es la que indicáis. ¿Podéis cambiarla?
R3--Para asignar el área usamos un criterio general y objetivo
P4-- Aparezco en dos áreas con distinto valor de h y número de publicaciones
R4--Esto es así porque esos rankings fueron actualizados en distintas fechas o porque el
cálculo de h se ha hecho con distinto protocolo, por ejemplo, si se trata de areas de
Informática. Ver
P5--El número de citas de alguno de mis artículos es distinto en diferentes bases de datos.
R5--Nosotros usamos ISI WOS. Las citas que ISI recoge son las que se publican en las revistas que están
en su base de datos. Es decir, si la revista A no está incluida en ISI, ninguna de las citas que las publicaciones de
A hacen a trabajos de un autor aparecerán en ISI como citas de éste. Es decir, que las publicaciones que se tienen en cuenta
como fuente de las citas son públicas y perfectamente definidas. Google, por ejemplo, puede incluir como cita de una
publicación, la que aparece en una tesis o un trabajo de fin curso (aunque esa misma cita aparecerá luego en una
publicación) o en unos apuntes de un estudiante o un folleto siempre que se hayan publicado en internet sin que se indique el
criterio usado para considerar o no las fuentes de información. O en un libro, sin que se sepa cuales son estos y con qué
criterios se eligen o se descartan.
Lo mismo ocurre con las revistas. Cuando existen dos versiones de la misma revista en diferente idioma (por ejemplo, Angewandte
Chemie tiene una versión inglesa y otra alemana) las citas se duplican; en ISI, no. Dadas las diferencias entre unas bases
de datos y otras es esencial que para comparar a los investigadores se use para todos la misma base de datos. Por otra parte, solo
ISI permite hacer las búsquedas que se requieren para obtener todas las publicaciones de la mayor parte de los
investigadores que aparecen en nuestro estudio. En conclusión: las diferencias que observas son debidas al distinto repertorio de
fuentes de información que incluye cada base de datos. En Google no son conocidas esas fuentes ni los criterios para su
selección.
Según los responsables de la base de datos de Scopus "For your information Scopus has a content policy that is post 1995, this means
that most of the journals in Scopus are complete from 1996 onwards. We do have much pre 1996 content but there are many gaps in that
content and this is the reason that it would be irresponsible for us to calculate the H index based on that
incomplete pre 1996 content.
The reason we do not have full coverage before 1996 is that we have chosen to focus fully on post 1996 content for a
very wide range of journals, over 15000 journals, and this would not be possible if we bought full coverage for a bigger date range.
Of further interest is the reason pre 1996 content has gaps in it is because most of it was made available to us from other sources within
Elsevier, and as such we only bought the content after 1996, this is why we can add missing content after 1996 and not before, because
we did not buy the pre 1996 content except for some selected titles which have been backfilled."
P6--Mi índice ha aumentado de 22 a 23 ¿podríais cambiar el dato en vuestra lista?
R6--Lo sentimos pero los datos se actualizan a todos los investigadores de la misma área
simultáneamente para que sean comparables. Cuando se actualiza su ranking (ver la fecha en el encabezamiento
del ranking) se le invita a subsanar cualquier error. Si, como dice, no es el caso y su h acaba
de subir no podemos cambiarlo ahora en el ranking porque entonces estaríamos comparando valores de h de distintas fechas.
Debe tambien leer la R1.
P7--Me han concedido un premio, ¿qué información debo daros para que me incluyáis?
R7--
Para aparecer en la página de Premios es imprescindible que el autor aparezca en alguno de nuestros rankings,
que los premios sean concedidos por instituciones científicas o técnicas de reconocido prestigio nacional o
internacional, a nuestro juicio, que los premiados figuren o hayan figurado en la web de la institución que los
otorga y que nos informe de la dirección de dicha web.
P8--¿Por qué no se consideran las publicaciones con 150 o más autores?
R8--A partir de Junio/2012 hemos decidido eliminar todas las publicaciones realizadas por 150 o
más autores. Nuestra decisión está fundada en las dudas que tenemos de que estas publicaciones con
muchos autores puedan ser comparables con otras con un número discreto de ellos y en la dificultad de relacionar
el nombre y la dirección de los autores, lo que es esencial para establecer la búsqueda. Cuando, a nuestro juicio,
el número de estas publicaciones de un autor sea excesivo
deberá aportar una lista exhaustiva de sus Accession Numbers. Hasta ese momento no será incluido
en sus rankings.
P9--En una de mis publicaciones mi nombre aparece como REVERTO en lugar de REVERTE y en otra en mi
dirección aparece VEGO en lugar de VIGO,¿Qué puedo hacer?
R9--Si pinchas en el título aparece toda la información sobre la publicación.
En la columna de la derecha pincha en Suggest a correction, rellena el formulario con los cambios que solicitas y
envíalo. En unas semanas verás hechos los cambios.
P10--Los datos que incluyen no coinciden con los que aparecen en mi Researcher ID,
¿por qué? Hacen mucho trabajo, ¿no serĂa mejor usar el ORCID
R10--Nosotros recomendamos el uso de ORCID. Sin
embargo, como es el autor el que elige la lista de publicaciones incluida en el ORCID puede contener publicaciones que son de
otros autores o que no aparecen
cuando la búsqueda no se realiza usando nuestro protocolo (por ejemplo, usando All Databases).
Por otra parte, es bastante frecuente que no esté actualizado. Por todo ello, la lista de publicaciones de ORCID
ráramente coincide con la que obtenemos mediante una expresión general de búsqueda. Esto nos obliga a
establecer dicha expresión de modo independiente del ORCID lo que nos permite actualizar en cualquier momento los
índices h. No obstante usamos siempre el ORCID para comprobar si existe alguna publicación que, siendo
cláramente del autor, no aparece en nuestra búsqueda. Esto nos sirve para mejorar nuestra expresion de
búsqueda.
P11)-- Ustedes han decidido que yo debo aparecer solamente en la lista de Matemática
Aplicada y no en la de Matemáticas. Tengo compañeros que trabajan en aspectos muy próximos a los
míos y aparecen en Matemáticas, siendo personas adscritas al área de Matemática Aplicada. Otros, en cambio, están
adscritos al área de Análisis Matemático y aparecen en Matemática Aplicada. Otros aparecen
en las dos listas.
R11)-- Este tema está tratado en la R3, pero podemos aclararlo aún más. Cada
investigador elige libremente, no nosotros, en qué revistas publica. ISI, no nosotros, asigna a cada área
un conjunto de revistas de esa especialidad (la lista en la que se consultan los factores de impacto). Cada revista
pertenece a una o varias áreas. Cuando obtenemos la lista de publicaciones de ese investigador, ISI indica a
qué áreas pertenecen. Nosotros lo único que hacemos es señalar a qué área
pertenece la mayor parte de sus publicaciones y así lo hacemos con todos de modo que si a otro colega lo hemos
incluido en otra área es porque publica en otras revistas que se clasifican como de esa área. Si alguien
aparece en dos o más áreas es porque cumple con el requisito que indicamos en la R3. Nuestro trabajo es,
por tanto, objetivo. Nosotros conocemos a investigadores que son Catedráticos de un área que han publicado
solo unos pocos artículos o ninguno de los que ISI cataloga como pertenecientes a esa área. Así es
que dejamos a su consideración el juicio sobre la adecuación de algunas adscripciones administrativas.
P12)-- Han decidido cortar la lista de Matemáticas en el índice h>15, en Matemática Aplicada en el índice h>22. De esta forma la lista de Matemáticas es mucho más larga. La lista de Matemática Aplicada es la que posee el corte más alto con diferencia. Esto me parece totalmente inapropiado y está dando lugar a un gran cabreo que empieza a trasladarse a las sociedades matemáticas. Creo que deberían meditar sobre este asunto.
R12--Hacer un ranking requiere establecer un mínimo que excluya a los que están por debajo de ese valor. De otro modo, se trataría de un listado de todos los investigadores con h igual o >0 y ese no es nuestro objetivo. Si alguien está interesado en ello debe asumir el compromiso de realizar el correspondiente estudio.
¿Establecemos un mínimo cualquiera caprichósamente? NO. Hemos considerado que es razonable que sea la mitad del valor de h del que encabeza la lista. Podríamos haber elegido otro criterio pero estaría sometido a la misma crítica por parte de los que quedaran fuera. Por otra parte, la consulta de todos los rankings pone cláramente de manifiesto que el valor de h depende del área: en unas hay muchos autores con h>30 y en otras no hay ninguno. No resultaría, por tanto, razonable que se estableciera un mínimo común.
No puede establecerse una correlación entre número de autores de un ranking y el valor mínimo sobre la base de dos casos aislados. Puede comprobar que en muchas áreas en las que el mínimo es 10 hay 1 o ninguno mientras que en áreas con mínimos de 30 ó 40 hay muchos.
Respecto al supuesto "cabreo" solo podemos decir que quienes crean que nuestro trabajo puede hacerse mejor con otros criterios son libres, como nosotros, de elegirlos y publicar sus resultados; si pueden implicar a alguna sociedad matemática, que dispone de fondos, mejor. Nosotros trabajamos por amor al arte y, de momento, solo nos compensan los muchos correos de quienes creen que nuestra labor, además de sumamente compleja, es de gran utilidad. Finalmente, hay que decir que desde que se inició este trabajo hemos cambiado de criterios cuando se nos ha solicitado de un modo razonado y convincente pero que no estamos dispuestos a cambiarlos por presiones individuales o colectivas que no estén justificadas y acordes con nuestro criterio o/y capacidad de llevar a cabo tales cambios.
P13) ¿ Podrían explicar qué son el Fh, el Fhm y el Fhmm?
R13)--El índice h
está reconocido
como el mejor indicador de la calidad de un investigador. Sin embargo,
como dicho parámetro depende, muy significativamente, de su área no puede usarse para comparar la
calidad de
investigadores de diferentes áreas. Nosotros resolvemos el problema del siguiente modo: 1) Para
garantizar la calidad de los investigadores de la misma área los ordenamos por su indice h e
incluimos en el ranking a los que tienen h>39 o un h igual a la mitad o más del que encabeza el ranking. El
valor medio de h
de los investigadores de un área, hm, nos da, por tanto, una medida del valor de h que se requiere para estar
incluido en ese ranking. 2) Definimos el parámetro Fh como la relación h/hm de manera que un valor de Fh=1
corresponde a un autor
cuyo h es igual a la media de los valores de h de los investigadores de su área y si es 1,22 o 0,65 se trata
de otro
cuyo h es, respectivamente, el 22% superior o el 35% inferior al valor de hm. De esta forma, dos autores con iguales
valores de Fh pueden considerarse de igual calidad aunque sus áreas sean diferentes. 3) Como hay autores que
trabajan
en 2 o más áreas, cuyos valores de hm suelen ser diferentes, tendrán 2 o más valores de Fh.
Por ello definimos para un investigador el parámetro Fhm como el valor medio de sus diferentes valores de Fh.
Este parámetro se usará en lugar del Fh cuando el investigador sea multiárea.
4) Para un conjunto de investigadores de diferentes áreas (como ocurre en los de una provincia) definimos la Fhm
media, o Fhmm, para poder
comparar, por ejemplo, los conjuntos de investigadores de dos o más provincias.
P14) En mi área hay un error ya que no aparezco a pesar de que mi h=43.
R14)--No se trata de un error. Aunque los primeros autores que se incluyeron en nuestra base de datos fueron
seleccionados por nosotros, en este momento solo podemos incluir a aquellos que lo soliciten enviándonos el siguiente
boletín con los datos que se solicitan siguiendo las instrucciones que se indican.
P15) ISI WoS ha decidido no actualizar el Researcher ID y sustituirlo por Publons ¿Es equivalente?
R15)-- Tener actualizado el Researcher ID era de suma utilidad para nuestro estudio. Su sustitución por
Publons ha anulado completamente dicho interés. Recomendamos tener actualizado el ORCID que nos sirve para el mismo fin que
el antiguo Researcher ID.
P16) Uds rechazan mi solicitud de inclusión en su estudio porque la búsqueda que proponemos
incluye publicaciones que no son mias. Aunque es cierto, he comprobado que las primeras 35 publicaciones más citadas
tienen 35 o más citas; por tanto, mi h=35.
R16)-- Es cierto, pero ¿lo será también cuando actualicemos sus datos la próxima
vez? ¿Tendremos que escribirle a Ud, y a todos los que están en su caso, para confirmar que las extrapublicaciones
no influyen entonces en su valor de h? ¿Cuánto deberemos esperar para obtener sus respuestas? ¿Qué
hacemos si no obtenemos respuesta? Además, ¿nos fiamos de todo el mundo? Si Ud cree que sí entonces
¿podemos cambiar de método y pedir a todos que nos comuniquen su valor de h y los publicamos sin comprobarlos?
Lamentablemente, aunque nos sea más costoso, no vamos a cambiar de método para que nadie pueda dudar de los datos
que publicamos. Finalmente: puede ser dificil, pero no, generalmente, imposible, eliminar las publicaciones de un homónimo.
Si no sabe cómo, puede consultarnos. También es gratis.
P17) En mis publicaciones incluyo varias direcciones. ¿Por qué solo mencionan en los
rankings las que corresponden a una misma provincia?
R17)-- Es cierto; esa decisión es consecuencia de nuestro propósito de llevar a cabo
rankings de provincias lo que exige asignar a cada autor la provincia en la que se ubica su(s) centro(s) de
investigación.
Esa asignación se lleva a cabo tal y como indicamos en el documento de requisitos para
aparecer en nuestros rankings. Se trata de que el lector sepa para qué institución trabaja el
investigador, donde están
sus colaboradores, los instrumentos y medios científicos que usa, etc. Respetamos, pero no compartimos, la
decisión de muchos
autores de informar a los lectores de sus publicaciones sobre la lista de instituciones con las que mantiene relaciones ya
que no
parece creible que la publicación en cuestión se haya desarrollado en lugares a veces tan apartados entre
sí
(miles de km en muchos casos). No falta quien nos informa en sus publicaciones de que es miembro de tal o cual sociedad
científica o que ostenta una cátedra ICREA o XXXX o que pertenece a una asociación de colegas que trabajan
en un área común o que viaja periódicamente a dar una conferencia o a intercambiar ideas con un colega
que reside en otro continente o que colabora en un programa de investigación sobre un tema específico, etc.
etc. Creemos que una publiación científica no es el sitio adecuado para
difundir el CV de su autor. Llegamos a esta conclusión después descartar a cualquier ser no divino que tenga
el don de la ubicuidad o que pretenda que su vecino del quinto sepa cual es su vida y milagros científicos. No
obstante, si algún investigador trabaja realmente para dos instituciones distintas ubicadas en dos países o
provincias diferentes y están obligados a citarlas en todas sus publicaciones, lamentamos excluirlos: cualquier trabajo
requiere establecer normas que acoten el campo de estudio
y, en nuestro caso, están claramente indicadas en el documento de requisitos para
aparecer en nuestros rankings
Puedes consultar también CONSIDERACIONES GENERALES SOBRE LOS RANKINGS
VOLVER A LA PÁGINA PRINCIPAL