Esta página tiene fondo negro para ahorrar energía


PREGUNTAS MÁS FRECUENTES

GRUPO DIH
E-mail: [email protected]


Antes de plantear una duda, por favor, mira a ver si es alguna de las que recogemos aquí

P0--¿Quíenes sois? ¿Porqué mantenéis el anonimato?
R0--El Grupo para la Difusión del Índice h (DIH) intenta dar a conocer a los científicos con mayor índice h de entre los que trabajan en España. Creemos que este índice aumenta con la calidad de la investigación que se publica y, por tanto, permite establecer rankings de los mejores investigadores. Invitamos a los curiosos a que comprueben si en la cabecera de muchos rankings están o no los que, con carácter general, son reconocidos como los mejores en sus especialidades. No se olvide que están allí porque tienen un alto índice h y no por el número de veces que aparecen en la prensa.
Dado que la información procede de una base de datos de gran prestigio (ISI Web of Knowledge, la mejor de caracter general), que los valores de h que se obtienen son objetivos y que está al alcance de todos subsanar cualquier error que hayamos cometido, no creemos necesario tener el respaldo de institución alguna ni dar a conocer nuestros nombres, lo que, por otra parte, garantiza nuestra independencia. Baste decir que somos veteranos investigadores científicos, que todos estamos en los rankings de nuestras áreas con valores de h por encima de la media pero en ningún caso, en cabeza.
Somos conscientes de que quienes no están muy al tanto de las prácticas usuales en Ciencia critican nuestra decisión de trabajar anónimamente. Sin embargo, los científicos estamos acostumbrados a que se nos acepten o no nuestras publicaciones, o proyectos para los que solicitamos subvención, siguiendo siempre el criterio de colegas que, anónimamente, deciden si tienen el nivel y calidad que exigen las revistas o las instituciones que conceden las ayudas. Nuestro papel en este estudio es también de evaluación; incluso más: al establecer rankings hacemos algo más que los que evalúan publicaciones. Estos aprueban o no un artículo pero ni lo puntúan ni lo comparan, generalmente, con los de otros colegas. Por otra parte, si diéramos a conocer nuestras instituciones perderíamos también parcialmente nuestro anonimato.
Solo aceptamos felicitaciones, muestras de agradecimiento y críticas razonadas y constructivas.

Martes, 1 de diciembre de 2020
Historia de la página en la que se publican rankings de investigadores científicos residentes en España confeccionados ordenándolos por áreas científicas y su valor del índice h.
La aventura empezó hace 10 años y, en este momento, nuestra base de datos cuenta con 3971 investigadores, de los cuales 2382 aparecen en los rankings de 178 áreas. Además, publicamos rankings de las mejores científicas, rankings de provincias en función del número de investigadores y de sus valores de Fhm (ver pregunta 13), tanto del conjunto total de investigadores como para los 10 campos de investigación que estudiamos y, finalmente, un ranking de los que han obtenido premios nacionales o internacionales de Sociedades científicas de prestigio, según nuestro criterio. Recientemente, hemos creado una página para informar sobre artículos de divulgación publicados por científicos residentes en España y que cumplen unos requisitos que están publicados.
En esta página se pueden ver respuestas a las preguntas más frecuentes y el procedimiento que seguimos para calcular los valores de h usando la base de datos ISI WoS. Nuestra política es la de usar para ese cálculo criterios de carácter general, públicos y objetivos. Nuestra labor se limita a recibir las propuestas para ser incluidos, la actualización de los valores de h y la comprobación de que se han calculado siguiendo nuestro procedimiento general, lo que suele ocuparnos aproximadamente 1 año. En cualquier caso, los investigadores pueden, durante el periodo que se indique en nuestra página, discrepar, razonadamente, de los valores asignados de h. En cualquier caso, el árbitro que decide las publicaciones que consideramos de cualquier autor y sus citas es Clarivate que administra ISI WoS. Sin duda, puede que haya otros criterios y, cuando se nos ha puesto de manifiesto y convencido de alguna posible mejora los hemos cambiado. No faltan quienes creen que, a pesar de todo, podríamos usar otros mejores pero si no nos convencen lo lógico es que quienes tengan otros puntos de vista emprendan la realización y publicación de otros estudios basados en sus propios criterios.

P00--¿Si no tenéis ningún beneficio económico, cual es vuestro interés en llevar a cabo este trabajo?
R00--Lo de obtener un beneficio económico no es mala idea pero, de momento, no está en nuestros planes. El cambio de hosting de webcindario a hostinger supone un gasto que asumimos desinteresadamente. Si observas algún anuncio no tiene nada que ver con nosotros.
¿ Nuestro interés? (1) La satisfacción de dar a conocer a excelentes investigadores que, es posible, tal vez solo lleguen a ser reconocidos, fuera de su entorno científico, por aparecer en nuestros rankings; (2) el poder realizar un ranking de mujeres investigadoras y (3) hacer un ranking con aquellos que han recibido algún premio de modo que se pueda echar de menos a algunos que, injustamente, no aparecen en el ranking de premiados. Con este fin estamos añadiendo en cada campo de investigación una tabla en la que indicamos que algunos muy destacados investigadores (Fhm>1,5) que todavía no han sido premiados, deberían ser propuestos para ello.

P000--¿En vuestros rankings están todos los que pueden calificarse de excelentes investigadores españoles?
R000--No. En nuestros rankings no aparecen todos. Por ejemplo, no están aquellos (1) que voluntariamente, o porque ignoran nuestro trabajo, no han solicitado su inclusión o (2) cuya producción puede ser excelente pero escasa, en cuyo caso, su número de citas puede ser muy alto pero su valor de h no llegar al mínimo requerido. Este problema no creemos que pueda resolverse haciendo los rankings en función del número total de citas ya que este parámetro depende de factores no siempre ligados a la calidad de la publicación. Por ejemplo, es muy alto para publicaciones de revisión o con muchos autores. Sin embargo, de lo que si estamos convencidos es de que todos los que aparecen en nuestros rankings son excelentes investigadores. Por otra parte, en nuestra opinión, las diferencias entre unos y otros solo se pueden considerar significativas si lo son las de los valores de h.

P1--Tanto el número de mis artículos como mi índice h es superior al que indicáis. ¿Cómo puedo comunicároslo?
R1--Tal vez no usas ISI WoS. El índice h depende de la base de datos que se utilice y, por tanto, un ranking solo tiene sentido si se usa la misma base de datos para todos los investigadores. Tras un estudio de las tres más importantes de caracter general (ISI WoS, Scopus y Google académico) concluimos que nuestro estudio solo se podía realizar con ISI WoS. Por ejemplo, nos marcamos como objetivos deducir nosotros mismos el índice h de los investigadores así como poder comprobar la información suministrada por quienes no hubieramos detectado. Esto exigía, en la inmensa mayor parte de los casos, usar como campo de búsqueda la dirección del investigador. Entre otras razones, ésta nos descartó Google académico. Además, Google no es una base de datos es un listado de las publicaciones que su ordenador encuentra de todos los que tienen el mismo nombre lo que supone que asigna a muchos autores publicaciones que no son suyas. Son los propios autores los que se encargan de depurar la lista lo que, evidentemente, deja muchas dudas sobre su fiabilidad. Por otra parte, las citas que asigna a cada publicación son las que encuentra en internet de procedencias muy diversas, dudosas y sin que los autores puedan opinar sobre su correción o incluso sobre su ausencia. Recientemente se ha publicado un estudio sobre la escasa fiabilidad de los estudios bibliométricos realizados usando Google.
Para no usar Scopus nos basamos en la información que la propia empresa nos suministró al detectar que una publicación anterior a 1996 no aparecía: "Scopus has a content policy that is post 1995, this means that most of the journals in Scopus are complete from 1996 onwards. We do have much pre 1996 content but there are many gaps in that content and this is the reason that it would be irresponsible for us to calculate the H index based on that incomplete pre 1996 content." Muy recientemente se ha publicado (doi: https://doi.org/10.1038/d41586-021-00239-0) que Scopus alberga artículos de más de 300 revistas potencialmente "depredadoras" que tienen prácticas de publicación cuestionables. Un análisis ha revelado que estos títulos aportaron en conjunto más de 160.000 artículos en tres años, casi el 3% de los estudios indexados en Scopus durante ese periodo. Su presencia en Scopus y en otras bases de datos de investigación populares hace temer que los estudios de baja calidad puedan inducir a error a los científicos y contaminar la literatura científica. Puede que el uso de Scopus eleve, por esto, el indice h de muchos autores. Si es su caso, ya sabe la razón.
En algunos casos, cuando se usa ISI WoS, existen diferencias entre los distintos métodos de búsqueda. En nuestros rankings usamos el siguiente método. A veces, la diferencia que se observa es consecuencia del uso de All Databases en lugar de Web of Science Core Collection (seleccionando solo Science Citation Index Expanded (SCI-EXPANDED) --1900-present). Nuestra decisión está justificada porque de este modo nos garantizamos que las bases de datos que se usan son de tipo científico lo que no ocurre en All Databases.
En conclusión, para poder ser incluido en un determinado ranking es imprescindible usar la misma base datos (ISI WoS) y el mismo método de búsqueda para todos los incluidos en cada ranking. Evidentemente, cualquier autor es libre de usar otros valores de h obtenidos por otras vias. Sin embargo, es esencial que indique su procedencia: h (Google), h (Scopus), h (ISI WoS) y cómo puede cualquiera comprobar que ese valor es correcto. Las diferencias entre estos valores son, en la mayorúa de los casos, importantes. El índice h que se calcula usando nuestro protocolo lo llamamos índice h(ISI-DIH)
Si no apareces en el ranking y has seguido nuestro protocolo, envíanos los datos que se recogen en el siguiente boletín.
Te sugerimos que leas también la R6.

P2--¿Cómo tengo que hacer la búsqueda que me permite saber cuáles son la 125 publicaciones que me asignáis? ¿Cómo puedo obtener el valor de h?
R2--Lee estas reglas para ver el procedimiento general de búsqueda. Puesto que nuestro trabajo consiste en comparar los valores de h de los investigadores es esencial aplicar el mismo procedimiento a todos.

P3--Mi área no es la que indicáis. ¿Podéis cambiarla?
R3--Para asignar el área usamos un criterio general y objetivo

P4-- Aparezco en dos áreas con distinto valor de h y número de publicaciones
R4--Esto es así porque esos rankings fueron actualizados en distintas fechas o porque el cálculo de h se ha hecho con distinto protocolo, por ejemplo, si se trata de areas de Informática. Ver

P5--El número de citas de alguno de mis artículos es distinto en diferentes bases de datos.
R5--Nosotros usamos ISI WOS. Las citas que ISI recoge son las que se publican en las revistas que están en su base de datos. Es decir, si la revista A no está incluida en ISI, ninguna de las citas que las publicaciones de A hacen a trabajos de un autor aparecerán en ISI como citas de éste. Es decir, que las publicaciones que se tienen en cuenta como fuente de las citas son públicas y perfectamente definidas. Google, por ejemplo, puede incluir como cita de una publicación, la que aparece en una tesis o un trabajo de fin curso (aunque esa misma cita aparecerá luego en una publicación) o en unos apuntes de un estudiante o un folleto siempre que se hayan publicado en internet sin que se indique el criterio usado para considerar o no las fuentes de información. O en un libro, sin que se sepa cuales son estos y con qué criterios se eligen o se descartan. Lo mismo ocurre con las revistas. Cuando existen dos versiones de la misma revista en diferente idioma (por ejemplo, Angewandte Chemie tiene una versión inglesa y otra alemana) las citas se duplican; en ISI, no. Dadas las diferencias entre unas bases de datos y otras es esencial que para comparar a los investigadores se use para todos la misma base de datos. Por otra parte, solo ISI permite hacer las búsquedas que se requieren para obtener todas las publicaciones de la mayor parte de los investigadores que aparecen en nuestro estudio. En conclusión: las diferencias que observas son debidas al distinto repertorio de fuentes de información que incluye cada base de datos. En Google no son conocidas esas fuentes ni los criterios para su selección.
Según los responsables de la base de datos de Scopus "For your information Scopus has a content policy that is post 1995, this means that most of the journals in Scopus are complete from 1996 onwards. We do have much pre 1996 content but there are many gaps in that content and this is the reason that it would be irresponsible for us to calculate the H index based on that incomplete pre 1996 content. The reason we do not have full coverage before 1996 is that we have chosen to focus fully on post 1996 content for a very wide range of journals, over 15000 journals, and this would not be possible if we bought full coverage for a bigger date range. Of further interest is the reason pre 1996 content has gaps in it is because most of it was made available to us from other sources within Elsevier, and as such we only bought the content after 1996, this is why we can add missing content after 1996 and not before, because we did not buy the pre 1996 content except for some selected titles which have been backfilled."


P6--Mi índice ha aumentado de 22 a 23 ¿podríais cambiar el dato en vuestra lista?
R6--Lo sentimos pero los datos se actualizan a todos los investigadores de la misma área simultáneamente para que sean comparables. Cuando se actualizó su ranking (ver la fecha en el encabezamiento del ranking) se le envió un correo invitándole a subsanar cualquier error. Si, como dice, no es el caso y su h acaba de subir no podemos cambiarlo ahora en el ranking porque entonces estaríamos comparando valores de h de distintas fechas. Debe tambien leer la R1.

P7--Me han concedido un premio, ¿qué información debo daros para que me incluyáis?
R7-- Para aparecer en la página de Premios es imprescindible que el autor aparezca en alguno de nuestros rankings, que los premios sean concedidos por instituciones científicas o técnicas de reconocido prestigio nacional o internacional, a nuestro juicio, que los premiados figuren o hayan figurado en la web de la institución que los otorga y que nos informe de la dirección de dicha web.

P8--¿Por qué no se consideran las publicaciones con 150 o más autores?
R8--A partir de Junio/2012 hemos decidido eliminar todas las publicaciones realizadas por 150 o más autores. Nuestra decisión está fundada en las dudas que tenemos de que estas publicaciones con muchos autores puedan ser comparables con otras con un número discreto de ellos y en la dificultad de relacionar el nombre y la dirección de los autores, lo que es esencial para establecer la búsqueda. Cuando, a nuestro juicio, el número de estas publicaciones de un autor sea excesivo deberá aportar una lista exhaustiva de sus Accession Numbers. Hasta ese momento no será incluido en sus rankings.

P9--En una de mis publicaciones mi nombre aparece como REVERTO en lugar de REVERTE y en otra en mi dirección aparece VEGO en lugar de VIGO,¿Qué puedo hacer?
R9--Si pinchas en el título aparece toda la información sobre la publicación. En la columna de la derecha pincha en Suggest a correction, rellena el formulario con los cambios que solicitas y envíalo. En unas semanas verás hechos los cambios.

P10--Los datos que incluyen no coinciden con los que aparecen en mi Researcher ID, ¿por qué? Hacen mucho trabajo, ¿no serĂ­a mejor usar el ORCID
R10--Nosotros recomendamos el uso de ORCID. Sin embargo, como es el autor el que elige la lista de publicaciones incluida en el ORCID puede contener publicaciones que son de otros autores o que no aparecen cuando la búsqueda no se realiza usando nuestro protocolo (por ejemplo, usando All Databases). Por otra parte, es bastante frecuente que no esté actualizado. Por todo ello, la lista de publicaciones de ORCID ráramente coincide con la que obtenemos mediante una expresión general de búsqueda. Esto nos obliga a establecer dicha expresión de modo independiente del ORCID lo que nos permite actualizar en cualquier momento los índices h. No obstante usamos siempre el ORCID para comprobar si existe alguna publicación que, siendo cláramente del autor, no aparece en nuestra búsqueda. Esto nos sirve para mejorar nuestra expresion de búsqueda.

P11)-- Ustedes han decidido que yo debo aparecer solamente en la lista de Matemática Aplicada y no en la de Matemáticas. Tengo compañeros que trabajan en aspectos muy próximos a los míos y aparecen en Matemáticas, siendo personas adscritas al área de Matemática Aplicada. Otros, en cambio, están adscritos al área de Análisis Matemático y aparecen en Matemática Aplicada. Otros aparecen en las dos listas.
R11)-- Este tema está tratado en la R3, pero podemos aclararlo aún más. Cada investigador elige libremente, no nosotros, en qué revistas publica. ISI, no nosotros, asigna a cada área un conjunto de revistas de esa especialidad (la lista en la que se consultan los factores de impacto). Cada revista pertenece a una o varias áreas. Cuando obtenemos la lista de publicaciones de ese investigador, ISI indica a qué áreas pertenecen. Nosotros lo único que hacemos es señalar a qué área pertenece la mayor parte de sus publicaciones y así lo hacemos con todos de modo que si a otro colega lo hemos incluido en otra área es porque publica en otras revistas que se clasifican como de esa área. Si alguien aparece en dos o más áreas es porque cumple con el requisito que indicamos en la R3. Nuestro trabajo es, por tanto, objetivo. Nosotros conocemos a investigadores que son Catedráticos de un área que han publicado solo unos pocos artículos o ninguno de los que ISI cataloga como pertenecientes a esa área. Así es que dejamos a su consideración el juicio sobre la adecuación de algunas adscripciones administrativas.

P12)-- Han decidido cortar la lista de Matemáticas en el índice h>15, en Matemática Aplicada en el índice h>22. De esta forma la lista de Matemáticas es mucho más larga. La lista de Matemática Aplicada es la que posee el corte más alto con diferencia. Esto me parece totalmente inapropiado y está dando lugar a un gran cabreo que empieza a trasladarse a las sociedades matemáticas. Creo que deberían meditar sobre este asunto.
R12--Hacer un ranking requiere establecer un mínimo que excluya a los que están por debajo de ese valor. De otro modo, se trataría de un listado de todos los investigadores con h igual o >0 y ese no es nuestro objetivo. Si alguien está interesado en ello debe asumir el compromiso de realizar el correspondiente estudio.
¿Establecemos un mínimo cualquiera caprichósamente? NO. Hemos considerado que es razonable que sea la mitad del valor de h del que encabeza la lista. Podríamos haber elegido otro criterio pero estaría sometido a la misma crítica por parte de los que quedaran fuera. Por otra parte, la consulta de todos los rankings pone cláramente de manifiesto que el valor de h depende del área: en unas hay muchos autores con h>30 y en otras no hay ninguno. No resultaría, por tanto, razonable que se estableciera un mínimo común.
No puede establecerse una correlación entre número de autores de un ranking y el valor mínimo sobre la base de dos casos aislados. Puede comprobar que en muchas áreas en las que el mínimo es 10 hay 1 o ninguno mientras que en áreas con mínimos de 30 ó 40 hay muchos.
Respecto al supuesto "cabreo" solo podemos decir que quienes crean que nuestro trabajo puede hacerse mejor con otros criterios son libres, como nosotros, de elegirlos y publicar sus resultados; si pueden implicar a alguna sociedad matemática, que dispone de fondos, mejor. Nosotros trabajamos por amor al arte y, de momento, solo nos compensan los muchos correos de quienes creen que nuestra labor, además de sumamente compleja, es de gran utilidad. Finalmente, hay que decir que desde que se inició este trabajo hemos cambiado de criterios cuando se nos ha solicitado de un modo razonado y convincente pero que no estamos dispuestos a cambiarlos por presiones individuales o colectivas que no estén justificadas y acordes con nuestro criterio o/y capacidad de llevar a cabo tales cambios.

P13) ¿ Podrían explicar qué son el Fh, el Fhm y el Fhmm?
R13)--El índice h está reconocido como el mejor indicador de la calidad de un investigador. Sin embargo, como dicho parámetro depende, muy significativamente, de su área no puede usarse para comparar la calidad de investigadores de diferentes áreas. Nosotros resolvemos el problema del siguiente modo: 1) Para garantizar la calidad de los investigadores de la misma área los ordenamos por su indice h e incluimos en el ranking a los que tienen h>39 o un h igual a la mitad o más del que encabeza el ranking. El valor medio de h de los investigadores de un área, hm, nos da, por tanto, una medida del valor de h que se requiere para estar incluido en ese ranking. 2) Definimos el parámetro Fh como la relación h/hm de manera que un valor de Fh=1 corresponde a un autor cuyo h es igual a la media de los valores de h de los investigadores de su área y si es 1,22 o 0,65 se trata de otro cuyo h es, respectivamente, el 22% superior o el 35% inferior al valor de hm. De esta forma, dos autores con iguales valores de Fh pueden considerarse de igual calidad aunque sus áreas sean diferentes. 3) Como hay autores que trabajan en 2 o más áreas, cuyos valores de hm suelen ser diferentes, tendrán 2 o más valores de Fh. Por ello definimos para un investigador el parámetro Fhm como el valor medio de sus diferentes valores de Fh. Este parámetro se usará en lugar del Fh cuando el investigador sea multiárea. 4) Para un conjunto de investigadores de diferentes áreas (como ocurre en los de una provincia) definimos la Fhm media, o Fhmm, para poder comparar, por ejemplo, los conjuntos de investigadores de dos o más provincias.

P14) En mi área hay un error ya que no aparezco a pesar de que mi h=43.
R14)--No se trata de un error. Aunque los primeros autores que se incluyeron en nuestra base de datos fueron seleccionados por nosotros, en este momento solo podemos incluir a aquellos que lo soliciten enviándonos el siguiente boletín con los datos que se solicitan siguiendo las instrucciones que se indican.

P15) ISI WoS ha decidido no actualizar el Researcher ID y sustituirlo por Publons ¿Es equivalente?
R15)-- Tener actualizado el Researcher ID era de suma utilidad para nuestro estudio. Su sustitución por Publons ha anulado completamente dicho interés. Recomendamos tener actualizado el ORCID que nos sirve para el mismo fin que el antiguo Researcher ID.

P16) Uds rechazan mi solicitud de inclusión en su estudio porque la búsqueda que proponemos incluye publicaciones que no son mias. Aunque es cierto, he comprobado que las primeras 35 publicaciones más citadas tienen 35 o más citas; por tanto, mi h=35.
R16)-- Es cierto, pero ¿lo será también cuando actualicemos sus datos la próxima vez? ¿Tendremos que escribirle a Ud, y a todos los que están en su caso, para confirmar que las extrapublicaciones no influyen entonces en su valor de h? ¿Cuánto deberemos esperar para obtener sus respuestas? ¿Qué hacemos si no obtenemos respuesta? Además, ¿nos fiamos de todo el mundo? Si Ud cree que sí entonces ¿podemos cambiar de método y pedir a todos que nos comuniquen su valor de h y los publicamos sin comprobarlos? Lamentablemente, aunque nos sea más costoso, no vamos a cambiar de método para que nadie pueda dudar de los datos que publicamos. Finalmente: puede ser dificil, pero no, generalmente, imposible, eliminar las publicaciones de un homónimo. Si no sabe cómo, puede consultarnos. También es gratis.

P17) En mis publicaciones incluyo varias direcciones. ¿Por qué solo mencionan en los rankings las que corresponden a una misma provincia?
R17)-- Es cierto; esa decisión es consecuencia de nuestro propósito de llevar a cabo rankings de provincias lo que exige asignar a cada autor la provincia en la que se ubica su(s) centro(s) de investigación. Esa asignación se lleva a cabo tal y como indicamos en el documento de requisitos para aparecer en nuestros rankings. Se trata de que el lector sepa para qué institución trabaja el investigador, donde están sus colaboradores, los instrumentos y medios científicos que usa, etc. Respetamos, pero no compartimos, la decisión de muchos autores de informar a los lectores de sus publicaciones sobre la lista de instituciones con las que mantiene relaciones ya que no parece creible que la publicación en cuestión se haya desarrollado en lugares a veces tan apartados entre sí (miles de km en muchos casos). No falta quien nos informa en sus publicaciones de que es miembro de tal o cual sociedad científica o que ostenta una cátedra XXXX o que pertenece a una asociación de colegas que trabajan en un área común o que viaja periódicamente a dar una conferencia o a intercambiar ideas con un colega que reside en otro continente o que colabora en un programa de investigación sobre un tema específico, etc. etc. Creemos que una publiación científica no es el sitio adecuado para difundir el CV de su autor. Llegamos a esta conclusión después descartar a cualquier ser no divino que tenga el don de la ubicuidad o que pretenda que su vecino del quinto sepa cual es su vida y milagros científicos. No obstante, si algún investigador trabaja realmente para dos instituciones distintas ubicadas en dos países o provincias diferentes lamentamos excluirlos: cualquier trabajo requiere establecer normas que acoten el campo de estudio y, en nuestro caso, están claramente indicadas en el documento de requisitos para aparecer en nuestros rankings
Puedes consultar también CONSIDERACIONES GENERALES SOBRE LOS RANKINGS

VOLVER A LA PÁGINA PRINCIPAL