Type a search term to find related articles by LIMS subject matter experts gathered from the most trusted and dynamic collaboration tools in the laboratory informatics industry.
Der h-Index ist eine Kennzahl für die weltweite Wahrnehmung eines Wissenschaftlers in Fachkreisen. Die Kennzahl basiert auf bibliometrischen Analysen von Zitationen der Publikationen des Wissenschaftlers. Ein hoher h-Index ergibt sich, wenn eine erhebliche Anzahl von Publikationen des Wissenschaftlers häufig in anderen Veröffentlichungen zitiert wird. Der 2005 von dem Physiker Jorge E. Hirsch vorgeschlagene Bewertungsindex wird gelegentlich auch als Hirsch-Index, Hirschfaktor, Hirsch-Koeffizient oder h-number bezeichnet.
Der h-Index eines Wissenschaftlers kann im Laufe der Zeit nicht sinken; andererseits kann er auch nicht allein über die Anzahl seiner Veröffentlichungen steigen.
Der h-Index kann auch posthum steigen. Nach oben begrenzt ist er mit der Anzahl der Publikationen eines Autors.
Der h-Index eines Wissenschaftlers wurde definiert als die größte Zahl , für die gilt: Publikationen dieses Wissenschaftlers wurden mindestens -mal zitiert.[1]
Äquivalent dazu ist die folgende Definition: Ein Wissenschaftler hat einen Hirsch-Index , wenn von seinen insgesamt Publikationen mindestens -mal und die restlichen Publikationen höchstens -mal zitiert wurden.
Zur Ermittlung kann man alle Veröffentlichungen des Autors nach Zitierhäufigkeiten absteigend aufreihen und so weit durchzählen, bis die -te Veröffentlichung weniger als Zitierungen hat; dann ist .
Laut Hirsch ist ein h-Index von 20 nach 20 Jahren Forschungsaktivität das Zeichen eines erfolgreichen Wissenschaftlers. Ein h-Index von 40 nach 20 Jahren Forschungsaktivität zeige den außergewöhnlichen Wissenschaftler an, der wahrscheinlich nur in Top-Universitäten und großen Forschungslabors gefunden werden könne. Einen h-Index von 60 und höher nach 20 Jahren Forschungsaktivität weisen laut Hirsch nur einzigartige Persönlichkeiten auf.[1]
Einige Beispiele von Autoren mit jeweils 10 Veröffentlichungen:
Der h-Index zur Bewertung wissenschaftlicher Leistungen wurde 2005 von dem argentinischen Physiker Jorge E. Hirsch in den Proceedings of the National Academy of Sciences vorgeschlagen.[1]
Als Datengrundlage zur Berechnung des bibliometrischen Indikators sind diverse Datenquellen denkbar, die Zitierungen nachweisen. Hirsch selbst schlug vor, maßgeblich die Daten des Web of Science zu benutzen, da diese seinerzeit die verlässlichste und umfassendste Datengrundlage darstellten.
Inzwischen kann der h-Index in vielen Zitationsdatenbanken ermittelt werden, z. B. in Google Scholar, wenn der Autor ein Profil hat.
Am Beispiel des theoretischen Physikers Stephen W. Hawking (1942–2018) lässt sich der Einfluss der für die Ermittlung des h-Indexes verwendeten Datenbasis gut veranschaulichen. Die Erhebung der Daten erfolgte am 15. Juni 2017:
Datenbank | Zahl der erfassten Veröffentlichungen |
Gesamtzahl der Zitierungen |
h-Index |
---|---|---|---|
Google Scholar | 908 | 121.425 | 118 |
Scopus | 148 | 29.985 | 66 |
Web of Science CC | 179 | 37.484 | 78 |
Der h-Index wird nicht nur als Kennzahl für Autoren verwendet, sondern auch für Institutionen, Arbeitsgruppen, Länder oder Zeitschriften. Für bestimmte Zwecke werden auch Varianten genutzt (s. u.).
Der h-Index hat einige Vorteile gegenüber anderen Kennzahlen (wie zum Beispiel der Gesamtanzahl von Zitationen eines Autors oder dem Impact-Faktor), da die Zitationen einer einzigen, viel-zitierten Veröffentlichung keinen großen Einfluss auf den Index haben. Dies kann aber auch als Nachteil interpretiert werden, da eventuell bahnbrechende Artikel nicht entsprechend gewürdigt werden (es kommt quasi zu einer harmonischen Angleichung der Bewertung der Zitate). Außerdem wird weder die Zahl der Koautoren noch die Tatsache berücksichtigt, ob die zitierte Publikation eine Originalarbeit oder ein Übersichtsartikel ist. Generell ist zu beachten, dass durch Zitationen die (unterschiedlich begründete) „Popularität“ und nicht notwendigerweise die wissenschaftliche Relevanz einer Publikation gemessen wird; so hätte der früh verstorbene Évariste Galois trotz seiner grundlegenden Arbeiten für die Mathematik nur einen h-index von 2, und Albert Einstein hätte nach dem Annus Mirabilis einen h-index von 4 gehabt.
Grundsätzlich haben junge Forscher niedrigere h-Indizes als ältere im gleichen Fach, da sie noch weniger publiziert haben. In Fächern, in denen weniger publiziert und zitiert wird, sind die h-Indizes niedriger als in Fächern mit hohem Output. Obwohl eine hohe Produktivität nicht zwangsläufig mit einem höheren Index belohnt wird, so kann der h-Index maximal so hoch wie die Anzahl an Veröffentlichungen sein.
Die Erhebung der Grunddaten stellt eine große Schwierigkeit dar. Mit der von Hirsch vorgeschlagenen Datengrundlage (Web of Science von Clarivate) werden unter anderem Buchpublikationen schlecht erfasst, was die Ergebnisse der Erhebung stark beeinflusst. Insbesondere in den Sozial- und Geisteswissenschaften können weitere Veröffentlichungen wie z. B. Buchrezensionen bedeutend sein, ohne dass diese häufig zitiert und damit im h-Index berücksichtigt werden. Wird die Erhebung hingegen auf eine nicht kontrollierte, größere Datengrundlage wissenschaftlicher Veröffentlichungen erweitert (z. B. Google Scholar), so kann der h-Index durch viele Selbstreferenzierungen gezielt manipuliert und leicht in die Höhe getrieben werden, wie 2011 an der Universität Grenoble demonstriert wurde.[2] Deshalb sind h-Indizes immer mit der zugrundeliegenden Datenbank und dem Erhebungsdatum anzugeben. Ferner ist die Abgrenzung von Autoren mit gleichen Namen ein Problem.[3] Durch Verwendung von Identifikatoren wie ORCID wird eine korrekte Zuordnung erreicht.
Die Bedeutung, die der h-Index und vergleichbare bibliometrische Maße für die Karriere von Wissenschaftlern haben, führt zu Optimierungsstrategien, die sich negativ auf die wissenschaftliche Kultur auswirken. So kann es etwa zielführend sein, eine Veröffentlichung in mehrere Teile zu zerlegen und einzeln zu publizieren, eigennutzenorientiert mit Selbstzitaten. Eine weitere mögliche Strategie besteht darin, Gruppen („Denkschulen“) von 10 bis 15 Wissenschaftlern zu bilden, die eine eigene Zeitschrift oder ein ähnliches Publikationsorgan gründen und sich darin gegenseitig häufig zitieren. Ebenso sind Zitationszirkel (auch als Zitierkartelle bezeichnet) eine Möglichkeit, um den persönlichen Faktor besserzustellen. Dabei schließen sich Gruppen von Wissenschaftlern zusammen, die sich gegenseitig bei Veröffentlichung zitieren oder die Gruppenmitglieder bei (absehbar zitierfähigen) Veröffentlichungen als Co-Autoren berücksichtigen. Diese Praktiken können die Seriosität der Wissenschaft untergraben.[4] Entsprechend gibt es Stimmen, den h-Index aufzulösen[5] oder die zahlreichen Defizite des h-Index durch Änderungen zu beheben.[6][7][8][9][10][11]
Ein weiterer Kritikpunkt trifft die Tatsache, dass der h-Index keinerlei Aussagekraft über die Bedeutung der Forschung für die Anwendung hat. Die nachfolgenden Kritikpunkte sind besonders valide für Disziplinen mit (ursprünglich) starkem Anwendungsbezug wie beispielsweise Klimaschutz, Naturschutz oder Forst- und Landwirtschaft. Wissenschaftliche Erkenntnisse finden möglicherweise nicht den Weg in die Praxis und der Informationsbedarf der Praktiker wird von den Wissenschaftlern oft möglicherweise nicht angemessen berücksichtigt. Ein möglicher Grund dafür könnte sein, dass die heutigen Bewertungssysteme der Wissenschaft unter anderem Indices wie den h-Index verwenden, die sich vornehmlich auf die Wahrnehmung der Forschungsarbeit in Wissenschaftskreisen und nicht auf den Outcome in der Praxis fokussieren. Einschränkend ist zu erwähnen, dass aktuell keine Indices zur quantitativen oder qualitativen Bewertung des sog. „Praktischen Outcomes“ existieren. Forschende haben ein Eigeninteresse an einem hohen h-Index, während der Outcome in der Praxis für die Karriere eines Wissenschaftlers möglicherweise weniger relevant ist. Einschränkend muss hier erwähnt werden, dass die Anmeldung von Patenten, finanzielle Entlohnung durch Produktentwicklung und direkte Förderung durch Unternehmen durchaus besonders solcherlei Wissenschaft entlohnen, die anwendbar ist. In der Anwendung bzw. Praxis (Naturschutz, Landwirtschaft, Wasserwirtschaft etc.) werden fremdsprachige Forschungsergebnisse allerdings möglicherweise weniger gelesen. Veröffentlichungen in der Landessprache und in frei zugänglichen Druckwerken könnten dazu beitragen, eine von manchen gesehene Lücke zwischen Forschung und Praxis zu verkleinern. Veröffentlichungen in der Landessprache erreichen in manchen Fachkreisen jedoch möglicherweise weniger Wissenschaftler und werden daher unter Umständen weniger zitiert, abhängig vom jeweiligen Einzelfall. Fragen zum Management spezifischer regionaler Lebensräume sind beispielsweise für den Wissenschaftszirkel global uninteressant und daher weniger zitierfähig. Aufgrund des Zitationsfokusses des h-Index finden regionale Fragestellungen deshalb wesentlich weniger Beachtung in globalen Fachzeitschriften, sondern werden eher in regionalen Fachzeitschriften erörtert.
Ein weiterer Kritikpunkt ist, dass Forschende in Disziplinen, in denen weniger Wissenschaftler arbeiten, unter Umständen schwerer auf eine hohe Anzahl von Zitationen kommen können und daher im Mittel einen geringeren h-index haben als Forschende, die in Disziplinenen arbeiten, in denen sehr viele andere Wissenschaftler tätig sind (z. B. Physik, Biologie). Da diese Indices in Relation zu anderen Wissenschaftlern im Feld beachtet werden, erlaubt der Index dennoch eine kontextualisierte Einordnung durch andere Wissenschaftler. Über die Qualität der Arbeit sagt der h-index nichts aus, nur über die Popularität (s. o.). Im seltenen Extremfall können sogar Forschungsarbeiten mit offensichtlichen methodischen Fehlern viele Zitationen aufweisen und den h-Index anheben, weil andere Wissenschaftler in Kommentaren oder Artikeln auf ebendiese methodischen Schwächen hinweisen und den Artikel somit zitieren.[12]
Zur Zeit der Publikation des Hirsch-Indexes hatte Edward Witten mit 120 den höchsten h-Index unter Physikern. Andere bekannte Physiker erreichten einen h-Index von 62 bis 107. Für Forscher in Biologie und Biomedizin errechnete Hirsch anhand der Zitierungen in den Jahren von 1983 bis 2002 ebenfalls einen h-Index. Den höchsten h-Index dieser Fachgruppe aus dieser Zeit besaß Solomon H. Snyder mit 191, die folgenden 9 Forscher der Rangfolge hatten h-Indizes von 160 bis 120.[1]
Die folgenden Beispiele geben den Stand am 7. Mai 2021 laut der Datenbank Scopus wieder.
Name | Fachgebiet | Veröffent- lichungen |
Summe der Zitierungen |
h-Index | Quelle |
---|---|---|---|---|---|
Albert Einstein | Physik | 102 | 25.984 | 41 | [13] |
Stephen Hawking | Physik | 161 | 44.981 | 75 | [14] |
Didier Queloz | Physik | 494 | 29.739 | 88 | [15] |
Christian Drosten | Virologie | 437 | 42.835 | 88 | [16] |
John B. Goodenough | Chemie | 987 | 130.937 | 164 (27.06.2023) |
[17] |
Edward Witten | Physik | 303 | 111.651 | 145 | [18] |
Anthony Fauci | Immunologie | 1180 | 118.166 | 178 | [19] |
David Baltimore | Virologie | 742 | 125.839 | 179 | [20] |
Ronald M. Evans | Molekularbiologie | 562 | 136.032 | 180 | [21] |
Carlo Maria Croce | Krebsforschung | 1298 | 172.299 | 194 | [22] |
Matthias Mann | Physik | 786 | 168.025 | 204 | [23] |
Solomon H. Snyder | Neurowissenschaften | 1278 | 180.055 | 218 | [24] |
George Whitesides | Chemie | 1370 | 241.022 | 228 | [25] |
Robert Langer | Chemieingenieurwesen | 1761 | 217.459 | 229 | [26] |
Bert Vogelstein | Krebsforschung | 625 | 296.736 | 238 | [27] |
Michael Grätzel | Chemie | 1651 | 333.566 | 259 | [28] |