Wovon handeln wohl die bisher meistzitierten wissenschaftlichen Paper in diesem Jahrhundert? Von CRISPR-Gentools, mRNA-Impfungen, vom Higgs-Boson oder von Gravitationswellen? Anzeige Falsch geraten. In den Top Ten, die das Fachmagazin Nature zusammengestellt hat, taucht keins dieser Themen auf. "Die am meisten zitierten Paper sind nicht generell die berühmtesten wissenschaftlichen Entdeckungen", kommentiert Nature. "Stattdessen beschreiben diese Arbeiten eher wissenschaftliche Methoden oder Software, die Arbeitspferde, auf die Forschende angewiesen sind." Für das Ranking hat Nature fünf verschiedene Datenbanken mit einigen zehn Millionen Artikeln ausgewertet, die seit dem Jahr 2000 veröffentlicht wurden. Und die Gewinner sind: Deep Residual Learning for Image Recognition (2016) In diesem Paper von Microsoft Research geht es um eine effizientere Trainingsmethode von tiefen neuronalen Netzwerken zur Bilderkennung. Das Konzept dahinter führte unter anderem zu AlphaGo, AlphaFold und schließlich zu Großen Sprachmodellen. Analysis of relative gene expression data (2001) Das Paper von Applied Biosystems beschäftigt sich mit der Analyse von PCR-Experimenten. PCR steht für Polymerase-Kettenreaktion und dient dazu, DNA zu vervielfältigen, um sie untersuchen zu können. Using thematic analysis in psychology (2008) Anzeige Zwei Forscherinnen aus Auckland und Bristol geben in diesem Paper Richtlinien für eine "gezieltere und rigorosere" Anwendungen der "Thematischen Analyse", einer "schlecht abgegrenzten, selten anerkannten, aber dennoch weit verbreiteten qualitativen Analysemethode in der Psychologie". Diagnostic and statistical manual of mental disorders: DSM-5 (2013) Nummer vier auf der Liste ist keine neue Forschungsarbeit, sondern die fünfte Auflage des Diagnose-Handbuches der American Psychiatric Association. Es liefert Kriterien, um psychische Störungen zu erkennen. A short history of SHELX (2007) Das am fünfthäufigsten zitierte Paper stammt von der Uni Göttingen und befasst sich dem Softwarepaket SHELX. Es dient dazu, von Messdaten auf die Struktur von Molekülen zu schließen. Random Forests (2001) Auf Platz sechs landet ein Paper aus Berkeley über Random Forests. Dieses Verfahren wird oft zur Klassifizierung von Datensätzen verwendet, wie etwa zur Analyse von Konflikten und Kriegen. In Zeiten von Deep Learning ist die Methode ein bisschen aus der Mode gekommen. Sie eignet sich aber gut für Tabellen, die viele Daten enthalten, deren Relevanz nicht bekannt ist. Attention Is All You Need (2017) Google-Forschende haben in diesem Paper eine "einfache Netzwerkarchitektur" namens "Transformer" vorgeschlagen (das "T" in "GPT"). Er basiere "ausschließlich auf Aufmerksamkeitsmechanismen" und brauche deutlich weniger Training als bisherige Modelle. Dies war der Durchbruch zu dem, was wir heute als große Sprachmodelle bezeichnen. ImageNet Classification with Deep Convolutional Neural Networks (2012) Noch ein Klassiker: In diesem Paper erklären drei kanadische Forscher, wie sie ein tiefes neuronales Netzwerk trainiert haben, um Bilder mit einer bis dahin unerreichten Genauigkeit zu klassifizieren. Ihr Forschungsansatz hat wesentlich zum Boom von Deep Learning und der heutigen KI beigetragen. Einer der Autoren ist ein gewisser Geoffrey E. Hinton, der dafür 2024 den Nobelpreis für Physik erhielt. Global cancer statistics 2020/ 2018 Die Plätze 9 und 10 gehen an die jährlich veröffentlichten Krebs-Statistiken des Global Cancer Observatory in der Ausgabe von 2020 und 2018. Sie umfassen 36 Krebsarten in 185 Ländern. Dieser Beitrag ist zuerst bei t3n.de erschienen. (wpl)