Beitragsseiten

 

"Forscher schummeln mehr als Studenten"

 


So ein reißerischer Titel mit Wahrheitskern, der über Nacht verschwunden war.  
Am 20. Dezember 2019 ging eine Science-Meldung in jenem österreichischem Online-Netzwerk, das mit vier Millionen Usern pro Monat die größte Reichweite in Österreich hat. Der Titel hatte es in sich - kein Wunder, dass am nächsten Tag diese Meldung vom Netzwerk verschwunden war.

 
Diese Meldung berief sich auf eine fundierte und statistisch seriöse Meta-Analyse von 250 Masterthesen und Forschungsberichten in der Psychologie. Da muss gestern jemand (oder jemandin,  ;-) ) aufgeschrien und interveniert haben. Zum Teil berechtigt, aber eben nur zum Teil. Ein eher passender Titel hätte gelautet: 'Forscher schummeln anders als Studenten'.
 
Hm, vermutlich hätten die (wahrscheinlich universitär verlinkten) Aufschreier auch diesen passenderen Titel nicht geduldet. Das akademische Prestige steht nämlich auf dem Spiel - Universitätsprofessoren als Schummler? Nie und nimmer!
 
So sozial- und statuspsychologisch verständlich diese Intervention auch sein mag, vom Standpunkt der wissenschaftlichen Objektivität und faktenorientierten öffentlichen Ergebnisangebot her ein erhebliches Problem. 
 
Worum es in der zitierten Studie geht: Das Fach Psychologie hat ein Riesenproblem,  rund die Hälfte aller gefundenen Effekte und Zusammenhänge lassen sich auffinden, die andere Hälfte nicht (!). Das Ergebnis jeder zweiten Studie ist somit nicht replizierbar, wie es so schön heißt. Viel heiße Luft also trotz  tausender Psychologen, die jahrzehntelang quantitativ forschten?
 
Es schaut danach aus, als würde der gegenwärtige Hauptansatz der zahlengetriebenen akademischen Psychologie ('Der Mensch ist durch Statistik zu durchleuchten') in Luft auflösen.
 
Die zitierte Studie - eine Meta-Analyse - untersucht Masterthesen auf fragwürdige Forschungspraktiken wie
 
* Fehlen einer voherige Feststellung der benötigten Test-Trennschärfe,
* p-Hacking (ein unkontrolliertes Fischen nach signifkanten Zusammenhängen im Nachhinein),
* offensichtliche statistische Fehler in der Verwendung usw. Klar - Fehler sind in den Masterthesen zu finden,  und zwar Fehler, welche überwiegend auf mangelnde Methodenkenntnisse schließen lassen.
 
 
Das Spannende aber liegt im Vergleich zu den - in den letzten Jahren erkannten - systematischen Verzerrungen publizierender Forscher. Ja, die professionellen Forscher kennen sich deutlich besser aus mit statistischen Methoden. Nur zeigen sie andere problematische Verhaltensweisen, die mit der Grundidee von (Open) Science kollidieren:
 
* Diese sind etwa Publikations-Bias (positive Zusammenhänge werden eher publiziert als negative),
* Nicht-Vorregistrierung von Forschungsfragen, Hypothesen und Forschungsdesign,
* eine lückenhafte Offenlegung von Daten etc.
 
Die Gründe sind großteils bekannt: Karrieredruck wie publish or perish, prekäre finanzielle Situation der Forschenden in zunehmend ökonomistisch orientierten Universitäten und Fachhochschulen etc. 
 
So trägt jede Gruppe ihr Binkerl: die Masterstudenten können's noch nicht so gut. Die professionellen akademisch Forschenden jagen 24 Stunden am Tag dem Prestige nach oder müssen schlicht um's existenzielle Leiberl rennen.
--> Beides führt zu schlechten Studien. 
 
 
 
 
Perchtenlauf in St. Lambrecht/Steiermark im Dezember 2019
 
Olsen, J. /Mosen, J. /Voracek, M. / Kirchler, E. (2019): Research practices and statistical reporting in 250 economic psychology master's theses: a meta-research investigation. Royal Society Open Science. published: 18. december 2019, https://royalsocietypublishing.org/doi/10.1098/rsos.190738  
 
21. Dezember 2019