Statistik richtig anwenden und gängige Fehler vermeiden
- Daten sinnvoll auswerten – mit den geeigneten Verfahren
- Die richtigen Fragen stellen und passende Experimente durchführen
- Die häufigsten Fehler kennen und Fallstricke umgehen
Statistische Datenanalysen sind ein Grundpfeiler der Wissenschaft. Die Vielfalt der zur Verfügung stehenden Verfahren und Methoden lässt Forschern jedoch einen enormen Spielraum bei der Analyse ihrer Daten. Leider fehlt vielen Wissenschaftlern das fundierte Fachwissen, statistische Verfahren korrekt anzuwenden. Deshalb werden häufig nicht die richtigen Analysen vorgenommen, die zu zahlreichen falschen Ergebnisse führen.
Mit diesem Buch erhalten Wissenschaftler und Studenten einen kompakten Leitfaden für die korrekte Anwendung statistischer Verfahren. Gängige Fehler und Missstände bei der Erstellung von Statistiken werden anhand konkreter Fallbeispiele aufgedeckt und dafür praktische Lösungen angeboten.
Der Autor gibt zahlreiche Hinweise u.a. zu folgenden Themen:
- Die richtigen Fragen stellen, geeignete Experimente entwerfen und korrekte statistische Analysemethoden auswählen
- p-Werte, Signifikanz, Nicht-Signifikanz, Konfidenzintervalle und Regression
- Auswahl einer geeigneten Stichprobengröße und Vermeidung falscher Positiver
Am Ende der Kapitel finden Sie Tipps, die Aufschluss darüber geben, welche statistischen Verfahren Sie anwenden können, um die häufigsten Fallstricke zu umgehen. So werden Sie auf die verbreitetsten Probleme hingewiesen und in die Lage versetzt, das für eine gegebene Aufgabe am besten geeignete statistische Verfahren auszuwählen.
Dieses Buch ist ein kompakter und praktischer Ratgeber, der Ihnen dabei hilft, Forschung zu betreiben, deren Statistik Hand und Fuß hat.
Aus dem Inhalt:
- Interpretation von Signifikanzwerten (p-Wert und t-Test)
- Hypothesentests
- Konfidenzintervalle
- Falsche Positive und falsche Negative
- Neyman-Pearson-System
- Statistische Teststärke und Sicherheitsgrad
- Prävalenzfehler vermeiden
- Bonferroni-Korrektur
- Benjamini-Hochberg-Verfahren
- Standardabweichung und Standardfehler
- Regression
- Medianwertaufteilung
- ANOVA-Verfahren
- Einflussvariablen, Zielvariablen, Störvariablen
- Leave-one-out-Kreuzvalidierung
- Simpsons Paradoxon
- Statistische Irrtümer
Über den Autor:
Alex Reinhart ist Doktorand an der Carnegie Mellon University in Pittsburgh, Pennsylvania, und unterrichtet dort Statistik. Seinen Bachelor of Science in Physik erlangte er an der University of Texas in Austin. Er befasst sich mit Forschungsarbeiten zum Aufspüren radioaktiver Objekte unter Zugrundelegung physikalischer und statistischer Gesetzmäßigkeiten.
Pressestimmen:
“Beeindruckend war ich von dem Verweis auf Open¬Source¬Software wie Sweave, IPython oder LaTeX. […] Sehr gut gefallen hat mir u.a. das Kapitel über „Korrelation und Kausalität“ – etwas, was viele Menschen immer wieder durcheinanderbringen.“
Deesaster-Blog , 03/2017
“Der schönste A/B-Test ist sinnlos, wenn das Ergebnis nicht statistisch belastbar, die Stichprobe zu klein und die Teststärke unzureichend ist. Losgelöst von trockener Theorie greift das Buch elementare Fehler in der Dateninterpretation auf und erläutert anhand von Beispielen statistische Hintergründe, ohne selbst zu tief in die Mathematik einzusteigen.“
Website Boosting , 01/2017