Frage:
Was ist der Unterschied zwischen naiven und angepassten p-Werten in einer GWAS-Studie?
719016
2012-07-31 19:34:12 UTC
view on stackexchange narkive permalink

Was ist der Unterschied zwischen einem naiven p-Wert und einem angepassten p-Wert in den Ergebnissen einer GWAS-Studie? Siehe aus diesem Artikel:

Nach der Bonferroni-Anpassung war ein einzelnes Gen, DCTN4 (kodierend für Dynactin 4) auf Chromosom 5q33.1, signifikant mit der Zeit bis zum chronischen P assoziiert Aeruginosa-Infektion (naives P = 2,2 × 10 –6; angepasstes P = 0,025; ergänzende 1).

Warum haben sie es überhaupt gemeldet? Weil die angepassten Werte nicht unter ihrem Signifikanzniveau liegen? Nun, Pech!
Stimmen Sie zu, einschließlich des nicht angepassten p-Werts, der nur um einen großen roten Hering wedelt.
Hummm, denkst du, sie haben den nicht angepassten p-Wert eingeschlossen, weil der angepasste p-Wert nicht sehr gut ist?
Keine Ahnung. Für die normale 5% -Schwelle ist der angepasste p-Wert tatsächlich noch signifikant. Ich habe mehrmals gesehen, dass ein nicht angepasster p-Wert in Zeitungen ohne Erklärung angegeben wurde, warum dies getan wurde. Vielleicht berichten die Forscher nur, was die Software ihnen gibt, ohne zu hinterfragen, ob es sinnvoll ist.
Ich vermute, einer der Gründe für die Meldung des nicht angepassten Werts ist, wie ich in meiner Antwort anspreche, dass viele Artikel jetzt einfach einen Grenzwert von nicht 0,05 verwenden, anstatt eine Art Mehrfachvergleichsanpassung zu verwenden (die ihre eigenen Probleme hat). Die unangepasste Antwort ermöglicht einen Vergleich mit diesen Studien - ich glaube nicht, dass es sich um einen roten Hering handelt.
Zwei antworten:
Konrad Rudolph
2012-08-01 00:13:39 UTC
view on stackexchange narkive permalink

Es gibt einen XKCD-Comic, der das Problem erklärt. Leider ist dieser Comic zu groß, um hier zu posten. Kurz gesagt, ein p -Wert von 0,1 besagt (ungefähr), dass es eine 10% ige Chance (0,1) gibt, dass das beobachtete Ergebnis so extrem 1 sup> ist, wie es einfach zufällig ist (Stichprobenvariation aus einer Population), unter der Annahme, dass die Nullhypothese wahr ist .

Oft werden 5% mehr oder weniger willkürlich als „Cut-off“ gewählt: Ergebnisse mit p -Werte unter denen (die zufällig 1 Mal von 20 auftreten) werden als signifikant bezeichnet - die obigen Ergebnisse sind unbedeutend.

Dies impliziert jedoch direkt, dass Wenn Sie mehrere Studien durchführen, z. B. 20, besteht eine sehr hohe Wahrscheinlichkeit, dass Sie rein zufällig ein „signifikantes“ Ergebnis erzielen, ohne dass ein wirklicher Effekt auftritt.

GWAS-Studien führen im Wesentlichen Experimente an vielen (Hunderten oder Tausenden) durch. von Faktoren gleichzeitig. Daher wäre die Angabe der reinen p -Werte sehr irreführend, da es viele falsche Ergebnisse mit „signifikanten“ p -Werten geben würde. Die Wahrscheinlichkeit, einen oder mehrere falsche Treffer zu erhalten, wird als familienbezogene Fehlerrate (FWER) bezeichnet.

Die FWER kann durch Anpassen der p -Werte, beispielsweise durch Ausführen der Bonferroni-Korrektur. Die resultierenden p -Werte sind ziemlich viel höher, was die verringerte Gewissheit widerspiegelt, dass das Ergebnis zufällig ist, dh die verringerte Signifikanz.

Es ist im Allgemeinen nicht sinnvoll um den nicht angepassten p -Wert zu melden. Es wurde wahrscheinlich hier berichtet, weil die Korrektur für FWER ziemlich konservativ ist (dh eine niedrige falsch-positive Rate gegen eine erhöhte falsch-negative Rate eintauscht) und die Autoren befürchteten, dass der angepasste p -Wert weniger beeindruckend aussah als es sollte. Dies beinhaltet einiges an Interpretation.


1 sup> extreme = unterscheidet sich vom erwarteten Ergebnis unter der Nullhypothese

Ich hätte dies gerne +2: +1 für eine ausgezeichnete, präzise Antwort und +1 für xkcdification.
Fomite
2012-08-12 02:26:45 UTC
view on stackexchange narkive permalink

Ich würde behaupten, dass dies tatsächlich zu CrossValidated gehört.

Im Wesentlichen liegt das Problem darin, wie eine GWAS-Studie durchgeführt wird. Wenn Sie ein ganzes Genom nach Assoziationen durchsuchen, führen Sie tatsächlich Tausende oder Millionen von Experimenten durch, nicht das einzige Experiment, für das die meisten Statistiken entwickelt wurden. Als solches werden Sie viele Ergebnisse finden, die die traditionelle Schwelle für "Signifikanz" rein zufällig erreichen.

Frühe Genomstudien hatten dieses Problem - sie würden Tonnen von falsch positiven Ergebnissen erzeugen, und weil Von den beteiligten Zahlen würden ihre sehr kleinen p-Werte eine falsche Wahrnehmung der Genauigkeit ihrer Ergebnisse geben. Eine Möglichkeit, dies zu handhaben, besteht darin, mehrere Vergleiche anzupassen, um den p-Wert im Wesentlichen zu bestrafen, damit Sie den Schwellenwert für p < 0.05 weiterhin verwenden können willkürliche Grenze, und wählen Sie einfach ein viel, viel strengeres Kriterium für die Signifikanz. Dies ist meines Wissens das, was die meisten hochmodernen GWAS-Epidemiologiestudien tun.

Tatsächlich. Die Bonferroni-p-Wert-Korrektur dividiert einfach das gewünschte Vertrauen (normalerweise 95%: 0,05) durch die Anzahl der durchgeführten unabhängigen Tests - dies gibt Ihnen einen angepassten 95% -Schnitt für die Signifikanz. Alternativ passt die Benjamini-Hochberg-Methode die einzelnen p-Werte tatsächlich an, nachdem Sie alle Ihre Tests durchgeführt haben (siehe das Wiki "False Discovery Rate" http://en.wikipedia.org/wiki/False_discovery_rate).


Diese Fragen und Antworten wurden automatisch aus der englischen Sprache übersetzt.Der ursprüngliche Inhalt ist auf stackexchange verfügbar. Wir danken ihm für die cc by-sa 3.0-Lizenz, unter der er vertrieben wird.
Loading...