Wednesday 21 June 2017

Meta Modell In Stata Forex


HINWEIS: Die IDRE Statistische Beratungsgruppe wird die Website im Februar auf das WordPress CMS migrieren, um die Wartung und Erstellung neuer Inhalte zu erleichtern. Einige unserer älteren Seiten werden entfernt oder archiviert, so dass sie nicht mehr gepflegt werden. Wir werden versuchen, Umleitungen zu pflegen, damit die alten URLs weiterhin so gut funktionieren wie möglich. Willkommen im Institut für Digitale Forschung und Bildung Hilfe der Stat Consulting Group durch ein Geschenk Regression mit Stata Kapitel 1 - Einfache und mehrfache Regression Kapitel Gliederung 1.0 Einleitung 1.1 Eine erste Regressionsanalyse 1.2 Untersuchen von Daten 1.3 Einfache lineare Regression 1.4 Multiple Regression 1.5 Transformieren von Variablen 1.6 Zusammenfassung 1.7 Selbsteinstufung 1.8 Für weitere Informationen besteht dieses Buch aus vier Kapiteln, die eine Vielzahl von Themen über die Verwendung von Stata für die Regression abdecken. Wir sollten betonen, dass dieses Buch über quotdata analysisquot ist und dass es zeigt, wie Stata für die Regressionsanalyse verwendet werden kann, im Gegensatz zu einem Buch, das die statistische Basis der multiplen Regression abdeckt. Wir gehen davon aus, dass Sie mindestens einen Statistikkurs für die Regressionsanalyse gehabt haben und dass Sie ein Regressionsbuch haben, das Sie als Referenz verwenden können (siehe Regressions-Stata-Seite und unsere Statistik-Bücher für die Darlehens-Seite für empfohlene Regressionsanalyse-Bücher). Dieses Buch ist entworfen, um Ihr Wissen der Regression anzuwenden, es mit Anweisung auf Stata zu kombinieren, um Regressionsanalysen durchzuführen, zu verstehen und zu interpretieren. Dieses erste Kapitel behandelt Themen in einfacher und multipler Regression sowie die unterstützenden Aufgaben, die bei der Vorbereitung der Analyse Ihrer Daten wichtig sind, z. B. Datenüberprüfung, sich mit Ihrer Datendatei vertraut machen und die Verteilung Ihrer Variablen untersuchen. Wir werden die Grundlagen der einfachen und multiplen Regression veranschaulichen und die Wichtigkeit der Inspektion, Überprüfung und Überprüfung Ihrer Daten vor der Annahme der Ergebnisse Ihrer Analyse demonstrieren. Im Allgemeinen hoffen wir zu zeigen, dass die Ergebnisse Ihrer Regressionsanalyse irreführend sein können, ohne weitere Sondierung Ihrer Daten, die Beziehungen aufdecken könnten, die eine zufällige Analyse übersehen könnte. In diesem Kapitel und in den nachfolgenden Kapiteln werden wir eine Datendatei verwenden, die durch zufällige Stichprobe von 400 Grundschulen aus dem California Department of Educations API 2000 Datensatz erstellt wurde. Diese Datendatei enthält ein Maß für die schulwissenschaftliche Leistung sowie andere Attribute der Grundschulen wie Klassengröße, Einschreibung, Armut, etc. Sie können diese Datendatei über das Internet innerhalb von Stata mit dem Befehl Stata verwenden Unten gezeigt. Anmerkung: Geben Sie den führenden Punkt nicht in den Befehl ein - der Punkt ist eine Konvention, um anzugeben, dass die Anweisung ein Stata-Befehl ist. Sobald Sie die Datei gelesen haben, möchten Sie wahrscheinlich eine Kopie davon auf Ihrem Computer speichern (also müssen Sie es nicht jedes Mal über das Internet lesen). Lets sagen, Sie sind mit Windows und wollen die Datei in einem Ordner namens c: regstata (Sie können einen anderen Namen wählen, wenn Sie möchten). Zuerst können Sie diesen Ordner innerhalb von Stata mit dem Befehl mkdir erstellen. Wir können dann mit dem Befehl cd in dieses Verzeichnis wechseln. Und wenn du die Datei speicherst, wird sie im Ordner c: regstata gespeichert. Lässt die Datei als elemapi speichern. Nun wird die Datendatei als c: regstataelemapi. dta gespeichert und du könntest Stata beenden und die Datendatei wäre noch da. Wenn du die Datei in der Zukunft verwenden möchtest, würdest du einfach den Befehl cd verwenden, um in das Verzeichnis c: regstata (oder was auch immer du es genannt) zu ändern und dann die elemapi Datei zu benutzen. 1.1 Eine erste Regressionsanalyse Lässt Tauchgang rechts ein und führt eine Regressionsanalyse mit den Variablen api00 durch. Acsk3 Mahlzeiten und voll. Diese messen die akademische Leistung der Schule (api00), die durchschnittliche Klassengröße im Kindergarten durch die 3. Klasse (acsk3), der Prozentsatz der Studenten, die freie Mahlzeiten (Mahlzeiten) - das ist ein Indikator für Armut, und der Prozentsatz der Lehrer, die haben Volle Lehraufgaben (voll). Wir erwarten, dass eine bessere akademische Leistung mit einer niedrigeren Klassengröße verbunden sein würde, weniger Studenten, die freie Mahlzeiten erhalten, und einen höheren Prozentsatz der Lehrer, die volle Unterrichtsbescheinigungen haben. Im Folgenden zeigen wir den Stata-Befehl zum Testen dieses Regressionsmodells, gefolgt von der Stata-Ausgabe. Lasst uns auf die drei Prädiktoren konzentrieren, ob sie statistisch signifikant sind, und wenn ja, die Richtung der Beziehung. Die durchschnittliche Klassengröße (acsk3. B-2.68) ist nicht statistisch signifikant auf dem 0,05-Niveau (p0.055), aber nur so. Der Koeffizient ist negativ, was darauf hindeuten würde, dass eine größere Klassengröße auf eine niedrigere akademische Leistung bezogen ist - was wir erwarten würden. Als nächstes ist die Wirkung von Mahlzeiten (b-3.70, p.000) signifikant und sein Koeffizient ist negativ, was darauf hinweist, dass je größer die Anteilschüler, die freie Mahlzeiten erhalten, desto niedriger die akademische Leistung. Bitte beachten Sie, dass wir nicht sagen, dass freie Mahlzeiten eine niedrigere akademische Leistung verursachen. Die Mahlzeiten variieren in hohem Maße mit dem Einkommensniveau und fungiert mehr als Proxy für Armut. So ist ein höheres Niveau der Armut mit einer niedrigeren akademischen Leistung verbunden. Dieses Ergebnis ist auch sinnvoll. Schließlich scheint der Prozentsatz der Lehrer mit vollständigen Anmeldeinformationen (voll. B0.11, S.232) nicht mit der akademischen Leistung in Zusammenhang zu stehen. Dies scheint zu zeigen, dass der Prozentsatz der Lehrer mit vollständigen Anmeldeinformationen kein wichtiger Faktor für die Vorhersage der akademischen Leistung ist - dieses Ergebnis war etwas unerwartet. Sollten wir diese Ergebnisse aufnehmen und sie zur Veröffentlichung aufschreiben, so würden wir feststellen, dass niedrigere Klassengrößen mit höherer Leistung zusammenhängen, dass weniger Studenten, die freie Mahlzeiten erhalten, mit höherer Leistung verbunden sind und dass der Prozentsatz der Lehrer mit vollständigen Anmeldeinformationen war Nicht im Zusammenhang mit der akademischen Leistung in den Schulen. Bevor wir dies zur Veröffentlichung schreiben, sollten wir eine Reihe von Schecks durchführen, um sicherzustellen, dass wir diese Ergebnisse fest stellen können. Wir fangen an, sich mit der Datendatei vertraut zu machen, die vorläufige Datenüberprüfung durchzuführen und nach Fehlern in den Daten zu suchen. 1.2 Daten untersuchen Zuerst können Sie den Befehl beschreiben, um mehr über diese Datendatei zu erfahren. Wir können überprüfen, wie viele Beobachtungen es hat und sehen die Namen der Variablen, die es enthält. Um dies zu tun, geben wir einfach Wir werden nicht in alle Details dieser Ausgabe gehen. Beachten Sie, dass es 400 Beobachtungen und 21 Variablen gibt. Wir haben Variablen über die akademische Leistung in den Jahren 2000 und 1999 und die Veränderung der Leistung, api00. Api99 und Wachstum. Wir haben auch verschiedene Merkmale der Schulen, z. B. Klasse Größe, Eltern Bildung, Prozent der Lehrer mit Voll-und Notfall-Anmeldeinformationen und Anzahl der Studenten. Beachten Sie, dass, als wir unsere ursprüngliche Regressionsanalyse gemacht haben, es besagt, dass es 313 Beobachtungen gab, aber der beschreibende Befehl zeigt an, dass wir 400 Beobachtungen in der Datendatei haben. Wenn du mehr über die Datendatei erfahren möchtest, könntest du alle oder einige der Beobachtungen auflisten. Zum Beispiel haben wir die ersten fünf Beobachtungen aufgeführt. Das braucht viel Platz auf der Seite, aber gibt uns nicht viele Informationen. Listing unsere Daten kann sehr hilfreich sein, aber es ist hilfreicher, wenn Sie nur die Variablen, die Sie interessiert sind, auflisten. Lets Liste der ersten 10 Beobachtungen für die Variablen, die wir in unserer ersten Regressionsanalyse sahen. Wir sehen, dass unter den ersten 10 Beobachtungen wir vier fehlende Werte für Mahlzeiten haben. Es ist wahrscheinlich, dass die fehlenden Daten für Mahlzeiten etwas mit der Tatsache zu tun hatten, dass die Anzahl der Beobachtungen in unserer ersten Regressionsanalyse 313 und nicht 400 war. Ein weiteres nützliches Werkzeug zum Lernen über Ihre Variablen ist der Codebuchbefehl. Lets do Codebuch für die Variablen, die wir in die Regressionsanalyse aufgenommen haben, sowie die Variable yrrnd. Wir haben einige Kommentare zu diesem Ausgang in eckigen Klammern und in Fettschrift durchsetzt. Der Codebuchbefehl hat eine Reihe von Besonderheiten aufgedeckt, die einer weiteren Untersuchung würdig sind. Verwenden Sie den Befehl summarize, um mehr über diese Variablen zu erfahren. Wie unten gezeigt, zeigt der zusammenfassende Befehl auch die große Anzahl fehlender Werte für Mahlzeiten (400 - 315 85) und wir sehen das ungewöhnliche Minimum für acsk3 von -21. Lass uns eine ausführlichere Zusammenfassung für acsk3 erhalten. In Stata, das Komma nach der Variablenliste zeigt an, dass Optionen folgen, in diesem Fall ist die Option Detail. Wie Sie unten sehen können, gibt Ihnen die Detail-Option die Perzentile, die vier größten und kleinsten Werte, die Maße der zentralen Tendenz und Varianz, etc. Beachten Sie, dass zusammenfassen. Und andere Befehle können abgekürzt werden: wir hätten schreiben können sum acsk3, d. Es scheint, als ob einige der Klassengrößen irgendwie negativ wurden, als ob ein negatives Zeichen vor ihnen falsch eingegeben wurde. Lets tun eine tabellarische Klasse Größe zu sehen, ob dies scheint plausibel. Tatsächlich scheint es, dass einige der Klassengrößen irgendwie negative Zeichen vor ihnen haben. Lets Blick auf die Schule und Bezirk Nummer für diese Beobachtungen zu sehen, ob sie aus dem gleichen Bezirk kommen. Tatsächlich kommen sie alle aus dem Distrikt 140. Lasst uns alle Beobachtungen für den Bezirk 140 ansehen. Alle Beobachtungen aus dem Bezirk 140 scheinen dieses Problem zu haben. Wenn du ein solches Problem findest, willst du zur ursprünglichen Quelle der Daten zurückkehren, um die Werte zu überprüfen. Wir müssen zeigen, dass wir diesen Fehler zur Veranschaulichung gefertigt haben und dass die tatsächlichen Daten kein solches Problem hatten. Lets vorgeben, dass wir mit Distrikt 140 überprüft haben und dort ein Problem mit den Daten dort war, wurde ein Bindestrich versehentlich vor die Klassengrößen gesetzt, die sie negativ machten. Wir werden eine Notiz machen, um dies zu beheben. Lets fortsetzen, unsere Daten zu überprüfen. Werfen wir einen Blick auf einige grafische Methoden für die Inspektion von Daten. Für jede Variable ist es sinnvoll, sie mit einem Histogramm, Boxplot und Stem-and-leaf-Plot zu inspizieren. Diese Graphen können Ihnen Informationen über die Form Ihrer Variablen besser als einfache numerische Statistiken zeigen können. Wir wissen bereits über das Problem mit acsk3. Aber sehen wir, wie diese grafischen Methoden das Problem mit dieser Variablen aufgedeckt hätten. Zuerst zeigen wir ein Histogramm für acsk3. Dies zeigt uns die Beobachtungen, bei denen die durchschnittliche Klassengröße negativ ist. Ebenso hätte ein Boxplot diese Beobachtungen auch aufmerksam gemacht. Sie können die abgelegenen negativen Beobachtungen an der Unterseite des Boxplots sehen. Schließlich hätte auch ein Stamm-und-Blatt-Plot dazu beigetragen, diese Beobachtungen zu identifizieren. Diese Handlung zeigt die genauen Werte der Beobachtungen, was darauf hinweist, dass es drei -21s, zwei -20s und eine -19 gab. Wir empfehlen, alle diese Graphen für die Variablen zu plotten, die Sie analysieren werden. Wir werden aufgrund von Raumbetrachtungen diese Graphen für alle Variablen auslassen. Bei der Betrachtung der Variablen schien das Stiel-und-Blatt-Plot für die Vollkommenheit eher ungewöhnlich. Bisher haben wir bei dieser Variable nichts Problemes gesehen, aber schau dir den Stiel und die Blattdarstellung an. Es zeigt 104 Beobachtungen, wo der Prozentsatz mit einer vollen Berechtigung weniger als eins ist. Das ist über 25 der Schulen und scheint sehr ungewöhnlich. Lasst uns die Häufigkeitsverteilung ansehen, um zu sehen, ob wir das besser verstehen können. Die Werte gehen von 0,42 auf 1,0, dann springen Sie auf 37 und steigen von dort aus. Es scheint, als ob einige der Prozentsätze tatsächlich als Proportionen eingegeben werden, z. B. 0,42 wurde statt 42 oder 0,96 eingegeben, was wirklich 96 sein sollte. Lasst uns sehen, in welchem ​​Bezirk diese Daten stammen. Wir bemerken, dass alle 104 Beobachtungen, in denen voll war weniger als oder gleich eins kam aus Bezirk 401. Lets zählen, wie viele Beobachtungen gibt es im Bezirk 401 mit dem Zählbefehl und wir sehen, Bezirk 401 hat 104 Beobachtungen. Alle Beobachtungen aus diesem Bezirk scheinen als Proportionen statt Prozentsätze aufgezeichnet zu werden. Auch hier wollen wir sagen, dass dies ein vorgetäuschtes Problem ist, das wir in die Daten zur Veranschaulichung eingefügt haben. Wenn dies ein echtes Lebensproblem wäre, würden wir mit der Quelle der Daten überprüfen und das Problem überprüfen. Wir werden eine Notiz machen, um dieses Problem auch in den Daten zu beheben. Eine weitere praktische grafische Technik zum Screening Ihrer Daten ist eine Scatterplot-Matrix. Während dies wahrscheinlich als ein Diagnosewerkzeug, das nach Nichtlinearitäten und Ausreißern in Ihren Daten sucht, relevant ist, kann es auch ein nützliches Daten-Screening-Tool sein, das möglicherweise Informationen in den gemeinsamen Verteilungen Ihrer Variablen enthüllt, die aus der Prüfung univariater Verteilungen nicht ersichtlich sind . Schauen wir uns die Scatterplot-Matrix für die Variablen in unserem Regressionsmodell an. Dies zeigt die Probleme, die wir bereits identifiziert haben, d. h. die negativen Klassengrößen und die prozentuale Vollberechtigung, die als Proportionen eingegeben wurden. Wir haben in unseren Daten drei Probleme festgestellt. Es gibt zahlreiche fehlende Werte für Mahlzeiten. Es gab Negative versehentlich eingefügt, bevor einige der Klassengrößen (acsk3) und über ein Viertel der Werte für voll waren Proportionen statt Prozentsätze. Die korrigierte Version der Daten heißt elemapi2. Lässt diese Datendatei verwenden und unsere Analyse wiederholen und sehen, ob die Ergebnisse die gleiche wie unsere ursprüngliche Analyse sind. Zuerst können wir unsere ursprüngliche Regressionsanalyse unten wiederholen. Nun können wir die korrigierte Datendatei verwenden und die Regressionsanalyse wiederholen. Wir sehen einen großen Unterschied in den Ergebnissen In der ursprünglichen Analyse (oben) war acsk3 fast signifikant, aber in der korrigierten Analyse (unten) zeigen die Ergebnisse diese Variable nicht signifikant, vielleicht aufgrund der Fälle, in denen die Klassengröße gegeben wurde Negativer Wert. Ebenso war der Prozentsatz der Lehrer mit vollständigen Anmeldeinformationen in der ursprünglichen Analyse nicht signifikant, ist aber in der korrigierten Analyse signifikant, vielleicht aufgrund der Fälle, in denen der Wert als Anteil an den vollen Anerkennungen anstelle des Prozentsatzes angegeben wurde. Beachten Sie auch, dass die korrigierte Analyse auf 398 Beobachtungen statt 313 Beobachtungen basiert, da die vollständigen Daten für die Mahlzeitvariable erhalten wurden, die viele fehlende Werte hatte. Von diesem Punkt an werden wir die korrigierten, elemapi2 verwenden. Datendatei. Vielleicht möchten Sie dies auf Ihrem Computer speichern, damit Sie es in zukünftigen Analysen verwenden können. Bisher haben wir einige Themen in der Datenüberprüfung abgedeckt, aber wir haben die Regressionsanalyse nicht wirklich besprochen. Lasst uns jetzt mehr über die Regressionsanalyse in Stata sprechen. 1.3 Einfache lineare Regression Beginnen wir mit einigen Beispielen einer einfachen linearen Regression mit Stata. Bei dieser Art von Regression haben wir nur eine Prädiktorvariable. Diese Variable kann stetig sein, dh sie kann alle Werte innerhalb eines Bereichs, z. B. Alter oder Höhe, annehmen, oder sie kann dichotom sein, was bedeutet, daß die Variable nur einen von zwei Werten annehmen kann, z. B. 0 oder 1 Die Verwendung von kategorischen Variablen mit mehr als zwei Ebenen wird in Kapitel 3 behandelt. Es gibt nur eine Antwort oder abhängige Variable, und es ist kontinuierlich. In Stata wird die abhängige Variable unmittelbar nach dem Regress-Befehl aufgelistet, gefolgt von einer oder mehreren Prädiktorvariablen. Lets untersuchen die Beziehung zwischen der Größe der Schule und akademischen Leistung zu sehen, ob die Größe der Schule im Zusammenhang mit akademischen Leistung ist. Für dieses Beispiel ist api00 die abhängige Variable und Einschreibung ist der Prädiktor. Lets überprüft diese Ausgabe etwas sorgfältiger. Zuerst sehen wir, dass der F-Test statistisch signifikant ist, was bedeutet, dass das Modell statistisch signifikant ist. Das R-Quadrat von .1012 bedeutet, dass etwa 10 der Varianz von api00 durch das Modell berücksichtigt wird, in diesem Fall einschreiben. Der t-Test für die Einschreibung entspricht -6,70 und ist statistisch signifikant, was bedeutet, dass der Regressionskoeffizient für die Einschreibung signifikant von Null verschieden ist. Beachten Sie, dass (-6.70) 2 44.89, die die gleiche wie die F-Statistik (mit einigen Rundungsfehler) ist. Der Koeffizient für die Einschreibung ist -.1998674, oder etwa -.2, was bedeutet, dass für eine Einheit Erhöhung der Einschreibung. Wir würden erwarten, dass eine .2-Einheit Abnahme in api00. Mit anderen Worten, eine Schule mit 1100 Studenten würde erwartet, dass ein AIP-Score 20 Einheiten niedriger als eine Schule mit 1000 Studenten haben. Die Konstante ist 744.2514, und dies ist der vorhergesagte Wert bei der Einschreibung gleich Null. In den meisten Fällen ist die Konstante nicht sehr interessant. Wir haben eine annotierte Ausgabe vorbereitet, die die Ausgabe von dieser Regression zusammen mit einer Erklärung von jedem der Elemente in ihm zeigt. Zusätzlich zum Erhalten der Regressionstabelle kann es nützlich sein, ein Scatterplot der vorhergesagten und Outcome-Variablen mit der Regressionslinie zu sehen. Nachdem Sie eine Regression ausgeführt haben, können Sie eine Variable erstellen, die die vorhergesagten Werte mit dem Vorhersagebefehl enthält. Sie können diese Werte an jedem Punkt erhalten, nachdem Sie einen Regress-Befehl ausgeführt haben, aber denken Sie daran, dass, sobald Sie eine neue Regression laufen, die vorhergesagten Werte auf der jüngsten Regression basieren. Um vorhergesagte Werte zu erstellen, geben Sie einfach Vorhersage ein und der Name einer neuen Variablen Stata gibt Ihnen die passenden Werte. Für dieses Beispiel wird unser neuer Variablenname fv sein. So werden wir eingeben Wenn wir den Listenbefehl verwenden, sehen wir, dass für jede Beobachtung ein angepaßter Wert erzeugt wurde. Unten können wir ein Scatterplot der Outcome-Variablen, api00 und der Prädiktor, einschreiben. Wir können Streu mit Lfit kombinieren, um ein Scatterplot mit passenden Werten zu zeigen. Wie Sie sehen, scheinen einige der Punkte Ausreißer zu sein. Wenn du die mlabel (snum) Option auf dem Scatter-Befehl benutzt, kannst du die Schulnummer für jeden Punkt sehen. So können wir z. B. sehen, dass einer der Ausreißer die Schule 2910 ist. Wie wir schon früher gesehen haben, kann der Vorhersagebefehl verwendet werden, um vorhergesagte (eingepasste) Werte nach dem Hinzufügen zu erzeugen. Sie können auch Residuen erhalten, indem Sie den Vorhersagebefehl verwenden, gefolgt von einem Variablennamen, in diesem Fall e. Mit der Restoption. Dieser Befehl kann verkürzt werden, um e, Reste vorherzusagen oder sogar vorherzusagen, r. Die folgende Tabelle zeigt einige der anderen Werte, die mit der Vorhersage-Option erstellt werden können. 1.4 Multiple Regression Nun können wir uns ein Beispiel für eine multiple Regression anschauen, in der wir ein Ergebnis (abhängige) Variable und mehrere Prädiktoren haben. Bevor wir mit unserem nächsten Beispiel beginnen, müssen wir eine Entscheidung über die von uns geschaffenen Variablen treffen, denn wir werden mit unserer multiplen Regression ähnliche Variablen erstellen und wir wollen die Variablen nicht verwirren. Zum Beispiel haben wir in der einfachen Regression eine variable fv für unsere vorhergesagten (angepassten) Werte und e für die Residuen erstellt. Wenn wir für unser nächstes Beispiel vorhergesagte Werte erstellen wollen, könnten wir den vorhergesagten Wert etwas anderes anrufen, z. B. Fvmr Aber das könnte immer verwirrend werden. Wir könnten die Variablen, die wir erstellt haben, mit Drop fv e fallen lassen. Stattdessen lassen Sie die Daten im Speicher aus und verwenden Sie die Datei elemapi2 erneut. Wenn wir in künftigen Kapiteln neue Beispiele anfangen, werden wir die vorhandene Datendatei löschen und die Datei erneut verwenden, um frisch zu starten. Für dieses multiple Regressionsbeispiel werden wir die abhängige Variable, api00, zurücksetzen. Auf alle Vorhersagevariablen im Datensatz. Lets untersuchen die Ausgabe aus dieser Regressionsanalyse. Wie bei der einfachen Regression schauen wir auf den p-Wert des F-Tests, um zu sehen, ob das Gesamtmodell signifikant ist. Bei einem p-Wert von null bis vier Dezimalstellen ist das Modell statistisch signifikant. Der R-Quadrat ist 0,8446, was bedeutet, dass etwa 84 der Variabilität von api00 von den Variablen im Modell berücksichtigt wird. In diesem Fall zeigt der eingestellte R-Quadrat, dass etwa 84 der Variabilität von api00 vom Modell berücksichtigt wird, auch nach Berücksichtigung der Anzahl der Prädiktorvariablen im Modell. Die Koeffizienten für jede der Variablen geben den Änderungsbetrag an, den man in api00 erwarten könnte, wenn eine einheitliche Änderung des Wertes dieser Variablen gegeben ist, da alle anderen Variablen im Modell konstant gehalten werden. Betrachten wir zum Beispiel die Variable ell. Wir würden erwarten, dass eine Abnahme von 0,86 in der api00-Punktzahl für jede einzelne Einheit Anstieg in ell. Vorausgesetzt, dass alle anderen Variablen im Modell konstant gehalten werden. Die Interpretation viel von der Ausgabe aus der multiplen Regression ist die gleiche wie für die einfache Regression. Wir haben eine kommentierte Ausgabe vorbereitet, die die Ausgabe dieser multiplen Regressionsanalyse genauer erklärt. Sie können sich fragen, was eine 0.86 Änderung in ell wirklich bedeutet, und wie Sie die Stärke dieses Koeffizienten mit dem Koeffizienten für eine andere Variable vergleichen können, sagen Mahlzeiten. Um dieses Problem zu lösen, können wir eine Option zum Regress-Befehl namens Beta hinzufügen. Die uns die standardisierten Regressionskoeffizienten geben wird. Die Beta-Koeffizienten werden von einigen Forschern verwendet, um die relative Stärke der verschiedenen Prädiktoren innerhalb des Modells zu vergleichen. Da die Beta-Koeffizienten alle in Standardabweichungen gemessen werden, können sie statt der Einheiten der Variablen miteinander verglichen werden. Mit anderen Worten, die Beta-Koeffizienten sind die Koeffizienten, die Sie erhalten würden, wenn die Ergebnisse und Prädiktor-Variablen wurden alle verwandelt Standard-Scores, auch z-Scores genannt, bevor die Regression. Da die Koeffizienten in der Beta-Spalte alle in den gleichen standardisierten Einheiten sind, können Sie diese Koeffizienten vergleichen, um die relative Stärke jedes der Prädiktoren zu bestimmen. In diesem Beispiel hat die Mahlzeit den größten Beta-Koeffizienten, -0,66 (in absoluter Wert) und acsk3 hat die kleinste Beta, 0,013. Somit führt eine einzige Standardabweichungszunahme bei den Mahlzeiten zu einer 0,66 Standardabweichungsabnahme in der vorhergesagten api00. Mit den anderen Variablen konstant gehalten. Und eine einzige Standardabweichung steigt in acsk3. Im Gegenzug führt zu einem 0,013 Standardabweichung Anstieg in vorhergesagten api00 mit den anderen Variablen im Modell konstant gehalten. Bei der Interpretation dieser Ausgabe, denken Sie daran, dass die Differenz zwischen den Zahlen in der Coef aufgelistet. Spalte und die Beta-Spalte befindet sich in den Maßeinheiten. Zum Beispiel, um den Rohkoeffizienten für ell zu beschreiben, würde man sagen, dass eine Einheitsabnahme in ell eine Erhöhung der .86-Einheit in der vorhergesagten api00.quot Für den standardisierten Koeffizienten (Beta) würde man also sagen, dass ein Standard Abweichung Abnahme in ell würde eine .15 Standardabweichung erhöhen in der vorhergesagten api00. Quot Der listcoef Befehl gibt mehr umfangreiche Ausgabe in Bezug auf standardisierte Koeffizienten. Es ist nicht Teil von Stata, aber man kann es über das Internet so herunterladen. Und dann folgen Sie den Anweisungen (siehe auch Wie kann ich den findit Befehl verwenden, um nach Programmen zu suchen und zusätzliche Hilfe für weitere Informationen über die Verwendung von findit zu erhalten). Jetzt haben wir listcoef heruntergeladen. Wir können es so ausführen. Lassen Sie uns die Regress-Ausgabe mit dem listcoef-Ausgang vergleichen. Sie werden feststellen, dass die im Coef aufgeführten Werte T und Pgtt-Werte sind die gleichen in den beiden Ausgängen. Die in der Beta-Spalte der Regress-Ausgabe aufgelisteten Werte entsprechen denen der Spalte bStadXY von listcoef. Die bStdX-Spalte gibt die Einheitsänderung in Y mit einer Standardabweichungsänderung in X voraus. Die bStdY-Spalte gibt die Standardabweichungsänderung in Y mit einer Einheitsänderung in X an. Die SDofX-Spalte gibt diese Standardabweichung jeder Prädiktorvariablen in das Model. Zum Beispiel ist die bStdX für ell -21.3, was bedeutet, dass eine einheitliche Abweichung Anstieg in ell würde zu einer erwarteten 21,3 Einheit Abnahme in api00 führen würde. Der bStdY-Wert für ell von -0.0060 bedeutet, dass für eine Einheit, ein Prozent, Erhöhung der englischsprachigen Lernenden, erwarten wir eine 0,006 Standardabweichung Abnahme in api00. Da die bStdX-Werte in Standardeinheiten für die Prädiktorvariablen stehen, können Sie diese Koeffizienten verwenden, um die relative Stärke der Prädiktoren zu vergleichen, wie Sie Beta-Koeffizienten vergleichen würden. Der Unterschied ist, dass BStdX-Koeffizienten als Änderungen in den Einheiten der Ergebnisvariablen statt in standardisierten Einheiten der Ergebnisvariablen interpretiert werden. Zum Beispiel ist der BStdX für Mahlzeiten gegen ell -94 versus -21 oder etwa 4 mal so groß, das gleiche Verhältnis wie das Verhältnis der Beta-Koeffizienten. Wir haben eine kommentierte Ausgabe erstellt, die die Ausgabe von listcoef genauer erklärt. Bisher haben wir uns mit dem Testen einer einzelnen Variable zu einem Zeitpunkt beschäftigt, zum Beispiel mit Blick auf den Koeffizienten für ell und die Feststellung, ob das signifikant ist. Wir können auch Sätze von Variablen testen, mit dem Testbefehl, um zu sehen, ob der Satz von Variablen signifikant ist. Zuerst können wir mit dem Testen einer einzelnen Variablen beginnen. Mit dem Testbefehl. Wenn man diese Ausgabe mit der Ausgabe aus der letzten Regression vergleicht, kann man sehen, dass das Ergebnis des F-Tests 16,67 das gleiche wie das Quadrat des Ergebnisses des t-Tests in der Regression ist (-4.0832 16.67). Beachten Sie, dass Sie die gleichen Ergebnisse erhalten konnten, wenn Sie das folgende eingegeben haben, da Stata standardmäßig den Vergleich mit den auf 0 aufgeführten Term (s) verglichen hat. Vielleicht wäre ein interessanterer Test, um zu sehen, ob der Beitrag der Klassengröße signifikant ist. Da die Informationen zur Klassengröße in zwei Variablen, acsk3 und acs46 enthalten sind. Wir schließen diese beiden mit dem Testbefehl ein. Der signifikante F-Test, 3.95, bedeutet, dass der kollektive Beitrag dieser beiden Variablen signifikant ist. Eine Möglichkeit, darüber nachzudenken, ist, dass es einen signifikanten Unterschied zwischen einem Modell mit acsk3 und acs46 im Vergleich zu einem Modell ohne sie gibt, d. h. es gibt einen signifikanten Unterschied zwischen dem quotfullquot Modell und den quotreducedquot Modellen. Schließlich könnte man als Teil einer multiplen Regressionsanalyse daran interessiert sein, die Korrelationen zwischen den Variablen im Regressionsmodell zu sehen. Sie können dies mit dem Korrelate-Befehl wie unten gezeigt tun. Wenn wir uns die Korrelationen mit api00 anschauen. Wir sehen Mahlzeiten und haben die beiden stärksten Korrelationen mit api00. Diese Korrelationen sind negativ, was bedeutet, dass der Wert der anderen Variablen steigt, wenn der Wert einer Variablen nach unten geht. Zu wissen, dass diese Variablen stark mit api00 verbunden sind. Wir könnten voraussagen, dass sie statistisch signifikante Prädiktorvariablen im Regressionsmodell sein würden. Wir können auch den Befehl pwcorr verwenden, um paarweise Korrelationen zu machen. Der wichtigste Unterschied zwischen Korrelate und pwcorr ist die Art und Weise, in der fehlende Daten behandelt werden. Mit korrelieren Eine Beobachtung oder ein Fall wird gelöscht, wenn irgendeine Variable einen fehlenden Wert hat, mit anderen Worten, korrelate verwendet listwise. Auch Casewise genannt, Streichung. Pwcorr verwendet paarweise Löschung, was bedeutet, dass die Beobachtung nur dann fallen gelassen wird, wenn ein fehlender Wert für das Paar von Variablen vorhanden ist, die korreliert sind. Zwei Optionen, die du mit pwcorr verwenden kannst. Aber nicht mit korrelieren Sind die sig-Option, die die Signifikanzniveaus für die Korrelationen und die obs-Option geben wird, die die Anzahl der Beobachtungen, die in der Korrelation verwendet werden, geben wird. Eine solche Option ist bei corr nicht notwendig, da Stata die Anzahl der Beobachtungen am oberen Ende der Ausgabe auflistet. 1.5 Transformieren von Variablen Früher haben wir uns auf das Screening Ihrer Daten auf mögliche Fehler konzentriert. Im nächsten Kapitel werden wir uns auf die Regressionsdiagnostik konzentrieren, um zu überprüfen, ob Ihre Daten die Annahmen der linearen Regression erfüllen. Hier werden wir uns auf die Frage der Normalität konzentrieren. Einige Forscher glauben, dass die lineare Regression erfordert, dass die Ergebnisse (abhängig) und Prädiktor-Variablen normal verteilt werden. Wir müssen dieses Problem klären. In Wirklichkeit sind es die Reste, die normalerweise verteilt werden müssen. In der Tat müssen die Residuen nur normal sein, wenn die t-Tests gültig sind. Die Schätzung der Regressionskoeffizienten erfordert nicht normal verteilte Residuen. Da wir uns für gültige t-Tests interessieren, werden wir Fragen der Normalität untersuchen. Eine häufige Ursache für nicht normal verteilte Residuen ist nicht normal verteiltes Ergebnis und und Prädiktorvariablen. Also, lasst uns die Verteilung unserer Variablen erforschen und wie wir sie zu einer normaleren Form verwandeln könnten. Beginnen wir mit einem Histogramm der Variablen einschreiben. Die wir früher in der einfachen Regression sahen. Wir können die normale Option verwenden, um eine normale Kurve auf diesem Graphen zu überlagern und die Bin (20) Option, um 20 Bins zu verwenden. Die Verteilung schaut nach rechts. Sie können auch Etiketten der Achsen ändern. Zum Beispiel verwenden wir die Option xlabel () zur Beschriftung der x-Achse unten und kennzeichnen sie von 0 bis 1600 inkrementiert um 100. Histogramme sind empfindlich auf die Anzahl der Bins oder Spalten, die im Display verwendet werden. Eine Alternative zu Histogrammen ist die Kerndichte-Kurve, die der Wahrscheinlichkeitsdichte der Variablen entspricht. Kerndichte-Plots haben den Vorteil, glatt zu sein und unabhängig von der Herkunftswahl zu sein, im Gegensatz zu Histogrammen. Stata implementiert Kerndichte-Plots mit dem Befehl kdensity. Es überrascht nicht, dass die KD-Darstellung auch darauf hinweist, dass die variable Einschreibung nicht normal aussieht. Jetzt können wir einen Boxplot zum Einschreiben machen. Mit dem Befehl graph box. Beachten Sie die Punkte an der Oberseite des Boxplots, die mögliche Ausreißer anzeigen, dh diese Datenpunkte sind mehr als 1,5 (interquartile Bereich) über dem 75. Perzentil. Diese Boxplot bestätigt auch, dass die Einschreibung nach rechts geschrumpft ist. Es gibt drei andere Arten von Graphen, die häufig verwendet werden, um die Verteilung von Variablen Symmetrieplots, normale Quantilplots und normale Wahrscheinlichkeitsdiagramme zu untersuchen. Ein Symmetrieplot grafisch den Abstand über dem Median für den i-ten Wert gegen den Abstand unterhalb des Medians für den i-ten Wert. Eine Variable, die symmetrisch ist, hätte Punkte, die auf der diagonalen Linie liegen. Wie wir erwarten würden, ist diese Verteilung nicht symmetrisch. Ein normales Quantil-Diagramm gliedert die Quantile einer Variablen gegen die Quantile einer normalen (Gaußschen) Verteilung. Qnorm ist empfindlich auf Nichtnormalität in der Nähe der Schwänze, und in der Tat sehen wir beträchtliche Abweichungen von der normalen, der diagonalen Linie, in den Schwänzen. Diese Handlung ist typisch für Variablen, die stark nach rechts schief sind. Schließlich ist das normale Wahrscheinlichkeitsdiagramm auch nützlich, um die Verteilung der Variablen zu untersuchen. Pnorm ist empfindlich gegenüber Abweichungen von der Normalität näher an der Mitte der Verteilung. Wieder sehen wir Hinweise auf Nicht-Normalität in der Einschreibung. Nachdem wir festgestellt haben, dass die Einschreibung nicht normal verteilt ist, wie sollen wir dieses Problem ansprechen Zuerst können wir versuchen, die Variable in die Regression einzugeben, aber wenn wir Probleme sehen, was wir wahrscheinlich hätten, dann können wir versuchen, die Einschreibung zu machen Es normaler verteilt Mögliche Transformationen beinhalten das Protokoll, die Quadratwurzel oder das Anheben der Variablen zu einer Macht. Die Auswahl der entsprechenden Transformation ist etwas von einer Kunst. Stata enthält die Leiter - und Gladder-Befehle, um dabei zu helfen. Ladder meldet numerische Ergebnisse und Gladder produziert eine grafische Darstellung. Lass uns mit der Leiter beginnen und nach der Umwandlung mit dem kleinsten Chi-Platz suchen. Die Log-Transformation hat das kleinste Chi-Quadrat. Lets verifizieren diese Ergebnisse grafisch mit Gladder. Dies deutet auch darauf hin, dass die Log-Transformation dazu beitragen würde, die Registrierung regelmäßig zu verteilen. Verwenden Sie den Generatorbefehl mit der Log-Funktion, um die Variable lenroll zu erstellen, die das Log der Einschreibung ist. Beachten Sie, dass die Anmeldung Stata Ihnen das natürliche Protokoll, nicht die Protokollbasis 10 gibt. Um die Protokollbasis 10 zu erhalten, geben Sie log10 (var) ein. Jetzt können wir unsere neue Variable grafisch darstellen und sehen, ob wir sie normalisiert haben. Wir können sehen, dass lenroll ganz normal aussieht. Wir würden dann das Symplot benutzen. Qnorm und pnorm Befehle, um uns zu beurteilen, ob lenroll normal scheint, sowie zu sehen, wie lenroll Auswirkungen auf die Residuen, die wirklich die wichtige Überlegung ist. In this lecture we have discussed the basics of how to perform simple and multiple regressions, the basics of interpreting output, as well as some related commands. We examined some tools and techniques for screening for bad data and the consequences such data can have on your results. Finally, we touched on the assumptions of linear regression and illustrated how you can check the normality of your variables and how you can transform your variables to achieve normality. The next chapter will pick up where this chapter has left off, going into a more thorough discussion of the assumptions of linear regression and how you can use Stata to assess these assumptions for your data. In particular, the next lecture will address the following issues. Checking for points that exert undue influence on the coefficients Checking for constant error variance (homoscedasticity) Checking for linear relationships Checking model specification Checking for multicollinearity Checking normality of residuals See the Stata Topics: Regression page for more information and resources on simple and multiple regression in Stata. 1.7 Self Assessment Make five graphs of api99 . histogram, kdensity plot, boxplot, symmetry plot and normal quantile plot. What is the correlation between api99 and meals Regress api99 on meals . What does the output tell you Create and list the fitted (predicted) values. Graph meals and api99 with and without the regression line. Look at the correlations among the variables api99 meals ell avged using the corr and pwcorr commands. Explain how these commands are different. Make a scatterplot matrix for these variables and relate the correlation results to the scatterplot matrix. Perform a regression predicting api99 from meals and ell . Interpret the output. Click here for our answers to these self assessment questions. 1.8 For More Information The content of this web site should not be construed as an endorsement of any particular web site, book, or software product by the University of California. Stata: Data Analysis and Statistical Software Jonathan A. C. Sterne, University of Bristol Ross J. Harris, University of Bristol Roger M. Harbord, University of Bristol Thomas J. Steichen, RJRT Stata does not have a meta-analysis command. Stata users, however, have developed an excellent suite of commands for performing meta-analyses. In 2016, Stata published Meta-Analysis in Stata: An Updated Collection from the Stata Journal, Second Edition . which brought together all the Stata Journal articles about meta-analysis. This book is available for purchase at stata-pressbooksmeta-analysis-in-stata. The following meta-analysis commands are all described in Meta-Analysis in Stata: An Updated Collection from the Stata Journal, Second Edition . metan is the main Stata meta-analysis command. Its latest version allows the user to input the cell frequencies from the 2 times 2 table for each study (for binary outcomes), the mean and standard deviation in each group (for numerical outcomes), or the effect estimate and standard error from each study. It provides a comprehensive range of methods for meta-analysis, including inverse-variancendashweighted meta-analysis, and creates new variables containing the treatment effect estimate and its standard error for each study. These variables can then be used as input to other Stata meta-analysis commands. Meta-analyses may be conducted in subgroups by using the by() option. All the meta-analysis calculations available in metan are based on standard methods, an overview of which may be found in chapter 15 of Deeks, Altman, and Bradburn (2001). The version of the metan command that used Stata 7 graphics has been renamed metan7 and is downloaded as part of the metan package currently available on the SSC archive. The most recent help file for metan provides several clickable examples of using the command. labbe draws a LrsquoAbbe plot for event data (proportions of successes in the two groups). metaan performs meta-analysis on effect estimates and standard errors. Included are profile likelihood and permutation estimation, two algorithms not available in metan . 4. metacum metacum performs cumulative meta-analyses and graphs the results. metap combines p - values by using Fisherrsquos method, Edgingtonrsquos additive method, or Edgingtonrsquos normal curve method. It was released in 1999 as a version 6 command (no graphics) and was last updated in 2000. It requires the user to input a p - value for each study. 6. metareg metareg does meta-regression. It was first released in 1998 and has been updated to take account of improvements in Stata estimation facilities and recent methodological developments. It requires the user to input the treatment effect estimate and its standard error for each study. 7. metafunnel metafunnel plots funnel plots. It was released in 2004 and uses Stata 8 graphics. It requires the user to input the treatment effect estimate and its standard error for each study. 8. confunnel confunnel plots contour-enhanced funnel plots. The command has been designed to be flexible, allowing the user to add extra features to the funnel plot. 9. metabias metabias provides statistical tests for funnel plot asymmetry. It was first released in 1997, but it has been updated to provide recently proposed tests that maintain better control of the false-positive rate than those available in the original command. 10. metatrim metatrim implements the ldquotrim and fillrdquo method to adjust for publication bias in funnel plots. It requires the user to input the treatment effect estimate and its standard error for each study. 11. extfunnel extfunnel implements a new range of overlay augmentations to the funnel plot to assess the impact of a new study on an existing meta-analysis. 12. metandi and metandiplot metandi facilitates the fitting of hierarchical logistic regression models for meta-analysis of diagnostic test accuracy studies. metandiplot produces a graph of the model fit by metandi . which must be the last estimation-class command executed. 13. mvmeta and mvmetamake mvmeta performs maximum likelihood, restricted maximum likelihood, or method-of-moments estimation of random-effects multivariate meta-analysis models. mvmetamake facilitates the preparation of summary datasets from more detailed data. 14. ipdforest ipdforest is a postestimation command that uses the stored estimates of an xtmixed or xtmelogit command for multilevel linear or logistic regression, respectively. 15. ipdmetan ipdmetan performs two-stage individual participant data meta-analysis using the inverse-variance method. 16. indirect indirect performs pairwise indirect treatment comparisons. 17. network setup network setup imports data from a set of studies reporting count data (events, total number) or quantitative data (mean, standard deviation, total number) for two or more treatments. 18. network import network import imports a dataset already formatted for network meta-analysis. 19. network table network table tabulates network meta-analysis data. 20. network pattern network pattern shows which treatments are used in which studies. 21. network map network map draws a map of a network that is, it shows which treatments are directly compared against which other treatments and roughly how much information is available for each treatment and for each treatment comparison. 22. network convert network convert converts between the three formats described in the help file for network . 23. network query network query displays the current network settings. 24. network unset network unset deletes the current network settings. 25. network meta network meta defines a model to be fit: either the consistency model or the design-by-treatment interaction inconsistency model. 26. network rank network rank ranks treatments after a network meta-analysis has been fit. 27. network sidesplit network sidesplit fits the node-splitting model of Dias et al. (2010). 28. network forest network forest draws a forest plot of network meta-analysis data. 29. networkplot networkplot plots a network of interventions using nodes and edges. 30. netweight netweight calculates all direct pairwise summary effect sizes with their variances, creates the design matrix, and estimates the percentage contribution of each direct comparison to the network summary estimates and in the entire network. 31. ifplot ifplot identifies all triangular and quadratic loops in a network of interventions and estimates the respective inconsistency factors and their uncertainties. 32. netfunnel netfunnel plots a comparison-adjusted funnel plot for assessing small-study effects within a network of interventions. 33. intervalplot intervalplot plots the estimated effect sizes and their uncertainties for all pairwise comparisons in a network meta-analysis. 34. netleague netleague creates a league table showing in the off-diagonal cells the relative treatment effects for all possible pairwise comparisons estimated in a network meta-analysis. sucra gives the surface under the cumulative ranking curves percentages and mean ranks, and produces rankograms (line plots of the probabilities versus ranks) and cumulative ranking plots (line plots of the cumulative probabilities versus ranks) for all treatments in a network of interventions. 36. mdsrank mdsrank creates the squared matrix containing the pairwise relative effect sizes and plots the resulting values of the unique dimension for each treatment. 37. clusterank clusterank performs hierarchical cluster analysis to group the competing treatments into meaningful groups. glst calculates a log-linear dosendashresponse regression model using generalized least squares for trend estimation of single or multiple summarized dosendashresponse epidemiological studies. Output from this command may be useful in deriving summary effects and their standard errors for inclusion in meta-analyses of such studies. 39. metamiss metamiss performs meta-analysis with binary outcomes when some or all studies have missing data. 40. sem and gsem Describes how to fit fixed - and random-effects meta-analysis models using the sem and gsem commands, introduced in Stata 12 and 13 respectively, for structural equation modeling. 41. metacumbounds metacumbounds provides z - values, p - values, and Lan-DeMets bounds obtained from fixed - or random-effects meta-analysis. It plots the boundaries and z - values through a process. 42. metasim metasim simulates a specified number of new studies based on the estimates obtained from a preexisting meta-analysis. 43. metapow metapow implements an approach to estimating the power of a newly simulated study generated by using the program metasim . 44. metapowplot metapowplot estimates the power of an updated meta-analysis including a new study and plots each value against a range of sample sizes. The following commands are documented in the Appendix: 45. metacurve metacurve models a response as a function of a continuous covariate, optionally adjusting for other variable(s) specified by adjust() . 46. metannt metannt is intended to aid interpretation of meta-analyses of binary data by presenting intervention effect sizes in absolute terms, as the number needed to treat (NNT) and the number of events avoided (or added) per 1,000. The user inputs design parameters, and metannt uses the metan command to calculate the required statistics. This command is available as part of the metan package. 47. metaninf metaninf is a port of the metainf command to use metan as its analysis engine rather than meta . It was released in 2001 as a version 6 command using version 6 graphics and was last updated in 2004. It requires the user to provide input in the form needed by metan . midas provides statistical and graphical routines for undertaking meta-analysis of diagnostic test performance in Stata. 49. metalr metalr graphs positive and negative likelihood ratios in diagnostic tests. It can do stratified meta-analysis of individual estimates. The user must provide the effect estimates (log positive likelihood ratio and log negative likelihood ratio) and their standard errors. Commands meta and metareg are used for internal calculations. This is a version 8 command released in 2004. 50. metaparm metaparm performs meta-analyses and calculates confidence intervals and p - values for differences or ratios between parameters for different subpopulations for data stored in the parmest format. 51. metaeff metaeff is a pre-processing command for meta-analysis and a companion to metaan which calculates effect sizes and their standard errors. Note: There may be commands that appeared in the Stata Journal after the publication of Meta-Analysis in Stata: An Updated Collection from the Stata Journal, Second Edition . For a complete list of meta-analysis commands, type search meta in Stata. Deeks, J. J. D. G. Altman, and M. J. Bradburn. 2001. Statistical methods for examining heterogeneity and combining results from several studies in meta-analysis. In Systematic Reviews in Health Care: Meta-Analysis in Context, 2nd Edition . Ed. M. Egger, G. Davey Smith, and D. G. Altman. London: BMJ. Dias, S. N. J. Welton, D. M. Caldwell, and A. E. Ades. 2010. Checking consistency in mixed treatment comparison meta-analysis. Statistics in Medicine 29: 932ndash944.

No comments:

Post a Comment