Hallo, ich habe die Analyse so durchgeführt und alle meiner Voraussetzungen wären erfüllt, bis auf mein Streudiagramm, denn da ist nichts verstreut, sondern ich habe 5 diagonale "Linien" die Parallel zueinander verlaufen. Nun weiß ich nicht wie das zu interpretieren ist. Oder meine Voraussetzung dennoch erfüllt ist. Wäre sehr dankbar über eine Antwort, da sonst alle Voraussetzungen erfüllt sind!! LG Selin
Hallo Selin, ich vermute, Du hast eine 5stufige Variable in Deinem Modell, die Du wie metrisch verwendet hast. Das führt zu solchen Streudiagrammen. LG Daniela
Hallo Daniela, ich habe eine Frage bzgl. der Auswertung zu meiner Masterarbeit. Wie kann es sein das in einfachen linearen Regressionen die Prädiktoren signifikant werden aber in einer multiplen Regression mit beiden Prädiktoren dann beide nicht signifikant sind? Danke :)
Hi Daniela, Danke für die super Erklärung! Ich habe allerdings noch eine Frage hierzu...Ist die multiple Regression auch das richtige Modell zum prüfen von Kontrollvariablen bei linearer Regression? Also würde ich hierbei einfach meine Kontrollvariablen als UVs in die multiple Regression einbauen? Und würde ich dann schauen wie die Kontrollvariablen das Ergebnis von der linearen Regression beeinflussen, also die beiden Modelle miteinander vergleichen oder wie wäre das Vorgehen, wenn ich für meine wissenschaftliche Arbeit bei einer linearen Regression auch Kontrollvariablen integrieren möchte? Schon einmal im Voraus vielen Dank für deine Unterstützung! :)
Hallo Mirco, ja genau! Du nimmst die Kontrollvariablen einfach als UVs auf und damit wird automatisch für deren Effekt kontrolliert. Das Modell/die Software macht keinen Unterschied zwischen inhaltlich interessierendem Prädiktor und Kontrollvariable. Den Unterschied machen dann erst wir bei der Interpretation. LG Daniela www.statistik-akademie.de
Hallo Daniela, Ich hätte noch eine kurze Frage dazu: Gibt es eigentlich ein Maximum an unabhängigen Variablen die man ins Modell einsetzten kann? Bzw. macht es nur bis zu einer bestimmten Anzahl Sinn, da die Ergebnisse sonst "ungenau" werden? In meinem Fall habe ich 30 dichotome Aussagen (zutreffend oder nicht zutreffend) zu einer Automarkte (z.B. Leistung, Sicherheit, Fahrspaß...) und würde damit gerne die Kaufbereitschaft der Marke vorhersagen (Intervall).. Wäre es falsch hier hier alle 30 Variablen im Modell zu testen oder sollte ich mich auf eine bestimmte Anzahl begrenzen? Besten Dank im Voraus und Grüße Denis
Als Daumenregel für die lineare Regression gilt, dass man mindestens 5 bis 10 Fälle pro Prädiktor haben möchte. Allerdings ist das für die metrischen Prädiktoren gedacht. Bei Deinen dichotomen Prädiktoren musst Du noch drauf achten, dass die Zellbesetzung (Anzahl pro Kategorie) nicht zu schwach wird. LG Daniela P.S.: Noch mehr Fragen? Dann komm in die Statistk-Akademie: www.statistik-akademie.de
Hallo, vielen Dank für deine Videos. Ich habe eine Frage und würde mich freuen, wenn du antwortest. Wenn keine Normalverteilung vorliegt, was kann man tun ?Außerdem wollte ich fragen, wie man das Ergebnis interpretiert, wenn nur eine variable zum Beispiel nicht signifikant ist ?
Hallo Daniela, die konkrete Interpretation des Koeffizienten für die Werbeausgaben würde dann wahrscheinlich wie folgt lauten: Steigen die Werbeausgaben um 1000 Pfund, so steigen die verkauften Alben um 0,085 Tausend bzw. um 85. Liegen ich hiermit richtig oder würde die Interpretation anders lauten? Hättest du außerdem noch einen Tipp bezüglich der Interpretation von logarithmierten Werten? Vielen Dank und liebe Grüße Niklas
Hallo Niklas, ja, genau so funktioniert das. Für logarithmierte Werte kannst Du bei der Interpretation die Umkehrfunktion (in dem Fall die Exponentialfunktion) auf den Regressionskoeffzienten anwenden. Wie genau kommt darauf an, welche Variable (UV oder AV oder beide) transformiert wurden. Schreib Dir am besten die Formel der Regression mal für Dein Beispiel auf, dann solltest Du das umformen können und dann sehen, wie es zu interpretieren ist. LG Daniela PS: Komm gern in die Statistik-Akademie (www.statistik-akademie.de), um weiter dazu zu diskutieren und Dir mehr von meinem Material ansehen zu können.
Hey Daniela, ich hätte noch eine Frage bezüglich der Multiplen Regression, was auch für andere bestimmt hifreich sein könnte. Es wäre mega lieb, wenn Du darauf antworten könntest:) Und zwar habe ich bei meiner Multiplen Regression den Einfluss von den unabhängigen Variablen "Bildungsstatus" (ordinales Merkmal) und "Beziehungsstatus" (nominales Merkmal mit drei Ausprägungen) auf die metrische abhängige Variable "wöchentliche Spielstundenanzahl" gemessen gehabt. I. Das ordinalen Merkmal wurde von 1 bis 7 kodiert, also je höher der Bildungsstatus, desto höher auch die kodierte Zahl. Wenn nun beim ersten Regressionskoeffizienten Beta z.B. -0,5 herauskommt und es auch mit p Mit höherem Bildungsstatus verringert sich auch die wöchentliche Spielzeit, oder? II. Der Beziehungsstatus (single, in einer Beziehung oder verheiratet) wurde mit den Dummy-Variablen (0 &1) kodiert und das Singledasein als Referenzgruppe nicht in die Regressionsanalyse aufgenommen. Wenn beim ersten Regressions-Koeffizienten "in einer Beziehung" +0,7 steht und beim "verheiratet" +0,2 und das jeweils auch mit p
Liebe Daniela, vielen Dank für das tolle Video. Kannst du mir sagen, wie du bei der Überprüfung auf Ausreißer (Residuen) auf den Schätzwert von 2/-2 gekommen bist? Ist das ein allgemeiner Richtwert? Und benötigt man einen Durbin-Watson-Test eigentlich nur bei Längsschnittdaten (so gelernt) oder besser immer? Zudem: kann ich auf Normalverteilung auch via "Histogramm" mit ZPRED/ZRESID testen? Hab ich auch mal so gelernt, oder wäre die "Normalverteilungskurve" besser, so wie du es zeigst? Lieben Dank (:
Hallo, vielen Dank für das Video! Eine Frage hätte ich noch: Muss für die multiple lineare Regression zuvor eine Korrelation nach Pearson gerechnet werden, weil Pearson für lineare Zusammenhänge genutzt wird (oder geht z.B. auch Spearman)? Heißt das dann auch, dass ich beispielsweise eine rechtsschiefe Variable transformieren muss, da sonst keine Korrelation nach Pearson möglich ist und somit auch keine multiple lineare Regression? Vielen Dank
Vielen vielen Dank für das hilfreiche Video! :-) Eine kurze Frage hätte ich noch: Ich habe in meiner Analyse zunächst eine schrittweise Regression durchgeführt, um die Koeffizienten für das Modell zu ermitteln. Im nächsten Schritt habe ich dann nochmal die multiple Regression für das letzte Modell durchgeführt über den Befehl "Einschluss", um mir die detaillierteren Tabellen ausgeben zu lassen. Die ausgegebenen Werte (z.B. das angepasste R-Quadrat & das Signifikanzniveau) unterscheiden sich nun zwischen den Ausgaben der beiden Regressionen, wie kann das sein? Eigentlich analysiere ich doch in beiden Fällen das gleiche? Darüber hinaus habe ich in der ANOVA-Tabelle eine hohe Signifikanz für das gesamte Modell, jedoch für einen der Koeffizienten im Modell einen p-Wert, der für Nicht-Signifikanz spricht. Wie verfahre ich nun mit diesem Koeffizienten? Eigentlich hatte ich gedacht, dass nicht-signifikante Koeffizienten vorher durch die schrittweise Regression ausgeschlossen werden. In der ersten schrittweisen Regression war dieser Koeffizient jedoch signifikant. Ich hoffe mein Problem ist einigermaßen verständlich erklärt. Wäre sehr dankbar für eine Antwort :-)
Hallo Johanna, ja, eigentlich sollte das das gleiche Ergebnis liefern. Es könnte sein, dass Dein Datensatz nicht vollständig ist und Du in anderen Variablen, die zwar in der schrittweisen Regression verwendet wurden, nicht aber in Deinem finalen Modell, fehlende Werte hast. Dann ist die Fallzahl von diesen beiden Analysen nicht gleich und damit kann dann auch das Ergebnis anders sein. Prüfe das mal! Es können auch nicht-signifikante Variablen im Modell bleiben. Vermutlich ist das dann knapp. Das heißt, der Effekt an sich kann nicht als signifikant nachgewiesen werden, aber die Variable hat trotzdem einen Beitrag zum Gesamtmodell und wird deshalb nicht ausgeschlossen. Schau Dir mal meine Statistik-Akademie an: www.statistik-akademie.de Da findest Du viel mehr hilfreichen Input und kannst das Forum für Deine regelmäßigen Fragen an mich verwenden. LG Daniela
Guten Tag Frau Keller, Sie haben bei der Konstanten einen Wert von 0,127. Was genau sagt dieser aus? Bei einer meinerseits durchgeführten Analyse, liegt dieser Wert, wenn bei der 3. unabhängigen Variable alle Items des Faktors beibehalten werden bei ca. 0,9. Wenn c.p. ein Item des Faktors gelöscht wird, welches eine Faktorladung von -0,8 hatte, liegt die Signifikanz der Konstanten bei 0,019. Die Signifikanten unabhängigen Variablen bleiben signifikant. Meine Frage ist nun: Welche Auswirkungen hat die Signifikanz der konstanten? Selbst nach einiger Recherche, wird dieser Aspekt bei vielen wissenschafltichen Arbeiten außer Acht gelassen. Welchen Grund hat dies?
Hallo Lea, der Datensatz ist von Andy Field, allerdings auf Englisch. Ich habe einfach in der SPSS-Datentabelle in der Variablenansicht die Variablennamen mit deutschen Namen beschriftet. Der Rest sind ja Zahlen, also international. :) LG Daniela www.statistik-akademie.de/akademie
Tausend Dank für das Video!!! Eine Frage habe ich noch. Sind die hier vorgestellten Voraussetzungen auch die Voraussetzungen für eine Moderationsanalyse? Ich habe jetzt gegoogelt und in ein paar Bücher geschaut, aber nirgends den Zweifel ausräumen können. Wäre unheimlich dankbar für eine Antwort.
Ja, theoretisch schon. Denn da rechnest Du ja auch eine lineare Regression, nur eben mit Interaktionsterm. Häufig wird für die Moderationsanalyse in SPSS aber das Macro von Hayes verwendet, das ich auch sehr gut finde. Dort ist es so, dass schon viele Dinge eingebaut sind, mit denen man die Voraussetzungen umgehen kann, z.B. Bootstrapping oder robuste Schätzer. So muss man dann bei den Voraussetzungen nicht so streng sein. Hayes geht darauf auch in seinem Buch gut ein. LG Daniela
Hallo Nicola, für die lineare Regression würde ich vorab die metrischen Variablen alle auf Normalverteilung prüfen und eventuell Ausreißer ausschließen oder transformieren. Außerdem die Linearität zwischen den UVs und der AV untersuchen und eventuell noch bivariate Korrelationen als Voranalyse. LG Daniela P.S: Wenn Du mehr Unterstützung und regelmäßig Antworten auf Deine Fragen willst, dann komm in die Statistik-Akademie: www.statistik-akademie.de
Hallo, ich habe mal eine Frage: Wie berechnet man den Zusammenhang von einer abhängigen Variable (Bsp. Wissen) und einer unabhängigen Variable ( Bsp. Geschlecht, Alter..)? Wichtig hierbei ist, dass eine der unabhängigen Variablen (geschlecht) nicht metrisch skaliert ist. Ich hätte noch eine Frage: Kann man hier auch eine mehrfaktorielle Varianzanlyse mit Messwiederholung machen? Mit 3 Messzeitpunkten als abhängige Variable und 3 unabhängigen Variablen? Ich würde mich wirklich sehr über Hilfe freuen!:)
Das kommt ganz auf das Messniveau der beteiligten Variablen an. Wenn Du Geschlecht mit 2 Kategorien als UV hast und eine metrische AV, dann kannst Du z.B. die punktbiseriale Korrelation rechnen. LG Daniela
Vielen lieben Dank für das hilfreiche Video, Frau Keller!
Sehr gern! LG Daniela
Hallo, ich habe die Analyse so durchgeführt und alle meiner Voraussetzungen wären erfüllt, bis auf mein Streudiagramm, denn da ist nichts verstreut, sondern ich habe 5 diagonale "Linien" die Parallel zueinander verlaufen. Nun weiß ich nicht wie das zu interpretieren ist. Oder meine Voraussetzung dennoch erfüllt ist. Wäre sehr dankbar über eine Antwort, da sonst alle Voraussetzungen erfüllt sind!! LG Selin
Hallo Selin, ich vermute, Du hast eine 5stufige Variable in Deinem Modell, die Du wie metrisch verwendet hast. Das führt zu solchen Streudiagrammen.
LG Daniela
Hallo Daniela, ich habe eine Frage bzgl. der Auswertung zu meiner Masterarbeit. Wie kann es sein das in einfachen linearen Regressionen die Prädiktoren signifikant werden aber in einer multiplen Regression mit beiden Prädiktoren dann beide nicht signifikant sind? Danke :)
Hi Daniela, Danke für die super Erklärung!
Ich habe allerdings noch eine Frage hierzu...Ist die multiple Regression auch das richtige Modell zum prüfen von Kontrollvariablen bei linearer Regression? Also würde ich hierbei einfach meine Kontrollvariablen als UVs in die multiple Regression einbauen?
Und würde ich dann schauen wie die Kontrollvariablen das Ergebnis von der linearen Regression beeinflussen, also die beiden Modelle miteinander vergleichen oder wie wäre das Vorgehen, wenn ich für meine wissenschaftliche Arbeit bei einer linearen Regression auch Kontrollvariablen integrieren möchte?
Schon einmal im Voraus vielen Dank für deine Unterstützung! :)
Hallo Mirco,
ja genau! Du nimmst die Kontrollvariablen einfach als UVs auf und damit wird automatisch für deren Effekt kontrolliert. Das Modell/die Software macht keinen Unterschied zwischen inhaltlich interessierendem Prädiktor und Kontrollvariable. Den Unterschied machen dann erst wir bei der Interpretation.
LG Daniela
www.statistik-akademie.de
Hallo Daniela,
Ich hätte noch eine kurze Frage dazu: Gibt es eigentlich ein Maximum an unabhängigen Variablen die man ins Modell einsetzten kann? Bzw. macht es nur bis zu einer bestimmten Anzahl Sinn, da die Ergebnisse sonst "ungenau" werden? In meinem Fall habe ich 30 dichotome Aussagen (zutreffend oder nicht zutreffend) zu einer Automarkte (z.B. Leistung, Sicherheit, Fahrspaß...) und würde damit gerne die Kaufbereitschaft der Marke vorhersagen (Intervall).. Wäre es falsch hier hier alle 30 Variablen im Modell zu testen oder sollte ich mich auf eine bestimmte Anzahl begrenzen?
Besten Dank im Voraus und Grüße
Denis
Als Daumenregel für die lineare Regression gilt, dass man mindestens 5 bis 10 Fälle pro Prädiktor haben möchte. Allerdings ist das für die metrischen Prädiktoren gedacht. Bei Deinen dichotomen Prädiktoren musst Du noch drauf achten, dass die Zellbesetzung (Anzahl pro Kategorie) nicht zu schwach wird.
LG Daniela
P.S.: Noch mehr Fragen? Dann komm in die Statistk-Akademie: www.statistik-akademie.de
Super geklärt Danke ❤
Gerne 😊
Hallo,
vielen Dank für deine Videos. Ich habe eine Frage und würde mich freuen, wenn du antwortest. Wenn keine Normalverteilung vorliegt, was kann man tun ?Außerdem wollte ich fragen, wie man das Ergebnis interpretiert, wenn nur eine variable zum Beispiel nicht signifikant ist ?
Hallo Daniela, die konkrete Interpretation des Koeffizienten für die Werbeausgaben würde dann wahrscheinlich wie folgt lauten: Steigen die Werbeausgaben um 1000 Pfund, so steigen die verkauften Alben um 0,085 Tausend bzw. um 85. Liegen ich hiermit richtig oder würde die Interpretation anders lauten? Hättest du außerdem noch einen Tipp bezüglich der Interpretation von logarithmierten Werten?
Vielen Dank und liebe Grüße
Niklas
Hallo Niklas,
ja, genau so funktioniert das.
Für logarithmierte Werte kannst Du bei der Interpretation die Umkehrfunktion (in dem Fall die Exponentialfunktion) auf den Regressionskoeffzienten anwenden. Wie genau kommt darauf an, welche Variable (UV oder AV oder beide) transformiert wurden. Schreib Dir am besten die Formel der Regression mal für Dein Beispiel auf, dann solltest Du das umformen können und dann sehen, wie es zu interpretieren ist.
LG Daniela
PS: Komm gern in die Statistik-Akademie (www.statistik-akademie.de), um weiter dazu zu diskutieren und Dir mehr von meinem Material ansehen zu können.
Hey Daniela,
ich hätte noch eine Frage bezüglich der Multiplen Regression, was auch für andere bestimmt hifreich sein könnte.
Es wäre mega lieb, wenn Du darauf antworten könntest:)
Und zwar habe ich bei meiner Multiplen Regression den Einfluss von den unabhängigen Variablen "Bildungsstatus" (ordinales Merkmal) und "Beziehungsstatus" (nominales Merkmal mit drei Ausprägungen) auf die metrische abhängige Variable "wöchentliche Spielstundenanzahl" gemessen gehabt.
I. Das ordinalen Merkmal wurde von 1 bis 7 kodiert, also je höher der Bildungsstatus, desto höher auch die kodierte Zahl. Wenn nun beim ersten Regressionskoeffizienten Beta z.B. -0,5 herauskommt und es auch mit p Mit höherem Bildungsstatus verringert sich auch die wöchentliche Spielzeit, oder?
II. Der Beziehungsstatus (single, in einer Beziehung oder verheiratet) wurde mit den Dummy-Variablen (0 &1) kodiert und das Singledasein als Referenzgruppe nicht in die Regressionsanalyse aufgenommen. Wenn beim ersten Regressions-Koeffizienten "in einer Beziehung" +0,7 steht und beim "verheiratet" +0,2 und das jeweils auch mit p
Lieben Dank für das hilfreiche Video. :)
Sehr gerne!
Liebe Daniela, vielen Dank für das tolle Video. Kannst du mir sagen, wie du bei der Überprüfung auf Ausreißer (Residuen) auf den Schätzwert von 2/-2 gekommen bist? Ist das ein allgemeiner Richtwert? Und benötigt man einen Durbin-Watson-Test eigentlich nur bei Längsschnittdaten (so gelernt) oder besser immer? Zudem: kann ich auf Normalverteilung auch via "Histogramm" mit ZPRED/ZRESID testen? Hab ich auch mal so gelernt, oder wäre die "Normalverteilungskurve" besser, so wie du es zeigst?
Lieben Dank (:
Hallo, vielen Dank für das Video!
Eine Frage hätte ich noch: Muss für die multiple lineare Regression zuvor eine Korrelation nach Pearson gerechnet werden, weil Pearson für lineare Zusammenhänge genutzt wird (oder geht z.B. auch Spearman)? Heißt das dann auch, dass ich beispielsweise eine rechtsschiefe Variable transformieren muss, da sonst keine Korrelation nach Pearson möglich ist und somit auch keine multiple lineare Regression? Vielen Dank
Die Lineare Regression hat als Voraussetzung, dass die Residuen normalverteilt sind, nicht die Variablen selbst.
LG Daniela
Vielen vielen Dank für das hilfreiche Video! :-) Eine kurze Frage hätte ich noch: Ich habe in meiner Analyse zunächst eine schrittweise Regression durchgeführt, um die Koeffizienten für das Modell zu ermitteln. Im nächsten Schritt habe ich dann nochmal die multiple Regression für das letzte Modell durchgeführt über den Befehl "Einschluss", um mir die detaillierteren Tabellen ausgeben zu lassen. Die ausgegebenen Werte (z.B. das angepasste R-Quadrat & das Signifikanzniveau) unterscheiden sich nun zwischen den Ausgaben der beiden Regressionen, wie kann das sein? Eigentlich analysiere ich doch in beiden Fällen das gleiche?
Darüber hinaus habe ich in der ANOVA-Tabelle eine hohe Signifikanz für das gesamte Modell, jedoch für einen der Koeffizienten im Modell einen p-Wert, der für Nicht-Signifikanz spricht. Wie verfahre ich nun mit diesem Koeffizienten? Eigentlich hatte ich gedacht, dass nicht-signifikante Koeffizienten vorher durch die schrittweise Regression ausgeschlossen werden. In der ersten schrittweisen Regression war dieser Koeffizient jedoch signifikant.
Ich hoffe mein Problem ist einigermaßen verständlich erklärt. Wäre sehr dankbar für eine Antwort :-)
Hallo Johanna,
ja, eigentlich sollte das das gleiche Ergebnis liefern. Es könnte sein, dass Dein Datensatz nicht vollständig ist und Du in anderen Variablen, die zwar in der schrittweisen Regression verwendet wurden, nicht aber in Deinem finalen Modell, fehlende Werte hast. Dann ist die Fallzahl von diesen beiden Analysen nicht gleich und damit kann dann auch das Ergebnis anders sein. Prüfe das mal!
Es können auch nicht-signifikante Variablen im Modell bleiben. Vermutlich ist das dann knapp. Das heißt, der Effekt an sich kann nicht als signifikant nachgewiesen werden, aber die Variable hat trotzdem einen Beitrag zum Gesamtmodell und wird deshalb nicht ausgeschlossen.
Schau Dir mal meine Statistik-Akademie an: www.statistik-akademie.de
Da findest Du viel mehr hilfreichen Input und kannst das Forum für Deine regelmäßigen Fragen an mich verwenden.
LG Daniela
Guten Tag Frau Keller, Sie haben bei der Konstanten einen Wert von 0,127. Was genau sagt dieser aus? Bei einer meinerseits durchgeführten Analyse, liegt dieser Wert, wenn bei der 3. unabhängigen Variable alle Items des Faktors beibehalten werden bei ca. 0,9. Wenn c.p. ein Item des Faktors gelöscht wird, welches eine Faktorladung von -0,8 hatte, liegt die Signifikanz der Konstanten bei 0,019.
Die Signifikanten unabhängigen Variablen bleiben signifikant.
Meine Frage ist nun: Welche Auswirkungen hat die Signifikanz der konstanten?
Selbst nach einiger Recherche, wird dieser Aspekt bei vielen wissenschafltichen Arbeiten außer Acht gelassen. Welchen Grund hat dies?
wo kann man sich den Datensatz auf deutsch downloaden ?
Hallo Lea, der Datensatz ist von Andy Field, allerdings auf Englisch. Ich habe einfach in der SPSS-Datentabelle in der Variablenansicht die Variablennamen mit deutschen Namen beschriftet. Der Rest sind ja Zahlen, also international. :)
LG Daniela
www.statistik-akademie.de/akademie
danke für das gute Video !
Sehr gerne!
LG Daniela
Tausend Dank für das Video!!! Eine Frage habe ich noch. Sind die hier vorgestellten Voraussetzungen auch die Voraussetzungen für eine Moderationsanalyse? Ich habe jetzt gegoogelt und in ein paar Bücher geschaut, aber nirgends den Zweifel ausräumen können. Wäre unheimlich dankbar für eine Antwort.
Ja, theoretisch schon. Denn da rechnest Du ja auch eine lineare Regression, nur eben mit Interaktionsterm. Häufig wird für die Moderationsanalyse in SPSS aber das Macro von Hayes verwendet, das ich auch sehr gut finde. Dort ist es so, dass schon viele Dinge eingebaut sind, mit denen man die Voraussetzungen umgehen kann, z.B. Bootstrapping oder robuste Schätzer. So muss man dann bei den Voraussetzungen nicht so streng sein. Hayes geht darauf auch in seinem Buch gut ein.
LG Daniela
@@StatistikAkademie Ah, wow! Vielen Dank für die Antwort! Bin echt super dankbar für die wertvollen Tipps! Vielen Dank!
@@relaxbro5605 Gern!
Vielen Dank für das hilfreiche Video. Welche Berechnungen muss ich im Vorfeld genau durchführen? Vielen Dank und viele Grüße :)
Hallo Nicola, für die lineare Regression würde ich vorab die metrischen Variablen alle auf Normalverteilung prüfen und eventuell Ausreißer ausschließen oder transformieren. Außerdem die Linearität zwischen den UVs und der AV untersuchen und eventuell noch bivariate Korrelationen als Voranalyse.
LG Daniela
P.S: Wenn Du mehr Unterstützung und regelmäßig Antworten auf Deine Fragen willst, dann komm in die Statistik-Akademie: www.statistik-akademie.de
Hallo, ich habe mal eine Frage: Wie berechnet man den Zusammenhang von einer abhängigen Variable (Bsp. Wissen) und einer unabhängigen Variable ( Bsp. Geschlecht, Alter..)? Wichtig hierbei ist, dass eine der unabhängigen Variablen (geschlecht) nicht metrisch skaliert ist.
Ich hätte noch eine Frage: Kann man hier auch eine mehrfaktorielle Varianzanlyse mit Messwiederholung machen? Mit 3 Messzeitpunkten als abhängige Variable und 3 unabhängigen Variablen?
Ich würde mich wirklich sehr über Hilfe freuen!:)
Das kommt ganz auf das Messniveau der beteiligten Variablen an. Wenn Du Geschlecht mit 2 Kategorien als UV hast und eine metrische AV, dann kannst Du z.B. die punktbiseriale Korrelation rechnen. LG Daniela
Du trägst mich durchs ganze Studium 😂❤
Danke für das Feedback! Das freut mich sehr! :)