Home
Subjects
Textbook solutions
Create
Study sets, textbooks, questions
Log in
Sign up
Upgrade to remove ads
Only $35.99/year
Forschungsmethoden & statistik: Mögliche Prüfungsfragen + Movo-Fragen
STUDY
Flashcards
Learn
Write
Spell
Test
PLAY
Match
Gravity
Terms in this set (141)
Welche Vorteile haben Beobachtungen gegenüber Befragungen?
-unabhängig von der Auskunftsbereitschaft
-verhalten kann erfasst werden, welches proband nicht bewusst ist
-bestimmte daten (zb blickverlauf) sind nur durch beobachtung erfassbar
-eher möglich, einfluss der situation auf antwort auszuschliessen
Allerdings:
-sachverhalte (einstellung zu einem produkt zb) nur durch befragung ermittelbar
—>genauere datenerhebnung in konkreten situationen
-direkt und aktuell, keine interviewereffekte,
-keine antwortverweigerung
-keine Verzerrungen
Welche Vorteile haben mündliche Befragungen gegenüber schriftlichen Befragungen?
-rücklauf-und erfolgsquote der mündl. Befragungen sind höher
-sind spontaner, also auch anpassbar —> inhalt kaum eingeschränkt
-kontrolle der reihenfolge der beantwortung
-kontrolle der situativen beeinflussung des befragten
-zusätzliche infos erhebbar, zb spontaneität od emotionalen reaktionen und so
Aber: interviewer-effekt: verzerrung durch situation und einfluss des interviews
—> hohe kosten eig und meh arbeit
Mündlich:
Vorteil:
-keine rücklaufquete, repräsentivere Resultate, berücksichtigung nonverbaler signale, flexibles fragen (besser aufs individuum eingehen)
Nachteil:
Zeitintensiv und weniger anonym
Schriftlich:
Vorteil:
- ökonomischer, grössere anonymität, kein versuchsleitereffekt
Nachteil:
- geringere flexibilität, unbekannter kontext (kein nachfragen möglich)
-weniger konzentration—> person vlt abgelenkt beim ausfüllen
Warum ist die Technik des Randomisierenz in der Regel besser als die Technik des Parallelisierens um den Einfluss von Störvariablen auszuschalten?
Randomisieren = lüüt zuefällig id gruppene teile —> zufallsprinzip
Parallelisieren = lüüt nach merkmal/ variable glichmässig in gruppe ufteile
Randomisieren besser, weil:
-Potentielle störvariablen nicht bekannt sein müssen, wobei bei der parallelisierung die potentiellen störvariablen bekannt sein und messbar sein müssen um die einteilung vorzunehmen
-randomisieren kann locker bei grossen stichproben angewandt werden —> gesetz der grossen zahlen, wobei parallelisieren eher bei kleinen stichproben verwendet wird —> ded scho müehsam zum alles unter sueche und mache —> sehr zeitaufwändig
Welche der folgenden Lage oder Streuungsmasse sind anfällig gegenüber Ausreissern?
Lagemasse: arithmetisches Mittel (durchschnitt) = mittelwert
Streuungsmasse: modus (modalwert) —> Spannweite, Varianz und Standardabweichung
—>besser: median als alternative für lagemass und interquartilsabstand anstatt streuungsmass benutzen.
Was versteht man bei der Regression unter einem Residuum?
Residuum= das zurückgebliebene = Vorhersagefehler —> differenz zwischen vorhergesagtem und echtem Y-wert
-berechnete grösse
-messen den vertikalen abstand zwischen beobachtungspunkt und der geschätzten regressionsgerade
-für eine bestimmte beobachtung i der fehler, den die vorhersage des gerechneten regressionsmodells für diese beobachtung gemacht hat
Ê i = y i - y^ i
Bsp:
Herausgregriffener punkt hat X = 115 und Y = 5, die regressiongerade aber, ordnet dem wert 115 den wert Y = 7 zu —> somit weicht der pkt um 2 Y-einheiten von der geraden ab —> die abweichung ist durch die regression von X auf X nicht erklärbar
Was können wir schlussfolgern, wenn der Determinationskoeffizient in einer einfachen linearen Regression 0.16 beträgt?
—> der determinationskoeffizient r^2 gibt an, wie genau Y durch X bedingt (determiniert) wird.
R^2 = korrelationskoeffizient ^2 —> beschreibt die ungenauigkeit die entsteht, wenn man Y-werte aus X-werten mit hilfe der regressionsgeraden schätzen möchte (umso kleiner, je näher die werte an der gerade liegen)
—> 0.16 * 100 = 16 = Varianzaufklärung von 16%
—> kleiner determinationskoeffizient —> grosser schätzfehler —> grosse residuen !
—> werte liegen eher nahe an der regressionsgerade??
(Determkoeff. Kann max. 1 betragen=100%)
Wie kann man das 95%-Konfidenzintervall des Mittelwerts interpretieren?
-dass in 95 von 100 durchgeführten studien das Konfidenzintervall den wahren wert überdecken wird.
—> besagt dass bei einer hundertmaligen wiederholung derselben studie das KOnfidenzintervall in 95 der studien tatsächlich den wahren Mittelwert der Population beinhalten würde, während nur bei 5 studien das konfidenzintervall „daneben liegen" würde
Wie hängt die Breite des Konfidenzintervalls für Mittelwerte mit der Vertrauenswahrscheinlichkeit, mit der stichprobengrösse und dem Standardfehler des Mittelwerts zusammen?
Vertrauenswahrsvheinlichkeit:
-man muss die gewünschte güte des intervalls festlegen
-je grösser die vertrw., desto breiter der wertebereich (90%,95% od 99% benutzen)
Stichprobengrösse:
-Standardfehler wird aus der Stichprobe berechnet
Standardfehler:
-um herauszufinden wo der wahre mittelwert liegt:
—> stichprobenverteilung um den erwartungswert herum konstruieren
—> Streuung der Stichprobenverteilung & Somit den STANDARDFEHLER aus der Stichprobe berechnen
Wie unterscheiden sich Standardnormalverteilung (z-Verteilung) und t-Verteilung,
& was haben sie gemeinsam?
Unterschied:
-während in der standardnormalverteilung z-werte abgetragen sind, sind es in der t-verteilung t-werte
-t-verteilung ist vond er stichprobengrösse abhängig, z nicht
- bei grossen stichproben geht die t-verteilung in die standardnormalvert über —> dann ist es egal welche der beiden verteilungen man benutzt
- bei kleineren stichproben ist gipfel der t-verteilung etwas niedriger als der z-verteilung
- t-vert wird für die berechnung von konfidenzintervallen benutzt
Gemeinsamkeit:
-rechenweg für die berehcnung der konfidenzintervalle ist gleich, —> beide haben einen Mittelwert = 0, und Streuung = 1
T-verteilung:
-hängt von der stichprobengrösse ab
-wird eher für kleinere stichproben benutz
Z-verteilung:
-mittelwert=0, standardabweichung=1
-macht messwerte von verschiedenen skalen bzw aus verschiedenen stichproben vergleichbar
- minus mittelwert durch streuung
-z-skala unabhängig von der ursprünglichen skalierung
Unterschied:
-t-verteilung abhängig von der stichprobenverteilung, z-verteilung nicht
-t eher für kleinere stichproben benutzt, z für grössere (t unter 30, z über?)
Z-Verteilung:
—>innerhalb EINER stichprobe, für EINEN EINZIGEN wert zu bestimmen, ob er sich signifikant vom durchschnitt unterscheidet
—> Z-Test —> für z-wert dann in der z-verteilung nachlesen welchem p-wert er entspricht
T-Verteiliung:
—>kann ÜBERALL da angewendet werden, wo es um MITTELWERTSUNTERSCHIEDE, KORRELATIONSKOEFFIZIENTEN & REGRESSIONSGEWICHTE geht —> all diese Masse sind t-verteilt
Warum wird empfohlen, zusätzlich zum Signifikanztestergebnis, die Effektgrösse, bzw. Effektstärke anzugeben?
—>Neben den signifikanztestergebnissen sollen angaben gemacht werden, die besser interpretierbar sind & auch eine aussage über die Effektgrössen zulassen —>zb auch konfidenzintervall(geben konkrete wertebereiche in rohwerten an —> viel aussagekräftiger & verständlicher als zb ein p-wert)
—>um schwierigkeiten bei der Interpretation & dem ritualisierten Umgang mit signifikanztestergebnissen entgegenzuwirken.
Woran kann man sich bei der Interpretation von Effektgrössen orientieren?
Effektgrösse= Mass, mit dem man die grösse eines effektes unabhängig von einer bestimmten studie, stichprobe oder themenbereich beurteilen kann
—> die interpretation ist von der jeweiligen Fragestellung der studie abhängig
- wenn immer möglich, mit früheren studien vergleichen
- man kann aber die Konventionen von Cohen verwenden;
Klein:
d & g: ab 0.2 bzw -0.2
r: ab 0.1 bzw -0.1
Mittel:
d & g: ab 0.5 bzw -0.5
r: ab 0.3 bzw -0.3
Gross:
d & g: ab 0.8 bzw -0.8
r: ab 0.5 bzw -0.5
Welche Aussagen zu Cohen's d sind richtig?
(Movo luege?)
-Cohen's d = ein mass der effektgrösse, das berechnet wird, wenn es um unterschiede zwischen mittelwerten geht, wenn also ein t-Test durchgeführt wird.
—> differenz der beiden mittelwerten
Kleiner effekt: < 0.5
Mittlerer effekt: 0.5-0.8
Grosser effekt: >0.8
—> effektgrössen für unterschiede bei unabhängigen messungen
—> gefundener mittelwertsunterschied wird durch die gemeinsame streuung der beiden stichproben geteilt = d
-cohens d ist stets grösser als hedges g, aber weniger exakt—> dafür viel gebräuchlicher
-effektgrössen für unterschiede werden abstandsmasse genannt, weil sie den abstand der beiden mittelwerte repräsentieren
-effektgrösse erhöht sich, wenn die streuungen der messung kleiner werden —> 2 mittelwerte mit jeweils kleiner streuung führen zum bedeutsameren effekt
-die effektgrösse d drückt einen mittelwertsunterschied durch die standardisierung folglich in standardabweichungseinheiten aus —> ein d von 1/-1 entspricht also einer standardabweichungeinheit und kann entsprechend interpretiert werden
-formeln gelten nur, wenn beide grp gleich gross sind
Effektgrössen für unterschiede bei abhängigen messungen:
-d ergibt sich aus den differenzen der messwerte zwischen der 1. und 2. messung und deren streuung
—> d = Xa-Xb / Sab —> Sab = √Sa^2 + Sb^2 / 2
—> d = X differenzwerte (mittelwert der diffwerte / S Differenzwerte (streuung d diffwerte) —> Sdiffwerte = ∑(Xdiff i - Xdiff)^2 / n
Welche der folgenden Masse sind Effektgrössen für Zusammenhänge?
—>zusqammenhangsmass r
—>gleiche berechnung wie für korrelationskoeffizienten
—> Rxy = cov/Sx*Sy
-Korrelationskoeffizient ist bereits eine Effektgrösse, da er bei der Berechnung standardisiert wurde
-determinationskoeffizient r^2
-standardisiertes regressionsgewicht B (beta)
Was besagt die Nullhypothese?
-dass zwischen 2 geprüften Daten kein Unterschied, bzw kein Zusammenhang besteht (zb rauchwerbig —> will zeige, dass rauche und lungekrebs kein zemehang hed also raucher vs nichtraucher glich sind zb)
—> fehlerquellen ausschliessen, damit man beim nicht-signifikanten ergebnis tatsächlich argumentieren kann, dass die H0 stimmt. Lol
-Effekt in der Population = 0
Was bedeutet es, wenn man bei einem Signifikanztest (nach Neyman und Pearson) ein Signifikanzniveau von 0.01 festgesetzt wird?
-signifikanzwert zeigt uns die wahrscheinlichkeit eines gefundenen effektes, fals eine hypothese (in der regel H0) zutrifft.
-signifikanzniveaus: nominalskala,ordinalskala,intervallskala,verhältnisskala
—> effekte, die sich zufällig um 0 herum verteilen —> wahrscheinlicher effekt —>H0 trifft zu, Mittelwert =0
- irrtumswahrscheinlichkeit liegt bei 1% —> das alpha niveau schneidet daher 1% der fläche der verteilung ab
- die wahrscheinlichkeit für Alpha auf 1% festzulegen bedeutet , dass das risiko eines irrtums (dass ein gefundener wert per zufall zustande kam) minimiert wird —> da bei 1% viel grössere Effekte nötig sind, um ein signifikantes ergebnis zu erhalten
-bei einem signifikanzniveau von 0.05 wird das ergebnis leichter signifikant als eine signifikanzniveau von 0.01, allerdings geht ein Anheben des Signifikanzniveaus mit einem höheren Alpha-Fehler einher
Wie unterscheiden sich einseitiges und zweiseitiges Hypothesentesten?
1-Seitiges Testen:
-eine hypothese, die in eine BESTIMMTE richtung geht
-postulation, dass der effekt der rechten seite der verteilung unter annahme der H0 zu finden ist
-auf der linken seite der verteilung stehen t-werte, die < 0 sind
—>schliessen von vorne herein aus, dass wir einen Alpha-Fehler auf der linken seite machen könnten
—> Signifikanztest also nutzlos
—> HÄUFIGKEITEN & VARIANZEN = IMMER EINSEITIG TESTEN (da sie negativ sein können)
2-Seitiges Testen:
-man hat keine idee darüber, in welche richtung der effekt gehen wird, wen überhaupt einen gibt
-keine hypothese über die richtung des effektes (zb fraue mit brülle erfolgricher wege gshider usgeh, 2: fraue ohni brülle erfolgricher wege meh wiblichkeit—> also gaht i di glich richtig iwie)
-effekt kann sich auf beiden seiten der t-verteilung ereignen —>alpha fehler muss also auf beide seiten der verteilung aufgeteilt werden (wil mer ned wüssed wo sueche)
-effekt hats schwerer, signifikant zu werden, egal uf welre siite —> weil er weiter weg von 0 entfernt sein muss, um unter das niveau von alpha zu fallen
—> Vorteil: signifikantes ergebnis = auf beiden seiten akzeptierbar
Wovon hängt der Beta-Fehler ab?
Ein beta-fehler liegt vor, wenn eine nullhypothese nicht abgelehnt wird, obwohl sie falsch ist.
Die wahrscheinlichkeit eines beta-fehlers hängt unter anderem vom wahren wert des zu prüfenden parameters ab.
Warum ist ein statistisch signifikanter Effekt noch nicht zwangsläufig auch ein praktisch bedeutsamer Effekt?
Signifikanter Effekt ≠ bedeutsamer/wichtiger Effekt
—> ob der effekt auch inhaltlich von interesse ist, hängt von seiner grösse und fragestellung ab
—> man kann aus einem signifikanztest NICHT die grösse des WAHREN effekts in der population schätzen : da der p-wert KEIN indikator für die grösse des effektes ist —> erhalten/erfahren auch nichts über die inhaltliche bedeutsamkeit des signifikantstestergebnisses
—> Signifikanztest ist sehr THEORETISCH und WENIG PRAGMATISCH
Was versteht man in der STatistik unter einem Effekt?
—> ein effekt bezieht sich auf eine unabhängige variable, die eine bestimmte wirkung (ein effekt) auf eine abhängige variable ausübt.
—>auch Zusammenhänge gilten als Effekte
—> wenn 2 variablen miteinander korreliieren —> korrelation = effekt
—> unterschied od zsmhang
ZB:
-grp 1: pers, die ihr geld in materiellen dingen anlegen (zb autos)
-grp 2: pers, die ihr geld in erfahrungen investieren (zb ferien)
-effekt: unterschied des glücksempfindens beider untersuchten grp
Wann hat man es mit abhängigen Messungen, bzw Stichproben zu tun?
Mit der abhängigen variable wird der effekt festgestellt, der auf die unabhängige variable zurückzuführen ist.
Aso zb, wenn me musig ide kaufhüser laufe lahht, dass ded d lüht meh kaufed als ohni musig.
—> datenpaare od datengrp, die zsmgehören und keine statistisch voneinander unabhängigen messungen darstellen
—> within-subjects-designs (jede versuchsperson wird jeder versuchsbedingung ausgesetzt, jede person durchläuft jede experimentelle bedingung, dadurch entsteht eine abhängigkeit zwischen den beiden stichproben)
-der häufigste grund für abhängigkeit ist messwiederholung
- abhängigkeit zwischen messungen kann aber auch durch natürliche paare/grp entstehen, wie zb ehepaare, geschwister etc oder durch matching/parallelisieren
Angenommen man hätte die Reaktionszeit einmal in einer Stichprobe von nüchternen Personen und einmal in einer Stichprobe von alkoholisierten Personen untersucht.
Anschliessend hätte man berechnet, dass das 95%-Konfidenzintervall des Mittelwertsunterschieds von 200 ms bis 400ms reicht.
Was könnte man daraus ableiten?
—> unabhängige Messung/Stichprobe (between-subject design), da es verschiedene Personen in beiden Gruppen sind und sie nichts miteinander zu tun haben
—> es ist zu 95% wahrscheinlich, dass der Effekt nicht durch Zufall gefunden wurde, sondern signifikant ist und auf die Population angewendet werden kann, da 0 im KOnfidenzintervall nicht enthalten ist
—> gibt unterschiede zwischen Experimental- und Kontroll grösse?
Wie hängt die Grösse, bzw. Breite des Konfidenzintervalls für Mittelwertsunterschiede von unabhängigen Stichproben mit der Stichprobengrösse, der Vertrauenswahrscheinlichkeit (Konfidenz), der Streuung zwischen Gruppen, der Streuung innerhalb von Gruppen und dem Standardfehler für Mittelwertsunterschiede von unabhängigen Stichproben zusammen? (NAMAL NALUEGE!!!!!!!!)
—> je grösser die Vertrauenswahrscheinlichkeit, desto breiter der Wertebereich
-Stichprobengrösse: je kleiner die stichprgr, desto grösser der standardfehler und desto breiter das konfidenzintervall —> je grösser die stichprobengr, desto schmaler das konfidenzintervall
-Vertrauenswahrscheinlichkeit: je grösser die Vw, umso breiter das konfidenzintervall
-streuung zwischen grp/systematische varianz: insgesamt hat die syst varianz keinen einfluss auf die grösse des konfidenzintervalls —> die syst varianz wird umso grösser, je stärker die grp voneinander abweichen, dh dass bei einer grossen syst varianz auch ein grösseres KI da sein kann, da dann die streuung innerhalb der grp auch grösser sein kann, da die grp weit voneinander entfernt sind
—> wird aber die stichprobengrösse erhöht, so wird die stichprobenverteilung schmaler und das konfidenzintervall enger —> wahrscheinlichkeit für den Wert 0 = tiefer
—> streuung zwischen den grp, die durch den mittelwertsunterschied Xa-Xb zustande kommt —> suchender effekt, dieser ist jedoch von fehlerstreuungen (od streuungen innerhalb der grp) umgeben
-streuung innerhalb der grp: je grösser die str innerhalb der grp, desto grösser die jeweiligen standardabweichungen, desto grösser der standardfehler, desto grösser das Konfidenzintervall für mittelwertsunterschiede, desto eher überschneidet das KI den Nullpkt
-Standardfehler: je grösser der standardfehler, desto grösser desto grösser das KI für mittelwertsunterschiede, desto eher überschneidet das KI den Nullpkt
Wie unterscheiden sich die Berechnungen der Standardfehler für Mittelwertsunterschiede bei abhängigen und unabhängigen Messungen?
Standardfehler des mittelwerts = standardabweichung der stichprobenverteilung für den mittelwert —> quantifiziert den unterschied zwischen dem aus einer einzelnen stichprobe geschätzten mittelwert x und dem tatsächlichen, wahren mittelwer µ. Er entspricht der standardabweichung der entsprechenden stichprobenverteilung
—>standardabw. Für stichprobe = S
—> Standardabweichung für die population = ô (omega mit sigma druf für schätzig)
Standardfehler für abhängige Messungen:
-berechnung der streuung für die DIFFERENZ der Messwerte
-streuung INNERHALB der personen interessant
-DURCHSCHNITT aller Differenzen über alle personen
-streuung der differenzen berechnen—> jedem differenzwert „diff i", den mittelwert aller differenzwerte abziehen und diese differenzen quadriert: (Xdiff i - Xdiff)^2
-für jedes messwertpaar, also n Mal (n = anzahl messwertpaare, aso 2 zb)
-alle werte aufsummieren, dann durch (n-1) teilen
—> o(omega) diff = √∑ (Xdiff i - Xdiff)^2 / n-1
—>Standardfehler d mittelwertsunterschiedes: o Xdiff = o diff / √n
Standardfehler für unabhängige Messungen:
-standardfehler aus der streuung der EINZELNEN STICHPROBEN berechnen
—> streuung zwischen den gruppen, mittelwertsunterschied: XA-XB von rauschen (streuung innerhalb der grp) umgeben
-berechnung bei gleichen Gruppengrössen /nA = nB)
—> o Xa-Xb = √o 2(klein)A / n + o 2(klein)B / n
—> ergibt standardfehler —> mit welchem durchschnittlichen fehler die schätzung eines mittelwertsunterschiedes in der population behaftet ist —> je grösser die untersuchten stichproben, desto kleiner der standardfehler
Das Fach psychologie:
1.) entwickelte sich aus der philosophie heraus
2.) nutzt den verstand als primäre quelle der erkenntnis
3.) wird heute eher den geisteswissenschaften als den naturwissenschaften zugeordnet
4.) geht davon aus, dass eine objektive, vom menschen unabhängige beschreibung der wirklichkeit möglich ist.
1.) √
2.) X
3.) X
4.) √
Welche aussagen zum forschungsprozess sind richtig?
1.) aus hypothesen werden theorien abgeleitet
2.) wenn die operationalisierung erfolgreich war, ist die hypothese bestätigt
3.) die kreativität kann sich durch den ganzen forschungsprozess ziehen, mit ausnahme von einigen schritten, wie messen und auswerten von daten
4.) bei der überprüfung von hypothesen gibt es keinen interpretationsspielraum. Die daten sprechen für sich.
1.) X
2.) X
3.) √
4.) X
Was unterscheidet die Psychologie von anderen naturwissenschaftlichen fächern?
1.) sie kann nur selten deterministische aussagen treffen
2.) jeder glaubt, mitreden zu können
3.) sie ist älter
4.) eigenschaften können oft nicht direkt beobachtet, sondern nur indirekt gemessen werden
5.) zusammenhangshypothesen können in unterschiedshypothesen überführt werden und umgekehrt
1.) √
2.)√
3.) X
4.) √
5.) X
Parkbussen / Jahr soll durch Persönlichkeit erklärt werden:
Art der Variable Parkbussen / Jahr?
1.) dichotom
2.) kategorial
3.) diskret
4.) kontinuirlich
5.) manifest
6.) latent
7.) unabhängig
8.) abhängig
1.) X
2.) X
3.) √
4.) X
5.) √
6.) X
7.) X
8.) √
Untersuchung des einflusses der religionszugehörigkeit auf alkoholkonsum:
Art der Variable Religionszugehörigkeit ?
1.) dichotom
2.)kategorial
3.)diskret
4.)kontinuirlich
5.)manifest
6.)latent
7.)abhängig
8.)unabhängig
1.) X
2.) √
3.) X
4.) X
5.) √
6.) X
7.) X
8.) √
Bei welchen variablen macht eine Berechnung des Mittelwerts sinn?
1.) lebenszufriedenheit gemessen auf einer skala von 1 - 10
2.) alkoholkonsum ( 0 = Nein, 1 = wenig, 2 = moderat, 3 = viel)
3.) Rangplätze bei einem Skirennen
4.) Postleitzahl
5.) Grad Celsius
6.) Grad Kelvin
1.) √
2.) X
3.) X
4.) X
5.) √
6.) √
Welche Voraussetzungen müssen zwingend erfüllt sein, damit eine stichprobe repräsentativ ist ?
1.) Die stichprobe muss genug gross sein
2.) die stichprobe muss zufällig gezogen sein
3.) alle merkmale und besonderheiten, die personen aufweisen können, müssen zu gleichen anteilen in der stichprobe und population vorhanden sein
1.) √
2.) X
3.) √
Welchen Vorteil haben befragungen gegenüber beobachtungen?
1.) sie können auch online an einer grossen zahl von leuten gleichzeitig durchgeführt werden
2.) sie sind besser standardisierbar
3.) man kann dinge herausfinden, die nicht direkt beobachtbar sind
4.) sie sind weniger anfällig für verzerrungen
1.) √ ( könnte man aber auch als falsch interpretieren, da beobachtungen bei einer grossen zahl von leuten ebenfalls online durchgeführt werden können —> zb beobachten welche werbebanner sie anklicken oder wie leute durch websiten navigieren....)
2.) X
3.) √
4.) X
Bei welche der folgenden untersuchungen handelt es sich um verdeckte, teilnehmende beobachtung?
1.) Eine eingeweihte person wartet vor dem ausgang eines supermarktes mit einer vollen aber präparierten plastiktasche. Die versuchsteilnehmer sind ausgewählte kunden, die den supermarkt verlassen. Wenn einer dieser kunden an der eingeweihten person vorbeigeht, platzt deren plastiktasche „zufällig" auf und die lebensmittel verteilen sich auf dem boden. Dann wird registriert, ob und auf welche weise die versuchteilnehmer in dieser situation hilfsbereitschaft zeigen
2.) das spielverhalten von kleinkindern wird untersucht, indem sie über einen einwegspiegel beobachtet werden
3.) ein forscher setzt sich in eine schulklasse und notiert sich das verhalten der schüler in einem notizbuch
4.) kellnerinnen, die teil des forschungsteams sind, berühren restaurantbesucher beim zurückbringen des wechselgeldes entweder kurz an der hand schulter oder sie unterlassen eine berührung. Anschliessend wird geschaut wie hoch das trinkgeld ist.
1.) √
2.) X
3.) X
4.) √
Welche aussagen sind richtig?
1.) experimente können nur im labor durchgeführt werden
2.) das experiment wird als der königsweg der datenerhebung bezeichnet
3.) experimente werden nicht nur zum testen von kausalhypothesen eingesetzt, sondern auch zur beurteilung der wirksamkeit von interventionen.
4.) durch die methode des konstanthaltens kann das experiment auch für störvariablen kontrollieren die man gar nicht kennt.
1.) X
2.) √
3.) √
4.) X
Welche Vorteile haben experimente gegenüber beobachtungsstudien?
1.) sie haben eine höhere externe validität, dh die ergebnisse lassen sich gut auf alltägliche situationen übertragen
2.) hypothesen über Ursache-Wirkungs-Zusammenhänge können getestet werden
3.) Alternativhypothesen können ausgeschlossen werden
4.) störende einflüsse von merkmalen der person auf die unabhängige variable können eliminiert werden
5.) Störende einflüsse von merkmalen der umwelt auf die abhängige variable können eliminiert werden
6.) alle möglichen kausalen effekte lassen sich testen, so zb auch die wirkung des geschlechts, alters und religion
1.) X
2.) √
3.) √
4.) X
5.) √
6.) X
Eine variable hat folgende stichprobenkennwerte: Mittelwert = 50, Median = 60, SD = 10, kleinster wert = 0, grösster wert = 100
Was können sie folgern?
1.) Die Variable ist linksschief / rechtssteil verteilt
2.) die variable ist rechtsschief / linkssteil verteilt
3.) Ca 34.1 % der werte in dieser variable liegen zwischen 40 und 50
4.) der modalwert liegt bei 60
5.) die spannweite beträgt 100
6.) die varianz beträgt 100
7.) der interquartilabstand beträgt 40
8.) es gibt einen deckeneffekt
9.) die variable hat eine bimodale verteilung
10.) ein wert von 90 in dieser variable hätte nach der z-transformation einen wert von 2
1.) √
2.) X
3.) X
4.) X
5.) √
6.) √
7.) X
8.) X
9.) X
10.) X
Welche der folgenden berechnungen von lage- oder streuungsmassen machen sinn?
1.) Das interquartilrange bei metrischen daten und vorhandensein von ausreissern
2.) der median bei nominalskalierten daten
3.) der modalwert bei nicht-metrischen daten
4.) der mittelwert bei intervallskalierten daten und bimodalen verteilungen
5.) die standardabweichung bei ordinalskalierten variablen
1.) √
2.) X
3.) √
4.) X
5.) X
Warum sind boxplots in der graphischen datenanalyse hilfreich?
1.) ausreisser können identifiziert werden
2.) man sieht den mittelwert
3.) man kann sehen, ob die verteilung symmetrisch ist
4.) man sieht die standardabweichung
5.) man sieht, in welchem bereich die mittleren 75% der daten liegen
1.) √
2.) X
3.) √
4.) X
5.) X
Was bedeutet ein korrelationskoeffizient von -1?
1.) Im streuungsdieagramm liegen alle punkte auf einer linie
2.) im streuungsdiagram liegen alle punkte auf einer linie und die linie fällt mit einem 35 Grad-winkel ab
3.) die kovarianz ist ebenfalls -1
4.) es gibt keine ausreisser
5.) die beiden variablen sind normalverteilt
6.) die beiden variablen korrelieren perfekt negativ miteinander
7.) ein kurvilinearer zusammenhang kann ausgeschlossen werden
8.) es handelt sich gemäss konvention von Cohen um einen grossen Effekt
9.) eine scheinkorrelation bzw scheinkausalität kann ausgeschlossen werden
10.) die kovarianz ist negativ
1.) √
2.) X
3.) X
4.) X
5.) X
6.) √
7.) √
8.) √
9.) X
10.) √
Was bedeutet es, wenn in der regressionsgleichung a den wert 2 und b den wert 3 annimmt?
1.) für einen x-wert von 5, wird ein y wert von 30 vorhergesagt
2.) für einen x-wert von 2, wird ein y-wert von 8 vorhergesagt
3.) die regressionsgerade schneidet die y-achse bei einem x-wert von 2
4.) für jede erhöhung der unabhängigen variablen um eine einheit, erhöht sich der schätzwert für die abhängige variable um 3 einheiten
1.) X
2.) √
3.) X
4.) √
Welche Aussagen zu Residualwerten sind richtig?
1.) die residualwerte berechnen sich aus der quadrierten differenz zwischen tatsächlichen y-werten und vorhergesagten y-werten
2.) die regressionsgerade wird so in die punktewolke gelegt, dass die summe der residualwerte minimal wird.
3.) wenn die steigung 0 ist, sind die residualwerte gleich gross, wie die abstände der y-werte von ihrem mittelwert.
4.) bei einem determinationskoeffizienten von 1, sind alle residualwerte 0
1.) X
2.) X
3.) √
4.) √
Angenommen man führt eine einfache lineare regression durch und erhält einen sehr kleinen determinationskoeffizienten. Was könnten mögliche gründe dafür sein?
1.) der messfehler in der abhängigen variable ist hoch
2.) der messfehler in der unabhängigen variable ist hoch
3.) die abhängige variable hängt von mehreren einflussfaktoren ab
4.) die unabhängige variable hängt von mehreren einflussfaktoren ab
5.) der zusammenhang zwischen der abhängigen und unabhängigen variable ist kurvilinear
6.) es wurde nur die unabhängige variable z-transformiert, die abhängige variable nicht.
1.) √
2.) √
3.) √
4.) X
5.) √
6.) X
Was versteht man unter einer stichprobenverteilung?
1.) Die verteilung eines merkmals in einer stichprobe
2.) Die verteilung von mittelwerten (oder anderer kennwerte) von mehreren stichproben
3.) die durchschnittliche verteilung eines merkmals über mehrere stichproben hinweg
1.) X
2.) √
3.) X
Wie beeinflusst die verteilung des merkmals in der population und stichprobengrösse die verteilung der stichprobenmittelwerte?
1.) wenn das merkmal in der population schief verteil ist, ist das merkmal in der stichprobe trotzdem annähernd normalverteilt
2.) wenn das merkmal in der population schief verteilt ist, sind stichprobenmittelwerte annähernd normalverteilt, wenn die stichproben genügend gross sind.
3.) die streuung der stichprobenmittelwerte wird mit zunehmender stichprobengrösse kleiner
4.) wenn das merkmal in der population schief verteilt ist, sind stichprobenmittelwerte normalverteilt sofern genügend viele stichproben gezogen werden.
5.) die stichprobenmittelwerte streuen um den wahren mittelwert in der population.
1.) X
2.) √
3.) √
4.) X
5.) √
Wie kann man sich den zentralen grenzwertsatz für die inferenzstatistik zu nutze machen.
1.) da sich die stichprobenverteilung einer normalverteilung annähert, kann man bestimmen, wie wahrscheinlich ein bestimmtes stichprobenergebnis ist.
2.) da sich die populationsverteilung einer normalverteilung annähert, kann man bestimmen, wie wahrscheinlich ein bestimmter populationsparameter ist.
1.) √
2.) X
Welche aussagen zum standardfehler des mittelwerts bzw seiner berechnung sind richtig?
1.) die populationsstandardabweichung kann aus der stichprobenstandardabweichung geschätzt werden. Sie wird minimal kleiner geschätzt.
2.) der standardfehler des mittelwerts ist die durchschnittliche abweichung des stichprobenmittelwerts vom populationsmittelwert.
3.) der standardfehler des mittelwerts ist umso kleiner, je kleiner die streuung des merkmals in der stichprobe.
1.) X
2.) √
3.) √
Welche aussagen zu konfidenzintervallen sind richtig?
1.) das konfidenzintervall wird mit zunehmender vertrauenswahrscheinlichkeit grösser und mit zunehmender stichprobengrösse kleiner.
2.) das konfidenzintervall kann aus der stichprobengrösse, dem stichprobenmittelwert und stichprobenstandardabweichung berechnet werden.
3.) das 90% konfidenzintervall enthält den mittelwert in der population mit einer wahrscheinlichkeit von 90 %
4.) in wissenschaftlichen studien wird am häufigsten das 90% konfidenzintervall angegeben und seltener das 95% und 99% konfidenzintervall
5.) der mittelwert der stichprobe wird als erwartungswert für den mittelwert der population benutzt, um den herum das kofidenzintervall aufgespannt ist.
1.) √
2.) √
3.) √
4.) X
5.) √
Welche aussagen sind richtig?
1.) der wertebereich mittelwert ± 1 standardfehler enthält den populationsmittelwert zu ca 68 % unabhängig von der stichprobengrösse.
2.) bei kleinen stichproben berechnet sich die grenzen des CI95 wie folgt: stichprobenmittelwert ± 1.96 * Standardfehler des mittelwerts.
3.) um die flächenanteile unter der z-verteilung zu finden, müssen wir zuerst den freiheitsgrad aus n - 1 berechnen
4.) mit zunehmenden freiheitsgraden nähert sich die t-verteilung der standardnormalverteilung an.
1.) X
2.) X
3.) X
4.) √
Das konfidenzintervall von mittelwertsunterschieden wird grösser bzw breiter, wenn....
1.) die grösse der einen stichprobe abnimmt und diejenige der anderen stichprobe gleichbleibt
2.) bei abhängigen stichproben die streuung der differenzen der messwertpaare zunimmt
3.) die höhe der konfidenz (vertrauenswahrscheinlichkeit) abnimmt
4.) bei unabhängigen stichproben die streuung zwischen den gruppen zunimmt und die streuung innerhalb der gruppen konstant bleibt
5.) der standardfehler des mittelwertsunterschieds zunimmt
1.) √
2.) √
3.) X
4.) X
5.) √
Angenommenen in einer stichprobe von psychologiestudierenden hat die korrelation der statistikangst mit der matura-mathenote ein 95% konfidenzintervall von -0.5 bis -0.1. Welche Aussagen sind richtig?
1.) die wahrscheinlichkeit, dass in der population statistikangst negativ mit der matura-mathenote korreliert, ist 95%
2.) die korrelation zwischen statistikangst und matura-mathenote liegt in der population mit 95% sicherheit im bereich zwischen -0.5 und -0.1
3.) die korrelation in der stichprobe beträgt -0.3
4.) der in der stichprobe vorgefundene negative korrelationskoeffizient weicht mit hoher wahrscheinlichkeit nur zufällig von 0 ab
5.) die matura-mathenote hat einen statistisch signifikanten effekt auf statistikangst
1.) X
2.) √
3.) X
4.) X
5.) √
Was bezeichnet der p-wert beim signifikanztest
1.) die wahrscheinlichkeit, dass der effekt in der population = 0 ist
2.) wahrscheinlichkeit dafür, dass in einer stichprobe der gefundene oder ein noch grösserer effekt auftritt, wenn H1 zutrifft.
3.) die wahrscheinlichkeit, dass die nullhypothese zutrifft
4.) die wahrscheinlichkeit mit der das gefundene stichprobenergebnis (oder ein noch extremeres) auftritt, wenn H0 zutrifft.
5.) die irrtumswahrscheinlichkeit mit der wir H0 ablehnen
1.) X
2.) X
3.) X
4.) √
5.) X
Wie unterscheidet sich das vorgehen von Neyman und Pearson von demjenigen von Fischer beim Signifikanztesten?
1.) bei neyman und pearson findet nach dem test eine abwägung zwischen alpha- und beta-fehler statt
2.) bei fischer kann man bei einem nicht-signifikanten ergebnis nichts aussagen
3.) der ansatz von fischer ist problematisch, wenn die forschungshypothese mit der nullhypothese übereinstimmt
4.) bei fischer kann man nichts darüber sagen, wie gross die chancen sind, ein effekt zu entdecken, wenn einer vorhanden ist.
1.) X
2.) √
3.) √
4.) √
Wann wird der beta-fehler auf kosten des alpha-fehlers minimiert?
1.) wenn man beim signifikanztest das vorgehen von neyman und pearson anwendet.
2.) wenn es schlimmere konsequenzen hat, einen effekt nicht zu finden, obwohl er vorhanden ist, als einen effekt zu finden, obwohl er nicht vorhanden ist.
3.) wenn man den fehler 1. art auf kosten des fehlers 2. art minimiert.
4.) wenn die forschungshypothese mit der alternativhypothese übereinstimmt
1.) X
2.) √
3.) X
4.) X
Warum sollten (standardisierte) effektgrössen in wissenschaftlichen, psychologischen publikationen immer angegeben werden?
1.) weil ein leser, der keinen zugang zu den rohdaten hat, sie aufgrund der signifikanztestergebnisse und stichprobengrösse nicht bestimmen könnte.
2.) weil dann ein leser, der mit der materie nicht vertraut ist, die grösse des effekts besser beurteilen kann.
3.) weil der p-wert des signifikanztests kein direkter indikator der effektgrösse ist.
4.) weil man dann die effekte über verschiedene studien hinweg besser vergleichen kann.
1.) X
2.) √
3.) √
4.) √
Was ist Hedges g ?
1.) ein effektstärkemass für zusammenhänge
2.) ein mittelwertsunterschied zwischen 2 gruppen, ausgedrückt in standardabweichungseinheiten
3.) ein effektstärkemass, das eng verwandt ist mit Cohens' d, jedoch die stichprobenschätzung der varianz verwendet
4.) ein effektstärkemass, das aus dem korrelationskoeffizienten berechnet werden kann.
5.) ein effektstärkemass, bei dem die ausprägung 0.5 per konvention ein grosser effekt bedeutet.
6.) das gebräuchlichste effektstärkemass für mittelwersunterschiede.
1.) X
2.) √
3.) X
4.) √
5.) X
6.) X
Wodurch zeichnet sich die wissenschaftliche Psychologie, im unterschied zur Alltagspsychologie, aus?
wissenschaftliche Psychologie:
—empirische wissenschaft
-stützt sich auf wahrnehmbare erfahrungen
-benutzt naturwissenschaftliche methoden —> interpretation der erkenntnisse: hat auch mit menschlicher sinnessuche & mit verstehens-/ verständigungsprozessen zwischen menschen zu tun...
—> menschliches erleben und verhalten lässt sich in zahlen, daten, mechanismen, gesetzmässigkeiten fassen & ausdrücken
Alltagspsychologie:
-beschreibt die subjektiven überzeugungen, die menschen über sich selbst & anderen haben
-beruhen meist auf einzelnen, sehr selektiven erfahrungen, etablieren sich über den lebensverlauf & sind nur schwer zu ändern —> weil menschen für ihre subjektiven überzeugungen gezielt nach bestätigung suchen, sie sich immer leicht finden lässt
—> jeder meint mitreden zu können, weil jeder eine eigene psyche hat, von der er glaubt ihre funktion gut zu kennen und dieses auch auf andere übertragen zu können
Was versteht man unter Operationalisierung?
Methodisches definieren von begriffen
Hypothese muss klar definiert sein
Begriffe = „messbar" werden
—> hypothesen müssen in wissenschaftl fassbare begriffe übersetzt werden —> messbar werden
Welche Aussagen zum Erkenntnisprozess in der wissenschaftlichen Psychologie sind richtig?
—> Movo frage luege und dahi shribe
Erkenntnisprozess:
-Wundern, raten, fragen —>
-theorie —>
-forschungshypothese —>
-Operationalisierung —>
-durchführung der studie und messung —>
- daten —>
-auswertung —>
-interpretation —>
-Implikation für die theorie —>
-beantworten der fragen
—> erkenntnismethoden:
Umfassen alle hilfsmittel zur gewinnung & systematischen auswertung von infos oder daten = forschungsmethoden
-ausgangspkt ist die theorie
-theorie schlägt vorläufige antwort auf frage vor, jedoch stellt man hypothesen auf, da die theorie als ganzes kaum überprüfbar ist
-hypothesen sind konkrete aussagen und prüfbar —> müssen in wissenschaftlich fassbare begriffe übersetzt werden —> Operationalisierung
-durchführung der srtudie und messung
-auswertung der daten
-interpretation (stützen/wiederlegen daten die hypothese?)
-implikation für die theorie (logische beziehung (wenn...dann) hier kann die theoprie komplett verworfen werden, dehalb muss man wieder zrk zur stufe theorie
- beantworten der fragen (es können immer neue fragen auftreten, deshalb fängt alles wieder von vorne an
Was versteht man in der Messtheorie unter dem Repräsentationsproblem?
—> wie repräsentativ ist eine messung, für das, was gemessen werden soll?
—> gibt es solch eine homomorphe abbildung überhaupt? Ist ein merkmal überhaupt messbar?
Lässt sich ein empirisches relativ durch ein numerisches relativ repräsentieren?
—> man kann zb das körpergewicht leicht beschreiben, aber nicht, dass eine person doppelt so aggressiv wie eine andere ist.
—> die abbildung eines empirischen in ein numerisches relativ kann mehr od weniger gut gelingen, dies nennt man repräsentationsproblem—> wie repräsentativ ist eine messung für das, was gemessen werden soll?
Beurteilen sie welche der folgenden 4 Variablen korrekt beschrieben sind, im Bezug auf die Art ihrer Ausprägungen und ihr Skalenniveau? (Movofrage luege?)
Ausprägung:
-Dichotom:
—> bei nur/ mind. 2 ausprägungen
—> entweder / oder
—>zb: geschlecht, raucher / nichtraucher, gegner / befürworter
-Kategorial:
—> mehrere ausprägungen, die verschiedene kategorien ansprechen
—> zb: haarfarben (blond, grau, braun.. =kategorie), schulabschluss, wohngegend, musikgeschmack
-Diskret:
—> ausprägungen, die sich der grösse nach ordnen lassen
—>nur in ganzen zahlen möglich
—> zb: anzahl geschwister, schulnoten
-Kontinuirlich:
—> stufenlose ausprägungen, die sich der grösse nach ordnen lassen
= kontinuirlich gemessen
—> zb: zeit, länge, gewicht, alter, intelligenz —> sehr genaue angaben mit komastellen
Beurteilen sie, welche der folgenden 4 Variablen korrekt beschrieben sind, im Bezug auf ihre Rolle im Forschungsprozess (abhängig vs. Unabhängig) und Beobachtbarkeit (manifest vs. Latent) ?
(Movo luege)
Forschungsprozess:
-abhängige:
—>wird als effekt der unabhängigen variable gemessen
—> zb: umsatz in kaufhaus A (mit musig) und in kaufhaus B (ohni musig)
—> effekt der auf uv zrkführbar ist
-unabhängige
—> wird beobachtet od systematisch variiert/manipuliert
—> zb: hintergrundmusig in kaufhaus A aber nicht in kaufhaus B
—> variable an deren erklärung od beschreibung man interessiert ist
—> ausprägung von vorneherein durch fragestellung & untersuchung gegeben —> unabhängig von anderen variablen
Beobachtbarkeit:
-Manifest:
—> direkt messbar oder beobachtbar
—> zb: geschlecht, alter, präferiertes fernsehprogramm
—> manifestierter beitrag, zb geld dasme ade kasse zahle mue
-Latent:
—> nicht direkt messbar oder beobachtbar; muss erschlossen werden
—>zb: intelligenz, einstellung ggüber ausländer, glücklichkeit
= im verborgenen
—> zu erst fragebogen, dann variable = operationalisierung —> konstrukt
—> beschreibt etwas psychologisch interessantes
Wie unterscheiden sich Persönlichkeits- & Leistungstests?
Persönlichkeitstest:
-kein zeitdruck, kein richtig od falsch
-festgelegtes schema
-NORMIERT: wert einordnen & mit anderen bekannten werten vergleichen
Leistungstest:
-mit zeitbegränzung
-richtige & falsche antworten
-fragen + verbale, mathematische, grafische od praktische aufgaben
—> zb intelligenztest
Wie kann man die Repräsentativität einer Stichprobe erhöhen?
Mit dem Zufallsprinzip, so wird es nicht zu einer selektiven stichprobe (nur auf best. Personen übertragbar)
—> zuefällig lüüt usepikke —> demits den meh od weniger glichi verteilige ide stichprobe wie ide population hed
—> RANDOMISIERUNG; versuchspers zufällig den versch versuchsbedingungen zugeteilt
—> alle potentiellen störvariablen werden so durch den zufall gleichmässig verteilt —> mehr oder weniger perfekte PARALLELISIERUNG
WICHTIG: stichprobe muss genügend Gross sein!!! Sonst wirken die „ausgleichenden kräfte des Zufalls" nicht richtig..
—> knstanthalten der grp
Wie könnte man untersuchen, ob die Variable A, die Variable B kausal verursacht?
Durch ein experiment?
—> A verursacht B kausal, wenn:
1.) A zeitlich vor B auftritt
2.) A & B „kovariieren" (veränderung von A = veränderung von B)
3.) Einfluss von 3. Variablen kann ausgeschlossen werden (=alternativerklärungen)
—> Meistens kann man durch eine blosse beobachtung von variablen noch NICHTS über ihre kausalität sagen!!!
Wie unterscheidet sich ein Quasiexperiment von einem richtigen Experiment?
Echte Experimente setzen das randomisierte aufteilen von versuchspersonen auf die versuchsbedingungen voraus.
Ist die grpeinteilung jedoch von natur aus vorgegeben und daher keine randomisierung möglich, spricht man von Quasiexperimenten.
—> bei quasiexp ist also das ausschalten der störvariablen nicht ganz möglich wie es sein sollte, deshalb nur ein quasiexperiment
Was sind die beiden wichtigsten Gütekriterien von Experimenten & wovon hängen sie ab?
Interne validität:
-das ausmass, in dem sich experimentelle effekte auf variablen zrkführen lassen, die im test bewusst manipuliert wurden.
—> liegt vor, wenn die veränderung der AV eindeutig auf die veränderung in der UV zrkgeführt werden kann.
Generalisierung:
-ereignisse, die anhand einer stichprobe von versuchsteilnehmern gewonnen wurden, sollen auf die allgemeinheit übertragen werden (können), über die man eine aussage treffen möchte (=population)
Externe Validität:
-betrifft die generalisierbarkeit von befunden auf andere als die untersuchten situationen und populationen.
—> liegt vor, wenn das in einer stichprobe gefundene ergebnis auf andere personen, bzw auf die population verallgemeinerbar ist. Sie wird durch repräsentative stichproben erreicht, die am einfachsten durch eine zufällige ziehung der stichprobenmitglieder zustande kommen.
Wie unterscheidet sich die wissenschaftliche Psychologie von ihrer Vorgängerdisziplin, der Philosophie?
entwicklung des naturwissenschaftlichen denkens, dessen empirische methodik & streben nach objektiver weahrheit
Psychologie ist Aus der philosophie entwickelt worden
Philosophie:
-benutzt deutung als methode
-ziel: verstehen von zusammenhängen oder von sinn
Psychologie:
-empirisch-analytisch
-ziel: erklären von phänomenen
-suche nach : regeln, fktweisen, mechanismen, gesetzmässigkeiten, die in mathematischer beziehung beschrieben werden können
- erfahrung! Erkenntnisse die sich auf denkende fühlende menschen beziehen, die etw über sich erfahren wollen
Warum versucht man in der Psychologie, wenn immer möglich, Eigenschaften auf einem metrischen Skalenniveau zu messen?
Bei nominal skala: nur modalwert
-bei ordinal skala: modalwert und median
. Beim metrischen niveau: modalwert, median und mittelwert —> wils vlt besser zum demit rechne isch? Ka
-ab intervallskala dürfen alle rechenoperationen dieser welt durchgeführt und alle methoden der statistik zum einsatz gebracht werden
-erst dort werden viele statistische kennwerte überhaupt berechenbar od interpretierbar werden
Wann ist der Mittelwert kein gutes Lagemass für die Beschreibung eines Merkmals in einer Stichprobe?
Der mittelwert ist nicht robust gegen ausreisser, da alle werte miteinbezogen werden
- mittelwerte sind nur auf Intervallskalenniveau sinnvoll interpretierbar
-wenn die streuung sehr gross ist —> liefert keine gute schätzung für tatsächliche Werte
Was ist die Standardabweichung einer Stichprobe?
Standardabweichung S oder SD (standard deviation) ist die wurzel aus der Varianz ( varianz= durchschnittliche quadrierte abweichung aller werte von ihrem gemeinsamen mittelwert)
—> ISI = √s^2
(Wobei: s^2 = ∑(xi - X)^2 / N )
-drückt die Streuung in der Masseinheit der Daten aus
-durchschnittliche Abweichung vom mittelwert
-beeinflusst durch ausreisser
-einfacher zu interpretieren und deshalb gebräuchlicheres Mass
- vurzel aus varianz s^2
Wie unterscheidet sich eine z-transformierte Variable von ihrer ursprünglichen untransformierten Variable?
Von der variable wird der mittelwert aller werte (ide stichprob?) abgezogen und die differenz an der streuung aller werte standardisiert —> z-wert besitzt immer: Mittelwert=0 und Standardabweichung = 1
Z= xi - X / Sx
-die z-standardisierung macht Messwerte von verschiedenen Skalen bzw aus verschieden Skalen bzw aus verschiedenen Stichproben vergleichbar, indem sie jedem Messwert einen standardisierten z-wert aus der Standardnormalverteilung zuordnet, der eindeutig interpretierbar ist
- z-werte haben immer einen Mittelwert von 0 und eine Standardabweichung von 1
Was kann man aus einem Boxplot herauslesen, bzw abschätzen?
-die graphische darstellung, in der median und interquartilsabstand abgetragen sind
-unteres ende der box: unteres quartil
-oberes ende : oberes quartil
-länge der box: gibt auskunft über die streuung der daten
—> strich, der die box teilt : Median —> gibt auskunft über die form der verteilung
-Whiskers : = barthaare = kleine queerstriche oben und unten am boxplot
-ausreisser : mit sternen markiert, alle werte die ausserhlalb der whiskers liegen
Was kann man aus einer Punktwolke/Streudiagramm herauslesen, bzw abschätzen?
-zusammenhänge zwischen variablen
-person mit einem punkt im diagramm vertreten —> punkt, da wo variable der y-achse sich mit der variable der x-achse schneidet
—> alle pkt zsm = pktwolke
Art des zsmhangs (linar, nicht linear)
-ausreisser
Angenommen Variable x hat eine Varianz von 4, Variable y hat eine Varianz von 25, und die Kovarianz zwischen x und y beträgt 1.
Was können sie daraus ableiten?
X<Y —>
Hoher x wert und hoher y wert ? Also POSITIVE KOVARIANZ?
SDx = 2, SDy = 5
r = cov/(SDx
SDy) = -1 / (2
5) = -0.1 —> negative, linearer Zsmhang —> nach Faustregel ein kleiner Effekt
- Determinationskoeffizient r^2 gibt an, wie viel Varianz in Y durch X aufgeklärt werden kann, er muss dazu nur mit 100 multipliziert werden —> r^2 = (-0.1)^2
100 = 0.01
1 * 100 = 1%
Wie unterscheiden sich Kovarianz und Korrelation?
.Die kovarianz ist von den skalierungen der gemessenen variablen abhängig (gr. Skalierig bis 100 zb gid ja grösseri kovarianze wie eini vo nur bis 10 gaht)
Die korrelation ist unabhängig von den skalen —> um von kovarianz zu korrelation zu kommen benutzt man die standardisierung
KOrrelation = standardisierter linearer zsmhang v 2 variablen, Werte sind direkt interpretierbar
Kovarianz = stärke vom linearen zsmhang v 2 , nicht standardisierbar
Unter welchen Bedingungen macht eine Berechnung des Pearson-Korrelationskoeffizienten Sinn?
A) linearer Zsmhang (nicht kurvi-linear)
B) Bivariatarer Zsmhang (nur 2 Variablen)
C) Homoskedastizität (vertikale Streuung über den ganzen Bereichder Prädikatorvariable gleich gross)
D) Beide Variablen metrisches Skalenniveau (mind Intervallskaliert)
E) beide Variablen möglichst Normalverteilt
F) Möglichst keine Ausreisser
G) wenn man zuerst das Streudiagramm angeschaut hat
Produkt-moment-korrelation
-nur werte zwischen -1 und 1 möglich
—> WENN DIE DATEN VON INTERVALLSKALEN KOMMEN! SONST NICHT
—> daten müssen in einem linearen zsmhang stehen —> mit streudiagram herausfinden und ausreisser entfernen
—> bei nicht-linearen daten unnötig und nicht interpretierbar wil me blind en zemehang unterstellt wo ned stimmt
Wie wird die Regressionsgerade gefunden?
-durch 2 grössen bestimmt: 1. durch ihren Schnittpunkt mit der Y-achse und 2. ihren anstieg
-liegt so in der pktwolke, dass alle pkte im durchschnitt möglichst wenig von ihr abweichen
-rechnerisch von jedem datenpkt den abstand zur gerade bestimmtn, diesen quadrieren (damit positive & negative abstände sich nicht ausgleichen) und all diese abstände aufsummieren
—>so entsteht dann das abweichungsquadrat
—> alle quadrate werden aufsummiert zur sogenannten quadratsumme
—>suche nach der geraden, für welche die quadratsumme am kleinsten ist
Was bedeutet es, wenn in der Regressionsgleichung
a den Wert 4 &
b den Wert 5 annimt?
Regressionsgleichung: Y^ = a + bx —> Y^: vorhergesagter y wert, a: schnittpkt mit y-achse (intercept), b: Steigung (Slope), x:wert der unabhängigen variable
A=4, b=5
Y= 4 + 5x
—> scnittpkt der Gerade liegt bei Y = 4, Steigung = -5
—> negativer linearer Zsmhang
—> schnittpunkt mit X-Achse bei -4/5
—> gemäss Cohen: 0.4 = mittlerer Effekt
—> varianzaufklärung = 16%, der rest geht auf messfehler und auf andere einflussvariablen zrk —> 16% ist sehr niedrig, somit ist X nicht so ein guter Prädikator von Y
—> je grösser r^2 ist, desto kleiner sind die Residuen, bzw Varianz —> in diesem Fall ist die Varianz sehr gross —> also r^2 klein
Was sind die Ziele der Inferenzstatistik?
.schlüsse von stichprobe zu population ziehen zb
-ob stichprobe sich auf population übertragen lässt
-ziel : schlüsse von einer stichprobe auf eine population, sowie aussagen über die güte dieser schlüsse machen
—> die qualität der stichprobe (zufällig gezogen zieml gross) ist die grundlegende voraussetzung für inferenzen auf die population
Was besagt der zentrale Grenzwertsatz?
.dass die verteilung er kennwerte einer grossen anzahl von stichprobenergebnissen sich immer einer normalverteilung annähert
—> eine weitere besonderheit von stichprobenverteilungen ist, dass die einer normalverteilung (typischen glockenform) folgen
—> die verteilung der Kennwerte einer grossen anzahl von stichprobenergebnissen nähert sich immer einer normalverteilung & das nennt man = zentraler Grenzwertsatz
Welchen Einfluss hat die Stichprobengrösse auf die Stichprobenverteilung?
Grosse stichproben —> schmale verteilung;
Weil grössere stichproben genauere schätzungen liefern und damit näher am wahren wert liegen (gesetz der grossen zahlen)
—> mit steigender stichprobengrösse der einzelnen studien sinkt die streuung er resultierenden stichprobenverteilung
Was ist die Bedeutung des Standardfehlers des Mittelwerts?
.die schätzung des fehlers, den wir bei einer verallgemeinerung durchschnittlich machen werden
—>standardabweichung der stichprobenverteilung für den mittelwert
= durchschnittlicher fehler, der gemacht wird, wenn der gefundene stichprobenmittelwert für den mittelwert der population gehalten wird —>
Standardabweichung der stichprobenverteilung für den Mittelwert
—> der standardfehler ist immer kleiner als die SD aus einer stichprobe
Wie hängt der Standardfehler des Mittelwerts mit der Stichprobengrösse, der Stichprobenstandardabweichung & der Populationsstandardabweichung zusammen?
-Standardfehler wird umso kleiner, desto grösser die Stichprobe
-Standardfehler wird umso kleiner, desto kleiner Standardabweichung/Streuung
Der standardfehler des mittelwertes quantifiziert den unterschied zwischen dem aus einer einzelnen stichprobe geschätzten mittelwert x und dem tatsächlichen, wahren mittelwert µ. Er entspricht der standardabweichung der entsprechenden stichprobenverteilung.
Wovon hängt in einer multiplen regression mit intervallskalierten prädikatorvariablen das standardisierte beta-gewicht von c1 ab, wenn y durch x1 und x2 vorhergesagt wird?
1.) von der stärke des Zsmhangs zwischen x1 und y
2.) von der skalierung der kriteriumsvariable
3.) von der stichprobengrösse
4.) von der stärke des Zusammenhangs zwischen x2 und y
5.) von der stärke des zsmhangs zwischen x1 und x2
1.) √
2.) X
3.) X
4.) √
5.) √
Was ist der Multiple determinationskoeffizient ( multiples 3-quadrat) in einer multiplen regression?
1. ein mass für die globale güte der vorhersage des modells
2. das gleiche wie der standardschätzfehler
3. die quadrierte korrelation zwischen den residualwerten und tatsächlichen werten
4. die summe der quadrierten betagewichte, wenn alle prädikatorvariablen unkorreliiert sind
5. die varianz der vorhergesagten werte geteilt durch die varianz der tatsächlichen werte
6. der anteil der varianz des kriteriums, der durch alle präsikatoeren gemeinsam erklärt wird
1. √
2. X
3. X
4. √
5. √
6. √
Angenommen in einer multiplen regression mit 2 prädikatoren x1 und x2 sind die Beta-gewichte 0.4 und -0.5 und der multiple determinationskoeffizient ist 0.41. Was können sie schlussfolgern?
1. die beiden prädikatoren erklären zsm 41% der varianz von y
2. die prädikatoren x1 und x2 korrelieren nicht miteinander
3. die korrelation zwischen dem kriterium und x1 beträgt 0.4
4. wenn x2 um eine standardabweichung erhöht wird und x1 konstant gehalten wird, erniedrigt sich die vorhersage von y um -0.5 standardabweichungen.
5. x1 erklärt 40% der varianz von y
1. √
2. √
3. √
4. √
5. X
Warum hat es über dem Y auf der linken Seite der Regressionsgleichung ein Dach?
Weil Y kein vorhergesagter Wert mehr ist, sondern ein GESCHÄTZTER
Was beschreibt das Regressions-Gewicht Bi (beta i) der variable X1 in einer multiplen Regression?
Beta = das z-standardisierte Regressionsgewicht
Regrgewicht beschreibt, wie gut ein Prädikator in der Lage ist, ein Kriterium vorherzusagen —> allerdings, in einem RELATIVEN Sinn
—> dh, dass die Vorhersagekraft eines Prädikators abhängig von allen anderen Prädikatoren beurteilt wird.
—> der Isolierte, bzw spezifische Einfluss eines Prädikators soll auf das Kriterium beurteilt werden, das nur durch diesen Prädikator zustande kommt
Wie kann man prüfen, ob das Regressions-Gewicht Bi auf einem Signifikanzniveau von 0.05 statistisch signifikant ist?
Mit t= B/SB
—> beta durch standardfehler v Beta
Wie ist es möglich, eine nominalskalierte Variable als Prädikator in ein multiples Regressionsmodell einzufügen, wenn doch die Regressionsanalyse fordert, dass alle Variablen intervallskaliert sein müssen?
kategoriale Prädikatorvariablen können in ein multiples Regressionsmodell integriert werden durch Zerlegung in sog. Dummy-Variablen (Variablen mit 2 Ausprägungen—> 1 od 0)
—> dummy-variablen = intervallskaliert —> da zwischen 1 und 0 immer gleicher Abstand
(Voraussetzung v intervallskalierten daten = inhaltlich gleicher abstand)
—> für 1 Variable mit K kategorien —> K - 1 Dummy-Variablen
Welche Hypothesen können mit einem t-Test geprüft werden?
- Ob sich 2 Mittelwerte signifikant unterscheiden & ob die UV einen Einfluss hat
- Hypothesen mit t-verteilten Prüfgrössen
-Zsmhangs-/ Unterschiedshypothesen ( t-Test für (un-)abhängige/ einzelne Stichproben
-Korrelationstest
-Signifikanztest des Regressionsgewichts
Angenommen in einem t-Test für abhängige Stichproben, zweiseitiger Hypothesenprüfung und Alpha von 0.05 sei der empirische t-Wert 3.2, der kritische t-Wert 2.06, und die Freiheitsgerade 25. Was können sie schlussfolgern?
-Kritischer t-Wert = Grenze, nach der wir entscheiden, ob wir die Nullhypothese an-/ablehnen
—> um krit t-wert zu bestimmen, benötigen wir: Freiheitsgrade + das Signifikantsniveau A
- empirischer t-wert = extremer als der kritische —> also ist das ergebnis signifikant
A (alfa) auf beiden seiten = 0.025
H1 trifft zu 95% zu, h0 abgelehnt
26 probanden haben teilgenommen
—> Ergebnis = Signifikant
Welche Voraussetzungen macht der t-Test für unabhängige STichproben?
- AV = Intervallskaliert und Normalverteilt
- Varianzhomogenität: varianzen in beiden gleich gross
- Stichproben tatsächlich Unabhängig —> die verschiedenen Personen in den beiden Grp sollten sich nicht systematisch ggseitig beeinflussen
Wie beeinflussen Verletzungen der Voraussetzungen die Ergebnisse des t-Tests?
-weil der T-test ein sogenanntes robustes Verfahren ist —> ist er gegen Verletzungen so unempfindlich, dass er trzdem sehr gute Ergebnisse liefert
—> sind die verletzungen der Voraussetzungen aber sehr gross (zb AV weicht deutlich von der Normalverteilung ab), dann sollte man auf die Berechnung des t-Tests verzichten
Angenommen man prüft anhand eines klassischen t-Tests für unabhängige Stichproben ( nicht die variante des t-test von welch), ob zwei Grp ( A und B) in einer abhängigen Variable y unterschiedliche Mittelwerte haben. Mit welchem Signifikanztest würde man das gleiche Ergebnis erhalten?
Signifikanztest des Beta-Gewichts der Korrelation
—> signifikanztest des Beta-gewichts der Gruppierungsvariable in einfacher linearer Regression
-Signifikanztest der Korrelation zwischen Gruppierungsvariable und abhängige variable
Welchen t-Test müsste man anwenden wenn man Ehepaare untersuchen würde und die Gruppe der Ehemänner mit der Gruppe der Ehefrauen in einem bestimmten Merkmal vergeichen würde?
1.) t-Test für abhängige Stichproben
2.) t-Test für unabhängige Stichproben
3.) Einstichproben t-Test
1.) √
2.) X
3.) X
Angenommen in einem Einstichproben-t-Test mit einseitiger Hypothesenprüfung und Signifikanzniveau von 0.05 wäre der empirische t-Wert 2.4, die Freiheitsgrade 20 und der p-Wert 0.013. Was können sie schlussfolgern?
1.) Der kritische t-Wert muss grösser als 2.4 sein
2.) Bei einer t-Verteilung mit 20 Freiheitsgraden liegen 1.3% der Werte oberhalb von 2.4
3.) Es wurden 18 Versuchspersonen getestet
4.) Der Mittelwert der Stichprobe ist statistisch signifikant grösser als 0
5.) Die Voraussetzungen für den t-Test sind erfüllt
1.) X
2.) √
3.) X
4.) X
5.) X
Wie wirkt sich eine Verletzung der Normalverteilungsannahme auf die Ergebnisse des t-Tests aus?
1.) Die Verletzung wirkt sich aufgrund des zentralen Grenzwertsatzes bei kleinen Stichproben stärker negativ aus als bei grossen Stichproben
2.) Bei kleinen Stichproben würde schon eine minimale Abweichung von der Normalverteilung zu stark verzerrten Ergebnissen führen
3.) Unterschiedlich schiefe Verteilungen in den beiden Gruppen wirken sich stärker negativ aus als gleichschiefe Verteilungen in den beiden Gruppen.
1.) √
2.) X
3.) √
Was versteht man unter der Teststärke, bzw Power?
= Die Wahrscheinlichkeit einen Effekt zu finden, wenn dieser tatsächlich vorhanden ist
—> 1 - B —> Bereich in dem wir keinen fehler 2. Art begehen ( = Beta fehler)
Wie hängt die Power bei einem t-Test für unabhängige Stichproben mit der Effektstärke in der Population, Sichprobengrösse, a-Fehler und einseitiger vs zweiseitiger Hypothesentests zusammen?
-Je grösser die Effektstärke, desto höher die Power
-Je grösser die Stichprobengrösse, desto höher die Power
-Je grösser der Alpha-Fehler (höhere wahrscheinlichkeit fehler 1. Art zu begehen), desto höher die Power
-Einseitiger Hypothesentest hat höhere Power als 2Seitiger Hypothesentest
Welche Aussagen zu den 3 Arten einer Poweranalyse sind richtig?
A priori:
-vor der Datenerhebung, STichprobengrösse wird anhand Effektstärke und gewünschten a-/b-fehler ermittelt
—> Effektstärke nach praktischen Überlegungen od bereits vorhandenen studien (meta analyse) ableiten (publikationsbias, wenn effekte zufällig etwas höher, eher signifikant, eher nur signifikante ergebnisse publiziert)
—> Wie hoch soll Signifikanzniveau und Power sein?
—> Einseitige/2Seitige Hypothesentesten?
-Suche nach Kompromis zw a und B: bei begrenzter Möglkeit für Stichprobengrösse (trade-off zw a und b fehler für angenommene Effektstärke)
—> wegen begrenzten Forschungsgeldern (od zeit)
—> wegen Daternerhebnung schon abgeschlossen
—> wegen sehr seltenem Phänomen
-Post hoc: Ermittlung der Power nach signifikanztest
—> bei nichtsignifikantem ergebnis zum herausfinden, ob an power gelegen (zb zu kleine stichprobe)
—> V. A sinnvoll, wenn H0= Forschungshypothese, damit effekt wirklich ausgeschlossen werden kann
—> aber bei populations-effektstärke praktisch bedeutsamen Effekt einfügen, nicht in Stichprobe gefundener Effekt
Aus welchen Gründen hat man bei gleicher Anzahl von Personen, bei einem Within-Subject-Design mit anschliessendem t-Test für abhängige Stichproben in der Regel mehr Power als bei einem Between-Subject-Design mit anschliessendem t-Test für unabhängige Stichproben?
Within-Subjects-Design = versuchspersonen bleiben gleich (Av bleibt) + UV verändert sich
—> pro Person ergeben sich 2 Messwerte —> doppelte Power
—> Korrelation der Messwerte erhöht Power
Warum sollte man bei der Planung einer Studie eine Poweranalyse durchführen?
1.) Um herauszufinden, wie viele Versuchspersonen benötigt werden, um einen postulierten Effekt mit hoher Wahrscheinlichkeit zu entdecken
2.) Um einen guten Kompromiss zwischen Alpha und Beta-Fehler zu finden, falls die Stichprobengrösse vorgegeben ist
3.) Um herauszufinden, welches statistische Verfahren angewendet werden soll.
4.) Um zu entscheiden, ob die Hypothese einseitig oder zweiseitig getestet werden soll.
1.) √
2.) √
3.) X
4.) X
Welche Aussagen zu Power, bzw Teststärke sind richtig?
1.) die Power bezeichnet die Wahrscheinlichkeit, die Nullhypothese anzunehmen, fals sie zutrifft.
2.) Die Power nimmt mit zunehmender Stichprobengrösse zu
3.) Die Power ist bei zweiseitiger Hypothesenprüffung grösser als bei einseitiger Hypothesenprüfung
4.) Die Power ist höher, wenn man ein Signifikanzniveau von 0.1 anstatt 0.05 auswählt
5.) Die Power ist grösser, je grösser die Effektstärke ist.
6.) Eine Power von 0.95 gilt per Konvention als gerade noch akzeptabel
1.) X
2.) √
3.) X
4.) √
5.) √
6.) X —> 0.8 könnte noch als gerade akzeptabel sein 0.95 nicht
Was ist bei einer Poweanalyse besonders schwierig?
1.) Zu wissen, ob man eine A priori oder Post-Hoc-Poweranalyse durchführen soll-
2.) Zu wissen, welche Effektstärke man einsetzen soll.
3.) Die Effektstärke bei einem Versuchsdesign mit abhängigen Stichproben zu schätzen-
1.) X
2.) √
3.) √
Was sind: systematische Varianz, unsystematische Varianz und Gesamtvarianz in einer ANOVA?
Gesamtvarianz:
- varianz der AV —> zeigt wie sich Messwerte über alle Personen hinwegunterscheiden
- Varianz zwischen den Gruppen —> erklärte, systematische Varianz, Between-V) Differenz der Mittelwerte unter einander —> representiert den Teil der Varianz, den wir durch die Manipulation erklären Können = ZW
-varianz innerhalb der Gruppen = within-V, unsystematische, fehlervarianz —> Menschen unterscheiden sich in der Ausprägungen von Merkmalen—> liefern nicht alle den Gleichen Messwert —> dieser teild er varianz ist zufällig und kann (duzrchschnittlich?) erklärt werden = inn
—-> je kleiner die Fehlervarianz ( inn) bzw je grösser die varianz der messwerte (zw) desto grösser wirde der wert für F
Welche Eigenschaften hat der F-Wert bzw die F-Verteilung in einer ANOVA?
—> grosse werte für F, wenn mittelwerte weit auseinander liegen od auch streuung um die Mittelwerte kleiner sind
—> je grössere Prüfwerte F hat, desto kleiner p
F= SCREENSHOT
—> F ist NIE negativ
—> genaue form der f-verteilung wird durch genau 2 freiheitsgraden bestimmt
F= ô^2 zw / ô^2inn = QSzw/dfzw/QSinn/dfinn
Dfzw= k-1, dfinn = ∑ (nj -1) od auch N-k
—> f wert drückt das verhältnis von erklärter varianz aus (verhältnis v 2 populationsschätzungen)
-je grösser die prüfgrösse f, desto kleiner wird der p-wert und desto eher wird das ergebnis der ANOVA signifikant
- f wird umso grösser bzw p-wert umso kleiner, je grösser der Zähler des F-bruchs —> je stärker die messwerte um ihren jeweiligen grpmittelwert streuen und umso grösser die unerklärte varianz ist
- je kleiner die fehlervarianz (inn) bzw je grösser die varianz der mittelwerte (zw), desto grösser wird der wert für F und desto kleiner der p-wert und desto eher wird das ergebnis der ANOVA signifikant
- F-wert kann NICHT negativ werden
Was bedeutet ein p-Wert von 0.03 in einer einfaktoriellen Varianzanalyse bei einem Signifikanzniveau von 0.05?
P-wert ist kleiner als 0.05, dh die Mittelwerte sind signifikant
—> H0 verwerfen
Angenommen man vergleicht 3 unabhängige Stichproben mit jeweils 20 Versuchspersonen mittels einer einfaktoriellen ANOVA und berechnet einen F-Wert von 4.2. Wie kann man anhand der F-Verteilung herausfinden, ob das Ergebnis auf einem Signifikanzniveau von (alfa) a = 0.05 signifikant ist?
Mithilfe der Freiheitsgrade in der Tabelle
—> der empirische F-wert 4.2 muss grösser als der kritische Wert aus der Tabelle sein
—> zur prüfung des F-werts auf Signifikanz mithilfe der F-Tabelle benötigt man die Zähler- und Nennerfreiheitsgrade (muss bei 40 Nennergraden abgelesen werden)
Was versteht man unter sogenannten Post-Hoc-Tests?
Berrechnung der erreichten Power, nachdem ein Signifikanztest bereits durchgeführt wurde —> im Nachgang zur Untersuchung weitere Untersuchungen
—> man weiss nur das es zw mind 2 signifikanz gibt, aber bei welchen?
—>Einzelvergleiche werden berechnet: Mit berücksichtigung der Alpha-frehler-Kumulation (?)
—> Scheffe test und Bonferroni tes
Welche Aussagen zur ANOVA sind richtig?
1.) bei einer ANOVA wird bei der Nullhypothese geprüft, ob 2 oder mehr STichproben auf Populationsebene den gleichen Mittelwert haben
2.) Man kann mit einer ANOVA keine gerichteten Hypothesen prüfen
3.) Im Anschluss an ein nicht-signifikantes Ergebnis muss man bei einer ANOVA sogenannte Post-Hoc-Tests durchführen
4.) Der Vorteil einer Anova ist, dass man ohne ALpha-Fehler-Kumulierung mehrere Mittelwerte auf einmal auf Unterschiedlichkeit prüfen kann
5.) Im Unterschied zur Prüfgrösse bei einem t-Test, wird die Verteilung der Prüfgrösse bei einer ANOVA durch 2 Freiheitsgrade bestimmt
1.) √
2.) √
3.) X
4.) √
5.) v
Eine ANOVA wird umso eher signifikant, .....
1.) Je stärker die Messwerte um ihren Gruppenmittelwert streuen
2.) je stärker die Gruppenmittelwerte um den Gesamtmittelwert streuen
3.) je kleiner der unsystematische Varianzanteil
4.) je grösser die Populationsvarianzschätzung zwischen... ???
5.) je kleiner der F-Wert
6.) je grösser die Stichprobe
1.) X
2.) √
3.) √
4.) √
5.) X
6.) √
Was versteht man untzer non-parametrischen Verfahren?
—> keine Annahme über die Verteilung von Lage-oder Streuungsparametern in der Population )Verteilungsfreie verfahren)
—> verwendet man bei nominal- od ordinalskalierten Daten od bei nicht-normalverteilten intervall-daten
-sie machen keine annahmen über die verteilungen der werte in der population und sind auch bei kleinen stichproben anwendbar
Angenommen man möchte untersuchen, ob sich 2 Grp in einem Merkmal unterscheiden. Unter welchen der folgenden Bedingungen sollte man einen U-Terst nach Mann & Whitney anwenden?
- 2 Unabhängige stichproben vergleichen
-bei grössen stichproben ist der U-Test annähernd normalverteil,
—> U test = wilcoxon-rangsummen test
-parametrische entsprechung: t-test für unabhängige stichproben
-berechnung basiert auf rangplätzen
—> intervallskalierte daten müssen in ränge umgewandelt werden
—> ordinalskalierte daten brauchen keine umrechnung
-überprüft die nullhypothese, dass die mittleren ränge in beiden betrachteten populationen gleich gross sind
-verwerfung der nullhypoth / annahme der Alternativhypoth: es ist gleich wahrscheinlich, dass ein zufällig aus der population ausgewählter wert grösser od kleiner ist als ein zufällig ausgewählter wert aus der anderen population
-falls die verteilungsform und streuung der abhängigen Variablen in beiden Grp gleich ist, prüft der U-test auch die Nullhypoth, dass die Mediane der beiden Populationen gleich gross sind
Angenommen man möchte untersuchen, ob sich 2 Grp in einem Merkmal unterscheiden. Unter welchen der folgenden Bedingungen sollte man einen Wilcoxon-Test anwenden?
-anwendung bei 2 abhängigen Stichproben
- non-parametrische Entsprechung des t-Tests für abhängige Stichproben
-auch wilcoxon-vorzeichen-rang-test
-berechnung basiert auf rangplätze von differenzen von gepaarten messwerten
- Prüfgrösse heisst T
- Voraussetzungen:
—> differenzen von gepaarten Messwerten haben Ordinalskalenniveau
—> verteilung der differenzen von gepaarten Messwerten ist symmetrisch
Welche Nachteile haben non-parametrische Verfahren gegenüber parametrischen Verfahren unter anderem?
geringere Power bzw teststärke
-informationsverlust, wenn angewendet auf intervallskalierten daten
-keine effektgrössen für unterschiedsfragestellungen definierbar
-somit auch keine konventionellen poweranalysen durchführbar
-weniger Flexibel ( zb fehlende non-parametrische entsprechung für multiple regression)
In welcher Situation sollte man welchen der 3 Korrelationskoeffizienten (Pearson-KOrrelationskoeffizient, Spearmans Rho, Kendalls Tau) anwenden?
—> wenn messinstrumente nicht intervallskaliert sind oder keiner Normalverteilung folgen, —> lassen sich natürlich auch keine herkömmlichen Korrelation zw variablen berechnen —> Daher gibt es nonparametrische Entsprechungen = Rangkorrelation —> korrelieren nicht Rohwerte, sondern die den Rohwerten zugewiesenen Ränge
Bedingung: monotone Steigung
—> Rho:
Bei eigentlich intervallskalierten Daten, die aber aufgrund verletzter Voraussetzungen nicht mit einer Pearson-korrelation untersucht werden können
Rho sollte aber bei echten erhobenen Rangdaten NICHT berechnet werden —> es folgt einer t-verteilung
—> Kendalls Tau:
Wenn variablen von Anfang an ordinalskaliert sind (alternative für rho bei echten rangdaten) —> folgt einer z-verteilung
—> Pearson-Korrelationskoeffizient:
Für intervallskalierte Daten, die die Voraussetzungen erfüllen
Warum gehört der U-Test nach Mann und Whitney zu den verteilungsfreien Verfahren?
1.) Er kann testen, ob sich 2 Grp im Median unterscheiden unabhängig davon, wie das Merkmal in den beiden Grp verteilt ist
2.) er kann testen, ob sich 2 Grp im Median unterscheiden, auch wenn das Merkmal in den beiden Grp nicht normalverteilt ist.
3.) er kann testen, ob sich 2 Grp in den mittleren Rängen unterscheiden, unabhängig davon, wie das Merkmal in den beiden Grp verteilt ist.
1.) X
2.) √
3.) √
Was bedeutet die Voraussetzung einer monotonen Steigung bei non-parametrischen Korrelationstests?
1.) Die Linie, die den Zusammenhang beschreibt, ist eine Gerade.
2.) Die Linie, die den Zusammenhang beschreibt, darf aber nicht zuerst steigen und dann wieder fallen oder umgekehrt
3.) Die Linie, die den Zusammenhang beschreibt, muss konstant ansteigend oder konstant abfallend sein
1.) X
2.) √
3.) X
Welches Korrelationsmass würde man berechnen, wenn man die Korrelation zwischen Drogenkonsum (0=nie, 1=selten, 2=manchmal, 3=oft, 4=täglich) und ALter bestimmen würde?
1.) Pearson-Korrelation
2.) Spearman's Rho
3.) Kendall's Tau
4.) Keines
1.) X
2.) X
3.) √
4.) X
Wie lautet notwendigerweise die Nullhypothese bei einem Chi-Quadrat-Test mit nur einer Variable?
1.) Die Stichprobe stammt aus einer Population in der alle Kategorien gleich häufig vorkommen
2.) Die Stichprobe stammt aus einer Population in der die Häufigkeit der Kategorien einer theoretisch zu erwartenden Häufigkeitsverteilung entsprechen.
3.) Die Stichprobe stammt aus einer Population in der die Häufigkeiten der Kategorien der empirisch beobachteten Häufigkeitsverteilung entsprechen.
1. X
2. √
3. X
Wie kann der folgende Satz korrekt ergänzt werden?
Je stärker sich in einem Chi-Quadrat-Test die beobachteten von den erwarteten Häufigkeiten unterscheiden, desto ...
1.) eher wird die Nullhypothese abgelehnt
2.) grösser wird die Prüfgrösse Chi-Quadrat
3.) desto grösser wird der p-Wert
4.) desto grösser werden die Freiheitsgrade der Chi-Quadrat-Verteilung
1. √
2. √
3. X
4. X
Welche Aussagen zum Chi-Quadrat-Wert bzw. Chi-Quadrat-Verteilung bzw. Chi-Quadrat-Test sind richtig?
1.) Wenn die empirischen Häufigkeiten perfekt mit den theoretisch zu erwartenden Häufigkeiten übereinstimmen, ist der Chi-Quadrat-Wert 0
2.) Der Chi-Quadrat-Wert kann nie negativ sein
3.) Die Chi-Quadrat-Wert kann nie negativ sein
4.) Die Form der Chi-Quadrat-Verteilung hängt von den Zähler-und Nennerfreiheitsgraden ab
5.) Bei einem Chi-Quadrat-Test wird die Hypothese immer ungerichtet geprüft
1. √
2. √
3. √
4. X
5. √
Wie unterschiedet sich der Anpassungstest von Unabhängigkeitstest?
-Anpassungstest prüft nur 1 Variable
—> prüft wie gut eine empirische und eine theoretische Verteilung zsmpassen und NICHT, ob die Verteilung der Ausprägungen einer Variablen unabhängig von der Verteilung der Ausprägungen einer anderen variablen ist
-Unabhängigkeitstest
—>vergleicht die real beobachteten Häufigkeiten mit den zu erwartenden Häufigkeiten bei völliger Unabhängigkeit der Merkmale
—> Merkmale lassen sich berechnen, indem man die Randsummen in der Kontingenztabelle jeweils paarweise miteinander multipliziert und durch die Anzahl der Gesamtwerte dividiert
Angenommen ein Unabhängigkeitstest mit den nominalskalierten Variablen Religionszugehörigkeit und Zivilstand ergibt X^2 =25, df=12, p=0.0148.
Was könnte man Schlussfolgern?
-Flächenanteil oberhalb dem empirischen Wert 25 entspricht dem p-Wert 0.0148,
—> also wäre das Ergebnis signifikant bei einem Alpha-Niveau von 5%
—> Häufigkeitsverteilung der Variable ist nicht unabhängig von der Verteilung der anderen Variable
—> keine Messwiederholung
Worauf beruht die Berechnung der Prüfgrösse X^2 sowohl beim Unabhängigkeitstest als auch beim ANpassungstest?
—> Auf den erwarteten Häufigkeiten
-Unabhängigkeitstest:
—> erwartete t —> fe = Z*s / N
X^2 = ∑ (fb-fe)^2 / fe = empirischer Wert
Df = (k-1)(l-1) —> k = anzahl klategorien der 1. variablen, l = anz der kategorien der 2. variablen
-Anpassungstest:
X^2= ∑ (fb-fe)^2 / fe
Df = k -1 —> anz Kategorien minus 1
Was ist der McNemar-Test?
—> unabhängigkeitstest bei Messwiederholungen
—> prüft ob Häufigkeitsverteilungen einer dichotomen Variable bei der 2. Messung anders ist, als bei der 1. Messung
—> Berechnung der Prüfgrösse: aus den Zellhäufigkeiten b und c
X^2 = (b-c)^2 / b+c
—> McNemar-Test = nur bei dicotomen Variablen anwendbar!! Deshalb —> Df immer = 1 !!!!
Welche Ergebnisse erbrachte das Reproducibility Project: Psychology?
-insgesamt wurde in nur 36% der Replikationsstudien ein signifikanter Effekt in dieselbe Richtung wie in der Originalstudie beobachtet
- doppelt so hohe Replikationsrate in Kognitionspsychologie (50%) als in Sozialpsychologie (25%) —> ist somit Fachgebiet abhängig
-kleine p-werte(grosse Effektgrössen öfters repliziert
- je kleiner der p-wert in der originalstudie, desto grösser waren die chancen, dass die studie repliziert wird
-mittlere effektgrösse sank von r=0.4 in originalstudien auf r=0.2 in Replikationsstudien
- aufgrund des Alpha-fehlers, war zu erwarten, dass in den Originalstudien 5% falsch positive ergebnisse waren
—> effektgrösse die sinkt —> deutet darauf hin, dass originalstudien effekte überschätzt haben
—> in 83% der Replikationsstudien war die beobachtete kleiner als originalstudie
Welche methodischen Schwächen hat das Reproducibility Project: Psychology?
-abweichungen vom Ablauf der originalstudie
-effektgrösse der originalstudie als schätzung der effektgrösse in der population verwendet
- gefahr, dass die effektgrösse in der originalstudie überschätzt worden ist!!
- viele replikationsstudien waren nicht identisch (anderes land, kulturelle unterschiede)
-replikationsrate deutlich höher (60%) wenn replikationsprotokoll von autoren der originalstudie, schon vorher gutgeheissen
- power war ungenügend (0.92)
-nur 1 replikationsversuch pro studie ( welches ergebnis war richtig? Oder beide falsch?)
Was versteht man unter dem positiven Vorhersagewert (PPV) eines signifikanten Resultats?
= p (H1 I signifikant) —> wahrscheinlichkeit, dass die H1 korrekt ist, gegeben dass ein signifikantes ergebnis beobachtet wurde
- anteil signifikanter ergebnisse, die tatsächlich eine korrekte Forschungshypothese anzeigen (H1 korrekt)
- wahrscheinlichketi bezieht sich nicht auf einzelne geprüfte Hypothese —> sondern auf alle zsm
Welche Forschungsbedingungen führen zu einem niedrigeren positiven Vorhersagewert eines signifikanten Resultats?
-niedrige Basisrate korrekter Hypothesen durch schwache theoretische begründung der geprüften Hypothesen —> je niedriger die Basisrate, desto niedriger wird der positive Vorhersagewert
-sinkende power
- p-werte, die grösser als 0.05, aber kleiner als 0.1 sind
Warum war im Reproducibility Project: Psychology (RP:P) von vornherein nicht zu erwarten, dass die Replikationsquote 100% sein würde?
1.) Die Forscher hatten die freie Wahl, eine Studie zu replizieren, und konnten sich diejenigen rauspicken, die eine kleine Chance auf Replikation hatten.
2.) Die Power der Replikationsstudien war im Durchschnitt 0.92
3.) Der Alpha-Fehler in den Originalstudien betrug 5%
4.) Nur 97 der 100 Originalstudien berichteten ein signifikantes Ergebnis
5.) Der durchschnittliche Beta-Fehler in den Replikationsstudien betrug 20%
1. X
2. √
3. √
4. X
5. X
Welches Verfahren hatte man im RP:P anwenden können (und wurde auch angewendet), um die Hypothese zu prüfen, dass in den Replikationsstudien gleich häufig eine Signifikanz in die gleiche Richtung auftrat wie in den Originalstudien?
1.) Wilcoxon-Test
2.) McNemar-Test
3.) ANOVA
4.) U-Test nach Mann & Whitney
1. X
2. √ —> zuerst dichotome variabel bei original, dann replik studien —> schauen ob sich unterscheiden mit McN
3. X
4. X
Welche Vorteile haben Tiefenreplikationen gegenüber einfachen Replikationen?
1.) Sie haben mehr Power.
2.) Sie zeigen die Variabilität eines Effekts
3.) Der Aufwand ist geringer
4.) Sie zeigen die Generalisierbarkeit eines Effekts.
1. √
2. √
3. X
4. √ (wenn und wieso de effekt uftritt und wie stark me ihn verallgemeinere cha)
Was sind mögliche direkte und indirekte Ursachen des Publikationsbias in der Psychologie?
- Publikationsbias: die wahrscheinlichkeit, dass eine studie veröffentlicht wird, hängt in irgendeiner weise vom ergebnis ab, in der praxis hängt es jedoch am meisten von der signifikanz ab
- Direkte Ursachen:
—> zeitschriften lehnen manuskripte mit nicht-signifikanten ergebnissen öfters ab
—> wissenschaftler reichen studien mit nicht-signifikanten ergebnissen seltener bei Fachzeitschriften zur publikation ein
- Indirekte Ursachen:
—> allgemeine menschliche Tendenz, bestätigende infos zu bevorzugen
—> NIcht-signifikante Ergebnisse werden of als wenig überraschend und wenig theoretisch informativ beurteilt, sie sind erst dann interessant, wenn die Power hoch war und sie einer etablierten Theorie widersprechen
—> Aufgrund der durchschnittlichen Power der publizierten Studien müsste man viel mehr nicht-signifikante Ergebnisse erwarten als man sie tatsächlich findet
Was hat es für Konsequenzen, wenn signifikante Ergebnisse eher zur Veröffentlichung akzeptiert werden als nicht-signifikante Ergebnisse?
-publizierte Ergebnisse sind nicht repräsentativ für alle Ergebnisse
- falsch-positive Ergebnisse werden nicht identifiziert und somit gibt es auch keine Selbst-Korrektur im Forschungsprozess
- der durschnittliche Effekt in den publizierten Studien überschätzt systematisch den wahren Effekt
Was versteht man unter HARKing?
—> = Hypothesizing After Results are Known
-hypothesen werden im Nachhinein ans Ergebnis angepasst
- Konsequenz: Bedeutung des Resultats wird von anderen überschätzt
—> der positive Vorhersagewert von publizierten signifikanten Ergebnissen wird erniedrigt
Welche Konsequenzen haben fragwürdige Forschungspraktiken, die man auch als p-hacking bezeichnet?
- Wahrscheinlichkeit für falsch positive Resultate erhöht sich und führt somit zu einem niedrigeren positiven Vorhersagewert
-wahrscheinlichkeit für Alphafehler steigt
- signifikante werte können immer gefunden werden
-der positive Vorhersagewert sinkt
—> p-hacking wird in der realität oft unwissentlich angewendet
- viele wissenschaftler unterschätzen das ausmass der negativen folgen
- datenabhängige entscheidungen in der analyse zum teil getroffen werde, ohne direkt auf p-werte zu schauen (garden of forking path)
- es oft gute gründe gibt, diese od jene entscheidung in der analyse zu treffen, dh man kann leicht einer Selbsttäuschung verfallen
Welche der folgenden Praktiken zählen zu den sogenannten fragwürdigen Forschungspraktiken, bzw p-hacking?
- selektive Anpassung der Ein- und Ausschlusskriterien
- selektiver ausschluss von ausreissern
-selektive transformation von variablen
-selektive auswahl der abhängigen und unabhängigen variablen
-selektive auswahl des statistischen modells
- selektive auswahl der korrekturmethode für multiples testen
- selektives korrigieren für konfundierte variablen
- selektives berichten von ergebnissen/analysen etc
- HARKing
—> hypothesen werden im Nachhinein an Ergebniss angepasst
—> KOnsequenz: Bedeutung des resultats wird von anderen überschätzt
Welche direkten und indirekten Hinweise gibt es, dass ein Publikationsbias tatsächlich vorhanden ist?
1.) Aufgrund der durchschnittlichen Power der publizierten Studien müsste man viel mehr nicht signifikante Ergebnisse erwarten als man tatsächlich findet.
2.) Die p-Werte der publizierten Studien sind überzufällig oft im Bereich zwischen 0.05 & 0.04
3.) Untersuchungen, die nicht publizierte Studien nachverfolgten, haben gezeigt, dass diese öfters nicht-signifikante Ergebnisse erbrachten
1. √
2. X (stimmt sho , aber als hiiwis für p-hacking und ned für publication bias)
3. √
Welche Konsequenzen hat HARKing?
1.) Die Bedeutung von statistisch signifikanten Ergebnissen wird überschätzt.
2.) Konfirmatorische Analysen werden als explorative Analysen ausgegeben
3.) Der positive Vorhersagewert von publizierten signifikanten Ergebnissen wird ernierdrigt.
1. √
2. X
3. √
Warum beschreibt der begriff p-hacking die Verwendung von fragwürdigen Forschungspraktiken in der Wissenschaft nicht ganz adäquat?
1.) p-hacking passiert oft unwissentlich und unabsichtlich
2.) Es wird manchmal die Flexibilität in der Datenanalyse ausgenützt, ohne direkt den p-wert zu hacken, d.h. Ohne auf den p-Wert zu schauen.
3.) Er unterstellt, dass Wissenschaftler skrupellose Karrieristen sind, dabei zeigen Umfragen, dass Techniken des p-hacking nur selten angewendet werden.
1. √
2. √
3. X
Sets found in the same folder
Prüfung statistik 2020
40 terms
Lernen 2.0
149 terms
History of Psychology
130 terms
Begriffe
35 terms
Other sets by this creator
Prüefigsfrage vom 1. versuech
24 terms
Epidemiologie psychischer störungen
37 terms
Klin psy Prüfungsrelevante Literatur HS 1
335 terms
Statistik Tutorat
2 terms
Other Quizlet sets
Econ Retake
16 terms
Lao màng bụng
14 terms
Le Petit Prince; Écrire chp. 11-15
17 terms
Health providers
15 terms