Psychologie

Текст
Из серии: utb basics #1
0
Отзывы
Читать фрагмент
Отметить прочитанной
Как читать книгу после покупки
Шрифт:Меньше АаБольше Аа

ŸŸ• Nicht hinreichend (I): Der Heimaufenthalt allein würde nicht ausreichen, wenn nicht auch aktuelle Gelegenheiten gegeben wären (z.B. Streit mit körperlich unterlegenen Kontaktpersonen).

ŸŸ• Notwendig (N): Nur die Gelegenheiten allein, ohne kindlichen Heimaufenthalt, sollten zu keinen aggressiven Handlungen führen.

ŸŸ• Nicht notwendig (U): Heimaufenthalt und Gelegenheiten sind nicht die einzigen Möglichkeiten von Aggressionsauslösern (z.B. denkbar ist auch die Animation zu Gewalttaten durch einen aggressiven Freundeskreis).

ŸŸ• Hinreichend (S): Heimaufenthalt und Gelegenheiten gemeinsam reichen aber gemäß Hypothese aus, eine Tendenz zu Gewalttaten zu bewirken.

(Nach Westermann, 2000)

Merksatz

Um den komplexen Kausalbeziehungen der psychologischen Empirie gerecht zu werden, sollten diese nach direkter, indirekter, multipler, bedingter und scheinbarer Kausalität differenziert werden.

Neben den direkten Kausalbeziehungen treten in Phänomenen oft auch indirekte Kausalbeziehungen auf, bei denen sich Effekte über Wirkungsketten fortpflanzen. Ein Beispiel dafür sind die verschiednen Instanzen neurologischer Verarbeitung, die durchlaufen werden müssen, damit eine akustische Wahrnehmung mit einem Wort benannt werden kann.

Schließlich sind noch scheinbare Kausalbeziehungen als Problem der Forschung zu erwähnen, bei denen eine (zumeist unbeachtete) Ursache zwei oder mehrere Ereignisse simultan so beeinflusst, dass der Eindruck entsteht, sie würden miteinander in einer wechselseitigen Kausalbeziehung stehen. Ein Beispiel aus dem Alltag: Viele Menschen glauben an den Einfluss der Sternenkonstellation auf den Charakter des Menschen, ohne zu berücksichtigen, dass beide vom Wandel der Jahreszeiten mitbestimmt sein könnten (s. zu dieser Thematik Hergovich, Willinger & Arendasy, 2005).


Indeterminismus und Wahrscheinlichkeitsschlüsse| 3.4.2

Die meisten psychologischen Gesetze sind also nicht deterministischer, sondern indeterministischer Natur. Das bedeutet, dass Effekte nur mit einer bestimmten Wahrscheinlichkeit vorhergesagt werden können. Bloß in wenigen Unterdisziplinen der Psychologie – wie etwa in der Physiologischen Psychologie oder in der Wahrnehmungspsychologie – kann man manchmal, ähnlich wie in der Physik, bereits aufgrund von Einzelbeobachtungen (im Sinne eines „experimentum crucis“) auf das Vorliegen eines deterministischen Gesetzes schließen. Bei den meisten anderen psychologischen Subdisziplinen ist jedoch für die Bestätigung von Gesetzen die Heranziehung wahrscheinlichkeitstheoretischer Überlegungen bzw. der Einsatz von Statistik notwendig.

Neben der erwähnten Multikausalität, die zu Effektüberlagerungen bei den untersuchten Phänomenen führt, ist hierfür noch ein weiterer Grund zu nennen (Steyer, 2003): die oft erhebliche Fehlerüberlagerung von Daten und Messwerten (Messfehler). Denn man ist in der Psychologie oft damit konfrontiert, dass Phänomene nur vage, verschwommen oder verzerrt registrierbar sind, und somit gezwungen, mittels statistischer Methoden die Messfehler oder Effektüberlagerungen auszufiltern (s. Abb. 3.4) und für Kennwerte oder Variablenbeziehungen Schätzwerte zu berechnen.

Merksatz

Da die meisten psychologischen Gesetze von Messfehlern und Fremdeffekten überlagert sind, können in der Psychologie fast nur Wahrscheinlichkeitsgesetze postuliert werden.

Allgemein kann man sagen, dass Einzelfälle für die Verifikation- oder Falsifikation von psychologischen Gesetzen nur geringe Bedeutung haben und dass nur das überzufällig häufige Auftreten von Zusammenhängen zwischen Variablen in der Erfahrungswelt ein akzeptabler Beleg für die Gültigkeit eines Gesetzes darstellt. „Wissenschaftliche Hypothesen im Bereich der Sozialforschung sind Wahrscheinlichkeitsaussagen (probabilistische Aussagen), die sich durch konträre Einzelfälle prinzipiell nicht widerlegen (falsifizieren) lassen“ (Bortz & Döring, 1995, 11).


3.5 |Relationen und Funktionen

In welcher Weise ist es nun möglich, Beziehungen zwischen Variablen darzustellen oder quantitativ zu beschreiben? In der Mathematik wird hierfür der Begriff Relation verwendet. Wenn eine Variable A eine endliche Menge von Ausprägungen besitzt und ebenso eine Variable B, dann ist jede Menge paarweiser Zuordnungen zwischen den Ausprägungen von A und B eine Relation. Oder genauer nach Lipschutz (1980, 58): „Eine Relation R von A nach B ist eine Teilmenge von A x B“, nämlich der Menge aller gegebenen Kombinationen zwischen den Elementen von A und B.

Abb 3.4 |


Die Ableitung der Gehirnströme bei Wahrnehmung eines Reizes („Sensorisch Evoziertes Potenzial“) sieht im Einzelfall aufgrund von Störeinflüssen immer etwas anders aus, sodass man das für einen Reiz idealtypische Potenzial durch Mittelwertbildung über die einzelnen Ableitungen feststellt („Mittelungstechnik“).

Abb 3.5 |


Eine Variablenrelation ist dann eine Variablenfunktion, wenn jeder einzelnen Ausprägung einer Variablen (A) nur genau eine Ausprägung einer anderen Variablen (B) zugeordnet ist.

Als Funktion bezeichnet man eine Relation dann, wenn jeder Ausprägung einer Variablen („Definitionsmenge“) nur genau eine Ausprägung einer anderen Variablen („Funktionsmenge“) zugeordnet ist (Abb. 3.5). Viele quantitative Funktionen, d.h. Funktionen zwischen Zahlenmengen, können durch einfache Formeln beschrieben werden. Da man in der Psychologie aber neben quantitativen häufig auch nichtquantitative („qualitative“) Merkmale berücksichtigen muss (z.B. Geschlecht, Beruf, Stimmung), werden Variablenbeziehungen im Bedarfsfall auch aussagenlogisch, mengentheoretisch oder tabellarisch dargestellt (Abb. 3.6).

Wie im vorigen Abschnitt ausgeführt, sind viele Phänomene der Psychologie multikausal oder nur bedingt verursacht, sodass für ihre Aufklärung oft mehrere Variablen einbezogen werden müssen. Relationen zwischen zwei Variablen heißen bivariate, zwischen mehreren Variablen multivariate Variablenrelationen (Box 3.3).

Wenn Variablen quantitativ interpretierbare Ausprägungen haben, kann man sich für die Darstellung von Variablenrelationen auch der analytischen Geometrie bedienen, indem Ausprägungskombinationen als Punkte oder als Vektoren (Pfeile) in einem Raum veranschaulicht werden (Abb. 3.7).

Da aber in der Empirie nur selten solche Relationen zwischen Variablen vorkommen, die eindeutig mit einer einfachen mathematischen Formel beschreibbar sind (z.B. Junktion, lineare Funktion, Kurve), bedient man sich – wie erwähnt – der Statistik, die auch für fehlerbehaftete, unscharfe oder einander überlagernde Variablenrelationen adäquate Beschreibungsmethoden anbietet. Als eines der größten methodischen Probleme der gegenwärtigen psychologischen Forschung kann gelten, dass die meisten Erklärungsmodelle und Hypothesen weder Multikausalität noch bedingte Kausalität einbeziehen, und daher zu geringe Prognosesicherheit erreichen (Maderthaner, in Vorbereitung).

Box 3.3 | Beispiel für eine multivariate aussagenlogische Beschreibung von Variablenzusammenhängen (mit Multikausalität und bedingter Kausalität)

Inhaltliche Aussage (aus der Sozialpsychologie):

Kinder, die früher an Modellpersonen beobachten konnten, dass sich Aggression „lohnt“ (L), oder solche, die gerade von einem anderen Kind frustriert (F) wurden, tendieren diesem gegenüber zu aggressivem Verhalten (A), wenn dieses eher als wehrlos (W) empfunden wird, wenn ihm gegenüber keine moralischen Hemmungen (M) bestehen und wenn im Moment keine Strafdrohung (S) von Aufsichtspersonen für aggressive Reaktionen zu erwarten ist.

Aussagenlogische Form: ((L ∨ F) ∧ W ∧ ¬ M ∧ ¬ S) ⟶ A

(Zur Bedeutung der Symbole siehe Abb. 3.6; ¬: Negation)

| Abb 3.6


Zweistellige Aussagenrelationen („Junktionen“), wie etwa Konjunktion (∧: „A und B“), Adjunktion (∨: „A oder B“), Implikation (⟶: „wenn A, dann B“) oder Bijunktion (⟷: „wenn A, dann B und umgekehrt“) kennzeichnen durch ihre „Wahrheitswerte“ jene Paare von Ausprägungen der Variablen A und B (1, wenn gegeben, und 0, wenn nicht gegeben), die im Sinne der Relation auftreten können.


3.6 |Beschreibende und hypothesenprüfende Statistik

Merksatz

Mittels der Statistik als Hilfswissenschaft werden in der Psychologie verfügbare Daten beschrieben und auf vorhandene Gesetzmäßigkeiten untersucht.

Die Statistik (engl. statistics) fungiert innerhalb der Psychologie als Hilfswissenschaft zur Auffindung und Beschreibung von nichtdeterministischen Gesetzen (Relationen). “Statistics is a set of concepts, rules and methods for (1) collecting data, (2) analyzing data, and (3) drawing conclusions from data” (Iversen & Gergen, 1997, 4). Wenn in der Nachrichtentechnik damit gerechnet wird, dass elektronische Signale von Störungen überlagert werden, dann sendet man gleiche Signale mehrmals hintereinander, um beim Empfang auf Basis ihres Mittelwerts (Durchschnitt) auf das ursprüngliche „wahre“ Signal schließen zu können. Nach dem gleichen Prinzip werden in der Psychologie wiederholt oder simultan Daten über psychische Abläufe, Einstellungen oder Fähigkeiten gesammelt, um daraus Schätzungen über die untersuchten Phänomene ableiten zu können. Die (klassische) Testtheorie postuliert diesem Prinzip gemäß, dass sich jeder Messwert (z.B. eine physiologische Ableitung, eine Fragebogenantwort, eine Prozentschätzung) aus einem wahren Wert - und einem zufälligen Fehlerwert zusammensetzt und dass sich Fehlerüberlagerungen durch Heranziehung mehrerer Messwerte des gleichen Ereignisses „ausmitteln“ lassen.

 

| Abb 3.7


Ähnlich wie physikalische Objekte in einem (euklidischen) Raum Positionen einnehmen können, lassen sich auch Fälle als „Datenobjekte“ auffassen und in einen (multidimensionalen) Variablenraum projizieren. Die Datenobjekte sind einander umso näher, je ähnlicher ihre Variablenausprägungen sind. Ebenso lässt sich die Ähnlichkeit von Variablen in Objekträumen abbilden. Im Beispiel sind drei Objekte (z.B. Personen) im Zweivariablenraum (z.B. Gewicht und Größe) dargestellt und daneben die gleichen Variablen im Dreiobjekteraum.


3.6.1 |Deskriptivstatistik – beschreibende Statistik

Die deskriptive Statistik bietet charakteristische, formelhafte Beschreibungen oder grafische Darstellungen für eine große Zahl von Fällen, Variablen oder Variablenrelationen an. Wie schon erwähnt (Abb. 3.7), werden Fälle als Punkte in einem multidimensionalen Raum von Variablen gedacht, und ihre Verteilung wird durch statistische Kennwerte bzw. Statistiken näher charakterisiert. Eine Voraussetzung für eine solche Darstellung von Variablen (sowie ihres Einbezugs in komplexe statistische Auswertungsverfahren) ist, dass sie quantitativ interpretierbar sind, d.h., dass ihre Ausprägungen unterschiedliche Quantitäten einer Eigenschaft oder eines Merkmals von Fällen kennzeichnen (Backhaus et al., 2003).

Um die quantitative Bedeutung der Ausprägungen von Variablen einzustufen, werden diese hinsichtlich ihrer Skalenqualität, d.h. nach Skalenniveau bzw. Messniveau, differenziert:

1. Nominalskala: Wenn eine Variable nur dieses Skalenniveau zugeschrieben bekommt, sind ihre Ausprägungen (Zahlenwerte) im Sinne von Klassifikationen zu verstehen. Es handelt sich also um Variablen, die („qualitative“) Eigenschaften, wie etwa Geschlecht, Beruf, Nationalität oder Haarfarbe, kennzeichnen.

2. Ordinalskala (Rangskala): Die Werte von Variablen mit ordinaler Skalenqualität gestatten nicht mehr bloß die Unterscheidung zwischen gleich- und ungleichartig, sondern erlauben zusätzlich die Erstellung einer quantitativ begründeten Rangreihe der Variablenausprägungen. Typische Ordinalvariablen sind Listen von Schulnoten oder Rangreihungen bei Wettbewerben.

Merksatz

Die quantitative Interpretierbarkeit von empirischen Variablen bzw. der durch sie beschriebenen Indikatorausprägungen wird durch die ihnen zugeschriebene Skalenqualität (Messniveau) charakterisiert.

3. Intervallskala: Für Variablen dieses Typs wird angenommen, dass ihre aufeinanderfolgenden Zahlenwerte die Zunahme einer variablenspezifischen Eigenschaftsquantität immer um den gleichen Betrag symbolisieren (der Quantitätszuwachs von 1 auf 2 ist der gleiche wie etwa von 4 auf 5). In der Psychologie erwartet man zumindest Intervallskalenniveau von all jenen Variablen, die quantitative Abstufungen von individuellen Leistungspotenzialen (z.B. Konzentration, Intelligenz) oder von psychischen Dispositionen (z.B. Einstellungen, Persönlichkeitsdimensionen) zum Ausdruck bringen wollen.

4. Verhältnisskala (Rationalskala): Variablen dieser Art sind gewissermaßen Intervallskalen mit einem fixen Nullpunkt. In der Psychologie gehören Verhältnisschätzungen für Wahrnehmungsreize diesem Skalentyp an oder bestimmte probabilistische Testkennwerte („Item-Response-Modelle“).

5. Absolutskala: So bezeichnet man Variablentypen, die ebenfalls einen fixen Nullpunkt haben, bei denen aber auch „echte“ Einheiten gegeben sind. Zu diesem Typus zählen alle Variablen, die Häufigkeiten bzw. Frequenzen zum Ausdruck bringen (z.B. Schätzungen der Anzahl von Objekten oder Personen).

Als quantitative Variablen im engeren Sinne zählen für die Statistik nur solche, die als Intervall-, Verhältnis- oder Absolutskalen zu interpretieren sind.

Eine empirische Variable hat noch eine weitere, für komplexe statistische Auswertungen wichtige Eigenschaft: die Verteilung ihrer Ausprägungen.

Die Betrachtung der Verteilung empirischer Variablen ist aus verschiedenen Gründen wichtig:

1. Aus ihr geht hervor, welche Zahlenwerte mit welcher Wahrscheinlichkeit in einer Population zu erwarten sind (z.B. Mess- oder Testergebnisse).

2. Sie kann Hinweise darüber geben, ob der Wertebereich einer Variablen für die Beschreibung eines empirischen Prozesses optimal gewählt wurde (z.B. nicht optimal bei „schiefen“ Verteilungen, wenn sich die Werte bei den Minimal- oder Maximalwerten der Variablen häufen).

3. Ein weiterer Grund für die Verteilungsprüfung von Variablen liegt in der notwendigen Prüfung von Verteilungsvoraussetzungen (z.B. dem Erfordernis der Normalverteilung von Fehlerkomponenten) für bestimmte multivariate statistische Auswertungsmethoden (z.B. der „Regressionsanalyse“).

Die besondere Bedeutung der Normalverteilung (oder „Gauß’schen Glockenkurve“) und der (mit ihr verwandten) Binomialverteilung in der Statistik ist darauf zurückzuführen, dass beide als Idealformen zufallsbedingter Verteilungsprozesse angesehen werden. Wie bereits erwähnt, wird bei empirischen Variablen angenommen, dass sich ihre Werte aus einer wahren Komponente und einer zufälligen Fehlerkomponente zusammensetzen.

Um den „Schwerpunkt“ von mehreren Variablenwerten zu bestimmen, werden Maße der „Zentraltendenz“ („Lageorientierung“) herangezogen, wie etwa der Mittelwert (m) bzw. „Durchschnittswert“, nämlich die Summe (Σ) aller Werte (x) dividiert durch die Anzahl der Werte (n):


Ebenfalls als Maß der Zentraltendenz gebräuchlich ist der Median (jener Wert, von dem aus etwa 50 % aller Werte größer oder kleiner sind).

Eine zweite wichtige Kennzeichnung von Variablen sind statistische Kennwerte, die den „Streubereich“ („Dispersion“) der Ausprägungen von Variablen aufzeigen. Maße dafür sind etwa die Streubreite (Bereich vom maximalen Wert bis zum minimalen Wert), die Varianz


oder die Standardabweichung:


Die Varianz (v) ist als Durchschnittswert für die Abweichungsquadrate aller Werte (x) vom Mittelwert (m) definiert. Die Standardabweichung (s) als Wurzel der Varianz bezeichnet jene Abweichungen vom Zentrum der Normalverteilung, innerhalb derer etwa 68 % aller Werte liegen.

Um nun Variablen (mit verschiedenen Mittelwerten und Streuungen) besser miteinander vergleichen und auf wechselseitigen Zusammenhang (Korrelation) überprüfen zu können, werden sie oft durch einen einfachen Rechenvorgang in sogenannte Standardvariablen mit jeweils einem Mittelwert von 0,0 und einer Streuung von 1,0 umgewandelt (Standardisierung). Dies wird erreicht, indem alle Werte einer Variablen um ihren Mittelwert reduziert und durch die Streuung dividiert werden („lineare Transformation“, s. auch Abb. 8.19):


Um das Ausmaß der linearen „Ko-Relation“ zwischen zwei Variablen abschätzen zu können, bedient man sich seit etwa hundert Jahren des Pearson’schen Korrelationskoeffizienten (r), der bei einem maximal positiven Zusammenhang zwischen den zwei Variablen den Wert +1,0 annimmt (wenn beide gleichsinnig zu- oder abnehmen). Bei Fehlen einer linearen Beziehung wird er 0,0, bei einem maximal gegensätzlichen Zusammenhang dagegen erhält man

–1,0. Dieser in den Sozialwissenschaften häufig verwendete statistische Kennwert wird auch als „Produkt-Moment-Korrelation“ bezeichnet und lässt sich für zwei Standardvariablen sehr einfach, nämlich als mittleres Produkt der z-Werte, bestimmen (gebräuchliche Formeln zur Berechnung einer Korrelation findet man in statistischen Lehrbüchern oder im Internet):


(Σ = Summenzeichen, n = Anzahl der Fälle, z und z = Standardwerte der Variablen Y und X)

Eine praxisrelevante Nutzanwendung dieser Statistik besteht in ihrer Vorhersagefunktion für die Ausprägungen einer Variablen (Y), wenn die Werte einer anderen, mit ihr (linear) korrelierenden Variablen (X) bekannt sind:

zy = r · zx

lat. regredere: zurückgehen, zurückführen

Da mittels dieser (linearen) Funktion die Werte einer Variablen auf jene einer anderen Variablen zurückgeführt werden können (Abb. 3.8), nennt man diese Bezugsherstellung Regression - und das statistische Verfahren Regressionsrechnung. Mittels der Korrelation lässt sich somit der vermutete Einfluss einer Variablen auf eine andere Variable abschätzen. Das Ausmaß des statistischen Effektes einer Variablen auf eine oder mehrere andere Variablen wird als Effektstärke bezeichnet. So etwa kann man aus dem Quadrat des Korrelationswertes die Stärke des vermuteten Einflusses einer Variablen auf eine andere abschätzen (z.B. r = 0,5, r2 = 0,25, d.h. 25 % Prädiktion), wenn es sich um eine bidirektionale (notwendige und hinreichende) Beziehung handelt (s. Abb. 3.3), was bei psychologischen Effekten eher selten der Fall ist. Neben dem Korrelationskoeffizienten existieren noch weitere Kennwerte für Effektstärken (s. Bortz & Döring, 1995; Westermann, 2000).

Abb 3.8 |


Wenn zwei Variablen (X, Y) durch zwei Einheitsvektoren symbolisiert werden (d.h. als Standardvariablen mit Standardabweichung von s = 1), und die Variablen miteinander im Ausmaß von r = 0,80 korrelieren, dann kann diese Relation durch einen Winkel von 37° zwischen den Vektoren und im Variablenraum dargestellt werden: r = 0,80 = Cos (37°). Der Wert r entspricht somit der Abbildung einer Variablen auf eine andere.

Eine Besonderheit der geometrischen Betrachtungsweise von Variablen besteht darin, dass das Ausmaß ihrer linearen Beziehung (Korrelation) durch den Winkel ihrer Vektordarstellungen im Variablen- bzw. Merkmalsraum dargestellt werden kann (Andres, 1996; Abb. 3.8). Da jeder Vektor eine variablenspezifische Eigenschaft symbolisiert und gleichgerichtete Bündelungen von Vektoren somit auf Eigenschaftsüberlappungen der entsprechenden Variablen hinweisen, können für solche Variablencluster gewissermaßen „Schwerpunktvektoren“ berechnet werden, die man Faktoren nennt und die als oberbegriffliche Beschreibungen der durch die Variablen symbolisierten Eigenschaften aufzufassen sind (Abb. 3.9).

Mittels solcher faktorieller Beschreibungen kann man nicht nur komplexe Variablensysteme auf ihre „Hauptkomponenten“ reduzieren, sondern auch den korrelativen Zusammenhang zwischen verschiedenen Gruppen von Variablen (mit ähnlicher Eigenschaftsbedeutung) bestimmen. (Statistische Verfahren, die auf diesem Prinzip basieren, sind etwa die „Faktorenanalyse“, die „Multivariate Varianzanalyse“, die „Kanonische Korrelation“ oder die „Diskriminanzanalyse“.)

| Abb 3.9


Das Prinzip der „Faktorenanalyse“: Wenn zwischen je zwei dieser acht Variablen der Korrelationskoeffizient berechnet wird und die Variablen in den entsprechenden Winkeln zueinander grafisch dargestellt werden, können Bündel davon durch sogenannte Faktoren (I, II) charakterisiert werden. Die vorliegenden acht Variablen lassen sich relativ gut in nur zwei Dimensionen darstellen, wobei die Länge der Variablenvektoren das Ausmaß ihrer Charakterisierbarkeit durch die beiden senkrecht zueinander stehenden Faktoren widerspiegelt. Im Beispiel könnten die vier Variablen A, B, C und D etwa die Eigenschaften schön, vielfältig, harmonisch und heiter von architektonischen Objekten symbolisieren und aufgrund ihrer vektoriellen Bündelung einen Faktor (I) beschreiben, den man ästhetischer Eindruck nennen könnte.

 

Eine Erweiterung dieser Verfahren ist die sogenannte „topologische Datenanalyse“ (Wasserman, 2018; Morris, 2015), bei der Daten an empirische Formen oder Strukturen angepasst werden (z.B. Protein-Strukturen, Kommunikationsnetze).


Inferenzstatistik – schließende und prüfende Statistik| 3.6.2

Wie mehrfach erwähnt, müssen in der Psychologie Schlussfolgerungen über die allgemeine Gültigkeit von Gesetzen auf Basis von Stichproben gezogen werden. Dies geschieht zumeist unter Verwendung der Wahrscheinlichkeitstheorie, mittels derer man zu bestimmen versucht, ob die in den Daten festgestellten Variablenrelationen nur zufällig oder doch durch Einwirkung eines Gesetzes zustande gekommen sind.

Vereinfacht, aber sehr prägnant kann das Bestreben empirischer Sozialforschung anhand des mathematischen Bayes-Theorems illustriert werden:


lat. a posteriori: von dem, was nachher kommt

lat. a priori: von vornherein, ohne Einbezug von Erfahrungen

In empirischen Wissenschaften geht es um die Einschätzung der Wahrscheinlichkeit p(H|D) für die Gültigkeit einer Hypothese (H) unter der Bedingung, dass hypothesenbestätigende (oder widerlegende) empirische Daten (D) berücksichtigt werden. Die „Aposteriori-Wahrscheinlichkeit“ p(H|D) für eine Hypothese (d.h. nach Einbezug der Daten) nimmt zu, wenn die „Apriori-Wahrscheinlichkeit“ für die Hypothese p(H) größer wird und/oder wenn die Wahrscheinlichkeit p(D|H) für das Auftreten hypothesenbestätigender Daten ebenfalls zunimmt. Sie nimmt hingegen ab, wenn die hypothesenrelevanten Daten auch unabhängig von der Hypothese häufiger auftreten, das heißt, wenn p(D) größer wird.

Die Plausibilität dieses Ansatzes kann am Beispiel einer medizinischen Diagnose über das Vorliegen einer Covid-19-Infektion illustriert werden: Die Annahme, dass eine Person an Covid-19 (C) erkrankt ist, wenn sie Fieber hat (p(C/F)), stimmt umso eher, (1) je größer p(C) ist, das heißt, je mehr Personen bereits an Covid-19 erkrankt sind (z.B. bei einer Epidemie), (2) je größer p(F|C), die Wahrscheinlichkeit von Fieber bei dieser Viruserkrankung, ist und (3) je kleiner p(F) ist, nämlich die Erwartung des Auftretens von Fieber im Allgemeinen (s. auch 8.5.3; Tschirk, 2019).

Merksatz

Die möglichst stabile Kennzeichnung von Personen oder Personengruppen hinsichtlich wichtiger Eigenschaften, Einstellungen oder Handlungsweisen („Punktschätzungen“) ist eine zentrale sozialwissenschaftliche Zielsetzung.

Eine zentrale sozialwissenschaftliche Zielsetzung besteht in der möglichst stabilen Kennzeichnung von Personen oder Personengruppen hinsichtlich wichtiger Eigenschaften, Einstellungen oder Handlungsweisen („Punktschätzungen“). Da solche Kennwerte immer fehlerbehaftet sind, wird mittels statistischer Techniken ein Vertrauensintervall bzw. Konfidenzintervall für sie bestimmt, innerhalb dessen mit 95%iger (99%iger) Wahrscheinlichkeit der „wahre“ Kennwert vermutet wird.

Es ist leicht einzusehen, dass der Schätzfehler für einen statistischen Kennwert mit zunehmender Größe der Stichprobe immer kleiner wird und schließlich gegen Null geht, wenn alle möglichen Fälle in die Berechnung einbezogen sind (Abb. 3.10).

| Abb 3.10


Der Schätzfehler (se ) für die Bestimmung des Mittelwertes einer Population von Fällen aufgrund einer Stichprobe ist eine Funktion der Stichprobenstreuung (s) und des Stichprobenumfanges (n): . Je mehr Fälle für eine Schätzung zur Verfügung stehen, desto genauer wird die Vorhersage. Wenn etwa geschätzt werden sollte, wie viel Zeit Arbeiterinnen und Arbeiter durchschnittlich für einen bestimmten Arbeitsgang in einem Produktionsprozess benötigen, dann wird die Schätzung des Mittelwertes anhand einer Stichprobe von 100 Personen eine nur halb so große Fehlerstreuung aufweisen (in Einheiten der Standardabweichung) wie jene auf Basis einer Stichprobe von 25 Personen.

lat. inferre: hineintragen

Die mathematisch begründeten Methoden der Inferenzstatistik sollen also eine Einschätzung erlauben, ob überhaupt und in welchem Ausmaß statistische Resultate von Stichproben auf die jeweilige Population übertragbar sind.

Merksatz

Inferenzstatistische Verfahren zielen darauf ab, den Grad der Allgemeingültigkeit von Gesetzmäßigkeiten zu prüfen, die auf Basis von Stichproben gewonnen werden.

Wenn die Wahrscheinlichkeit dafür, dass bestimmte Variablenrelationen zufällig zu erklären sind, einen vereinbarten Wert unterschreitet (z.B. p = 0,05, p = 0,01 oder p = 0,001), dann spricht man von statistischer Signifikanz des Ergebnisses. Bortz und Döring (1995, 27) definieren statistische Signifikanz als ein „per Konvention festgelegtes Entscheidungskriterium für die vorläufige Annahme von statistischen Populationshypothesen“. Wenn also ein statistisches Ergebnis nur mehr zu 5 % (oder weniger) durch Zufallsprozesse erklärt werden kann, wird es als statistisch signifikant angesehen („überzufällig“ oder „unterzufällig“). Die restliche, für eine Zufallserklärung verbleibende Unsicherheit von 5 % (oder weniger) nennt man Irrtumswahrscheinlichkeit („Fehler 1. Art“, „Alpha-Fehler“), die dazugehörige den Zufallsprozess charakterisierende Annahme (über die Datenverteilung) heißt Nullhypothese.

Da die praktische Bedeutsamkeit eines signifikanten Ergebnisses aber auch von dessen Effektstärke abhängt, müssen abgesehen von der Nullhypothese auch Alternativhypothesen statistisch getestet werden. Das Ausmaß, in dem die Datenverteilungen mit den Vorhersagen einer Alternativhypothese übereinstimmen, wird als Teststärke (engl. power) bezeichnet. Um diese berechnen zu können, ist es nötig, die jeweilige Alternativhypothese zu spezifizieren, indem man die erwartete Effektgröße präzisiert, d.h. schätzt, wie stark die jeweilige unabhängige Variable auf die abhängige Variable einwirken dürfte. Der Vorteil einer solchen Vorgangsweise besteht vor allem darin, dass man nicht nur vage auf „Über- oder Unterzufälligkeit“ von statistischen Ergebnissen schließt, sondern sogar die Wahrscheinlichkeit bestimmen kann, mit der die Daten für die Alternativhypothese sprechen.


Forschungsmethoden der Psychologie


Laborexperiment| 3.7.1

Mittels eines Experiments ist es möglich, hypothetische Wirkfaktoren gezielt zu manipulieren, um ihre Auswirkungen unter verschiedenen Bedingungen zu analysieren. Experimente werden bevorzugt zur Prüfung von Kausalhypothesen eingesetzt (Stapf, 1987). Im Experiment wird eine künstliche Realität konstruiert, um die vermuteten Einflussfaktoren in ihrer Wirksamkeit unter Abschirmung von möglichen Störeinflüssen zu untersuchen.

Häufig wird in psychologischen Experimenten der (den) Experimentalgruppe(n) (Versuchsbedingungen) eine Kontrollgruppe (Kontrollbedingung) gegenübergestellt. Den Fällen der Experimentalgruppen sind solche Ausprägungen der unabhängigen Variablen (Ursachenvariablen) zugeordnet, von denen ein Effekt auf die abhängigen Variablen (Wirkungsvariablen) erwartet wird, während den Fällen der Kontrollgruppe Ausprägungen der unabhängigen Variablen zugeteilt sind, denen kein systematischer Effekt zugeschrieben wird. Diese Gruppe dient somit nur dazu, Veränderungen zu erfassen, die entweder auf natürliche Weise auftreten (Zeiteffekte, Gewöhnungsprozesse etc.) oder durch die experimentellen Umstände selbst zustande kommen, nämlich durch die künstliche Situation oder den Eindruck, beobachtet zu werden.

Die künstliche Realität des Experiments ist einerseits ein Vorteil, weil durch die Beseitigung von Störeinflüssen der Zusammenhang zwischen unabhängigen und abhängigen Variablen klarer erkannt werden kann (hohe „interne Validität“), andererseits aber auch ein Nachteil, weil die Ergebnisse nur mit Vorsicht auf den Alltag übertragbar sind (geringe „externe“ bzw. „ökologische Validität“).

Ein wesentliches Merkmal psychologischer Experimente ist die Randomisierung. Durch die Randomisierung sollen sich Störeffekte ausmitteln, die eventuell durch unausgewogene Stichproben zustande kommen. In der zuvor erwähnten Studie über die Wirkung des Alkohols auf das Fahrverhalten (Box 3.1) würden zum Beispiel die sich meldenden Versuchspersonen per Zufall den Gruppen mit unterschiedlicher Alkoholaufnahme zugewiesen werden.

Die Störeffekte in psychologischen Experimenten haben im Wesentlichen drei verschiedene Quellen (Gniech, 1976):

Randomisierung meint die zufällige Zuordnung von Personen (oder Gruppen) zu den jeweiligen Ausprägungen der unabhängigen Variablen.

1. Versuchssituation: Der sogenannte „Aufforderungscharakter“ eines experimentellen Umfelds, nämlich die Art der Information über den Zweck der Untersuchung, die Rahmenbedingungen, die Art der Instruktion, die gestellten Fragen und Ähnliches hinterlassen bei den Versuchspersonen Eindrücke, die ihr experimentell induziertes Verhalten beeinflussen können.

2. Versuchspersonen: Eine unüberlegte, nicht randomisierte Auswahl der Stichprobe kann Verfälschungen in den Ergebnissen bewirken. Ein nicht zu unterschätzendes Problem bei der Interpretation von Untersuchungsergebnissen ist zum Beispiel die oft notwendige Beschränkung der Teilnahme auf Freiwilligkeit und das Ausscheiden von Teilnehmenden aus dem Experiment („drop out“), wodurch natürlich die erwünschte Zufallsauswahl einer Stichprobe beeinträchtigt ist. Personen, die sich freiwillig für ein Experiment melden, sind im Allgemeinen besser gebildet, haben einen höheren gesellschaftlichen Status, sind stärker sozial orientiert und haben ein stärkeres Bedürfnis nach Anerkennung (Rosenthal & Rosnow, 1975; zit. nach Gniech, 1976). Natürlich wirken sich auch Einstellungsunterschiede der Teilnehmerinnen und Teilnehmer gegenüber der Untersuchung aus, je nachdem, ob es sich um kooperierende, sabotierende oder neutrale Versuchspersonen handelt.

Другие книги автора

Купите 3 книги одновременно и выберите четвёртую в подарок!

Чтобы воспользоваться акцией, добавьте нужные книги в корзину. Сделать это можно на странице каждой книги, либо в общем списке:

  1. Нажмите на многоточие
    рядом с книгой
  2. Выберите пункт
    «Добавить в корзину»