Psychologie

Текст
Из серии: utb basics #1
0
Отзывы
Читать фрагмент
Отметить прочитанной
Как читать книгу после покупки
Шрифт:Меньше АаБольше Аа

3. Versuchsleitung: Vonseiten der Forscherinnen und Forscher sollten beobachterabhängige Urteilsverzerrungen (engl.: observer bias) beachtet werden, die durch persönliche Motive und Erwartungen entstehen. Besonders störend sind unbewusste Einflussnahmen (z.B. über nonverbale Kommunikation) im Sinne eigener theoretischer Vorstellungen („Erwartungseffekte“, „Rückschaufehler“, Selbsterfüllende Prophezeiung). In Experimenten mit Volksschulkindern (Box 3.4) konnte etwa nachgewiesen werden, dass Lehrpersonen gegenüber fremden Kindern, die ihnen aufgrund von Testresultaten als angeblich begabt ausgewiesen wurden (als „Spätentwickler“), sich sympathischer, förderlicher und entgegenkommender verhielten, sodass sie mit ihrem Verhalten de facto dazu beitrugen, die Fähigkeiten der Kinder zu steigern (Rosenthal & Jacobson, 1968).

lat. placebo: „Ich werde gefallen.“

Dass Erwartungshaltungen, zum Beispiel hinsichtlich der Wirksamkeit eines Medikamentes, beachtliche Auswirkungen haben können, ist seit Langem aus der Medizin unter der Bezeichnung Placebo-Effekt bekannt. Darunter versteht man die positive Wirkung auf Befinden oder Gesundheit ausgehend von medizinisch unwirksamen Substanzen – sogenannten „Placebos“ (z.B. Milchzucker, Stärke, Salzlösungen) –, allein durch Herstellung einer Erwartung von Wirksamkeit.

| Box 3.4 Selbsterfüllende Prophezeiung

Die Selbsterfüllende Prophezeiung wird auch Pygmalion-Effekt genannt, nach dem Bildhauer der griechischen Mythologie, der die Statue einer perfekten Frau schuf („Galatea“) und sie durch seinen festen Glauben und seine Sehnsucht nach ihr zum Leben erweckte (Göttin Aphrodite soll allerdings mitgeholfen haben).

In einem Experiment der Sechzigerjahre waren 18 Klassen einer Volksschule einbezogen. Bei allen Schülerinnen und Schülern wurde ein nonverbaler Intelligenztest durchgeführt, den man als Indikator für eine zu erwartende intellektuelle Entwicklung der Kinder in den nächsten acht Monaten ausgab. Aus allen Klassen wurden 20 % der Kinder zufällig (!) ausgewählt, die den Lehrpersonen mit dem Hinweis genannt wurden, dass von diesen Kindern aufgrund des durchgeführten Tests in der nächsten Zeit ein intellektueller Fortschritt zu erwarten sei. Nach acht Monaten zeigten die mit dem positiven Vorurteil bedachten Kinder im Intelligenztest deutliche Verbesserungen! Der gleiche Effekt konnte auch in Tierexperimenten nachgewiesen werden (Rosenthal, 2002).

Das Gegenteil vom Placebo-Effekt ist der Nocebo-Effekt, nämlich die durch Erwartung hervorgerufene negative Auswirkung eines eigentlich unwirksamen Medikaments oder einer Behandlung.

Um die genannten Artefakte in Experimenten zu reduzieren, werden Doppel-blind-Verfahren eingesetzt, bei denen weder die Versuchspersonen noch die unmittelbar das Experiment betreuenden Forscherinnen und Forscher über die Art der experimentell gesetzten Einwirkungen Bescheid wissen dürfen. Da natürlich auch in Blindstudien die Probandinnen und Probanden über die Intention einer Studie Vermutungen entwickeln, müssen in der psychologischen Forschung manchmal auch Täuschungen eingesetzt werden. Selbstverständlich sind diese nach Ende des Experiments aufzuklären.

Merksatz

In einem Experiment werden unter abgeschirmten Bedingungen die Effekte (abhängige Variablen) systematisch variierter Wirkfaktoren (unabhängige Variablen) registriert, wobei durch eine zufällige Zuteilung der Fälle zu den Bedingungen der Wirkfaktoren etwaige Verfälschungen der Ergebnisse minimiert werden sollen.

Experimente sowie andere Forschungsdesigns können sowohl als Querschnittuntersuchung (engl.: cross sectional study) als auch als Längsschnittuntersuchung (engl.: longitudinal study) durchgeführt werden. Bei der häufig eingesetzten Querschnittstudie werden an einzelnen Fällen (Personen, Gruppen, Situationen etc.) die interessierenden Variablen nur einmalig erhoben, sodass strukturelle Gesetze von Variablen analysiert werden können, während bei einer Längsschnittstudie zwei oder mehr Datenerhebungen zu den gleichen Variablen stattfinden und somit auch deren zeitliche Dynamik erfassbar ist. Ein großer Vorteil der Längsschnittmethode liegt auch darin, dass intraindividuelle Veränderungen beobachtet werden können und Verfälschungen durch unausgewogene Stichproben, wie sie bei der interindividuellen Querschnittmethode vorkommen, reduziert sind (Daumenlang, 1987). Nachteilig ist hingegen über einen längeren Zeitraum der Schwund an Versuchspersonen und die Problematik der mehrmaligen Anwendung gleichartiger Testverfahren (Gefahr von „Serialeffekten“).


3.7.2 |Quasiexperiment

Merksatz

Ein Quasiexperiment gleicht vom Aufbau her einem Experiment – mit dem Unterschied, dass die Fallzuordnung zu den Bedingungen nicht zufällig erfolgt.

Artefakt: In Psychologie und Nachrichtentechnik steht dieser Ausdruck für verfälschte Ergebnisse.

Diese Untersuchungstechnik gleicht vom Design her dem Experiment, nur verzichtet man auf eine zufällige Zuordnung der Versuchspersonen zu den Versuchs- bzw. Kontrollbedingungen und nimmt das Risiko von Stichprobeneffekten in Kauf. In manchen Forschungsbereichen ist eine zufällige Zuteilung zu den verschiedenen Bedingungen entweder nicht realisierbar oder ethisch nicht zu rechtfertigen; so etwa die zufällige Zuordnung von Schülerinnen und Schülern zu Schultypen, von Mitarbeiterinnen und Mitarbeitern zu Betrieben oder von Patientinnen und Patienten zu Behandlungsverfahren. Um die aus dem Verzicht einer Randomisierung resultierenden Artefakte zu kompensieren, werden in solchen Untersuchungen einerseits größere Probandengruppen angestrebt und andererseits zusätzliche Personenmerkmale erhoben, denen ein direkter oder indirekter Einfluss auf die abhängigen Variablen zugeschrieben werden kann. Zu diesen gehören die soziodemografischen Merkmale (Geschlecht, Alter, Schulbildung, Beruf ...), aber auch andere individuelle Charakteristika, die aufgrund ihrer Ungleichverteilung in den Bedingungen der unabhängigen Variablen zu systematischen Verfälschungen von Ergebnissen führen könnten. Mittels statistischer Korrekturverfahren lassen sich einige solcher Verfälschungen kompensieren bzw. aus den Ergebnissen herausrechnen („auspartialisieren“).


Feldforschung| 3.7.3

Im Gegensatz zum Experiment versucht man in der Feldforschung, Phänomene unter möglichst natürlichen Bedingungen zu beobachten und zu erklären. Dem Vorteil der Natürlichkeit steht hier der Nachteil gegenüber, dass Störvariablen weniger gut kontrolliert werden können. Da Forschungsphänomene „im Feld“ wesentlich komplexer in Erscheinung treten als im Labor, kommt bei der Feldforschung der Entwicklung von genauen und effizienten Beschreibungsmethoden sowie der Ausarbeitung von Verhaltensregeln zur optimalen Datengewinnung besondere Bedeutung zu (s. Flick et al., 1995).

Merksatz

Methoden der Feldforschung bezwecken eine Untersuchung von Phänomenen unter natürlichen Rahmenbedingungen bzw. unter minimierter versuchsbedingter Beeinflussung.

Sogenannte Fallstudien („single case studies“) sind häufig erste Erfahrungsquellen und als solche nur Anregungen für weitere Forschungstätigkeiten. Obwohl Forschungsphänomene durch Fallstudien hervorragend konkretisiert und plastisch vorstellbar gemacht werden können, mangelt es ihren Ergebnissen logischerweise an Verallgemeinerbarkeit.

Einen Katalog möglicher Verhaltensweisen in natürlichen Umweltbedingungen nennt man in der Verhaltensforschung Ethogramm, innerhalb dessen ein „behavior mapping“ charakterisiert, wer was wo tut (Hellbrück & Fischer, 1999).

Non-reaktive Verfahren bezwecken eine Analyse psychologischer Problemstellungen, ohne dass die untersuchten Personen bemer-ken, dass sie untersucht werden, was insbesondere bei Inhaltsanalysen von schriftlichen Dokumenten (z.B. Tagebüchern, Archiven), bei Auszählungen von Unfall-, Krankheits- und Fehlzeitstatistiken, Verkaufsstatistiken oder Abnützungen von Bodenbelägen, Pfaden oder Gebrauchsgegenständen („Spurenanalyse“) gut gelingt.

In der Feldforschung werden häufig, aber nicht ausschließlich, qualitative Methoden verwendet, weil diese flexibler auf die Eigenarten von Personen oder von Situationen anzupassen sind.


3.7.4 |Test und Rating

Merksatz

Eine Standardisierung besteht aus Maßnahmen, die eine Vergleichbarkeit von verschiedenen Personen, Objekten, Situationen oder von Variablenwerten ermöglichen.

Ein Test ist ein wissenschaftlich normiertes und standardisiertes Prüfverfahren, welches stabile Eigenschaften eines komplexen Systems (Person, Gegenstand, Organisation) ermitteln soll. Unter Standardisierung versteht man Maßnahmen, aufgrund derer Situationen, Aktionen oder Objekte unter Bezugnahme auf Normen oder Regeln miteinander verglichen werden können. So etwa müssen in Experimenten Instruktionen und Rahmenbedingungen der Durchführung für alle Versuchspersonen standardisiert, d.h. als maximal ähnlich aufgefasst werden; Gleiches gilt für die Diagnostik, wo Tests verschiedenen Kandidatinnen oder Kandidaten vorgegeben werden. Bei standardisierten Fragebögen müssen die Fragen immer den gleichen Wortlaut haben, auch die möglichen Antworten sind fix vorgegeben (z.B. in Form von Antwortalternativen). Bei statistischen Auswertungen gelten Variablen dann als standardisiert, wenn ihre Werte als Differenz zu ihrem Mittelwert - und in Einheiten ihrer Streuung dargestellt werden (s. 3.6.1), wodurch auch inhaltlich sehr verschiedenartige Variablen miteinander in Relation gesetzt werden können. Bei Leistungs-, Intelligenz- oder Persönlichkeitstests bedeutet eine Standardisierung, dass die Ergebnisse der Probandinnen und Probanden auf die Verteilungen von sogenannten Referenz- oder Normstichproben bezogen sind.

 

Merksatz

Eine Skala soll Ausprägungen einer spezifischen Eigenschaft eines empirischen Sachverhaltes exakt (anhand von Zahlen) charakterisieren.

Da die in einem Test zu erfassenden Konstrukte aus Teilaspekten bzw. verschiedenen Inhaltskomponenten bestehen, setzen sich Tests aus entsprechend vielen Subtests bzw. Skalen zusammen, die jeweils ein homogenes Merkmal feststellen oder „messen“ sollen. Eine Skala ordnet somit empirischen Objekten (z.B. Personen) Zahlen zu, ähnlich wie dies bei der Längenmessung physikalischer Objekte anhand einer Meterskala geschieht (Niederée & Narens, 1996). Die Prüfung, ob zur Vermessung eines empirischen Objekts eine quantitative Skala akzeptiert werden kann, erfolgt auf Basis mathematisch-statistischer Messtheorien (s. auch 3.6.1, Skalenqualität).

engl. scale: Maßstab, Anzeige, Skala; ital. scala: Maßstab, Treppe, Leiter, Skala

Subtests oder Skalen bestehen selbst meist wieder aus zwei, drei oder mehr Elementen, den Items. Je nach inhaltlicher Orientierung des Tests oder der Skala können sich die Items aus Leistungsaufgaben, Fragen mit Antwortalternativen oder aus Skalierungen, nämlich Einschätzungen von Merkmalen anhand von Zahlen, zusammensetzen. Die Art der Reaktion einer Person auf ein Item wird über (Zahlen-)Symbole kodiert, welche unter Verwendung mathematisch-statistischer Modelle zu quantitativen Werten (z.B. Mittelwert über die einzelnen Items) für die einzelnen Skalen verrechnet werden. Je mehr Items für eine Skala zur Verfügung stehen, d.h., je mehr unabhängige elementare „Messinstrumente“ für eine Eigenschaft vorliegen, desto größer ist im Allgemeinen die Zuverlässigkeit der entsprechenden Skala.

engl. item: Datenelement, Einheit, Einzelheit, Element, Punkt, Nummer

Eine Aufzählung nach Bühner (2010) soll illustrieren, in welch verschiedenen Bereichen psychologische Tests eingesetzt werden: psychische und psychosomatische Störungen, Befindlichkeitsstörungen, Therapie- und Heilungsverlauf, Familien-, Ehe- und Erziehungsberatung, Berufsberatung und Personalauslese, Verkehrseignung (TÜV), Strafvollzug (Haftentlassung), Entwicklungsstörungen, Schulreife, Leistungsstörungen, Hochschuleignung, Produktbeurteilung, Einstellungs- und Motivationsmessung (Arbeitszufriedenheit, Leistungsmotivation) usw. „Die Auswahl und Interpretation von Test- und Fragebogenergebnissen zählen zu den Routineaufgaben in der späteren Berufspraxis“ von Psychologinnen und Psychologen (Bühner, 2010, 11).

Die Genauigkeit, die Aussagekraft und der Vorhersageerfolg von Testergebnissen hängen von sogenannten Gütekriterien der Tests ab. Allgemeine und unverzichtbare Gütekriterien von Datenerhebungsinstrumenten sind Objektivität, Reliabilität sowie Validität.

Die Objektivität eines Tests kennzeichnet die Unabhängigkeit seines Ergebnisses von der Person, die den Test durchführt. Sie ist besonders hoch, wenn verschiedene Testanwender zu gleichen Testergebnissen kommen. Dafür ist es allerdings nötig, dass die Anwenderinnen und Anwender fundierte testpsychologische Grundkenntnisse und Fertigkeiten besitzen (s. DIN-Norm 33430 für „Berufsbezogene Eignungsdiagnostik“, Hornke & Winterfeld, 2004; Bühner, 2010). Objektivitätsmängel können sowohl durch fehlende Sorgfalt bei der Testdurchführung als auch durch Unterschiede bei der Auswertung oder Interpretation entstehen.

Reliabilität bedeutet Zuverlässigkeit und Genauigkeit eines Tests und ist gegeben, wenn bei wiederholter Anwendung des Tests bei gleichen Probanden auch weitgehend gleiche Ergebnisse zustande kommen. Hinweise auf die Zuverlässigkeit von Tests bekommt man, indem man (1) einen Test (falls möglich) wiederholt vorgibt und dessen Ergebnisse auf Übereinstimmung prüft („Retest-Methode“), oder indem man (2) sogenannte Paralleltests, nämlich Tests mit gleicher Aussagekraft, entwickelt und deren Übereinstimmung bei ein und derselben Personengruppe kontrolliert („ParalleltestMethode), oder indem man (3) die Teile eines Tests auf Homogenität, d.h. auf inhaltliche Ähnlichkeit prüft („Konsistenzmethode“).

Die Validität (Gültigkeit), das wichtigste Gütekriterium eines Tests, gibt an, wie gut er in der Lage ist, das zu messen, was er zu messen vorgibt (z.B. Intelligenz, Motivation, Persönlichkeitsmerkmale). „Inhaltliche Validität“ oder „Augenscheinvalidität“ besitzt ein Test dann, wenn es aufgrund der Art der Testung (Fragen, Leistungen usw.) offensichtlich ist, welcher Aspekt sich im Testergebnis hauptsächlich niederschlägt (z.B. Additionstest für Rechenfertigkeit, Bildermerktest für Vorstellungsfähigkeit). Die empirische Validitätsprüfung eines Tests geschieht hauptsächlich durch Berechnung des statistischen Zusammenhanges (Korrelation) seiner Werte mit einem plausiblen Kennwert („Kriteriumsvalidität“) oder mit einem anderen Test, der den gleichen Aspekt zu messen vorgibt („Konstruktvalidität“). Beispielsweise könnte bei Schülerinnen und Schülern für einen Test über rechnerische Intelligenz die Mathematiknote als Validitätskriterium oder ein ebenfalls auf Rechenleistungen bezogener anderer Test als Validitätskonstrukt herangezogen werden.

Merksatz

Ein Test ist ein wissenschaftlich begründetes, normiertes und bestimmten Gütekriterien unterworfenes Verfahren mit dem Ziel einer quantitativen Erfassung von Merkmalen.

Zwischen den genannten drei Gütekriterien besteht allerdings eine Implikationsbeziehung: Wenn ein Test nicht objektiv ist, kann er nicht reliabel sein, und wenn er nicht reliabel ist, ist er nicht valide. Wenn nämlich bereits die Datenerhebung stark fehlerbehaftet ist, können bei wiederholten Messungen keine gleichen Resultate auftreten, und wenn Letzteres nicht gesichert ist, kann auch die zu messende empirische Eigenschaft nicht befriedigend von anderen Eigenschaften unterschieden werden.

Insbesondere bei der Konstruktion von Tests werden neben Objektivität, Reliabilität und Validität noch weitere, ebenfalls wichtige Gütekriterien überprüft (s. Kubinger, 2003): Skalierung (quantitative Interpretierbarkeit der Testwerte), Normierung (Vergleichsmöglichkeit mit Bevölkerungsgruppen), Fairness (Chancengleichheit für alle Bevölkerungsgruppen), Ökonomie (Minimum an Ressourcenverbrauch), Zumutbarkeit (Minimum an zeitlicher, emotionaler und psychischer Belastung der Probandinnen und Probanden) und Unverfälschbarkeit (geringe Möglichkeit zur willkürlichen Beeinflussung der Testergebnisse durch die Testpersonen).

| Tab 3.1


Das Polaritätsprofil ist eine in der Psychologie sehr verbreitete Methode zur Erfassung einstellungsbezogener oder gefühlsmäßiger Reaktionen auf Objekte, Personen oder Situationen. Dabei wird von den Versuchspersonen eine Reihe von Eigenschaften oder Eigenschaftspaaren (ca. 5–25) hinsichtlich ihres Zutreffens zahlenmäßig eingestuft.

In der Philosophie den Tests sehr ähnlich und ebenfalls sehr verbreitet sind Ratingverfahren, mittels derer Eigenschaften von Personen, Objekten oder Situationen (z.B. Wahrnehmungen, Ausdruckswirkungen oder Einstellungsintensitäten) anhand von Zahlenzuordnungen quantitativ eingestuft werden. Ein Beispiel dafür ist das Polaritätsprofil („Semantisches Differential“; Tab. 3.1). In anderen Ratings bzw. Skalierungen wird etwa der Grad an Zustimmung zu Meinungen in Prozentpunkten, die Bewertung von Objekten oder Aspekten in Schulnoten oder eine Präferenzentscheidung mittels Punktesystem angegeben.


3.7.5 |Beobachtung

Die Selbst- und Fremdbeobachtung zählt zu den ältesten Forschungsinstrumenten der Psychologie. Die wissenschaftliche Beobachtung unterscheidet sich von jener des Alltags durch ihre Theoriegeleitetheit und Systematik. „Unter Beobachtung versteht man das systematische Erfassen von wahrnehmbaren Verhaltensweisen, Handlungen oder Interaktionen einer Person oder Personengruppe zum Zeitpunkt ihres Auftretens“ (Ebster & Stalzer, 2003, 221). Grundsätzlich sollte die Beobachtung als Mittel der Informationsgewinnung in allen Untersuchungen zumindest begleitend eingesetzt werden, und auch die beschriebenen Gütekriterien von Tests sollten eigentlich für alle Datengewinnungsverfahren in der Psychologie gelten. So sind auch Beobachtungen einer Objektivitätsprüfung zu unterziehen, indem die Übereinstimmung verschiedener, unabhängiger Beobachterinnen oder Beobachter festgestellt wird.

Merksatz

Wissenschaftliche Formen der Selbst- und Fremdbeobachtung sind theoriegeleitet, systematisiert und den allgemeinen Gütekriterien der Datenerhebung unterworfen.

Die teilnehmende Beobachtung ist ein Verfahren, bei dem die forschende Person selbst am untersuchten Geschehen teilnimmt und von den erforschten Personengruppen wie ihresgleichen behandelt werden möchte. Man erwartet sich dadurch sowohl eine lebensnähere Perspektive des beforschten Phänomens als auch tiefere Einblicke in die jeweilige Problematik. Bei nichtteilnehmender Beobachtung ist man als Forscher den Untersuchungspersonen gegenüber distanzierter eingestellt und an objektiven Ergebnissen interessiert. Verdeckte Beobachtungen haben den Vorteil, dass der beobachtete Prozess natürlich und ungestört ablaufen kann, aber unter Umständen ist mit Unmut (z.B. bei Täuschungen) und Verweigerung der Zustimmung zur Datennutzung zu rechnen (gemäß „Ethikrichtlinien“ der Psychologie ist eine Einverständniserklärung durch die Betroffenen erforderlich). Offene Beobachtungen haben häufig den Nachteil, dass sich die Beobachteten imageorientiert, skeptisch, übertrieben oder sonst irgendwie unnatürlich verhalten. In einer frühen Forschungsphase, wenn noch keine konkreten Vorstellungen über gesetzmäßige Zusammenhänge im Forschungsfeld vorhanden sind, werden unstrukturierte Beobachtungen überwiegen, während bei zunehmender Klarheit über die zu erwartenden Gesetzmäßigkeiten immer mehr zu strukturierten Beobachtungen übergegangen werden kann. Dies bedeutet dann, dass Schemata und Eintragslisten entwickelt werden, anhand derer Beobachterinnen und Beobachter ihre Wahrnehmungen steuern und kategorisieren können.


Befragung (Interview)| 3.7.6

Da die verschiedenen Varianten der Befragung zu den häufigsten Methoden der Datengewinnung in den Sozialwissenschaften zählen, werden sie auch manchmal als deren „Königsweg“ bezeichnet (Ebster & Stalzer, 2003). „Befragung bedeutet Kommunikation zwischen zwei oder mehreren Personen. Durch verbale Stimuli (Fragen) werden verbale Reaktionen (Antworten) hervorgerufen: Dies geschieht in bestimmten Situationen und wird geprägt durch gegenseitige Erwartungen.“ (Atteslander, 2003, 120)

Merksatz

Die Befragung ist ein sehr häufig eingesetztes sozialwissenschaftliches Verfahren der Datenerhebung, welches in strukturierter Form auch einer statistischen Auswertung zugeführt werden kann.

Texttranskription: Exakte schriftliche Protokollierung mündlicher Äußerungen

Ein wichtiges Unterscheidungsmerkmal von Befragungen ist der Grad ihrer Standardisierung. Hinsichtlich der Freiheitsgrade bei der Durchführung von Gesprächen mit Untersuchungspersonen unterscheidet man standardisierte, teilstandardisierte - und nichtstandardisierte Befragungen (Interviews). Nichtstandardisierte Interviews (mit wissenschaftlicher Basis) werden auch als „qualitative Befragungsmethoden“ zusammengefasst. Dazu zählen etwa das Intensiv- oder Tiefeninterview, das Gruppeninterview, das narrative Interview - und die qualitative Inhaltsanalyse (Flick et al., 1995). Da bei diesen Befragungen nur wenige Einschränkungen für den Ablauf des Interviews gegeben sind (z.B. hinsichtlich der Thematik), laufen die Gespräche relativ ungezwungen und spontan ab, und es kommen viele Inhalte und Gedanken zur Sprache, die sonst kaum genannt worden wären. Allerdings erfordert diese Art von Datenerhebung beträchtliche kommunikative Fertigkeiten bei den interviewführenden Personen bzw. entsprechende Schulungen, da natürlich der Output des Interviews sowohl vom Inhalt als auch vom Umfang her durch das (auch nonverbale) Verhalten des Interviewers verfälscht werden kann (z.B. in Richtung eigener theoretischer Annahmen).

Anamnese: Vorgeschichten einer seelischen oder körperlichen Erkrankung

Bei standardisierten (strukturierten) Befragungen hingegen sind die Formulierungen der Fragen fix vorgegeben, sodass alle Befragungspersonen zu den gleichen Inhalten Stellung nehmen müssen. Die Beantwortungen der Fragen können im offenen Antwortmodus erfolgen, das heißt mit eigenen Worten. Dies bedeutet zwar einerseits (wie bei den qualitativen Befragungsmethoden) eine Chance auf mehr Information, ist aber andererseits mit größerem Auswertungsaufwand (z.B. Texttranskription) und erschwerter Vergleichbarkeit der Aussagen verbunden. Bei einem geschlossenen Antwortmodus sind für die einzelnen Fragen auch deren Antwortmöglichkeiten vorgegeben und die befragten Personen müssen sich für eine oder mehrere davon entscheiden („multiple choice“). In diesem Fall ist die Objektivität der Ergebnisse fast immer höher, aber der unmittelbare Lebensbezug und die Spontaneität der Meinungswiedergabe reduziert. Ein wesentlicher Vorteil des geschlossenen Antwortmodus in Fragebögen ist allerdings auch seine bessere Verwertbarkeit für statistische Analysen, sodass sich in den letzten Jahrzehnten diese Form in vielen Bereichen der Sozialforschung durchgesetzt hat.

 

3.7.7 |Textanalyse

In keiner Wissenschaft kann auf die Bedeutungsanalyse sprachlicher Aussagen verzichtet werden. Besonders trifft dies auf die Psychologie zu, wenn es um die Beschreibung spontaner Beobachtungen geht, wenn Schilderungen von Erlebnissen ausgewertet werden sollen, wenn schriftliches Material über Nachrichten oder Gespräche vorliegt (Mitschriften, Protokolle, Tagebücher, Archive, Zeitungsberichte etc.) oder wenn zur Diagnose von Störungen Anamnesen angefertigt werden.

Merksatz

Textanalysen bezwecken eine abstrakte und komprimierte Beschreibung des Aussagegehalts alltagssprachlicher Texte.

Daten dieser Art können – wie aus der Kommunikationsforschung bekannt ist – sehr unterschiedlich interpretiert werden, sodass für die Bedeutungsanalyse unstrukturierter Texte Auswertungsmethoden entwickelt wurden, die auch die oben genannten Gütekriterien der Datengewinnung erfüllen sollten. Diesem Anspruch entsprechen insbesondere die qualitative - und die quantitative Inhaltsanalyse, mittels derer der Bedeutungsgehalt von umfangreichen Textteilen in Form von prägnanten Aussagen („Propositionen“) zusammengefasst oder aber eine Auszählung der am häufigsten vorkommenden Begriffe und Begriffs kombinationen in den Textdaten vorgenommen werden kann. Diese quantitative Inhaltsanalyse wurde bereits in den Dreißigerjahren zur Analyse von Massenmedien verwendet, etwa um die politische Orientierung in einem Land durch die Frequenz positiver oder negativer Charakterisierungen von Themen in Tageszeitungen zu belegen.

Für die Inhaltsanalyse von gespeicherten Texten stehen Computerprogramme zur Verfügung, die z. T. kostenlos als Demoversionen aus dem Internet zu beziehen sind (z.B. www.atlasti.de, www.winmax.de).

Die qualitative Inhaltsanalyse (s. Mayring, 2000) knüpft an diesen Ansatz an und versucht durch Einführung verbindlicher methodischer Regeln bei der Textanalyse deren Objektivität, Reliabilität und Validität zu verbessern. Dabei wird der Aussagegehalt von Sätzen oder Absätzen eines Textes mit Begriffen versehen, die entweder schrittweise aus dem Textmaterial herausentwickelt („induktive Kategorienentwicklung“) oder aufgrund theoretischer Überlegungen und Auswertungsinteressen sukzessive an die Textinhalte angepasst werden („deduktive Kategorienanwendung“). Das Ergebnis solcher Analysen ist eine oberbegriffliche, abstrakte Darstellung des Aussagegehalts von Textmengen durch Begriffe, Begriffskombinationen oder einfache Aussagen („Propositionen“), welche bei Bedarf auch noch einer statistischen Auswertung (z.B. einer Häufigkeitsauszählung mit Computer) unterzogen werden können.


Simulationsstudie (Computersimulationen)| 3.7.8

Ein moderner wissenschaftlicher Ansatz für die Analyse komplexer Systeme ist die Systemtheorie (Bossel, 1992; Bischof, 2016), „eine interdisziplinäre Wissenschaft, deren Gegenstand die formale Beschreibung und Erklärung der strukturellen und funktionalen Eigenschaften von natürlichen, sozialen oder technischen Systemen ist“ (Bibliogr. Institut & Brockhaus, 2002). Ihr theoretisches Gerüst wurde bereits in verschiedenen Bereichen erfolgreich erprobt und angewendet (z.B. in Politik, Biologie, Ökonomie, Technik, Verkehrsplanung, Flugverkehrsleitung, Epidemiologie). Auf der Grundlage systemanalytisch konstruierter Modelle wurden Computersimulationen auch für komplexe Anwendungsbereiche erstellt, etwa: „Waldwachstum“, „Mondlandung“, „Ressourcennutzung“, „Tourismus und Umwelt“, „Lagerhaltung“, ökologische Simulationsspiele wie „Ökolopoly“, „Ökopolicy“ (Vester, 1997), Entwicklungsmodelle für Länder (Bossel, Hornung & Müller-Reißmann, 1989) oder „Weltmodelle“ (Meadows, Meadows & Randers, 1992).

Frühe Simulationsmodelle der Psychologie stammten aus dem Forschungsgebiet Denken und Problemlösen (Kap. 8) und dienten dazu, komplexe Problemsituationen des Alltags auch in Laborsituationen zu untersuchen. Putz-Osterloh und Lüer (1981) entwickelten eine Computersimulation eines Schneiderladens („Taylorshop“), anhand derer Versuchspersonen über die betriebswirtschaftliche Situation einer fiktiven Firma informiert wurden und in verschiedenen Durchgängen nach eigenem Ermessen betriebliche Maßnahmen setzen konnten. Ein wesentlich komplexeres Beispiel ist ein programmiertes Bürgermeisterspiel, in dem eine fiktive Kleinstadt namens „Lohhausen“ von Versuchspersonen mit weitgehenden (diktatorischen) Vollmachten nach gewissen Zielkriterien (z.B. Wirtschaftsdaten, Bevölkerungszufriedenheit, Umweltsituation) zu regieren war (s. 8.2). Ein jüngeres Projekt des „Institutes für theoretische Psychologie“ der Universität Bamberg ist „PSI“, eine Computersimulation einer „beseelten Dampfmaschine“, die „ihr schweres Leben“ auf einer Insel in einer „labyrinthartigen Landschaft“ nach menschlicher Logik fristet (Dörner & Schaub, 2006).

Die Übersetzung einer Theorie in ein Computerprogramm bedeutet eine präzise Prüfung der Widerspruchsfreiheit, Vollständigkeit und Nachvollziehbarkeit ihrer Annahmen (Box 3.5). Die simulierten Entscheidungen eines Computermodells menschlicher Informationsverarbeitung können mit jenen von Versuchspersonen in gleichen Situationen verglichen werden, um die zugrunde liegende Theorie zu verbessern (Dörner & Gerdes, 2003).

Merksatz

Simulationsstudien in der Psychologie bezwecken eine formale, systemanalytische und kybernetische Beschreibung von Mensch- und Umweltsystemen.

Computerprogramme und Simulationsmodelle, die für kognitionspsychologische Forschungszwecke eingesetzt werden, sind über das Internet kostenlos zu beziehen (z.B. ACT-R: „Adaptive Control of Thought“; COGENT: „Cognitive Objects within a Graphical EnviroNmenT“; SOAR: „States Operators And Results“; PSI: eine psychologische Theorie als Computerprogramm). Das allgemeine Ziel solcher Programme und Konzepte darf darin gesehen werden, für kognitive und mentale Prozesse eine vereinheitlichende psychologische Theorie zu entwickeln.

Entwicklungsschritte für Simulationsmodelle | Box 3.5

Bei der Entwicklung eines Simulationsmodells für ein empirisches System gelten im Wesentlichen folgende Schritte:

1. Das System im Detail verbal beschreiben („Wortmodell“)

2. Für das System die Systemgrenzen bestimmen (zur Umwelt oder anderen Systemen)

3. Wichtige Untersysteme (Module) und ihre Wirkungsbeziehungen identifizieren

4. Die Wirkungsdynamik des Modells spezifizieren (Systemelemente und Beziehungen zwischen den Elementen und Variablen des Systems festlegen, Zustandsgrößen definieren, Rückkoppelungen erfassen, exogene Einflüsse bestimmen etc.)

5. Die Systemstruktur und die Systemdynamik in ein formales Modell übertragen (Erstellung des Computerprogramms)

6. Strukturgültigkeit des Modells überprüfen (z.B. den Grad der Übereinstimmung seiner Elemente und Elementrelationen mit jenen des empirischen Systems)

7. Verhaltensgültigkeit prüfen (die Modelldynamik soll robust sein und plausible Verläufe bei den Outputvariablen zeigen)

Другие книги автора

Купите 3 книги одновременно и выберите четвёртую в подарок!

Чтобы воспользоваться акцией, добавьте нужные книги в корзину. Сделать это можно на странице каждой книги, либо в общем списке:

  1. Нажмите на многоточие
    рядом с книгой
  2. Выберите пункт
    «Добавить в корзину»