Data Collection Methods in the Social and Behavioral Sciences - Cheatsheet
Bedeutung und Ziele der Datenerhebung
Definition:
Zentrale Aufgabe für fundierte Forschung; Sammeln von Daten zur Analyse und Interpretation sozialer und wirtschaftlicher Phänomene.
Details:
- Grundlage für Hypothesenprüfung und Theorieentwicklung
- Bereitstellung belastbarer und valider Daten
- Erkenntnisgewinn durch empirische Analyse
- Unterstützung evidenzbasierter Entscheidungen
- Förderung der Reproduzierbarkeit von Studien
Qualitative Forschungsmethoden: Interviews und Fokusgruppen
Definition:
Interviews und Fokusgruppen sind zentrale Methoden der qualitativen Forschung, um tiefgehende Einblicke in subjektive Sichtweisen und Erfahrungen der Teilnehmenden zu gewinnen.
Details:
- Interviews: Einzelgespräche mit strukturierten, halbstrukturierten oder unstrukturierten Fragen.
- Fokusgruppen: Moderierte Gruppendiskussionen zur Erfassung von Meinungen und Interaktionen der Gruppe.
- Ziele: Verständnis und Interpretation sozialer Phänomene, Erkundung neuer Themenfelder.
- Geeignet für: Komplexe Problemstellungen, Entwicklung von Hypothesen, Pilotstudien.
- Analysetechniken: Theoretisches Sampling, Grounded Theory, thematische Analyse.
Quantitative Forschungsmethoden: Umfragen und Fragebögen
Definition:
Quantitative Forschungsmethoden: Umfragen und Fragebögen werden zur systematischen Erhebung von numerischen Daten verwendet.
Details:
- Umfragen: Erheben Daten durch eine strukturierte Befragung vieler Teilnehmer.
- Fragebögen: Standardisierte Instrumente zur Messung von Meinungen, Einstellungen, Verhalten.
- Skalenniveaus: Nominal, Ordinal, Intervall, Verhältnis.
- Stichprobenverfahren: Zufallsstichprobe, Quotenstichprobe, Klumpenstichprobe.
- Datenanalyse: Häufigkeitsverteilungen, Mittelwerte, Korrelationen, Regressionen.
- Gütekriterien: Objektivität, Reliabilität, Validität.
Datenqualität und Quellen der Verzerrung
Definition:
Qualität der gesammelten Daten und potenzielle Fehlerquellen, die die Ergebnisse einer Studie beeinflussen können.
Details:
- Datenqualität: Genauigkeit, Zuverlässigkeit, Validität und Konsistenz der Daten.
- Quellen der Verzerrung:
- Stichprobenverzerrung: systematische Fehler bei der Auswahl von Stichproben.
- Antwortverzerrung: Verzerrung durch ungenaue oder unwahre Antworten der Befragten.
- Messverzerrung: Fehler bei der Datenerhebung, z.B. durch ungenaue Instrumente.
- Auswahlverzerrung: Unterschiede zwischen den ausgewählten und nicht ausgewählten Personen.
- Publikationsverzerrung: Bevorzugung der Veröffentlichung signifikanter Ergebnisse.
Ethik in der Datenerhebung: Datenschutz und Vertraulichkeit
Definition:
Datenschutz und Vertraulichkeit in der Datenerhebung gewährleisten, dass persönliche Daten geschützt und nicht unbefugt weitergegeben werden.
Details:
- Vermeidung von Identifikation: Anonymisierung und Pseudonymisierung
- Zustimmung: Einwilligung der Teilnehmer einholen
- Sicherheitsmaßnahmen: Verschlüsselung und sichere Speicherung
- Transparenz: Teilnehmer über Zwecke und Nutzung der Daten informieren
- Rechtliche Rahmenbedingungen: DSGVO und andere relevante Gesetze einhalten
Stichprobenziehung und Repräsentativität in quantitativer Forschung
Definition:
Gewinnung von Stichproben und deren Fähigkeit, die Grundgesamtheit in quantitativer Forschung zu repräsentieren.
Details:
- Zufallsstichprobe: Jede Einheit der Grundgesamtheit hat eine bekannte, gleiche Chance, ausgewählt zu werden.
- Schichtung: Population in verschiedene Schichten unterteilt, aus jeder Schicht zufällig ausgewählt.
- Klumpenstichprobe: Auswahl von ganzen Gruppen oder Klumpen aus der Population.
- Repräsentativität: Stichprobe sollte die Merkmale der Grundgesamtheit in angemessener Weise abbilden.
- Bias und Verzerrung vermeiden: Verzerrte Stichproben führen zu falschen Schlussfolgerungen.
- Größe der Stichprobe: Einfluss auf die Genauigkeit der Schätzungen. Größere Stichproben verringern den Stichprobenfehler.
- Stichprobenfehler: \(SE = \frac{\sigma}{\sqrt{n}}\) wobei \(\sigma\) Standardabweichung und \(n\) Stichprobengröße ist.
Gütekriterien und Validität in der qualitativen Forschung
Definition:
Gütekriterien und Validität: Beurteilungsmaßstäbe der Qualität und Glaubwürdigkeit in der qualitativen Forschung; Schlüssel zur Zuverlässigkeit und Reproduzierbarkeit der Ergebnisse.
Details:
- Zentrale Gütekriterien: Verfahrensdokumentation, Interpretationsabsicherung, Regelgeleitetheit, Nähe zum Gegenstand.
- Validität: Konstruktvalidität (auch Konzepttreue), interne Validität (Glaubwürdigkeit), externe Validität (Übertragbarkeit), ökologische Validität (Alltagsnähe).
- Methoden zur Sicherstellung: Triangulation, Peer Debriefing, Member Check, dichte Beschreibung.
Softwaretools für die Datenanalyse
Definition:
Tools zur statistischen Analyse und Interpretation von Datensätzen.
Details:
- SPSS: Weitverbreitetes Tool für Sozialwissenschaften; bietet umfangreiche statistische Verfahren
- R: Open-Source-Software; hohe Flexibilität durch Pakete und Skriptfähigkeit
- Stata: Besonders gut für ökonometrische Analysen; Benutzerfreundlichkeit und leistungsstarke Datenmanipulation
- Python: Sehr flexibel; zahlreiche Bibliotheken wie pandas, NumPy und SciPy
- Excel: Weitverbreitet und leicht zugänglich; nützlich für einfache Analysen und Datenvisualisierung