Advanced methods of management research V - Cheatsheet
Quantitative und qualitative Methoden
Definition:
Quantitative und qualitative Ansätze in der Managementforschung
Details:
- Quantitative Methoden: numerische Daten, Hypothesenprüfung, statistische Analysen.
- Qualitative Methoden: nicht-numerische Daten, explorativ, Interviews, Fallstudien.
- Quantitativ: z.B. Umfragen, Experimente.
- Qualitativ: z.B. Tiefeninterviews, Beobachtungen.
- Wahl der Methode abhängig von Forschungsfrage und Zielsetzung.
- Mixed-Methods: Kombination aus beiden Ansätzen für umfassendere Ergebnisse.
Big Data Analytik
Definition:
Eigenschaft der Verarbeitung großer Datenmengen zur Gewinnung von Erkenntnissen, oft mit Hilfe spezieller Algorithmen und Tools.
Details:
- Drei Vs von Big Data: Volume (Datenmenge), Velocity (Verarbeitungsgeschwindigkeit), Variety (Datenvielfalt)
- Wichtige Werkzeuge: Hadoop, Spark, NoSQL-Datenbanken
- Analysemethoden: Clusteranalyse, Regressionsanalyse, Maschinelles Lernen
- Anwendungsbereiche: Marketing, Finanzanalyse, Produktionsoptimierung
- Herausforderungen: Datenschutz, Datenqualität, Skalierbarkeit
Interviews und Fokusgruppen
Definition:
Interviews und Fokusgruppen sind qualitative Forschungsmethoden zur Erhebung tiefgehender Einblicke in Einstellungen, Meinungen und Verhaltensweisen von Individuen oder Gruppen.
Details:
- Interviews: Einzelne Befragungen, können strukturiert, halbstrukturiert oder unstrukturiert sein.
- Fokusgruppen: Moderierte Gruppendiskussionen zur Erörterung spezifischer Themen.
- Ziel: Erfassung von qualitativen Daten und tiefem Verständnis.
- Wichtig: Offene Fragen, Vermeidung von Suggestivfragen.
- Datenanalyse: Transkription und kodieren zur Themenidentifikation.
Soziale Netzwerkanalyse
Definition:
Untersuchung von sozialen Netzwerken mittels quantitativer und qualitativer Methoden zur Identifikation von Netzwerkmustern und -strukturen.
Details:
- Netzwerkstrukturen analysieren: Knoten (Akteure) und Kanten (Beziehungen).
- Wichtige Metriken: Zentralität (degree, betweenness, closeness), Dichte, Modularität.
- Visualisierung von Netzwerken und Interpretation.
- Methoden: Matrizendarstellung, Graphentheorie, Computerbasierte Modelle.
- Anwendungen: Organisationsforschung, Wissensmanagement, Innovationsprozesse.
Zeitreihenanalyse
Definition:
Analyse von Datenpunkten, die in zeitlicher Reihenfolge gesammelt wurden, um Muster, Trends und saisonale Schwankungen zu erkennen.
Details:
- ARIMA-Modelle: Kombination aus Autoregression (AR), Integrierung (I) und gleitendem Durchschnitt (MA).
- Saisonale Komponenten: Berücksichtigung von saisonalen Einflüssen durch SARIMA.
- Stationarität: Zeitreihen müssen stationär gemacht werden, um zuverlässige Vorhersagen zu ermöglichen.
- ACF und PACF: Autokorrelations- und partielle Autokorrelationsfunktionen zur Bestimmung der Modellparameter.
- Vorhersage: Modelle zur Prognose zukünftiger Werte (z.B. Holt-Winters, ARIMA).
- Tests auf Kointegration: Überprüfung, ob langfristige Gleichgewichtsbeziehungen zwischen Zeitreihen bestehen.
Multivariante Statistik
Definition:
Statistische Analyseverfahren zur Untersuchung von mehr als zwei Variablen gleichzeitig.
Details:
- Ziel: Erkennen von Mustern und Zusammenhängen in komplexen Datensätzen
- Anwendung: Psychologie, Marketing, Sozialwissenschaften
- Wichtige Methoden:
- Multiple Regression
- Faktorenanalyse
- Clusteranalyse
- Diskriminanzanalyse
- Formeln:
- Multiple Regression: \[ Y = \beta_0 + \beta_1 X_1 + \beta_2 X_2 + ... + \beta_n X_n + \text{Fehlerterm} \]
- Manova: \[ \text{Wilks’ Lambda} = \frac{|\textbf{E}|}{|\textbf{E} + \textbf{H}|} \]
Grounded Theory
Definition:
Methode zur Entwicklung von Theorien durch systematische Datensammlung und Analyse. In der Managementforschung verwendet, um neue Einblicke und theoretische Rahmenbedingungen zu schaffen.
Details:
- Induktiver Ansatz: Theorie entwickelt sich aus den Daten, nicht umgekehrt.
- Iterativ: Daten sammeln, analysieren, theoretisch kodieren und dann wiederholen.
- Kodierung: Offene, axiale und selektive Kodierung zur Strukturierung der Daten.
- Ständiger Vergleich: Vergleich neuer Dateneinheiten mit bestehenden, um Muster zu erkennen.
- Theoretische Sättigung: Datensammlung endet, wenn keine neuen Erkenntnisse mehr gewonnen werden.
Laborexperimente und Feldstudien
Definition:
Laborexperimente: kontrollierte Umgebung, Manipulation von Variablen. Feldstudien: natürliche Umgebung, Beobachtung ohne Manipulation.
Details:
- Laborexperimente: Hohe interne Validität, niedrige externe Validität
- Feldstudien: Hohe externe Validität, niedrige interne Validität
- Laborexperimente: Präzise Kontrolle der Einflussfaktoren und Bedingungen
- Feldstudien: Realitätsnahe Ergebnisse, natürliche Verhaltensweisen
- Beide Methoden ergänzen sich und werden oft kombiniert
- Statistische Auswertung: ANOVA, \t-Test, Regression