Datenanalysemethoden zur Gewinnung verwertbarer Erkenntnisse.

Data analysis methods to create actionable insights

In den Entscheidungsfindungsprozessen von Führungskräften nimmt das Verstehen und Nutzen von Datenanalysen einen zentralen Platz ein. Unternehmen nahezu aller Branchen setzen auf Datenanalysen, um potenzielle Wachstumshürden zu identifizieren, neue Chancen zu identifizieren, Risiken zu minimieren und auf langfristige Unternehmensziele hinzuarbeiten.

Um die Effizienz der Analysen zu maximieren, müssen Führungskräfte Datenanalysemethoden einsetzen, die zu Qualität und Umfang ihrer Daten passen. Angesichts der enormen Zahl an Datenanalysetechniken kann das ausgesprochen schwierig sein.

Um Führungskräfte bei diesem Prozess zu unterstützen, haben wir eine Liste der gängigsten und vielseitigsten Datenanalysemethoden zusammengestellt. Wir beschäftigen uns mit folgenden Themen:

Was sind Datenanalysen?

Unter Datenanalysen versteht man das Sammeln, Organisieren und Interpretieren von Daten, um verwertbare geschäftliche Erkenntnisse zu gewinnen und die Entscheidungsfindung zu unterstützen. Um verschiedene Use Cases für Unternehmensdaten zu ermöglichen, verdichten, extrapolieren und visualisieren Analystinnen und Analysten sie in leicht verständlichen Diagrammen und Grafiken.

Unternehmen nutzen verschiedene Strategien zum Sammeln von Daten zur Analyse. Gängige Kanäle zur Datenerfassung sind beispielsweise:

Alle aus diesen und anderen Quellen erfassten Daten werden in eine oder zwei allgemeine Kategorien gruppiert – quantitativ oder qualitativ.

Nachdem die Daten erfasst, klassifiziert und organisiert wurden, können sie mit einer Vielzahl an hochentwickelten Datenanalysetechniken wie Regressionsanalysen, Faktorenanalysen und Dispersionsanalysen untersucht werden.

Quantitative und qualitative Daten im Vergleich.

Quantitative Daten, die auch als strukturierte Daten bezeichnet werden, sind messbare Informationen. Alle quantitativen Daten beziehen sich auf statistische, mathematische und numerische Variablen und Analysen.

Im Gegensatz dazu bezeichnen qualitative Daten nicht-numerische Variablen wie Bilder, Videos, Interviews und Kommentare.

Qualitative Daten, die auch als „unstrukturierte Daten“ bezeichnet werden, lassen sich nicht objektiv messen. Sie werden häufig nach gemeinsamen Themen organisiert.

12 gängige Datenanalysemethoden.

Es gibt zahlreiche Methoden zur Datenanalyse. Im Folgenden stellen wir einige der nützlichsten Datenanalysemethoden vor und zeigen Beispiele für ihre Nutzung, damit ihr die richtige Methode für euren Datensatz wählen könnt.

Unsere Liste der 12 gängigen Datenanalysemethoden umfasst diese Ansätze:

1. Regressionsanalyse.

Regression analysis

Die Regressionsanalyse ist eine Analysetechnik für quantitative Daten, mit der Unternehmen die Beziehung zwischen abhängigen und unabhängigen Variablen modellieren können. Mit der Regressionsanalyse können mehrere unabhängige Variablen untersucht werden.

Bei der Regressionsanalyse werden abhängige Variablen gemessen. Im Gegensatz dazu sind unabhängige Variablen Faktoren, die sich auf die abhängige Variable auswirken können.

So könnten Restaurantbetreibende untersuchen, wie sich das Wetter auf die Anzahl der Essensbestellungen auswirkt. In diesem Szenario ist das Wetter die unabhängige Variable, die Anzahl der Auslieferungen dagegen die abhängige Variable.

Regressionsanalysen gehören zu den gängigsten Datenanalysemethoden, weil Unternehmen damit Erkenntnisse dazu gewinnen können, wie eine Variable sich auf andere auswirkt.

Diese Technik wird insbesondere für Finanzprognosen, Data-driven Marketing sowie für einige andere Use Cases eingesetzt. Wenn Unternehmen die unabhängigen Variablen identifizieren, die sich auf ihre Performance auswirken, können sie Maßnahmen zum Minimieren der Auswirkungen dieser veränderlichen Faktoren treffen, nebensächliche Einflüsse begrenzen und die gewünschten Ergebnisse erreichen.

2. Faktorenanalyse.

Die Faktorenanalyse ist eine spezielle Variante der Regressionsanalyse und kann für quantitative oder qualitative Daten genutzt werden.

Mithilfe diese Technik können neue, unabhängige Faktoren identifiziert werden. Anschließend können Analystinnen und Analysten mithilfe dieser Faktoren Muster beschreiben und Beziehungen zwischen den ursprünglichen, abhängigen Variablen modellieren.

Die Faktorenanalyse eignet sich zur Untersuchung der Beziehungen zwischen Variablen in komplexen Feldern, z. B. bei sozioökonomischen oder psychologischen Trends. So könnten Marketing-Fachleute mit der Faktorenanalyse unabhängige Variablen identifizieren, die zu geringeren Verkäufen in sozioökonomischen Gruppen in ihrem Zielmarkt führen.

Die Faktorenanalyse ist nicht nur eine hervorragende eigenständige Datenanalysemethode, sondern kann auch als Vorstufe für andere Techniken wie Klassifizierung und Clustering dienen.

Bevor Datensätze klassifiziert oder geclustert werden können, benötigen Analystinnen und Analysten ein klares Bild aller Variablen, die Auswirkungen auf die Rohdaten haben können. Nur dann können sie die Auswirkungen dieser Variablen einschätzen und überwachen.

3. Kohortenanalyse.

Eine Kohortenanalyse ist eine quantitative Technik, bei der Subjekte in Kohorten gruppiert werden. Diese Methode wird in erster Linie als Hilfsmittel zur Verhaltensanalyse verwendet.

Um Personen in Kohorten zu klassifizieren, sucht das Modell nach gemeinsamen Eigenschaften oder Erfahrungen. Analystinnen und Analysten können so Personen in Zielgruppensegmenten nach Ähnlichkeiten gruppieren und nach gemeinsamen Verhaltens-Trends suchen.

Beispielsweise kann eine Einzelhandelsmarke mit Ladengeschäften mithilfe einer Kohortenanalyse feststellen, welche Verkaufskanäle bei unterschiedlichen Altersgruppen am beliebtesten sind.

Im Rahmen ihrer Untersuchung könnten Analystinnen und Analysten Daten zu allen Käufen aus den letzten sechs Monaten erfassen. Anschließend wäre es möglich, die Kundschaft basierend auf ihrer Kaufart (z. B. online, per Social Media oder im Geschäft vor Ort) zu gruppieren und das Durchschnittsalter jeder Kohorte zu ermitteln.

Im oben beschriebenen Beispiel würden Forschende mithilfe einer Kohortenanalyse feststellen, welche Altersgruppen welche Kaufmethoden bevorzugen, um diese Informationen für zukünftige Marketing-Maßnahmen zu verwenden und für jedes Segment kuratierte Werbeinhalte bereitzustellen.

4. Cluster-Analyse.

cluster analysis

Cluster-Analysen sind eine weitere gängige, quantitative Methode. Ebenso wie bei der Faktormethode wird bei der Cluster-Analyse versucht, in einem Datensatz verschiedene Strukturen zu finden. Dabei werden unterschiedliche Datenpunkte in Gruppen sortiert, die extern heterogen und intern homogen sind.

Mit anderen Worten: Alle Datenpunkte in einem Cluster sind ähnlich, unterscheiden sich jedoch von den Datenpunkten anderer Cluster.

Mithilfe von Cluster-Analysen werden meist Trends an bestimmten geografischen Standorten untersucht. Marketing-Fachleute nutzen sie auch häufig zur Gruppierung großer Kundenstämme in spezifische Segmente.

Beispielsweise könnte ein Marketing-Team anhand von Cluster-Analysen überprüfen, warum es bei Facebook eine hohe Rendite auf Werbeausgaben erreicht, auf Instagram aber nicht. Allerdings liefert diese Methode keinen umfassenden Überblick über das Problem.

Cluster-Analysen können bestimmte Muster innerhalb von Daten aufdecken, jedoch nicht erklären, was sie bedeuten oder darstellen.

5. Zeitreihenanalyse.

Wenn Unternehmen einen großen Datensatz im Zeitkontext untersuchen, nutzen sie dazu häufig Zeitreihenanalysen, eine quantitative Methode, mit der sich zeitabhängige Datenreihen modellieren lassen. Das Ziel ist, aussagekräftige Datenpunkte wie Regeln, Muster oder Statistiken zu erhalten.

Analystinnen und Analysten können Vorhersagen zu zukünftigen Ereignissen treffen, indem sie dieselbe Variable an verschiedenen Punkten messen.

Das bietet Einzelhändlern beispielsweise die Möglichkeit, Verkaufsvolumen von Winteraktionen im Verlauf von fünf Jahren zu analysieren. Wenn die Verkäufe der letzten fünf Jahre innerhalb der zweiten Novemberwoche in die Höhe geschnellt sind, können die Einzelhändler zuverlässig vorhersagen, dass die Verkäufe während der anstehenden Vorweihnachtszeit etwa zur gleichen Zeit steigen werden.

Wenn ihr wisst, was in der Zukunft wahrscheinlich geschehen wird, kann das euer Marketing und eure Bestandsverwaltung beeinflussen.

Wenn wir beim oben genannten Beispiel bleiben, können Einzelhändler einige Wochen vor der Zunahme in der Vorweihnachtszeit die Werbung steigern, um mehr Traffic zu generieren. Ebenso kann das Bestands-Management den Warenbestand erhöhen, um sich auf die Steigerung der Verkäufe vorzubereiten und Lieferengpässen vorzubeugen.

6. Diskursanalyse.

Die Diskursanalyse ist eine qualitative Methode, um die Menschen besser zu verstehen, indem ihre Ausdrucksweise untersucht wird.

Es gibt viele verschiedene Möglichkeiten zur Strukturierung eines Diskursanalysemodells und zur Erfassung des Diskurses.

Durch die Zunahme von Social Media ist es für Analystinnen und Analysten leichter geworden, Daten für die Diskursanalyse zu sammeln. Heute ist es für die Forschung einfacher, zu analysieren, wie sich Menschen im Kommentarbereich der Social-Media-Postings einer Marke ausdrücken. Dabei können Vokabular, Einstellungen und Urteilsvermögen mit den Äußerungen verglichen werden, die sie auf einer externen Rezensionsplattform getätigt haben.

Durch die Analyse des Online-Diskurses für diese beiden sehr unterschiedlichen Kanäle können die generellen Meinungen von Social-Media-Followerinnen und -Followern mit Produktnutzenden verglichen werden, die Rückmeldungen auf unabhängigen Plattformen hinterlassen.

7. Monte-Carlo-Simulation.

Als quantitatives Modell und Predictive-Analytics-Tool wird die Monte-Carlo-Simulation häufig für Prognosen der potenziellen Ergebnisbereiche einer Variable verwendet.

Bei diesem Modell weisen Analystinnen und Analysten der untersuchten Variable einen zufällig gewählten Wert zu, der innerhalb bestimmter möglicher Ergebnisse liegt. Anschließend überprüfen sie in einer Simulation, wie das Ergebnis wäre, wenn die unabhängige Variable auf diesen Wert festgelegt würde.

Die Simulation wird immer wieder durchgeführt, wobei die Variable jedes Mal geändert wird, um ein anderes Ergebnis zu erzielen. Nachdem sie alle potenziellen Werte der möglichen Ergebnisverteilung überprüft haben, führen sie ihre Ergebnisse zusammen und ziehen Schlussfolgerungen.

Ein einfaches Beispiel der Monte-Carlo-Simulation ist die Berechnung der Ergebnisverteilung, wenn ihr mit zwei Standardwürfeln würfelt. Da es 36 mögliche Kombinationen gibt, könnt ihr die Wahrscheinlichkeit jedes Zahlenpaars berechnen.

Je häufiger ihr die Simulation durchführt, desto genauer wird die Prognose. Das bedeutet, dass ihr den Wurf mehrere tausend Mal simulieren solltet, um möglichst zuverlässige Ergebnisse zu erhalten.

8. Dispersionsanalyse.

Eine Dispersionsanalyse kann sowohl für qualitative als auch für quantitative Daten durchgeführt werden. Diese Methode wird wesentlich seltener eingesetzt als die anderen hier vorgestellten Techniken, spielt bei der Untersuchung großer Datensätze jedoch immer noch eine wichtige Rolle. Die Technik ermittelt die Verteilung eines bestimmten Datensatzes, um die Variabilität zu bewerten.

Meist umfasst eine Dispersionsanalyse zwei Arten von Verteilungen.

Erstens stellt ein Dispersionsanalysemodell die Variation zwischen den Datenpunkten selbst dar. Damit wird die Variation zwischen den Extremen des Datensatzes und dem Durchschnittswert erklärt. Bei einem großen Unterschied ist die Dispersion hoch.

Die Dispersion wird häufig zur Ermittlung von Risiken genutzt. Wenn ein Venture-Capital-Unternehmen seine Due-Diligence-Prüfungen durchführt und das Risiko einer bestimmten Investition bewerten will, kann es dazu eine Dispersionsanalyse verwenden.

In diesem Szenario sehen sich Analystinnen und Analysten die Rendite oder Verluste der Investition im Laufe der Zeit an. Wenn die Investition eine Rendite von 1,2 im letzten Monat und einen Verlust von 0,5 im Monat davor hat, wird die Dispersion als relativ niedrig eingestuft.

9. Neuronales-Netz-Analyse.

Neuronales-Netz-Analysen sind hochentwickelt und vielseitig und können für qualitative sowie quantitative Daten genutzt werden.

Diese Analyse zieht mit maschinellem Lernen und künstlicher Intelligenz Rückschlüsse und untersucht Daten, indem sie den menschlichen Verstand simuliert. Je mehr Daten zur Verfügung stehen, desto effektiver können neuronale Netze Trends aufdecken und Muster identifizieren.

Ebenso wie viele andere Tools, die maschinelles Lernen nutzen, können neuronale Netze aus Versuch und Irrtum lernen. Wenn das Netz Daten empfängt, trifft es Prognosen, testet ihre Genauigkeit und optimiert seine Vorhersagen, bevor es den Prozess von Neuem beginnt. Ein neuronales Netz kann diesen Zyklus aus Analyse, Verifizierung und Modifikation kontinuierlich durchführen.

Als eine der fortschrittlichsten Datenanalysetechniken werden neuronale Netze auch im Finanzsektor genutzt, um Marktbedingungen vorherzusagen, Risiken zu analysieren und die Entscheidungsfindung zu unterstützen. Aufgrund der kontinuierlichen Fortschritte bei der Technologie für maschinelles Lernen werden diese Systeme in naher Zukunft vermutlich noch stärker verbreitet sein.

10. Sentiment-Analyse.

Eine Sentiment-Analyse, die auch als Textanalyse bezeichnet wird, ist eine qualitative Analyse, die Einblick in das Gehirn von Verbraucherinnen und Verbrauchern geben und deren Meinung zeigen soll.

Textanalysemodelle nutzen zuverlässige Algorithmen, die bestimmte Wörter oder Phrasen mit Gefühlen, Meinungen oder Gedanken assoziieren. Mithilfe dieser Erkenntnisse ziehen Unternehmen Schlussfolgerungen zur Meinung ihrer Kundinnen und Kunden zu Themen, Produkten, Werbung und anderen kundenorientierten Markenelementen.

Marketing-Fachleute können mit Sentiment-Analysen die Reaktion von Verbraucherinnen und Verbrauchern auf Produkte und Inhalte ermitteln.

Wenn eine Marke beispielsweise ihre erste Social-Media-Anzeige für ein neues Flagship-Produkt gestartet hat, kann sie mit Sentiment-Analyse-Tools die Meinung der Verbraucherinnen und Verbraucher zum Produkt ermitteln.

Das Interpretieren der Ergebnisse dieses Analysetyps ist relativ unkompliziert. Wenn der Kommentarbereich voller positiver Worte und Phrasen ist und der Beitrag viele Likes oder andere wünschenswerte Reaktionen erhält, können Analystinnen und Analysten vernünftigerweise schlussfolgern, dass das Produkt gut angenommen wird.

Unter Datenanalysen versteht man das Sammeln, Organisieren und Interpretieren von Daten, um verwertbare geschäftliche Erkenntnisse zu gewinnen und die Entscheidungsfindung zu unterstützen.

11. Grounded-Theory-Analyse.

Die Grounded-Theory-Analyse ist eine qualitative Methode, die sich auf die Entwicklung von Theorien basierend auf bereits gesammelten Daten konzentriert. Im Gegensatz dazu nutzen konventionelle Methoden einen bestätigenden Ansatz, bei dem Forscherinnen und Forscher eine Hypothese formulieren, bevor sie Daten sammeln und versuchen, die Theorie zu bestätigen oder zu widerlegen.

Die Grounded-Theory-Analyse nutzt strenge Regeln und Verfahren, um Bestätigungsfehler zu minimieren. Wenn Analystinnen und Analysten diesen Verfahren folgen, bleiben sie geerdet (engl. grounded).

So könnte eine Personalabteilung mithilfe der Grounded-Theory-Analyse untersuchen, warum ihr Unternehmen Schwierigkeiten hat, bestimmte Stellen zu besetzen.

Sobald die Analystinnen und Analysten die zu untersuchende Herausforderung identifiziert haben, können sie Daten sammeln, indem sie Interviews führen und das Verhalten von Angestellten beobachten. Anschließend analysieren sie diese Daten, um die potenziellen Ursachen für die Besetzungsschwierigkeiten festzustellen.

Hier erweist sich das Grounded-Theory-Analysemodell als nützlich, weil Forschende damit geschäftliche Herausforderungen untersuchen können, bevor sie eine Hypothese zur Ursache formulieren. Dies zerstreut vorgefasste Meinungen und verhindert, dass Unternehmen Zeit und Ressourcen mit der Behebung nicht existenter Probleme verschwenden.

12. Diskriminanzanalyse.

Beim Datamining ist die Diskriminanzanalyse, eine quantitative Technik, eine der nützlichsten Methoden zur Klassifizierung von Daten.

Unter diesem Modell messen Analystinnen und Analysten mehrere unabhängige Variablen, um zu ermitteln, in welcher Gruppe ein Datenelement platziert werden sollte. Der grundsätzliche Zweck von Diskriminanzanalysen besteht darin, jede Beobachtung basierend auf ihren unabhängigen Eigenschaften einer Kategorie oder Gruppe zuzuweisen.

Finanzinstitute können mithilfe von Diskriminanzanalysen Kreditantragstellende basierend auf einer Reihe unabhängiger Variablen in Kategorien für hohes und niedriges Risiko unterteilen. Bei dieser Klassifizierung berücksichtigen die Analystinnen und Analysten Faktoren wie die Kreditwürdigkeit der Antragstellenden, ihre Kredithistorie, das durchschnittliche Jahreseinkommen, aktuelle Schulden sowie das Verhältnis zwischen Einkommen und Schulden.

Wie bei allen anderen Analysemethoden auch hängt die Effektivität von Diskriminanzanalysen erheblich von der Qualität und Quantität der verwendeten Daten ab. Wenn ein Finanzinstitut beispielsweise lediglich das jährliche Einkommen und nicht das Verhältnis zwischen Einkommen und Schulden oder die Kredithistorie berücksichtigt, können die Ergebnisse erheblich verzerrt werden.

In diesem Szenario würden Personen mit hohem Einkommen in der Kategorie mit geringem Risiko platziert, selbst wenn sie eine geringe Kreditwürdigkeit oder ein schlechtes Einkommen/Schulden-Verhältnis haben. Umgekehrt könnten Personen mit niedrigem Einkommen als hohes Risiko eingestuft werden, selbst wenn sie eine hervorragende Kreditwürdigkeit und geringe oder keine Schulden haben.

Analysieren von Daten mit Adobe Analytics.

Datenanalysen sind eine wichtige Methode zur Gewinnung verwertbarer Erkenntnisse und zur Ermittlung relevanter Strategien innerhalb von Benutzerdaten.

Selbst einfache Datenanalysemethoden können die Entscheidungsfindung erleichtern und bessere Geschäftsergebnisse ermöglichen. Das volle Potenzial eurer Daten könnt ihr jedoch nur durch die Implementierung der fortschrittlichen Analysetechniken erschließen, die wir oben vorgestellt haben.

Wenn ihr innovative Datenanalysemethoden nutzen möchtet, wählt einen aktuellen Datensatz aus und überprüft, ob es sich um quantitative oder qualitative Daten handelt. Das gibt euch einen Ausgangspunkt für die Wahl der Analysetechnik, die sich für euren Datensatz am besten eignet.

Im nächsten Schritt stellt ihr eurem Analyse-Team die Möglichkeiten von Adobe Analytics zur Verfügung. Mit diesem zuverlässigen Tool können eure Benutzenden segmentiert und Daten aus verschiedenen Quellen analysiert werden. Adobe Analytics nutzt maschinelles Lernen und künstliche Intelligenz für prädiktive Analysen sowie zum Identifizieren von Mustern im Nutzungsverhalten.

Seht euch das Übersichtsvideo an oder fordert eine Demo an, um mehr darüber zu erfahren, wie ihr Daten mit Adobe Analytics analysiert und Informationen für Strategien nutzt.