Zum Hauptinhalt springen

Mintel Reports – Analysetechniken

Diese Woche aktualisiert

Mintel nutzt zahlreiche quantitative und qualitative Datenanalysetechniken, um den Wert unserer Verbraucherforschung zu steigern. Die verwendeten Techniken variieren von Bericht zu Bericht. Dieser Artikel gibt Ihnen einen Überblick über die gängigsten Techniken, die unsere Experten bei der Erstellung ihrer Reports verwenden.

📌 Hinweis: Weitere Informationen zu unseren Forschungsmethoden finden Sie in diesem Artikel.

💡 Tipp: Als Abonnent von Mintel Reports finden Sie alle Berichte innerhalb Ihres Abonnements, indem Sie den Filter „Inhaltsarten“ auf clients.mintel.com anwenden.


Mintel setzt zahlreiche quantitative Datenanalysetechniken ein, um den Wert unserer Konsumforschung zu steigern. Welche Techniken dazu verwendet werden, variiert von Bericht zu Bericht. Im Folgenden werden einige der am häufigsten verwendeten Techniken beschrieben.

Repertoire-Analyse

Die Repertoire-Analyse wird verwendet, um basierend auf dem berichteten Verhalten oder berichteten Einstellungen Verbrauchergruppen zu erstellen. Verbraucherantworten, die auf einer Liste von Umfrageelementen demselben Wert (oder derselben Werteliste) entsprechen, werden in einer einzelnen Variablen zusammengefasst. Die Repertoire-Variable fasst die Häufigkeit zusammen, mit der der Wert bzw. die Werte in einer Liste mit Umfrageelementen auftauchen. So könnte beispielsweise ein Markenkauf-Repertoire Gruppen aufdecken, die 1–2 Marken, 3–4 Marken und 5 oder mehr Marken kaufen. Jede Untergruppe sollte groß genug sein (dh n = 75+), um analysiert werden zu können.

Clusteranalyse

Bei diesem Vorgehen wird eine Reihe einzelner Personen auf Grundlage einer oder mehrerer beantworteter Fragen Gruppen zugeordnet, die als Cluster bezeichnet werden. Die Befragten innerhalb desselben Clusters stehen einander in gewisser Weise näher oder sind einander ähnlicher als die Befragten, die in einem anderen Cluster zusammengefasst wurden.

Korrespondenzanalyse

Hierbei handelt es sich um eine statistische Visualisierungsmethode zur Darstellung der Verbindungen zwischen Zeilen (Image, Einstellungen) und Spalten (Marken, Produkte, Segmente usw.) in einer bidirektionalen Kontingenztafel. Damit können wir für jede der in einer Umfrage behandelten Marken ihr Image (und/oder die Einstellungen der Verbraucher zu den Marken) auf kompakte, leicht verständliche Art und Weise darstellen. Die Bedeutung der Beziehung zwischen einer Marke und ihrem zugehörigen Image wird mit dem Chi-Quadrat-Test gemessen. Wenn zwei Marken in Bezug auf ihr wahrgenommenes Image ähnliche Reaktionsmuster erzielen, werden ihnen auf den zugrunde liegenden Dimensionen ähnliche Bewertungen zugewiesen und sie werden dann in der Wahrnehmungskarte nahe beieinander angezeigt.

CHAID-Analyse

Bei CHAID (Chi-Square Automatic Interaction Detection) handelt es sich um eine Entscheidungsbaumanalyse. Sie wird verwendet, um wichtige Zielgruppen aus einer Stichprobe hervorzuheben, indem ermittelt wird, welche Untergruppen mit größerer Wahrscheinlichkeit ein bestimmtes Merkmal aufweisen. Diese Analyse unterteilt die Stichprobe in eine Reihe von Untergruppen, die bei einer bestimmten Antwortvariablen ähnliche Merkmale aufweisen, und ermöglicht es uns so, zu identifizieren, welche Kombinationen für die Zielvariable die höchsten Antwortquoten aufweisen. Sie wird häufig verwendet, um die Beziehung zwischen einer interessierenden Variablen wie dem Interesse an der Erprobung eines neuen Produkts und anderen Merkmalen der Stichprobe, wie z. B. der demografischen Zusammensetzung, zu verstehen und zu visualisieren.

Schlüsseltreiber-Analyse

Die Analyse von Schlüsseltreibern kann ein nützliches Instrument sein, um die Schwerpunktverteilung auf verschiedene Faktoren zu erleichtern, die sich auf wichtige Leistungsindikatoren auswirken können (z. B. Zufriedenheit, Wahrscheinlichkeit eines Anbieterwechsels, Wahrscheinlichkeit einer Markenempfehlung). Mit Hilfe von Korrelations- oder Regressionsanalysen können wir verstehen, welche Faktoren oder Merkmale eines Marktes im Hinblick auf Key Performance Indicators (KPI, Leistungskennzahlen) am stärksten mit einer positiven Leistungsfähigkeit zusammenhängen oder verknüpft sind. Auf diese Weise können wir die Faktoren oder Merkmale identifizieren, die für eine Marktkategorie im Vergleich zu anderen relativ gesehen entscheidender sind, und so sicherstellen, dass häufig begrenzte Ressourcen gezielt für die Förderung der wesentlichen Markttreiber eingesetzt werden können.

TURF-Analyse

Bei der TURF-Analyse (Total Unduplicated Reach & Frequency) wird eine Mischung aus Funktionen, Merkmalen und/oder Botschaften identifiziert, die die größte Anzahl einzelner Befragter ansprechen wird. Sie wird in der Regel verwendet, wenn die Anzahl der Funktionen oder Merkmale eingeschränkt werden muss oder sollte, das Ziel jedoch weiterhin darin besteht, ein möglichst breites Zielpublikum zu erreichen. Durch die Ermittlung der nicht duplizierten Gesamtreichweite (Total Unduplicated Reach) ist es möglich, die Anzahl der Personen zu maximieren, die mindestens eine ihrer bevorzugten Funktionen oder Merkmale in der Produktlinie finden können. Die resultierende Ausgabe von TURF ist additiv, wobei jede zusätzliche Funktion die Gesamtreichweite erhöht. Das Diagramm wird von links nach rechts gelesen, wobei jeder Pfeil die schrittweise Änderung der Gesamtreichweite bei einer Ergänzung um eine weitere Funktion angibt. Der letzte Balken stellt die maximale Reichweite in der Gesamtbevölkerung dar, wenn alle angezeigten Funktionen angeboten werden.

Preissensitivitätsanalyse

Die Preissensitivitätsanalyse zeigt die Erwartungen der Verbraucher hinsichtlich der Preisgestaltung fertiger Produkte. Die Verbraucher wurden gebeten, einen Preispunkt für das fertige Produkt festzulegen. Die aggregierten Preispunkte werden dann auf sogenannten Preiskarten (Price Maps) visualisiert, um den Punkt der Preisuntergrenze (Point of Marginal Cheapness – PMC), den Punkt der Preisobergrenze (Point of Marginal Expensiveness – PME) sowie den optimalen Preispunkt (Optimal Price Point – OPP) aufzuzeigen.

Statistische Vorhersagen

Statistische Modellierung

Für die Mehrheit der Mintel Reports erstellt Mintel eine zentrale Fünf-Jahres-Prognose. Diese basiert auf „Regressionsanalysen mit ARIMA-Modellen für die Residuen“, einer Kombination aus zwei einfachen, aber aussagekräftigen statistischen Modellbildungsmethoden: Regression und ARIMA (Auto Regressive Integrated Moving Average, dt. autoregressiver integrierter gleitender Durchschnitt). Die Regression ermöglicht es uns, Marktgrößen mithilfe exogener Informationen (wie etwa BIP, Arbeitslosenrate) zu modellieren und somit zu prognostizieren. ARIMA erlaubt es uns, Marktgrößen anhand von endogenen Informationen (zeitlich verschobenen Variablen) zu modellieren. Um diese Art von Modell zu berechnen, nutzt Mintel die Software R.

Historische Daten zu Marktgrößen, die in jede Prognose einfließen, werden von Mintel in der eigenen Marktgrößen-Datenbank gesammelt und durch makro- und sozioökonomische Daten ergänzt, die von Organisationen wie The Economist Intelligence Unit (EIU) stammen.

Um innerhalb des Prognoseprozesses die Faktoren mit dem stärksten Einfluss auf den Markt zu identifizieren, analysieren wir Beziehungen zwischen tatsächlichen Marktgrößen und einer Auswahl an bedeutenden ökonomischen und demografischen Bestimmungsfaktoren (unabhängige Variablen).

Die Faktoren, die in eine Prognose einfließen, werden im entsprechenden Berichtsabschnitt aufgeführt und mit einer Interpretation ihrer Rolle in der Erklärung der Nachfrageentwicklung für das betreffende Produkt oder den betreffenden Markt ergänzt.

Qualitative Erkenntnisse

Wir bei Mintel sind uns bewusst, dass historische Daten nur begrenzt als einzige Kraft hinter der künftigen Marktlage fungieren können. Daher spielen umfassende, qualitative Erkenntnisse von Branchenexperten hinsichtlich zukünftiger Ereignisse, die sich auf verschiedene Märkte auswirken könnten, in unserem Evaluierungsprozess nach der statistischen Modellierung eine unschätzbare Rolle.

Somit ergänzt die Mintel-Prognose ein stringentes statistisches Verfahren um tiefgreifende Markt- und Fachkenntnisse, dank derer zusätzliche Faktoren oder Marktbedingungen berücksichtigt werden können, die außerhalb der Kapazitäten einer statistischen Prognose liegen.

Eine Grafik mit 3 Kreisen. Sie sind beschriftet mit Statistische Modellierung + Qualitative Erkenntnisse = Mintel-Prognose.

Das Mintel-Fächerdiagramm

Prognosen zukünftiger wirtschaftlicher Ergebnisse sind immer mit Unsicherheiten behaftet. Um unsere Kunden auf diese Unsicherheiten aufmerksam zu machen und diese zu veranschaulichen, stellt Mintel Marktgrößenprognosen in Form eines Fächerdiagramms dar.

Das Fächerdiagramm zeigt die tatsächliche Marktgröße für die vergangenen fünf oder sechs Jahre, in manchen Fällen eine Schätzung für das aktuelle Jahr, eine zentrale Prognose für die kommenden fünf oder sechs Jahre (basierend auf statistischer Modellierung und qualitativen Erkenntnissen) sowie die Prädiktionsintervalle für die Prognose (basierend auf statistischer Modellierung).

Die Prädiktionsintervalle stellen den Wertebereich dar, in den die tatsächliche zukünftige Marktgröße mit einer bestimmten Wahrscheinlichkeit fallen wird.

Als generelle Schlussfolgerung gilt: Basierend auf aktuellen Kenntnissen der historischen Marktgrößendaten sowie auf Vorhersagen für die Entwicklung bedeutsamer makro- und sozioökonomischer Faktoren, die zur Erstellung der Prognose verwendet wurden, können wir ableiten, dass die zukünftige tatsächliche Marktgröße mit einer Wahrscheinlichkeit von 95 % in den schattierten Fächerbereich des Diagramms fallen wird. Es besteht eine geringe Wahrscheinlichkeit von 5 %, dass die zukünftige tatsächliche Marktgröße diese Grenzlinien überschreiten wird.

In den meisten Anwendungsfällen ist ein Wert von 95 % der maßgebliche Grenzwert dafür, ob wir ein statistisches Ergebnis annehmen oder nicht. Entsprechend können die äußeren Grenzen des 95-prozentigen Prädiktionsintervalls als bester und schlechtester Prognosefall betrachtet werden.

Wetteranalogie

Um die Unsicherheit bei Prognosen mit einem alltäglichen Beispiel zu veranschaulichen, nehmen wir an, dass die folgende Wettervorhersage auf Grundlage des aktuellen Wissens von Meteorologen über die Wetterbedingungen der letzten Tage, atmosphärische Beobachtungen, heranziehende Wetterfronten usw. erstellt wurde.

Eine Veranschaulichung des Wetterberichts für die kommende Woche.

Wie sicher können wir sein, dass am Samstag tatsächlich 15 °C herrschen werden?

Man könnte behaupten, dass die Temperatur im Zentrum von London am Samstag auf genau 15 °C steigen wird, aber niemand kann hundertprozentig sicher sein, dass dies der Fall sein wird.

Zu sagen, dass die Temperatur am Samstag zwischen 14 °C und 17 °C liegen wird, ist eine weniger präzise Aussage, deren Eintreten viel wahrscheinlicher ist.

Basierend auf dem vorhandenen statistischen Modell können wir allgemein davon ausgehen, dass die Temperatur am Samstag mit einer Wahrscheinlichkeit von 95 % zwischen 14 °C und 17 °C liegen wird. Wir können jedoch nur zu 50 % sicher sein, dass sie zwischen 14,5 °C und 15,5 °C liegen wird. Abschließend besteht außerdem eine geringe Wahrscheinlichkeit von 5 %, dass die tatsächliche Temperatur am Samstag die Grenzlinien überschreitet und entweder unter 14 °C oder über 17 °C liegen wird.

Hat dies Ihre Frage beantwortet?