Mintel wendet zahlreiche quantitative und qualitative Datenanalysetechniken an, um den Wert unserer Verbraucherforschung zu erhöhen. Die verwendeten Techniken variieren von einem Report zum anderen. Dieser Artikel gibt Ihnen einen Überblick über die gängigsten Techniken, die unsere Fachanalysten bei der Erstellung ihrer Reports einsetzen.
📌 Hinweis: Erfahren Sie mehr über unsere Forschungsmethoden, indem Sie diesen Artikel lesen.
💡 Tipp: Als Abonnent von Mintel Reports können Sie alle Reports innerhalb Ihres Abonnements finden, indem Sie auf der Startseite von Insights denFilter Report content type anwenden.
Repertoire-Analyse
Diese Technik wird verwendet, um Verbrauchergruppen auf der Grundlage der angegebenen Verhaltensweisen oder Einstellungen zu bilden. Die Antworten der Verbraucher auf eine Liste von Umfrageelementen werden in einer einzigen Repertoire-Variablen zusammengefasst. Die Repertoire-Variable fasst die Anzahl der Vorkommnisse in der Liste der Umfrageelemente zusammen.
📝 Beispiel: Ein Repertoire zum Markenkauf könnte Gruppen von Personen ergeben, die 1-2 Marken, 3-4 Marken und 5 oder mehr Marken kaufen. Jede Untergruppe sollte groß genug sein (d. h. N=75+), um analysiert werden zu können.
Cluster-Analyse
Bei dieser Segmentierungstechnik werden einzelne Personen auf der Grundlage ihrer Antworten in der Umfrage in Gruppen, so genannte Cluster, eingeteilt, so dass die Befragten innerhalb desselben Clusters einander in gewisser Weise näher oder ähnlicher sind als die Befragten, die einem anderen Cluster zugeordnet wurden.
Mintel verwendet in der Regel einen zweistufigen Ansatz für das Clustering.
Faktorenanalyse, um eine Reihe von Einstellungsfragen auf eine reduzierte Anzahl von Faktoren zu reduzieren.
K-Means-Cluster-Analyse, um die Befragten auf der Grundlage ihrer Antwortmuster bei den Faktoren in Segmente einzuteilen.
Korrespondenzanalyse
Diese statistische Visualisierungsmethode wird verwendet, um die Assoziationen zwischen Zeilen (z. B. Image, Attribute) und Spalten (z. B. Marken, Produkte) einer zweiseitigen Kontingenztabelle in einer Wahrnehmungskarte darzustellen, die durch die Interpretation von Näherungen leicht zu verstehen ist.
Die Signifikanz der Beziehung zwischen einer Marke und dem zugehörigen Attribut wird z. B. mit dem Chi-Quadrat-Test gemessen. Wenn zwei Marken ähnliche Muster in Bezug auf ihre zugehörigen Attribute aufweisen, werden ihnen ähnliche Werte auf den zugrundeliegenden Dimensionen zugewiesen und sie werden in der Wahrnehmungskarte nahe beieinander angezeigt.
CHAID-Analyse
Eine CHAID-Analyse (Chi-squared Automatic Interaction Detection) wird verwendet, um wichtige Zielgruppen in einer Stichprobe hervorzuheben, indem ermittelt wird, welche Untergruppe am ehesten ein bestimmtes Merkmal aufweist (z. B. Interesse am Ausprobieren eines neuen Produkts).
Dabei wird die Stichprobe in eine Reihe von Untergruppen mit ähnlichen Merkmalen (z. B. Alter, Geschlecht) unterteilt, und es kann ermittelt werden, welche Kombination von Merkmalen die höchste Antwortquote für die Zielvariable (z. B. Interesse am Ausprobieren eines neuen Produkts) aufweist. Die erste Prädiktorenkategorie, nach der die Stichprobe aufgeteilt wird (z. B. Alter), ist am stärksten mit der Antwortvariablen assoziiert, d. h. sie ergibt die am stärksten differenzierten Gruppen von Befragten. Jede Untergruppe wird dann weiter aufgeteilt, bis die Analyse keinen signifikant diskriminierenden Prädiktor mehr findet.
Das Ergebnis ist ein Baum, dessen Zweige die Prädiktorvariablen sind, die die Stichprobe in diskriminierende Gruppen aufteilen.
Schlüsselfaktoren-Analyse
Eine Schlüsselfaktoren-Analyse wird verwendet, um verschiedene Faktoren zu identifizieren und zu priorisieren, die sich auf die Einstellung und das Verhalten der Verbraucher auswirken können (z. B. Kundenzufriedenheit, Wahrscheinlichkeit, eine Marke weiterzuempfehlen oder den Anbieter zu wechseln), indem ihre relative Bedeutung bewertet wird. Dies kann entweder durch eine logistische Regression oder eine Korrelationsanalyse erreicht werden.
Die logistische Regression ist eine prädiktive Analyse zur Ermittlung der Beziehung zwischen einer abhängigen Variablen (z. B. Kundenzufriedenheit) und einer oder mehreren unabhängigen Variablen (z. B. Qualität des Kundendienstes, Produktpalette).
Die Korrelationsanalyse beschreibt die Stärke und Art der Beziehung zwischen einer abhängigen Variable von Interesse (z. B. allgemeine Kundenzufriedenheit) und einer oder mehreren unabhängigen Variablen (z. B. Zufriedenheit mit dem Kundenservice, Produktangebot).
TURF-Analyse
Eine TURF-Analyse (Total Unduplicated Reach & Frequency) identifiziert den Mix aus Merkmalen, Attributen oder Botschaften, der die größte Anzahl einzigartiger Befragter anzieht. Sie wird in der Regel verwendet, wenn die Anzahl der Merkmale oder Attribute begrenzt werden muss oder sollte, aber dennoch ein möglichst breites Publikum erreicht werden soll. Durch die Ermittlung der Total Unduplicated Reach ist es möglich, die Anzahl der Personen zu maximieren, die eines oder mehrere ihrer bevorzugten Merkmale oder Attribute in der Produktlinie finden.
Das Ergebnis von TURF ist additiv, wobei jedes zusätzliche Merkmal die Gesamtreichweite erhöht. Das Diagramm wird von links nach rechts gelesen, wobei jeder Pfeil die inkrementelle Veränderung der Gesamtreichweite beim Hinzufügen eines neuen Merkmals, Attributs usw. angibt. Der letzte Balken stellt die maximale Reichweite der Gesamtpopulation dar, wenn alle angezeigten Merkmale, Attribute usw. angeboten werden.
Analyse der Preissensitivität
Mit der Preissensitivitätsanalyse lässt sich messen, wie der Preis eines Produkts das Kaufverhalten der Verbraucher beeinflusst. Die Analyse hilft bei der Ermittlung des idealen Preises sowie eines Bereichs akzeptabler Preise für eine bestimmte Ware oder Dienstleistung bei den Verbrauchern. Es werden verschiedene Preispunkte ermittelt.
Der "Point of Marginal Cheapness" (PMC) ist der Punkt, an dem die Wahrnehmung der Produktqualität zu sinken beginnt. Eine Preisgestaltung unterhalb dieses Wertes kann sich nachteilig auf den Absatz der Produktlinie auswirken.
Der Grenzkostenpunkt (Point of Marginal Expensiveness, PME) ist der Preispunkt, an dem die Verbraucher den Wert des Produkts angesichts der Kosten in Frage stellen. Die Vermarktung oberhalb dieses Preispunktes kann sich ebenfalls nachteilig auf den Absatz der Produktlinie auswirken.
Optimaler Preispunkt (OPP) ist der Preispunkt, bei dem eine gleiche Anzahl von Verbrauchern das Gefühl hat, dass der Preis entweder ihre obere oder untere Kostengrenze überschreitet.
Die Bandbreite akzeptabler Preise (Range of Acceptable Prices, RAP) ist die Preisspanne, in der die Verbraucher erwarten, was ein Produkt oder eine Dienstleistung kosten sollte.
Die aggregierten Preispunkte werden in Preiskarten eingezeichnet, um die oberen und unteren Preisschwellen sowie den optimalen Preispunkt (OPP) anzugeben.
Statistische Prognosen
Statistische Modellierung
Für die meisten Reports für die USA, Kanada, das Vereinigte Königreich, Deutschland und China erstellt Mintel zentrale Fünfjahresprognosen auf der Grundlage von "Regression mit ARIMA-Fehlern", einer Kombination aus zwei einfachen, aber leistungsstarken statistischen Modellierungstechniken: Regression und ARIMA (Auto-Regressive Integrated Moving Average). Mit Hilfe der Regression können wir die Marktgrößen anhand exogener Informationen (z. B. BIP, Arbeitslosigkeit) modellieren und somit vorhersagen. Mit ARIMA lassen sich Marktgrößen anhand endogener Informationen (verzögerte Werte) modellieren. Zur Schätzung dieser Art von Modellen verwendet Mintel die Software R.
Historische Marktgrößendaten, die in jede Prognose einfließen, werden in Mintels eigener Marktgrößendatenbank gesammelt und durch makro- und sozioökonomische Daten ergänzt, die von Organisationen wie der Economist Intelligence Unit und dem Office for Preiswert Responsibility stammen.
Im Rahmen des Prognoseprozesses analysieren wir die Beziehungen zwischen den tatsächlichen Marktgrößen und einer Auswahl wichtiger wirtschaftlicher und demografischer Determinanten (unabhängige Variablen), um diejenigen Prädiktoren zu ermitteln, die den größten Einfluss auf den Markt haben.
Die in einer Prognose verwendeten Faktoren werden im entsprechenden Abschnitt des Berichts zusammen mit einer Interpretation ihrer Rolle bei der Erklärung der Nachfrageentwicklung für das betreffende Produkt oder den betreffenden Markt angegeben.
Qualitative Einblicke
Wir bei Mintel sind uns bewusst, dass historische Daten nur begrenzt in der Lage sind, den zukünftigen Zustand von Märkten zu bestimmen. Daher spielen umfangreiche qualitative Insights von Branchenexperten über zukünftige Ereignisse, die sich auf verschiedene Märkte auswirken könnten, eine unschätzbare Rolle in unserem poststatistischen Modellierungsprozess.
Infolgedessen ergänzt die Mintel Prognose einen rigorosen statistischen Prozess mit tiefgreifenden Marktkenntnissen und Fachwissen, um zusätzliche Faktoren oder Marktbedingungen zu berücksichtigen, die außerhalb der Kapazität der statistischen Prognose liegen.
Das Mintel-Fächergramm
Prognosen über zukünftige wirtschaftliche Ergebnisse sind immer mit Unsicherheiten behaftet. Um das Bewusstsein unserer Kunden zu schärfen und diese Unsicherheit zu verdeutlichen, zeigt Mintel Prognosen zur Marktgröße in Form eines Fächerdiagramms an.
Das Fächerdiagramm zeigt die tatsächliche Marktgröße für die letzten 5 oder 6 Jahre, in einigen Fällen eine Schätzung für das laufende Jahr, eine zentrale Prognose für den 5-Jahres- oder 6-Jahres-Horizont (resultierend aus statistischer Modellierung und qualitativen Erkenntnissen) und die Vorhersageintervalle der Prognose (resultierend aus statistischer Modellierung).
Die Prognoseintervalle stellen den Wertebereich dar, in den die tatsächliche zukünftige Marktgröße mit einer bestimmten Wahrscheinlichkeit fallen wird.
Eine allgemeine Schlussfolgerung: Auf der Grundlage unseres derzeitigen Wissens über die gegebenen historischen Marktgrößendaten sowie die Projektionen für die wichtigsten makro- und sozioökonomischen Messgrößen, die zur Erstellung der Prognose verwendet wurden, können wir sagen, dass die künftige tatsächliche Marktgröße mit einer Wahrscheinlichkeit von 95 % in den schattierten Fächer fallen wird. Es besteht eine geringe Wahrscheinlichkeit von 5 %, dass die künftige Marktgröße außerhalb dieser Grenzen liegt.
Da 95 % in den meisten Anwendungen der Schwellenwert ist, der definiert, ob wir ein statistisches Ergebnis akzeptieren oder ablehnen können, können die äußeren Grenzen des 95 %-Vorhersageintervalls als der beste und der schlechteste Fall der Prognose angesehen werden.
Analogie zum Wetter
Um die Unsicherheit von Prognosen an einem alltäglichen Beispiel zu verdeutlichen, nehmen wir an, dass die folgende Wettervorhersage auf der Grundlage des aktuellen Wissens der Meteorologen über die Wetterlage der letzten Tage, atmosphärische Beobachtungen, eintretende Wetterfronten usw. erstellt wurde.
Wie sicher können wir nun sein, dass die Temperatur am Samstag tatsächlich 15°C betragen wird?
Die Aussage, dass die Temperatur im Zentrum Londons am Samstag genau 15 °C betragen wird, ist zwar möglich, aber man kann sich nicht zu 100 % darauf verlassen.
Die Aussage, dass die Temperatur am Samstag zwischen 14°C und 17°C liegen wird, ist eine umfassendere Aussage und viel wahrscheinlicher.
Im Allgemeinen kann man sagen, dass man auf der Grundlage des bestehenden statistischen Modells zu 95 % sicher sein kann, dass die Temperatur am Samstag zwischen 14 °C und 17 °C liegen wird, und nur zu 50 % sicher, dass sie zwischen etwa 14,5 °C und 15,5 °C liegen wird. Schließlich gibt es eine geringe Wahrscheinlichkeit von 5 %, dass die tatsächliche Temperatur am Samstag außerhalb dieser Grenzen liegt und somit unter 14 °C oder über 17 °C liegt.
