Mintel setzt zahlreiche quantitative und qualitative Datenanalysetechniken ein, um den Wert unserer Verbraucherforschung zu erhöhen. Die verwendeten Techniken variieren von einem Report zum anderen. Dieser Artikel gibt Ihnen einen Überblick über die gängigsten Techniken, die unsere Fachanalysten bei der Erstellung ihrer Reports einsetzen.
📌 Hinweis: Erfahren Sie mehr über unsere Forschungsmethoden, indem Sie diesen Artikel lesen.
💡 Tipp: Als Abonnent von Mintel Reports können Sie alle Reports innerhalb Ihres Abonnements finden, indem Sie denFilter Report content type auf clients.mintel.com anwenden.
Repertoire-Analyse
Mit dieser Methode werden Verbrauchergruppen auf der Grundlage des berichteten Verhaltens oder der Einstellungen gebildet. Verbraucherantworten mit demselben Wert (oder einer Liste von Werten) in einer Liste von Umfrageelementen werden in einer einzigen Variablen zusammengefasst. Die Repertoire-Variable fasst die Anzahl der Fälle zusammen, in denen der Wert oder die Werte in einer Liste von Umfrageelementen vorkommen.
📝 Beispiel: Ein Repertoire zum Markenkauf könnte Gruppen von Personen ergeben, die 1-2 Marken, 3-4 Marken und 5 oder mehr Marken kaufen. Jede Untergruppe sollte groß genug sein (d. h. N=75+), um analysiert werden zu können.
Cluster-Analyse
Diese Technik ordnet eine Reihe von Einzelpersonen auf der Grundlage einer oder mehrerer Antworten in Gruppen ein, die als Cluster bezeichnet werden, so dass die Befragten innerhalb desselben Clusters einander in gewisser Weise näher oder ähnlicher sind als die Befragten, die in einem anderen Cluster zusammengefasst wurden.
Korrespondenzanalyse
Hierbei handelt es sich um eine statistische Visualisierungsmethode zur Darstellung der Zusammenhänge zwischen Zeilen (Image, Einstellungen) und Spalten (Marken, Produkte, Segmente usw.) einer zweiseitigen Kontingenztabelle. Sie ermöglicht es uns, die Markenimages (und/oder die Einstellungen der Verbraucher gegenüber den Marken), die mit jeder in dieser Erhebung erfassten Marke verbunden sind, in einem gemeinsamen Raum darzustellen, der leicht zu verstehen ist. Die Signifikanz der Beziehung zwischen einer Marke und dem mit ihr verbundenen Image wird mit dem Chi-Quadrat-Test gemessen. Wenn zwei Marken ähnliche Antwortmuster in Bezug auf ihr wahrgenommenes Image aufweisen, werden ihnen ähnliche Werte auf den zugrundeliegenden Dimensionen zugewiesen und sie werden dann in der Wahrnehmungskarte nahe beieinander angezeigt.
CHAID-Analyse
CHAID (Chi-squared Automatic Interaction Detection), eine Art Entscheidungsbaum-Analyse, wird verwendet, um wichtige Zielgruppen in einer Stichprobe hervorzuheben, indem ermittelt wird, welche Untergruppen mit größerer Wahrscheinlichkeit ein bestimmtes Merkmal aufweisen. Diese Analyse unterteilt die Stichprobe in eine Reihe von Untergruppen, die ähnliche Merkmale in Bezug auf eine bestimmte Antwortvariable aufweisen, und ermöglicht es uns, die Kombinationen mit den höchsten Antwortquoten für die Zielvariable zu ermitteln. Sie wird üblicherweise verwendet, um die Beziehung zwischen einer interessierenden Variable, wie z. B. dem Interesse am Ausprobieren eines neuen Produkts, und anderen Merkmalen der Stichprobe, wie z. B. der demografischen Zusammensetzung, zu verstehen und zu visualisieren.
Schlüsselfaktoren-Analyse
Die Schlüsselfaktoren-Analyse kann ein nützliches Instrument sein, um Prioritäten zwischen verschiedenen Faktoren zu setzen, die sich auf wichtige Leistungsindikatoren (KPIs) auswirken, wie z. B. die Zufriedenheit, die Wahrscheinlichkeit, den Anbieter zu wechseln, und die Wahrscheinlichkeit, eine Marke weiterzuempfehlen. Mithilfe von Korrelations- oder Regressionsanalysen können wir herausfinden, welche Faktoren oder Attribute eines Marktes die stärkste Assoziation oder Verbindung mit einer positiven Leistung bei den KPIs haben. Auf diese Weise können wir feststellen, welche Faktoren oder Attribute in einer Marktkategorie im Vergleich zu anderen relativ kritischer sind, und sicherstellen, dass die oft begrenzten Ressourcen auf die wichtigsten Markttreiber konzentriert werden können.
TURF-Analyse
Die TURF-Analyse (Total Unduplicated Reach & Frequency) ermittelt den Mix aus Merkmalen, Attributen oder Botschaften, der die größte Anzahl eindeutiger Befragter anzieht. Sie wird in der Regel verwendet, wenn die Anzahl der Merkmale oder Attribute begrenzt werden muss oder sollte, aber dennoch ein möglichst breites Publikum erreicht werden soll. Durch die Ermittlung der Total Unduplicated Reach ist es möglich, die Anzahl der Personen zu maximieren, die eines oder mehrere ihrer bevorzugten Merkmale oder Attribute in der Produktlinie finden. Das Ergebnis von TURF ist additiv, d. h. jedes zusätzliche Merkmal erhöht die Gesamtreichweite. Das Diagramm wird von links nach rechts gelesen, wobei jeder Pfeil die inkrementelle Veränderung der Gesamtreichweite beim Hinzufügen eines neuen Merkmals angibt. Der letzte Balken stellt die maximale Reichweite der Gesamtpopulation dar, wenn alle gezeigten Merkmale angeboten werden.
Analyse der Preissensitivität
Die Preissensitivitätsanalyse zeigt die Erwartungen der Verbraucher in Bezug auf die Preisgestaltung für ein fertiges Produkt. Die Verbraucher wurden gebeten, einen Preispunkt für das fertige Produkt anzugeben. Die aggregierten Preispunkte werden dann auf Preiskarten aufgetragen, um den Punkt der marginalen Billigkeit (PMC), den Punkt der marginalen Kostspieligkeit (PME) sowie den optimalen Preispunkt (OPP) anzuzeigen.
Statistische Prognosen
Statistische Modellierung
Für die meisten Reports für die USA, Kanada, das Vereinigte Königreich, Deutschland und China erstellt Mintel zentrale Fünfjahresprognosen auf der Grundlage von "Regression mit ARIMA-Fehlern", einer Kombination aus zwei einfachen, aber leistungsstarken statistischen Modellierungstechniken: Regression und ARIMA (Auto-Regressive Integrated Moving Average). Die Regression ermöglicht die Modellierung und damit die Vorhersage von Marktgrößen anhand exogener Informationen (z. B. BIP, Arbeitslosigkeit). Mit ARIMA lassen sich Marktgrößen anhand endogener Informationen (verzögerte Werte) modellieren. Zur Schätzung dieser Art von Modellen verwendet Mintel die Software R.
Historische Marktgrößendaten, die in jede Prognose einfließen, werden in Mintels eigener Marktgrößendatenbank gesammelt und durch makro- und sozioökonomische Daten ergänzt, die von Organisationen wie der Economist Intelligence Unit und dem Office for Budget Responsibility stammen.
Im Rahmen des Prognoseprozesses analysieren wir die Beziehungen zwischen den tatsächlichen Marktgrößen und einer Auswahl wichtiger wirtschaftlicher und demografischer Determinanten (unabhängige Variablen), um diejenigen Prädiktoren zu ermitteln, die den größten Einfluss auf den Markt haben.
Die in einer Prognose verwendeten Faktoren werden im entsprechenden Abschnitt des Berichts zusammen mit einer Interpretation ihrer Rolle bei der Erklärung der Nachfrageentwicklung für das betreffende Produkt oder den betreffenden Markt angegeben.
Qualitative Einblicke
Wir bei Mintel sind uns bewusst, dass historische Daten nur begrenzt in der Lage sind, den zukünftigen Zustand von Märkten zu bestimmen. Daher spielen umfangreiche qualitative Insights von Branchenexperten über zukünftige Ereignisse, die sich auf verschiedene Märkte auswirken könnten, eine unschätzbare Rolle in unserem poststatistischen Modellierungsprozess.
Infolgedessen ergänzt die Mintel-Prognose einen rigorosen statistischen Prozess mit tiefgreifenden Marktkenntnissen und Fachwissen, um zusätzliche Faktoren oder Marktbedingungen zu berücksichtigen, die außerhalb der Kapazität der statistischen Prognose liegen.
Das Mintel-Fächerdiagramm
Prognosen über zukünftige wirtschaftliche Ergebnisse sind immer mit Unsicherheiten behaftet. Um das Bewusstsein unserer Kunden zu schärfen und diese Unsicherheit zu verdeutlichen, zeigt Mintel Prognosen zur Marktgröße in Form eines Fächerdiagramms an.
Das Fächerdiagramm zeigt die tatsächliche Marktgröße für die letzten 5 oder 6 Jahre, in einigen Fällen eine Schätzung für das laufende Jahr, eine zentrale Prognose für den 5-Jahres- oder 6-Jahres-Horizont (resultierend aus statistischer Modellierung und qualitativen Erkenntnissen) und die Vorhersageintervalle der Prognose (resultierend aus statistischer Modellierung).
Die Vorhersageintervalle stellen den Wertebereich dar, in den die tatsächliche zukünftige Marktgröße mit einer bestimmten Wahrscheinlichkeit fallen wird.
Eine allgemeine Schlussfolgerung: Auf der Grundlage unseres derzeitigen Wissens über die gegebenen historischen Marktgrößendaten sowie die Projektionen für die wichtigsten makro- und sozioökonomischen Messgrößen, die zur Erstellung der Prognose verwendet wurden, können wir sagen, dass die künftige tatsächliche Marktgröße mit einer Wahrscheinlichkeit von 95 % in den schattierten Fächer fallen wird. Es besteht eine geringe Wahrscheinlichkeit von 5 %, dass die künftige Marktgröße außerhalb dieser Grenzen liegt.
Da 95 % in den meisten Anwendungen der Schwellenwert ist, der definiert, ob wir ein statistisches Ergebnis akzeptieren oder ablehnen können, können die äußeren Grenzen des 95 %-Vorhersageintervalls als der beste und der schlechteste Fall der Prognose angesehen werden.
Analogie zum Wetter
Um die Unsicherheit von Prognosen an einem alltäglichen Beispiel zu verdeutlichen, nehmen wir an, dass die folgende Wettervorhersage auf der Grundlage des aktuellen Wissens der Meteorologen über die Wetterlage der letzten Tage, atmosphärische Beobachtungen, eintretende Wetterfronten usw. erstellt wurde.
Wie sicher können wir nun sein, dass die Temperatur am Samstag tatsächlich 15°C betragen wird?
Die Aussage, dass die Temperatur im Zentrum Londons am Samstag genau 15 °C betragen wird, ist zwar möglich, aber man kann sich nicht zu 100 % darauf verlassen.
Die Aussage, dass die Temperatur am Samstag zwischen 14°C und 17°C liegen wird, ist eine umfassendere Aussage und viel wahrscheinlicher.
Im Allgemeinen kann man sagen, dass man auf der Grundlage des bestehenden statistischen Modells zu 95 % sicher sein kann, dass die Temperatur am Samstag zwischen 14 °C und 17 °C liegen wird, und nur zu 50 % sicher, dass sie zwischen etwa 14,5 °C und 15,5 °C liegen wird. Schließlich gibt es eine geringe Wahrscheinlichkeit von 5 %, dass die tatsächliche Temperatur am Samstag außerhalb dieser Grenzen liegt und somit unter 14 °C oder über 17 °C liegt.