Mintel utilise de nombreuses techniques d'analyse de données quantitatives et qualitatives pour améliorer la Valeur de nos études de consommation. Les techniques utilisées varient d'un rapport à l'autre. Cet article vous donnera un aperçu des techniques les plus courantes utilisées par nos experts analystes pour créer leurs rapports.
📌 Note : Pour en savoir plus sur nos méthodes de recherche, lisez cet article.
💡 Astuce : En tant qu'abonné aux Rapports Mintel, vous pouvez trouver tous les rapports de votre abonnement en appliquant lefiltre Type de contenu des rapports sur Insight Accueil.
Analyse de répertoire
Cette technique est utilisée pour créer des groupes de consommateurs sur la base de comportements ou d'attitudes déclarés. Les réponses des consommateurs à une liste d'éléments de l'enquête sont regroupées en une seule variable de répertoire. La variable de répertoire résume le nombre d'occurrences dans la liste des éléments de l'enquête.
📝 Exemple : Un répertoire des achats de marques pourrait produire des groupes de ceux qui achètent 1 à 2 marques, 3 à 4 marques et 5 marques ou plus. Chaque sous-groupe doit être suffisamment important (c'est-à-dire N=75+) pour être analysé.
Analyse par grappes
Cette technique de segmentation répartit un ensemble d'individus dans des groupes appelés clusters sur la base de leurs réponses à l'enquête, de sorte que les personnes interrogées au sein d'un même cluster sont, d'une certaine manière, plus proches ou plus similaires les unes des autres que les personnes interrogées qui ont été regroupées dans un cluster différent.
Mintel utilise généralement une approche en deux étapes pour le regroupement.
L'analyse factorielle pour réduire un ensemble de questions d'enquête attitudinale à un nombre condensé de facteurs.
L'analyse en grappes K-means pour regrouper les répondants en segments sur la base de leurs réponses aux facteurs.
Analyse des correspondances
Cette méthode de visualisation statistique est utilisée pour afficher les associations entre les lignes (par exemple l'image, les attributs) et les colonnes (par exemple les marques, les produits) d'un tableau de contingence à deux voies dans une carte perceptuelle facile à comprendre en interprétant les proximités.
L'importance de la relation entre une marque et l'attribut qui lui est associé, par exemple, est mesurée à l'aide du test du Khi-deux. Si deux marques présentent des schémas similaires concernant leurs attributs associés, elles se voient attribuer des scores similaires sur les dimensions sous-jacentes et seront affichées à proximité l'une de l'autre dans la carte perceptuelle.
Analyse CHAID
Une analyse CHAID (Chi-squared Automatic Interaction Detection) est utilisée pour mettre en évidence les principaux groupes cibles d'un échantillon en identifiant le sous-groupe le plus susceptible de présenter une caractéristique particulière (par exemple, l'intérêt pour un nouveau produit).
Elle divise l'échantillon en une série de sous-groupes qui partagent des caractéristiques similaires (par exemple, l'âge, le sexe) et nous permet d'identifier la combinaison de caractéristiques qui présente le taux de réponse le plus élevé pour la variable cible (par exemple, l'intérêt pour l'essai d'un nouveau produit). La première catégorie de variables prédictives sur laquelle l'échantillon sera divisé (par exemple l'âge) est la plus associée à la variable de réponse, c'est-à-dire qu'elle donne les groupes de répondants les plus différenciés. Chaque sous-groupe est ensuite subdivisé jusqu'à ce que l'analyse ne trouve plus de prédicteur significativement discriminant.
Le résultat est un arbre dont les branches sont les variables prédictives qui divisent l'échantillon en groupes discriminants.
Analyse des Facteurs Clés
L'analyse des Facteurs Clés permet d'identifier et de hiérarchiser les différents facteurs susceptibles d'influer sur les attitudes et les comportements des consommateurs (par exemple, la satisfaction des clients, la probabilité de recommander une marque ou de changer de fournisseur) en évaluant leur importance relative. Pour ce faire, on peut utiliser une régression logistique ou une analyse de corrélation.
La régression logistique est une analyse prédictive utilisée pour identifier la relation entre une variable dépendante (par exemple la satisfaction du client) et une ou plusieurs variables indépendantes (par exemple la qualité du service à la clientèle, la gamme de produits).
L'analyse de corrélation décrit la force et la nature de la relation entre une variable dépendante d'intérêt (par exemple, la satisfaction globale du client) et une ou plusieurs variables indépendantes (par exemple, la satisfaction à l'égard du service à la clientèle, la gamme de produits).
Analyse TURF
Une analyse TURF (Total Unduplicated Reach & Frequency) identifie la combinaison de caractéristiques, d'attributs ou de messages qui attireront le plus grand nombre de répondants uniques. Elle est généralement utilisée lorsque le nombre de caractéristiques ou d'attributs doit ou devrait être limité, mais que l'objectif reste d'atteindre le public le plus large possible. En identifiant la portée totale non dupliquée, il est possible de maximiser le nombre de personnes qui trouvent une ou plusieurs de leurs caractéristiques ou attributs préférés dans la gamme de produits.
Le résultat du TURF est additif, chaque caractéristique supplémentaire augmentant la portée totale. Le graphique se lit de gauche à droite, chaque flèche indiquant la variation progressive de la portée totale lors de l'ajout d'une nouvelle caractéristique, d'un nouvel attribut, etc. La dernière barre représente la portée maximale de la population totale lorsque toutes les caractéristiques, attributs, etc. indiqués sont proposés.
Analyse de sensibilité au prix
L'analyse de sensibilité au prix est un moyen de mesurer l'impact du prix d'un produit sur le comportement d'achat des consommateurs. L'analyse permet d'identifier le prix idéal, ainsi qu'une fourchette de prix acceptables, pour un bien ou un service spécifique auprès des consommateurs. Différents points de prix sont identifiés.
Le point de bon marché marginal (PMC) est le point à partir duquel la perception de la qualité du produit commence à décliner. Un prix inférieur à cette valeur peut être préjudiciable aux ventes de la gamme de produits.
Le point de dépense marginale (PME) est le point de prix à partir duquel les consommateurs remettent en question la valeur du produit compte tenu des coûts. La commercialisation au-delà de ce point de prix peut également être préjudiciable aux ventes de la ligne de produits.
Le point de prix optimal (PPO) est le point de prix auquel un nombre égal de consommateurs estiment que le prix dépasse leur limite supérieure ou inférieure de coûts.
La fourchette de prix acceptables (PPA) est la fourchette de prix à laquelle les consommateurs s'attendent à ce qu'un produit ou un service coûte.
Les points de prix agrégés sont reportés sur des cartes de prix afin d'indiquer les seuils de prix haut/bas ainsi que le point de prix optimal (PPO).
Prévisions statistiques
Modélisation statistique
Pour la majorité des Rapports pour les États-Unis, le Canada, le Royaume-Uni, l'Allemagne et la Chine, Mintel produit des prévisions centrales à cinq ans basées sur la "régression avec erreurs ARIMA" qui est une combinaison de deux techniques de modélisation statistique simples mais puissantes : la régression et l'ARIMA (moyenne mobile intégrée autorégressive). La régression nous permet de modéliser, et donc de prévoir, la taille des marchés à l'aide d'informations exogènes (par exemple, le PIB, le chômage). L'ARIMA permet de modéliser les tailles du marché à l'aide d'informations endogènes (valeurs retardées). Pour estimer ce type de modèle, Mintel utilise le logiciel R.
Les données historiques sur la taille du marché qui alimentent chaque prévision sont rassemblées dans la propre base de données de Mintel sur la taille du marché et complétées par des données macro- et socio-économiques provenant d'organisations telles que l'Economist Intelligence Unit et l'Office for Budget Responsibility (Office de la responsabilité budgétaire).
Dans le cadre du processus de Prévisions, nous analysons les relations entre les Tailles du Marché réelles et une sélection de déterminants économiques et démographiques clés (variables indépendantes) afin d'identifier les facteurs prédictifs qui ont le plus d'influence sur le marché.
Les Produits utilisés dans une prévision sont indiqués dans la section correspondante du rapport, accompagnés d'une interprétation de leur rôle dans l'évolution de la demande pour le produit ou le marché en question.
Insights qualitatifs
Chez Mintel, nous comprenons que les données historiques sont limitées dans leur capacité à agir comme la seule force derrière l'état futur des marchés. Ainsi, les riches Insights qualitatifs des experts de l'industrie concernant les événements futurs qui pourraient avoir un impact sur les différents marchés jouent un rôle inestimable dans notre processus d'évaluation de la modélisation post-statistique.
Par conséquent, les prévisions de Mintel complètent un processus statistique rigoureux par une connaissance approfondie du marché et une expertise permettant de prendre en compte des facteurs supplémentaires ou des conditions de marché qui dépassent la capacité des prévisions statistiques.
Le diagramme en éventail de Mintel
Les prévisions des résultats économiques futurs sont toujours sujettes à l'incertitude. Afin de sensibiliser nos clients et d'illustrer cette incertitude, Mintel présente les prévisions de taille du marché sous la forme d'un graphique en éventail.
Le diagramme en éventail montre la taille réelle du marché pour les 5 ou 6 dernières années, dans certains cas une estimation pour l'année en cours, une prévision centrale à 5 ou 6 ans (résultant d'une modélisation statistique et d'un aperçu qualitatif), et les intervalles de prédiction de la prévision (résultant d'une modélisation statistique).
Les intervalles de prédiction représentent la fourchette de valeurs dans laquelle la Taille du Marché future se situera avec une probabilité spécifique.
Conclusion générale : sur la base de notre connaissance actuelle des données historiques relatives à la taille du marché, ainsi que des projections relatives aux principales mesures macro et socio-économiques utilisées pour établir les prévisions, nous pouvons affirmer que la taille du marché futur se situera dans l'éventail ombré avec une probabilité de 95 %. Il existe une faible probabilité de 5 % que la Taille du marché réelle future se situe en dehors de ces limites.
Étant donné que 95 % est, dans la plupart des Applications, le seuil qui définit si nous pouvons accepter ou refuser un résultat statistique, les limites extérieures de l'intervalle de prédiction de 95 % peuvent être considérées comme les meilleurs et les pires cas de la prévision.
Analogie avec la météo
Pour illustrer l'incertitude des prévisions par un exemple quotidien, supposons que les prévisions météorologiques suivantes aient été établies sur la base des connaissances actuelles des météorologues concernant les conditions météorologiques des derniers jours, les observations atmosphériques, l'arrivée de fronts météorologiques, etc.
Dans quelle mesure pouvons-nous être certains que la température samedi sera effectivement de 15°C ?
Il est possible d'affirmer que la température dans le centre de Londres samedi atteindra exactement 15°C, mais on ne peut pas en être sûr à 100 %.
Dire que la température samedi sera comprise entre 14°C et 17°C est une affirmation plus large et beaucoup plus probable.
En général, on peut dire que, sur la base du modèle statistique existant, on peut être sûr à 95 % que la température samedi sera comprise entre 14°C et 17°C, et à 50 % seulement qu'elle sera comprise entre 14,5°C et 15,5°C environ. Enfin, il existe une faible probabilité de 5 % que la température réelle de samedi se situe en dehors de ces limites et soit donc inférieure à 14°C ou supérieure à 17°C.
