Chronique d’une typologie guidée – Application sur la gen Z

Image-typo-genZ

Chronique d’une typologie doublement guidée
-
Application sur la gen Z

genZ_bandeau

Quels sont les éléments et objectifs de l’enquête ?

ADN a été missionné sur une étude pour le traitement de données et pour effectuer une typologie pour laquelle nous vous partageons ici le parcours méthodologique. Cette étude a été réalisé auprès de 806 individus âgés de 16 à 25 ans, l’objectif est de réaliser une typologie quantitative basée sur des variables comportementales de l’enquête permettant de confirmer les personae établis lors de la phase quali effectuée en amont. A ce stade 4 personae ont été mis en avant :nous vous en dévoilerons les noms ultérieurement, appelons les aujourd’hui « groupes » 1,2,3 et 4.

Comment aborder cette problématique de classification ?

Premiers essais : une approche classique via ACP et K-means… avec des résultats décevants !

Au vu du résultat de l’étude qualitative, nous savons que nous cherchons idéalement une solution en 4 classes. L’objectif étant si possible, de se rapprocher des types décrits dans cette analyse.

Nous avons réalisé une première ACP sur la base d’une sélection des items orientée sur la vision qualitative initiale. Les axes ainsi obtenus mélangent cependant des notions très différentes, raison pour laquelle nous ne donnons pas suite à cette piste. En effet, idéalement un axe est constitué de plusieurs items pour renforcer la thématique dont il traite. Or cette première analyse ne permettait pas de faire le lien entre les items constituant les axes.

De cet enseignement, nous remettons à plat les objectifs. La typologie que nous cherchons à effectuer traite de nombreuses informations : nous ne traitons pas un sujet ou un marché en particulier, mais plutôt l’ensemble des sujets de société pour la GEN Z.

Nous avons donc finalement décidé de sélectionner tous les items comportementaux possibles, en d’autres termes plutôt que de choisir les items a priori, nous préférons laisser sélectionner des items discriminants de la population a posteriori par les algorithmes.

Cette seconde ACP, calculée sur l’ensemble des items aboutie après diagnostic à retenir la solution en 18 axes : elle comporte le plus fort taux de variance expliquée, chaque axe étant constitué d’au moins 2 items fortement contributifs.

En appliquant l’algorithme K-means depuis ces 18 axes, nous obtenons un découpage dont le résultat est toutefois décevant :  Un groupe avec 25% de l’échantillon est en sur-notation sur l’ensemble des items et c’est une configuration que nous voulons éviter. A noter que par ailleurs, les 3 autres types sont bien loin de la description qualitative.

Pour le 3ème essai, nous avons décidé de sélectionner parmi les 18 axes de l’ACP, seuls ceux qui portent sur les thématiques de l’analyse qualitative, en espérant retrouver un peu plus d’hétérogénéité entre les types. Nous en avons finalement sélectionné 11 sur les 18.

Nous obtenons une nouvelle solution qui comporte les mêmes problèmes que l’essai précédent : les types sont décrits par le fait de bien noter les batteries de questions. Ces types sont construits en s’appuyant principalement sur les corrélations « naturelles » qui existent entre les items d’une même question d’un questionnaire.

Conclusions sur ces premiers essais

Avec l’ACP seule, les moyens pour piloter les résultats sont limités : nous décidons alors d’appliquer notre méthode de typologie doublement guidée : comparée à l’association seule ACP / K-mean, celle-ci est plus efficace, avec de meilleurs résultats, et permet de disposer d’une souplesse de paramétrage beaucoup plus grande.

Qu’est-ce que la typologie doublement guidée ?

Il faut commencer par construire une segmentation de guidage : nous optons pour les questions les plus importantes à nos yeux pour expliquer les attentes des jeunes, à savoir la combinaison entre l’âge, la CSP et le revenu du foyer. L’idée étant que cette segmentation de guidage joue le rôle d’une « photographie » de notre échantillon. Ces caractéristiques socio-démographiques sont factuelles ; en particulier, elles ne sont pas soumises à interprétation. Nous obtenons à ce stade 16 segments de guidages.

Cette segmentation devient littéralement un guide pour la typologie, car les variables actives vont expliquer cette réalité, via une analyse discriminante : l’idée est de construire des axes qui expliquent la photographie proposée par la segmentation initiale. C’est ceci que nous appelons guidage de la typologie.

Si nous cherchions à construire notre résultat directement en 4 types via une K-means, en nous appuyant sur les axes discriminants, nous aurions appliqué ce que nous appelons une typologie simplement guidée. Cette méthode fonctionne globalement mieux que la méthode classique par ACP, car elle propose naturellement plus de variance entre les 4 types obtenus. Mais cette méthode nous permet en revanche difficilement de guider les résultats vers une vision déjà connue de notre marché, à savoir les 4 types de l’étude qualitative.

Pour réaliser un double guidage, nous appliquons une K-means initiée par la segmentation de guidage afin d’obtenir 16 types : cette solution n’est pas un résultat, mais bien une étape intermédiaire qui est soumise à l’institut. Il nous faut alors affecter ces 16 types ainsi obtenus aux 4 types qualitatifs, en s’appuyant sur la lecture des profils et le bon sens :

Il faut aussi limiter les déséquilibres de volumes des classes dans cette sélection. Ce regroupement est un nouveau guide, qui injecte la vision marché dans le résultat obtenu.

Une fois cette affectation validée, la segmentation de guidage est regroupée en 4 « méta-groupes », et c’est sur ceux-ci que nous appliquons l’algorithme K-Means. Cette fois-ci, le résultat est satisfaisant, voire au-delà de nos espérances : il questionne même les personae quali initiaux, en leur ajoutant des dimensions comportementales nouvelles par la lecture approfondie des profils. Ce seront finalement ces groupes qui seront retenus pour communiquer sur les résultats de l’enquête.

Qu’en conclure ?

  • Effectuer une typologie à partir d’une ACP sur une sélection de variables actives consiste à partir pratiquement de zéro, c’est-à-dire agnostique de toute analyse préliminaire.
  • Lorsque les personae ne sont pas prédéfinis, mais que nous souhaitons introduire une couche de flexibilité permettant d’affiner des paramètres à chaque étape, il est souhaitable de travailler avec une typologie simplement guidée.
  • Lorsque de surcroît, les objectifs attendus sont clairs et que des personae sont pré-établis, il est plus efficace de passer par une typologie doublement guidée, qui permettra à l’expert du marché d’étudiée, d’influer sur les types obtenus.

Le guidage des analyses typologiques est recommandé par ADN, et a apporté satisfaction à chacune de ses applications. Si vous souhaitez en savoir plus sur la typologie guidée et nos méthodes d’analyses plus généralement, n’hésitez pas à prendre rendez-vous avec nos experts !

Vous aussi vous souhaitez tirer le meilleur parti de vos données ?

Nos équipes sont à votre disposition pour une démonstration personnalisée !

OPENDATA avec HARMONIE : Etude de cas – Occupation des sols

Comment exploiter l’OPENDATA avec HARMONIE ?

Etude de cas - Occupation des sols en France et dans le monde

Découvrez en exclusivité nos résultats sur l’occupation des sols entièrement calculés sous HARMONIE à partir de l’Open data.

Au départ, une étude à l’échelle de la France

Le point de départ est l’étude CORINE Land Cover issue de l’interprétation visuelle d’images satellitaires concernant l’occupation des sols (artificiel, agricole, forêt et semi-naturel, humide, eau) des communes en France métropolitaine, entre 1990 et 2018. A partir de ces données différents enrichissements ont été opérés avec HARMONIE grâce à des données de l’INSEE:

  • départements et régions associés aux numéros de communes
  • densité des communes
  • Typologie des IRIS
  • nombre d’habitants par commune

En fusionnant ces différentes sources de données, des tris croisés et certains indicateurs tels que la composition des sols français et son évolution par région ou au total, en fonction de la densité de population et du type d’IRIS, ainsi que l’évolution de la population des régions ont été établis.

Quelques conclusions sur ce premier travail

En 2018, la France est un pays en grande majorité à surfaces agricoles (59%) alors que ses surfaces artificialisées ne représentent que 6% du total. Néanmoins, ces surfaces artificialisées sont en forte croissance : entre 1990 et 2018, elles ont cru de près de 30%, alors que les surfaces agricoles sont en recul. Ce contexte d’artificialisation des sols progresse 2 fois plus rapidement que l’augmentation de la population française, passée de 54 à 62 millions entre 1990 et 2018 (+15%). A noter enfin que les régions connaissent de grandes disparités dans leur composition en termes de surfaces, mais également dans leur évolution dans le temps.

Retrouvez les résultats principaux au niveau France dans le rapport suivant : 

Extension du périmètre - passage à l’échelle mondiale

Ce sont de nouveaux jeux de données issus de worldbank.org concernant l’occupation des sols (agricole, forêt, arable, en proportions de la surface totale), la population, la densité de population, entre 1960 et 2020, ou 1990 et 2020, qui nous ont permis d’établir des comparaisons à plus grande échelle.

le jeu de données a ainsi été constitué avec les continents associés aux pays pour un traitement plus efficace et ciblé. Enfin ont été ajoutées au jeu de données les surfaces agricoles et de forêts, les surfaces urbaines et rurales, les surfaces totales, les émissions de gaz à effet de serre, les émissions de CO2 totales et par habitant, et le PIB par habitant, toujours à partir de la base de données de worldbank.org, afin d’obtenir l’évolution de ces variables ainsi que des moyennes par pays, par continent, et par région du monde.

Ce traitement sous HARMONIE a permis d’effectuer une analyse mondiale de la composition des sols, de son évolution, ainsi que de celle de la population et de la densité de population, en fonction des pays et des continents.

Quelques conclusions au niveau mondial

Les forêts représentent au global 31% des sols, un chiffre peu changeant depuis 1990, mais aux évolutions bien plus contrastées à l’échelle des continents. En moyenne, elles progressent en Europe et en Océanie, mais reculent sur les autres continents.

Les terres agricoles représentent au global 37% des sols, un chiffre encore relativement stable depuis 1990, mais qui varie selon les continents. L’Europe, l’Océanie l’Amérique du Nord voient ces terres agricoles diminuer, alors qu’elles augmentent sur les autres continents.

La population croît très fortement face à cette stabilité : elle est passée de 3,8 à près de 8 milliards entre 1960 et 2020 (+210%). La population augmente en effet partout dans le monde, mais plus particulièrement en Afrique (500%), en Amérique du Sud (300%) et en Asie (300%). Cette croissance est tirée par quelques pays, notamment la Chine et l’Inde, qui représentent chacune 30% de la population en Asie, et 18% de la population mondiale.

Les émissions de CO2 augmentent rapidement ( +67%) et la Chine domine le reste du monde en représentant plus de 30% des émissions globales en 2019, soit le double des Etats-Unis. En termes d’émissions de CO2 par habitant, il a plutôt tendance à baisser, mais pas de manière linéaire : Ce sont les Etats arabes du Golfe qui dominent assez largement la tête du classement, comme le Qatar, Bahreïn, le Koweït et les Emirats Arabes Unis.

Retrouvez les résultats principaux au niveau mondial dans le rapport suivant :

Vous aussi vous souhaitez tirer le meilleur parti des données à votre disposition ?

Nos équipes sont à votre disposition pour une démonstration personnalisée !

Etude de prix : Comment exploiter vos données d’enquêtes et faire ressortir les insights de votre étude ?

ETUDE DE PRIX

Comment exploiter vos données d'enquêtes et faire ressortir les insights de votre étude ?

L’étude de prix est un type de projet fréquent dans les études de marchés. Quel que soit le secteur d’activité, lorsqu’une entreprise souhaite lancer une nouvelle offre, il est légitime qu’elle souhaite optimiser son prix de vente pour maximiser son attractivité et son chiffre d’affaire, et plus précisément de déterminer quel prix psychologique les clients seraient prêts à envisager pour acheter.

Comment déterminer le prix idéal ? l’exemple du PSM

Il y a différentes méthodes possibles pour étudier un prix. Un modèle fréquemment utilisé dans le secteur des études de marchés est le PSM (Price Sensitivity Meter), ou méthode de Van Westendorp.

Prenons l’exemple d’une offre pour un sachet de bonbons. Le plus souvent, 4 questions sont posées sur le niveau de prix du sachet, sur différents degrés de jugement :

  • Le prix auquel le sachet semble « bon marché ».
  • Le prix auquel le sachet semble « trop bon marché », et remet en cause sa qualité.
  • Le prix auquel le sachet semble « cher ».
  • Le prix où le sachet semble « trop cher », au point de décourager l’achat.

A quoi ressemblent les données brutes d’un PSM ?

Dans la base de données, 4 variables vont contenir chacun des niveaux de prix évoqués, pour chaque répondant au questionnaire. Ces variables sont soit des champs ouverts numériques, soit des valeurs discrètes de prix ordonnées, selon la programmation du questionnaire.

Ce sont ces 4 variables qui vont être exploités pour produire le résultat du PSM.

Comment produire un PSM ?

Le résultat d’un PSM est une conclusion graphique : ici le prix du sachet se déduit à un prix optimal de 2.35 euros, dans une fourchette de 1.79 à 3.23 euros.

Pour arriver à cette conclusion, il faut construire les 4 courbes du graphique à partir des 4 variables de prix recueillies en terrain et présentes dans la base de données. De plus, ces résultats sont des pourcentages cumulés croissants ou décroissants pour chacune d’entre elles. Il s’agit donc de sortir un tableau de synthèse avec une échelle de prix en ligne et les 4 degrés de jugements en colonne.

Comment HARMONIE peut m’assister dans la production du résultat d’un PSM ?

HARMONIE possède des fonctions de recodifications puissantes qui vont pouvoir vous ramener à la bonne nature de variables souhaitées, c’est-à-dire des valeurs de prix en tranches constantes pour les 4 degrés de jugements évalués.

A partir de là, le croiseur vous permet de construire le tableau souhaité, et d’afficher des résultats en cumulé croissant ou décroissant. Vous obtenez en quelques minutes les séries de résultats que vous souhaitez visualiser depuis vos données brutes.

Enfin, le module de visualisation de HARMONIE vous permet d’intégrer vos résultats dans le graphique approprié, puis de l’exporter en format PowerPoint.

Pour aller plus loin…

Avec HARMONIE, vous pouvez facilement industrialiser votre production et paramétrer le traitement d’un PSM, en appliquant des filtres à la volée sur vos constructions. Vous pouvez ainsi modifier et rejouer à volonté votre travail, et sortir vos résultats en rafale sur une série d’univers.

Vous souhaitez en savoir plus sur l’application du PSM avec HARMONIE ?

Planifions un rendez-vous pour discuter de vos problématiques et de nos solutions

Test de produits : Comment apparier des cellules grâce aux redressements ?

TEST DE PRODUITS

Comment apparier des cellules grâce aux redressements ?

Choix méthodologique : Test de produits en monadique pur ou en monadique séquentiel?

Dans un test de produits, soit chaque répondant ne juge qu’un produit (monadique pur), soit il en juge plusieurs (monadique séquentiel). Chaque méthode a ses vertus, le monadique pur comme son nom l’indique étant le plus précis et plébiscité, le monadique séquentiel étant plus économique à conduire, même si la passation du questionnaire s’avère un peu plus longue. En points de vigilance, le monadique pur impose d’avoir une base robuste pour chaque échantillon et de veiller à ce que chaque sous-échantillon ait une structure de quotas identique, lorsque le monadique séquentiel impose un plan de rotation et des gestions de quotas plus complexes. Nous allons ici nous concentrer sur le cas d’un test en monadique pur.

Pourquoi apparier les résultats de votre enquête dans un test en monadique pur?

Une étude est menée sur une série de produits différents, et des sous-échantillons ont été définis pour chacun sous le terme usuel de cellules de test. Des personnes différentes répondent sur chaque cellule, mais il est exigé que la structure de ces personnes soient équivalentes entre les cellules sur différents critères pour pouvoir comparer les résultats (Profil socio-démographique, intentions d’achat, pénétration…).

Comment le redressement peut résoudre des problèmes ?

Il peut arriver qu’à la réception des données, les structures de répondants obtenues entre les cellules ne soient pas totalement équivalentes (pour diverses raisons telles une simplification de la programmation du questionnaire, des problèmes de recueils, des informations tardives, etc.).

Dans cette configuration, c’est l’usage d’un redressement en appariement de cellules qui permet d’obtenir des échantillons pondérés identiques pour chaque produit étudié, afin de rendre les analyses des cellules comparables entre elles.

Cas pratique : Exemple d’un test de boissons monadique

2 boissons sont testées dans le cadre d’une étude de lancement de produit, sur laquelle 400 personnes sont interrogées. Une première partie de questionnaire commune à tous les répondants aborde le profil socio-démographique, la connaissance et l’appétence au marché des boissons. Ensuite une section « évaluation » permet de recueillir 200 jugements sur chaque boisson testée.

L’échantillon global de 400 personnes est représentatif sur les critères de sexe, age et région, cependant vous avez plus de jugements féminins dans la 2ème cellule que dans la 1ère. Ceci peut être corrigé grâce à un redressement par appariement de cellule, c’est-à-dire en redressant chaque critère au sein de chaque cellule de test, en y fixant des objectifs identiques.

Notre solution

Grâce à HARMONIE, il est possible de configurer ses objectifs de redressement en croisant les objectifs de l’échantillon global par la cellule de test. Pour cela vous disposez d’un module sur mesure qui vous permettra de fixer vos objectifs souhaités, en les imbriquant dans un critère chapeau « cellule ».

Vous souhaitez en savoir plus sur l’application de redressements appariés avec HARMONIE ?

Planifions un rendez-vous pour discuter de vos problématiques et de nos solutions

Traiter une enquête de satisfaction nationale représentative : Comment redresser votre échantillon ?

satisfaction-redressement-harmonie

TRAITER UNE ENQUETE DE SATISFACTION NATIONALE REPRESENTATIVE

Comment redresser votre échantillon ?

Qu’est-ce qu’un redressement ?

Le principe des redressements est d’estimer les réponses des non-répondants (les individus que l’on n’a pas réussi à interroger en nombre suffisant) grâce aux réponses des répondants. Concrètement, il s’agit d’appliquer un coefficient de pondération pour chaque questionnaire enregistré.

En d’autres termes, il s’agit de baisser ou d’augmenter le poids de certains questionnaires afin de faire correspondre les critères de l’échantillon avec ceux de la population étudiée. La finalité est d’appliquer les coefficients calculés à toutes les réponses du questionnaire.

Pourquoi redresser votre enquête ?

Si le recueil de vos données s’éloigne trop de vos objectifs en termes de quotas il est nécessaire de redresser. Si nous n’avons réussi qu’à obtenir 45% de femmes dans notre échantillon alors qu’il devait en contenir 52% pour être représentatif de notre population, le redressement va pondérer les questionnaires remplis par des femmes par un coefficient de 1.15 (52% divisé par 45%). En outre le redressement va appliquer un coefficient de 0.87 aux questionnaires remplis par les hommes (48% divisé par 55%).

satisfaction-redressement-harmonie

Quelles sont les questions à se poser lors d’un redressement ?

Si le but est simple, les redressements doivent être utilisés avec beaucoup de pédagogie et de prudence. Les redressements « créent » en effet des réponses virtuelles (même si elles sont basées sur les réponses mesurées). Cela peut-être déroutant pour un client qui ne vient pas des études d’avoir affaire à des effectifs qui ne sont pas vraiment concrets.

L’autre point à prendre en compte est de ne pas exagérer un redressement : Quelle légitimité pour un redressement qui multiplie le poids d’une catégorie de la population par 10 ? Il n’y a pas de recommandation « officielle » (statistiquement parlant) sur les limites à considérer pour les redressements. Mais par exemple il faut se méfier d’un redressement effectué sur moins de 50 individus ou d’un redressement qui va multiplier le poids de certains individus par plus de 2 (mais bien sûr, cela est à étudier au cas par cas, en fonction de l’homogénéité des comportements et de la difficulté du terrain).

Cas pratique : une enquête de satisfaction client à redresser

Le terrain d’enquête est terminé, 1 000 répondants ont été recueillis sur 5 critères de quotas : Sexe / Age / région / catégorie socio-professionnel / taille d’agglomération.

L’ensemble des quotas a été correctement accompli, sauf sur le critère d’âge à cause de difficultés pour recruter sur les cibles jeunes.

L’idée va donc être de pondérer les résultats pour donner plus de poids aux cibles jeunes, et donc un peu moins sur les cibles plus âgées afin de correspondre à la répartition de la population mère, tout en maintenant la structure sur les autres critères de quotas.

Notre solution

Grâce à HARMONIE, vous pouvez travailler votre poids en intégrant l’ensemble des variables de quotas dans la construction de la pondération, et saisir les objectifs souhaités pour chacune d’entre elles. En sortie, un rapport de pondération vous permet d’effectuer tous les contrôles nécessaires pour valider votre pondération.

Vous souhaitez en savoir plus sur l’application de redressements avec HARMONIE ?

Planifions un rendez-vous pour discuter de vos problématiques et de nos solutions

Open data & Étude marketing

OPEN DATA ET ETUDES MARKETING

L’EXPLOITATION DES DONNÉES DE L’OPEN DATA ÉLARGIT LE CHAMP D’INVESTIGATION ET DE RECHERCHE DES ÉTUDES MARKETING TRADITIONNELLES

L’exploitation des données de l’Open Data ouvre des perspectives nouvelles, si ce n’est révolutionne l’observation dans le domaine traditionnel des Etudes. Les données de l’Open Data associées à des données d’études, des données clients… -, ouvrent considérablement le champ d’investigation et de recherche.

LA BASE DE DONNEES GEDEON D’ADN

ADN a construit une base de données dont les niveaux statistiques sont les communes avec les données des fichiers de l’INSEE. ADN a fusionné cette base avec des données électorales par l’intermédiaire de fichiers mis à disposition sur les sites gouvernementaux. La base dispose aujourd’hui des résultats de toutes les élections depuis 10 ans sur l’ensemble des communes. Toutes les communes sont géolocalisées afin de pouvoir calculer les distances aux services si ceux-ci sont absents de la commune.

HARMONIE, LE CROISEUR POUR EXPLOITER L'OPEN DATA

Harmonie, logiciel de traitement de données

La base GEDEON est livrée avec le logiciel HARMONIE pour accéder à l’ensemble des données, formuler les requêtes statistiques – tableaux, tris croisés – et obtenir les résultats très rapidement.
ADN valorise l’exploitation statistique des données de l’Open Data par son expertise de la fusion d’études. Une bonne gestion des sans-réponses ou des données manquantes est indispensable pour améliorer la qualité du traitement d’études fusionnées aux données de l’Open Data.

Envie d'en savoir plus ?

Planifions un rendez-vous pour discuter de vos problématiques et de nos solutions

Post-test & Bilan de campagne

POST-TESTS ET BILANS DE CAMPAGNE

Les post-tests publicitaires permettent de mesurer les effets d’une campagne sur la population exposée à un message.
Ils peuvent être suivis d’un bilan de campagne pour évaluer l’efficacité d’une campagne dans son ensemble. 

Optimiser la production des post-tests

Les post-tests sont des opérations régulières, répétitives, et parfois elles sont même menées en continu.

Le formalisme du questionnaire est une étape essentielle en amont de chaque terrain.

Cette normalisation conduit ensuite à optimiser toutes les tâches en aval du questionnaire, c’est-à-dire du traitement statistique jusqu’aux livrables.

HARMONIE et SLIDIE, nos logiciels d'exploitation de données

harmonie-post-test

Une première étape consiste à formuler un méta-questionnaire normalisé selon une nomenclature pré-établie et à définir un modèle de présentation des rapports PowerPoint® qui puisse servir de cadre à toutes les campagnes.

A partir de ces éléments, les logiciels d’ADN exécutent en automatique toute l’exploitation des post-tests :

HARMONIE prend en charge les données et le traitement statistique.

SLIDIE produit tous les livrables.

Pour chaque campagne, les logiciels HARMONIE, SLIDIE sont pilotés par des scripts réalisés au départ par ADN et utilisables pour toutes vos campagnes.

L'expertise d'ADN au service des Instituts

ADN établit un diagnostic gratuit pour évaluer ce que représente l’automatisation de vos post-tests  et campagnes, notamment l’adaptation des scripts à vos spécificités. ADN intervient jusqu’au calage des scripts au départ pour automatiser tout le processus de vos campagnes post-tests.  Vous restez toujours maître de la situation et autonome.

Envie d'en savoir plus ?

Planifions un rendez-vous pour discuter de vos problématiques et de nos solutions

Estimations de résultats – Soirées électorales

ESTIMATIONS DE RÉSULTATS - SOIRÉES ÉLECTORALES

ADN collabore avec les instituts qui fournissent les résultats des élections aux 20 heures des tv et des radios

Enjeux pour les Instituts : Réactivité et Justesse

Pour les soirées électorales, les résultats produits aux 20 heures des TV et des radios sont issus d’estimations faites à partir de résultats réels récoltés aux sorties de bureaux de vote sur des échantillons représentatifs tout en s’appuyant sur des historiques.

Résultats élections régionales - PACA

De la saisie au traitement de données

Harmonie, logiciel de traitement de données

Une application Web particulière a été développée par ADN qui englobe tout le processus : la saisie de l’ensemble des résultats des bureaux, la consultation en temps réel de ces résultats selon différents niveaux d’agrégation, le rapatriement des données sur une plateforme de calcul des estimations, la publication des estimations et la consultation en temps réel, la validation des estimations et divers services annexes : fils RSS, consultation de l’offre etc. Cette application a été utilisée dans le contexte extrêmement sensible des soirées électorales durant lesquelles l’objectif est d’amener le plus rapidement possible des résultats qui proviennent de bureaux disséminés sur le sol français sur le plateau TV, avant et après application d’un traitement statistique expert.

L'expertise d'ADN au service des Instituts

L’expertise d’ADN est reconnue dans ce domaine depuis de nombreuses années et par nombre d’instituts tels qu’Elabe, Harris Interactive, Ifop, Opinion Way. Les équipes d’ADN collaborent avec les instituts qui fournissent ces résultats en exploitant sa solution logicielle de calcul des estimations des résultats d’élections utilisée pour tout type d’élections : les présidentielles, les législatives, les régionales et les municipales.

Envie d'en savoir plus ?

Planifions un rendez-vous pour discuter de vos problématiques et de nos solutions