Enquêtes du BTP aussi fiables que les sondages politiques ?

Enquêtes du BTP aussi fiables que les sondages politiques ?

Enquêtes du BTP aussi fiables que les sondages politiques ? Rérlexion de Philippe Dresto président de l’Observatoire National du Bâtiment

La question de la qualité des mesures réalisées par voie de sondage se pose actuellement aux vues des dernières prévisions qui se sont avérées erronées lors des présidentielles Américaines, ou plus près de nous lors du scrutin des primaires de droite la semaine dernière. Or les sondages, les mesures d’opinion sont des outils très utilisés dans de nombreux domaines, et le bâtiment ne fait pas exception.

Les enquêtes du BTP aussi fiables que les sondages politiques ? ?

Un peu d’histoire et de technique

La technique scientifiquement établie en 1934 par NEYMAN consiste à choisir aléatoirement un échantillon d’entreprises parmi un ensemble d’acteurs dont on veut étudier une ou plusieurs caractéristiques.

Pour se faire, la base de données doit être :

  • exhaustive : si la base n’est pas absolument complète, rien ne permet d’affirmer que les acteurs manquants ont les mêmes caractéristiques que les autres acteurs, le contraire est d’ailleurs le plus probable, et les résultats de l’enquête seront forcément biaisés. Et ce quelle que soit la méthode utilisée.Or, il est très difficile de disposer d’une base exhaustive. Même  les sources officielles diffusées par des organismes publics sont perfectibles en la matière. Par exemple, dans un article du  » Courrier des statistiques « , L’INSEE reconnaît lui-même que dans  le répertoire  » SIRENE « , 14 % des entreprises figurant dans le fichier ne sont plus en activité. Et parmi celles en activité 5 % ont un code APE faux, 28 % ont un effectif salarié mal renseigné, 19 % ont une raison sociale ou une adresse fausse (retour à l’envoyeur), etc. Comme toutes les bases, l’INSEE n’ a pas les moyens de tenir à jour un fichier si toutes les entreprises ne l’informent pas en temps réel de toutes leurs modifications.
  • Et pourtant, pour être efficace, la base doit être à jour. Souvent, lorsque des sondages politiques se sont révélés faux, c’est parce que le sondeur s’est appuyé sur une base de données, par exemple de catégories socioprofessionnelles, trop ancienne et donc erronée.

 

L’enquête ne portant que sur une partie des entreprises, les résultats sont forcément entachés d’un certain % d’erreur. La seule méthode scientifiquement établie, celle du sondage aléatoire, permet d’indiquer la précision des résultats, le niveau d’incertitude, en un mot le % d’erreurs possibles. Ce % d’erreur est scientifiquement établi dans des tableaux statistiques. On notera, résultat surprenant du calcul des probabilités, que la marge d’erreur ne dépend que du nombre de  » sondés  » et non de la proportion de sondés (le nombre de 100 sondés sur 1000 est aussi précis que celui 100 sondés sur 1 million).

D’autres méthodes empiriques, dites  » méthodes des quotas  » existent et sont utilisées la plupart du temps, faute de disposer d’une base exhaustive et à jour et de pouvoir respecter les conditions draconiennes d’un sondage aléatoire. Elles consistent à construire un échantillon soi-disant  » représentatif   » en sélectionnant les acteurs pour s’assurer que la structure de cet échantillon soit semblable à celle de l’ensemble, quitte à remplacer arbitrairement une entreprise par une autre pour se conformer à la structure préétablie. Ces méthodes, qui peuvent donner de bons résultats, ne permettent en aucune manière d’indiquer un quelconque niveau de précision du résultat, car elles n’ont aucun fondement scientifique. Ces méthodes sont utilisées dans tous les sondages politiques…

 

Une question de confiance récurrente…

Il y a plus de quarante ans, Frédéric Bon publiait un livre au titre évocateur « Les sondages peuvent-ils se tromper ? »[1]. À cette question, qui peut apparaître bien académique, mais qui implique des phénomènes réels vraiment sensibles, le volume n’apportait pas de réelle réponse tranchée. Il était fait référence à quelques échecs notables –entre autres l’erreur des sondages britanniques en 1970- mais contrebalancés par des réussites significatives. Il était entre autres souligné que « sur dix-neuf expériences tentées à l’occasion de sept scrutins, les instituts britanniques affichent dix-sept succès ». La question : est-ce que les deux erreurs sont importantes ?

Quelle réponse donnerions-nous aujourd’hui à la même question en examinant les performances des instituts de sondage dans les dernières campagnes d’intentions de vote ? Changent-elles la face du monde ? Certains diront que oui, d’autres que non !

Pour prendre du recul, chacun a en mémoire quelques erreurs de prévision majeures des sondages réalisés lors de campagnes électorales en France. L’erreur la plus grave aura été certainement faite lors de l’élection présidentielle de 2002. Ne pas avoir clairement annoncé le ballottage entre Jean-Marie Le Pen et Jacques Chirac a été en partie la cause du séisme politique qui s’en est suivi. Si l’élimination de Lionel Jospin n’a pas été clairement annoncée, elle ne pouvait être écartée à la lecture des intentions de vote et des courbes respectives des 3 principaux candidats.

L’opinion publique et les médias ont d’ailleurs, à l’époque, sévèrement reproché aux sondages cette erreur et les en ont tenus pour responsables. La sphère politique s’est également emparée du sujet à voix haute et forte et l’analyse politique de l’échec de Lionel Jospin a ainsi longtemps été mise au second plan au profit d’une sévère critique des sondages.

Cette critique est nécessaire, mais elle implique que tous les acteurs, commanditaires, sondeurs, médias, commentateurs et analystes soient au fait des méthodes, connaissent les notes méthodologiques de réalisation des enquêtes, les calendriers de campagnes, les implications et les biais possibles. Bref, autant de points qui ne sont jamais repris dans les analyses, l’important est de communiquer à tout prix des chiffres pour faire le « buzz ». Or savoir ce que l’on peut en tirer et ce que l’on ne peut dire (ou pas !) à partir des données recueillies est primordial.

Les facteurs principaux qui peuvent faire la différence sont liés plus à des facteurs économiques et à des spécificités du comportement politique qu’à des problèmes techniques, comme le souligne Friche. Alors : erreurs d’échantillonnage, mode de recueil des données posant problème, fausses déclarations des électeurs, questionnaires trop facilement décodés par les personnes interrogées, indécision d’une frange de plus en plus importante du corps électoral jusqu’au jour même de l’élection ? Cette série de questions n’est pas exhaustive, mais doit être abordée si l’on souhaite améliorer la qualité des enquêtes quantitatives.

[1] Chez Calmann Levy – 1974

Internet des objets IOT : La maison connectée existe t-elle vraiment ?

Internet des objets IOT : La maison connectée existe t-elle vraiment ?

Internet des objets IOT : La maison connectée existe t-elle vraiment ? par Philippe Dresto 

Internet des objets IOT : La maison connectée existe t-elle vraiment ?

L’Internet des Objets (IoT) connecte déjà des millions d’objets à Internet entre eux et par la même leurs utilisateurs. Cette mouvance permet de suivre et d’analyser les données comme jamais auparavant. Cependant dans la tête d’une très grande majorité des consommateurs « internet des objets » ne représente pas grand-chose de concret…

Google Home IoT maison connectée selon Google

Google Home la maison connectée selon Google

Internet des objets IOT

Pour observer des signes forts sur ce marché, le territoire US est un bon incubateur.

En 2008 déjà, il y avait plus d’objets connectés à internet que de personnes et e n’est que le début… d’ici 2020, 50 milliards d’objets seront connectés à internet, accompagnés de 19 billions de dollars de profits et d’économies durant la prochaine décennie.

Le marché existe mais la notoriété reste à construire. Outre Atlantique, un américain sur deux ne sait pas que des thermostats et des réfrigérateurs intelligents sont déjà sur le marché. Ces mêmes consommateurs sont sensibles à la technologie portable (ou wearable). Actuellement, seulement 7% des consommateurs possèdent un appareil de technologie portable, ce chiffre est appelé à être multiplié par 4 d’ici la fin 2016.

2020 devrait être une étape clefs dans le schéma d’émergence des objets connectés. Il est attendu que plus de 20% des consommateurs américains possèderont leur réfrigérateur et leur montre connectés et que 14% de ces mêmes consommateurs envisageront acheter des vêtements connectés

La sécurisation des données constitue un point stratégique pour les utilisateurs. En effet 69% des consommateurs américains estiment qu’ils doivent posséder toutes les données personnelles de tous leurs appareils connectés. Et ces données ne concernent pas que des humains… En Allemagne des capteurs sont utilisés sur le bétail pour prévenir des maladies et des gestations (Chaque vache envoie près de 200 Mo de données par an).

Inversement, les américains souhaitent partager les informations qu’ils produisent avec leur environnement. 60% des Américains souhaitent partager leurs données depuis leur voiture avec le constructeur automobile s’ils gagnent une révision gratuite en retour. Mais les constructeurs ne sont pas les seuls intéressés par les données de votre voiture, les publicitaires cherchent déjà à les obtenir. Dans ce sens il est possible de lier le véhicule au domicile. L’exemple de Mercedes et Nest est une bonne démonstration (Mercedes-Benz est partenaire de Nest qui permet aux voitures d’ajuster le thermostat à la température lorsque le conducteur rentre ou part de chez lui).

Enfin, si les USA apparaissent comme un bon exemple de marché, il n’est pas le premier mondial. En effet, 27% des connexions M2M (comprendre Machine to Machine) s’effectuent en Chine, 29% dans toute l’Europe, et 19% aux États-Unis. La Chine a prévu d’investir 603 milliards de dollars dans les connexions M2M, entre 2010 et 2020.

Internet des objets IOT : La maison connectée existe t-elle vraiment

La Maison connectée existe t-elle vraiment ?

Apple Home application HomeKit

Apple Home la vision d’Apple de la maison connectée

Les maisons connectées représenteront certainement une grande partie de l’IoT. D’ici 2019, il est prévu un investissement de 1,9 milliard de dollars dans les appareils de maison connectée, rapportant près de 490 milliards de dollars de recettes. ET ce marché est dominé non pas par les constructeurs de maisons, mais bien par les géants du Big Data. Google et Samsung se sont déjà lancés. Google a acheté le fabricant de thermostats connectés, Nest Labs, en 2014 pour 3,2 milliards de dollars, et Samsung a mis la main sur l’entreprise de maison connectée, SmartThings, pour 200 millions de dollars.

Au-delà de ces premiers constats, de nombreuses initiatives ont été mises en place en 2015 afin de promouvoir les nouveaux objets connectés en magasin mais les résultats sont pour l’instant ceux représentatifs d’un marché en émergence et restent encore bien au-dessous des attentes des différents protagonistes.

Ce marché qui rassemble l’électroménager, la domotique et les produits réseaux a généré en 2015 un chiffre d’affaires de 127 Millions d’euros soit deux fois plus qu’en 2014. « Si la croissance est considérable, le connecté reste anecdotique : à peine 1% du chiffre d’affaires de l’électroménager et seulement 5% du marché de la domotique » note François KLIPFEL Directeur Général Adjoint chez GfK en France.

Cependant, les consommateurs confirment leur goût pour la maison connectée. Selon une enquête réalisée par GfK, il ressort que  75% d’entre eux déclarent être assez ou très intéressés par le concept. Cependant de nombreux freins persistent. Ils sont relatifs à une offre encore restreinte, une distribution limitée et des positionnements tarifaires jugés trop souvent élitiste.

Ensuite, comme décrit précédemment dans le chapitre objets connectés, la connectivité ne semble pas être suffisamment expliquée aux consommateurs puisque ceux-ci déclarent ne pas acheter d’objets connectés d’abord parce qu’ils ne perçoivent pas les usages qu’ils permettent.

En 2016, la priorité des industriels consiste à étendre la disponibilité de l’offre et des produits et confirme les efforts de mise en avant et de pédagogie.

Si les principaux freins sont adressés, le marché de la maison connectée –hors électronique grand public – devrait générer en 2016, 240 millions d’euros. Toujours selon GjK « En 2016, les marchés des biens techniques vont retrouver le chemin de la croissance, puisque le chiffre d’affaires total devrait s’établir autour de 15,4 milliards d’euros, en croissance de 3,4% par rapport à 2015. Cela sera principalement grâce au marché de la télévision, dont les ventes avérées sur le premier trimestre 2016 et probables sur le second, vont permettre d’atteindre voire de dépasser les 5,9 millions d’unités annuelles. Mais cela sera aussi grâce aux nouveaux produits connectés, dont le chiffre d’affaires sera multiplié par 2,5 pour atteindre 850 millions d’euros, versus 340 Millions d’euros en 2015 ».

Internet des objets IOT : La maison connectée existe t-elle vraiment

Quid de la propriété des données ?

Les objets connectés et les données qu’ils collectent posent le problème de la propriété des informations. La startup I Of Me innove avec une approche ou toutes les données de ses objets qui demeurent la propriété de son utilisateur.

Dérégulation du prix des énergies

Dérégulation du prix des énergies

Dérégulation du prix des énergies – analyse de Philippe Dresto de L’Observatoire National du Bâtiment

Dérégulation du prix des énergies, déjà 10 ans de choix pour l’électricité et le gaz

Depuis le premier janvier 2016, la déréglementation de l’énergie impacte les copropriétés. L’ouverture à la concurrence du marché de l’énergie a débuté il y a 10 ans. Il crée deux types de profils :

1. Les fidèles aux prix de l’électricité et du gaz aux tarifs réglementés de vente régulés par les pouvoirs publics,
2. Les « aventuriers » qui choisissent de quitter l’opérateur historique et font le choix de souscrire librement à une offre de marché, notamment auprès d’un fournisseur alternatif.

Avec du recul, qu’est-ce qui est le mieux ?

Des tarifs fixés par les pouvoirs publics ou par le marché…

D’un côté, les tarifs réglementés sont fixés et modifiés par les pouvoirs publics. Le tarif réglementé s’applique par défaut si aucun autre contrat n’a été souscrit auparavant. Aujourd’hui la grande majorité des ménages français ont conservé ce tarif qui ne suit pas la loi du marché et de la libre concurrence, mais fixé par le ministère de l’énergie une fois l’an. Ces tarifs sont proposés exclusivement par les opérateurs historiques, essentiellement EDF et ENGIE.

De l’autre, les tarifs de marché sont déterminés librement par la loi de l’offre et de la demande, et l’État n’intervient pas pour les réguler. Les offres de marché sont proposées par une variété de « fournisseurs alternatifs »de gaz et/ou d’électricité. Par ailleurs les opérateurs historiques eux-mêmes, en plus du monopole qu’ils exercent sur les tarifs réglementés, commercialisent leurs propres offres de marché.

Un seul fournisseur alternatif peut tout à fait vous fournir simultanément en électricité et en gaz dans le cadre d’une facture unique ce qui représente un vrai plus pour l’utilisateur. Il peut réaliser des campagnes d’offres promotionnelles spéciales.

Offres de marché : un coût plus faible et une meilleure visibilité

La loi du marché impose aux fournisseurs alternatifs de proposer des conditions plus attractives qu’un abonnement aux tarifs réglementés de vente. Le prix de vente de l’énergie et le coût de l’abonnement, en conséquence, sont durablement moins chers dans le cadre d’une offre de marché. La CRE, dans ses rapports, constate un écart de l’ordre de 5 à 10% entre marché réglementé et prix de marché.

Par ailleurs, une offre de marché peut s’avérer par ailleurs beaucoup plus sécurisante que les tarifs réglementés. Ne effet certains opérateurs proposent des formules à prix « fixe », ce qui permet de geler le coût de l’énergie pendant deux à trois ans, alors même que les tarifs publics pourraient connaître dans le même temps des augmentations imprévisibles.

Finalement, Peu d’avantages à rester fidèle aux tarifs réglementés…

En l’état actuel de la législation et des prix de l’énergie sur le marché, les foyers français ne trouveront que peu d’arguments qui pourraient les inciter à rester fidèles aux tarifs réglementés de vente.

C’est l’absence de contrainte qui pourrait guider le comportement des fidèles : pas la peine de comparer des tarifs, connaissance des opérateurs… cependant le marché s’organise et la comparaison des offres disponibles devient de plus en plus simple avec des outils en ligne.

De plus les formalités de transfert des contrats est simple et gratuit. Et rien n’empêche de faire marche arrière et de retrouver son opérateur historique dans les mêmes conditions (Loi NOME).

Les 3 clefs pour faire le bon choix façe à la dérégulation du prix des énergies

  • Le premier facteur à prendre en compte est l’écart de prix. Attention cependant à prendre en compte votre profil d’utilisateur et de mesure la partie fixe de la partie variable du prix. Un gros consommateur privilégiera le kWh le plus bas, le petit consommateur, le prix de l’abonnement. De plus les fournisseurs historiques proposent des approches heures creuses et heures pleines… ces modalités tarifaires sont bien sur à prendre en compte selon vos habitudes de consommation, alors à vos calculatrices !
  • Ensuite il est nécessaire de prendre soin de regarder les modalités de fixation du prix. Deux grandes familles d’offres co existent : les offres à prix « indexés » et à prix « fixes ». L’indexation est fixé sur le tarif réglementé (TRV). Le prix évolue donc en fonction du TRV et sera toujours situé au-dessous de celui-ci. Le prix fixe, souvent plus défavorable annihile le risque de croissance des prix, mais est souvent moins intéressant en prix de base. C’est la même logique que les taux de prêts bancaires fixe ou variable. Soit je choisis le risque de payer plus cher et je peux vraiment payer moins cher, soit j’opte pour la sécurité et je risque de ne pas bénéficier d’une éventuelle des prix…
  • Enfin, au-delà, du prix, il s’agit de regarder la qualité du service. L’énergie est la base du confort de vie, le seul vecteur financier n’est pas suffisant…

La dérégulation du prix des énergies concerne les tarifs pratiqués pour l’achat de l’électricité et du gaz.

Le tarif de l’électricité comprend le coût de l’abonnement, le prix de la consommation (facturée au kWh), les frais d’accès à l’électricité (c’est le cas pour une première installation ou lors du changement de fournisseur) et les taxes. Ces tarifs peuvent également varier en fonction de l’origine de l’énergie ( source d’énergie renouvelable ou pas), le niveau de tension de raccordement et selon les contrats proposés en fonction de  plages horaires (des tarifs plus bas quand la consommation est plus faible).

Le tarif du gaz est indexé sur celui du pétrole, mais pour les particuliers,  il n’existe pas de prix d’achat unique. Le coût global de la facture gaz se compose d’un abonnement fixe (mais fonction du choix chauffage + cuisson ou cuisson seule), d’un prix du kWh de gaz  variable en fonction de sa consommation et des taxes.

Et n’oublions pas dérégulation du prix des énergies ou pas, … l’énergie est notre avenir, économisons la !

 

Page 1 sur 212

Pin It on Pinterest

Shares