Articles

Grâce à la puissance des données, dépassez les attentes émergentes de vos clients

Suite aux restrictions liées au COVID début 2020, le nombre d’entreprises B2B à se tourner vers des plateformes de vente digitale n’a cessé de croître. Cette transition était en effet absolument essentielle pour leur survie. Toutefois, une simple présence sur le marché du e-Commerce ne suffit plus à sortir du lot. Pour vous démarquer de la concurrence et apporter une véritable valeur ajoutée en tant que vendeur B2B, vous devez proposer une expérience client remarquable avec des fonctionnalités en self-service au cœur de vos canaux digitaux.

Augmentez vos ventes B2B sur le long terme

Les entreprises B2B ne doivent jamais perdre de vue l’élément capital pour répondre aux nouvelles attentes des clients et les dépasser : une excellente expérience online couplée à un self-service intuitif, facile à utiliser et responsive. Vous améliorerez ainsi la satisfaction du client, renforcerez sa fidélité et verrez vos ventes croître sur le long terme.

D’après une étude de l’institut McKinsey, les clients montrent une nette préférence pour les canaux en self-service quand il est question de faire une recherche ou de passer une commande. Cette habitude prend toujours plus d’ampleur. Et avec les événements de 2020 qui accélèrent davantage l’adoption du self-service, les acheteurs se disent de plus en plus à l’aise pour passer d’importantes commandes à distance ou le faire entièrement par le biais d’un self-service digital et automatisé.

Cette tendance dessert sérieusement les vendeurs dépourvus d’une solution e-Commerce moderne. Notons enfin que les canaux digitaux ne sont généralement pas les seuls points de contact d’un acheteur B2B durant son parcours d’achat. Les vendeurs B2B doivent dès lors s’efforcer d’intégrer les données provenant de tous leurs canaux, car c’est la seule façon de supprimer les obstacles et de proposer à leurs clients un self-service de qualité.

télécharger le livre blanc "le succès du e-commerce b2b"

 

Le cas de Carlsberg : une plateforme de contact et e-Commerce B2B entièrement intégrée

Carlsberg figure parmi les brasseurs les plus célèbres au monde, distribuant aujourd’hui ses produits dans plus de 140 pays. Carlsberg voulait non seulement devenir un leader du digital dans l’industrie brassicole, mais aussi renforcer son partenariat avec le secteur Horeca. En 2018, la société a lancé Carl’s Shop, une plateforme innovante qui allait faire évoluer le parcours digital de la marque.

La plateforme de commerce digital Carl’s Shop :

  • Propose un service client de qualité
  • Permet de passer des commandes 24h24, 7j/7 depuis n’importe quel appareil
  • Elimine le besoin de ventes par téléphone

 

Elle donne en outre des idées aux clients du secteur Horeca, grâce notamment à des scénarios produits, à du contenu éditorial ou encore à des formations pour apprendre à gérer intelligemment son activité. Tout ce contenu aide Carlsberg à nouer un lien émotionnel qui va au-delà du simple aspect transactionnel, pour un résultat plus axé sur les relations et la fidélité client. Cette approche a entraîné une croissance visible des recettes nettes par client (rapport annuel 2019 de Carlsberg) et elle illustre parfaitement l’importance du digital et d’une expérience client de qualité dans le B2B.

 

Alors, quelle est la recette d’une bonne CX ? Quels ingrédients la composent ? Si la transformation complète de l’expérience client implique bien sûr de nombreuses étapes, la première consiste à surmonter les « défis liés aux données produits ». Ne sous-estimez jamais l’impact que de mauvaises données peuvent avoir sur l’expérience d’achat.

 

Maîtrisez vos données

Intégrer toutes vos données peut sembler si simple à première vue… En réalité, l’ajout de nouvelles informations produits à un site dynamique d’e-Commerce B2B est un challenge. Car il n’y a pas que sur le site e-Commerce que ces données seront nécessaires : les données produits, nouvelles ou actualisées, doivent en effet être intégrées sur tous les canaux online et offline pertinents, et être accessibles sur ceux-ci. Et sans l’outil adéquat, vous perdrez du temps, de l’argent et des ressources – pire encore, vous présenterez des données inexactes à vos clients.

Or, pour offrir une expérience client de qualité, il est essentiel de présenter des informations produits complètes, fiables et attrayantes. Voici quelques chiffres :

  • Une étude de Forrester Research a révélé que 87 % des acheteurs quittaient un site B2B pour effectuer des recherches supplémentaires via d’autres canaux, en général parce que les informations présentées ne répondaient pas à leurs besoins.
  • Selon A.T. Kearney, fournir des données plus précises, plus complètes et plus cohérentes permettrait de faire grimper le taux de conversion de 17 % à 56 %.

 

La qualité des informations produits peut constituer le facteur décisif de la découverte et de l’achat, notamment quand le prospect a la possibilité de comparer deux produits avec différents niveaux de détail. Par le passé, les informations détaillées étaient principalement le fait des secteurs de la construction et de l’industrie manufacturière, dans lesquels les clients interrogeaient leur représentant commercial sur tout ce qu’ils avaient besoin de savoir avant de se décider pour un achat. Désormais, la plupart des canaux de vente étant des canaux distants, toutes les informations produits doivent être disponibles « ici » et « tout de suite ». Si vous ne remplissez pas cette condition préalable au self-service, vous pousserez tout simplement vos clients vers la concurrence.

Et c’est ici que les logiciels de gestion de l’information produit (ou PIM, pour Product Information Management) entrent en scène. Ceux-ci simplifient le processus de création, de collecte et de gestion des informations produits pour les catalogues online et offline. Pour faire simple, un PIM vous aide à proposer plus rapidement et plus facilement des expériences pertinentes par le biais de vos canaux de vente et e-Commerce.

 télécharger le livre blanc "le succès du e-commerce b2b"

Le PIM, pour faire de vos données votre atout le plus précieux

Un logiciel PIM vous permet de rassembler, de gérer et de partager vos données entre vos différents systèmes. Cela comprend vos systèmes ERP et PLM, et s’étend à tous vos canaux – du e-Commerce et du retail jusqu’aux points de vente et brochures. Vraiment tous vos canaux. Non seulement vous enrichissez vos données et créez une source unique et fiable, mais vous disposez également des outils nécessaires pour analyser toutes ces données en une seule fois et exploiter les résultats afin de guider vos décisions commerciales. En tirant parti des données produits gérées par différents systèmes, vous pouvez en faire un atout puissant au service de l’innovation, de votre transformation digitale et de votre croissance.

 

L’utilisation efficace d’un PIM présente donc de nombreux avantages pour les organisations B2B. Vous pouvez ainsi créer des expériences omnicanal, augmenter vos opportunités de vente et limiter les retours de produits, avec pour résultat une croissance de vos recettes. En outre, un PIM améliore la cohérence et l’efficacité de vos opérations en éliminant les données en double et les processus sujets aux erreurs, et en facilitant le respect des réglementations.

 

Un PIM simplifie aussi l’intégration de nouveaux produits et services, ainsi que le cycle de vie des produits, ce qui accélère le time-to-market. Vous pouvez améliorer davantage votre expérience client en utilisant les connaissances acquises pour augmenter l’engagement et renforcer vos performances et votre valeur commerciale. La centralisation de vos données permet enfin de faire tomber les barrières avec les partenaires tant internes qu’externes, pour une prise de décision plus rapide.

 

 

Devancer la concurrence

À l’ère de l’information, il est plus essentiel que jamais de maîtriser vos données pour offrir à vos clients de la valeur et des expériences pertinentes. Vous pourrez ainsi vous engager pleinement dans l’omnicanal, créer des parcours d’achat personnalisés et améliorer la fidélisation, avec pour résultat des clients satisfaits qui continueront volontiers à faire des affaires avec vous. En gérant vos données de base avec un PIM, vous pouvez prendre l’avantage sur vos concurrents en vous distinguant par des canaux digitaux plus rapides et plus performants.

 

 

Osudio & SAP CustomerExperience combinent un logiciel de commerce digital et de gestion des données produits à des années d’expérience en implémentation et en design UX. Nous vous aidons à créer des expériences client omnicanal fluides. Parmi les avantages, citons la simplification IT, un meilleur engagement client et une hausse des recettes, et la possibilité d’intégrer facilement d’autres pays sur la plateforme.

La gouvernance des données, un outil majeur au service de votre démarche RSE

À l’heure de l’“infobésité”, les entreprises ont à gérer un nombre croissant de données, collectées par les métiers en interne ou auprès des clients et utilisateurs finaux. Si les données sont devenues un atout business indéniable, elles peuvent aussi représenter un casse-tête coûteux quand leur gestion n’est pas structurée. La gouvernance des données devient alors une nécessité pour répondre à ces défis mais aussi pour adopter un rapport plus responsable au numérique.

L’énergie humaine colossale à déployer pour naviguer dans cette montagne d’informations disparates, peut rapidement devenir contre-productive tandis que le stockage massif que cela demande n’est pas sans conséquence environnementale, entre alimentation électrique des datacenters, refroidissement des infrastructures grâce à l’eau.

La gouvernance des données, déployée par étape et en totale cohérence avec l’ensemble des métiers, devient même un outil indispensable pour toute entreprise ayant à cœur de déployer une démarche RSE solide et pérenne.

Une gouvernance en plusieurs étapes pour instaurer un rapport plus vertueux au numérique

Si la gouvernance de la donnée représente indéniablement un chantier coûteux, c’est aussi un projet porteur de nombreux bénéfices, tant financiers qu’écologiques et internes, vous permettant de fédérer vos équipes autour de cette nouvelle culture plus vertueuse.

Le stockage en datacenter peut rapidement représenter un coût important pour une entreprise et chaque donnée stockée consomme en électricité pour l’alimentation de la structure, en eau pour le refroidissement des salles et des serveurs, etc. Un des premiers axes de travail sera donc de cartographier et de trier les données en votre possession pour ne garder que les plus pertinentes et réellement exploitables, réunies dans un référentiel harmonisé où le cycle de vie de chaque donnée est clair. En réduisant ainsi le nombre de données exploitées et en ne conservant que celles nécessaires au traitement, votre demande en stockage sera réduite et le bénéfice immédiat sera tant financier qu’environnemental. Moins de données, mais plus pertinentes pour un stockage et un coût écologique rationalisés.

Le bénéfice est également interne. Alors que vos équipes se débattent peut-être dans une foule de données hétérogènes, non classifiées ou même labellisées, et perdent temps et énergie, la mise en place d’une gouvernance vous permettra de créer une source de données fiables et harmonisées pour tous. Cette gestion éclairée et structurée de la donnée, de son cycle de vie et de sa finalité pour l’entreprise permettra à vos collaborateurs d’être plus efficaces et d’optimiser leur énergie pour la consacrer aux axes stratégiques de leurs projets.

Une telle gouvernance vous permet alors d’amorcer un rapport plus vertueux et serein au numérique grâce à deux piliers : la rationalisation de votre impact écologique et la création d’un environnement de travail structuré pour préserver l’énergie de vos équipes.

Evitez l’écueil de la précipitation, optez pour un déploiement progressif et réfléchi

Quand la volonté de déployer une véritable gouvernance des données est actée, il existe plusieurs pièges à éviter, au premier rang desquels, la précipitation. La tentation peut être grande d’établir un programme global de gouvernance, pour l’ensemble des données et des métiers. Une telle démarche s’avèrerait rapidement très coûteuse pour l’entreprise, sans garantie de résultats avec l’installation d’un effet tunnel empêchant la priorisation efficace des chantiers à mener. Si la mise en place d’une gouvernance de la donnée est globalement bénéfique pour les entreprises, il convient de veiller à ne pas délégitimer le projet et le voir prendre l’eau quelques mois plus tard par manque de ressources et de temps.

Privilégiez une segmentation des chantiers sur un périmètre de données restreint, ce qui vous permettra de dégager rapidement des « quick wins ». Cette définition des premiers champs d’action doit être effectuée relativement tôt et en parfaite coordination avec l’ensemble des métiers qui seront impliqués dans le déploiement de cette gouvernance. Il est primordial que vous ayez conscience de vos propres moyens, humains comme financiers, avant de vous y lancer corps et âme.

Cette gouvernance des données doit concrètement être déployée dans une vraie volonté d’optimisation. Il est primordial qu’elle soit pensée comme une démarche pérenne et durable, et non pas seulement pour “verdir” votre image en tant qu’entreprise. Si elle est bienvenue dans votre stratégie de représentation notamment vis-à-vis de l’interne et de vos clients, elle ne doit pas servir cet unique intérêt, au risque d’être taxée de « green washing ».

Elle devra reposer sur un chef d’orchestre garant que le projet suivra une logique RSE : le Chief Data Officer. Ce dernier pourra insuffler le tempo du déploiement de cette gouvernance, vous accompagner dans la priorisation des chantiers à mener et en être le défenseur auprès des instances décisionnaires de l’entreprise. Il sera également le garant du partage de cette stratégie avec l’ensemble des collaborateurs qui en sont les acteurs de premier plan, pour fédérer les équipes et favoriser une culture d’entreprise autour de la démarche engagée.

C’est un projet impliquant et potentiellement coûteux qui, s’il est mené de façon progressive et réfléchie, pourra engendrer de nombreux bénéfices allant bien au-delà de votre image d’entreprise engagée.

[Replay] Digitalisez le traitement des demandes RGPD et renforcez la confiance client

Les clients sont de plus en plus sensibles au traitement de leurs données, comprennent leurs droits, et veulent les exercer.

Les entreprises et organisations ont dans un premier temps appréhendé le RGPD notamment sous l’angle conformité juridique et cybersécurité, mais peu d’entre elles ont saisi l’opportunité de cette législation pour améliorer l’expérience client et renforcer le lien de confiance avec leurs clients.

SQLI et Talend se sont associés pour créer une solution bout-en-bout qui permet de relever ce challenge !

Visionnez le replay sur le webinar RGPD avec Talend

Comment intégrer les third party data pour qu'elles fassent le beau temps des campagnes emailing ?

Nous en sommes conscients, les audiences sont sursollicitéesFace à cette tourmente, l’hyperpersonnalisation, la contextualisation et la segmentation fine se placent désormais comme les atouts majeurs des campagnes marketing. Ces dispositifs nécessitent un carburant très précieux : la donnée. La donnée qui répondra à vos besoins n’est pas toujours connue ou disponible en interne à l’entreprise. C’est là que les third party data entrent en scène ! Découvrez comment bien les intégrer et ainsi qu’un exemple de leur usage dans une campagne emailing dans le domaine de l’assurance. 

Si les first party data sont les données générées par l’activité de l’entreprise et les second party data les données issues de partenariats commerciaux, que sont les third party data ? Aussi appelées données tierces, elles sont fournies à un annonceur dans un objectif de ciblage ou de personnalisation par une société tierce, autre que l’éditeur utilisé comme gestionnaire de campagne, et sont généralement payantes. Cette société tierce est appelée une « data broker » et a pour cœur de métier de collecter les données et de les associer à des visiteurs grâce à des cookies ou bien à des coordonnées d’utilisateurs. 

 

3 façons d’utiliser et d’intégrer les third party data dans son entreprise

Les third party data sont des ressources inestimables à condition de savoir bien les exploiter. Il existe plusieurs manières de procéder, depuis une Data Management Platform (DMP) ou via une API.   

Utilisation avec une DMP

Une DMP est une plateforme de gestion des données qui va permettre d’échanger ou d’associer toutes les first, second ou third party data. L’objectif principal est de centraliser les données et de simplifier leur gestion afin de créer un référentiel client unique. Vous obtiendrez ainsi des segments d’audience très précis ou une personnalisation très pointue de vos campagnes emailing pour en maximiser la performance. 

La DMP conduit également à la création de segments « look alike », c’est-à-dire des segments de profils qui ressemblent à des segments existants. Plusieurs niveaux de correspondance peuvent être générés afin d’augmenter le volume de ciblage. À noter que plus le ciblage est important, plus le pourcentage de ressemblance est faible. 

D’autres fonctionnalités sont proposées par une DMP comme la capacité de cibler de façon omnicanale, de gérer les prospects dans une logique PRM (Prospect Relationship Management) ou encore de mesurer le ROI. 

Utilisation avec une API

Si l’intégration d’une DMP est un projet estimé trop lourd, il est possible d’utiliser et d’intégrer des données tierces via une API. Normalisée et largement répandue depuis plusieurs années, une API est une interface faisant communiquer deux applications entre elles.  

Dans le cas de gestion de campagnes emailing, le logiciel de gestion de campagne transmet une demande au fournisseur afin d’obtenir la donnée tierce qui répond ensuite à la requête. Le couple requête / réponse utilise des langages très répandus comme le format JSON, ressemblant au Javascript. Le service web qui expose une API l’accompagne souvent d’un guide d’utilisation listant toutes les fonctionnalités et les données accessibles. L’utilisation et l’intégration sont donc facilitées, ce qui permet de déployer un projet d’échange de données sur des besoins plus ponctuels ou restreints, comme l’optimisation du moment d’envoi d’un emailing ou l’enrichissement de données pour la personnalisation de blocs de contenus. 

Exemple d’intégration avec Adobe Campaign

Adobe Campaign a été développée pour permettre une ouverture sur son architecture grâce aux API. Ces API sont utilisées en interne dans l’application avec JavaScript et en externe avec SOAP, un protocole d’échange d’informations structuré basé sur le langage XML. 

Adobe Campaign dispose de deux types d’API : 

  • Une API pour accéder aux données en interrogeant le modèle de données d’Adobe Campaign 
  • Une API pour interagir avec les objets de la solution Adobe Campaign (diffusions email / SMS /…, workflows, abonnements, etc.) 

Pour utiliser un service tiers, il est nécessaire d’utiliser le protocole SOAP implémenté dans Adobe Campaign. Le protocole SOAP permet l’invocation de méthodes API, soit par le client riche, soit par des applications tierces utilisant des webservices, soit par des scripts JavaScript utilisant les méthodes natives. Cette dernière méthode est compatible avec des services de données tiers. Par exemple, l’objet HttpClientRequest est utilisé pour appeler l’API d’un service tiers en tant que client HTTP et l’objet HttpClientResponse est utilisé pour récupérer la réponse. 

Un expert technique est indispensable pour garantir la faisabilité en matière d’architecture technique et en fonction des cas d’utilisation fonctionnels et métiers. Une condition préalable à valider également est le nombre d’appels par jour suivant l’accord de licence signé avec Adobe. L’expert technique devra également intervenir pour intégrer les services de données tiers à Adobe Campaign en les configurant, en créant et en configurant des workflows de campagne et en configurant les communications API.
 

Et concrètement ? Parlons météo !

Prenons l’exemple de lutilisation de la donnée météo. Il existe un certain nombre de fournisseurs de données météo, à un niveau mondial comme OpenWeatherMap, WeatherAPI ou WeatherStack, comme à un niveau local avec MétéoFrance. Ces acteurs procurent la météo du jour, les prévisions sur plusieurs jours et l’historique météorologique. Comment pouvez-vous mettre en valeur cette mine de données ?  

Couplée à la localisation des clients, elle permet de déclencher une campagne suivant les conditions météorologiques (selon les températures, les intempéries…) ou de contextualiser un bloc de contenus pour une campagne de masse. Dans le secteur de l’assurancenous pouvons avoir :  

  • Cible : les clients d’un assureur automobile qui se rendent dans une ville dans X jours 
  • Données tierces à utiliser : vitesse du vent supérieure à 90 km/h ou risque d’orage  
  • Personnalisation du message : blocs de texte et d’image conditionnels avertissant le client des conditions climatiques et l’encourageant à souscrire à la franchise collision 
  • Résultat attendu : générer des ventes additionnelles en proposant une garantie supérieure 

De plus, selon le résultat de la campagne, un score « météo sensible » pourra être mis en place dans la base de données permettant de tagger des clients plus sensibles à la personnalisation météo (ouverture du mail, clic sur le bloc personnalisé, etc.). Ce score permettra ainsi d’affiner la cible des futures campagnes. 

Les third party data sont très puissantes. Elles apportent un volume de données conséquent pour mettre en œuvre tout un dispositif de matching avec les first et second party data dans un objectif de référentiel unique. Elles peuvent aussi être injectées directement dans un email ou un workflow de campagne. Les bénéfices sont multiples : une augmentation de la qualification, un élargissement de l’audience, une amélioration de la segmentation et du ciblage ou encore une optimisation de l’impact des campagnes email en apportant davantage de personnalisation et de contextualisation. Soignez vos audiences en sautant le pas de l’utilisation des third party data ! 

Checklist pour un suivi efficace des données de votre site web 

Vous avez l’impression de ne pas tirer pleinement parti de vos données ? Je suis ravi de voir que vous avez décidé de prendre les choses en main ! Ma plus grande frustration reste de constater un dysfonctionnement du système de suivi de mes clients ou une mauvaise configuration de leurs outils en la matière. (Oui, je suis un peu un obsédé des données.) « Mais pourquoi ? », vous demandez-vous sûrement. Parce que je vois souvent le potentiel des données (d’un point de vue marketing) glisser entre les doigts des chefs d’entreprises. Je vais donc vous donner quelques conseils pour améliorer votre suivi.   

 

Notez que ces conseils dépendent de votre activité ou de votre secteur. Au moment de définir votre stratégie personnelle de suivi, pensez donc à mettre cet article en parallèle avec votre plan marketing. 

Pourquoi suivre vos données ? 

Vous menez de petites campagnes sur Facebook ou sur d’autres médias sociaux ? Parfait ! Vous surveillez les performances de vos publicités ? Cool ! Vous basez vos décisions sur un faible coût par clic et un taux de clics élevé ? C’est bien, mais ne seriez-vous pas prêt à payer un clic plus cher si vous saviez que vous redirigez vers votre site un utilisateur réellement pertinent, voire un client potentiel ? Alors cela signifie que vous devez suivre attentivement ces visiteurs sur votre site !  

Vous pouvez très bien comptabiliser 1 000 visiteurs sur votre site sans pour autant en tirer la moindre conversion (consulter des pages importantes, s’abonner à la newsletter, acheter un produit…). Pourtant, avec les bons outils, il est possible de réellement suivre ces visiteurs, d’analyser leur comportement et d’agir en fonction. 

Disposer des bonnes données vous permet en outre de mieux connaître vos clients. Considérez cette méthode comme une façon gratuite d’analyser votre marché. Vous apprendrez entre autres à connaître les envies, besoins et comportements de vos clients.  

 

Les outils de base pour un bon suivi 

Il existe une infinité d’outils. Par conséquent, vous devez choisir vos batailles en gardant à l’esprit votre stratégie. Vous trouverez ci-dessous plusieurs outils de suivi que je vous recommande d’installer sur votre site.   

1. Google Analytics (ou un outil équivalent) 

Celui-ci s’impose comme une évidence, bien sûr, mais en réalité beaucoup ignorent l’étendue réelle des fonctionnalités de Google Analytics. Il vous arrive sans doute de consulter le nombre de sessions, les utilisateurs, les données démographiques, la localisation, les devices…  

Mais avez-vous déjà songé à :  

  • Configurer des événements ou des objectifs spécifiques ? (Clic sur un bouton particulier, abonnement à la newsletter, durée de la visite d’une page, lecture d’une vidéo, chargement de 5 pages en une seule session…)   
  • Analyser la vitesse de chargement de vos pages ? 
  • Examiner les conversions indirectes pour un site de e-commerce ? 
  • Observer le processus de paiement ? 
  • Créer des segments de visiteurs particuliers ? 
  • Ajouter un nouveau modèle d’attribution ? 
  • Adapter ou créer des groupes de canaux personnalisés ?   

 

Les rapports personnalisés s’avèrent par ailleurs très utiles pour tous ceux qui se sentent dépassés par la quantité de menus, graphiques et autres paramètres. Ces rapports sont là pour vous faciliter la vie ! Ils centralisent vos données essentielles dans un même tableau de bord. Ainsi, plus besoin de jongler entre différentes pages pour analyser vos données clés.  

 

2. Google Tag Manager 

Si installer les balises adéquates vous semble complexe, Google Tag Manager vous aidera à les configurer plus facilement. Vous limiterez par la même occasion votre besoin en développeurs. Cet outil repose sur la présence d’une balise, d’un déclencheur et de variables (facultatives).  

Par exemple, l’un de nos clients souhaitait suivre le moment où des visiteurs ouvraient leur simulateur 3D. Pour ce faire, nous avons sélectionné la balise d’événement Google Analytics (par défaut dans Tag Manager) et nous avons choisi un déclencheur (clic sur un « click class » spécifique). C’est aussi simple que ça : voilà comment nous avons ajouté un nouvel événement « clic sur le simulateur 3D ».  

Les variables sont également de précieux alliés. Une variable est utilisée pour les valeurs changeantes, comme un nom de produit, un prix, une date, etc. Elle sert à recueillir et envoyer de manière dynamique des données spécifiques. Par exemple, pour cet événement « simulateur 3D », nous pourrions ajouter une étiquette qui utiliserait une variable afin d’envoyer la page de référence. De ce fait, nous pouvons mieux analyser cet événement, en voyant non seulement le nombre de personnes l’ayant réalisé, mais aussi leur provenance.  

 

3. Heatmap 

Les outils de heatmap sont un autre allié essentiel pour votre suivi. En bref, ils vous donnent un aperçu des habitudes de vos utilisateurs et de leurs interactions. L’idée est de générer une heatmap (représentation visuelle) afin d’analyser les résultats d’une page web (par exemple, pour vérifier l’efficacité d’un CTA.)  

Les outils les plus connus dans ce domaine sont MouseflowHotjar et Crazyegg. 

 

4. Balises de plateformes publicitaires 

Toutes les plateformes publicitaires proposent des balises de suivi (balises pour Bing Ad, Google Ad, Facebook Ad, Pinterest Ad…). Il est important de s’assurer que vous disposez bien de toutes les balises nécessaires. De cette manière, vous pourrez non seulement en savoir plus sur les interactions découlant directement de votre campagne, mais aussi recibler les personnes impliquées.  

Vous pouvez, par exemple, créer des événements spécifiques tel qu’un « ViewContent » (quand quelqu’un consulte une de vos pages importantes) et segmenter ces personnes en audience afin de vous permettre de les recibler. S’il est possible de suivre une multitude d’événements, il est toutefois important de les aligner avec vos objectifs marketing. Nous conseillons par exemple aux acteurs du e-commerce de créer des événements « ViewContent », « Add to cart », « Initiated checkout » et « Purchase ».  

Pour l’un de nos autres clients, nous avons suivi toutes les personnes ayant commandé un échantillon gratuit par l’intermédiaire de son site. Comme nous savons qu’il s’agit ici de prospects chauds, autrement dit intéressés et susceptibles d’acheter, nous pouvons leur présenter des publicités ciblées. Nous avons segmenté les conversions, les « leads », en une audience personnalisée afin de les recibler. Tous ces efforts se sont traduits par une augmentation immédiate de l’engagement et des ventes.  

 

Analysez facilement vos données 

Après avoir choisi et installé vos balises, l’analyse de vos données s’avère souvent un véritable casse-tête. En effet, les données proviennent parfois de plusieurs outils, ce qui complique la possibilité de disposer d’une vue d’ensemble. Alors, comment faire pour tout rassembler sur un même tableau de bord ? La réponse est simple !   

Google Data Studio est un outil gratuit de gestion de tableau de bord et de reporting qui vous permet de centraliser des données issues de différentes sources. Il est facile à configurer, à personnaliser et à partager. Plusieurs connecteurs Google et open source sont mis à votre disposition gratuitement. Si vous souhaitez toutefois intégrer d’autres sources de données, comme Facebook Ads, vous devrez faire appel à un connecteur tiers (Supermetrics, funnel.io…).  

Laissez-moi vous donner un exemple d’un Google Data Studio bien conçu. L’un de nos clients était convaincu que son tableau de bord Google Analytics était suffisant pour analyser ses données. Nous pensions le contraire, aussi lui avons-nous montré les nombreuses possibilités supplémentaires que lui offrait un tableau de bord Google Data Studio. Son entreprise menait des campagnes cross-canal, mais sans avoir de vue d’ensemble de leurs performances. Nous lui avons donc créé un tableau de bord réellement complet et dynamique. Nous avons affiché à la fois les indicateurs d’achat média par canal et leur impact sur son site web. Notre client a ainsi pu analyser ses données plus efficacement et optimiser ses campagnes plus rapidement, pour une approche plus rentable !  

En bref…  

Je vous l’ai dit, les possibilités sont infinies. Assurez-vous donc d’avoir dressé la liste de vos objectifs et de disposer des outils et balises nécessaires pour exploiter ou analyser vos données. La question n’est pas de savoir ce que font les autres. Ce qui compte, c’est ce qui fonctionne pour vous !   

[Ebook] Démarrer votre gouvernance des données

Gouverner les données : un enjeu de taille

La digitalisation des entreprises a considérablement décuplé le volume de données générées par celles-ci. Et ce au niveau de toutes les activités.  

La collecte de données s’est multipliée pour plusieurs raisons :  

  • Les obligations règlementaires  
  • L’intégration de nouvelles sources (comme les IoT ou encore les applications mobiles) 
  • L’enthousiasme débordant de certains acteurs récoltant un maximum de données qui ne se révèlent pas toutes utiles 

Or, bien que la Data prenne une ampleur croissante au sein des organisations, elle est bien souvent gérée de façon trop « artisanale » et – osons le dire – insuffisamment structurée ! 

Mettre en place une gouvernance des données semble donc être une évidence, mais de nombreuses organisations hésitent encore à se lancer dans une telle démarche.  En cause : la difficulté à maîtriser un projet de cette ampleur et en dégager des bénéfices visibles à court terme. 

 

Des pistes concrètes et pragmatiques

Notre parti-pris est qu’il n’est pas nécessaire de mettre en œuvre une démarche de gouvernance des données simultanément à l’échelle de toute l’organisation.  

Nous le déconseillons même. Ce serait une tâche très complexe générant des collisions à risques entre tous les projets opérationnels de l’entreprise.  

En revanche, des projets de PIM, MDM, Reporting et démarche RSE peuvent être d’excellents accélérateurs pour initier une gouvernance des données.  

Dans cet ebooknos consultants Data vous proposent des pistes concrètes pour la mettre en place, avec un bénéfice à la fois pour un projet et la gestion globale des données de l’entreprise. 

Nous aborderons :  

  • Les enjeux de la gouvernance des données 
  • Les principes clés d’une gouvernance durable 
  • Les voies possibles 

téléchargez l'ebook sur la gouvernance des données

[Replay] Comment concilier innovation numérique et transition écologique ?

4%.
C’est ce que représente l’empreinte du numérique au niveau des émissions de gaz à effet de serre dans le monde aujourd’hui. Et ce chiffre est amené à tripler d’ici 2025 !

Alors comment concilier cette innovation numérique qui ne cesse d’accélérer et les problématiques environnementales que nous connaissons tous ?

Selon nous, le numérique et l’écologie ne sont pas incompatibles si nous entreprenons une démarche de sobriété numérique.

L’objectif de cette démarche est simple : nous amener à réduire progressivement notre impact environnemental par des actions quotidiennes qui sont en fait assez évidentes.

Nos experts Stephen Demange et Véronique Tillaud vous dressent dans ce webinar un panorama de la situation numérique actuelle ainsi que de nos pistes d’amélioration pour entrer dans un modèle plus soutenable et plus pérenne.

 

Téléchargez le replay sur l'innovation numérique et la transition écologique

Analytics et Data driven : bien comprendre et agir pour de meilleures décisions stratégiques !

Toutes les interactions ou presque peuvent être trackées, décryptées et analysées. Cependant, je constate souvent que dans l’écosystème digital, les données récoltées par les nombreux outils d’analyse sont mal exploitées car mal interprétées. Pourtant, la bonne compréhension de ces données impacte les décisions stratégiques ou budgétaires de votre business model !

L‘expérience utilisateur est devenue un paramètre incontournable de l’écosystème digital actuel. Lors de sa navigation, ce que le client attend d’un site est qu’il réponde non seulement à ses attentes en matière d’assortiment produits, mais surtout en termes d’expérience ! 
Il faut, par conséquent, se livrer à un véritable travail d’analyse et d’interprétation : la collecte de données portant sur le parcours d’achat du consommateur sur un site web est capitale. Mais faut-il encore être capable de décrypter les comportements de vos clients ou de vos prospects, et de mesurer leur expérience utilisateur d’un point de vue quantitatif !

Analytics : les éléments indispensables et les méthodes d’analyse

4 éléments clés sont à prendre en compte :

  • L’acquisition (comment l’internaute est arrivé sur votre site) : au-delà des canaux, de quelles sources précisément sont venus vos visiteurs ?
  • L’engagement (comment il réagit par rapport à votre site) : quelles sont les pages qui attirent les visites ?
  • La conversion (ce qui l’a incité à passer à l’acte d’achat) : quels sont les éléments ou les leviers (Attribution) qui interviennent dans l’entonnoir de conversion ?
  • La fidélisation (ce qui fait que l’internaute revient sur votre site) : quels produits, quel contenu font revenir vos visiteurs ou vos clients ?

Google a imaginé la mesure de l’expérience utilisateur (UX) avec un modèle appelé HEART (Happiness, Engagement, Adoption, RetentionTask success). Ces indicateurs essentiels constituent un cadre d’analyse de l’expérience utilisateur. Le choix des indicateurs de performances à monitorer et des outils à déployer sur le site est primordial pour comprendre les comportements de vos clients. Mais capter des données ne sert à rien si vous n’êtes pas en mesure d’en tirer les enseignements et de prendre les bonnes décisions !

Il existe donc plusieurs types de méthode d’analyse en Digital Analytics.

Les principaux types sont la méthode d’analyse comportementale, d’analyse attitudinale, concurrentielle et sociale :

Analytics 1


Définir les KPI qui font sens 
et les interpréter

Les outils Analytics sont nombreux : Adobe Analytics, AT InternetIBM Digital Analytics Google Analytics étant le plus populaire au monde avec une part de marché estimée à plus de 85%. Ils sont indispensables pour n’importe quelle entreprise gérant un business en ligne : ils permettent de mieux comprendre les réactions et les comportements des visiteurs sur votre site.

Mais la différence ne peut se faire sur les données elles-mêmes ! Les représentations graphiques (la datavisualisation ou dataviz) garantissent une interprétation intelligente de vos données. Elles permettent en effet d’analyser et de visualiser (représentation de la donnée brute) un grand volume de données. Plusieurs solutions de dataviz existent, telles que Google data studio, Holistics, Qlik Sense, Microsoft Power BI et Salesforce Einstein.

Analytics 2

Exemple d’interface de solution de dataviz

C’est parce que l’on a ressenti les limites du site web que l’on recherche des leviers d’amélioration. Fréquence d’achat, taux de transformation, taux de rebond, partage de produits ou encore taux de souscription à une newsletters, c’est à vous qu’il revient de définir vos actions en fonction des éléments que vous aurez analysés !

Prenons l’exemple d’un formulaire. On peut s’interroger sur la conception d’une page ou d’un formulaire, lorsqu’un internaute interrompt sa navigation à un endroit précis. 
La plupart des sites possèdent des pages plus longues que la taille de nos écrans, sachant qu’aujourd’hui, une personne utilise plusieurs types d’écran (laptop, desktop, tablette, smartphone). Les utilisateurs doivent donc « scroller » (faire défiler) pour visualiser l’ensemble des éléments, informations, de la page ou du formulaire.

Analytics 3

Il est alors indispensable de voir jusqu’où le visiteur fait défiler la page, en particulier s’il parcourt une page produit ou un formulaire qui contient des informations importantes.

 

Pourquoi utiliser le scroll tracking comme objectif ?

La profondeur de scrolling

En créant un objectif basé sur le scroll tracking, vous pourrez suivre le nombre de visiteurs qui voient la page en entier. La profondeur du scrolling est utile si vous animez par exemple un blog et que vous attendez de vos visiteurs qu’ils lisent vos articles (principalement si un CTA – bouton call to action – se trouve en bas de l’article).

Il est cependant impossible de créer une visualisation en entonnoir. Vous pouvez toujours créer plusieurs événements (dans Google Analytics) pour le suivi du scrolling, avec pour chaque suivi une profondeur spécifique (30%, 60%, 90%). De cette façon, il est possible de créer une représentation en forme d’entonnoir de la perte de visiteur sur chaque page. Dans le cas d’un formulaire, vous pourrez identifier à quel endroit, au niveau de quel champs ou quelle demande d’information va inciter le visiteur à quitter la page. 

(Re)définir le contenu et la structure

En matière de SEOle scroll tracking pourra vous aider à développer votre contenuIl serait logique de penser que le contenu que vos utilisateurs voient en dernier, avant de quitter une page, est le contenu le plus intéressant de votre site. En observant les événements les plus importants dans Google Analytics, vous pourrez identifier facilement les pages de destination qui attirent le plus vos visiteurs.

Une interprétation possible lorsqu’une landing page génère du trafic, est qu’elle est populaire ! Cependant, elle n’est pas efficace dans l’engagement de vos visiteurs. En déterminant la profondeur de scrolling de vos visiteurs sur une page de destination donnée, vous pouvez déterminer les informations que ces visiteurs souhaitent voir et ajuster votre contenu en conséquence. Vous pouvez également déterminer quel contenu est le plus attrayant et fonctionne le mieux en termes d’engagement général des visiteurs. Vous pouvez donc la restructurer ou la réécrire pour qu’elle contienne plus d’informations utiles.

Par exemple, certains articles de blog peuvent contenir un paragraphe ou deux qui sont particulièrement intéressants pour vos clients, mais la plupart quittent votre site après l’avoir lu. Dans ce cas, vous pouvez essayer de modifier la structure et le contenu du message lui-même ou d’en écrire un autre avec des informations plus détaillées. Le suivi de la profondeur du scrolling vous permet également de savoir si une page de destination ou toute autre page comportant un appel au clic contient des éléments de distractions potentielles. Si vous remarquez que des personnes quittent la page après l’avoir visionnée seulement à 50%, vous pouvez examiner cette partie de la page pour rechercher d’éventuelles problèmes.

Canal de conversion ou canal de découverte ?

Dans un autre exemple, on constate que votre site enregistre un nombre important de visites en provenance du canal « social media ». Cependant ces visites sont de courte durée et peu de pages sont consultées. Que pouvons-nous en déduire ?

Le canal n’est pas approprié à votre cible ou les visites ne sont pas suffisamment qualifiées ? 

Mais l’explication rationnelle serait que dans notre cas nous sommes face à un canal de « découverte » plutôt qu’un canal de « conversion » : les internautes vont découvrir votre marque, vos produits, votre présence sur le web, grâce aux réseaux sociaux mais ils ne convertissent que plus tard, lors d’une seconde ou une troisième visite. 

On peut s’en assurer en consultant les rapports de Google Analyticsdans la rubrique : Conversions > Entonnoirs multicanaux.

Analytics 4

De manière générale, grâce à la création d’un « projet modèle d’attribution » dans Google Analytics, vous identifiez la pertinence des leviers marketing contributeurs et optimiserez les budgets média en fonction de l’importance de chacun de ces leviers dans le processus de conversion !

Dans cet exemple, il s’agit de la création d’un projet d’attribution dans Google Analytics. Pour rappel, il existe deux types de modèles, prédéfinis et algorithmique.

Analytics 5

On peut visualiser les différentes étapes (parcours) avant la conversion.

Analytics 6 Analytics 7

La liste des analyses et de leurs interprétations est longue, et cet article ne refléte qu’une infime partie des possibiltés qui s’offres aux annonceurs dès lors qu’ils s’agit de prendre des décisions impactantes pour leur développementque ce soit online mais également offline.

Aujourd’hui nous pouvons récolter et analyser des données qui proviennent de multiples canaux et supports : ordinateurs, tablettes, smartphones, TV, écrans dans les magasins, sites web, bornes interactives... Nous sommes capables d’analyser l’impact du trafic en magasin des campagnes TV (Holimetrix), de faire des prédictions de trafic, d’audience (Kameleoon, IBM Watson…).

Nous en pouvons plus nous contenter de lire des tableaux de bord sans en connaitre réellement la signification et les enseignements. Mais devant les sources inombrables de solutions et de canaux, il devient indispensable de « COMPRENDRE » avant d’ « AGIR » !

—– 

Définitions

Le Data Driven, également appelée Data-Driven Marketing, se base sur une approche qui consiste à prendre des décisions stratégiques sur la base d’une analyse et d’une interprétation des données. L’approche Data Driven permet d’examiner et d’organiser la data dans le but de mieux cerner ses consommateurs et ses clients.

L’analyse (Analytics) est la découverte, l’interprétation et la communication de modèles significatifs dans les données. … Particulièrement utile dans les régions riches en informations enregistrées, l’analyse (Analytics) repose sur l’application simultanée de statistiques, de programmation informatique et de recherche opérationnelle pour quantifier les performances.

Obtenez gratuitement un CRM de SAP !

Pour inciter les utilisateurs des solutions ECC (et CRM) de SAP à passer à S/4HANA, la solution intègre désormais plusieurs fonctionnalités performantes de CRM dans sa dernière version. Résultat : avec S/4HANA 1909, vous disposez tout bonnement d’une stack CRM 7 simplifiée gratuite. Avis aux amateurs de CRM !

Comment est-ce possible ?

Commençons par revenir sur les fonctionnalités CRM des dernières versions de S/4HANA.
Dans la version 1709 de S/4HANA (la version de septembre 2017), SAP avait proposé un « composant add-on de gestion de la relation client » (en bref, un « CM »). Si cet add-on apportait effectivement à S/4HANA des fonctionnalités CRM, il nécessitait toutefois une installation technique séparée. Parmi les fonctionnalités supplémentaires, on retrouvait des objets service et un centre d’interaction. Or, ces fonctionnalités CRM étaient jusque-là absentes et pourtant indispensables pour convaincre de nombreux utilisateurs de SAP de passer à S/4HANA.

L’intégration des fonctions CRM dans un système S/4HANA a permis de résoudre instantanément certains principaux points faibles des solutions CRM traditionnelles de SAP : le recours à un middleware pour assurer la synchronisation CRM-ECC, la duplication des master data telles que les partenaires, ou encore la présence de composants techniques comme la stack JAVA pour la tarification. Côté nouveautés, TREX permettait d’effectuer des recherches efficaces, et plusieurs interfaces utilisateurs étaient disponibles, notamment. 

En d’autres termes, l’ajout de fonctionnalités de gestion de la relation client à S/4HANA avait permis de simplifier l’environnement autant que possible, tout en réduisant automatiquement le TCO et en améliorant l’expérience utilisateur. Par ailleurs, la disponibilité d’objets service CRM rendrait moins brutale la suppression du service client à l’horizon 2025.

S/4HANA et ses nouvelles extensions

Un an plus tard, dans la version S/4HANA 1809, l’add-on de gestion de la relation client intégrait encore de nouvelles fonctions, à commencer par des flux d’avant-vente, des tâches et la gestion des leads et des opportunités. Côté service, un outil de création de devis avec regroupement de produits et intégration d’une localisation fonctionnelle est venu compléter l’offre. En d’autres termes, des processus de service complets pouvaient être traités en lien direct avec les actifs, la facturation et le contrôle. Le CM de S/4HANA commence alors véritablement à prendre forme. 

Dans la version 1909 actuelle de S/4HANA, l’add-on de gestion de la relation client n’existe plus, pas plus que l’installation additionnelle. SAP a renommé les fonctions de gestion de la relation client, désormais appelées « S/4HANA Sales and Service », qui sont disponibles par défaut et gratuitement dans S/4HANA. 

S/4HANA Sales and Service réunit à présent les précédents objets CRM et ECC dans un seul et même système. Les anciens affichages de l’UI web du CRM ont été relookés avec un thème « Quartz Light », qui n’est pas sans rappeler « Fiori 3 ». Des fonctionnalités marquantes comme la gestion de cas et l’intégration d’Outlook (grâce à « mai Connect ») sont également de retour. Cette version fera non seulement le bonheur de nombreux utilisateurs ayant investi massivement dans leurs précédents systèmes CRM et ECC de SAP, mais aussi des entreprises qui n’avaient pas encore de système CRM. Les sociétés dotées d’un back-end ECC abouti mais présentant un besoin limité en CRM ne mettaient souvent pas en œuvre l’add-on CRM dans SAP. Elles se contentaient à la place de feuilles Excel. Grâce à S/4HANA, elles peuvent désormais enfin enregistrer toutes leurs activités liées aux clients dans un ERP. 

Et l’histoire ne s’arrête pas à la version 1909 ! On attend cette année de nouvelles fonctionnalités comme la gestion des réparations in-house ainsi que la gestion des plans de maintenance et des ordres de service, laissant présager de l’intégration de fonctionnalités de CRM à chaque nouvelle version de S/4HANA.

CRM vs C4/HANA

Le CRM a-t-il toutefois retrouvé sa gloire passée grâce à son intégration dans S/4HANA ? La réponse est claire : non. 

Si les fonctions de vente et de service sont presque toutes prises en charge dans S/4HANA, toutes les fonctionnalités marketing ont disparu. Et soyons francs : le marketing n’a jamais été le point fort de CRM 7. La récurrence et l’automatisation des campagnes d’e-mailing pourraient bien donner lieu à la création de règles strictes en matière de RGPD. Et depuis le lancement de CRM 7 en 2007, les attentes des consommateurs en termes d’expérience d’achat ont complètement changé. C’est là qu’intervient  C/4HANA, le portefeuille Cloud de SAP. C/4HANA prend tout en charge dans la « Customer Experience Suite », constituée de 5 solutions : cloud marketing, cloud commerce, cloud données clients, cloud ventes et cloud service.

Cm 1

S/4HANA et C/4HANA présentent donc des fonctionnalités similaires ? Tout à fait.  Rassurez-vous, vous n’êtes pas les seuls que cela perturbe. Je vous rejoins, ainsi que d’autres clients. De façon générale, pour savoir quel produit choisir : si vos besoins sont liés aux clients ou au marketing, optez pour C/4HANATous les processus transactionnels typiques de back-office sont en revanche pris en charge par S/4HANA. Cela dit, la frontière entre front-end et back-end étant souvent très floue, SAP aura la lourde tâche de clarifier la question dans l’esprit de ses utilisateurs et de ses partenaires dans les années à venir. 

Bien que SAP ait largement investi dans C/4HANA, bon nombre de ses utilisateurs ont de leur côté déjà investi dans les solutions CRM et ECC de SAP. Ces entreprises sont souvent réticentes à passer à S/4HANA avec un front-end C/4HANA. Les fonctionnalités S/4HANA Sales and Service leur permettent désormais de capitaliser sur une grande partie de leurs investissements passés et de profiter d’un CRM dans un environnement simple.

Fervent partisan du CRM, je me réjouis de cette évolution de S/4HANA. Car honnêtement, l’idée de gérer les préventes dans un système CRM distinct, avec des données dupliquées, puis de poursuivre le traitement de la commande, de l’expédition et de la facturation dans un ECC n’a jamais été la meilleure qui soit… Selon moi, le CRM a fini par atterrir à sa véritable place, c’est-à-dire l’intégration au cœur de votre système ERP. 

Pourquoi est-il indispensable de s’intéresser à la Blockchain ?

Presque exclusivement associée aux crypto-monnaies jusqu’en 2016–2017, la Blockchain est née de la volonté de créer une monnaie virtuelle : le Bitcoin (le premier bloc ayant été créé le 3 janvier 2009). D’autres cas d’usage ont fait surface et se sont multipliés, rendant cette technologie plus concrète et pertinente pour répondre à davantage de besoins et créer des opportunités. Désormais, un nombre croissant d’entreprises à travers le monde ont commencé à en saisir les intérêts. 

 

Parmi les cas d’usage qui sont apparus, nous pouvons d’abord citer la traçabilité. Une blockchain est par essence un registre immuable et fortement sécurisé, et toute information inscrite dans ce registre devient inaltérable et reste accessible tout au long de la vie de la blockchain. On parle jusque-là de Blockchain Publique, puisque toutes les informations inscrites dans le registre sont accessibles par tous ses utilisateurs. Puis est apparu en 2016 le concept de Blockchain Privée. Il s’agit d’une extension de la version publique, à laquelle s’ajoutent deux notions : 

  • Un accès soumis à des règles strictes (on parle de « permissioned Blockchain ») ; 
  • La possibilité de réaliser des transactions qui ne sont pas visibles par l’ensemble des participants, mais uniquement par les parties prenantes de cette transaction. 

Là où la Blockchain Publique était très orientée B2C, la Blockchain Privée trouve elle sa place dans les applications B2B. 

 

Si ma blockchain est privée, est-ce toujours une blockchain ? 

Le fait qu’elle soit privée ne veut pas dire qu’elle n’est plus distribuée et plus traçable, ni que les données deviennent « modifiables », etc… Au contraire, une blockchain privée ayant généralement moins de participants que ses homologues publiques, elle peut mettre en œuvre des consensus plus rigoureux en termes de sécurité. Elles permettent également la création de consortium (le groupe de nœuds participant à la validation des transactions est un sous-ensemble de la Blockchain), et ainsi la création d’une gouvernance pour en fixer les règles de fonctionnement et d’utilisation. 

 

Illustration de deux cas d’utilisation : 

  • Une entreprise composée de plusieurs entités souhaite bénéficier des avantages d’une blockchain pour suivre ses processus de fabrication et conserver des documents officiels, mais sans forcément vouloir partager l’accès à ses données avec d’autres entreprises. Elle déploie sa blockchain en interne, avec le nombre de nœuds qu’elle souhaite pour assurer la résilience. Elle peut choisir un consensus orienté « résistance aux pannes » plutôt que « résistant aux fraudeurs ». (On peut supposer qu’elle ne va pas s’attaquer elle-même …). 
  • Au sein d’un groupe, les entreprises ont des intérêts communs et aimeraient réaliser des transactions entre-elles au travers de contrats commerciaux. Dans ce cas, il leur est opportun de choisir un consensus qui sait détecter les tentatives de fraudes, et chaque entreprise va représenter un nœud de la blockchain. Certaines données vont pouvoir être partagées de manière transparente, et d’autres resteront privées. 
    Par exemple, l’entreprise A va passer un contrat avec B pour la commande de produits, B va passer un contrat avec C pour assurer le transport, et A, B et C pourront avoir un contrat pour suivre le cycle Commande / Fabrication / Livraison. Ainsi A ne sait pas quels tarifs sont pratiqués entre B et le transporteur, pas plus que le transporteur ne connait le prix des pièces commandées par A. Quant à D, E, etc., elles n’ont aucune vision de ces contrats. 
    De même, si une nouvelle entreprise souhaite rejoindre cette blockchain, il faudra que cela soit approuvé par une majorité des acteurs déjà présents. Le consensus s’applique aussi dans ce cas. 

 

Quels cas d’application de la Blockchain Privée ? 

La Blockchain présente un réel avantage dès lors que l’on doit pouvoir démontrer l’origine, l’authenticité et l’historique d’une donnée. De plus, l’utilisation des Smart Contracts permet de rendre contractuel l’exécution d’une règle métier. Le concept peut paraître déroutant car ce n’est plus le « bout de papier signé » qui fait foi, mais bien le code du Smart Contract. 
Les cas d’application sont ainsi nombreux : 

  • Chaîne de production (traçabilité de toutes les étapes de production d’un bien) ; 
  • Chaîne de distribution (respect des contrat commerciaux, tarif, délais de livraison, etc.) ; 
  • Conservation de documents officiels (diplômes, flux comptables, actes de ventes, etc.) ; 
  • Contrat d’assurance (indemnisation déclenchée quand les conditions sont réunies) ; 
  • Traçabilité (origine de la viande présente dans un plat de lasagnes, …) ; 
  • Internet de Objet (localisation dans le transport de marchandises, respect de la chaîne du froid, etc.). 

 

La Blockchain c’est génial ! Peut-on en mettre partout ? 

Tous les projets ne sont pas éligibles à la Blockchain. Se faire accompagner par des experts et la mise en place de questionnaires sont de réels atouts pour déterminer si un projet présente un intérêt à être développé dans une blockchain ou non. 

Comme pour toute architecture, la Blockchain présente des avantages mais aussi des contraintes qu’il faut prendre en considération lors de l’étude d’un nouveau projet : 

  • Ce n’est pas une base de données. Elle croît sans cesse (le stockage peut être un frein) ;  
  • Elle n’oublie rien (la conformité au RGPD peut être difficile à mettre en pratique) ;  
  • Elle requiert souvent d’être exposée sur internet (la sécurité réseaux est à prendre en compte) ; 
  • Elle implique que les données qu’elle contient soient partagées avec d’autres (vous devez renoncer à leur propriété exclusive) ; 
  • Elle requiert des compétences particulières (qui elles-mêmes nécessitent des formations) ; 
  • Elle n’est pas nativement prévue pour interagir avec un SI (il faut mettre en place un middleware) ; 
  • Elle est relativement jeune (les outils de développement et d’intégration manquent de maturité, ce qui requiert là aussi des développements complémentaires). 

 

Toutefois, nous pouvons noter que des offres BaaS (Blockchain as a Service) commencent à apparaitre chez certains grands éditeurs (Microsoft Azure, IBM, Oracle …), qui permettent de se libérer d’un certain nombre de contraintes. Des passerelles permettant une interopérabilité entre plusieurs blockchains commencent également à se développer. 

 

Conclusion 

La Blockchain ayant démontré sa fiabilité et sa robustesse sur le long terme, elle a un réel avenir dans le monde de l’entreprise, et ses champs d’applications sont nombreux. Les offres d’hébergement se multiplient (AWS, Microsoft, IBM, Oracle …), et il devient désormais normal pour une entreprise de prendre en considération cette architecture lors de l’étude de nouveaux projets. Alors place à l’innovation ! 

SQLI est là pour vous accompagner dans vos projets, de la pré-étude jusqu’au RUN, en vous apportant son expertise et ses retours d’expériences, tant sur les aspects techniques qu’opérationnels. Nous pouvons également vous aider pour la réalisation de Proof Of Concept autour d’un use case afin de vous assurer que la Blockchain répond correctement à votre besoin, et préparer ainsi la montée en compétences de vos équipes.