Articles

Big data dans l’industrie : harmoniser pour mieux régner

Que « 75 % des entreprises de l’UE utilisent le cloud, l’intelligence artificielle et les big data » d’ici 2030, voici l’objectif ambitieux présenté le 9 mars dernier par la Commission Européenne [1]. Cette dernière enfonce d’ailleurs le clou en rappelant que certains de nos « écosystèmes industriels et de services (…) sont à la traîne »[2].  C’est particulièrement vrai dans l’industrie où on commence à se poser les bonnes questions et à faire de la transformation numérique un projet d’entreprise.

D’après PwC, en 2018, seules 10% des entreprises industrielles pouvaient être considérées comme des championnes du numérique[3]. Longtemps, elles ont déployé des solutions numériques dans les différentes branches d’activité sans se soucier de la cohérence générale de ces solutions. À mesure que la place du digital dans l’ensemble des activités augmente, ces approches en silo perdent en pertinence et en performance. Pour accélérer le virage numérique et renouer avec la croissance, elles doivent avant tout harmoniser les services numériques proposés et les usages des données de l’industrie.

Harmoniser plutôt que multiplier

Impossible de se passer du numérique aujourd’hui, de votre système RH à l’internet embarqué dans les objets en passant par la robotisation ; il apporte une valeur ajoutée sur l’ensemble des activités industrielles. L’accélération de la transformation ne permet plus d’envisager ces solutions de manière indépendante. Pire, le faire serait foncièrement inefficient face aux nouveaux enjeux : expérience client, utilisation de l’IA, virage de la 5G et de l’internet des objets.

Si une récente étude de McKinsey a montré que 75% des entreprises « prévoient une accélération des investissements dans les nouvelles technologies entre 2020 et 2024 »[4], ces investissements doivent aller de pair avec la volonté d’harmoniser les services numériques proposés. Cette harmonisation doit même être priorisée par rapport au déploiement de nouvelles technologies qui ne seraient pas bien intégrées à l’environnement existant : c’est en proposant un univers numérique cohérent où les différents services interagissent, sont interconnectés et sont faciles d’utilisation que l’entreprise industrielle se démarque et s’assure de fidéliser ses clients.

Considérer le produit dans sa relation avec l’environnement digital

Plus encore, elle doit s’assurer d’harmoniser les données relatives à la gestion de l’information produits (PIM, Product Information Management). En effet, c’est en considérant le produit non pas en tant que tel mais aussi dans sa relation avec l’environnement digital (référencement, exploitation des données produits, traitement de ces dernières) que l’industrie va réellement entrer dans l’ère numérique. En effet, la création de la valeur à partir de la donnée suppose, avant toute chose, que l’entreprise se dote des moyens adéquats pour capter et digérer cette dernière.

Cette harmonisation est fastidieuse et peut sembler éloigner l’industriel des innovations de rupture qui seront moteurs de sa croissance future. C’est en réalité l’inverse : en s’astreignant à ce travail, on libère le potentiel de l’entreprise et on la prépare pour l’utilisation de solutions d’IA, de robotisation, technologies intrinsèquement gourmandes en données.

Au-delà d’harmoniser, ouvrir les services via la standardisation

Cette harmonisation des services et de l’information produit accroît le potentiel de croissance dans la mesure où elle rend l’entreprise industrielle agile et en capacité de collaborer avec d’autres entités au sein du groupe ou même à l’externe, avec des partenaires de confiance ou dans des groupements d’intérêts économiques (GIE).

Cette logique de partage des données industrielles est d’ailleurs une des pierres angulaires des orientations proposées par la Commission européenne dans sa stratégie pour les données. Néanmoins, il apparaît dès lors évident que pour créer des « espaces de données communs et interopérables »[5], l’harmonisation est une condition sine qua non. D’aucuns pourraient arguer qu’on peut placer sa confiance dans l’économie de marché pour que cette harmonisation se fasse d’elle-même.

Le marché unique des données en vue

En matière de partage de données, notamment celles de l’industrie, les expériences passées montrent qu’il est souvent difficile d’avoir cette logique au sein même des groupes. À l’image du travail mené dans le cadre de la Directive sur les services de paiements (DSP2), il est plus vraisemblable que l’intervention du législateur soit nécessaire pour accélérer l’harmonisation des pratiques et mettre en place du marché unique des données. Ces dispositions contraignantes préfigurent finalement une formidable accélération de l’innovation, comme on l’a vu dans le domaine des fintechs suite à la DSP2.

Les entreprises industrielles qui anticipent ces évolutions, déploient des stratégies de transformations dimensionnées pour leur groupe et relevant d’une vision d’entreprise plutôt que d’innovations incrémentales seront tout à fait armées pour la décennie à venir. En prenant le chemin de l’harmonisation des services numériques et de la gestion de l’information produits (PIM), ces entreprises se préparent de facto à la transition vers une industrie 4.0 et se positionnent comme acteurs et moteurs de « l’ère du renouveau du progrès économique » envisagé par le McKinsey Global Institute.

 

Jean-François Crépeau, Digital consultant & program manager & Nicolas Ressouches, Business unit manager

 

[1]https://ec.europa.eu/info/strategy/priorities-2019-2024/europe-fit-digital-age/europes-digital-decade-digital-targets-2030_en

[2] https://eur-lex.europa.eu/resource.html?uri=cellar:12e835e2-81af-11eb-9ac9-01aa75ed71a1.0001.02/%20DOC_1&format=PDF

[3] https://www.strategyand.pwc.com/gx/en/insights/industry4-0.html#Download

[4] https://www.mckinsey.com/industries/public-and-social-sector/our-insights/will-productivity-and-growth-return-after-the-covid-19-crisis

[5] https://ec.europa.eu/info/strategy/priorities-2019-2024/europe-fit-digital-age/european-data-strategy_fr

La Dataviz, incontournable avec l'explosion des données !

La visualisation de données est devenue incontournable en entreprise pour faire face à la masse de données créées et aux difficultés de leur traitement. L’enjeu principal de la data visualisation – ou Dataviz – est le gain de temps dans la recherche et l’analyse de l’information. Le but est d’améliorer considérablement la prise de décision.

Prendre de bonnes décisions repose sur la qualité des informations disponibles. Le fait de disposer de données brutes compilées au sein de tableaux Excel ne place pas le décideur dans une position idéale pour faire de bons choix.

Un exemple concret de l’importance de la Dataviz

Un type de données fait aujourd’hui l’objet d’un suivi accru à travers le monde : les données médicales. Nous constatons à quel point la façon de présenter les données joue un rôle crucial pour informer et aider les professionnels de la santé, les médias, le grand public et même les gouvernements à suivre et comprendre l’évolution de la pandémie.

En France, l’ingénieur en informatique passionné de data Guillaume Rozier permet une telle visualisation via des graphiques accessibles à tous sur Covid Tracker, la plateforme en ligne qu’il a développée. En un coup d’œil, nous visualisons clairement la situation épidémique à jour. Les besoins en visualisation de données médicales resteront probablement une nécessité pendant plusieurs années.

Dataviz1

Utilisation des graphiques de Covid Tracker dans les médias

 

Dataviz2

Exemple de data visualisation disponible sur Covid Tracker

 

Les outils et solutions de Dataviz offrent un accès aux données plus rapide et élargi au plus grand nombre d’utilisateurs, y compris le grand public. Ils apportent une meilleure compréhension des données et des tendances pour prévenir les menaces et déceler les opportunités. Pour les entreprises, la question de la Dataviz est en enjeu majeur.

Sur le plan du développement business, prenons l’exemple de la visualisation des données CRM. L’un des grands enjeux d’un outil CRM est la détection de nouvelles opportunités. Les visualisations complètent le CRM en proposant des données plus visuelles et compréhensibles aux décideurs. Les équipes marketing et commerciale peuvent ainsi prendre des décisions plus réfléchies sur leurs différentes actions, telles que les campagnes d’emailing en vue de booster les ventes.

> La Dataviz fait partie des expertises métiers de SQLI. Découvrez comment nous pouvons vous accompagner sur vos problématiques de décision.

 

Outils Open Source VS outils payants

Plusieurs outils Dataviz open source ont vu le jour depuis quelques années. Mais quelle est leur position sur le marché de la Data ?

Face aux géants mondiaux comme Tableau, Qlik ou PowerBI, des outils Open Source sont de plus en plus utilisés. Certains sont plus complets que d’autres. Nous pouvons citer par exemple Grafana, Kibana ou Hight Charts. Ce dernier dispose d’une bibliothèque de graphiques que l’on peut intégrer facilement dans un site web. Le choix de ces outils est principalement motivé par des raisons économiques et la volonté de participer à un effort communautaire.

Dans certains cas, le passage aux outils Open Source engendre la réduction de nombre de fonctionnalités disponibles, ou encore l’absence du support éditeur disponible qu’en version entreprise. Mais le gain financier n’est pas négligeable. Les outils Open Source offrent des mises à jour fréquentes avec de nouvelles fonctionnalités et des résolutions de bugs.

 

L’importance de l’UX pour produire des graphiques lisibles

Quelle que soit la formule choisie, les outils de Dataviz permettent de produire des tableaux de bord en lien avec le besoin de l’utilisateur. L’expérience utilisateur est donc structurante dans la production de ces tableaux. L’UX permet en effet de proposer un affichage à la lecture instinctive et répondant aux questions prioritaires des utilisateurs tout en leur offrant des niveaux de lecture secondaires qui permettent de détailler les KPI.

Dataviz4

Exemple de tableau de bord Analytics d’un site web

Zoom sur ELK (Ou Suite Elastic)

Contrairement à d’autres solutions Open Source limitées en termes d’outillage ou focalisées uniquement sur la partie visualisation, ELK ou la Suite Elastic est une solution complète.  Elle combine à la fois la récupération des données depuis plusieurs sources de données à l’aide de ses briques fonctionnelles :

  • Logstash (ETL) : outil qui collecte, analyse et transforme des données ;
  • Beats (écoute des logs) : ensemble d’agents qui transfèrent les données des logs vers Logstash et Elasticsearch ;
  • ElasticSearch: réputé pour le stockage et le traitement des données assez volumineuses ;
  • Kibana : permet la visualisation des données à l’aide d’un large panel de représentations graphiques.

C’est pour cette raison que certaines entreprises se tournent vers cette solution qui embarque tous les outils nécessaires aux traitements des données. Et qui permet donc de gagner du temps, que ce soit sur la mise en place ou sur la maintenance !

Dataviz3

L’une des particularités de cet outil est sa capacité à gérer un gigantesque volume de données. ELK séduit une des entreprises que j’ai accompagnées, car elle avait le besoin de surveiller des données récupérées via des API toutes les minutes, et être alertée en cas de défaillance dans les données récupérées. En effet, cette entreprise met à disposition en quasi-temps réel ses données de comptage, à différentes mailles et à des granularités différentes. Cette mise à disposition se fait par l’intermédiaire d’API, publiées sur le portail Data de l’entreprise destiné à ses clients. L’objectif du projet Dataviz est de s’assurer du bon fonctionnement des services.

 

Comme nous l’avons vu, ELK est un des outils proposés sur le marché de la Dataviz. La multiplication des solutions est révélatrice de l’importance cruciale de la data visualisation, qui ne fait que se confirmer. Le bon choix de la solution pour votre entreprise repose sur plusieurs critères : le coût, l’usage que vous allez en faire, et la flexibilité dont vous avez besoin.

> Découvrez à présent comment nous pouvons vous accompagner à l’aide de la Dataviz.

Grâce à la puissance des données, dépassez les attentes émergentes de vos clients

Suite aux restrictions liées au COVID début 2020, le nombre d’entreprises B2B à se tourner vers des plateformes de vente digitale n’a cessé de croître. Cette transition était en effet absolument essentielle pour leur survie. Toutefois, une simple présence sur le marché du e-Commerce ne suffit plus à sortir du lot. Pour vous démarquer de la concurrence et apporter une véritable valeur ajoutée en tant que vendeur B2B, vous devez proposer une expérience client remarquable avec des fonctionnalités en self-service au cœur de vos canaux digitaux.

Augmentez vos ventes B2B sur le long terme

Les entreprises B2B ne doivent jamais perdre de vue l’élément capital pour répondre aux nouvelles attentes des clients et les dépasser : une excellente expérience online couplée à un self-service intuitif, facile à utiliser et responsive. Vous améliorerez ainsi la satisfaction du client, renforcerez sa fidélité et verrez vos ventes croître sur le long terme.

D’après une étude de l’institut McKinsey, les clients montrent une nette préférence pour les canaux en self-service quand il est question de faire une recherche ou de passer une commande. Cette habitude prend toujours plus d’ampleur. Et avec les événements de 2020 qui accélèrent davantage l’adoption du self-service, les acheteurs se disent de plus en plus à l’aise pour passer d’importantes commandes à distance ou le faire entièrement par le biais d’un self-service digital et automatisé.

Cette tendance dessert sérieusement les vendeurs dépourvus d’une solution e-Commerce moderne. Notons enfin que les canaux digitaux ne sont généralement pas les seuls points de contact d’un acheteur B2B durant son parcours d’achat. Les vendeurs B2B doivent dès lors s’efforcer d’intégrer les données provenant de tous leurs canaux, car c’est la seule façon de supprimer les obstacles et de proposer à leurs clients un self-service de qualité.

télécharger le livre blanc "le succès du e-commerce b2b"

 

Le cas de Carlsberg : une plateforme de contact et e-Commerce B2B entièrement intégrée

Carlsberg figure parmi les brasseurs les plus célèbres au monde, distribuant aujourd’hui ses produits dans plus de 140 pays. Carlsberg voulait non seulement devenir un leader du digital dans l’industrie brassicole, mais aussi renforcer son partenariat avec le secteur Horeca. En 2018, la société a lancé Carl’s Shop, une plateforme innovante qui allait faire évoluer le parcours digital de la marque.

La plateforme de commerce digital Carl’s Shop :

  • Propose un service client de qualité
  • Permet de passer des commandes 24h24, 7j/7 depuis n’importe quel appareil
  • Elimine le besoin de ventes par téléphone

 

Elle donne en outre des idées aux clients du secteur Horeca, grâce notamment à des scénarios produits, à du contenu éditorial ou encore à des formations pour apprendre à gérer intelligemment son activité. Tout ce contenu aide Carlsberg à nouer un lien émotionnel qui va au-delà du simple aspect transactionnel, pour un résultat plus axé sur les relations et la fidélité client. Cette approche a entraîné une croissance visible des recettes nettes par client (rapport annuel 2019 de Carlsberg) et elle illustre parfaitement l’importance du digital et d’une expérience client de qualité dans le B2B.

 

Alors, quelle est la recette d’une bonne CX ? Quels ingrédients la composent ? Si la transformation complète de l’expérience client implique bien sûr de nombreuses étapes, la première consiste à surmonter les « défis liés aux données produits ». Ne sous-estimez jamais l’impact que de mauvaises données peuvent avoir sur l’expérience d’achat.

 

Maîtrisez vos données

Intégrer toutes vos données peut sembler si simple à première vue… En réalité, l’ajout de nouvelles informations produits à un site dynamique d’e-Commerce B2B est un challenge. Car il n’y a pas que sur le site e-Commerce que ces données seront nécessaires : les données produits, nouvelles ou actualisées, doivent en effet être intégrées sur tous les canaux online et offline pertinents, et être accessibles sur ceux-ci. Et sans l’outil adéquat, vous perdrez du temps, de l’argent et des ressources – pire encore, vous présenterez des données inexactes à vos clients.

Or, pour offrir une expérience client de qualité, il est essentiel de présenter des informations produits complètes, fiables et attrayantes. Voici quelques chiffres :

  • Une étude de Forrester Research a révélé que 87 % des acheteurs quittaient un site B2B pour effectuer des recherches supplémentaires via d’autres canaux, en général parce que les informations présentées ne répondaient pas à leurs besoins.
  • Selon A.T. Kearney, fournir des données plus précises, plus complètes et plus cohérentes permettrait de faire grimper le taux de conversion de 17 % à 56 %.

 

La qualité des informations produits peut constituer le facteur décisif de la découverte et de l’achat, notamment quand le prospect a la possibilité de comparer deux produits avec différents niveaux de détail. Par le passé, les informations détaillées étaient principalement le fait des secteurs de la construction et de l’industrie manufacturière, dans lesquels les clients interrogeaient leur représentant commercial sur tout ce qu’ils avaient besoin de savoir avant de se décider pour un achat. Désormais, la plupart des canaux de vente étant des canaux distants, toutes les informations produits doivent être disponibles « ici » et « tout de suite ». Si vous ne remplissez pas cette condition préalable au self-service, vous pousserez tout simplement vos clients vers la concurrence.

Et c’est ici que les logiciels de gestion de l’information produit (ou PIM, pour Product Information Management) entrent en scène. Ceux-ci simplifient le processus de création, de collecte et de gestion des informations produits pour les catalogues online et offline. Pour faire simple, un PIM vous aide à proposer plus rapidement et plus facilement des expériences pertinentes par le biais de vos canaux de vente et e-Commerce.

 télécharger le livre blanc "le succès du e-commerce b2b"

Le PIM, pour faire de vos données votre atout le plus précieux

Un logiciel PIM vous permet de rassembler, de gérer et de partager vos données entre vos différents systèmes. Cela comprend vos systèmes ERP et PLM, et s’étend à tous vos canaux – du e-Commerce et du retail jusqu’aux points de vente et brochures. Vraiment tous vos canaux. Non seulement vous enrichissez vos données et créez une source unique et fiable, mais vous disposez également des outils nécessaires pour analyser toutes ces données en une seule fois et exploiter les résultats afin de guider vos décisions commerciales. En tirant parti des données produits gérées par différents systèmes, vous pouvez en faire un atout puissant au service de l’innovation, de votre transformation digitale et de votre croissance.

 

L’utilisation efficace d’un PIM présente donc de nombreux avantages pour les organisations B2B. Vous pouvez ainsi créer des expériences omnicanal, augmenter vos opportunités de vente et limiter les retours de produits, avec pour résultat une croissance de vos recettes. En outre, un PIM améliore la cohérence et l’efficacité de vos opérations en éliminant les données en double et les processus sujets aux erreurs, et en facilitant le respect des réglementations.

 

Un PIM simplifie aussi l’intégration de nouveaux produits et services, ainsi que le cycle de vie des produits, ce qui accélère le time-to-market. Vous pouvez améliorer davantage votre expérience client en utilisant les connaissances acquises pour augmenter l’engagement et renforcer vos performances et votre valeur commerciale. La centralisation de vos données permet enfin de faire tomber les barrières avec les partenaires tant internes qu’externes, pour une prise de décision plus rapide.

 

 

Devancer la concurrence

À l’ère de l’information, il est plus essentiel que jamais de maîtriser vos données pour offrir à vos clients de la valeur et des expériences pertinentes. Vous pourrez ainsi vous engager pleinement dans l’omnicanal, créer des parcours d’achat personnalisés et améliorer la fidélisation, avec pour résultat des clients satisfaits qui continueront volontiers à faire des affaires avec vous. En gérant vos données de base avec un PIM, vous pouvez prendre l’avantage sur vos concurrents en vous distinguant par des canaux digitaux plus rapides et plus performants.

 

 

Osudio & SAP CustomerExperience combinent un logiciel de commerce digital et de gestion des données produits à des années d’expérience en implémentation et en design UX. Nous vous aidons à créer des expériences client omnicanal fluides. Parmi les avantages, citons la simplification IT, un meilleur engagement client et une hausse des recettes, et la possibilité d’intégrer facilement d’autres pays sur la plateforme.

La gouvernance des données, un outil majeur au service de votre démarche RSE

À l’heure de l’“infobésité”, les entreprises ont à gérer un nombre croissant de données, collectées par les métiers en interne ou auprès des clients et utilisateurs finaux. Si les données sont devenues un atout business indéniable, elles peuvent aussi représenter un casse-tête coûteux quand leur gestion n’est pas structurée. La gouvernance des données devient alors une nécessité pour répondre à ces défis mais aussi pour adopter un rapport plus responsable au numérique.

L’énergie humaine colossale à déployer pour naviguer dans cette montagne d’informations disparates, peut rapidement devenir contre-productive tandis que le stockage massif que cela demande n’est pas sans conséquence environnementale, entre alimentation électrique des datacenters, refroidissement des infrastructures grâce à l’eau.

La gouvernance des données, déployée par étape et en totale cohérence avec l’ensemble des métiers, devient même un outil indispensable pour toute entreprise ayant à cœur de déployer une démarche RSE solide et pérenne.

Une gouvernance en plusieurs étapes pour instaurer un rapport plus vertueux au numérique

Si la gouvernance de la donnée représente indéniablement un chantier coûteux, c’est aussi un projet porteur de nombreux bénéfices, tant financiers qu’écologiques et internes, vous permettant de fédérer vos équipes autour de cette nouvelle culture plus vertueuse.

Le stockage en datacenter peut rapidement représenter un coût important pour une entreprise et chaque donnée stockée consomme en électricité pour l’alimentation de la structure, en eau pour le refroidissement des salles et des serveurs, etc. Un des premiers axes de travail sera donc de cartographier et de trier les données en votre possession pour ne garder que les plus pertinentes et réellement exploitables, réunies dans un référentiel harmonisé où le cycle de vie de chaque donnée est clair. En réduisant ainsi le nombre de données exploitées et en ne conservant que celles nécessaires au traitement, votre demande en stockage sera réduite et le bénéfice immédiat sera tant financier qu’environnemental. Moins de données, mais plus pertinentes pour un stockage et un coût écologique rationalisés.

Le bénéfice est également interne. Alors que vos équipes se débattent peut-être dans une foule de données hétérogènes, non classifiées ou même labellisées, et perdent temps et énergie, la mise en place d’une gouvernance vous permettra de créer une source de données fiables et harmonisées pour tous. Cette gestion éclairée et structurée de la donnée, de son cycle de vie et de sa finalité pour l’entreprise permettra à vos collaborateurs d’être plus efficaces et d’optimiser leur énergie pour la consacrer aux axes stratégiques de leurs projets.

Une telle gouvernance vous permet alors d’amorcer un rapport plus vertueux et serein au numérique grâce à deux piliers : la rationalisation de votre impact écologique et la création d’un environnement de travail structuré pour préserver l’énergie de vos équipes.

Evitez l’écueil de la précipitation, optez pour un déploiement progressif et réfléchi

Quand la volonté de déployer une véritable gouvernance des données est actée, il existe plusieurs pièges à éviter, au premier rang desquels, la précipitation. La tentation peut être grande d’établir un programme global de gouvernance, pour l’ensemble des données et des métiers. Une telle démarche s’avèrerait rapidement très coûteuse pour l’entreprise, sans garantie de résultats avec l’installation d’un effet tunnel empêchant la priorisation efficace des chantiers à mener. Si la mise en place d’une gouvernance de la donnée est globalement bénéfique pour les entreprises, il convient de veiller à ne pas délégitimer le projet et le voir prendre l’eau quelques mois plus tard par manque de ressources et de temps.

Privilégiez une segmentation des chantiers sur un périmètre de données restreint, ce qui vous permettra de dégager rapidement des « quick wins ». Cette définition des premiers champs d’action doit être effectuée relativement tôt et en parfaite coordination avec l’ensemble des métiers qui seront impliqués dans le déploiement de cette gouvernance. Il est primordial que vous ayez conscience de vos propres moyens, humains comme financiers, avant de vous y lancer corps et âme.

Cette gouvernance des données doit concrètement être déployée dans une vraie volonté d’optimisation. Il est primordial qu’elle soit pensée comme une démarche pérenne et durable, et non pas seulement pour “verdir” votre image en tant qu’entreprise. Si elle est bienvenue dans votre stratégie de représentation notamment vis-à-vis de l’interne et de vos clients, elle ne doit pas servir cet unique intérêt, au risque d’être taxée de « green washing ».

Elle devra reposer sur un chef d’orchestre garant que le projet suivra une logique RSE : le Chief Data Officer. Ce dernier pourra insuffler le tempo du déploiement de cette gouvernance, vous accompagner dans la priorisation des chantiers à mener et en être le défenseur auprès des instances décisionnaires de l’entreprise. Il sera également le garant du partage de cette stratégie avec l’ensemble des collaborateurs qui en sont les acteurs de premier plan, pour fédérer les équipes et favoriser une culture d’entreprise autour de la démarche engagée.

C’est un projet impliquant et potentiellement coûteux qui, s’il est mené de façon progressive et réfléchie, pourra engendrer de nombreux bénéfices allant bien au-delà de votre image d’entreprise engagée.

[Replay] Digitalisez le traitement des demandes RGPD et renforcez la confiance client

Les clients sont de plus en plus sensibles au traitement de leurs données, comprennent leurs droits, et veulent les exercer.

Les entreprises et organisations ont dans un premier temps appréhendé le RGPD notamment sous l’angle conformité juridique et cybersécurité, mais peu d’entre elles ont saisi l’opportunité de cette législation pour améliorer l’expérience client et renforcer le lien de confiance avec leurs clients.

SQLI et Talend se sont associés pour créer une solution bout-en-bout qui permet de relever ce challenge !

Visionnez le replay sur le webinar RGPD avec Talend

Comment intégrer les third party data pour qu'elles fassent le beau temps des campagnes emailing ?

Nous en sommes conscients, les audiences sont sursollicitéesFace à cette tourmente, l’hyperpersonnalisation, la contextualisation et la segmentation fine se placent désormais comme les atouts majeurs des campagnes marketing. Ces dispositifs nécessitent un carburant très précieux : la donnée. La donnée qui répondra à vos besoins n’est pas toujours connue ou disponible en interne à l’entreprise. C’est là que les third party data entrent en scène ! Découvrez comment bien les intégrer et ainsi qu’un exemple de leur usage dans une campagne emailing dans le domaine de l’assurance. 

Si les first party data sont les données générées par l’activité de l’entreprise et les second party data les données issues de partenariats commerciaux, que sont les third party data ? Aussi appelées données tierces, elles sont fournies à un annonceur dans un objectif de ciblage ou de personnalisation par une société tierce, autre que l’éditeur utilisé comme gestionnaire de campagne, et sont généralement payantes. Cette société tierce est appelée une « data broker » et a pour cœur de métier de collecter les données et de les associer à des visiteurs grâce à des cookies ou bien à des coordonnées d’utilisateurs. 

 

3 façons d’utiliser et d’intégrer les third party data dans son entreprise

Les third party data sont des ressources inestimables à condition de savoir bien les exploiter. Il existe plusieurs manières de procéder, depuis une Data Management Platform (DMP) ou via une API.   

Utilisation avec une DMP

Une DMP est une plateforme de gestion des données qui va permettre d’échanger ou d’associer toutes les first, second ou third party data. L’objectif principal est de centraliser les données et de simplifier leur gestion afin de créer un référentiel client unique. Vous obtiendrez ainsi des segments d’audience très précis ou une personnalisation très pointue de vos campagnes emailing pour en maximiser la performance. 

La DMP conduit également à la création de segments « look alike », c’est-à-dire des segments de profils qui ressemblent à des segments existants. Plusieurs niveaux de correspondance peuvent être générés afin d’augmenter le volume de ciblage. À noter que plus le ciblage est important, plus le pourcentage de ressemblance est faible. 

D’autres fonctionnalités sont proposées par une DMP comme la capacité de cibler de façon omnicanale, de gérer les prospects dans une logique PRM (Prospect Relationship Management) ou encore de mesurer le ROI. 

Utilisation avec une API

Si l’intégration d’une DMP est un projet estimé trop lourd, il est possible d’utiliser et d’intégrer des données tierces via une API. Normalisée et largement répandue depuis plusieurs années, une API est une interface faisant communiquer deux applications entre elles.  

Dans le cas de gestion de campagnes emailing, le logiciel de gestion de campagne transmet une demande au fournisseur afin d’obtenir la donnée tierce qui répond ensuite à la requête. Le couple requête / réponse utilise des langages très répandus comme le format JSON, ressemblant au Javascript. Le service web qui expose une API l’accompagne souvent d’un guide d’utilisation listant toutes les fonctionnalités et les données accessibles. L’utilisation et l’intégration sont donc facilitées, ce qui permet de déployer un projet d’échange de données sur des besoins plus ponctuels ou restreints, comme l’optimisation du moment d’envoi d’un emailing ou l’enrichissement de données pour la personnalisation de blocs de contenus. 

Exemple d’intégration avec Adobe Campaign

Adobe Campaign a été développée pour permettre une ouverture sur son architecture grâce aux API. Ces API sont utilisées en interne dans l’application avec JavaScript et en externe avec SOAP, un protocole d’échange d’informations structuré basé sur le langage XML. 

Adobe Campaign dispose de deux types d’API : 

  • Une API pour accéder aux données en interrogeant le modèle de données d’Adobe Campaign 
  • Une API pour interagir avec les objets de la solution Adobe Campaign (diffusions email / SMS /…, workflows, abonnements, etc.) 

Pour utiliser un service tiers, il est nécessaire d’utiliser le protocole SOAP implémenté dans Adobe Campaign. Le protocole SOAP permet l’invocation de méthodes API, soit par le client riche, soit par des applications tierces utilisant des webservices, soit par des scripts JavaScript utilisant les méthodes natives. Cette dernière méthode est compatible avec des services de données tiers. Par exemple, l’objet HttpClientRequest est utilisé pour appeler l’API d’un service tiers en tant que client HTTP et l’objet HttpClientResponse est utilisé pour récupérer la réponse. 

Un expert technique est indispensable pour garantir la faisabilité en matière d’architecture technique et en fonction des cas d’utilisation fonctionnels et métiers. Une condition préalable à valider également est le nombre d’appels par jour suivant l’accord de licence signé avec Adobe. L’expert technique devra également intervenir pour intégrer les services de données tiers à Adobe Campaign en les configurant, en créant et en configurant des workflows de campagne et en configurant les communications API.
 

Et concrètement ? Parlons météo !

Prenons l’exemple de lutilisation de la donnée météo. Il existe un certain nombre de fournisseurs de données météo, à un niveau mondial comme OpenWeatherMap, WeatherAPI ou WeatherStack, comme à un niveau local avec MétéoFrance. Ces acteurs procurent la météo du jour, les prévisions sur plusieurs jours et l’historique météorologique. Comment pouvez-vous mettre en valeur cette mine de données ?  

Couplée à la localisation des clients, elle permet de déclencher une campagne suivant les conditions météorologiques (selon les températures, les intempéries…) ou de contextualiser un bloc de contenus pour une campagne de masse. Dans le secteur de l’assurancenous pouvons avoir :  

  • Cible : les clients d’un assureur automobile qui se rendent dans une ville dans X jours 
  • Données tierces à utiliser : vitesse du vent supérieure à 90 km/h ou risque d’orage  
  • Personnalisation du message : blocs de texte et d’image conditionnels avertissant le client des conditions climatiques et l’encourageant à souscrire à la franchise collision 
  • Résultat attendu : générer des ventes additionnelles en proposant une garantie supérieure 

De plus, selon le résultat de la campagne, un score « météo sensible » pourra être mis en place dans la base de données permettant de tagger des clients plus sensibles à la personnalisation météo (ouverture du mail, clic sur le bloc personnalisé, etc.). Ce score permettra ainsi d’affiner la cible des futures campagnes. 

Les third party data sont très puissantes. Elles apportent un volume de données conséquent pour mettre en œuvre tout un dispositif de matching avec les first et second party data dans un objectif de référentiel unique. Elles peuvent aussi être injectées directement dans un email ou un workflow de campagne. Les bénéfices sont multiples : une augmentation de la qualification, un élargissement de l’audience, une amélioration de la segmentation et du ciblage ou encore une optimisation de l’impact des campagnes email en apportant davantage de personnalisation et de contextualisation. Soignez vos audiences en sautant le pas de l’utilisation des third party data ! 

Checklist pour un suivi efficace des données de votre site web 

Vous avez l’impression de ne pas tirer pleinement parti de vos données ? Je suis ravi de voir que vous avez décidé de prendre les choses en main ! Ma plus grande frustration reste de constater un dysfonctionnement du système de suivi de mes clients ou une mauvaise configuration de leurs outils en la matière. (Oui, je suis un peu un obsédé des données.) « Mais pourquoi ? », vous demandez-vous sûrement. Parce que je vois souvent le potentiel des données (d’un point de vue marketing) glisser entre les doigts des chefs d’entreprises. Je vais donc vous donner quelques conseils pour améliorer votre suivi.   

 

Notez que ces conseils dépendent de votre activité ou de votre secteur. Au moment de définir votre stratégie personnelle de suivi, pensez donc à mettre cet article en parallèle avec votre plan marketing. 

Pourquoi suivre vos données ? 

Vous menez de petites campagnes sur Facebook ou sur d’autres médias sociaux ? Parfait ! Vous surveillez les performances de vos publicités ? Cool ! Vous basez vos décisions sur un faible coût par clic et un taux de clics élevé ? C’est bien, mais ne seriez-vous pas prêt à payer un clic plus cher si vous saviez que vous redirigez vers votre site un utilisateur réellement pertinent, voire un client potentiel ? Alors cela signifie que vous devez suivre attentivement ces visiteurs sur votre site !  

Vous pouvez très bien comptabiliser 1 000 visiteurs sur votre site sans pour autant en tirer la moindre conversion (consulter des pages importantes, s’abonner à la newsletter, acheter un produit…). Pourtant, avec les bons outils, il est possible de réellement suivre ces visiteurs, d’analyser leur comportement et d’agir en fonction. 

Disposer des bonnes données vous permet en outre de mieux connaître vos clients. Considérez cette méthode comme une façon gratuite d’analyser votre marché. Vous apprendrez entre autres à connaître les envies, besoins et comportements de vos clients.  

 

Les outils de base pour un bon suivi 

Il existe une infinité d’outils. Par conséquent, vous devez choisir vos batailles en gardant à l’esprit votre stratégie. Vous trouverez ci-dessous plusieurs outils de suivi que je vous recommande d’installer sur votre site.   

1. Google Analytics (ou un outil équivalent) 

Celui-ci s’impose comme une évidence, bien sûr, mais en réalité beaucoup ignorent l’étendue réelle des fonctionnalités de Google Analytics. Il vous arrive sans doute de consulter le nombre de sessions, les utilisateurs, les données démographiques, la localisation, les devices…  

Mais avez-vous déjà songé à :  

  • Configurer des événements ou des objectifs spécifiques ? (Clic sur un bouton particulier, abonnement à la newsletter, durée de la visite d’une page, lecture d’une vidéo, chargement de 5 pages en une seule session…)   
  • Analyser la vitesse de chargement de vos pages ? 
  • Examiner les conversions indirectes pour un site de e-commerce ? 
  • Observer le processus de paiement ? 
  • Créer des segments de visiteurs particuliers ? 
  • Ajouter un nouveau modèle d’attribution ? 
  • Adapter ou créer des groupes de canaux personnalisés ?   

 

Les rapports personnalisés s’avèrent par ailleurs très utiles pour tous ceux qui se sentent dépassés par la quantité de menus, graphiques et autres paramètres. Ces rapports sont là pour vous faciliter la vie ! Ils centralisent vos données essentielles dans un même tableau de bord. Ainsi, plus besoin de jongler entre différentes pages pour analyser vos données clés.  

 

2. Google Tag Manager 

Si installer les balises adéquates vous semble complexe, Google Tag Manager vous aidera à les configurer plus facilement. Vous limiterez par la même occasion votre besoin en développeurs. Cet outil repose sur la présence d’une balise, d’un déclencheur et de variables (facultatives).  

Par exemple, l’un de nos clients souhaitait suivre le moment où des visiteurs ouvraient leur simulateur 3D. Pour ce faire, nous avons sélectionné la balise d’événement Google Analytics (par défaut dans Tag Manager) et nous avons choisi un déclencheur (clic sur un « click class » spécifique). C’est aussi simple que ça : voilà comment nous avons ajouté un nouvel événement « clic sur le simulateur 3D ».  

Les variables sont également de précieux alliés. Une variable est utilisée pour les valeurs changeantes, comme un nom de produit, un prix, une date, etc. Elle sert à recueillir et envoyer de manière dynamique des données spécifiques. Par exemple, pour cet événement « simulateur 3D », nous pourrions ajouter une étiquette qui utiliserait une variable afin d’envoyer la page de référence. De ce fait, nous pouvons mieux analyser cet événement, en voyant non seulement le nombre de personnes l’ayant réalisé, mais aussi leur provenance.  

 

3. Heatmap 

Les outils de heatmap sont un autre allié essentiel pour votre suivi. En bref, ils vous donnent un aperçu des habitudes de vos utilisateurs et de leurs interactions. L’idée est de générer une heatmap (représentation visuelle) afin d’analyser les résultats d’une page web (par exemple, pour vérifier l’efficacité d’un CTA.)  

Les outils les plus connus dans ce domaine sont MouseflowHotjar et Crazyegg. 

 

4. Balises de plateformes publicitaires 

Toutes les plateformes publicitaires proposent des balises de suivi (balises pour Bing Ad, Google Ad, Facebook Ad, Pinterest Ad…). Il est important de s’assurer que vous disposez bien de toutes les balises nécessaires. De cette manière, vous pourrez non seulement en savoir plus sur les interactions découlant directement de votre campagne, mais aussi recibler les personnes impliquées.  

Vous pouvez, par exemple, créer des événements spécifiques tel qu’un « ViewContent » (quand quelqu’un consulte une de vos pages importantes) et segmenter ces personnes en audience afin de vous permettre de les recibler. S’il est possible de suivre une multitude d’événements, il est toutefois important de les aligner avec vos objectifs marketing. Nous conseillons par exemple aux acteurs du e-commerce de créer des événements « ViewContent », « Add to cart », « Initiated checkout » et « Purchase ».  

Pour l’un de nos autres clients, nous avons suivi toutes les personnes ayant commandé un échantillon gratuit par l’intermédiaire de son site. Comme nous savons qu’il s’agit ici de prospects chauds, autrement dit intéressés et susceptibles d’acheter, nous pouvons leur présenter des publicités ciblées. Nous avons segmenté les conversions, les « leads », en une audience personnalisée afin de les recibler. Tous ces efforts se sont traduits par une augmentation immédiate de l’engagement et des ventes.  

 

Analysez facilement vos données 

Après avoir choisi et installé vos balises, l’analyse de vos données s’avère souvent un véritable casse-tête. En effet, les données proviennent parfois de plusieurs outils, ce qui complique la possibilité de disposer d’une vue d’ensemble. Alors, comment faire pour tout rassembler sur un même tableau de bord ? La réponse est simple !   

Google Data Studio est un outil gratuit de gestion de tableau de bord et de reporting qui vous permet de centraliser des données issues de différentes sources. Il est facile à configurer, à personnaliser et à partager. Plusieurs connecteurs Google et open source sont mis à votre disposition gratuitement. Si vous souhaitez toutefois intégrer d’autres sources de données, comme Facebook Ads, vous devrez faire appel à un connecteur tiers (Supermetrics, funnel.io…).  

Laissez-moi vous donner un exemple d’un Google Data Studio bien conçu. L’un de nos clients était convaincu que son tableau de bord Google Analytics était suffisant pour analyser ses données. Nous pensions le contraire, aussi lui avons-nous montré les nombreuses possibilités supplémentaires que lui offrait un tableau de bord Google Data Studio. Son entreprise menait des campagnes cross-canal, mais sans avoir de vue d’ensemble de leurs performances. Nous lui avons donc créé un tableau de bord réellement complet et dynamique. Nous avons affiché à la fois les indicateurs d’achat média par canal et leur impact sur son site web. Notre client a ainsi pu analyser ses données plus efficacement et optimiser ses campagnes plus rapidement, pour une approche plus rentable !  

En bref…  

Je vous l’ai dit, les possibilités sont infinies. Assurez-vous donc d’avoir dressé la liste de vos objectifs et de disposer des outils et balises nécessaires pour exploiter ou analyser vos données. La question n’est pas de savoir ce que font les autres. Ce qui compte, c’est ce qui fonctionne pour vous !   

[Ebook] Démarrer votre gouvernance des données

Gouverner les données : un enjeu de taille

La digitalisation des entreprises a considérablement décuplé le volume de données générées par celles-ci. Et ce au niveau de toutes les activités.  

La collecte de données s’est multipliée pour plusieurs raisons :  

  • Les obligations règlementaires  
  • L’intégration de nouvelles sources (comme les IoT ou encore les applications mobiles) 
  • L’enthousiasme débordant de certains acteurs récoltant un maximum de données qui ne se révèlent pas toutes utiles 

Or, bien que la Data prenne une ampleur croissante au sein des organisations, elle est bien souvent gérée de façon trop « artisanale » et – osons le dire – insuffisamment structurée ! 

Mettre en place une gouvernance des données semble donc être une évidence, mais de nombreuses organisations hésitent encore à se lancer dans une telle démarche.  En cause : la difficulté à maîtriser un projet de cette ampleur et en dégager des bénéfices visibles à court terme. 

 

Des pistes concrètes et pragmatiques

Notre parti-pris est qu’il n’est pas nécessaire de mettre en œuvre une démarche de gouvernance des données simultanément à l’échelle de toute l’organisation.  

Nous le déconseillons même. Ce serait une tâche très complexe générant des collisions à risques entre tous les projets opérationnels de l’entreprise.  

En revanche, des projets de PIM, MDM, Reporting et démarche RSE peuvent être d’excellents accélérateurs pour initier une gouvernance des données.  

Dans cet ebooknos consultants Data vous proposent des pistes concrètes pour la mettre en place, avec un bénéfice à la fois pour un projet et la gestion globale des données de l’entreprise. 

Nous aborderons :  

  • Les enjeux de la gouvernance des données 
  • Les principes clés d’une gouvernance durable 
  • Les voies possibles 

téléchargez l'ebook sur la gouvernance des données

[Replay] Comment concilier innovation numérique et transition écologique ?

4%.
C’est ce que représente l’empreinte du numérique au niveau des émissions de gaz à effet de serre dans le monde aujourd’hui. Et ce chiffre est amené à tripler d’ici 2025 !

Alors comment concilier cette innovation numérique qui ne cesse d’accélérer et les problématiques environnementales que nous connaissons tous ?

Selon nous, le numérique et l’écologie ne sont pas incompatibles si nous entreprenons une démarche de sobriété numérique.

L’objectif de cette démarche est simple : nous amener à réduire progressivement notre impact environnemental par des actions quotidiennes qui sont en fait assez évidentes.

Nos experts Stephen Demange et Véronique Tillaud vous dressent dans ce webinar un panorama de la situation numérique actuelle ainsi que de nos pistes d’amélioration pour entrer dans un modèle plus soutenable et plus pérenne.

 

Téléchargez le replay sur l'innovation numérique et la transition écologique

Analytics et Data driven : bien comprendre et agir pour de meilleures décisions stratégiques !

Toutes les interactions ou presque peuvent être trackées, décryptées et analysées. Cependant, je constate souvent que dans l’écosystème digital, les données récoltées par les nombreux outils d’analyse sont mal exploitées car mal interprétées. Pourtant, la bonne compréhension de ces données impacte les décisions stratégiques ou budgétaires de votre business model !

L‘expérience utilisateur est devenue un paramètre incontournable de l’écosystème digital actuel. Lors de sa navigation, ce que le client attend d’un site est qu’il réponde non seulement à ses attentes en matière d’assortiment produits, mais surtout en termes d’expérience ! 
Il faut, par conséquent, se livrer à un véritable travail d’analyse et d’interprétation : la collecte de données portant sur le parcours d’achat du consommateur sur un site web est capitale. Mais faut-il encore être capable de décrypter les comportements de vos clients ou de vos prospects, et de mesurer leur expérience utilisateur d’un point de vue quantitatif !

Analytics : les éléments indispensables et les méthodes d’analyse

4 éléments clés sont à prendre en compte :

  • L’acquisition (comment l’internaute est arrivé sur votre site) : au-delà des canaux, de quelles sources précisément sont venus vos visiteurs ?
  • L’engagement (comment il réagit par rapport à votre site) : quelles sont les pages qui attirent les visites ?
  • La conversion (ce qui l’a incité à passer à l’acte d’achat) : quels sont les éléments ou les leviers (Attribution) qui interviennent dans l’entonnoir de conversion ?
  • La fidélisation (ce qui fait que l’internaute revient sur votre site) : quels produits, quel contenu font revenir vos visiteurs ou vos clients ?

Google a imaginé la mesure de l’expérience utilisateur (UX) avec un modèle appelé HEART (Happiness, Engagement, Adoption, RetentionTask success). Ces indicateurs essentiels constituent un cadre d’analyse de l’expérience utilisateur. Le choix des indicateurs de performances à monitorer et des outils à déployer sur le site est primordial pour comprendre les comportements de vos clients. Mais capter des données ne sert à rien si vous n’êtes pas en mesure d’en tirer les enseignements et de prendre les bonnes décisions !

Il existe donc plusieurs types de méthode d’analyse en Digital Analytics.

Les principaux types sont la méthode d’analyse comportementale, d’analyse attitudinale, concurrentielle et sociale :

Analytics 1


Définir les KPI qui font sens 
et les interpréter

Les outils Analytics sont nombreux : Adobe Analytics, AT InternetIBM Digital Analytics Google Analytics étant le plus populaire au monde avec une part de marché estimée à plus de 85%. Ils sont indispensables pour n’importe quelle entreprise gérant un business en ligne : ils permettent de mieux comprendre les réactions et les comportements des visiteurs sur votre site.

Mais la différence ne peut se faire sur les données elles-mêmes ! Les représentations graphiques (la datavisualisation ou dataviz) garantissent une interprétation intelligente de vos données. Elles permettent en effet d’analyser et de visualiser (représentation de la donnée brute) un grand volume de données. Plusieurs solutions de dataviz existent, telles que Google data studio, Holistics, Qlik Sense, Microsoft Power BI et Salesforce Einstein.

Analytics 2

Exemple d’interface de solution de dataviz

C’est parce que l’on a ressenti les limites du site web que l’on recherche des leviers d’amélioration. Fréquence d’achat, taux de transformation, taux de rebond, partage de produits ou encore taux de souscription à une newsletters, c’est à vous qu’il revient de définir vos actions en fonction des éléments que vous aurez analysés !

Prenons l’exemple d’un formulaire. On peut s’interroger sur la conception d’une page ou d’un formulaire, lorsqu’un internaute interrompt sa navigation à un endroit précis. 
La plupart des sites possèdent des pages plus longues que la taille de nos écrans, sachant qu’aujourd’hui, une personne utilise plusieurs types d’écran (laptop, desktop, tablette, smartphone). Les utilisateurs doivent donc « scroller » (faire défiler) pour visualiser l’ensemble des éléments, informations, de la page ou du formulaire.

Analytics 3

Il est alors indispensable de voir jusqu’où le visiteur fait défiler la page, en particulier s’il parcourt une page produit ou un formulaire qui contient des informations importantes.

 

Pourquoi utiliser le scroll tracking comme objectif ?

La profondeur de scrolling

En créant un objectif basé sur le scroll tracking, vous pourrez suivre le nombre de visiteurs qui voient la page en entier. La profondeur du scrolling est utile si vous animez par exemple un blog et que vous attendez de vos visiteurs qu’ils lisent vos articles (principalement si un CTA – bouton call to action – se trouve en bas de l’article).

Il est cependant impossible de créer une visualisation en entonnoir. Vous pouvez toujours créer plusieurs événements (dans Google Analytics) pour le suivi du scrolling, avec pour chaque suivi une profondeur spécifique (30%, 60%, 90%). De cette façon, il est possible de créer une représentation en forme d’entonnoir de la perte de visiteur sur chaque page. Dans le cas d’un formulaire, vous pourrez identifier à quel endroit, au niveau de quel champs ou quelle demande d’information va inciter le visiteur à quitter la page. 

(Re)définir le contenu et la structure

En matière de SEOle scroll tracking pourra vous aider à développer votre contenuIl serait logique de penser que le contenu que vos utilisateurs voient en dernier, avant de quitter une page, est le contenu le plus intéressant de votre site. En observant les événements les plus importants dans Google Analytics, vous pourrez identifier facilement les pages de destination qui attirent le plus vos visiteurs.

Une interprétation possible lorsqu’une landing page génère du trafic, est qu’elle est populaire ! Cependant, elle n’est pas efficace dans l’engagement de vos visiteurs. En déterminant la profondeur de scrolling de vos visiteurs sur une page de destination donnée, vous pouvez déterminer les informations que ces visiteurs souhaitent voir et ajuster votre contenu en conséquence. Vous pouvez également déterminer quel contenu est le plus attrayant et fonctionne le mieux en termes d’engagement général des visiteurs. Vous pouvez donc la restructurer ou la réécrire pour qu’elle contienne plus d’informations utiles.

Par exemple, certains articles de blog peuvent contenir un paragraphe ou deux qui sont particulièrement intéressants pour vos clients, mais la plupart quittent votre site après l’avoir lu. Dans ce cas, vous pouvez essayer de modifier la structure et le contenu du message lui-même ou d’en écrire un autre avec des informations plus détaillées. Le suivi de la profondeur du scrolling vous permet également de savoir si une page de destination ou toute autre page comportant un appel au clic contient des éléments de distractions potentielles. Si vous remarquez que des personnes quittent la page après l’avoir visionnée seulement à 50%, vous pouvez examiner cette partie de la page pour rechercher d’éventuelles problèmes.

Canal de conversion ou canal de découverte ?

Dans un autre exemple, on constate que votre site enregistre un nombre important de visites en provenance du canal « social media ». Cependant ces visites sont de courte durée et peu de pages sont consultées. Que pouvons-nous en déduire ?

Le canal n’est pas approprié à votre cible ou les visites ne sont pas suffisamment qualifiées ? 

Mais l’explication rationnelle serait que dans notre cas nous sommes face à un canal de « découverte » plutôt qu’un canal de « conversion » : les internautes vont découvrir votre marque, vos produits, votre présence sur le web, grâce aux réseaux sociaux mais ils ne convertissent que plus tard, lors d’une seconde ou une troisième visite. 

On peut s’en assurer en consultant les rapports de Google Analyticsdans la rubrique : Conversions > Entonnoirs multicanaux.

Analytics 4

De manière générale, grâce à la création d’un « projet modèle d’attribution » dans Google Analytics, vous identifiez la pertinence des leviers marketing contributeurs et optimiserez les budgets média en fonction de l’importance de chacun de ces leviers dans le processus de conversion !

Dans cet exemple, il s’agit de la création d’un projet d’attribution dans Google Analytics. Pour rappel, il existe deux types de modèles, prédéfinis et algorithmique.

Analytics 5

On peut visualiser les différentes étapes (parcours) avant la conversion.

Analytics 6 Analytics 7

La liste des analyses et de leurs interprétations est longue, et cet article ne refléte qu’une infime partie des possibiltés qui s’offres aux annonceurs dès lors qu’ils s’agit de prendre des décisions impactantes pour leur développementque ce soit online mais également offline.

Aujourd’hui nous pouvons récolter et analyser des données qui proviennent de multiples canaux et supports : ordinateurs, tablettes, smartphones, TV, écrans dans les magasins, sites web, bornes interactives... Nous sommes capables d’analyser l’impact du trafic en magasin des campagnes TV (Holimetrix), de faire des prédictions de trafic, d’audience (Kameleoon, IBM Watson…).

Nous en pouvons plus nous contenter de lire des tableaux de bord sans en connaitre réellement la signification et les enseignements. Mais devant les sources inombrables de solutions et de canaux, il devient indispensable de « COMPRENDRE » avant d’ « AGIR » !

—– 

Définitions

Le Data Driven, également appelée Data-Driven Marketing, se base sur une approche qui consiste à prendre des décisions stratégiques sur la base d’une analyse et d’une interprétation des données. L’approche Data Driven permet d’examiner et d’organiser la data dans le but de mieux cerner ses consommateurs et ses clients.

L’analyse (Analytics) est la découverte, l’interprétation et la communication de modèles significatifs dans les données. … Particulièrement utile dans les régions riches en informations enregistrées, l’analyse (Analytics) repose sur l’application simultanée de statistiques, de programmation informatique et de recherche opérationnelle pour quantifier les performances.