Articles

Comment intégrer les third party data pour qu'elles fassent le beau temps des campagnes emailing ?

Nous en sommes conscients, les audiences sont sursollicitéesFace à cette tourmente, l’hyperpersonnalisation, la contextualisation et la segmentation fine se placent désormais comme les atouts majeurs des campagnes marketing. Ces dispositifs nécessitent un carburant très précieux : la donnée. La donnée qui répondra à vos besoins n’est pas toujours connue ou disponible en interne à l’entreprise. C’est là que les third party data entrent en scène ! Découvrez comment bien les intégrer et ainsi qu’un exemple de leur usage dans une campagne emailing dans le domaine de l’assurance. 

Si les first party data sont les données générées par l’activité de l’entreprise et les second party data les données issues de partenariats commerciaux, que sont les third party data ? Aussi appelées données tierces, elles sont fournies à un annonceur dans un objectif de ciblage ou de personnalisation par une société tierce, autre que l’éditeur utilisé comme gestionnaire de campagne, et sont généralement payantes. Cette société tierce est appelée une « data broker » et a pour cœur de métier de collecter les données et de les associer à des visiteurs grâce à des cookies ou bien à des coordonnées d’utilisateurs. 

 

3 façons d’utiliser et d’intégrer les third party data dans son entreprise

Les third party data sont des ressources inestimables à condition de savoir bien les exploiter. Il existe plusieurs manières de procéder, depuis une Data Management Platform (DMP) ou via une API.   

Utilisation avec une DMP

Une DMP est une plateforme de gestion des données qui va permettre d’échanger ou d’associer toutes les first, second ou third party data. L’objectif principal est de centraliser les données et de simplifier leur gestion afin de créer un référentiel client unique. Vous obtiendrez ainsi des segments d’audience très précis ou une personnalisation très pointue de vos campagnes emailing pour en maximiser la performance. 

La DMP conduit également à la création de segments « look alike », c’est-à-dire des segments de profils qui ressemblent à des segments existants. Plusieurs niveaux de correspondance peuvent être générés afin d’augmenter le volume de ciblage. À noter que plus le ciblage est important, plus le pourcentage de ressemblance est faible. 

D’autres fonctionnalités sont proposées par une DMP comme la capacité de cibler de façon omnicanale, de gérer les prospects dans une logique PRM (Prospect Relationship Management) ou encore de mesurer le ROI. 

Utilisation avec une API

Si l’intégration d’une DMP est un projet estimé trop lourd, il est possible d’utiliser et d’intégrer des données tierces via une API. Normalisée et largement répandue depuis plusieurs années, une API est une interface faisant communiquer deux applications entre elles.  

Dans le cas de gestion de campagnes emailing, le logiciel de gestion de campagne transmet une demande au fournisseur afin d’obtenir la donnée tierce qui répond ensuite à la requête. Le couple requête / réponse utilise des langages très répandus comme le format JSON, ressemblant au Javascript. Le service web qui expose une API l’accompagne souvent d’un guide d’utilisation listant toutes les fonctionnalités et les données accessibles. L’utilisation et l’intégration sont donc facilitées, ce qui permet de déployer un projet d’échange de données sur des besoins plus ponctuels ou restreints, comme l’optimisation du moment d’envoi d’un emailing ou l’enrichissement de données pour la personnalisation de blocs de contenus. 

Exemple d’intégration avec Adobe Campaign

Adobe Campaign a été développée pour permettre une ouverture sur son architecture grâce aux API. Ces API sont utilisées en interne dans l’application avec JavaScript et en externe avec SOAP, un protocole d’échange d’informations structuré basé sur le langage XML. 

Adobe Campaign dispose de deux types d’API : 

  • Une API pour accéder aux données en interrogeant le modèle de données d’Adobe Campaign 
  • Une API pour interagir avec les objets de la solution Adobe Campaign (diffusions email / SMS /…, workflows, abonnements, etc.) 

Pour utiliser un service tiers, il est nécessaire d’utiliser le protocole SOAP implémenté dans Adobe Campaign. Le protocole SOAP permet l’invocation de méthodes API, soit par le client riche, soit par des applications tierces utilisant des webservices, soit par des scripts JavaScript utilisant les méthodes natives. Cette dernière méthode est compatible avec des services de données tiers. Par exemple, l’objet HttpClientRequest est utilisé pour appeler l’API d’un service tiers en tant que client HTTP et l’objet HttpClientResponse est utilisé pour récupérer la réponse. 

Un expert technique est indispensable pour garantir la faisabilité en matière d’architecture technique et en fonction des cas d’utilisation fonctionnels et métiers. Une condition préalable à valider également est le nombre d’appels par jour suivant l’accord de licence signé avec Adobe. L’expert technique devra également intervenir pour intégrer les services de données tiers à Adobe Campaign en les configurant, en créant et en configurant des workflows de campagne et en configurant les communications API.
 

Et concrètement ? Parlons météo !

Prenons l’exemple de lutilisation de la donnée météo. Il existe un certain nombre de fournisseurs de données météo, à un niveau mondial comme OpenWeatherMap, WeatherAPI ou WeatherStack, comme à un niveau local avec MétéoFrance. Ces acteurs procurent la météo du jour, les prévisions sur plusieurs jours et l’historique météorologique. Comment pouvez-vous mettre en valeur cette mine de données ?  

Couplée à la localisation des clients, elle permet de déclencher une campagne suivant les conditions météorologiques (selon les températures, les intempéries…) ou de contextualiser un bloc de contenus pour une campagne de masse. Dans le secteur de l’assurancenous pouvons avoir :  

  • Cible : les clients d’un assureur automobile qui se rendent dans une ville dans X jours 
  • Données tierces à utiliser : vitesse du vent supérieure à 90 km/h ou risque d’orage  
  • Personnalisation du message : blocs de texte et d’image conditionnels avertissant le client des conditions climatiques et l’encourageant à souscrire à la franchise collision 
  • Résultat attendu : générer des ventes additionnelles en proposant une garantie supérieure 

De plus, selon le résultat de la campagne, un score « météo sensible » pourra être mis en place dans la base de données permettant de tagger des clients plus sensibles à la personnalisation météo (ouverture du mail, clic sur le bloc personnalisé, etc.). Ce score permettra ainsi d’affiner la cible des futures campagnes. 

Les third party data sont très puissantes. Elles apportent un volume de données conséquent pour mettre en œuvre tout un dispositif de matching avec les first et second party data dans un objectif de référentiel unique. Elles peuvent aussi être injectées directement dans un email ou un workflow de campagne. Les bénéfices sont multiples : une augmentation de la qualification, un élargissement de l’audience, une amélioration de la segmentation et du ciblage ou encore une optimisation de l’impact des campagnes email en apportant davantage de personnalisation et de contextualisation. Soignez vos audiences en sautant le pas de l’utilisation des third party data ! 

Checklist pour un suivi efficace des données de votre site web 

Vous avez l’impression de ne pas tirer pleinement parti de vos données ? Je suis ravi de voir que vous avez décidé de prendre les choses en main ! Ma plus grande frustration reste de constater un dysfonctionnement du système de suivi de mes clients ou une mauvaise configuration de leurs outils en la matière. (Oui, je suis un peu un obsédé des données.) « Mais pourquoi ? », vous demandez-vous sûrement. Parce que je vois souvent le potentiel des données (d’un point de vue marketing) glisser entre les doigts des chefs d’entreprises. Je vais donc vous donner quelques conseils pour améliorer votre suivi.   

 

Notez que ces conseils dépendent de votre activité ou de votre secteur. Au moment de définir votre stratégie personnelle de suivi, pensez donc à mettre cet article en parallèle avec votre plan marketing. 

Pourquoi suivre vos données ? 

Vous menez de petites campagnes sur Facebook ou sur d’autres médias sociaux ? Parfait ! Vous surveillez les performances de vos publicités ? Cool ! Vous basez vos décisions sur un faible coût par clic et un taux de clics élevé ? C’est bien, mais ne seriez-vous pas prêt à payer un clic plus cher si vous saviez que vous redirigez vers votre site un utilisateur réellement pertinent, voire un client potentiel ? Alors cela signifie que vous devez suivre attentivement ces visiteurs sur votre site !  

Vous pouvez très bien comptabiliser 1 000 visiteurs sur votre site sans pour autant en tirer la moindre conversion (consulter des pages importantes, s’abonner à la newsletter, acheter un produit…). Pourtant, avec les bons outils, il est possible de réellement suivre ces visiteurs, d’analyser leur comportement et d’agir en fonction. 

Disposer des bonnes données vous permet en outre de mieux connaître vos clients. Considérez cette méthode comme une façon gratuite d’analyser votre marché. Vous apprendrez entre autres à connaître les envies, besoins et comportements de vos clients.  

 

Les outils de base pour un bon suivi 

Il existe une infinité d’outils. Par conséquent, vous devez choisir vos batailles en gardant à l’esprit votre stratégie. Vous trouverez ci-dessous plusieurs outils de suivi que je vous recommande d’installer sur votre site.   

1. Google Analytics (ou un outil équivalent) 

Celui-ci s’impose comme une évidence, bien sûr, mais en réalité beaucoup ignorent l’étendue réelle des fonctionnalités de Google Analytics. Il vous arrive sans doute de consulter le nombre de sessions, les utilisateurs, les données démographiques, la localisation, les devices…  

Mais avez-vous déjà songé à :  

  • Configurer des événements ou des objectifs spécifiques ? (Clic sur un bouton particulier, abonnement à la newsletter, durée de la visite d’une page, lecture d’une vidéo, chargement de 5 pages en une seule session…)   
  • Analyser la vitesse de chargement de vos pages ? 
  • Examiner les conversions indirectes pour un site de e-commerce ? 
  • Observer le processus de paiement ? 
  • Créer des segments de visiteurs particuliers ? 
  • Ajouter un nouveau modèle d’attribution ? 
  • Adapter ou créer des groupes de canaux personnalisés ?   

 

Les rapports personnalisés s’avèrent par ailleurs très utiles pour tous ceux qui se sentent dépassés par la quantité de menus, graphiques et autres paramètres. Ces rapports sont là pour vous faciliter la vie ! Ils centralisent vos données essentielles dans un même tableau de bord. Ainsi, plus besoin de jongler entre différentes pages pour analyser vos données clés.  

 

2. Google Tag Manager 

Si installer les balises adéquates vous semble complexe, Google Tag Manager vous aidera à les configurer plus facilement. Vous limiterez par la même occasion votre besoin en développeurs. Cet outil repose sur la présence d’une balise, d’un déclencheur et de variables (facultatives).  

Par exemple, l’un de nos clients souhaitait suivre le moment où des visiteurs ouvraient leur simulateur 3D. Pour ce faire, nous avons sélectionné la balise d’événement Google Analytics (par défaut dans Tag Manager) et nous avons choisi un déclencheur (clic sur un « click class » spécifique). C’est aussi simple que ça : voilà comment nous avons ajouté un nouvel événement « clic sur le simulateur 3D ».  

Les variables sont également de précieux alliés. Une variable est utilisée pour les valeurs changeantes, comme un nom de produit, un prix, une date, etc. Elle sert à recueillir et envoyer de manière dynamique des données spécifiques. Par exemple, pour cet événement « simulateur 3D », nous pourrions ajouter une étiquette qui utiliserait une variable afin d’envoyer la page de référence. De ce fait, nous pouvons mieux analyser cet événement, en voyant non seulement le nombre de personnes l’ayant réalisé, mais aussi leur provenance.  

 

3. Heatmap 

Les outils de heatmap sont un autre allié essentiel pour votre suivi. En bref, ils vous donnent un aperçu des habitudes de vos utilisateurs et de leurs interactions. L’idée est de générer une heatmap (représentation visuelle) afin d’analyser les résultats d’une page web (par exemple, pour vérifier l’efficacité d’un CTA.)  

Les outils les plus connus dans ce domaine sont MouseflowHotjar et Crazyegg. 

 

4. Balises de plateformes publicitaires 

Toutes les plateformes publicitaires proposent des balises de suivi (balises pour Bing Ad, Google Ad, Facebook Ad, Pinterest Ad…). Il est important de s’assurer que vous disposez bien de toutes les balises nécessaires. De cette manière, vous pourrez non seulement en savoir plus sur les interactions découlant directement de votre campagne, mais aussi recibler les personnes impliquées.  

Vous pouvez, par exemple, créer des événements spécifiques tel qu’un « ViewContent » (quand quelqu’un consulte une de vos pages importantes) et segmenter ces personnes en audience afin de vous permettre de les recibler. S’il est possible de suivre une multitude d’événements, il est toutefois important de les aligner avec vos objectifs marketing. Nous conseillons par exemple aux acteurs du e-commerce de créer des événements « ViewContent », « Add to cart », « Initiated checkout » et « Purchase ».  

Pour l’un de nos autres clients, nous avons suivi toutes les personnes ayant commandé un échantillon gratuit par l’intermédiaire de son site. Comme nous savons qu’il s’agit ici de prospects chauds, autrement dit intéressés et susceptibles d’acheter, nous pouvons leur présenter des publicités ciblées. Nous avons segmenté les conversions, les « leads », en une audience personnalisée afin de les recibler. Tous ces efforts se sont traduits par une augmentation immédiate de l’engagement et des ventes.  

 

Analysez facilement vos données 

Après avoir choisi et installé vos balises, l’analyse de vos données s’avère souvent un véritable casse-tête. En effet, les données proviennent parfois de plusieurs outils, ce qui complique la possibilité de disposer d’une vue d’ensemble. Alors, comment faire pour tout rassembler sur un même tableau de bord ? La réponse est simple !   

Google Data Studio est un outil gratuit de gestion de tableau de bord et de reporting qui vous permet de centraliser des données issues de différentes sources. Il est facile à configurer, à personnaliser et à partager. Plusieurs connecteurs Google et open source sont mis à votre disposition gratuitement. Si vous souhaitez toutefois intégrer d’autres sources de données, comme Facebook Ads, vous devrez faire appel à un connecteur tiers (Supermetrics, funnel.io…).  

Laissez-moi vous donner un exemple d’un Google Data Studio bien conçu. L’un de nos clients était convaincu que son tableau de bord Google Analytics était suffisant pour analyser ses données. Nous pensions le contraire, aussi lui avons-nous montré les nombreuses possibilités supplémentaires que lui offrait un tableau de bord Google Data Studio. Son entreprise menait des campagnes cross-canal, mais sans avoir de vue d’ensemble de leurs performances. Nous lui avons donc créé un tableau de bord réellement complet et dynamique. Nous avons affiché à la fois les indicateurs d’achat média par canal et leur impact sur son site web. Notre client a ainsi pu analyser ses données plus efficacement et optimiser ses campagnes plus rapidement, pour une approche plus rentable !  

En bref…  

Je vous l’ai dit, les possibilités sont infinies. Assurez-vous donc d’avoir dressé la liste de vos objectifs et de disposer des outils et balises nécessaires pour exploiter ou analyser vos données. La question n’est pas de savoir ce que font les autres. Ce qui compte, c’est ce qui fonctionne pour vous !   

[Ebook] Démarrer votre gouvernance des données

Gouverner les données : un enjeu de taille

La digitalisation des entreprises a considérablement décuplé le volume de données générées par celles-ci. Et ce au niveau de toutes les activités.  

La collecte de données s’est multipliée pour plusieurs raisons :  

  • Les obligations règlementaires  
  • L’intégration de nouvelles sources (comme les IoT ou encore les applications mobiles) 
  • L’enthousiasme débordant de certains acteurs récoltant un maximum de données qui ne se révèlent pas toutes utiles 

Or, bien que la Data prenne une ampleur croissante au sein des organisations, elle est bien souvent gérée de façon trop « artisanale » et – osons le dire – insuffisamment structurée ! 

Mettre en place une gouvernance des données semble donc être une évidence, mais de nombreuses organisations hésitent encore à se lancer dans une telle démarche.  En cause : la difficulté à maîtriser un projet de cette ampleur et en dégager des bénéfices visibles à court terme. 

 

Des pistes concrètes et pragmatiques

Notre parti-pris est qu’il n’est pas nécessaire de mettre en œuvre une démarche de gouvernance des données simultanément à l’échelle de toute l’organisation.  

Nous le déconseillons même. Ce serait une tâche très complexe générant des collisions à risques entre tous les projets opérationnels de l’entreprise.  

En revanche, des projets de PIM, MDM, Reporting et démarche RSE peuvent être d’excellents accélérateurs pour initier une gouvernance des données.  

Dans cet ebooknos consultants Data vous proposent des pistes concrètes pour la mettre en place, avec un bénéfice à la fois pour un projet et la gestion globale des données de l’entreprise. 

Nous aborderons :  

  • Les enjeux de la gouvernance des données 
  • Les principes clés d’une gouvernance durable 
  • Les voies possibles 

téléchargez l'ebook sur la gouvernance des données

[Replay] Comment concilier innovation numérique et transition écologique ?

4%.
C’est ce que représente l’empreinte du numérique au niveau des émissions de gaz à effet de serre dans le monde aujourd’hui. Et ce chiffre est amené à tripler d’ici 2025 !

Alors comment concilier cette innovation numérique qui ne cesse d’accélérer et les problématiques environnementales que nous connaissons tous ?

Selon nous, le numérique et l’écologie ne sont pas incompatibles si nous entreprenons une démarche de sobriété numérique.

L’objectif de cette démarche est simple : nous amener à réduire progressivement notre impact environnemental par des actions quotidiennes qui sont en fait assez évidentes.

Nos experts Stephen Demange et Véronique Tillaud vous dressent dans ce webinar un panorama de la situation numérique actuelle ainsi que de nos pistes d’amélioration pour entrer dans un modèle plus soutenable et plus pérenne.

 

Téléchargez le replay sur l'innovation numérique et la transition écologique

Analytics et Data driven : bien comprendre et agir pour de meilleures décisions stratégiques !

Toutes les interactions ou presque peuvent être trackées, décryptées et analysées. Cependant, je constate souvent que dans l’écosystème digital, les données récoltées par les nombreux outils d’analyse sont mal exploitées car mal interprétées. Pourtant, la bonne compréhension de ces données impacte les décisions stratégiques ou budgétaires de votre business model !

L‘expérience utilisateur est devenue un paramètre incontournable de l’écosystème digital actuel. Lors de sa navigation, ce que le client attend d’un site est qu’il réponde non seulement à ses attentes en matière d’assortiment produits, mais surtout en termes d’expérience ! 
Il faut, par conséquent, se livrer à un véritable travail d’analyse et d’interprétation : la collecte de données portant sur le parcours d’achat du consommateur sur un site web est capitale. Mais faut-il encore être capable de décrypter les comportements de vos clients ou de vos prospects, et de mesurer leur expérience utilisateur d’un point de vue quantitatif !

Analytics : les éléments indispensables et les méthodes d’analyse

4 éléments clés sont à prendre en compte :

  • L’acquisition (comment l’internaute est arrivé sur votre site) : au-delà des canaux, de quelles sources précisément sont venus vos visiteurs ?
  • L’engagement (comment il réagit par rapport à votre site) : quelles sont les pages qui attirent les visites ?
  • La conversion (ce qui l’a incité à passer à l’acte d’achat) : quels sont les éléments ou les leviers (Attribution) qui interviennent dans l’entonnoir de conversion ?
  • La fidélisation (ce qui fait que l’internaute revient sur votre site) : quels produits, quel contenu font revenir vos visiteurs ou vos clients ?

Google a imaginé la mesure de l’expérience utilisateur (UX) avec un modèle appelé HEART (Happiness, Engagement, Adoption, RetentionTask success). Ces indicateurs essentiels constituent un cadre d’analyse de l’expérience utilisateur. Le choix des indicateurs de performances à monitorer et des outils à déployer sur le site est primordial pour comprendre les comportements de vos clients. Mais capter des données ne sert à rien si vous n’êtes pas en mesure d’en tirer les enseignements et de prendre les bonnes décisions !

Il existe donc plusieurs types de méthode d’analyse en Digital Analytics.

Les principaux types sont la méthode d’analyse comportementale, d’analyse attitudinale, concurrentielle et sociale :

Analytics 1


Définir les KPI qui font sens 
et les interpréter

Les outils Analytics sont nombreux : Adobe Analytics, AT InternetIBM Digital Analytics Google Analytics étant le plus populaire au monde avec une part de marché estimée à plus de 85%. Ils sont indispensables pour n’importe quelle entreprise gérant un business en ligne : ils permettent de mieux comprendre les réactions et les comportements des visiteurs sur votre site.

Mais la différence ne peut se faire sur les données elles-mêmes ! Les représentations graphiques (la datavisualisation ou dataviz) garantissent une interprétation intelligente de vos données. Elles permettent en effet d’analyser et de visualiser (représentation de la donnée brute) un grand volume de données. Plusieurs solutions de dataviz existent, telles que Google data studio, Holistics, Qlik Sense, Microsoft Power BI et Salesforce Einstein.

Analytics 2

Exemple d’interface de solution de dataviz

C’est parce que l’on a ressenti les limites du site web que l’on recherche des leviers d’amélioration. Fréquence d’achat, taux de transformation, taux de rebond, partage de produits ou encore taux de souscription à une newsletters, c’est à vous qu’il revient de définir vos actions en fonction des éléments que vous aurez analysés !

Prenons l’exemple d’un formulaire. On peut s’interroger sur la conception d’une page ou d’un formulaire, lorsqu’un internaute interrompt sa navigation à un endroit précis. 
La plupart des sites possèdent des pages plus longues que la taille de nos écrans, sachant qu’aujourd’hui, une personne utilise plusieurs types d’écran (laptop, desktop, tablette, smartphone). Les utilisateurs doivent donc « scroller » (faire défiler) pour visualiser l’ensemble des éléments, informations, de la page ou du formulaire.

Analytics 3

Il est alors indispensable de voir jusqu’où le visiteur fait défiler la page, en particulier s’il parcourt une page produit ou un formulaire qui contient des informations importantes.

 

Pourquoi utiliser le scroll tracking comme objectif ?

La profondeur de scrolling

En créant un objectif basé sur le scroll tracking, vous pourrez suivre le nombre de visiteurs qui voient la page en entier. La profondeur du scrolling est utile si vous animez par exemple un blog et que vous attendez de vos visiteurs qu’ils lisent vos articles (principalement si un CTA – bouton call to action – se trouve en bas de l’article).

Il est cependant impossible de créer une visualisation en entonnoir. Vous pouvez toujours créer plusieurs événements (dans Google Analytics) pour le suivi du scrolling, avec pour chaque suivi une profondeur spécifique (30%, 60%, 90%). De cette façon, il est possible de créer une représentation en forme d’entonnoir de la perte de visiteur sur chaque page. Dans le cas d’un formulaire, vous pourrez identifier à quel endroit, au niveau de quel champs ou quelle demande d’information va inciter le visiteur à quitter la page. 

(Re)définir le contenu et la structure

En matière de SEOle scroll tracking pourra vous aider à développer votre contenuIl serait logique de penser que le contenu que vos utilisateurs voient en dernier, avant de quitter une page, est le contenu le plus intéressant de votre site. En observant les événements les plus importants dans Google Analytics, vous pourrez identifier facilement les pages de destination qui attirent le plus vos visiteurs.

Une interprétation possible lorsqu’une landing page génère du trafic, est qu’elle est populaire ! Cependant, elle n’est pas efficace dans l’engagement de vos visiteurs. En déterminant la profondeur de scrolling de vos visiteurs sur une page de destination donnée, vous pouvez déterminer les informations que ces visiteurs souhaitent voir et ajuster votre contenu en conséquence. Vous pouvez également déterminer quel contenu est le plus attrayant et fonctionne le mieux en termes d’engagement général des visiteurs. Vous pouvez donc la restructurer ou la réécrire pour qu’elle contienne plus d’informations utiles.

Par exemple, certains articles de blog peuvent contenir un paragraphe ou deux qui sont particulièrement intéressants pour vos clients, mais la plupart quittent votre site après l’avoir lu. Dans ce cas, vous pouvez essayer de modifier la structure et le contenu du message lui-même ou d’en écrire un autre avec des informations plus détaillées. Le suivi de la profondeur du scrolling vous permet également de savoir si une page de destination ou toute autre page comportant un appel au clic contient des éléments de distractions potentielles. Si vous remarquez que des personnes quittent la page après l’avoir visionnée seulement à 50%, vous pouvez examiner cette partie de la page pour rechercher d’éventuelles problèmes.

Canal de conversion ou canal de découverte ?

Dans un autre exemple, on constate que votre site enregistre un nombre important de visites en provenance du canal « social media ». Cependant ces visites sont de courte durée et peu de pages sont consultées. Que pouvons-nous en déduire ?

Le canal n’est pas approprié à votre cible ou les visites ne sont pas suffisamment qualifiées ? 

Mais l’explication rationnelle serait que dans notre cas nous sommes face à un canal de « découverte » plutôt qu’un canal de « conversion » : les internautes vont découvrir votre marque, vos produits, votre présence sur le web, grâce aux réseaux sociaux mais ils ne convertissent que plus tard, lors d’une seconde ou une troisième visite. 

On peut s’en assurer en consultant les rapports de Google Analyticsdans la rubrique : Conversions > Entonnoirs multicanaux.

Analytics 4

De manière générale, grâce à la création d’un « projet modèle d’attribution » dans Google Analytics, vous identifiez la pertinence des leviers marketing contributeurs et optimiserez les budgets média en fonction de l’importance de chacun de ces leviers dans le processus de conversion !

Dans cet exemple, il s’agit de la création d’un projet d’attribution dans Google Analytics. Pour rappel, il existe deux types de modèles, prédéfinis et algorithmique.

Analytics 5

On peut visualiser les différentes étapes (parcours) avant la conversion.

Analytics 6 Analytics 7

La liste des analyses et de leurs interprétations est longue, et cet article ne refléte qu’une infime partie des possibiltés qui s’offres aux annonceurs dès lors qu’ils s’agit de prendre des décisions impactantes pour leur développementque ce soit online mais également offline.

Aujourd’hui nous pouvons récolter et analyser des données qui proviennent de multiples canaux et supports : ordinateurs, tablettes, smartphones, TV, écrans dans les magasins, sites web, bornes interactives... Nous sommes capables d’analyser l’impact du trafic en magasin des campagnes TV (Holimetrix), de faire des prédictions de trafic, d’audience (Kameleoon, IBM Watson…).

Nous en pouvons plus nous contenter de lire des tableaux de bord sans en connaitre réellement la signification et les enseignements. Mais devant les sources inombrables de solutions et de canaux, il devient indispensable de « COMPRENDRE » avant d’ « AGIR » !

—– 

Définitions

Le Data Driven, également appelée Data-Driven Marketing, se base sur une approche qui consiste à prendre des décisions stratégiques sur la base d’une analyse et d’une interprétation des données. L’approche Data Driven permet d’examiner et d’organiser la data dans le but de mieux cerner ses consommateurs et ses clients.

L’analyse (Analytics) est la découverte, l’interprétation et la communication de modèles significatifs dans les données. … Particulièrement utile dans les régions riches en informations enregistrées, l’analyse (Analytics) repose sur l’application simultanée de statistiques, de programmation informatique et de recherche opérationnelle pour quantifier les performances.

Obtenez gratuitement un CRM de SAP !

Pour inciter les utilisateurs des solutions ECC (et CRM) de SAP à passer à S/4HANA, la solution intègre désormais plusieurs fonctionnalités performantes de CRM dans sa dernière version. Résultat : avec S/4HANA 1909, vous disposez tout bonnement d’une stack CRM 7 simplifiée gratuite. Avis aux amateurs de CRM !

Comment est-ce possible ?

Commençons par revenir sur les fonctionnalités CRM des dernières versions de S/4HANA.
Dans la version 1709 de S/4HANA (la version de septembre 2017), SAP avait proposé un « composant add-on de gestion de la relation client » (en bref, un « CM »). Si cet add-on apportait effectivement à S/4HANA des fonctionnalités CRM, il nécessitait toutefois une installation technique séparée. Parmi les fonctionnalités supplémentaires, on retrouvait des objets service et un centre d’interaction. Or, ces fonctionnalités CRM étaient jusque-là absentes et pourtant indispensables pour convaincre de nombreux utilisateurs de SAP de passer à S/4HANA.

L’intégration des fonctions CRM dans un système S/4HANA a permis de résoudre instantanément certains principaux points faibles des solutions CRM traditionnelles de SAP : le recours à un middleware pour assurer la synchronisation CRM-ECC, la duplication des master data telles que les partenaires, ou encore la présence de composants techniques comme la stack JAVA pour la tarification. Côté nouveautés, TREX permettait d’effectuer des recherches efficaces, et plusieurs interfaces utilisateurs étaient disponibles, notamment. 

En d’autres termes, l’ajout de fonctionnalités de gestion de la relation client à S/4HANA avait permis de simplifier l’environnement autant que possible, tout en réduisant automatiquement le TCO et en améliorant l’expérience utilisateur. Par ailleurs, la disponibilité d’objets service CRM rendrait moins brutale la suppression du service client à l’horizon 2025.

S/4HANA et ses nouvelles extensions

Un an plus tard, dans la version S/4HANA 1809, l’add-on de gestion de la relation client intégrait encore de nouvelles fonctions, à commencer par des flux d’avant-vente, des tâches et la gestion des leads et des opportunités. Côté service, un outil de création de devis avec regroupement de produits et intégration d’une localisation fonctionnelle est venu compléter l’offre. En d’autres termes, des processus de service complets pouvaient être traités en lien direct avec les actifs, la facturation et le contrôle. Le CM de S/4HANA commence alors véritablement à prendre forme. 

Dans la version 1909 actuelle de S/4HANA, l’add-on de gestion de la relation client n’existe plus, pas plus que l’installation additionnelle. SAP a renommé les fonctions de gestion de la relation client, désormais appelées « S/4HANA Sales and Service », qui sont disponibles par défaut et gratuitement dans S/4HANA. 

S/4HANA Sales and Service réunit à présent les précédents objets CRM et ECC dans un seul et même système. Les anciens affichages de l’UI web du CRM ont été relookés avec un thème « Quartz Light », qui n’est pas sans rappeler « Fiori 3 ». Des fonctionnalités marquantes comme la gestion de cas et l’intégration d’Outlook (grâce à « mai Connect ») sont également de retour. Cette version fera non seulement le bonheur de nombreux utilisateurs ayant investi massivement dans leurs précédents systèmes CRM et ECC de SAP, mais aussi des entreprises qui n’avaient pas encore de système CRM. Les sociétés dotées d’un back-end ECC abouti mais présentant un besoin limité en CRM ne mettaient souvent pas en œuvre l’add-on CRM dans SAP. Elles se contentaient à la place de feuilles Excel. Grâce à S/4HANA, elles peuvent désormais enfin enregistrer toutes leurs activités liées aux clients dans un ERP. 

Et l’histoire ne s’arrête pas à la version 1909 ! On attend cette année de nouvelles fonctionnalités comme la gestion des réparations in-house ainsi que la gestion des plans de maintenance et des ordres de service, laissant présager de l’intégration de fonctionnalités de CRM à chaque nouvelle version de S/4HANA.

CRM vs C4/HANA

Le CRM a-t-il toutefois retrouvé sa gloire passée grâce à son intégration dans S/4HANA ? La réponse est claire : non. 

Si les fonctions de vente et de service sont presque toutes prises en charge dans S/4HANA, toutes les fonctionnalités marketing ont disparu. Et soyons francs : le marketing n’a jamais été le point fort de CRM 7. La récurrence et l’automatisation des campagnes d’e-mailing pourraient bien donner lieu à la création de règles strictes en matière de RGPD. Et depuis le lancement de CRM 7 en 2007, les attentes des consommateurs en termes d’expérience d’achat ont complètement changé. C’est là qu’intervient  C/4HANA, le portefeuille Cloud de SAP. C/4HANA prend tout en charge dans la « Customer Experience Suite », constituée de 5 solutions : cloud marketing, cloud commerce, cloud données clients, cloud ventes et cloud service.

Cm 1

S/4HANA et C/4HANA présentent donc des fonctionnalités similaires ? Tout à fait.  Rassurez-vous, vous n’êtes pas les seuls que cela perturbe. Je vous rejoins, ainsi que d’autres clients. De façon générale, pour savoir quel produit choisir : si vos besoins sont liés aux clients ou au marketing, optez pour C/4HANATous les processus transactionnels typiques de back-office sont en revanche pris en charge par S/4HANA. Cela dit, la frontière entre front-end et back-end étant souvent très floue, SAP aura la lourde tâche de clarifier la question dans l’esprit de ses utilisateurs et de ses partenaires dans les années à venir. 

Bien que SAP ait largement investi dans C/4HANA, bon nombre de ses utilisateurs ont de leur côté déjà investi dans les solutions CRM et ECC de SAP. Ces entreprises sont souvent réticentes à passer à S/4HANA avec un front-end C/4HANA. Les fonctionnalités S/4HANA Sales and Service leur permettent désormais de capitaliser sur une grande partie de leurs investissements passés et de profiter d’un CRM dans un environnement simple.

Fervent partisan du CRM, je me réjouis de cette évolution de S/4HANA. Car honnêtement, l’idée de gérer les préventes dans un système CRM distinct, avec des données dupliquées, puis de poursuivre le traitement de la commande, de l’expédition et de la facturation dans un ECC n’a jamais été la meilleure qui soit… Selon moi, le CRM a fini par atterrir à sa véritable place, c’est-à-dire l’intégration au cœur de votre système ERP. 

Pourquoi est-il indispensable de s’intéresser à la Blockchain ?

Presque exclusivement associée aux crypto-monnaies jusqu’en 2016–2017, la Blockchain est née de la volonté de créer une monnaie virtuelle : le Bitcoin (le premier bloc ayant été créé le 3 janvier 2009). D’autres cas d’usage ont fait surface et se sont multipliés, rendant cette technologie plus concrète et pertinente pour répondre à davantage de besoins et créer des opportunités. Désormais, un nombre croissant d’entreprises à travers le monde ont commencé à en saisir les intérêts. 

 

Parmi les cas d’usage qui sont apparus, nous pouvons d’abord citer la traçabilité. Une blockchain est par essence un registre immuable et fortement sécurisé, et toute information inscrite dans ce registre devient inaltérable et reste accessible tout au long de la vie de la blockchain. On parle jusque-là de Blockchain Publique, puisque toutes les informations inscrites dans le registre sont accessibles par tous ses utilisateurs. Puis est apparu en 2016 le concept de Blockchain Privée. Il s’agit d’une extension de la version publique, à laquelle s’ajoutent deux notions : 

  • Un accès soumis à des règles strictes (on parle de « permissioned Blockchain ») ; 
  • La possibilité de réaliser des transactions qui ne sont pas visibles par l’ensemble des participants, mais uniquement par les parties prenantes de cette transaction. 

Là où la Blockchain Publique était très orientée B2C, la Blockchain Privée trouve elle sa place dans les applications B2B. 

 

Si ma blockchain est privée, est-ce toujours une blockchain ? 

Le fait qu’elle soit privée ne veut pas dire qu’elle n’est plus distribuée et plus traçable, ni que les données deviennent « modifiables », etc… Au contraire, une blockchain privée ayant généralement moins de participants que ses homologues publiques, elle peut mettre en œuvre des consensus plus rigoureux en termes de sécurité. Elles permettent également la création de consortium (le groupe de nœuds participant à la validation des transactions est un sous-ensemble de la Blockchain), et ainsi la création d’une gouvernance pour en fixer les règles de fonctionnement et d’utilisation. 

 

Illustration de deux cas d’utilisation : 

  • Une entreprise composée de plusieurs entités souhaite bénéficier des avantages d’une blockchain pour suivre ses processus de fabrication et conserver des documents officiels, mais sans forcément vouloir partager l’accès à ses données avec d’autres entreprises. Elle déploie sa blockchain en interne, avec le nombre de nœuds qu’elle souhaite pour assurer la résilience. Elle peut choisir un consensus orienté « résistance aux pannes » plutôt que « résistant aux fraudeurs ». (On peut supposer qu’elle ne va pas s’attaquer elle-même …). 
  • Au sein d’un groupe, les entreprises ont des intérêts communs et aimeraient réaliser des transactions entre-elles au travers de contrats commerciaux. Dans ce cas, il leur est opportun de choisir un consensus qui sait détecter les tentatives de fraudes, et chaque entreprise va représenter un nœud de la blockchain. Certaines données vont pouvoir être partagées de manière transparente, et d’autres resteront privées. 
    Par exemple, l’entreprise A va passer un contrat avec B pour la commande de produits, B va passer un contrat avec C pour assurer le transport, et A, B et C pourront avoir un contrat pour suivre le cycle Commande / Fabrication / Livraison. Ainsi A ne sait pas quels tarifs sont pratiqués entre B et le transporteur, pas plus que le transporteur ne connait le prix des pièces commandées par A. Quant à D, E, etc., elles n’ont aucune vision de ces contrats. 
    De même, si une nouvelle entreprise souhaite rejoindre cette blockchain, il faudra que cela soit approuvé par une majorité des acteurs déjà présents. Le consensus s’applique aussi dans ce cas. 

 

Quels cas d’application de la Blockchain Privée ? 

La Blockchain présente un réel avantage dès lors que l’on doit pouvoir démontrer l’origine, l’authenticité et l’historique d’une donnée. De plus, l’utilisation des Smart Contracts permet de rendre contractuel l’exécution d’une règle métier. Le concept peut paraître déroutant car ce n’est plus le « bout de papier signé » qui fait foi, mais bien le code du Smart Contract. 
Les cas d’application sont ainsi nombreux : 

  • Chaîne de production (traçabilité de toutes les étapes de production d’un bien) ; 
  • Chaîne de distribution (respect des contrat commerciaux, tarif, délais de livraison, etc.) ; 
  • Conservation de documents officiels (diplômes, flux comptables, actes de ventes, etc.) ; 
  • Contrat d’assurance (indemnisation déclenchée quand les conditions sont réunies) ; 
  • Traçabilité (origine de la viande présente dans un plat de lasagnes, …) ; 
  • Internet de Objet (localisation dans le transport de marchandises, respect de la chaîne du froid, etc.). 

 

La Blockchain c’est génial ! Peut-on en mettre partout ? 

Tous les projets ne sont pas éligibles à la Blockchain. Se faire accompagner par des experts et la mise en place de questionnaires sont de réels atouts pour déterminer si un projet présente un intérêt à être développé dans une blockchain ou non. 

Comme pour toute architecture, la Blockchain présente des avantages mais aussi des contraintes qu’il faut prendre en considération lors de l’étude d’un nouveau projet : 

  • Ce n’est pas une base de données. Elle croît sans cesse (le stockage peut être un frein) ;  
  • Elle n’oublie rien (la conformité au RGPD peut être difficile à mettre en pratique) ;  
  • Elle requiert souvent d’être exposée sur internet (la sécurité réseaux est à prendre en compte) ; 
  • Elle implique que les données qu’elle contient soient partagées avec d’autres (vous devez renoncer à leur propriété exclusive) ; 
  • Elle requiert des compétences particulières (qui elles-mêmes nécessitent des formations) ; 
  • Elle n’est pas nativement prévue pour interagir avec un SI (il faut mettre en place un middleware) ; 
  • Elle est relativement jeune (les outils de développement et d’intégration manquent de maturité, ce qui requiert là aussi des développements complémentaires). 

 

Toutefois, nous pouvons noter que des offres BaaS (Blockchain as a Service) commencent à apparaitre chez certains grands éditeurs (Microsoft Azure, IBM, Oracle …), qui permettent de se libérer d’un certain nombre de contraintes. Des passerelles permettant une interopérabilité entre plusieurs blockchains commencent également à se développer. 

 

Conclusion 

La Blockchain ayant démontré sa fiabilité et sa robustesse sur le long terme, elle a un réel avenir dans le monde de l’entreprise, et ses champs d’applications sont nombreux. Les offres d’hébergement se multiplient (AWS, Microsoft, IBM, Oracle …), et il devient désormais normal pour une entreprise de prendre en considération cette architecture lors de l’étude de nouveaux projets. Alors place à l’innovation ! 

SQLI est là pour vous accompagner dans vos projets, de la pré-étude jusqu’au RUN, en vous apportant son expertise et ses retours d’expériences, tant sur les aspects techniques qu’opérationnels. Nous pouvons également vous aider pour la réalisation de Proof Of Concept autour d’un use case afin de vous assurer que la Blockchain répond correctement à votre besoin, et préparer ainsi la montée en compétences de vos équipes. 

UX et RGPD : Comment proposer une expérience utilisateur de qualité et respecter la légalité ?

En matière de RGPD, 76% des Français se disent préoccupés par ce qui est fait de leurs données personnelles. Pourtant, plus d’un an après sa mise en place, le paradoxe est là : 1 Français sur 2 accepte les conditions d’utilisation de leurs données sans même les lire, selon un sondage d’Odoxa datant de 2019.  

 

Pourquoi un tel paradoxe ? 

Les Français sont-ils paresseux ? Difficile de les blâmer. Qui aurait sérieusement le temps de prendre les 86 minutes nécessaires pour lire intégralement les conditions d’Instagram ? Qui ne se sent pas frustré et agressé par toutes ces fenêtres qui s’ouvrent et bloquent l’accès aux contenus ?  

Les entreprises ne sont-elles pas assez sérieuses ? L’instauration dRGPD a donné rapidement naissance à des formulaires à l’ergonomie douteuse. Avant même de réussir à tomber sur les conditions d’utilisation de ses données, il faudrait déjà réussir à passer les multiples barrières qui viennent polluer leur accès, qui poussent l’utilisateur à « Tout accepter » par dépit 

 

Que faire alors pour nos utilisateurs ?  

Apporter toujours plus de transparence et déthique. Autrement dit, concevoir des produits digitaux qui informent clairement les utilisateurs de leurs choix sans tricherie aucune, tout en leur donnant un accès rapide et permanent pour qu’ils puissent les modifier.  

Tirées de l’article « What does GDPR mean for UX ? » de l’UX Designer Claire Barrett, les guidelines suivantes visent à synthétiser clairement les pratiques à suivre pour à la fois adhérer au RGPD et viser une bonne expérience utilisateur. 

 

  1. Garder le contrôle

L’utilisateur doit choisir s’il souhaite que ses données soient collectées et utilisées. Les contrôles doivent être « user-friendly » : clairs et faciles à comprendre. La base, en somme. 

  1. Respecter la granularité

Les utilisateurs doivent donner leur consentement sur chaque activité requérant le traitement ses donnéee. L’affichage des formulaires de consentement au moment de leur collecte permet de donner un contexte aux utilisateurs (par exemple au moment de la création de leur compte).  

  1. Pouvoir revenir en arrière

Les utilisateurs ont le droit de retirer leur consentement à tout moment. Les paramètres doivent ainsi être conçus pour qu’ils puissent facilement y accéder et les modifier. 

  1. Différencier les conditions

Les conditions générales sont bien à séparer des informations de collecte de données. Le design doit faire en sorte que cela soit bien clair pour l’utilisateur.  

  1. 5.Êtretransparent 

Expliquer à quelles fins la donnée est collectée, de façon courte et concise.   

  1. Expliquer les bénéfices

Lorsqu’on demande l’approbation de l’utilisateur, c’est encore mieux de lui expliquer en quoi son consentement va bénéficier à son expérience. 

 

Quelles pratiques mettre en œuvre ?  

Don’t : la bannière d’information 

Si elle respecte l’aspect légal, la bannière est facilement ignorée par les utilisateurs et elle dégrade leur expérience de navigation en cachant le contenu de la page.  

Dans cet exemple, le bouton « Accepter et fermer » pousse clairement l’utilisateur à opter pour ce choix tandis que le bouton « En savoir plus », permettant à l’utilisateur de refuser l’utilisation de ses données, est dans un « gris sur gris » peu incitateur. 

Banniere information doctissimo

Capture écran réalisé sur le site doctissimo.fr

 

Do : la fenêtre d’info et son FAB (Floating Button Action)

Un message clair (et drôle en plus <3) avec des boutons d’action faciles d’accès et compréhensibles pour l’utilisateur.

Cookie axeptio

Capture écran réalisé sur le site axeptio

 

Don’t : la pop-in

En sélectionnant les « options », l’utilisateur est souvent accueilli par une fenêtre peu engageante.

Une fois celle-ci refermée, elle ne peut être réouverte qu’après une exploration profonde des sous-pages des conditions du site.

Pop in doctissimo

Capture écran réalisée sur le site doctissimo.fr

 

Do : le centre de confidentialité

Accessible partout depuis le même endroit, le centre de confidentialité permet à l’utilisateur de facilement choisir les options qu’il souhaite activer ou non. *BONUS* Et en plus, on lui explique à quoi cela sert.

Cookie axeptio choix

Capture écran réalisée sur le site axeptio.eu

 

Respecter le RGPD pour la loi et pour construire des parcours utilisateurs respectueux, c’est possible !  La Cnil a d’ailleurs récemment renforcé sa base de connaissances sur le sujet avec une nouvelle plateforme : design.cnil.fr.

N’hésitez pas à puiser dans les ressources à disposition ou à échanger avec l’un de nos experts SQLI.

Le Big Data dans le domaine du marketing, un changement de paradigme sans précédent

Le domaine passionnant du Big Data émergé dans tous les métiers du digital. Je vous propose une réflexion menée sur le Big Data appliqué au marketing, après une période d’exploration et de documentationCe phénomène est bien une tendance de fond qui doit faire l’objet d’attention et d’efforts particuliers en entreprise. 

J’ai choisi de m’appuyer sur la publication « La gestion des « Big data » en marketing : défis, opportunités et voies de recherche » d’Audrey Davoust, doctorante en management, et Pierre Volle, professeur de Marketing et Customer management.
 

Le phénomène Big Data et le marketing, quelques notions de base

Le domaine du marketing comme les autres, subit un bouleversement profond face à la déferlante Big Data. Le développement de l’e-commerce, des réseaux sociaux, du CRM et de l’IoT par exemple, est une mine d’information pour celui qui sait gérer et traiter les données.

De même, la particularité de ces nouvelles données clients/prospects est qu’elles sont structurées et non-structurées, immédiates, hétérogènes et volumineuses. D’où la nécessité de consentir à des solutions techniques innovantes pour les collecter, les stocker, les traiter, et les restituer sous forme d’information d’aide à la décision. En parallèle, il est inéluctable pour le marketing de se pencher sur des problématiques d’éthique et de consentement lors de la collecte et du traitement desdites données client.

Le domaine du marketing doit adopter une stratégie Big Data s’il souhaite saisir des opportunités de marché en temps réel dans un environnement ouvert en perpétuelle mutation. 

 

L’exploitation des données

Pour exploiter et traiter les données, de nouvelles compétences techniques et organisationnelles sont nécessaires. Par exemple, pour le stockage et la gestion de données massives, la naissance de frameworks et d’architectures techniques spécifiques a été nécessaire ; les GAFA étant les précurseurs dans l’émergence de ces technologies. 

De même, le recours aux algorithmes prédictifs utilisés en marketing permettent, sur la base de données collectées, d’identifier et d’anticiper les comportements futurs des clients ou prospects. 

L’analyse de sentiments à l’aide du NLP (Natural Language Processing) est particulièrement utile pour les marketeurs dans l’identification des « signaux de propension » à partir de publications sur les réseaux sociaux ou d’enquêtes sur la satisfaction client, ou encore la détection d’anomalie à l’aide du Machine learning. 

Ici, on parle davantage de traitement de données en flux (streaming) que de forage de données statiques (datamining). Quant à l’organisation, le concours des différents services marketingcommercial, DSI ainsi que des partenaires extérieurs est essentiel.
Les acteurs du marketing doivenacquérir de nouvelles compétences techniques, analytiques et organisationnelles s’ils souhaitent continuer à comprendre leur marché, leurs clients, développer des offres adéquates et saisir des opportunités mises en évidence par les données. 

« Dans le secteur de la vente de détail par exemple , l’analyse des comportements d’achat en magasin en temps quasi réel peut permettre d’ajuster les niveaux de stock, les prix, les promotions et de maximiser les ventes ». (BughinChui & Manyika, 2010) 

Cependant, cette manière de traiter les données implique que l’entreprise ait la capacité de gérer la connaissance et d’agir rapidement. 

 

La gestion de la relation client

La connaissance et la relation client a toujours été au centre des préoccupations marketing. Avec l’arrivée du multicanal, du cross-canal, et de l’omnicanal, le parcours client est de plus en plus fragmenté. Savoir définir les bons indicateurs (KPI) est devenu une gageure du fait de la multiplication des points de contacts. 

Ainsi, les équipes marketing peuvent mesurer leurs initiatives déployées sur plusieurs canaux digitaux. Grâce aux KPI, les marketeurs peuvent optimiser en continu leur stratégie et leur allocation de budget pour proposer des services adaptés et accroître le retour sur investissement.

Si vous disposez de données précises, vous pourrez analyser et améliorer la performance de vos actions. Cela est indispensable afin de pouvoir mettre en place une stratégie marketing et commerciale efficaceL’un des objectifs du Big Data est donc de choisir des indicateurs pertinents pour prendre les meilleures décisions ; le marketing ayant besoin d’ajuster ses décisions aux comportements des clients et de piloter les investissements. 

 

La détection de nouveaux marchés, la création de business models

Détenir la bonne information au moment opportun permet d’identifier, de saisir et de créer des opportunités de marché.
C’est en cela que le Big Data est moteur de croissance pour les entreprises, en les approvisionnant en données sur leurs clients et leur environnement.
L’open data représente aussi une ressource non négligeable de masse de données disponible à tous. 

Pour reprendre l’exemple donné dans l’étude, General Electric propose des moteurs d’avion connectés qui envoient des données aux ingénieurs qui pourront déterminer quand une opération de maintenance sera nécessaire. General Electric utilise ces données pour innover et développer de nouvelles solutions pour ses clients, en aidant les compagnies aériennes qui achètent leurs réacteurs à surveiller leur performance et anticiper les besoins d’entretien.
Les business models ouverts se développent, permettant à l’entreprise d’intégrer les ressources et les compétences de ses clients dans les propositions de valeur.  

L’acquisition de données de nature différente amorce un champ de vision plus large mais aussi plus complexe à appréhender. La maîtrise de ce nouvel environnement chaotique requerra des efforts certains pour assimiler, négocier et capitaliser sur cette complexité.
Les entreprises qui s’investissent dans cette discipline identifieront des opportunités couplées à une dynamique d’innovation qui leur permettront de générer des business models interactifs pour être en capacité de proposer des solutions à leurs clients, prospects et partenaires externes, le tout en temps réel. 

Cependant, la collecte de ces données soulève un problème d’éthique et peut générer une crise de confiance de la part des « consom’acteurs ». 

 

Les enjeux d’éthique

Avec le phénomène Big Data, la collecte des données s’effectue de manière passive et –pas toujours- consentie par les consommateurs et ce, au moyen des réseaux sociaux, des objets connectés, des applications mobiles, etc.

Même si les données sont anonymisées et triviales prises séparément, à l’aide de cet entrelacs, l’on peut les recontextualiser et obtenir des données très personnelles sur les clients voir même les identifier. C’est bien à ce niveau qu’intervient la notion de gestion des données personnelles et les problèmes d’éthique qui en découlent notamment dans la collecte et l’utilisation de ces dernières qui sont faites à l’insu des consommateurs. 

Par exempleon peut citer le cas d’école d’une jeune fille de 16 ans qui s’est vu recevoir des bons de réduction nominatifs pour jeune maman par l’enseigne Target aux Etats-Unis. L’histoire ne sait si l’adolescente était-elle même informée de sa grossesse.  

Le RGPD a été mis en place en mai 2018 afin de palier à ce type de situations. 

 

Conclusion

Le phénomène Big Data provoquant un changement de paradigmeil est essentiel de penser différemment les métiers, les infrastructures techniques, les compétences, les organisations ainsi que la relation client. L’intérêt du Big Data pour le marketing est d’apporter une amélioration dans l’offre de services tout en préservant l’intégrité des métiers.
Enfin, et comme tout bouleversement dans l’histoire, ce changement majeur apporte avec lui son lot de questions, de défiances et de réflexions notamment en matière juridique et éthique, mais aussi son contingent d’opportunités et d’innovations. 

J’ai fait le choix de partager avec vous cette publication d’Audrey Davoust et Pierre Volle, car ses auteurs ont balayé une grande partie des problématiques auxquelles sont confrontés les acteurs du marketing depuis l’apparition du phénomène.
Ils ont ainsi abordé le sujet des 4 V connus en Big Data : le Volume, la Variété, la Vitesse, la Valeur ainsi que la notion d’éthiquele 5ème V faisant référence à la Véracité des données collectées. 

Au-delà de diagnostiquer les problématiques, l’étude permet de réfléchir à d’autres approches, d’autres consensus, d’autres compositions et ainsi, de passer d’une pensée linéaire et statique à une démarche plus interactive et plus dynamique qui requiert la volonté et l’investissement de bon nombre d’acteurs au sein des entreprises.

 

Je tiens à remercier mes collègues Julien Maillard, Rodolphe Baron et Emna Drira pour leurs conseils et encouragements durant l’écriture de cet article. 

Marketplace : quelles sont les évolutions à anticiper ?

Une marketplace, ou place de marché, est intimement liée aux technologies. Leboncoin et Craigslist n’existeraient pas sans email, eBay n’existerait pas sans navigateur web, et nous n’aurions pas Uber sans smartphone.

Les technologies ne cessent d’évoluer chaque jour. Les marketplaces continuent ainsi de se développer, et les échanges de plus en plus complexes dans de nouveaux environnements sont facilités. Dans le futur, les marketplaces deviendront intelligentes et permettront aux marques de pousser des offres complexes et pertinentes aux clients et prospects.

La nouvelle génération de marketplace est intelligente

Aujourd’hui, l’utilisateur exprime une demande avec ses critères qu’une plateforme utilise afin de lui proposer des produits et des transactions adéquats. Par exemple, s’il indique à Airbnb qu’il souhaite louer un appartement à Barcelone pour une semaine en août en précisant mon budget, la plateforme lui répond avec les options disponibles.

Bien que la tarification et la gestion des prix en back-office peut être extrêmement sophistiquée, l’expression du besoin explicite de l’utilisateur est une équation assez simple. Avec les avancées en matière de Machine Learning, des demandes de plus en plus complexes seront comprises et le traitement de transactions actuellement impossibles sera facilité.

En parallèle, un nouvel ensemble de technologies qui permettra à la prochaine génération de marketplaces d’être intelligent est en train d’émerger. Grâce à l’intelligence artificielle, les marketplaces seront en mesure de traiter des données plus riches et donc de comprendre des besoins complexes, sans forcément une expression claire et précise de l’utilisateur. « Airbnb, organise-moi un voyage pour la semaine prochaine ». Voilà ce qui sera très probablement possible de demander à la plateforme très prochainement.

Ainsi dans notre exemple, Airbnb pourra :

  • Combiner les voyages précédents pour en déduire les goûts ;
  • Prendre en charge les vols pour équilibrer les coûts ;
  • Intégrer les événements locaux présentant un intérêt pour faire ressortir un voyage packagé plus susceptible de convertir.

Visuel market place 1

 

Les défis et les challenges à relever

Lancer une marketplace ne va pas sans difficultés. En effet, comment démarrer une telle plateforme (non intelligente) sans avoir les données nécessaires ? Créer, par exemple, un concurrent de Deliveroo sans client ni restaurant représente un réel challenge. Il faudrait savoir se différencier et cibler, si nécessaire, une certaine niche de clients.

De plus, les marketplaces intelligentes sont encore plus complexes à mettre en place. Pour être optimaux, leurs algorithmes nécessitent une phase de collecte de données et d’apprentissage.

Quant au Machine Learning, il repose sur l’analyse de données en masse, ce qui soulève le point du stockage et du traitement des données personnelles. Avec les normes tels que le RGPD, de nouvelles contraintes sont à prendre en compte. Les décisions prises par les systèmes d’IA dans le cadre de l’engagement client doivent donc intégrer des considérations éthiques au sein du Machine Learning.

Visuel market place 2

Les marketplaces intelligentes relient directement une demande complexe à une offre en comprenant et en combinant plusieurs besoins. Les plateformes actuelles vont probablement associer l’IA à leur offre, mais les marketplaces réellement intelligentes seront celles qui s’appuieront sur l’IA pour négocier des transactions auparavant impossibles.

 

Article co-écrit par Fethi Toumi, Chef de projet E-commerce et Loïc Ebran, Expert technique.