Articles

[Ebook] Démarrer votre gouvernance des données

Gouverner les données : un enjeu de taille

La digitalisation des entreprises a considérablement décuplé le volume de données générées par celles-ci. Et ce au niveau de toutes les activités.  

La collecte de données s’est multipliée pour plusieurs raisons :  

  • Les obligations règlementaires  
  • L’intégration de nouvelles sources (comme les IoT ou encore les applications mobiles) 
  • L’enthousiasme débordant de certains acteurs récoltant un maximum de données qui ne se révèlent pas toutes utiles 

Or, bien que la Data prenne une ampleur croissante au sein des organisations, elle est bien souvent gérée de façon trop « artisanale » et – osons le dire – insuffisamment structurée ! 

Mettre en place une gouvernance des données semble donc être une évidence, mais de nombreuses organisations hésitent encore à se lancer dans une telle démarche.  En cause : la difficulté à maîtriser un projet de cette ampleur et en dégager des bénéfices visibles à court terme. 

 

Des pistes concrètes et pragmatiques

Notre parti-pris est qu’il n’est pas nécessaire de mettre en œuvre une démarche de gouvernance des données simultanément à l’échelle de toute l’organisation.  

Nous le déconseillons même. Ce serait une tâche très complexe générant des collisions à risques entre tous les projets opérationnels de l’entreprise.  

En revanche, des projets de PIM, MDM, Reporting et démarche RSE peuvent être d’excellents accélérateurs pour initier une gouvernance des données.  

Dans cet ebooknos consultants Data vous proposent des pistes concrètes pour la mettre en place, avec un bénéfice à la fois pour un projet et la gestion globale des données de l’entreprise. 

Nous aborderons :  

  • Les enjeux de la gouvernance des données 
  • Les principes clés d’une gouvernance durable 
  • Les voies possibles 

téléchargez l'ebook sur la gouvernance des données

[Replay] Comment concilier innovation numérique et transition écologique ?

4%.
C’est ce que représente l’empreinte du numérique au niveau des émissions de gaz à effet de serre dans le monde aujourd’hui. Et ce chiffre est amené à tripler d’ici 2025 !

Alors comment concilier cette innovation numérique qui ne cesse d’accélérer et les problématiques environnementales que nous connaissons tous ?

Selon nous, le numérique et l’écologie ne sont pas incompatibles si nous entreprenons une démarche de sobriété numérique.

L’objectif de cette démarche est simple : nous amener à réduire progressivement notre impact environnemental par des actions quotidiennes qui sont en fait assez évidentes.

Nos experts Stephen Demange et Véronique Tillaud vous dressent dans ce webinar un panorama de la situation numérique actuelle ainsi que de nos pistes d’amélioration pour entrer dans un modèle plus soutenable et plus pérenne.

 

Téléchargez le replay sur l'innovation numérique et la transition écologique

Analytics et Data driven : bien comprendre et agir pour de meilleures décisions stratégiques !

Toutes les interactions ou presque peuvent être trackées, décryptées et analysées. Cependant, je constate souvent que dans l’écosystème digital, les données récoltées par les nombreux outils d’analyse sont mal exploitées car mal interprétées. Pourtant, la bonne compréhension de ces données impacte les décisions stratégiques ou budgétaires de votre business model !

L‘expérience utilisateur est devenue un paramètre incontournable de l’écosystème digital actuel. Lors de sa navigation, ce que le client attend d’un site est qu’il réponde non seulement à ses attentes en matière d’assortiment produits, mais surtout en termes d’expérience ! 
Il faut, par conséquent, se livrer à un véritable travail d’analyse et d’interprétation : la collecte de données portant sur le parcours d’achat du consommateur sur un site web est capitale. Mais faut-il encore être capable de décrypter les comportements de vos clients ou de vos prospects, et de mesurer leur expérience utilisateur d’un point de vue quantitatif !

Analytics : les éléments indispensables et les méthodes d’analyse

4 éléments clés sont à prendre en compte :

  • L’acquisition (comment l’internaute est arrivé sur votre site) : au-delà des canaux, de quelles sources précisément sont venus vos visiteurs ?
  • L’engagement (comment il réagit par rapport à votre site) : quelles sont les pages qui attirent les visites ?
  • La conversion (ce qui l’a incité à passer à l’acte d’achat) : quels sont les éléments ou les leviers (Attribution) qui interviennent dans l’entonnoir de conversion ?
  • La fidélisation (ce qui fait que l’internaute revient sur votre site) : quels produits, quel contenu font revenir vos visiteurs ou vos clients ?

Google a imaginé la mesure de l’expérience utilisateur (UX) avec un modèle appelé HEART (Happiness, Engagement, Adoption, RetentionTask success). Ces indicateurs essentiels constituent un cadre d’analyse de l’expérience utilisateur. Le choix des indicateurs de performances à monitorer et des outils à déployer sur le site est primordial pour comprendre les comportements de vos clients. Mais capter des données ne sert à rien si vous n’êtes pas en mesure d’en tirer les enseignements et de prendre les bonnes décisions !

Il existe donc plusieurs types de méthode d’analyse en Digital Analytics.

Les principaux types sont la méthode d’analyse comportementale, d’analyse attitudinale, concurrentielle et sociale :

Analytics 1


Définir les KPI qui font sens 
et les interpréter

Les outils Analytics sont nombreux : Adobe Analytics, AT InternetIBM Digital Analytics Google Analytics étant le plus populaire au monde avec une part de marché estimée à plus de 85%. Ils sont indispensables pour n’importe quelle entreprise gérant un business en ligne : ils permettent de mieux comprendre les réactions et les comportements des visiteurs sur votre site.

Mais la différence ne peut se faire sur les données elles-mêmes ! Les représentations graphiques (la datavisualisation ou dataviz) garantissent une interprétation intelligente de vos données. Elles permettent en effet d’analyser et de visualiser (représentation de la donnée brute) un grand volume de données. Plusieurs solutions de dataviz existent, telles que Google data studio, Holistics, Qlik Sense, Microsoft Power BI et Salesforce Einstein.

Analytics 2

Exemple d’interface de solution de dataviz

C’est parce que l’on a ressenti les limites du site web que l’on recherche des leviers d’amélioration. Fréquence d’achat, taux de transformation, taux de rebond, partage de produits ou encore taux de souscription à une newsletters, c’est à vous qu’il revient de définir vos actions en fonction des éléments que vous aurez analysés !

Prenons l’exemple d’un formulaire. On peut s’interroger sur la conception d’une page ou d’un formulaire, lorsqu’un internaute interrompt sa navigation à un endroit précis. 
La plupart des sites possèdent des pages plus longues que la taille de nos écrans, sachant qu’aujourd’hui, une personne utilise plusieurs types d’écran (laptop, desktop, tablette, smartphone). Les utilisateurs doivent donc « scroller » (faire défiler) pour visualiser l’ensemble des éléments, informations, de la page ou du formulaire.

Analytics 3

Il est alors indispensable de voir jusqu’où le visiteur fait défiler la page, en particulier s’il parcourt une page produit ou un formulaire qui contient des informations importantes.

 

Pourquoi utiliser le scroll tracking comme objectif ?

La profondeur de scrolling

En créant un objectif basé sur le scroll tracking, vous pourrez suivre le nombre de visiteurs qui voient la page en entier. La profondeur du scrolling est utile si vous animez par exemple un blog et que vous attendez de vos visiteurs qu’ils lisent vos articles (principalement si un CTA – bouton call to action – se trouve en bas de l’article).

Il est cependant impossible de créer une visualisation en entonnoir. Vous pouvez toujours créer plusieurs événements (dans Google Analytics) pour le suivi du scrolling, avec pour chaque suivi une profondeur spécifique (30%, 60%, 90%). De cette façon, il est possible de créer une représentation en forme d’entonnoir de la perte de visiteur sur chaque page. Dans le cas d’un formulaire, vous pourrez identifier à quel endroit, au niveau de quel champs ou quelle demande d’information va inciter le visiteur à quitter la page. 

(Re)définir le contenu et la structure

En matière de SEOle scroll tracking pourra vous aider à développer votre contenuIl serait logique de penser que le contenu que vos utilisateurs voient en dernier, avant de quitter une page, est le contenu le plus intéressant de votre site. En observant les événements les plus importants dans Google Analytics, vous pourrez identifier facilement les pages de destination qui attirent le plus vos visiteurs.

Une interprétation possible lorsqu’une landing page génère du trafic, est qu’elle est populaire ! Cependant, elle n’est pas efficace dans l’engagement de vos visiteurs. En déterminant la profondeur de scrolling de vos visiteurs sur une page de destination donnée, vous pouvez déterminer les informations que ces visiteurs souhaitent voir et ajuster votre contenu en conséquence. Vous pouvez également déterminer quel contenu est le plus attrayant et fonctionne le mieux en termes d’engagement général des visiteurs. Vous pouvez donc la restructurer ou la réécrire pour qu’elle contienne plus d’informations utiles.

Par exemple, certains articles de blog peuvent contenir un paragraphe ou deux qui sont particulièrement intéressants pour vos clients, mais la plupart quittent votre site après l’avoir lu. Dans ce cas, vous pouvez essayer de modifier la structure et le contenu du message lui-même ou d’en écrire un autre avec des informations plus détaillées. Le suivi de la profondeur du scrolling vous permet également de savoir si une page de destination ou toute autre page comportant un appel au clic contient des éléments de distractions potentielles. Si vous remarquez que des personnes quittent la page après l’avoir visionnée seulement à 50%, vous pouvez examiner cette partie de la page pour rechercher d’éventuelles problèmes.

Canal de conversion ou canal de découverte ?

Dans un autre exemple, on constate que votre site enregistre un nombre important de visites en provenance du canal « social media ». Cependant ces visites sont de courte durée et peu de pages sont consultées. Que pouvons-nous en déduire ?

Le canal n’est pas approprié à votre cible ou les visites ne sont pas suffisamment qualifiées ? 

Mais l’explication rationnelle serait que dans notre cas nous sommes face à un canal de « découverte » plutôt qu’un canal de « conversion » : les internautes vont découvrir votre marque, vos produits, votre présence sur le web, grâce aux réseaux sociaux mais ils ne convertissent que plus tard, lors d’une seconde ou une troisième visite. 

On peut s’en assurer en consultant les rapports de Google Analyticsdans la rubrique : Conversions > Entonnoirs multicanaux.

Analytics 4

De manière générale, grâce à la création d’un « projet modèle d’attribution » dans Google Analytics, vous identifiez la pertinence des leviers marketing contributeurs et optimiserez les budgets média en fonction de l’importance de chacun de ces leviers dans le processus de conversion !

Dans cet exemple, il s’agit de la création d’un projet d’attribution dans Google Analytics. Pour rappel, il existe deux types de modèles, prédéfinis et algorithmique.

Analytics 5

On peut visualiser les différentes étapes (parcours) avant la conversion.

Analytics 6 Analytics 7

La liste des analyses et de leurs interprétations est longue, et cet article ne refléte qu’une infime partie des possibiltés qui s’offres aux annonceurs dès lors qu’ils s’agit de prendre des décisions impactantes pour leur développementque ce soit online mais également offline.

Aujourd’hui nous pouvons récolter et analyser des données qui proviennent de multiples canaux et supports : ordinateurs, tablettes, smartphones, TV, écrans dans les magasins, sites web, bornes interactives... Nous sommes capables d’analyser l’impact du trafic en magasin des campagnes TV (Holimetrix), de faire des prédictions de trafic, d’audience (Kameleoon, IBM Watson…).

Nous en pouvons plus nous contenter de lire des tableaux de bord sans en connaitre réellement la signification et les enseignements. Mais devant les sources inombrables de solutions et de canaux, il devient indispensable de « COMPRENDRE » avant d’ « AGIR » !

—– 

Définitions

Le Data Driven, également appelée Data-Driven Marketing, se base sur une approche qui consiste à prendre des décisions stratégiques sur la base d’une analyse et d’une interprétation des données. L’approche Data Driven permet d’examiner et d’organiser la data dans le but de mieux cerner ses consommateurs et ses clients.

L’analyse (Analytics) est la découverte, l’interprétation et la communication de modèles significatifs dans les données. … Particulièrement utile dans les régions riches en informations enregistrées, l’analyse (Analytics) repose sur l’application simultanée de statistiques, de programmation informatique et de recherche opérationnelle pour quantifier les performances.

Obtenez gratuitement un CRM de SAP !

Pour inciter les utilisateurs des solutions ECC (et CRM) de SAP à passer à S/4HANA, la solution intègre désormais plusieurs fonctionnalités performantes de CRM dans sa dernière version. Résultat : avec S/4HANA 1909, vous disposez tout bonnement d’une stack CRM 7 simplifiée gratuite. Avis aux amateurs de CRM !

Comment est-ce possible ?

Commençons par revenir sur les fonctionnalités CRM des dernières versions de S/4HANA.
Dans la version 1709 de S/4HANA (la version de septembre 2017), SAP avait proposé un « composant add-on de gestion de la relation client » (en bref, un « CM »). Si cet add-on apportait effectivement à S/4HANA des fonctionnalités CRM, il nécessitait toutefois une installation technique séparée. Parmi les fonctionnalités supplémentaires, on retrouvait des objets service et un centre d’interaction. Or, ces fonctionnalités CRM étaient jusque-là absentes et pourtant indispensables pour convaincre de nombreux utilisateurs de SAP de passer à S/4HANA.

L’intégration des fonctions CRM dans un système S/4HANA a permis de résoudre instantanément certains principaux points faibles des solutions CRM traditionnelles de SAP : le recours à un middleware pour assurer la synchronisation CRM-ECC, la duplication des master data telles que les partenaires, ou encore la présence de composants techniques comme la stack JAVA pour la tarification. Côté nouveautés, TREX permettait d’effectuer des recherches efficaces, et plusieurs interfaces utilisateurs étaient disponibles, notamment. 

En d’autres termes, l’ajout de fonctionnalités de gestion de la relation client à S/4HANA avait permis de simplifier l’environnement autant que possible, tout en réduisant automatiquement le TCO et en améliorant l’expérience utilisateur. Par ailleurs, la disponibilité d’objets service CRM rendrait moins brutale la suppression du service client à l’horizon 2025.

S/4HANA et ses nouvelles extensions

Un an plus tard, dans la version S/4HANA 1809, l’add-on de gestion de la relation client intégrait encore de nouvelles fonctions, à commencer par des flux d’avant-vente, des tâches et la gestion des leads et des opportunités. Côté service, un outil de création de devis avec regroupement de produits et intégration d’une localisation fonctionnelle est venu compléter l’offre. En d’autres termes, des processus de service complets pouvaient être traités en lien direct avec les actifs, la facturation et le contrôle. Le CM de S/4HANA commence alors véritablement à prendre forme. 

Dans la version 1909 actuelle de S/4HANA, l’add-on de gestion de la relation client n’existe plus, pas plus que l’installation additionnelle. SAP a renommé les fonctions de gestion de la relation client, désormais appelées « S/4HANA Sales and Service », qui sont disponibles par défaut et gratuitement dans S/4HANA. 

S/4HANA Sales and Service réunit à présent les précédents objets CRM et ECC dans un seul et même système. Les anciens affichages de l’UI web du CRM ont été relookés avec un thème « Quartz Light », qui n’est pas sans rappeler « Fiori 3 ». Des fonctionnalités marquantes comme la gestion de cas et l’intégration d’Outlook (grâce à « mai Connect ») sont également de retour. Cette version fera non seulement le bonheur de nombreux utilisateurs ayant investi massivement dans leurs précédents systèmes CRM et ECC de SAP, mais aussi des entreprises qui n’avaient pas encore de système CRM. Les sociétés dotées d’un back-end ECC abouti mais présentant un besoin limité en CRM ne mettaient souvent pas en œuvre l’add-on CRM dans SAP. Elles se contentaient à la place de feuilles Excel. Grâce à S/4HANA, elles peuvent désormais enfin enregistrer toutes leurs activités liées aux clients dans un ERP. 

Et l’histoire ne s’arrête pas à la version 1909 ! On attend cette année de nouvelles fonctionnalités comme la gestion des réparations in-house ainsi que la gestion des plans de maintenance et des ordres de service, laissant présager de l’intégration de fonctionnalités de CRM à chaque nouvelle version de S/4HANA.

CRM vs C4/HANA

Le CRM a-t-il toutefois retrouvé sa gloire passée grâce à son intégration dans S/4HANA ? La réponse est claire : non. 

Si les fonctions de vente et de service sont presque toutes prises en charge dans S/4HANA, toutes les fonctionnalités marketing ont disparu. Et soyons francs : le marketing n’a jamais été le point fort de CRM 7. La récurrence et l’automatisation des campagnes d’e-mailing pourraient bien donner lieu à la création de règles strictes en matière de RGPD. Et depuis le lancement de CRM 7 en 2007, les attentes des consommateurs en termes d’expérience d’achat ont complètement changé. C’est là qu’intervient  C/4HANA, le portefeuille Cloud de SAP. C/4HANA prend tout en charge dans la « Customer Experience Suite », constituée de 5 solutions : cloud marketing, cloud commerce, cloud données clients, cloud ventes et cloud service.

Cm 1

S/4HANA et C/4HANA présentent donc des fonctionnalités similaires ? Tout à fait.  Rassurez-vous, vous n’êtes pas les seuls que cela perturbe. Je vous rejoins, ainsi que d’autres clients. De façon générale, pour savoir quel produit choisir : si vos besoins sont liés aux clients ou au marketing, optez pour C/4HANATous les processus transactionnels typiques de back-office sont en revanche pris en charge par S/4HANA. Cela dit, la frontière entre front-end et back-end étant souvent très floue, SAP aura la lourde tâche de clarifier la question dans l’esprit de ses utilisateurs et de ses partenaires dans les années à venir. 

Bien que SAP ait largement investi dans C/4HANA, bon nombre de ses utilisateurs ont de leur côté déjà investi dans les solutions CRM et ECC de SAP. Ces entreprises sont souvent réticentes à passer à S/4HANA avec un front-end C/4HANA. Les fonctionnalités S/4HANA Sales and Service leur permettent désormais de capitaliser sur une grande partie de leurs investissements passés et de profiter d’un CRM dans un environnement simple.

Fervent partisan du CRM, je me réjouis de cette évolution de S/4HANA. Car honnêtement, l’idée de gérer les préventes dans un système CRM distinct, avec des données dupliquées, puis de poursuivre le traitement de la commande, de l’expédition et de la facturation dans un ECC n’a jamais été la meilleure qui soit… Selon moi, le CRM a fini par atterrir à sa véritable place, c’est-à-dire l’intégration au cœur de votre système ERP. 

Pourquoi est-il indispensable de s’intéresser à la Blockchain ?

Presque exclusivement associée aux crypto-monnaies jusqu’en 2016–2017, la Blockchain est née de la volonté de créer une monnaie virtuelle : le Bitcoin (le premier bloc ayant été créé le 3 janvier 2009). D’autres cas d’usage ont fait surface et se sont multipliés, rendant cette technologie plus concrète et pertinente pour répondre à davantage de besoins et créer des opportunités. Désormais, un nombre croissant d’entreprises à travers le monde ont commencé à en saisir les intérêts. 

 

Parmi les cas d’usage qui sont apparus, nous pouvons d’abord citer la traçabilité. Une blockchain est par essence un registre immuable et fortement sécurisé, et toute information inscrite dans ce registre devient inaltérable et reste accessible tout au long de la vie de la blockchain. On parle jusque-là de Blockchain Publique, puisque toutes les informations inscrites dans le registre sont accessibles par tous ses utilisateurs. Puis est apparu en 2016 le concept de Blockchain Privée. Il s’agit d’une extension de la version publique, à laquelle s’ajoutent deux notions : 

  • Un accès soumis à des règles strictes (on parle de « permissioned Blockchain ») ; 
  • La possibilité de réaliser des transactions qui ne sont pas visibles par l’ensemble des participants, mais uniquement par les parties prenantes de cette transaction. 

Là où la Blockchain Publique était très orientée B2C, la Blockchain Privée trouve elle sa place dans les applications B2B. 

 

Si ma blockchain est privée, est-ce toujours une blockchain ? 

Le fait qu’elle soit privée ne veut pas dire qu’elle n’est plus distribuée et plus traçable, ni que les données deviennent « modifiables », etc… Au contraire, une blockchain privée ayant généralement moins de participants que ses homologues publiques, elle peut mettre en œuvre des consensus plus rigoureux en termes de sécurité. Elles permettent également la création de consortium (le groupe de nœuds participant à la validation des transactions est un sous-ensemble de la Blockchain), et ainsi la création d’une gouvernance pour en fixer les règles de fonctionnement et d’utilisation. 

 

Illustration de deux cas d’utilisation : 

  • Une entreprise composée de plusieurs entités souhaite bénéficier des avantages d’une blockchain pour suivre ses processus de fabrication et conserver des documents officiels, mais sans forcément vouloir partager l’accès à ses données avec d’autres entreprises. Elle déploie sa blockchain en interne, avec le nombre de nœuds qu’elle souhaite pour assurer la résilience. Elle peut choisir un consensus orienté « résistance aux pannes » plutôt que « résistant aux fraudeurs ». (On peut supposer qu’elle ne va pas s’attaquer elle-même …). 
  • Au sein d’un groupe, les entreprises ont des intérêts communs et aimeraient réaliser des transactions entre-elles au travers de contrats commerciaux. Dans ce cas, il leur est opportun de choisir un consensus qui sait détecter les tentatives de fraudes, et chaque entreprise va représenter un nœud de la blockchain. Certaines données vont pouvoir être partagées de manière transparente, et d’autres resteront privées. 
    Par exemple, l’entreprise A va passer un contrat avec B pour la commande de produits, B va passer un contrat avec C pour assurer le transport, et A, B et C pourront avoir un contrat pour suivre le cycle Commande / Fabrication / Livraison. Ainsi A ne sait pas quels tarifs sont pratiqués entre B et le transporteur, pas plus que le transporteur ne connait le prix des pièces commandées par A. Quant à D, E, etc., elles n’ont aucune vision de ces contrats. 
    De même, si une nouvelle entreprise souhaite rejoindre cette blockchain, il faudra que cela soit approuvé par une majorité des acteurs déjà présents. Le consensus s’applique aussi dans ce cas. 

 

Quels cas d’application de la Blockchain Privée ? 

La Blockchain présente un réel avantage dès lors que l’on doit pouvoir démontrer l’origine, l’authenticité et l’historique d’une donnée. De plus, l’utilisation des Smart Contracts permet de rendre contractuel l’exécution d’une règle métier. Le concept peut paraître déroutant car ce n’est plus le « bout de papier signé » qui fait foi, mais bien le code du Smart Contract. 
Les cas d’application sont ainsi nombreux : 

  • Chaîne de production (traçabilité de toutes les étapes de production d’un bien) ; 
  • Chaîne de distribution (respect des contrat commerciaux, tarif, délais de livraison, etc.) ; 
  • Conservation de documents officiels (diplômes, flux comptables, actes de ventes, etc.) ; 
  • Contrat d’assurance (indemnisation déclenchée quand les conditions sont réunies) ; 
  • Traçabilité (origine de la viande présente dans un plat de lasagnes, …) ; 
  • Internet de Objet (localisation dans le transport de marchandises, respect de la chaîne du froid, etc.). 

 

La Blockchain c’est génial ! Peut-on en mettre partout ? 

Tous les projets ne sont pas éligibles à la Blockchain. Se faire accompagner par des experts et la mise en place de questionnaires sont de réels atouts pour déterminer si un projet présente un intérêt à être développé dans une blockchain ou non. 

Comme pour toute architecture, la Blockchain présente des avantages mais aussi des contraintes qu’il faut prendre en considération lors de l’étude d’un nouveau projet : 

  • Ce n’est pas une base de données. Elle croît sans cesse (le stockage peut être un frein) ;  
  • Elle n’oublie rien (la conformité au RGPD peut être difficile à mettre en pratique) ;  
  • Elle requiert souvent d’être exposée sur internet (la sécurité réseaux est à prendre en compte) ; 
  • Elle implique que les données qu’elle contient soient partagées avec d’autres (vous devez renoncer à leur propriété exclusive) ; 
  • Elle requiert des compétences particulières (qui elles-mêmes nécessitent des formations) ; 
  • Elle n’est pas nativement prévue pour interagir avec un SI (il faut mettre en place un middleware) ; 
  • Elle est relativement jeune (les outils de développement et d’intégration manquent de maturité, ce qui requiert là aussi des développements complémentaires). 

 

Toutefois, nous pouvons noter que des offres BaaS (Blockchain as a Service) commencent à apparaitre chez certains grands éditeurs (Microsoft Azure, IBM, Oracle …), qui permettent de se libérer d’un certain nombre de contraintes. Des passerelles permettant une interopérabilité entre plusieurs blockchains commencent également à se développer. 

 

Conclusion 

La Blockchain ayant démontré sa fiabilité et sa robustesse sur le long terme, elle a un réel avenir dans le monde de l’entreprise, et ses champs d’applications sont nombreux. Les offres d’hébergement se multiplient (AWS, Microsoft, IBM, Oracle …), et il devient désormais normal pour une entreprise de prendre en considération cette architecture lors de l’étude de nouveaux projets. Alors place à l’innovation ! 

SQLI est là pour vous accompagner dans vos projets, de la pré-étude jusqu’au RUN, en vous apportant son expertise et ses retours d’expériences, tant sur les aspects techniques qu’opérationnels. Nous pouvons également vous aider pour la réalisation de Proof Of Concept autour d’un use case afin de vous assurer que la Blockchain répond correctement à votre besoin, et préparer ainsi la montée en compétences de vos équipes. 

UX et RGPD : Comment proposer une expérience utilisateur de qualité et respecter la légalité ?

En matière de RGPD, 76% des Français se disent préoccupés par ce qui est fait de leurs données personnelles. Pourtant, plus d’un an après sa mise en place, le paradoxe est là : 1 Français sur 2 accepte les conditions d’utilisation de leurs données sans même les lire, selon un sondage d’Odoxa datant de 2019.  

 

Pourquoi un tel paradoxe ? 

Les Français sont-ils paresseux ? Difficile de les blâmer. Qui aurait sérieusement le temps de prendre les 86 minutes nécessaires pour lire intégralement les conditions d’Instagram ? Qui ne se sent pas frustré et agressé par toutes ces fenêtres qui s’ouvrent et bloquent l’accès aux contenus ?  

Les entreprises ne sont-elles pas assez sérieuses ? L’instauration dRGPD a donné rapidement naissance à des formulaires à l’ergonomie douteuse. Avant même de réussir à tomber sur les conditions d’utilisation de ses données, il faudrait déjà réussir à passer les multiples barrières qui viennent polluer leur accès, qui poussent l’utilisateur à « Tout accepter » par dépit 

 

Que faire alors pour nos utilisateurs ?  

Apporter toujours plus de transparence et déthique. Autrement dit, concevoir des produits digitaux qui informent clairement les utilisateurs de leurs choix sans tricherie aucune, tout en leur donnant un accès rapide et permanent pour qu’ils puissent les modifier.  

Tirées de l’article « What does GDPR mean for UX ? » de l’UX Designer Claire Barrett, les guidelines suivantes visent à synthétiser clairement les pratiques à suivre pour à la fois adhérer au RGPD et viser une bonne expérience utilisateur. 

 

  1. Garder le contrôle

L’utilisateur doit choisir s’il souhaite que ses données soient collectées et utilisées. Les contrôles doivent être « user-friendly » : clairs et faciles à comprendre. La base, en somme. 

  1. Respecter la granularité

Les utilisateurs doivent donner leur consentement sur chaque activité requérant le traitement ses donnéee. L’affichage des formulaires de consentement au moment de leur collecte permet de donner un contexte aux utilisateurs (par exemple au moment de la création de leur compte).  

  1. Pouvoir revenir en arrière

Les utilisateurs ont le droit de retirer leur consentement à tout moment. Les paramètres doivent ainsi être conçus pour qu’ils puissent facilement y accéder et les modifier. 

  1. Différencier les conditions

Les conditions générales sont bien à séparer des informations de collecte de données. Le design doit faire en sorte que cela soit bien clair pour l’utilisateur.  

  1. 5.Êtretransparent 

Expliquer à quelles fins la donnée est collectée, de façon courte et concise.   

  1. Expliquer les bénéfices

Lorsqu’on demande l’approbation de l’utilisateur, c’est encore mieux de lui expliquer en quoi son consentement va bénéficier à son expérience. 

 

Quelles pratiques mettre en œuvre ?  

Don’t : la bannière d’information 

Si elle respecte l’aspect légal, la bannière est facilement ignorée par les utilisateurs et elle dégrade leur expérience de navigation en cachant le contenu de la page.  

Dans cet exemple, le bouton « Accepter et fermer » pousse clairement l’utilisateur à opter pour ce choix tandis que le bouton « En savoir plus », permettant à l’utilisateur de refuser l’utilisation de ses données, est dans un « gris sur gris » peu incitateur. 

Banniere information doctissimo

Capture écran réalisé sur le site doctissimo.fr

 

Do : la fenêtre d’info et son FAB (Floating Button Action)

Un message clair (et drôle en plus <3) avec des boutons d’action faciles d’accès et compréhensibles pour l’utilisateur.

Cookie axeptio

Capture écran réalisé sur le site axeptio

 

Don’t : la pop-in

En sélectionnant les « options », l’utilisateur est souvent accueilli par une fenêtre peu engageante.

Une fois celle-ci refermée, elle ne peut être réouverte qu’après une exploration profonde des sous-pages des conditions du site.

Pop in doctissimo

Capture écran réalisée sur le site doctissimo.fr

 

Do : le centre de confidentialité

Accessible partout depuis le même endroit, le centre de confidentialité permet à l’utilisateur de facilement choisir les options qu’il souhaite activer ou non. *BONUS* Et en plus, on lui explique à quoi cela sert.

Cookie axeptio choix

Capture écran réalisée sur le site axeptio.eu

 

Respecter le RGPD pour la loi et pour construire des parcours utilisateurs respectueux, c’est possible !  La Cnil a d’ailleurs récemment renforcé sa base de connaissances sur le sujet avec une nouvelle plateforme : design.cnil.fr.

N’hésitez pas à puiser dans les ressources à disposition ou à échanger avec l’un de nos experts SQLI.

Le Big Data dans le domaine du marketing, un changement de paradigme sans précédent

Le domaine passionnant du Big Data émergé dans tous les métiers du digital. Je vous propose une réflexion menée sur le Big Data appliqué au marketing, après une période d’exploration et de documentationCe phénomène est bien une tendance de fond qui doit faire l’objet d’attention et d’efforts particuliers en entreprise. 

J’ai choisi de m’appuyer sur la publication « La gestion des « Big data » en marketing : défis, opportunités et voies de recherche » d’Audrey Davoust, doctorante en management, et Pierre Volle, professeur de Marketing et Customer management.
 

Le phénomène Big Data et le marketing, quelques notions de base

Le domaine du marketing comme les autres, subit un bouleversement profond face à la déferlante Big Data. Le développement de l’e-commerce, des réseaux sociaux, du CRM et de l’IoT par exemple, est une mine d’information pour celui qui sait gérer et traiter les données.

De même, la particularité de ces nouvelles données clients/prospects est qu’elles sont structurées et non-structurées, immédiates, hétérogènes et volumineuses. D’où la nécessité de consentir à des solutions techniques innovantes pour les collecter, les stocker, les traiter, et les restituer sous forme d’information d’aide à la décision. En parallèle, il est inéluctable pour le marketing de se pencher sur des problématiques d’éthique et de consentement lors de la collecte et du traitement desdites données client.

Le domaine du marketing doit adopter une stratégie Big Data s’il souhaite saisir des opportunités de marché en temps réel dans un environnement ouvert en perpétuelle mutation. 

 

L’exploitation des données

Pour exploiter et traiter les données, de nouvelles compétences techniques et organisationnelles sont nécessaires. Par exemple, pour le stockage et la gestion de données massives, la naissance de frameworks et d’architectures techniques spécifiques a été nécessaire ; les GAFA étant les précurseurs dans l’émergence de ces technologies. 

De même, le recours aux algorithmes prédictifs utilisés en marketing permettent, sur la base de données collectées, d’identifier et d’anticiper les comportements futurs des clients ou prospects. 

L’analyse de sentiments à l’aide du NLP (Natural Language Processing) est particulièrement utile pour les marketeurs dans l’identification des « signaux de propension » à partir de publications sur les réseaux sociaux ou d’enquêtes sur la satisfaction client, ou encore la détection d’anomalie à l’aide du Machine learning. 

Ici, on parle davantage de traitement de données en flux (streaming) que de forage de données statiques (datamining). Quant à l’organisation, le concours des différents services marketingcommercial, DSI ainsi que des partenaires extérieurs est essentiel.
Les acteurs du marketing doivenacquérir de nouvelles compétences techniques, analytiques et organisationnelles s’ils souhaitent continuer à comprendre leur marché, leurs clients, développer des offres adéquates et saisir des opportunités mises en évidence par les données. 

« Dans le secteur de la vente de détail par exemple , l’analyse des comportements d’achat en magasin en temps quasi réel peut permettre d’ajuster les niveaux de stock, les prix, les promotions et de maximiser les ventes ». (BughinChui & Manyika, 2010) 

Cependant, cette manière de traiter les données implique que l’entreprise ait la capacité de gérer la connaissance et d’agir rapidement. 

 

La gestion de la relation client

La connaissance et la relation client a toujours été au centre des préoccupations marketing. Avec l’arrivée du multicanal, du cross-canal, et de l’omnicanal, le parcours client est de plus en plus fragmenté. Savoir définir les bons indicateurs (KPI) est devenu une gageure du fait de la multiplication des points de contacts. 

Ainsi, les équipes marketing peuvent mesurer leurs initiatives déployées sur plusieurs canaux digitaux. Grâce aux KPI, les marketeurs peuvent optimiser en continu leur stratégie et leur allocation de budget pour proposer des services adaptés et accroître le retour sur investissement.

Si vous disposez de données précises, vous pourrez analyser et améliorer la performance de vos actions. Cela est indispensable afin de pouvoir mettre en place une stratégie marketing et commerciale efficaceL’un des objectifs du Big Data est donc de choisir des indicateurs pertinents pour prendre les meilleures décisions ; le marketing ayant besoin d’ajuster ses décisions aux comportements des clients et de piloter les investissements. 

 

La détection de nouveaux marchés, la création de business models

Détenir la bonne information au moment opportun permet d’identifier, de saisir et de créer des opportunités de marché.
C’est en cela que le Big Data est moteur de croissance pour les entreprises, en les approvisionnant en données sur leurs clients et leur environnement.
L’open data représente aussi une ressource non négligeable de masse de données disponible à tous. 

Pour reprendre l’exemple donné dans l’étude, General Electric propose des moteurs d’avion connectés qui envoient des données aux ingénieurs qui pourront déterminer quand une opération de maintenance sera nécessaire. General Electric utilise ces données pour innover et développer de nouvelles solutions pour ses clients, en aidant les compagnies aériennes qui achètent leurs réacteurs à surveiller leur performance et anticiper les besoins d’entretien.
Les business models ouverts se développent, permettant à l’entreprise d’intégrer les ressources et les compétences de ses clients dans les propositions de valeur.  

L’acquisition de données de nature différente amorce un champ de vision plus large mais aussi plus complexe à appréhender. La maîtrise de ce nouvel environnement chaotique requerra des efforts certains pour assimiler, négocier et capitaliser sur cette complexité.
Les entreprises qui s’investissent dans cette discipline identifieront des opportunités couplées à une dynamique d’innovation qui leur permettront de générer des business models interactifs pour être en capacité de proposer des solutions à leurs clients, prospects et partenaires externes, le tout en temps réel. 

Cependant, la collecte de ces données soulève un problème d’éthique et peut générer une crise de confiance de la part des « consom’acteurs ». 

 

Les enjeux d’éthique

Avec le phénomène Big Data, la collecte des données s’effectue de manière passive et –pas toujours- consentie par les consommateurs et ce, au moyen des réseaux sociaux, des objets connectés, des applications mobiles, etc.

Même si les données sont anonymisées et triviales prises séparément, à l’aide de cet entrelacs, l’on peut les recontextualiser et obtenir des données très personnelles sur les clients voir même les identifier. C’est bien à ce niveau qu’intervient la notion de gestion des données personnelles et les problèmes d’éthique qui en découlent notamment dans la collecte et l’utilisation de ces dernières qui sont faites à l’insu des consommateurs. 

Par exempleon peut citer le cas d’école d’une jeune fille de 16 ans qui s’est vu recevoir des bons de réduction nominatifs pour jeune maman par l’enseigne Target aux Etats-Unis. L’histoire ne sait si l’adolescente était-elle même informée de sa grossesse.  

Le RGPD a été mis en place en mai 2018 afin de palier à ce type de situations. 

 

Conclusion

Le phénomène Big Data provoquant un changement de paradigmeil est essentiel de penser différemment les métiers, les infrastructures techniques, les compétences, les organisations ainsi que la relation client. L’intérêt du Big Data pour le marketing est d’apporter une amélioration dans l’offre de services tout en préservant l’intégrité des métiers.
Enfin, et comme tout bouleversement dans l’histoire, ce changement majeur apporte avec lui son lot de questions, de défiances et de réflexions notamment en matière juridique et éthique, mais aussi son contingent d’opportunités et d’innovations. 

J’ai fait le choix de partager avec vous cette publication d’Audrey Davoust et Pierre Volle, car ses auteurs ont balayé une grande partie des problématiques auxquelles sont confrontés les acteurs du marketing depuis l’apparition du phénomène.
Ils ont ainsi abordé le sujet des 4 V connus en Big Data : le Volume, la Variété, la Vitesse, la Valeur ainsi que la notion d’éthiquele 5ème V faisant référence à la Véracité des données collectées. 

Au-delà de diagnostiquer les problématiques, l’étude permet de réfléchir à d’autres approches, d’autres consensus, d’autres compositions et ainsi, de passer d’une pensée linéaire et statique à une démarche plus interactive et plus dynamique qui requiert la volonté et l’investissement de bon nombre d’acteurs au sein des entreprises.

 

Je tiens à remercier mes collègues Julien Maillard, Rodolphe Baron et Emna Drira pour leurs conseils et encouragements durant l’écriture de cet article. 

Marketplace : quelles sont les évolutions à anticiper ?

Une marketplace, ou place de marché, est intimement liée aux technologies. Leboncoin et Craigslist n’existeraient pas sans email, eBay n’existerait pas sans navigateur web, et nous n’aurions pas Uber sans smartphone.

Les technologies ne cessent d’évoluer chaque jour. Les marketplaces continuent ainsi de se développer, et les échanges de plus en plus complexes dans de nouveaux environnements sont facilités. Dans le futur, les marketplaces deviendront intelligentes et permettront aux marques de pousser des offres complexes et pertinentes aux clients et prospects.

La nouvelle génération de marketplace est intelligente

Aujourd’hui, l’utilisateur exprime une demande avec ses critères qu’une plateforme utilise afin de lui proposer des produits et des transactions adéquats. Par exemple, s’il indique à Airbnb qu’il souhaite louer un appartement à Barcelone pour une semaine en août en précisant mon budget, la plateforme lui répond avec les options disponibles.

Bien que la tarification et la gestion des prix en back-office peut être extrêmement sophistiquée, l’expression du besoin explicite de l’utilisateur est une équation assez simple. Avec les avancées en matière de Machine Learning, des demandes de plus en plus complexes seront comprises et le traitement de transactions actuellement impossibles sera facilité.

En parallèle, un nouvel ensemble de technologies qui permettra à la prochaine génération de marketplaces d’être intelligent est en train d’émerger. Grâce à l’intelligence artificielle, les marketplaces seront en mesure de traiter des données plus riches et donc de comprendre des besoins complexes, sans forcément une expression claire et précise de l’utilisateur. « Airbnb, organise-moi un voyage pour la semaine prochaine ». Voilà ce qui sera très probablement possible de demander à la plateforme très prochainement.

Ainsi dans notre exemple, Airbnb pourra :

  • Combiner les voyages précédents pour en déduire les goûts ;
  • Prendre en charge les vols pour équilibrer les coûts ;
  • Intégrer les événements locaux présentant un intérêt pour faire ressortir un voyage packagé plus susceptible de convertir.

Visuel market place 1

 

Les défis et les challenges à relever

Lancer une marketplace ne va pas sans difficultés. En effet, comment démarrer une telle plateforme (non intelligente) sans avoir les données nécessaires ? Créer, par exemple, un concurrent de Deliveroo sans client ni restaurant représente un réel challenge. Il faudrait savoir se différencier et cibler, si nécessaire, une certaine niche de clients.

De plus, les marketplaces intelligentes sont encore plus complexes à mettre en place. Pour être optimaux, leurs algorithmes nécessitent une phase de collecte de données et d’apprentissage.

Quant au Machine Learning, il repose sur l’analyse de données en masse, ce qui soulève le point du stockage et du traitement des données personnelles. Avec les normes tels que le RGPD, de nouvelles contraintes sont à prendre en compte. Les décisions prises par les systèmes d’IA dans le cadre de l’engagement client doivent donc intégrer des considérations éthiques au sein du Machine Learning.

Visuel market place 2

Les marketplaces intelligentes relient directement une demande complexe à une offre en comprenant et en combinant plusieurs besoins. Les plateformes actuelles vont probablement associer l’IA à leur offre, mais les marketplaces réellement intelligentes seront celles qui s’appuieront sur l’IA pour négocier des transactions auparavant impossibles.

 

Article co-écrit par Fethi Toumi, Chef de projet E-commerce et Loïc Ebran, Expert technique.

Gouverner la technologie pour unifier le commerce

Véritable boussole des directions marketing et digital ces cinq dernières années, l’omnicanal a amorcé la transformation culturelle des distributeurs autour de l’expérience et du parcours client. Il a également laissé entrevoir l’incapacité de nombreuses organisations à traduire ce parcours sans couture tant en matière de technologie que de gouvernance interne. Le commerce unifié entend répondre à ce double défi laissé vacant par l’omnicanal, pour proposer enfin une expérience sans friction.  

En deux décennies, nous sommes passés d’une logique de l’offre à celle de la demande. D’une approche produit à une approche servicielle. De modes de production longs à des cycles très courts, pour répondre à un besoin de mise sur le marché immédiat et réactif. Du commerce en magasin au commerce unifié, grâce auquel il est désormais possible de jongler entre le numérique et le physique pour faire ses achats.

L’omnicanal, une transformation plus culturelle que technologique?

Multicanal, cross-canal ou omnicanal hier ; commerce unifié aujourd’hui. De nombreux concepts ont jalonné l’évolution du commerce depuis vingt ans et illustrent le besoin des directions marketing et digital d’y donner du sens et d’en comprendre les enjeux. Les fonctions coeur de métier ont ainsi été le moteur de la transformation culturelle chez les distributeurs, qui partagent aujourd’hui communément la vision d’un parcours client centré autour de l’expérience la plus fluide possible. Cette vision commune est séduisante mais elle se heurte pourtant à un obstacle majeur : de nombreuses organisations ne sont aujourd’hui pas en mesure de traduire technologiquement la démarche omnicanale pour proposer une véritable expérience sans accroc.

Gestion et affichage des stocks, paiement en caisse ou en ligne, livraison, SAV, etc. Un peu comme les différentes pièces qui se cachent sous le capot d’un véhicule, l’expérience omnicanale de l’utilisateur repose sur une machinerie complexe dont les différents composants doivent communiquer et interagir entre eux. La difficulté réside dans le fait que ces applications numériques ne parlent pas le même langage : elles sont conçues indépendamment pour être ensuite agrégées au système d’information existant. L’omnicanal a permis un premier pas de géant en faisant communiquer ces applications entre elles. Il s’est en revanche heurté à l’intégration technologique de ces applications autour d’une source de données unique. Autrement dit, d’un seul et même langage permettant d’analyser et de guider en temps réel l’ensemble des interactions de milliers d’utilisateurs avec une marque.

Commerce unifié, enfin le meilleur des deux mondes?

À ce défi technologique s’ajoute un enjeu de communication et de coopération entre les différentes directions qui interviennent sur ces interactions, mais qui se parlent peu ou pas par nature. C’est toute la problématique du commerce unifié aujourd’hui : réintégrer la gouvernance technologique mais aussi celle de l’entreprise qui se décloisonne au cœur de la vision de l’expérience client. Le commerce unifié suppose ainsi un changement culturel et organisationnel profond afin de synchroniser l’expérience client et l’imposant volume de données qu’elle occasionne.

Cela passe par un rééquilibrage des pouvoirs de décisions au sein des comités de direction sur les projets de commerce unifié. Les directions des systèmes d’information doivent être intégrées dès les prémices, autour d’une gouvernance conjointe avec les fonctions cœur de métier. Au-delà de l’intérêt technologique évident, cette convergence est susceptible d’apporter d’autres avantages, comme l’intégration de méthodes de travail agiles et itératives héritées du numérique pour mener ces projets de manière plus efficace et au plus proche des problématiques des distributeurs. En d’autre termes,  créer un référentiel commun pour unifier le commerce.

Nouveau call-to-action

[INFOGRAPHIE] Etude Omnicanal et utilisation de la data en 2019

SQLI et L’Usine Digitale, média de la transformation digitale, ont mené une étude auprès de 200 entreprises basées en France.

mockup-up-tablette-infographie-Omnicanal-et-data


L’objectif : comprendre comment se positionnent les entreprises vis à vis de l’omnicanal et de l’exploitation des datas, leurs préoccupations et priorités.
* Qui sont les acteurs du déploiement de la stratégie omnicanal ?
* Quels sont les bénéfices et difficultés rencontrées ?
* Quelles sont les priorités pour optimiser le parcours client?
* Quels sont les futurs projets liés à l’omnicanal?

Télécharger l'infographie etude omnicanal et utilisation de la data