L’architecture évolutive : accompagner une mutation continue

Face au changement, ce ne sont pas les plus forts qui survivent mais les plus réactifs. Cela vaut également pour les architectures logicielles, car ce sont elles qui contiennent les bonnes décisions que vous souhaitez pouvoir prendre dès le début d’un projet. Jusqu’à présent, les les architectures logicielles sont perçues comme difficile à faire évoluer. Et si nous construisions des architectures en nous attachant principalement aux notions de changement et d’évolutivité ? Une architecture évolutive permet de soutenir une évolution progressive et dirigée en tant que premier principe dans de multiples dimensions.

 

Quel est le moteur du changement ?

Tout finit un jour par changer ; comme le disait Einstein, c’est la seule constante. Certaines choses peuvent changer si l’initiative est prise au niveau de l’entreprise, d’autres devront changer de façon involontaire. Il existe deux types de changement auxquels votre entreprise doit faire face :

  • Le changement lié à l’activité : on peut citer les nouveaux modèles de revenus, des concurrents disruptifs, les nouveaux canaux, l’évolution des besoins du client, les règlementations et l’innovation produit. Ces différents éléments modifient les exigences commerciales et les cas d’utilisation que vous traitez avec votre architecture.
  • Le changement lié à l’écosystème :le domaine technique mue et évolue au fur et à mesure que les langages de programmation, les bibliothèques, les frameworks et les environnements d’exploitation évoluent. Docker, par exemple, a contribué à diffuser la technologie des conteneurs auprès du grand public et a révolutionné la façon dont nous utilisons les ressources informatiques.

Le changement peut avoir une très forte incidence en raison de la notion d’équilibre dynamique, terme emprunté à la chimie et d’autres sciences physiques, qui se vérifie également dans l’architecture logicielle. L’équilibre dynamique signifie que si vous modifiez un état de juste équilibre, vous devrez procéder à des ajustements continus pour maintenir un état stable. Comme le Yin et le Yang, l’univers logiciel est dynamique plutôt que statique. Dans un état de flux constant, une image à un instant T de votre architecture logicielle sera différente d’une autre image prise à un autre moment.

Alors, comment faire face au changement ?

 

Faire face aux inconnues « non connues »

De par sa nature même, l’architecture est l’élément que l’on souhaite le moins changer en raison de son degré de complexité et du coût que cela implique. C’est pourquoi des changements au niveau de l’écosystème peuvent créer de réelles difficultés pour l’architecture logicielle, surtout dans l’entreprise. Plus les choses changent, moins il est possible de faire de planification à long terme. Comment prévoir un plan sur cinq ans pour son architecture quand celle-ci peut être facilement balayée par une innovation encore inimaginable ? A l’inverse, si vous investissez tête baissée dans une toute nouvelle technologie, vous risquez d’essuyer les plâtres en ayant misé sur le mauvais cheval. Regardez les langages de programmation qui n’ont pas percé, comme D, Fortress, J# et Wasabi… et pensez maintenant aux nouveaux langages tels que Scala, Typescript et Swift. Pourront-ils durer ? Ou vont-ils subir le même sort que Ruby, en recul depuis que Twitter a annoncé en 2011 qu’il s’en séparait ? Il est impossible de prévoir quel sera le prochain langage le plus en vogue, mais quand la transition s’opèrera, il faudra toujours planifier l’ensemble de l’écosystème qui doit suivre.

La seule solution consiste à bâtir une architecture capable d’anticiper les changements et l’évolution de manière économiquement rationnelle. Thoughtworks a donné à cette idée le nom « d’architecture évolutive ». Avec cette architecture, vous pouvez vous adapter rapidement au changement sans avoir besoin de prédire l’avenir pour réaliser des investissements incertains. La prévisibilité ouvre la voie à l’évolutivité.

 

L’architecture évolutive vs. les architectures antérieures

 

Le principe directeur d’une architecture évolutive est de soutenir un changement guidé, progressif et sans rupture sur de multiples dimensions. Pour en comprendre les implications, prenons du recul et examinons les architectures antérieures.

La première, c’est la grande boule de boue : un système logiciel dépourvu d’architecture perceptible. Il est très dense et peut être identifié par le niveau de couplage élevé de ses modules. Un simple changement nécessite de nombreuses modifications susceptibles de mettre en péril toute l’application : l’architecture peut se rompre.

La seconde architecture est l’architecture en couches ou architecture multi-niveaux, qui sépare la présentation des fonctions, les traitements applicatifs, la logique métier et la gestion des données. Elle offre une évolutivité monodimensionnelle dans le sens structurel du fait qu’on aborde la dimension des couches séparément. Mais dans la pratique, les changements apportés aux interfaces de niveau inférieur ont tendance à migrer vers les niveaux supérieurs. Et quand on introduit de nouvelles caractéristiques sur une couche, cela peut imprimer des changements au niveau d’une couche sur deux. En outre, si on considère le principe de la conception pilotée par le domaine (Domain-Driven Design, DDD), qui est centrée sur les secteurs d’activité des utilisateurs, on constate qu’un même domaine est susceptible d’être éclaté sur plusieurs couches. Un seul changement dans le secteur d’activité va affecter toutes les couches : pas d’évolution.

Maintenant, examinons une architecture évolutive telle que les microservices. Il existe un contexte délimité qui est fonctionnellement distinct. Les services sont découplés et orientés domaine, ce qui signifie que le fait de modifier un service existant n’a pas d’incidence sur les autres services. C’est comme remplacer une brique de Lego.

 

Les principes de l’architecture évolutive

L’idée clé est que les éléments architecturaux peuvent être modifiés plus tard. Si vous intégrez le changement évolutif dans votre architecture, les changements seront moins coûteux et plus faciles. Il existe plusieurs concepts autour de l’architecture évolutive :

  • API :si vous utilisez des API comme cadre de référence pour interagir avec les applications, les données et les fonctionnalités sont facilement accessibles à d’autres applications.
  • Cloud :en particulier lorsque vous mettez vos microservices dans le cloud, votre architecture peut bénéficier pleinement des avantages types du Cloud comme l’évolutivité, la résilience et la haute disponibilité.
  • Commerce headless :lorsque vous utilisez des microservices pour faire de l’e-commerce, vous pouvez découpler le CMS de la couche de présentation dans un commerce dit « headless ».
  • Architecture orientée évènements (EDA) :cette approche est axée sur les événements commerciaux auxquels l’entreprise doit impérativement réagir. Une architecture orientée événements offre un service en temps réel et la possibilité de définir la logique métier en tant que logique globale.

Si l’ensemble de ces développements et approches apportent l’agilité commerciale que les entreprises recherchent aujourd’hui, c’est le concept d’architecture évolutive qui fournit le principe par excellence. Il s’agit avant tout d’adaptabilité face au changement. Les cinq caractéristiques suivantes sont fondamentales pour la conception d’une architecture évolutive :

  1. Fonctions de qualité.Elles permettent d’indiquer à quoi ressemble l’architecture cible. A ce titre, elles varient considérablement d’une entreprise à l’autre. Certains systèmes nécessitent un très haut niveau de sécurité, d’autres une disponibilité élevée quand d’autres requièrent des temps de service donnés. Penser dès le départ aux fonctions de qualité permet de guider le processus décisionnel et le calendrier, et vous aide à préserver les exigences clés au fur et à mesure que le système évolue.
  2. Dernier moment responsable.Traditionnellement, les décisions architecturales se prennent avant d’écrire un quelconque code. Dans une architecture évolutive, on attend le dernier moment responsable pour prendre des décisions. Pourquoi ? Parce qu’il existe probablement des informations plus détaillées à prendre en compte. La difficulté est toutefois de déterminer les décisions que l’on peut reporter. Ici, ce sont les fonctions de qualité qui doivent passer au premier plan.
  3. Mettre le doigt sur les problèmes.Certaines choses sont plus difficiles à faire et peuvent poser de nombreux problèmes. Si vous les faites tôt et plus souvent, vous identifierez plus rapidement les problèmes qui en sont la cause. Plus vous les résoudrez, plus vous serez encouragé(e) à supprimer automatiquement ces problèmes.
  4. La livraison continue.Elle permet de soutenir une pratique plus large de l’architecture évolutive, en introduisant deux nouveaux attributs architecturaux : la testabilité et la déployabilité. Dans une architecture testable, la plupart des défauts se décèlent à l’aide de tests automatisés. Dans une architecture déployable, vous pouvez déployer tel ou tel service sans orchestration ni temps d’indisponibilité conséquents. Cela permet également l’expérimentation et le test A/B, comme faire fonctionner plusieurs versions d’une même version en même temps.
  5. S’organiser autour des capacités commerciales.La conception pilotée par le domaine permet de générer de la modularité au niveau du domaine plutôt qu’au niveau des couches techniques. Cela nécessite la mise en place d’équipes plurifonctionnelles par secteur professionnel et place les projets permanents et non plus les projets ponctuels au centre du processus. C’est vous qui bâtissez cette modularité, et c’est vous qui la gérez. Ainsi, il vous sera plus simple d’opérer des changements sans rupture suivant des limites clairement définies.

 

Tout est question de temps

L’architecture évolutive améliore considérablement le temps nécessaire à la mise en production d’un seul changement, de manière répétée et fiable. Elle le fait en supprimant les cycles lents de retour d’informations, les couplages et la cohésion : les principaux obstacles lorsqu’il s’agit de s’adapter aux changements. Chaque composante de l’architecture peut évoluer au fil du temps, indépendamment de son environnement. La forte réduction des délais de mise sur le marché et la nouvelle adaptabilité apporteront à votre entreprise une manœuvrabilité et une agilité commerciale réelles. Vous pourrez ainsi vous adapter efficacement aux changements, introduire de nouvelles caractéristiques au bon moment et dépasser vos concurrents. Avec une architecture évolutive, vous serez à même d’avancer à votre propre rythme. 

UX et RGPD : Comment proposer une expérience utilisateur de qualité et respecter la légalité ?

En matière de RGPD, 76% des Français se disent préoccupés par ce qui est fait de leurs données personnelles. Pourtant, plus d’un an après sa mise en place, le paradoxe est là : 1 Français sur 2 accepte les conditions d’utilisation de leurs données sans même les lire, selon un sondage d’Odoxa datant de 2019.  

 

Pourquoi un tel paradoxe ? 

Les Français sont-ils paresseux ? Difficile de les blâmer. Qui aurait sérieusement le temps de prendre les 86 minutes nécessaires pour lire intégralement les conditions d’Instagram ? Qui ne se sent pas frustré et agressé par toutes ces fenêtres qui s’ouvrent et bloquent l’accès aux contenus ?  

Les entreprises ne sont-elles pas assez sérieuses ? L’instauration dRGPD a donné rapidement naissance à des formulaires à l’ergonomie douteuse. Avant même de réussir à tomber sur les conditions d’utilisation de ses données, il faudrait déjà réussir à passer les multiples barrières qui viennent polluer leur accès, qui poussent l’utilisateur à « Tout accepter » par dépit 

 

Que faire alors pour nos utilisateurs ?  

Apporter toujours plus de transparence et déthique. Autrement dit, concevoir des produits digitaux qui informent clairement les utilisateurs de leurs choix sans tricherie aucune, tout en leur donnant un accès rapide et permanent pour qu’ils puissent les modifier.  

Tirées de l’article « What does GDPR mean for UX ? » de l’UX Designer Claire Barrett, les guidelines suivantes visent à synthétiser clairement les pratiques à suivre pour à la fois adhérer au RGPD et viser une bonne expérience utilisateur. 

 

  1. Garder le contrôle

L’utilisateur doit choisir s’il souhaite que ses données soient collectées et utilisées. Les contrôles doivent être « user-friendly » : clairs et faciles à comprendre. La base, en somme. 

  1. Respecter la granularité

Les utilisateurs doivent donner leur consentement sur chaque activité requérant le traitement ses donnéee. L’affichage des formulaires de consentement au moment de leur collecte permet de donner un contexte aux utilisateurs (par exemple au moment de la création de leur compte).  

  1. Pouvoir revenir en arrière

Les utilisateurs ont le droit de retirer leur consentement à tout moment. Les paramètres doivent ainsi être conçus pour qu’ils puissent facilement y accéder et les modifier. 

  1. Différencier les conditions

Les conditions générales sont bien à séparer des informations de collecte de données. Le design doit faire en sorte que cela soit bien clair pour l’utilisateur.  

  1. 5.Êtretransparent 

Expliquer à quelles fins la donnée est collectée, de façon courte et concise.   

  1. Expliquer les bénéfices

Lorsqu’on demande l’approbation de l’utilisateur, c’est encore mieux de lui expliquer en quoi son consentement va bénéficier à son expérience. 

 

Quelles pratiques mettre en œuvre ?  

Don’t : la bannière d’information 

Si elle respecte l’aspect légal, la bannière est facilement ignorée par les utilisateurs et elle dégrade leur expérience de navigation en cachant le contenu de la page.  

Dans cet exemple, le bouton « Accepter et fermer » pousse clairement l’utilisateur à opter pour ce choix tandis que le bouton « En savoir plus », permettant à l’utilisateur de refuser l’utilisation de ses données, est dans un « gris sur gris » peu incitateur. 

Banniere information doctissimo

Capture écran réalisé sur le site doctissimo.fr

 

Do : la fenêtre d’info et son FAB (Floating Button Action)

Un message clair (et drôle en plus <3) avec des boutons d’action faciles d’accès et compréhensibles pour l’utilisateur.

Cookie axeptio

Capture écran réalisé sur le site axeptio

 

Don’t : la pop-in

En sélectionnant les « options », l’utilisateur est souvent accueilli par une fenêtre peu engageante.

Une fois celle-ci refermée, elle ne peut être réouverte qu’après une exploration profonde des sous-pages des conditions du site.

Pop in doctissimo

Capture écran réalisée sur le site doctissimo.fr

 

Do : le centre de confidentialité

Accessible partout depuis le même endroit, le centre de confidentialité permet à l’utilisateur de facilement choisir les options qu’il souhaite activer ou non. *BONUS* Et en plus, on lui explique à quoi cela sert.

Cookie axeptio choix

Capture écran réalisée sur le site axeptio.eu

 

Respecter le RGPD pour la loi et pour construire des parcours utilisateurs respectueux, c’est possible !  La Cnil a d’ailleurs récemment renforcé sa base de connaissances sur le sujet avec une nouvelle plateforme : design.cnil.fr.

N’hésitez pas à puiser dans les ressources à disposition ou à échanger avec l’un de nos experts SQLI.

Il faut sauver le soldat SI legacy !

Le SI legacy (héritage que sont les systèmes informatiques en place), face aux différentes évolutions au sein des organisations, est bien souvent considéré comme un poids et sa valeur peut être sous-estimée. Pourtant, il ne faut pas oublier les avantages qu’il peut avoir et qui méritent de le sauver. Je vous explique pourquoi.  

 

Retour sur le SI legacy

L’informatique n’est pas née d’hier. Pour de nombreuses entreprises, il existe un ensemble d’applications spécifiques qui ont été développées. Parfois, elles datent de la création même de l’entreprise. Ces applications ont évolué pour s’adapter aux nouveaux besoins tout au long de la vie de l’entreprise. Elles constituent donc un vrai patrimoine adapté à l’organisation. 

Au fil du temps, ces applications sont souvent devenues complexes et lourdes à faire évoluer. Leur coût de maintenance augmente au point de devenir prohibitif par rapport au gain escompté. Il est alors tentant de vouloir changer tout le système, de le refondre, ou de le migrer vers un nouveau système réputé mieux conçu et donc forcément moins cher à maintenir. 

Ces vieilles applications représentent pourtant une valeur pour l’entreprise à ne pas sous-estimer. Souvent, leurs règles de gestion ont été oubliées avec le temps ou ont été mal documentées. Migrer vers un nouveau système expose ainsi à un risque de nombreuses régressions, à des surcoûts et des retards, et des insatisfactions pour les utilisateurs. 

 

Une question de méthode

Dans le même temps, il faut bien faire évoluer le SI afin de continuer à l’adapter aux nouveaux besoins, à rechercher ces fameuses innovations gages de survie par rapport à une concurrence de plus en plus exacerbée. 

Comment faire en sorte que l’innovation disruptive recherchée par toute entreprise ne s’accompagne pas de destruction de valeur pour celle-ci, en l’occurrence l’abandon du patrimoine que constitue son SI legacy en le migrant ? 

En fait, la lourdeur de la maintenance de ces vieilles applications est souvent liée à la méthode qui a été employée pour les créer. Des cycles en V classiques avec cahiers des charges très touffus et monolithiques, maîtrises d’ouvrage constituées et régaliennes, délais incompressibles pour les recettes et mises en production... C’est souvent le maintien de ces méthodes de travail dans un monde toujours plus agile qui est le responsable de ces coûts et de ces délais plutôt que le SI lui-même. 

En effet, comme pour tout ancien bâtiment qu’on souhaite rénover, on peut très bien isoler certains éléments d’un SI existant afin de les faire évoluer indépendamment les uns des autres. C’est le travail de l’urbaniste. Il permet d’identifier les liens entre les composants afin d’identifier les frontières fonctionnelles et les aménager pour créer des entités autonomes. 

Une fois celles-ci constituées, on peut leur appliquer des méthodes agiles à l’échelle qui permettent de les faire évoluer rapidement (accélérer le time to market) tout en gérant les dépendances inévitables dans un SI legacyCes méthodes peuvent néanmoins remettre en cause les structures des organisations existantes et se heurter à des résistances. 

Il en va ainsi des SI legacy comme de tout patrimoine. Il ne sert à rien de vouloir le changer si on garde les mêmes méthodes pour construire le nouveau : celui-ci sera très vite aussi lourd à maintenir que celui-là et le gain de la migration sera bien vite estompé. En revanche, si on modifie les méthodes de travail en les appliquant aux anciens SI, on s’apercevra bien vite qu’il n’est plus forcément nécessaire de les abandonner à travers une migration en « big bang » qui, alors, pourrait s’apparenter à une fuite en avant. 

 

Le défi n’est donc pas tant la rénovation du SI historique que la remise en cause des méthodes elles-mêmes qui l’ont construit. Ces méthodes sont ancrées dans des habitudes, dans des organisations qu’il est souvent très difficile de faire bouger. L’implication de la hiérarchie à tous les étages est essentielle pour que cette transformation puisse être menée à son terme et vaincre les résistances. Ici, il s’agit d’un vrai changement de culture d’entreprise qui doit être opéré et impulsé depuis le sommet. 

Connaissez-vous les Millennials et leur façon de consommer ?

Pour commencer, savez-vous qui sont réellement les Millennials ? Il existe plusieurs interprétations possibles de ce terme. Pour faire simple, les Millennials représentent la population de personnes âgées aujourd’hui de 18 à 35 ans et correspondent au plus grand groupe démographique de clients de l’e-commerce de ces dernières années. 

Cette génération dite de « digital natives », adopte de nouveaux styles de consommation, différents de ceux de ses prédécesseurs. 80 % des Millennials découvrent des marques et des produits via leurs smartphones et 45% d’entre eux désirent acheter directement les produits via les réseaux sociaux (source : Digimind). Ces nouveaux consommateurs adoptent un comportement d’achat fortement orienté vers la personnalisation et ne sont plus forcément fidèles envers les marques.  

Impatients, volages ? Les Millennials changent drastiquement les codes du secteur de la distribution et les marques doivent s’adapter. 

 

Comment séduire les Millennials ? 

Les Millennials traversent une période de transition marquée par les conséquences des transformations technologiques qui sont de plus en plus rapprochées. Le temps s’accélère et cette génération vit avec une notion de « l’instantané ». Elle trouve avec facilité ce qu’elle souhaite sur internet, compare beaucoup et est très sensible à l’expérience utilisateur 

Ces nouveaux acheteurs obligent les entreprises du secteur de la distribution à mettre en œuvre des expériences qui leur sont spécifiquement dédiées. Très exigeantsur la compréhension de leur point de vue et leurs préférences, les Millennials souhaitent que les supports soient un maximum « responsive » et que le parcours client soit à la fois omnicanal et phygital.  

Dans le commerce physique, les marques cherchent à éliminer tous les points de friction qui affectent la fluidité du paiement. La simplicité est le maître mot du paiement digital ; en magasin, elle assurera la satisfaction du client. La dématérialisation du paiement devient un véritable enjeuL’attente des Millennials ne doit pas représenter une contrainte, au contraire, elle doit reposer sur l’unicitél’efficacité et le ludique.  

Des services digitaux peuvent venir compléter une expérience client interactive : essai de produit en réalité augmentée et personnalisation de produit à l’aide de l’intelligence artificielle permettent de savoir ce qu’il faut proposer aux consommateurs. 

Certains logiciels assemblent déjà une image soumise à un produit sélectionné sur des plateformes e-commerce, mais l’utilisation de l’intelligence artificielle reste encore marginale. Le passage total à une IA avancée se fera au travers des techniques de Deep Learning. Si les Millennials voient d’un bon œil la digitalisation et l’automatisation, il est nécessaire de veiller à conserver de l’humain dans les parcours.  

Digitaliser les points de ventes contribue à une expérience plus attractive et captivante pour cette génération ; néanmoins l’humain rassureUne des erreurs à absolument éviter serait de supprimer le contact physique lors du parcours d’achat. 

 

L’importance des réseaux sociaux 

La contribution des réseaux sociaux dans la culture d’achat des Millennials est telle que les marques s’efforcent de créer du contenu et de maintenir leur présence sur ces plateformes. Les marques sont conscientes du potentiel que cette population représente ; les « digital natives » sont une cible singulière dans le domaine du marketing. 

Par nature, Instagram est une plateforme proposant du shopping instantané depuis certains postsLe bouton d’achat redirige automatiquement vers la page de-commerce concernée, ce qui fluidifie remarquablement l’acte d’achat. Quelques clics suffisent… C’est une véritable aubaine pour les marques fédérant une grande communauté d’être en capacité de promouvoir leurs produits à une catégorie de personnes pour laquelle l’instantanéité est un facteur déclencheur.  

Ce réseau social en plein essor permis à certaines marquesnotamment lié à l’esthétisme et aux accessoiresd’adopter rapidement le module Shopping  en visant les Millennials. En quête de recherche identitaire, cette génération a une forte appétence pour les réseaux sociaux. Elle se réfère aux influenceurs et groupes d’appartenance : 92% des Millennials accordent plus de confiance aux influenceurs qu’aux publications des marques ! (source : bilan.ch 

Malgré tout, ce groupe d’individus reste difficile à cerner… Appartenir à la même génération ne suffit pas à comprendre ses habitudes d’achats. La catégorie socio-professionnelle, le niveau d’études ainsi que l’environnement sont autant de facteurs qui permettent d’analyser les trajectoires des acheteurs en ligne. Le Millennial fait aussi référence à un fantasme de la consommation et du marketing moderne. Malgré son pouvoir d’achat relativement faible, si le Millenial ne consomme pas aujourd’hui, il consommera demain : il revient aux marques de réussir à accrocher cette génération !  

Projets digitaux : quand l’empathie se met au service de la technologie

Panacher différentes méthodologies tout en faisant preuve d’une grande capacité d’adaptation… Voilà la clé pour réussir n’importe quel projet digital. Quelle que soit la taille de votre entreprise, il est fort probable que vous suiviez les dernières tendances pour gérer vos projets digitaux. Et de nos jours, la tendance est à l’agilité (@Scale ou « light »). Pourtant, pourquoi bouder les bonnes vieilles recettes ?

 

Le monde digital n’a pas attendu l’agilité

Bien avant l’avènement de l’ère agile, certaines entreprises disposaient déjà de structures organisationnelles qui apportaient une véritable valeur ajoutée sur le marché. Il serait donc dommage de sacrifier cette valeur ajoutée sur l’autel de nouvelles méthodologies au prétexte qu’elles ont aujourd’hui le vent en poupe.

Et l’agilité fut

L’agilité, ou le modèle en cascade (Waterfall), voici des méthodologies aujourd’hui plébiscitées par les entreprises et les digital factories (ces équipes qui utilisent la technologie digitale comme nouveau modèle industriel), convaincues qu’elles sont la clé de leur transformation digitale et de la réussite de leurs projets. Il est cependant important de garder à l’esprit :

  • Qu’il n’existe pas une seule et unique méthodologie pour gérer un projet digital ;
  • Que les modes passent… qu’il s’agisse de modèle en cascade, d’agilité@Scale ou d’autres ;
  • Que le pragmatisme est le seul baromètre qui vaille.

Pour transformer l’essai, il faut dans un premier temps analyser votre organisation informatique interne, définir sa valeur ajoutée et sur cette base, votre propre méthodologie de projet. Vous serez ainsi en mesure d’impliquer les autres services de votre société et de vous assurer qu’ils adoptent bien la méthodologie que vous avez choisie.

Nouveau call-to-action

L’ère du tout numérique ne date pas d’hier

Il est donc important de ne pas oublier qu’un projet digital n’est finalement qu’une façon de réinterpréter ce que l’on connait déjà. Prenons l’exemple de l’industrie de la presse au cours des dix dernières années. Les premiers projets de transformation digitale se sont souvent soldés par un échec, ou une réussite en demi-teinte, d’une part en raison d’une mise en œuvre hâtive et d’autre part, de la croyance selon laquelle les projets digitaux devaient être gérés à l’aide de nouvelles méthodologies (Digital Paradise)… Sans compter l’approche quasi monolithique des prestataires de services informatiques, qui n’a fait que renforcer le phénomène. À force de raisonner en termes de méthodologies et de techniques, les prestataires informatiques perdaient bien souvent de vue le vif du sujet, à savoir, l’importance des contenus (les articles) et la mise en page (le format précis visant à mettre en valeur cette information) … Autrement dit, tout ce qui fait la valeur ajoutée de la presse. Beaucoup de lecteurs se sont alors sentis perdus face à leur « nouveau » journal, car ils ne retrouvaient plus la qualité éditoriale et visuelle attendue. Les acteurs du secteur ont alors dû intégralement remanier de nombreux projets digitaux.

Les règles de l’ère pré-digitale sont encore valables aujourd’hui

L’un des principaux acteurs européens du secteur bancaire a récemment décidé de gérer l’ensemble de ses projets via la méthodologie Agile@Scale. Des années après avoir opéré ce virage stratégique, il en a oublié les clés jadis utilisées avec succès dans son entreprise, et toujours valables. Toute la valeur ajoutée créée par leur « ancien » service informatique, en termes d’organisation, de communication ou de méthodologies de projets notamment, avait été en partie réduite à néant par leur entêtement à utiliser les processus Agile@Scale. Un exemple édifiant où innovation a rimé avec destruction, plutôt qu’avec disruption.

Tout est une question d’empathie

Il n’existe aucune méthodologie vouée uniquement aux projets digitaux. Ces projets, comme tous les autres, nécessitent un savant mélange de différentes méthodologies pour s’adapter à l’entreprise, ainsi qu’une équipe de projet compétente (directeurs de projet, chefs de projet et direction) à même d’identifier la valeur ajoutée qui existe déjà au sein de l’organisation, de la préserver et de l’optimiser.

C’est pourquoi comprendre une entreprise, ses employés et ses process est indispensable à l’heure de choisir les méthodologies à employer pour votre projet digital.  L’empathie… une valeur qui a toujours fait ses preuves.

Be agile or die! Les 5 variables du changement de mindset des entreprises

Be agile or die! Ce crédo est apparu au cours des trois dernières années, avec le changement d’état d’esprit profond en entreprise qui s’est amorcé aux USA et s’est répandu en Europe puis en Afrique. Cette tendance mondiale fait suite aux différents projets de transformation digitale touchant de près ou de loin tous les secteurs d’activité.  

Son impact est tel que certains pays à l’instar de la Pologne ont changé leur politique d’imposition en exonérant les jeunes diplômés de l’impôt sur le revenu. La migration des ingénieurs informaticiens qui sont plus focalisés sur l’expérience de vie et l’épanouissement personnel que la génération de leurs managers dont l’attention est plus portée sur le développement de leur carrière et la stabilité professionnelle. 

Pour faire face à ces changements, l’entreprise doit se remettre en question et amorcer une transformation globale de l’intérieur qui touche tous ses aspects : organisation, politique RH et le plus important : le mindset, l’état d’esprit. 

Cet état d’esprit doit être matérialisé par une organisation qui fait la promotion de : 

  •  L’adaptabilité : le changement n’est plus une variable mais doit être une constante. 

Nous pouvons citer l’adaptabilité par rapport aux changements fréquents des enjeux business et à l’état d’esprit des MillennialsProposer à cette population non plus une carrière et un processus de fidélisation mais plutôt un « contrat » de collaboration gagnant-gagnant est une réponse. 

Face au marché de l’emploil’adaptabilité passe par une démarche proactive et industrialisée qui permet d’anticiper les départs programmés suivant les contrats de collaboration. 

  • La réactivité : face à un environnement mouvant, c’est une capacité incontournable, que ce soit envers les besoins clients ou les aspirations des collaborateurs.
  • Simplicité & transparence : grâce à une organisation plate, des « facilitateurs » leaders au lieu de managers. Ces leaders doivent avoir un rôle, une mission et des priorités clairement définies.
  • Performance & plaisir : bien que l‘entreprise ne doit pas perdre de vue ses objectifs de performance, le plaisir, le fun et la gamification doivent être aussi au centre de ses préoccupations.
  • L’attractivité :

Elle passe d’abord par l’image d’une entreprise jeunequi propose des espaces de détente et des espaces de jeux (consoles, VR, …). L’entreprise ne doit pas être vue comme un lieu de travail sombre, un lieu de labeur, mais un lieu agréable et coloré, favorisant les échanges et l’épanouissement de chacun ; n’oublions pas que le lieu de travail est le second chez soi. 

L’entreprise doit être en adéquation avec les attentes des collaborateurs en lui apportant des projets riches techniquement, des missions enrichissantes comme des missions à l’étranger, ainsi que des changements au rythme qui leur conviennent. 

Le management, lui, est idéalement de proximité avec un mindset non seulement tourné vers la performance mais qui entre également en résonance avec les Millennials 

 

 

Nouveau call-to-action

Finalement, cet état d’esprit agile doit répondre à des enjeux qui semblent contradictoires mais qui sont en fait très liés : lsatisfaction des clients et l’enrichissement de l’expérience collaborateur au sein de l’entreprise. Via une démarche « Delivery As a Fun Service », on assure un service de qualité qui répond aux enjeux des clients tout en procurant du bien-être et de l’épanouissement de nos collaborateurs.  

 

Un article de Fouad SelmouniDirecteur du centre de service SQLI au Maroc et Mehdi Sijelmassi, Microsoft Skill Center Manager 

Quels bénéfices e-commerce peut-on attendre d’une progressive web app ?

Le smartphone est le device privilégié de bon nombre d’utilisateurs dans le monde. Avec une couverture réseau et une disponibilité de la data encore inégales, l’utilisation du mobile fait face à des disparités. Alors qu’en Europe, YouTube et Netflix représentent respectivement 30% et 23% de la consommation de la bande passante, les pays émergents sont confrontés à des performances moindres du réseau, alors que le mobile reste le principal point d’accès de cette population à internet. En 2015, Google a mis en place une nouvelle « norme » de développement pour répondre à cet enjeu : la Progressive Web Application (PWA). Quels sont ses trois principaux bénéfices pour les sites web, dans un contexte e-commerce ?

 

Une Progressive Web Application est un applicatif accessible à partir d’un simple browser et non plus obligatoirement via le store. Cela permet d’offrir à un site web une expérience qui se veut proche d’une application native ou mobile. Sa spécificité est de s’appuyer notamment sur un manifeste permettant d’installer le site sur son mobile sans passer par un store et des services workers lui permettant de pouvoir fonctionner partiellement en cas de coupure de réseaux et d’offrir une meilleur expérience utilisateur.

 

Une rapidité supérieure

Selon Google, 53% des utilisateurs abandonnent leur navigation si le temps de chargement est supérieur à 3 secondes. Sur un site PWA, le téléchargement des contenus a été optimisé de façon à garantir de bonnes performances d’affichage. Le système de cache a également été mis au point pour uniquement mettre à jour le ou les éléments modifiés depuis la dernière visite de l’internaute. Malgré un réseau très faible, Google limite les temps de chargement et assure une expérience de navigation plus rapide et plus fluide.

Selon une étude de cas de Forbes, avant de passer en PWA, le taux de chargement d’une page était compris entre 3 et 12 secondes. Le changement d’architecture amène aujourd’hui à un temps de chargement de 0,8 seconde ! De son côté, AliExpress annonçait déjà en 2016 que le nombre de consultations des pages de son site avait doublé, tandis que le temps de navigation avait augmenté de 74% et que le taux de conversion avait crû de 104%. Alibaba avait alors constaté une amélioration de 76% de son taux de transformation, quand Uber offrait la possibilité de réserver une course via un réseau 2G.

Du fait de l’optimisation des temps de chargement, de la diminution du taux de rebond et de l’augmentation du nombre de pages vues, les marques enregistrent un autre bénéfice direct : l’amélioration de leur référencement naturel.

 

Une meilleure fiabilité

L’architecture d’une PWA offre une expérience sans accroc aux internautes. La PWA est capable de fonctionner de manière partielle, même en cas de rupture de réseaux et permet ainsi aux utilisateurs de réaliser certaines actions, comme par exemple poster un tweet qui sera publié dès le rétablissement de la connexion.

Dans le cadre de l’e-commerce, cet avantage peut se traduire de deux façons : un internaute peut se loguer même s’il est hors ligne, et les déperditions sont limitées lorsque l’utilisateur soumet la transaction d’une commande dès le retour du réseau.

 

Un engagement renforcé

La promesse est d’arriver à une expérience utilisateur la plus proche de celle offerte par une application mobile dont les principaux atouts sont de pouvoir :

  • Disposer d’un affichage prenant l’ensemble de l’écran afin d’avoir une immersion plus importante ;
  • Créer un raccourci du site de la marque directement disponible sur son smartphone ;
  • Implémenter une stratégie de notifications pour favoriser le taux de retour et la fidélisation.

Grâce aux notifications push, Lancôme a par exemple pu constater en 2017 l’augmentation de 17% de son taux de conversion ainsi que qu’une amélioration de 8% de la récupération de panier abandonné.

Malgré des performances incontestées, les sites PWA restent encore rares dans le paysage digital. Cette norme n’étant portée que par un seul acteur, Google, son adoption a été freinée. Il n’était, il y a encore peu, pas possible d’offrir une même expérience à l’ensemble des utilisateurs suivant les OS et les navigateurs. Aujourd’hui, Microsoft, Apple et d’autres acteurs ont changé de stratégie et travaillent de plus en plus avec cette architecture.

Et si nous nous projetions encore plus loin ? Le smartphone est un agrégateur d’informations ; pouvoir interagir avec ces dernières de manière encore plus native permettrait d’ouvrir une multitude d’opportunités aux marques à travers leurs sites. Les utilisateurs pourraient ainsi accéder aux calendriers des futures ventes privées, ou encore réaliser des transactions en one clic en utilisant les API de paiement. PWA représente une mine d’or dont les marques mériteraient d’exploiter le potentiel ! 

Projets Scrum : comment impliquer le client durablement ?

L’agilité est le cadre de travail de tout projet e-commerce, c’est pourquoi elle est au cœur des pratiques SQLI, à travers Scrum en particulier.  Les organisations qui font appel à nous sont expertes de leurs métiers, mais pas toujours des technologies web et du cadre Agile. Le client est généralement novice sur le sujet. Pourtant, il est essentiel au succès d’un produit conçu en Scrum

Comment lui expliquer le rôle des parties prenantes et surtout le rôle clé du Product Owner (PO pour les intimes) ? Comment lui donner les moyens de tenir son rôle et de progresser tout au long du projet ? Comment compenser les inévitables insuffisances ? 

Dans les faits, ce que nous appelons dans notre jargon « manque de maturité client », est classé comme « risque » en début de projet et partagé avec lui. Cette étape assurément nécessaire reste insuffisante. Encore faut-il définir les actions pour que le risque soit au mieux évité, et au minimum réduit.  

 

Que faire pour engager le client dans un projet Scrum ? 

L’engagement est une valeur Scrum qui doit tout particulièrement être transmise au client. Son engagement, surtout en tant que PO, est indispensable tout au long du projet. 

Tout d’abord, il faut veiller à ne pas sous-estimer le travail que cela va représenter pour le Chef de Projet ou le Business Analyst ; sur tout un projet, il peut se traduire en jours. Il faut l’anticiper en termes de planning, car en plus de ses tâches habituelles, le Chef de Projet/ Business Analyst devra former à l’utilisation doutils, éduquer au vocabulaire (« sprint »« backlog »« review » …) et s’assurer que le client est invité et participe aux événements. Expliquer les grandes lignes de l’agilité est certes utile lors d’un kick-off, mais doit être doublé de ce que l’on pourrait appeler une formation continue jusqu’à l’accomplissement du projet. 

Inviter le client aux sprints reviews est essentiel, il sera là dans son rôle de partie prenante. C’est le plus évident de son point de vue et là ne réside pas la difficulté.  

La difficulté réside dans le rôle du PO, qui n’est pas (seulement) un testeur de livrable, sollicité une fois en atelier de spécification puis une autre fois après livraison. Cette approche correspond plutôt au fameux cycle en V (ou cascade), où client et agence se rencontrent deux fois dans le projet. Evitons le piège qui consiste à reprendre ce fonctionnement, en le déportant simplement de l’échelle du projet à l’échelle du sprint.  

Impliquons nos clients à tous les événements qui requièrent le PO : sprint planning, sprint rétro et bien sûr sprint review (auxquels on invitera aussi les parties prenantes). Impliquons aussi davantage le PO hors événements pour valider avec lui les choix fonctionnels et techniques. Plus il sera invité, plus il sera présent, plus il sera engagé. 

Et si le client manque de temps ? Souvent sollicité sur d’autres tâches, parfois absent (maternité, maladie…), il ne peut assumer ses fonctions en tout ou partie. Il me semble illusoire d’imaginer que l’accompagnement suffise toujours. Qu’avons-nous constaté sur nos projets ? Le Chef de Projet/ Business Analyst est intervenu comme filet de sécurité et a pris en main une bonne partie du rôle de Product Owner. 

Bien sûr, cela permet au produit d’être livré, mais est-ce l’idéal ? 

 

Un Product Owner : pourquoi en avons-nous besoin ?

Pas de produit réussi sans Product Owner présent et actif du premier au dernier sprint.  

Que se passe-t-il sur un cycle en V ? La fonctionnalité est spécifiée, puis développée, puis livrée. Résultat : beaucoup d’insatisfaction des utilisateurs finaux qui n’utilisent pas ou peu les fonctionnalités. Et de la déception côté client lorsqu’il découvre le livrable, pas forcément tel qu’il l’avait imaginé. Souvent aussi du retard dans le planning lorsqu’il faut revoir le développement. 

Pour éviter cet effet de (mauvaise) surprise à la livraison, Scrum implique le client durant tous les sprints. Un PO droit dans son rôle ne devrait jamais être surpris en review. Voilà le gain pour les clients et la raison pour laquelle les équipes SQLI choisissent Scrum. 

A nous, et surtout au Chef de Projet, d’être le porte-parole de ce type de bénéfice auprès du client. 

Allons plus loin, faisons de l’itératif ! 

 

Le manifeste Agile met en avant les individus et leurs interactions. SQLI ne peut pas être agile seul ; l‘interaction avec le client est fondamentale. Nous avons besoin des meilleurs PO. 

Comment y parvenir ? Comment améliorer l’implication de nos clients au quotidien ? Comment assurer un accompagnement de qualité pour leur transmettre notre expertise ? Soyons Scrum et posons-nous ces questions de manière itérative, à chaque rétro de sprint par exemple, et bien sûr à chaque bilan projet.  

Pour nous améliorer continuellement.  

Les 4 piliers de garantie de la réussite de votre projet digital

Dans la transformation digitale de nos jours, la réalisation des projets avec un time-to-market (TTM) raisonnable devient une obligation, notamment du fait de l’impact que peut avoir un projet digital sur le chiffre d’affaires d’une entreprise. Sans compter la concurrence rude qui ne cesse de s’intensifier autant pour le client que le prestataire. Qu’est ce qui peut donc impacter ce time-to-market et amener un projet à l’échec ? Je partage avec les 4 piliers d’un projet digital efficacement mené.

 

Généralement, le projet commence bien. On prépare le cahier des charges, on attaque ensuite les développements et vient enfin la phase de recette avant la mise en production. Et là, les bugs de toute nature commencent à s’accumuler et la date de livraison approche. On commence la correction, on essaye d’aller vite mais de nouveaux bugs sont créés. Le jour de la livraison ou juste un peu avant, on se trouve dans l’obligation de décaler la livraison pour une autre date.

La solution pour éviter cette situation se base sur 4 piliers : la définition de périmètre, la planification, la réalisation et les tests.

 

Premier pilier : le périmètre

 

Il définit tout ce qui doit être dans le projet et tout ce qui est hors projet. Vous devez obligatoirement connaître toutes les actions pour pouvoir finir un projet. Sinon, les besoins vont s’accumuler et la date de sortie va être régulièrement repoussée.

Pour rendre ce périmètre plus clair, deux étapes sont essentielles : le maquettage et la rédaction des spécifications.

  • Le maquettage de l’application web, mobile ou autre est la représentation d’une suite d’écrans qui permet d’imaginer la navigation et l’utilisation de l’application. Ceci va aider à accentuer les différents cas de figure envisageables. Il doit être réalisé en collaboration avec le client, valideur ou demandeur d’améliorations. Le client aura ainsi une vision plus claire de son projet et s’assure qu’il a la même compréhension que l’équipe projet.
  • La rédaction des spécifications, c’est mettre en détail chacun de ces écrans, ainsi que les différentes règles de gestion.

Détailler un projet au début permet d’éviter le développement à la fin.

 

La planification

Le planning de la réalisation du périmètre du projet est le 2nd pilier primordial à la réussite.

Le périmètre doit être tout d’abord découpé en fonctionnalité indépendantes qui peuvent être déployées en production séparément. Ces fonctionnalités doivent être classées en deux catégories : « Must have » et « Nice to have ». Les « must have » sont bien évidemment prioritaires et doivent être exécutées en premier.

Cette manière de planifier vous fait éviter l’effet tunnel dans un projet et permet de le déployer progressivement. À tout moment, le client peut décider de mettre en production une version et ne pas attendre la fin du projet.

La planification doit permettre une mise en production rapidement

 

La réalisation

Il est désormais temps de mettre en œuvre les fonctionnalités planifiées tout en respectant les maquettes et les règles de gestion. Mais comment mener cette réalisation ? Je pense qu’il est mieux que l’équipe s’organise elle-même pour déterminer les actions de chaque membre. En choisissant ses actions, le membre de l’équipe sera plus motivé à les prendre en charge.

L’estimation de chaque fonctionnalité est également faite par l’équipe, tout en restant dans des délais raisonnables. Certes, on peut imposer des estimations, mais ceci poussera vers le « quick and dirty », ce qui va augmenter le nombre de bugs pendant les tests et impacter la qualité.

Chaque fonctionnalité doit être bien définie et accompagnée du plan de test associé afin de rendre plus clair le travail demandé et éviter la mauvaise compréhension ou l’oubli de certaines règles de gestion.

Chaque fonctionnalité faite doit être prête pour la mise en production sans attendre la fin des autres fonctionnalités de projet. Il est souhaitable que toutes les fonctionnalités soient accessibles à partir d’un dashboard ou d’un tableau pour partager la visibilité d’avancement du projet avec toute l’équipe.

Avec tous ces éléments, l’équipe va garder un bon rythme d’avancement, être à l’aise, motivée et impliquée.

Une équipe impliquée finit rapidement et convenablement son projet 

 

La qualité du projet

Vous devez naturellement vous assurer que le produit livré correspond aux maquettes et spécifications préparées pendant la définition du périmètre et qu’il ne contient pas d’anomalie. Plus le projet est de bonne qualité, plus on se rapproche de la fin du projet.

Ce but peut être atteint par les développeurs et l’équipe de qualité. L’équipe de qualité doit préparer au début du projet le plan de tests sur la base des spécifications.  Ce plan devra être exécuté à la fin de chaque fonctionnalité développée pour s’assurer qu’elle est prête pour le déploiement. On évite ainsi de tout tester à la fin et de se retrouver avec des bugs qui bloquent la phase de tests.

L’équipe de développement a aussi un rôle important dans l’assurance de qualité de projet. Tout d’abord, en réalisant les fonctionnalités qui respectent les spécifications et les maquettes. Ensuite, en développant les tests automatiques exécutés à la fin de chaque fonctionnalité ou correction d’un bug.  Ces tests automatiques sont essentiels car ils allègeront le travail lors de la phase de recette et éviteronnt toute régression possible.

Un projet de bonne qualité est un projet à mettre tout de suite en production

Nous venons de faire le tour des clés de réussite sur lesquelles je me base pour chaque projet. S’il en existe d’autres (notamment les clés de réussite purement techniques – l’architecture technique, l’organisation du code, les outils de suivi de qualité de code…) celles-ci restent les fondamentaux à respecter !

De médecine à télémédecine : quelles transformations au travers du digital ?

Avec l’évolution des technologies (digital, Big Data, développement des applications, ubérisation des pratiques, etc.), plusieurs secteurs ont subi et subissent encore de profonds changements. Celui de la santé et de la médecine n’est pas en reste.

 

Les premiers pas de la digitalisation de la médecine

Dès 1998, la mise en place en France de la première version de la célèbre carte vitale marque un premier pas de la digitalisation. La carte vitale a permis de mettre à disposition de chacun (patients et professionnels de santé) un moyen de dématérialiser la corvée du remplissage des feuilles de soins et la transmission à l’assurance maladie, et par la même occasion, ce fut un moyen d’accélérer le remboursement des soins.

Toujours dans cette démarche de digitalisation, nous avons connu plus récemment la mise en place par l’assurance maladie du DMP, le dossier médical partagé. Le DMP est l’équivalent d’un carnet de santé numérique permettant de conserver et de sécuriser les informations de santé en ligne (traitements, résultats d’examens, allergies…) et de pouvoir les partager avec les professionnels de santé.

Mais à mon sens, ce qui a réellement permis de transformer la pratique de la médecine et l’accès aux soins fut la mise en place d’un cadre juridique pour la télémédecine, au travers de l’article 78 de la loi n°2009-879 du 21 juillet 2009 dite « HPST » (hôpital, patients, santé et territoires) par le gouvernement français.

La télémédecine, qu’est-ce que c’est ?

Selon les articles de loi, la télémédecine est « l’exercice de la médecine via les nouvelles technologies d’information et de communication ». C’est la pratique de la médecine à distance, permettant de mettre en lien des professionnels de santé entre eux ou en lien directement avec leur patient.

Cinq actes de télémédecine sont ensuite définis dans le décret n°2010-1229 du 19 octobre 2010 :

  • La régulation médicale, que l’on connait tous via l’activité du 15. Un médecin réalise un premier diagnostic du patient et l’oriente vers la prise en charge la plus adaptée. Celle-ci se fait majoritairement par téléphone, mais récemment, l’application mobile gratuite « MY 15 » permet :
    • La mise en contact directe avec les urgences
    • La géolocalisation avec une précision de moins de 10 mètres
    • L’envoi de photos, si le médecin régulateur des urgences en fait la demande, afin de mieux évaluer la gravité de la situation.
    • L’accès au dossier médical et l’intégration de photos et d’informations personnelles concernant les spécificités du patient, ainsi que les données administratives (identité, numéro de téléphone, nom du médecin traitant…).
  • La téléconsultation, qui permet à des patient seuls ou accompagnés par des professionnels santé de consulter à distance un médecin par l’intermédiaire d’outils technologiques. Le médecin peut ainsi réaliser une évaluation globale du patient via des appels téléphoniques, appels en visio ou messages électroniques, et poser un diagnostic. Grâce aux sites internet et applications mobiles dédiés, les patients disposent d’un docteur facilement accessible et les professionnels de santé ont plus de flexibilité dans leur pratique.

 

  • La téléexpertise, qui permet cette fois ci à un professionnel médical de solliciter à distance l’avis d’un ou de plusieurs médecins par l’intermédiaire des technologies de l’information et de la communication. C’est d’abord un acte médical et une action asynchrone (patient et médecin ne se parlent pas). Cela concerne deux médecins pendant ou à distance de la consultation initiale.

 

  • La télésurveillance, qui correspond à la possibilité pour un professionnel médical d’interpréter à distance et en temps réel des données recueillies sur le lieu de vie du patient. Celle-ci se tend à se démocratiser via l’IoT et le développement de dispositifs médicaux connectés, ce qui à l’avenir peut davantage donner de l’autonomie aux séniors et potentiellement libérer des lits d’hôpitaux.

 

  • La téléassistance, a pour objet de permettre à un professionnel médical d’assister à distance un autre professionnel de santé au cours de la réalisation d’un acte. L’exemple le plus marquant fut l’opération Lindergh réalisée dès 2001 où une patiente, hospitalisée au CHU de Strasbourg, a subi une ablation de la vésicule biliaire, alors que le chirurgien se trouvait à New York.

Avec l’évolution des télécommunications et l’amélioration des débits via la 5G, ce genre de pratiques se multiplient. Nous observons déjà un changement dans la relation patient/médecin, et avec le vieillissement de la population, la démocratisation du smartphone et des objets connectés (dispositifs médicaux connectés), ainsi que l’essor de la data, les opportunités d’innovation dans le secteur de la santé sont énormes. Les investissements pourront atteindre 410 milliards de dollars en 2022 selon le cabinet Grand View Research.