Web3, quand le web se décentralise

Face aux critiques liées à la centralisation du web sémantique, un nouveau concept voit le jour : le web3 ou web 3.0. Avec comme volonté de proposer une infrastructure décentralisée intégrant notamment des technologies de chaîne de blocs.

D’emblée, une précision s’impose : le web3 ne doit pas être confondu avec le web sémantique qui était la 3e version du protocole principal du WWW (world wide web) imaginé par Berners-Lee. Rappelons que le web 1.0 (années 1990-2004) était principalement constitué de sites web statiques d’entreprises et n’offrait qu’une interaction très limitée aux utilisateurs, tandis que le web 2.0 (2004 à aujourd’hui) a évolué avec l’émergence des plateformes de réseaux sociaux pour devenir en ‘lecture-écriture’, les utilisateurs pouvant générer du contenu et s’engager dans des interactions.

Concept

Si le terme est certes un peu ‘fourre-tout’ pour désigner une nouvelle vision d’un internet meilleur, le Web3 s’appuie sur les chaînes de blocs, les cryptomonnaies et les NFT (non-fungible tokens ou jetons non-fongibles, à savoir une donnée valorisée composée d’un type de jeton cryptographique qui représente un objet auquel est rattachée une identité numérique).

Plus besoin donc d’autorisation pendant l’utilisation d’un service sur la Toile, sachant que personne ne pourra bloquer un utilisateur ou refuser un accès. Bref, plus question de censure abusive. En effet, l’autonomie est le principe numéro 1 du web3 qui se veut un processus dégroupé et distinct. Par ailleurs, ce nouveau Web3 est conçu sur la base de protocoles et de langages standards du web.

Autre spécificité : le fait d’offrir à l’utilisateur un outil lui permettant de gérer lui-même ses activités. En d’autres termes, les géants du web ne devront plus piloter les données personnelles des utilisateurs. Ce qui sous-entend que ces grands du web n’auront plus la mainmise sur la Toile et ne serviront plus d’intermédiaire.

Avantages/inconvénients

Parmi les avantages du Web3, la propriété et le contrôle des données sont évidents, de même que la limitation du nombre d’intermédiaires puisque la chaîne de blocs permettra de connecter directement les entreprises à leurs clients. La transparence sera aussi au rendez-vous dans la mesure où les utilisateurs pourront tracer leurs données et contrôler le code source des plateformes qu’ils utilisent, le tout sans intermédiaire.

La recherche d’informations sera également plus efficace puisque le moteur de recherche ne vous présentera plus les pages les plus populaires, mais les résultats les plus pertinents grâce notamment au recours à la sémantique. L’expérience de navigation sera davantage personnalisée (les sites web pouvant mieux identifier les préférences de chaque utilisateur), tandis que les services seront ininterrompus puisque les données seront stockées sur des nœuds décentralisés. Enfin, le marketing sera plus ciblé et donc plus performant dans la mesure où les centres d’intérêt des utilisateurs seront mieux cernés.

En dépit de ces avantages, les observateurs estiment que le Web3 pourrait nécessiter des appareils assez sophistiqués. De même, le concept risque d’être difficilement à maîtriser par les néophytes, tandis que les sites web de générations précédentes devraient sembler démodés et nécessiter une mise à niveau vers le Web3. De même, l’accès aux données ne devrait pas être facilité. Enfin, la nature même du Web3, à savoir sa décentralisation, pourrait rendre son contrôle et sa régulation plus délicates, et donc favoriser potentiellement la cybercriminalité.

Cas d’usage

Aux dires des observateurs, le Web3 devrait à l’avenir s’imposer dans de nombreux domaines. C’est ainsi que l’économie de créateur (de contenu), la chaîne de blocs, les médias sociaux et les jeux à base de chaîne de blocs sont autant de technologies qui permettront l’essor du Web3, sans oublier les sciences décentralisées, les navigateurs, le stockage, les solutions de streaming décentralisé ou encore les applications de la vie réelle. En effet, les plateformes étaient jusqu’ici trop centralisées, obligeant ces créateurs à se plier aux contraintes existantes.

Cela étant, le concept reste flou et nébuleux. « Cela ressemble plus à un terme de marketing en vogue qu’à une réalité », aurait déclaré Elon Musk, CEO de Tesla et SpaceX, pourtant lui-même un crypto-enthousiaste convaincu.

Balbutiements

Si le Web3 n’en est encore qu’à ses débuts et que des progrès doivent encore être accomplis, il est clair que la donne a changé et que des applications innovantes vont voir le jour. A cet égard, une collaboration avec un partenaire IT se révèle pertinente, voire nécessaire.

Aprico ambitionne d’aider les entreprises à innover et à repenser leurs processus métier en mettant la sécurité au centre de leur réflexion stratégique. Nous pouvons partager les bonnes pratiques, technologies et modèles organisationnels qui permettront à l’organisation de s’ouvrir sur l’extérieur et de partager l’information en toute sécurité.

Data Fabric – Consolider les sources de données

Considérée par le cabinet Gartner comme l’une des principales tendances stratégiques technologiques de l’année, la data fabric permet l’intégration flexible et résiliente des différentes sources de données afin que les celles-ci soient disponibles partout où elles sont nécessaires. Mais comment y parvenir ?

Selon Tibco, spécialisée en logiciels d’infrastructures, la data fabric est une solution d’intégration et de gestion de données de bout en bout, composée d’un logiciel d’architecture, de gestion et d’intégration de données ainsi que de données partagées pour la gestion globale de données. La data fabric permet donc d’accéder et de partager les données avec une expérience utilisateur optimale dans un environnement sécurisé.

Avantages

Par rapport à des solutions traditionnelles d’intégration de données, la data fabric permet de gérer les données quelles que soient les types d’applications, de plateformes et d’emplacement de stockage. Elle répond dès lors aux exigences de connectivité en temps réel, de libre-service, d’automatisation et de transformations universelles.

Grâce au fait que la data fabric est avant tout une nouvelle architecture de données intégrée, l’organisation pourra mieux contrôler ses coûts, ses performances et l’efficacité de son stockage. Bref, savoir qui utilise quoi et comment, indépendamment de l’endroit de stockage des données et des applications. Et comme elle est gérée de manière centralisée, la data fabric est accessible partout, que ce soit sur site ou dans un cloud privé ou public.

En d’autres termes, la data fabric permet d’exploiter tout le potentiel des données pour répondre aux besoins business et gagner en productivité et compétitivité. De plus, les services IT peuvent tirer parti de la puissance du cloud hybride, gagner en automatisation et dès lors accélérer le développement, le test et le déploiement d’applications, tout en protégeant les ressources en continu.

Comment déployer une data fabric ?

Pour le cabinet Gartner, la data fabric ne doit pas se limiter à associer des technologies traditionnelles et modernes, mais se présente plutôt comme une approche susceptible d’optimiser la gestion des données en automatisant les tâches répétitives grâce à l’apprentissage machine.

Pour apporter une véritable valeur métier, Gartner estime qu’il faut s’appuyer sur une base technologique solide, puis identifier les fonctionnalités de base et évaluer les outils existants de gestion des données. Pour ce faire, associer des solutions développées en interne et achetées sur le marché est l’approche la plus appropriée. Ainsi, il serait possible de trouver une plateforme répondant à 65 ou 70% des besoins, après quoi les autres fonctionnalités proviendront d’une solution sur mesure.

Toujours selon Gartner, une data fabric globale doit être constituée de trois piliers. Primo, l’information contextuelle est à la base d’un concept de data fabric dynamique. En effet, il faut disposer d’un mécanisme permettant à la fabric d’identifier, de connecter et d’analyser tous types de métadonnées (techniques, métier, opérationnelles ou sociales). Secundo, la fabric doit convertir les métadonnées passives en métadonnées actives. Pour ce faire, il faut analyser en permanence les métadonnées disponibles au niveau des métriques et des statistiques clés pour construire ensuite un modèle graphique. Et tertio, la fabric devra générer et nettoyer les graphes de connaissance qui serviront aux décideurs à créer de la valeur métier en enrichissant les données à l’aide de sémantique.

Retour sur investissement

Alors que les entreprises ont aujourd’hui tendance à travailler en silos, ce qui crée de nombreuses façons différentes de gérer les données et d’y accéder, la data fabric entend répondre aux défis suivants : données situées sur plusieurs sites et dans le cloud, plateformes informatiques hétérogènes, données structurées et non-structurées qui se côtoient, niveaux de maintenance différents des fichiers, bases de données et application, sans parler de la croissance exponentielle des volumes de stockage.

Pour garantir un meilleur ROI possible, quatre conditions doivent être remplies : stimuler la réutilisation des données, éliminer les réplications inutiles de données, créer un jumeau numérique de tous les ‘objets’ de l’entreprise, et accélérer les délais d’analyse.

Une récente étude d’IBM estime que de 60 à 73% des données d’entreprise ne sont absolument pas exploitées. Or chacun sait que les entreprises qui gagneront demain et seront les plus compétitives sont celles qui allient connaissances et analyses des données. Il conviendra donc de combler le fossé entre connaissances disponibles et informations, puis de transformer les informations en analyses.

Aprico Consultants est une société de consultance de premier plan qui guide la stratégie et la transformation ICT dans le but de stimuler la performance, la productivité et la compétitivité de votre organisation. Nous combinons une expertise pointue à une parfaite compréhension du contexte et de l’expérience du client ainsi qu’une approche de bout en bout dans tous les secteurs, depuis la consultance jusqu’au déploiement de solutions.

L’ingénierie de données, préalable à l’exploitation optimale des données

Pour que le data scientist puisse exploiter de manière optimale les données présentes dans et en-dehors de l’organisation, encore faut-il qu’il dispose de données de qualité. Telle est la mission de l’ingénierie de données.

Permettez-nous d’enfoncer une porte ouverte : les données sont certes le nouvel or noir des entreprises, mais que les organisations croulent sous les données dont il est difficile, voire impossible, d’extraire des informations pertinentes et utiles, et donc de prendre les bonnes décisions au bon moment et au bon endroit.

Exploiter la donnée

Aujourd’hui, toute organisation stocke des données à la fois structurées et non-structurées, générées soit en interne, soit par des partenaires extérieurs ou des sources de données tierces, comme Google notamment. Ces données doivent être considérées comme de la ‘matière première’ qu’il conviendra de rendre intelligible.

C’est à ce niveau qu’intervient le data scientist dont la mission sera d’analyser les données en profondeur, de construire des modèles prédictifs et de communiquer les résultats aux ‘décideurs’ dans l’entreprise.

Traiter la donnée

Mais avant que le data scientist ne puisse traiter la donnée, il importera de la rendre exploitable. C’est le rôle dévolu au data engineer. Son travail consistera à travailler en amont du data scientist en créant des plateformes qui facilitent le traitement de gros volumes de données (big data) ainsi qu’en s’assurant que les échanges de données soient fiables et sécurisés.

Dans le cycle de la donnée, le data engineer intervient donc à deux niveaux, à savoir la collecte et le stockage des données. Il s’agira de construire des entrepôts de données de grande taille (datawarehouses) ou de plus petites tailles et dédiés (datamarts).

Métier spécifique

Alors que le data scientist analyse et exploite les données, le data engineer a davantage un profil de technicien. Son activité principale consiste à préparer les systèmes et les réseaux sur lesquels vont travailler les data scientists. Il lui revient de bâtir les réservoirs de données qui stockeront et tester les données. De même, il gèrera les systèmes de traitement et les bases de données et en assurera le bon fonctionnement.

Ses compétences sont davantage techniques et couvrent l’architecture de bases de données, la maîtrise des outils de modélisation et des langages de programmation, le codage, le recours aux technologies SQL et NoSQL ainsi que l’exploration des données, le cas échéant avec l’intelligence artificielle et l’apprentissage machine, ce qui exigera une bonne connaissance des algorithmes. Il va de soit que la compréhension des outils de big data comme Hadoop ou de l’ETL seront autant d’atouts.

Trois profils

Dans l’entreprise, l’ingénieur de données pourra remplir trois types de mission. D’abord, en tant que généraliste, assurer la collecte, la consolidation et le traitement des données de bout en bout au sein d’une petite équipe et dans le cadre d’un projet de petite dimension. Ensuite, l’ingénieur ‘pipeline-centric’ qui s’intégrera dans une équipe d’analytique de données de taille moyenne et prendra en charge des projets plus complexes dans le cadre de plateformes distribuées. Enfin, l’ingénieur ‘database-centric’ qui assurera l’implémentation, la maintenance et la dissémination de bases de données analytiques. Son rôle conviendra davantage à de grandes organisations où les données sont réparties entre différentes bases de données. En général, l’ingénieur de données travaillera sur les données à la fois structurées et non-structurées.

Globalement, les responsabilités de l’ingénieur de données seront : la conception et la gestion de bases de données et/ou du data lake ; la collecte de différentes sources et rapprochement ; la mise en place de pipelines permettant d’automatiser les différentes étapes d’acquisition des données, de l’extraction jusqu’au stockage ; la création d’outils permettant d’accéder aux données ; et la gestion de la scalabilité de l’infrastructure (horizontale et verticale) de manière transparente pour les autres acteurs.

Collaboration étroite

En général, l’ingénieur de données travaille au sein d’une équipe d’analytique en étroite collaboration avec le data scientist. Il fournit des données dans des formats exploitables par le data scientist qui lance des requêtes et fait tourner des algorithmes pour obtenir de l’analytique prédictif, de l’apprentissage machine ou du data mining. Par ailleurs, il livre des données agrégées à l’intention de la direction et des analystes ainsi qu’à d’autres utilisateurs à des fins d’analyse, ces résultats permettant alors d’améliorer les opérations.

Et si votre entreprise tournait sans serveur…

Enfin, sans une infrastructure de développement en interne, qu’il s’agisse de la plateforme et des logiciels associés. Avec l’arrivée du ‘as-a-Service’, même les développements informatiques se font dans le cloud, permettant ainsi d’éliminer une partie de la complexité liée à l’exploitation, et donc de rendre l’expérience développeur plus confortable. Sans parler de la réduction des coûts…

Le concept de base du serverless computing est relativement trivial : accéder à des services back-end facturés à l’utilisation. En d’autres termes, un fournisseur d’informatique sans serveur permet à son client d’écrire et de déployer du code sans se préoccuper de l’infrastructure sous-jacente et facture l’utilisation de ses services sur base de leur consommation. Certes, ce type de service fait évidemment appel à des serveurs, mais ceux-ci sont hébergés par le prestataire de services qui en assume la maintenance et l’évolution technologique.

En général, les services back-end proposés concernent les bases de données et le stockage, mais certains fournisseurs offrent aussi des plateformes de type FaaS ou Function-as-a-Service qui permettent aux développeurs d’exécuter de petites parties de code en périphérie du réseau. Par ailleurs, certains fournisseurs proposent également du BaaS (Backend-as-a-Service) qui englobe notamment des services d’authentification, des options de chiffrement plus poussées, des bases de données accessibles dans le cloud, etc. Dans ce type de modèle BaaS, les fonctions sans serveur sont en général appelées des API (interfaces de programmation d’applications).

Avantages

On l’aura compris, l’un des attraits majeurs de l’informatique serverless est de permettre de réduire les coûts d’investissement en serveurs puisque ceux-ci résident chez le prestataire de services. De plus, les coûts d’exploitation sont variables et limités à l’utilisation de la capacité de calcul et/ou de l’espace de stockage. De même, l’agilité souvent nécessaire aux développements permet de ne pas sous-dimensionner ou surdimensionner l’infrastructure. La productivité des développeurs pourrait en outre s’améliorer puisque ceux-ci ne devraient pas se charger des tâches d’approvisionnement et de gestion des serveurs, tandis qu’ils auraient à leur disposition une infrastructure répondant au plus près à l’évolution de leurs besoins.

En outre, la mise en production d’applications est plus rapide puisque le processus de déploiement est nettement réduit, tandis que les développeurs peuvent travailler avec des conteneurs gérés par le fournisseur de cloud.

Enfin, le serverless stimule l’adoption de pratiques DevOps, voire SecDevOps, dans la mesure où les développeurs ne doivent plus décrire explicitement l’infrastructure de développement que l’équipe d’exploitation doit leur fournir.

Inconvénients

Si l’informatique sans serveur peut apparaître comme idéale, il faut remarquer que le fait de ne pas disposer de ses propres serveurs et de ne pas contrôler sa logique côté serveur peut présenter certains inconvénients. De même, un fournisseur de services risque d’appliquer ses propres contraintes d’interaction avec ses serveurs internes, ce qui peut limiter la flexibilité et le niveau de personnalisation de l’infrastructure.

Enfin, comme toute dépendance vis-à-vis d’un fournisseur (le vendor lock-in), en cas de changement de prestataire de services, vous devrez probablement payer un surcoût pour la mise à niveau de l’infrastructure.

Cas d’utilisation

Une architecture serverless convient parfaitement aux applications asynchrones et stateless (une application sans état est indépendante et ne stocke pas de données ni de référence à une transaction passée, et est donc exécutée à partir de rien, comme si s’était la première fois). Ce type d’approche est également adapté pour faire face à des pics de demande peu fréquents et imprévisibles. C’est le cas par exemple du traitement par lots de fichiers image entrants.

Par ailleurs, le serverless peut s’appliquer aux cas d’utilisation basés sur des flux de données entrants, des chatbots, des tâches programmées ou de la logique métier. De même, les API backend et les applications web, l’automatisation des processus métier ou encore les sites web sans serveur constituent des cas pratiques intéressants.

Il est clair que l’arrivée sur le marché de solutions d’orchestration de conteneurs (style Kubernetes ou Knative dans le monde open source) qui permettent d’exécuter des applications conteneurisées sur une infrastructure automatisée contribue largement au succès du serverless.

Avenir

L’informatique serverless actuelle reste confrontée à certains défis, comme la problématique des démarrages à froid. En effet, un fournisseur qui constate qu’une fonction serverless spécifique n’est pas utilisée aura tendance à la désactiver. Et si le client décide de l’utiliser à nouveau, une certaine latence sera nécessaire avant le redémarrage.

Dès lors, avec le succès croissant du sans serveur ainsi que l’amélioration de l’intégration et des états, les fournisseurs devraient passer au ‘serverless 2.0’ et donner un nouvel élan à cette technologie.

Pour aider les organisations dans leur transformation numérique, Aprico Consultants collabore avec ses clients pour traduire la stratégie de l’entreprise, ses objectifs et ses contraintes en programmes de transformation pragmatiques qui délivrent une véritable valeur ajoutée et un retour sur investissement avéré. Aprico Consultants permet à ses clients d’accélérer résolument leurs processus de transformation numérique en apportant la flexibilité, la performance et la compétitivité nécessaires pour leur permettre de renforcer leur position sur le marché.

Les API au centre de transformation numérique

La gestion et la gouvernance des API (application programming interfaces) peuvent permettre de stimuler le business en ouvrant de manière sécurisée les systèmes d’information de l’entreprise et en facilitant la migration vers le cloud.

Comme chacun sait, une API est une solution logicielle permettant à des applications de communiquer entre elles. En outre, elles sont au cœur du cloud puisqu’elles facilitent l’exploitation de services dans le nuage et sont le fondement de la transformation numérique en adaptant des plateformes autrefois fermées en systèmes ouverts et interconnectés. Enfin, elles sont la porte d’entrée du système d’information, que ce soit au niveau des données ou des services.

En effet, une API bien conçue peut être partagée, sécurisée, distribuée, contrôlée et monétisée sur une plateforme d’infrastructure qui prend en compte les performances, le contrôle des utilisateurs et l’évolution future.

Stimuler l’adoption des API

Pourtant, il semble que les API ne soient pas suffisamment mises en œuvre par les entreprises. Ainsi, une étude récente du cabinet Forrester Consulting baptisée « 2022 Axway API Adoption Survey » montre que 71% des organisations interrogées n’ont pas obtenu les résultats commerciaux prévus de leurs API. Et 86% des décideurs en matière d’API admettent que la valeur de leurs API ne réside pas tant dans leur seule existence que dans leur consommation. « De nombreuses entreprises sont enthousiasmées par les API, mais il est essentiel de se concentrer sur la création des bonnes API, celles qui apportent une valeur commerciale. Ce qui manque souvent, c’est une vue globale des API pour prendre des décisions fondées sur des données », analyse Brian Pagano, chief catalyst d’Axway. Avant d’enchaîner : « La bonne plateforme de gestion des API permet de combler le fossé entre le développement et l’utilisation grâce à une gouvernance centralisée et automatisée. »

Il importe donc d’instaurer une culture de l’API en faisant de celles-ci non pas une solution technique, mais bien une source de business. « Ce qui manque souvent, c’est une vision globale des API et des métriques pour prendre des décisions fondées sur des données », poursuit Brian Pagano.

Gouvernance des API

De son côté, le cabinet Forrester estime dans son rapport « The Forrester Wave, API Management Solutions, Q3 2020 » que, compte tenu du large éventail de cas d’utilisation des API, l’entreprise doit se montrer particulièrement prudente dans le choix de son fournisseur d’outils de gestion d’API. Ainsi, il faudra que ce dernier s’aligne sur la stratégie en matière d’API de l’entreprise, notamment en assurant une couverture la plus large possible de ses besoins. Ce fournisseur devra par ailleurs comprendre la manière dont l’entreprise s’engage vis-à-vis de ses utilisateurs, qu’ils soient internes ou externes. Ainsi, une entreprise pourra être ‘dirigiste’ et définir des procédures très strictes et une documentation très structurée, ou au contraire non interventionniste et donc adepte du laisser-faire pour les développeurs.

Enfin, le fournisseur devra soutenir les processus de conception d’API et permettre ainsi d’avoir des flux cohérents de bout en bout lorsque ces solutions de gestion seront combinées à d’autres outils.

Avantages

Une solution de gestion des API vise à centraliser le contrôle des API et devra inclure les fonctionnalités suivantes : un portail pour les développeurs (permettant d’accéder à la documentation et aux processus d’intégration), une passerelle d’API (le point d’entrée unique), des fonctions de gestion du cycle de vie des API (depuis leur déploiement jusqu’à leur retrait), des fonctions d’analyse (pour suivre l’activité des API) et un support de la monétisation des API (dans le cadre de contrats d’utilisation).

Si les API facilitent grandement la tâche des développeurs, encore faut-il que ceux-ci soient en mesure de les découvrir, de s’y abonner et de les utiliser. En effet, 69% des DSI interrogés dans l’étude d’Axway évoquée ci-dessus indiquent que le retour sur investissement des API augmenterait de 21% en moyenne si les API étaient mieux exploitées dans l’entreprise.

Enjeux

Si les choix technologiques sont (évidemment) importants, la composition des équipes chargées de la gestion des API est un aspect à ne pas négliger. (4) En effet, il faut pouvoir combiner des compétences diverses et variées afin de constituer un écosystème susceptible d’évoluer dans le temps. Par ailleurs, la gouvernance du programme API revêt une importance particulière.

Enfin, il faudra sans doute recourir à de la consultance externe, surtout si l’équipe de gestion API est réduite ou de de nouvelles équipes sont mises en place.

Aprico Consultants est une société de consultance de premier plan qui guide la stratégie et la transformation ICT dans le but de stimuler la performance, la productivité et la compétitivité de votre organisation. Nous combinons une expertise pointue à une parfaite compréhension du contexte et de l’expérience du client ainsi qu’une approche de bout en bout dans tous les secteurs, depuis la consultance jusqu’au déploiement de solutions.

IT Balanced Scorecard – IT BSC, ou comment optimiser la gestion de la stratégie l’IT

Gérer la stratégie de transformation numérique et sa mise en œuvre dans une organisation peut être encadrée par un outil de balanced scorecard (BSC) déjà largement utilisé pour mesurer la performance de la stratégie d’entreprise.

Concept né dans les années ’90 à la Harvard Business School, le balanced scorecard est destiné au départ à ne pas limiter la gestion stratégique d’une entreprise à des mesures financières uniquement. L’idée était donc de gérer la performance stratégique à l’aide d’un tableau de bord équilibré qui permet de traduire la stratégie et la mission d’une organisation sous forme de critères tangibles susceptibles d’être mesurés et prioritisés.

En pratique, quatre axes avaient été définis sur la base de tableaux de bord : perspective financière (économie), perspective des processus métier internes (processus), perspective client (client) et perspective de connaissance, de formation et de croissance (apprentissage). Des indicateurs sont ensuite déterminés pour chaque perspective en fonction du contexte et des besoins de pilotage.

IT BSC

Comme l’informatique s’impose comme un composant essentiel de la gestion d’une organisation, il devenait indispensable de mesurer les performances de l’IT et de définir ses objectifs stratégiques. Or l’émergence du cloud et des méthodologies agiles modifient fondamentalement le pilotage de l’IT, sans oublier évidemment l’externalisation informatique et le concept ‘as-a-Service’.

Toutes ces nouvelles évolutions modifient en profondeur les rôles, les comportements et les compétences des équipes IT. De nouvelles valeurs voient le jour, comme la transparence et la gouvernance, tandis que les missions des informaticiens se transforment, passant d’un rôle d’exécution à celui d’encadrement, de coordination et de support. De même, le manager voit sa fonction se transformer vers une position de pilotage plutôt que de contrôle.

Quelle approche ?

Globalement, deux approches peuvent être envisagées. D’une part, utiliser les métriques existantes du BSC d’entreprise pour les appliquer à l’IT, avec comme avantage que toutes les parties « parlent le même langage ». En l’occurrence, les critères employés dans les départements RH, finances ou comptabilité pourraient servir dans l’IT.

L’autre approche consiste à créer des tableaux de bord spécifiques à l’IT en s’appuyant sur les quatre axes évoqués ci-dessus et en les adaptant aux besoins de l’IT, voire en créant de nouveaux critères de mesure. Dans ce cas, les experts suggèrent d’opter pour des KPI (key performance indicators) qui soient distincts de ceux du BSC d’entreprise.

En pratique, il s’agira dans un premier temps de définir les objectifs pour chaque vue du tableau de bord prospectif. Ensuite, il conviendra de choisir des indicateurs pertinents pour chaque objectif, puis de fixer une valeur cible (le niveau de performance souhaité). Enfin, il s’agira de sélectionner des initiatives stratégiques, à savoir des actions et projets menés pour atteindre les objectifs fixés. En fonction des actions/projets choisis, il sera peut-être nécessaire de descendre d’un niveau et de s’intéresser aux plans d’action opérationnels.

A noter que les actions menées pour chaque perspective s’inscrivent dans une cohérence d’ensemble où l’on retrouve donc à la fois la vision, les objectifs, les indicateurs et les initiatives.

Défis

Si le BSC et l’IT BSC sont désormais assez largement répandu dans les (grandes) entreprises, plusieurs défis doivent cependant encore être relevés. Ainsi, l’IT BSC exige une customisation plus ou moins importante, ce qui est lourd en termes de ressources et de délai de mise en œuvre, mais risque également de s’écarter de l’objectif premier, à savoir de mesurer sur une même base le département informatique et les autres entités organisationnelles.

De même, cet IT BSC exige l’adhésion des collaborateurs du département informatique ainsi que du management pour assurer des mesures à la fois cohérentes et précises. De même, une nouvelle culture d’entreprise devra être instaurée pour éviter que l’on se tourne trop vers le passé – « C’est ce que l’on a toujours fait ! » – pour se concentrer sur ce qui est aligné ou non sur la stratégie.

Valeur ajoutée

L’implémentation d’un IT BSC se justifie par plusieurs raisons : offrir une vue cohérente de la stratégie IT, améliorer la communication stratégique avec l’IT, renforcer la compréhension entre les différents métiers au sein du département IT, définir un engagement plus fort vis-à-vis des objectifs définis et enfin mettre en place l’apprentissage stratégique.

Plus globalement, l’IT BSC permettra de mesurer la valeur IT de l’organisation et lui permettre dès lors de s’approprier des projets à haute valeur ajoutée et innovants.

Aprico Consultants est une société de consultance de premier plan qui guide la stratégie et la transformation ICT dans le but de stimuler la performance, la productivité et la compétitivité de votre organisation. Nous combinons une expertise pointue à une parfaite compréhension du contexte et de l’expérience du client ainsi qu’une approche de bout en bout dans tous les secteurs, depuis la consultance jusqu’au déploiement de solutions.

Bug bounty – Des primes au bogue pour améliorer la sécurité ?

Qui mieux qu’un pirate informatique est à même de vérifier la sécurité d’une application mise au point par un développeur ? Avec à la clé un ‘bug bounty’ ou prime aux bogues. Selon le principe : « C’est avec les braconniers que l’on fait les meilleurs gardes-chasse. »

Le principe du bug bounty est trivial. Aujourd’hui encore, le développement de logiciels reste un processus complexe et fragile, souvent réalisé par des humains. Et comme « l’erreur est humaine », un logiciel est donc susceptible de comporter des fautes. D’autant qu’un tel logiciel est en général conçu par plusieurs développeurs qui ne sont pas forcément toujours sur la même longueur d’onde. De plus, un logiciel est classiquement soumis à des mises à niveau et autres améliorations qui le complexifient, ce qui multiplie le risque de problème. Sans oublier que dans l’urgence (le métier attend normalement son application avec impatience), le logiciel n’est pas toujours soumis à des tests et vérifications poussées, tant au niveau de la cohérence du code que de la (cyber-)sécurité notamment.

Et avec les projets numériques qui se multiplient au sein des entreprises, la pression sur l’informatique pour accélérer le déploiement d’applications se fait toujours plus forte, d’où le risque de court-circuiter le processus de vérification du code et de sécurisation des programmes.

Récompense

Vous l’aurez compris : un logiciel n’est jamais parfait, n’en déplaise aux développeurs d’applications. Et si les outils de sécurité se cessent de se développer, aucun logiciel n’est à l’abri d’une faille. D’où l’idée émise par certaines organisations de renforcer leur cybersécurité en mettant en place des solutions de bug bounty visant à embaucher des pirates éthiques pour découvrir et signaler une vulnérabilité dans une application. Bref, de proposer à des chasseurs de prime ‘de confiance’ de mettre leurs compétences diverses et variées au service de la sécurité des applications.

En pratique, un programme de prime aux bogues commence par la définition du périmètre à sécuriser et du budget alloué. Cela permet à l’entreprise d’exclure certains domaines, notamment pour éviter de perturber le fonctionnement de l’organisation. Par ailleurs, le montant de la récompense sera en général proportionnel à l’impact potentiel de la faille découverte. Même s’il faudra éviter bien sûr que le pirate éthique se contente des ‘low hanging fruits’, entendez les résultats faciles et donc les plus rémunérateurs. Cela dit, la motivation des hackers n’est souvent pas le seul appât du gain.

Une fois que le pirate aura découvert une faille, il conviendra de lui demander un rapport précis du problème ainsi que de son impact et son degré de gravité. Ensuite, le pirate précisera la manière de reproduire le bug, ce qui permettra aux développeurs de le documenter et de le confirmer. Après quoi la prime sera versée…

En pratique

Globalement, deux approches peuvent être envisagées pour la mise en place d’une solution de bug bounty. D’une part, héberger en interne une telle solution. Mais au préalable, il faudra prévoir une plateforme de communication, un système de suivi des bugs et une passerelle de paiement. L’autre méthode consiste à s’adresser à l’un des nombreuses plateformes existantes. Citons par exemple YesWeHack, Open Bug Bounty, HackerOne, BugCrowd, SafeHats, Intigriti ou Synack.

Ajoutons que pour aider les entreprises à mettre en place une approche de bug bounty, le Centre pour la CyberSecurity Belgium propose sur son site (4) une ‘coordinated vulnerability disclosure policy’ CVPD. Il s’agit d’un ensemble de règles définies à l’avance par une organisation responsable des systèmes IT pour permettre à des pirates éthiques d’identifier les vulnérabilités potentielles dans ses systèmes ou de fournir toute information pertinente à propos de ces failles. Un tel programme de prime aux bogues couvre l’ensemble des règles établies par l’organisation responsable pour donner des récompenses aux participants qui identifient des vulnérabilités dans les technologies qu’elle utilise. Il s’agit d’une sorte de politique coordonnée de divulgation des vulnérabilités qui prévoit des primes en fonction du volume, de l’importance et de la qualité des informations fournies.

D’ores et déjà, de nombreuses grandes entreprises ont mis en place des approches de primes aux bogues. Et notamment la plateforme d’e-commerce Shopify qui a fait de la sécurité une priorité absolue. Ou encore le site d’appli mobile Yelp qui publie des avis participatifs sur les commerces locaux.

Aprico ambitionne d’aider les entreprises à innover et à repenser leurs processus métier en mettant la sécurité au centre de leur réflexion stratégique. Nous pouvons partager les bonnes pratiques, technologies et modèles organisationnels qui permettront à l’organisation de s’ouvrir sur l’extérieur et de partager l’information en toute sécurité.

Équilibre vie privée/vie professionnelle : aussi en consultance

Trouver son équilibre personnel vie privée/vie professionnelle
Le risque d'épuisement professionnel pour les consultants IT ? Oui, il existe. Pour préserver votre qualité de vie, déterminez votre propre charge horaire et mentale maximum.

Trouver le bon équilibre, c’est une valeur à laquelle nous tenons, chez Aprico. Mais aussi un exercice propre à chacun de nos consultants. Pour vous, la balance vie privée/vie professionnelle se calcule-t-elle en charge horaire, en charge mentale, en quality time avec votre famille, en activités sociales, sportives, personnelles ? Voici quelques trucs afin de placer le juste curseur pour vos besoins.

Avec le travail hybride, la question de l’équilibre vie privée/vie professionnelle se pose encore davantage. Certains prônent une séparation claire et matérielle. D’autres estiment qu’il s’agit d’une frontière impossible à dessiner, surtout parmi les consultants… Une chose est certaine : il n’y a pas de mesure universelle. Tout simplement parce que cette notion d’équilibre est propre à chacun.

Dans un autre article, nous vous avions déjà fait découvrir pourquoi la discipline appliquée en mission de consultance ou en privé permet de booster votre épanouissement personnel.

Une cause, plusieurs effets

Vous l’avez déjà remarqué : un surcroît de travail peut entraîner un regain d’énergie chez les uns et un ras-le-bol chez les autres. Parfois, ces deux extrêmes s’observent chez la même personne à des moments différents. Comment savoir où vous vous situez ? Grâce à un exercice très simple qui ne nécessite qu’un papier et un crayon : le camembert de votre vie. On essaye ?

  • Dessinez un camembert et divisez-le en autant que parts que vous identifiez de domaines de votre vie qui comptent à vos yeux. Par exemple : le travail, la famille, les amis, le couple, la santé, les loisirs…

Certains y ajoutent l’argent, la spiritualité, le sommeil ou encore la contribution au monde.

  • Sans trop réfléchir, notez ensuite quelle proportion chaque domaine représente en ce moment.
  • Faites ensuite le même dessin avec la proportion qui vous permettrait d’être en équilibre.

L’équilibre est une valeur relative

Ready ? Cet exercice n’a d’autre objectif que de mesurer ses propres marges de progression à l’instant T. De prendre conscience de ce qui fonctionne plus ou moins bien. Et de déterminer une stratégie d’évolution pour équilibrer notamment vie privée et vie pro. Sans pression. Mais avec l’aide de quelques outils que vous dévoile plus loin. L’exercice peut être répété tous les ans ou même plus souvent, avec des résultats différents. Normal : l’équilibre est une valeur relative.

Les astuces (testées et approuvées)

  • Assumer sa part de responsabilité. Certes, le contexte et la situation jouent un grand rôle dans notre surcharge. Mais notre façon d’y réagir aussi. Nous sommes responsables des limites que l’on pose (ou qu’on ne pose pas).
  • Ne pas attendre. Quand on se trouve avec trop de choses à faire en trop peu de temps, il faut réagir. Non pas en rognant sur ses heures de sommeil, mais en optimisant son temps de travail, en ajustant sa to-do list, en renégociant les délais…
  • Mettre un frein au perfectionnisme. Souvent, être efficace est préférable à être parfait. Parfois, la version « good enough » est juste ce dont on a besoin pour passer à l’étape ultérieure d’un projet. Exceller plutôt qu’être parfait, c’est possible.
  • Déléguer. Demander un coup de main à l’équipe. Chez Aprico, on est une grande famille, vous le savez. Pas seulement avec un suivi RH classique, mais avec un coaching personnel.
  • Aligner des petits objectifs. Pour faire le tour du monde, il faut parcourir 40.000 kilomètres. Mais chaque pays traversé est une avancée à ne pas négliger.
  • Prioriser. Et pas seulement sur le plan professionnel. Tout ce qui vous donne de l’énergie et vous nourrit constitue une priorité : du match de hockey du petit dernier au week-end anniversaire prévu depuis 3 mois.
  • Inscrire ses routines positives à l’agenda: le lunch avec maman, les longueurs à la piscine, le cinéma du samedi… Ils sont aussi importants que vos réunions et échéances pros.
  • Faire des pauses. Sans technologie. Au grand air. Bouger. Respirer. Se vider la tête.

Découvrez l’équilibre vie privée/pro en tant que consultant chez Aprico

  • Vous bénéficiez d’un accompagnement à votre rythme. Une équipe vous guide et vous oriente.
  • Nous assurons le paiement de vos factures et défendons vos intérêts. Toujours.
  • Vous rejoignez une grande famille qui a le sens de la collaboration.
  • Chez Aprico, tout le monde vous connaît (et vice versa).

Envie de rejoindre Aprico pour déployer vos compétences en stratégie et transformation ICT ?

Optez pour une mission qui vous colle à la peau



IT Financial Management – Gérer les budgets IT avec l’ITFM

Après deux années où la pandémie et le confinement ont contraint l’informatique à déployer, souvent dans l’urgence, le cloud et le télétravail – le tout associé évidemment à la sécurité -, il est à présent temps de reprendre une vitesse de croisière. Et de – mieux – gérer les dépenses IT dans le cadre de l’ITFM ou IT Financial Management

A présent que la crise du Covid-19 est – pratiquement – oubliée, l’informatique peut se concentrer pleinement sur la poursuite de la transformation numérique, même si le confinement en avait accéléré le déploiement. Ainsi, le cabinet de consultance Gartner prévoit pour cette année 2022 une hausse des dépenses IT mondiales de 5,1% par rapport à 2021, soit 4.500 milliards de dollars, grâce notamment à la reprise économique qui s’amorce. D’ailleurs, « 2022 is the year that the future returns to the CIO », estime John-David Lovelock, distinguished research vice president chez Gartner. « They are now in a position to move beyond the critical, short-term projects over the past two years and focus to the long term. »

Phasage

Toujours selon Gartner, l’ITFM vise à gérer le département informatique comme n’importe quelle entité d’une organisation. Les outils d’ITFM fournissent aux CIO une analyse détaillée des coûts et de la consommation IT et sont conçus pour améliorer la prise de décisions (financières) en fournissant en temps réel différents niveaux de vues sur le coût total de l’IT. Il s’agit donc d’agréger l’ensemble des postes de coûts IT, un défi d’autant plus grand que les organisations modernes combinent des activités sur-site et dans le cloud, qu’il soit privé, hybride ou public.

En pratique, un projet d’ITFM s’étale en moyenne sur trois à six mois et devrait s’effectuer en trois phases. D’abord, un état des lieux des processus de suivi budgétaire et de refacturation. Ensuite, une définition de la taxonomie cible, ce qui permet de mettre en place un standard budgétaire multidimensionnel spécialement adapté aux projets cloud et agiles, particulièrement consommateurs d’Opex (entendez les dépenses d’exploitation) à l’inverse de l’infrastructure notamment, davantage axée sur le Capex ou les dépenses d’investissement. Différentes solutions existent sur le marché, par exemple le Cigref en France ou le Council TBM 4.0 (Technology Business Management) et ont pour but d’industrialiser la consolidation et l’affectation des dépenses IT. Enfin, l’intégration de cette taxonomie avec les outils IT existants, notamment FinOps et comptables, avant le basculement par entité.

Bénéfices

Si la remarque « L’IT coûte cher » vous est familière, sans doute l’ITFM est-il la réponse. Dans une organisation en effet, il n’est pas rare que le coût réel de l’informatique soit mésestimé, d’autant plus avec l’émergence du cloud et du ‘As-a-Service’, sans parler évidemment de la ‘shadow IT’ où les utilisateurs achètent et consomment des services et ressources informatiques sans le contrôle du département IT.

En mettant en place une solution d’ITFM, l’entreprise sera en mesure de contrôler très précisément ses coûts, lui permettant de réduire ou d’éliminer les coûts jugés inutiles ou peu opportuns. Elle pourra également évaluer et prioritiser des projets et initiatives en fonction d’un rapport coûts/bénéfices rigoureux. De même, les utilisateurs finaux pourront être conscientisés au coût réel de leur demande de ressources grâce à une évaluation plus précise des investissements. De même, les coûts pourront être affectés très précisément à chaque projet et activité, d’où une plus grande transparence et une meilleure ‘accountability’ de chaque entité.

Grâce à un contrôle financier plus fin, l’entreprise pourra avoir une meilleure visibilité sur son IT hybride, associant à la fois des ressources/applications sur-site, mais aussi dans le cloud. Enfin, cette gestion financière stricte permettra de mieux planifier le budget futur, puisque ‘mesurer, c’est savoir’.

Clés du succès

Sachant que, toujours selon le consultant Gartner, la moitié des dépenses IT se feront dans le cloud d’ici 2025, la mise en place d’une stratégie d’ITFM apparaît comme indispensable. Mais elle obligera toute l’organisation à repenser ses pratiques et à impliquer l’ensemble des entités à tous les niveaux.

En effet, le succès d’une solution d’ITFM passe par une analyse approfondie de chaque coût, la consolidation des différentes données, puis leur analyse avant la prise de décisions sur la base de chiffres disponibles en temps réel.

Comme cette gestion financière se doit d’être globale, il est sans doute opportun de commencer par un modèle basique qui sera ensuite étendu à toute l’organisation. Et à chaque fois qu’un nouveau projet ou une nouvelle dépense sera envisagée, il conviendra de s’appuyer sur cette structure ITFM et de l’alimenter pour créer une boucle vertueuse. De même, un changement de culture devra être initié pour impliquer chacun. En l’occurrence, des ‘quick wins’ permettront de convaincre les différents acteurs de la pertinence d’une telle solution d’ITFM.

Le projet d’ITFM s’inscrit – évidemment – dans la cadre plus vaste de la transformation numérique. Accompagner les entreprises dans leurs projets de transformation numérique : telle est la mission d’Aprico Consultants. Un accompagnement qui se veut à la fois stratégique et technologique. Pour supporter sa stratégie, Aprico a mis au point une méthodologie de travail originale articulée selon trois axes : smart, lean and agile.

Hyperconnexion : comment rester concentré

Surconnexion, hyperconnexion : comment fixer les limites
Et si même les pros de la technologique devaient s’imposer une pause technologique ? Trucs et astuces pour rester concentré en mission (et en dehors) …

Être joignable en permanence ou revendiquer le droit à la déconnexion ? C’est le dilemme auquel nous confronte l’hyperconnexion. Elle a l’avantage de doper notre agilité, mais peut se révéler un cauchemar pour le consultant. Au programme de la solution : pause technologique, set-up intelligent des outils… Suivez- le guide.

Avoir la possibilité d’être connecté en permanence a changé notre vie dans tous ses aspects. Dans le domaine du travail, c’est cette connectivité permanente, quel que soit l’endroit (ou presque), qui a permis de switcher pour le travail à distance du jour au lendemain. Elle a permis de continuer à collaborer, de se montrer agile et productif à distance, parfois même plus que sur site. Bravo !

Êtes-vous surconnecté ou hyperconnecté ?

Mais il y a un revers à la médaille. Des répercussions sur la qualité de vie, sur le moral et la santé. On dit d’un collaborateur ou d’un consultant qu’il est en état de surconnexion lorsqu’il multiplie l’utilisation d’outils nomades et numériques et y consacre beaucoup de temps sur sa journée de travail. Notre lot quotidien. On parle d’hyperconnexion quand il n’arrive pas à décrocher du boulot et à faire la distinction entre vie privée et vie professionnelle . Vous méritez mieux, on en est convaincus.

Toute ressemblance avec une personne existante…

La bonne nouvelle, c’est que les clés de la tranquillité d’esprit, de l’implication (engagement) et de la productivité sont les mêmes en mission et à la maison. Les gestes qui vous permettront de rester concentré jusqu’à la fin de votre tâche en situation de travail sont les mêmes que celles qui vous permettront de profiter d’un moment en famille sans interruption.

Les études regorgent de chiffres pour étayer ce constat. Nous serions interrompus par des e-mails 14 fois par jour. Certains consultent leurs mails toutes les… 6 minutes ! Pire encore, un manager cumulerait 2 journées de travail à gérer ses mails et à écouter des réunions sans intérêt direct chaque semaine. Chez Aprico, nous accompagnons nos consultants  afin de rester efficace dans leurs missions.

Des pauses sans technologies

Comment rester concentré ? Plusieurs penseurs et chercheurs, qu’ils soient économistes ou psychologues, se sont penchés sur le sujet. Quelle que soit l’approche, la solution serait une question de priorisation, de limites et de pleine conscience. Par exemple, le simple fait de prendre des pauses sans technologie, comme une petite marche, manger dehors, permettrait d’augmenter notre concentration de façon notable et immédiate. Reste à ne pas profiter de sa pause au boulot pour checker ses réseaux. (au fait, votre profil LinkedIn est-il optimisé?)

Configurer et filtrer

Un autre truc efficace serait de bien configurer ses alertes et ses mails, filtrer les émetteurs ou les priorités en amont, afin de ne recevoir que les informations souhaitées sans être noyé sous les messages. Cela permet de rester disponible pour ce qui le nécessite et de choisir quel est le moment adéquat pour prendre connaissance du reste. Bon nombre de messageries le permettent. Et configurer un message de réponse automatique permet de rassurer votre interlocuteur sur le délai de réponse.

Multitasking, mais pas trop

On vante souvent le fait d’être multitâche. Pourtant, ce serait un frein à la concentration lorsque les deux tâches occupent la même fonction. Par exemple, écouter de la musique n’empêche pas de faire son jogging. Mais le fait de consulter ses mails ou ses réseaux pendant une réunion empêcherait tout focus, au point de nous empêcher de produire et de créer correctement. Le conseil ? S’occuper d’une chose à la fois, selon une liste établie et hiérarchisée, pour agir rapidement et avec efficacité.

À la recherche d’une mission en IT ?

Chez Aprico, la diversité fait partie de nos valeurs. Nous tenons compte de votre personnalité et de vos compétences. En tant que consultants IT, vous bénéficiez d’un accompagnement tout au long de votre carrière. Cerise sur les cookies ? Nous assurons le paiement rapide de vos factures et défendons vos intérêts. Toujours.

Envie d’une mission sur mesure ?

Consultez nos opportunités et mettez-nous au défi lors d’une première rencontre


Careers opportunities

We’re always looking for talented people.
Are you one of those?