ChatGPT – Quel apport pour votre entreprise ?

Si l’intelligence artificielle peut paraître encore relativement abstraite pour bon nombre d’entreprises, l’arrivée de l’agent conversationnel d’intelligence artificielle ChatGPT ouvre de multiples applications pratiques. Votre entreprise doit-elle investir dans ce nouvel outil ?

Selon le cabinet MarketsandMarkets, le marché mondial des agents conversationnels devrait représenter pas moins de 10,5 milliards de dollars à l’horizon 2026, soit une croissance annuelle cumulée de 23,5%. Or l’arrivée de ChatGPT semble donner un coup d’accélérateur extraordinaire à l’intelligence artificielle puisque l’outil recensait 1,8 milliard de visiteurs en avril 2023, soit 7 fois le nombre de visiteurs enregistrés en décembre 2022.

Pour rappel, ChatGPT est un outil de traitement du langage naturel qui permet aux humains de converser avec un agent doté d’intelligence artificielle. Cet outil applique des algorithmes d’apprentissage machine à un volume considérable de textes puisés sur l’internet pour répondre à des requêtes en utilisant un langage proche de celui utilisé par l’homme.

Certes, ChatGPT a ses limitations, notamment dans la qualité des textes de départ et dans les biais potentiels liés à l’apprentissage du système. De même, faire tourner ChatGPT est très coûteux en termes de puissance de calcul.

Avantages

Mais la solution présente de multiples avantages. Ainsi, GPT-3 – le modèle de base de l’outil – se révèle versatile dans la mesure où le modèle de langage est capable de traiter un large éventail de domaines et de questions, avec des réponses précises indépendamment du secteur ou du contexte. En outre, la communication est naturelle, ce qui offre une expérience utilisateur optimale et permet aux utilisateurs d’être à l’aise.

La compréhension contextuelle de ChatGPT est optimale puisque la plateforme dispose d’un très large éventail de données de formation. De plus, l’outil peut générer des réponses ouvertes, ce qui lui permet de continuer à converser avec l’utilisateur et lui offrir des informations complémentaires sur la base de la discussion entamée. Enfin, ChatGPT peut apprendre et s’adapter sur la base de données nouvelles ou d’interactions avec les utilisateurs, d’où la capacité d’améliorer constamment ses performances et d’offrir un support toujours plus personnalisé.

Pour quelles activités de l’entreprise ?

Selon les experts, il est possible d’identifier plusieurs domaines où ChatGPT peut induire rapidement de la transformation, et donc générer des bénéfices. Ainsi, le service et le support à la clientèle est le premier secteur susceptible d’être impacté par le traitement en langage naturel. En effet, en intégrant les assistants virtuels et autres chatbots à ChatGPT, la satisfaction client pourra être améliorée grâce à une réponse plus rapide et plus précise à la demande d’un utilisateur/client.

De même, la création et l’édition de contenu apparaissent comme des activités où cet outil pourra simplifier le travail des marketeurs en créant des blogs, posts, contenus de médias sociaux, courriels, etc. En outre, la solution peut servir à améliorer et éditer des textes en corrigeant les éventuelles erreurs de grammaire, de syntaxe ou d’orthographe.

Toujours en marketing et ventes, ChatGPT pourra aider au développement de campagnes promotionnelles grâce à l’analyse de tendances de consommation et participer à la mise en place d’actions de communication.

Dans les ressources humaines, l’outil pourra accélérer et optimiser les processus de recrutement, tandis que dans la formation, les processus d’apprentissage pourront être fluidifiés et améliorés. D’autres domaines sont également susceptibles d’être impactés, comme le reporting et l’analyse de données, la gestion d’agendas ou encore le développement de produits et l’innovation.

À noter encore que dans le développement de logiciels, ChatGPT pourrait être utilisé pour convertir du code écrit dans un langage de programmation en un autre code en utilisant la même technique que celle appliqué au langage naturel.

Risques et limitations

Si ChatGPT pourrait potentiellement transformer de nombreux aspects de l’activité d’une organisation grâce à ses capacités de traitement du langage naturel, il ne faudrait pas passer sous silence certains risques et contraintes, indépendamment des aspects plus philosophiques et sociétaux (largement répercutés dans les médias). En effet, la qualité de l’information qui alimente le système est de première importante, d’autant qu’il s’agit souvent de très gros volumes de données. De même, ChatGPT peut générer des réponses inappropriées ou biaisées, voire offensantes.

Face à de tels risques, l’interaction entre les humains et l’IA revêt une importance capitale pour assurer le contrôle de qualité des données ainsi que pour analyser les réponses données.

Assistance

Il est clair que ChatGPT pourrait aider les entreprises à améliorer leur productivité, à rationaliser leurs processus et à améliorer l’expérience client. Encore faut-il trouver le bon partenaire capable d’identifier les cas d’usage pertinents et de mettre ensuite en place la technologie dans une approche pragmatique.

Aprico Consultants s’engage à stimuler la créativité et l’innovation. Ses consultants proposent une interaction constante avec le client pendant toute la durée du projet et adaptent leurs services à la demande du client. De même, nous visons l’excellence opérationnelle et la transparence totale dans le cadre d’un partenariat loyal. Nos équipes mettent en place les technologies et les méthodologies adaptées pour délivrer un projet à haute valeur ajoutée, quelles qu’en soient la taille et la complexité. Nous nous positionnons comme un partenaire loyal du changement avec un sens affirmé de l’engagement pour une livraison dans les délais et le budget prévus.

Digital Immune System – Un système immunitaire numérique pour l’entreprise

Face à l’accélération de la numérisation des entreprises et aux risques croissants de cyberattaques, le système d’information d’une organisation se doit d’être toujours plus résilient. D’où l’idée de l’immunité numérique.

Selon le cabinet de consultance Gartner, les entreprises font aujourd’hui face à des défis sans précédent pour garantir la résilience des environnements d’exploitation, accélérer le déploiement du numérique et offrir une expérience utilisateur fiable. « Le métier s’attend à pouvoir réagir rapidement aux évolutions du marché et innover plus rapidement, tandis que les utilisateurs voudraient disposer de fonctionnalités enrichies, de performances élevées et d’une sécurité maximale », estime Joachim Herschmann, senior director analyst chez Gartner.

Prérequis

Figurant dans le top 10 des tendances technologiques stratégiques pour 2023, le DIS ou système immunitaire numérique combine différentes pratiques et technologies en matière de conception logicielle, de développement, d’automatisation, d’exploitation et d’analytique pour créer une expérience utilisateur (UX) unique et réduire les pannes de systèmes qui impactent les performances du métier.

Le cabinet Gartner a identifié six prérequis pour mettre en place un DIS performant :

  1. L’observabilité (voir aussi notre blog de novembre 2022) qui offre une vue d’ensemble permettant d’atténuer les problèmes de fiabilité et de résilience en observant le comportement des utilisateurs et ainsi améliorer l’UX ;
  2. Les tests augmentés par l’IA grâce auxquels les activités de testing de logiciels seront plus indépendantes de l’intervention humaine en incluant la planification, la création, la maintenance et l’analyse automatisés ;
  3. L’ingénierie du chaos qui s’appuie sur des tests expérimentaux pour identifier les vulnérabilités et les faiblesses d’un système complexe, après quoi les leçons apprises pourront être appliquées aux opérations normales et au renforcement de la production ;
  4. L’auto-remédiation qui vise à créer des capacités de surveillance contextuelles et des fonctions de correction automatisées directement dans une application, ce qui permet grâce à l’auto-surveillance de corriger automatiquement les problèmes ;
  5. L’ingénierie de fiabilité de site qui équilibre le besoin de vélocité par rapport à la stabilité et au risque, tout en réduisant l’effort mis par les équipes de développement sur la correction et la dette technologique ;
  6. La sécurité de la chaîne d’approvisionnement logicielle qui traite le risque d’attaques de la chaîne d’approvisionnement logicielle grâce notamment à des nomenclatures logicielles, des politiques de contrôle de version et des référentiels d’artefacts.

Déploiement pratique

En pratique donc, l’immunité numérique est la capacité d’une organisation à se protéger et à faire preuve de résilience en cas de cyberattaque ou d’incident. Il s’agit d’un ensemble de technologies et de processus destinés à sécuriser l’organisation en lui permettant d’identifier les menaces et d’y répondre de manière rapide et efficace. Cette immunité numérique est essentielle pour les équipes de développement de logiciels dans la mesure où elle impacte la manière dont celles-ci travaillent et où elle protège les données et les infrastructures utilisées par l’organisation.

Pour faciliter le déploiement du DIS, différentes actions peuvent/doivent être prises. Ainsi, il faut automatiser les changements de code pour détecter plus rapidement les risques potentiels. De même, il faudra élargir le champ d’action du testing et s’assurer que les scénarios de test couvrent l’ensemble des charges de travail des utilisateurs. Par ailleurs, les API et architectures de micro-services seront optimisées pour rendre la mise à jour du code et des applications plus gérable et sécurisée. Des tests de sécurité automatisés seront exécutés pour valider la sécurité des applications et une approche de tests de performances en continu garantira la non-dégradation des performances lors du déploiement de nouveaux logiciels.

Bénéfices

« Le but ultime du DIS est de garantir, grâce à l’automatisation, que les logiciels et applications seront immunisées contre les bugs et les vulnérabilités dès le moment de leur développement ou de leur mise en production », précise encore Gartner.

La principale motivation du déploiement d’un DIS est d’éviter la perte d’informations sensibles. (4) Mais un DIS peut également permettre de freiner/empêcher la diffusion de malware ou d’autres logiciels malveillants en empêchant l’accès à des informations non-autorisées ou en la diffusion d’informations sensibles.

De même, un DIS peut offrir aux entreprises et à leur personnel un sentiment de sécurité et de sérénité. Les utilisateurs pourraient en effet être plus confiants à entamer des activités en ligne. Dès lors, l’expérience utilisateur (UX) et l’expérience client (CX) pourraient être améliorées.

Enfin, d’un point de vue métier, le DIS permettra de réduire les risques de perte financière et de garantir la conformité aux exigences légales et réglementaires.

Chief Ethics Officer : l’autre CEO

Avec l’émergence de l’intelligence artificielle et de l’apprentissage machine, les organisations commencent à s’intéresser à l’usage qui est fait des données collectées et traitées dans des volumes sans cesse plus importants. D’autant que les entreprises se veulent toujours plus ‘data driven’. La désignation d’un ‘chief ethics officer’ (CEO) ne s’impose-t-elle dès lors pas ?

Dans les organisations modernes, la donnée est clairement le nouvel or noir. Et sa collecte, son traitement et son stockage doivent faire l’objet d’une attention particulière. Notamment en raison du RGPD (règlement général sur la protection des données) et ses sanctions très lourdes pour les contrevenants. De même, toute fuite de données pénalise l’entreprise qui perd en crédibilité. D’ailleurs, une récente étude d’Adobe indique que 57% des consommateurs arrêteraient d’acheter une marque si celle-ci était victime d’un vol de données à la suite d’une faille de sécurité. Preuve qu’il existe un lien étroit entre niveau de confiance, fidélité et profitabilité.

La question de l’éthique ne se limite donc pas à des résultats commerciaux, mais vise essentiellement à réduire les risques d’exploitation. Et donc à une problématique de gouvernance. « D’un point de vue opérationnel, il y a clairement un avantage pratique à désigner un ‘chief ethics officer’ », estime Nicholas Creel, professeur assistant de droit des entreprises au Georgia College and State University.

Approche globale

Cela étant, désigner un CEO ne suffit pas, toujours selon Nicholas Creel. « Les données et l’éthique sont une problématique transfonctionnelle qui impacte tous les éléments d’une organisation et l’ensemble de ses processus. » Il s’agit donc d’un effort collectif qui exige de mettre en place des politiques spécifiques.

D’ailleurs, les considérations éthiques s’inscrivent dans la responsabilité sociale des organisations. En effet, l’auto-régulation éthique apparaît comme une preuve de ‘bonne foi’ vis-à-vis de la communauté. Le rôle du CEO consistera donc non seulement à s’assurer que tous les acteurs dans l’entreprise ont conscience de leur responsabilité sociale, mais aussi que les approches sont cohérentes et reflètent des objectifs communs.

Plus spécifiquement en ce qui concerne l’IA, le CEO sera chargé de trouver le meilleur équilibre entre la transparence, l’inclusion, la responsabilité, l’impartialité, la fiabilité, la sécurité et la vie privée. De même, il lui appartiendra de consulter les différents départements de l’entreprise sur les règles éthiques à mettre en œuvre.

Dans le cas de l’intelligence artificielle, ce CEO aura la responsabilité d’appréhender et de communiquer sur la finalité et les mécanismes des algorithmes utilisés, tout en garantissant la consistance entre les différents outils déployés.

Défis

Si la désignation d’un CEO fait débat dans les entreprises, son rôle n’a rien d’anecdotique. En effet, ce CEO devra composer avec les autres ‘chiefs’ de département (notamment les directeurs financier, juridique ou HR, ou encore le responsable de la sécurité) pour arrêter une position commune. En outre, il devra faire preuve de compétences technologiques pluridisciplinaires, que ce soit en matière d’IA, mais aussi de sciences sociales, de droit ou encore de stratégie d’entreprise. Car finalement, sa mission sera de mettre en place une éthique cohérente dans tous les départements de l’organisation.

Enfin, et comme souvent, l’aspect humain sera capital dans le travail du CEO. « En réalité, les entreprises ne véhiculent aucune valeur, mais bien les êtres humains », résume David Lewis de la London Business School. « Et la plupart des hommes ont de vraies valeurs. Or les valeurs n’apportent pas de solutions, elles créent des dilemmes. » C’est le fameux exemple du ‘pieu mensonge’ également appelé ‘mensonge blanc’, entendez un mensonge qui est fait dans l’intention d’être utile ou agréable à quelqu’un. Autre dilemme potentiel dans l’entreprise : être transparent tout en protégeant la confidentialité.

« Le rôle du CEO sera de créer un environnement dans lequel les collaborateurs, à tous les niveaux dans l’organisation, pourront s’engager dans ces dilemmes et résoudre ensemble la quadrature du cercle d’une manière qui a du sens pour eux, faire un usage positif de leurs diverses idées et expériences et leur permettre de contribuer en tant que personnes réactives qui sont fières de leur contribution. »

Passion

Le problème est évidemment que les gens ne changent pas parce qu’on leur dit de changer. « La raison seule n’induit pas le changement et n’incite pas à l’action. L’impulsion de l’action doit provenir de la passion », estimait déjà le philosophe britannique David Hume.

Dès lors, l’organisation se doit d’être proactive, et non réactive en matière de politique d’éthique en mettant la confiance au centre du débat. Et en définissant des processus et un ‘ownership’ sur qui collecte, contrôle et stocke la donnée.

Précisons que l’IA et l’apprentissage machine ne s’improvisent pas, mais exigent non seulement des connaissances technologiques, mais aussi et surtout une parfaite compréhension du métier du client. Or qui d’autre que votre partenaire informatique de confiance est en mesure de bien comprendre votre stratégie, vos besoins et vos objectifs. Aprico Consultants aide, guide, facilite et coordonne de tels projets dans le but de permettre une mise en œuvre plus rapide, de générer des gains d’efficacité et de réduire les coûts de vos projets.

Datafication – De la donnée à la data

Collecter massivement des données est une chose, les traiter pour en dégager des informations pertinentes pour le business en est une autre. C’est précisément la notion de datafication.

Par datafication, il faut entendre l’idée de transformer les données en data offrant une valeur ajoutée dans l’analyse et la prise de décision. Certes, actuellement, les entreprises collectent des volumes impressionnants de données, les fameuses big data, grâce à une numérisation croissante de leurs processus (notamment liée à l’IoT). Des données qui sont stockées un peu partout, dans les datacenters des entreprises ainsi que dans le cloud. Pour Mayer-Schönberger et Cukier qui ont étudié le phénomène dès 2013, « datafier est une tendance technologique transformant de nombreux aspects de notre vie en données, considérées comme des informations permettant la création d’une nouvelle forme de valeur. » Allant au-delà de la numérisation, la datafication permet la catégorisation des données numériques qui deviennent ainsi consultables.

Dans les entreprises

Exploitée dans un premier temps par les entreprises du style Facebook ou Uber ainsi que le monde des sciences sociales et humaines, la datafication s’impose progressivement dans les entreprises privées et dans les administrations publiques. En effet, l’exploitation de données en temps réel permet aux entreprises non seulement d’améliorer leurs produits et/ou services, mais aussi de collecter des données sur leurs clients et de définir ainsi des stratégies marketing plus adaptées.

À terme, la datafication doit s’inscrire dans un nouveau modèle opérationnel et couvrir l’ensemble des entités et processus métier de l’organisation. Associée à l’intelligence artificielle et à l’apprentissage machine notamment, elle constitue une première étape dans la prise de décisions stratégiques.

Technologie…

Pour déployer la datafication, deux éléments sont indispensables. D’abord, une infrastructure capable de collecter, traiter et stocker de très gros volumes de données, les fameuses big data. Ces plateformes pourront être internes à l’organisation, mais plus souvent tourner dans le cloud, synonyme d’évolutivité et d’agilité. De même, l’internet des objets (IoT) constituera une source importante de données, sans oublier évidemment la prolifération des appareils mobiles. Par ailleurs, les réseaux joueront un rôle de premier plan lors de la collecte et du stockage des données.

Ensuite, il convient de mettre en place différents processus et outils susceptibles d’enrichir les données pour leur donner de la valeur. Ainsi, une plateforme d’extraction performante devra être mise en place, de même que des solutions de conversion des données provenant de sources à la fois structurées et non-structurées (désormais majoritaires).

En outre, un référentiel central et accessible à tous sera indispensable pour donner à la datafication sa véritable dimension.

…, mais pas uniquement

Au-delà des outils technologiques, l’humain ne devra pas être oublié. En effet, stocker et traiter des données nécessite des spécialistes de la donnée, des analystes, des informaticiens (notamment en sécurité), etc., tous devant collaborer pour générer des données de qualité. De même, les utilisateurs devront être formés à l’exploitation de ces données pour transformer les data en informations réellement pertinentes.

Domaines d’application

Le but de la datafication est donc de faire évoluer l’organisation vers une entreprise ‘data driven‘. Plusieurs métiers ont d’ores et déjà saisi toute l’importance de cette technologie pour acquérir un avantage concurrentiel. Ainsi, la gestion des ressources humaines permet d’exploiter au mieux les talents non seulement en analysant les profils des candidats potentiels, mais aussi en screening les compétences des collaborateurs internes.

De même, les compagnies d’assurances peuvent utiliser les données pour déceler les profils à risque ou adapter le contrat d’assurance de ses clients, tandis que les banques seront confrontées à des problématiques assez similaires, notamment en termes de risques de non-paiement. Dans le domaine de la relation client, les données sont évidemment capitales pour comprendre les clients, leurs habitudes d’achat, leurs préférences, etc. Et dans l’immobilier, les outils de datafication seront utilisés pour cibler les clients en fonction des produits proposés.

Mais bien d’autres domaines seront à terme concernés, comme les administrations publiques, la médecine et la recherche académique notamment.

Défis

Si la datafication paraît en soi intéressante pour comprendre et améliorer les activités d’une entreprise, divers défis devront être relevés. Ainsi, il conviendra de s’assurer de la précision et de la fiabilité des données collectées. Quant à la sécurité, elle devra faire l’objet d’une attention particulière, surtout compte tenu du RGPD et des failles en matière de cybersécurité. Par ailleurs, les risques de biais peuvent apparaître, surtout si les données sont utilisées pour la prise de décisions sans intervention de l’humain. Enfin, le manque de transparence de certaines plateformes de datafication pourrait induire de la méfiance de la part des utilisateurs.

Aprico Consultants est une société de conseil spécialisée dans l’architecture et la transformation des systèmes d’information. En accélérant résolument les processus de transformation numérique, la société fournit à ses clients la flexibilité, la performance et la compétitivité nécessaires pour leur permettre de renforcer leur position sur le marché. Aprico Consultants collabore avec ses clients pour traduire la stratégie de l’entreprise, ses objectifs et ses contraintes en programmes de transformation pragmatiques qui délivrent une véritable valeur ajoutée et un retour sur investissement avéré.

Les super-applis à la conquête du monde… occidental

En soi, une super-appli est simplement une application qui regroupe sur une seule et même plateforme des fonctionnalités et services qui sont normalement autonomes, surtout dans le monde mobile, le tout souvent associé à un système de paiement associé.

Pour le consultant Gartner, une super-appli est une sorte de couteau suisse qui associe un ensemble d’outils (des mini-applis) permettant à un utilisateur final – qu’il s’agisse d’un client, d’un partenaire ou d’un employé – d’accéder à toute une série de fonctionnalités et de services au départ d’une seule et même plateforme et à l’aide d’une interface unique. A noter que certains super-applis fonctionnent davantage comme des portails.

Dans le cadre d’un écosystème, ces différentes mini-applis sont enrichies d’une solution de messagerie et de paiement notamment, ce qui permet de créer une expérience utilisateur enrichie. D’autant que de telles super-applis peuvent également permettre de supporter des technologies comme les chatbots (agents conversationnels), l’internet des objets ou des univers immersifs comme le métavers, insiste encore Gartner.

L’Asie comme pionnière

Si la notion de super-appli reste assez peu connue en Occident, plusieurs géants asiatiques ont déjà déployé des super-applis à grande échelle. Il faut dire que le mobile y est bien plus répandu que chez nous.

C’est ainsi qu’en Chine, WeChat ne comptait pas moins de 1,3 milliard d’utilisateurs actifs mensuels au 3e trimestre de 2022, soit plus de deux tiers de la population. S’il s’agissait au départ d’une messagerie en ligne, la super-appli permet désormais de réserver des billets d’avion par exemple, mais aussi de commander un taxi, de payer divers services publics et même semble-t-il de divorcer.

En fait, le statut de super-appli est atteint lorsqu’une appli rassemble une masse critique de services qui sont particulièrement faciles à utiliser entre eux tout en étant performants et sécurisés. En l’occurrence, la super-appli devient le système d’exploitation de la vie numérique de l’utilisateur.

Gartner estime à quelque 2,7 milliards le nombre d’utilisateurs mensuels actifs dans le monde pour les 15 super-applis les plus populaires. Et indique que d’ici 2027, plus de 50% de la population mondiale accèdera quotidiennement à différentes super-applis. Il faut dire que la jeune génération est née avec un smartphone en mains. Ainsi, toujours selon le cabinet, 67% des consommateurs se disaient intéressés par l’intégration de plusieurs expériences numériques au sein d’une seule et même super-appli.

En entreprise

Si elles sont surtout populaires auprès des consommateurs, ces super-applis commencent à s’imposer dans le monde professionnel, toujours selon Gartner. Ainsi, dans le monde des fintechs ou de la banque, les entreprises commencent à s’intéresser à cette technologie pour améliorer l’expérience mobile et répondre aux besoins des utilisateurs. De même, les organisations voient dans cette technologie une manière d’améliorer l’expérience utilisateur de leurs clients, de leurs employés et de leurs partenaires commerciaux.

Au niveau des collaborateurs par exemple, une super-appli permettrait de créer des environnements de travail cohérents plutôt que d’obliger les employés à accéder à de multiples applis disparates.

Gartner recommande en l’occurrence d’analyser en détail les applications déployées dans l’organisation et de réfléchir à la manière de les consolider, surtout en s’intéressant aux fonctionnalités les plus recherchées, ce qui accélérera l’adoption de telles super-applis dans le cadre d’un écosystème plus cohérent et d’une plateforme commune.

En Occident

Si WeChat ou Alipay comptent chacun plus d’un milliard d’utilisateurs, les raisons sont multiples : une expérience mobile très développée, une population qui n’utilise que peu les banques, un marché très homogène et un support gouvernemental très important. Mais qu’en est-il en Occident ?

Les freins à l’adoption de super-applis sont multiples. Et tout d’abord culturelles puisqu’il n’est pas question chez nous de monopole pour les services. En outre, les super-applis se heurtent à la conformité au RGPD (règlement général sur la protection des données), sachant que la collecte et l’agrégation de données peuvent poser des problèmes, notamment en termes de respect de la vie privée. Enfin, il n’existe pour l’instant que peu de partenariats entre les géants du web, style Facebook, PayPal ou Uber, et les développeurs d’applis. Or la collaboration est essentielle au succès de super-applis. Enfin, le marché du smartphone n’est pas aussi développé en Occident (Europe et États-Unis) que dans le monde asiatique, tandis que les smartphones utilisés chez nous sont moins performants en matière de stockage, rendant plus difficile l’installation de super-applis sur de tels appareils.

Pour accompagner les entreprises dans leurs projets d’innovation et de transformation numérique, Aprico Consultants se positionne à la fois sur le plan stratégique et technologique. Pour supporter sa stratégie, Aprico a mis au point une méthodologie de travail originale articulée selon trois axes : smart, lean and agile. L’approche transversale d’Aprico, combinant métier, technologie et méthodologie, le tout associé à nos critères d’exigence, constitue l’un des facteurs clés de succès.

Prédictions 2023 – Les consultants IT se penchent sur 2023

Comme de tradition en cette période de l’année, les grands cabinets de consultance IT y vont de leurs prédictions à l’intention des CIO. Nous avons retenu les analyses de Gartner et d’ESG (Enterprise Strategy Group).

Pour Gartner, dix grandes tendances devraient marquer 2023 et les prochaines années. Globalement, l’analyste Daryl Plummer, vice-président analyste distingué et Gartner Fellow estime que « les organisations devront se concentrer sur le maillon faible de la chaîne de leur succès. Le défi consistera à associer simultanément réflexion et action, sachant que l’incertitude est une source d’espoir et d’opportunités. »

Par ailleurs, Gartner précise que les options susceptibles d’ouvrir la voie à l’amélioration sont rarement restrictives et binaires. C’est ainsi qu’améliorer la durabilité peut se faire grâce à l’automatisation et l’intelligence artificielle. De même, les employés peuvent rechercher à la fois la flexibilité dans leurs horaires et le contenu de leur travail, alors même que l’inflation et la récession économique pourraient limiter leurs perspectives de carrière. Bref, tout l’art consistera à traduire les incertitudes en opportunités tout en rendant l’organisation plus flexible et adaptable – et en se préparant à toute éventualité.

Dix tendances technologiques de Gartner

  1. Le système immunitaire numérique comprend différentes stratégies d’ingénierie logicielle pour améliorer l’expérience client, limites les risques et renforcer la résilience des systèmes. Pour augmenter la stabilité de leurs plateformes, les entreprises devraient investir dans des tests automatisés, dans la résolution d’incidents et dans l’observabilité.
  2. L’observabilité (voir notre blog de novembre 2022) associée à l’intelligence artificielle doit permettre d’analyser et de faire des recommandations à partir de données émises par une structure et donc de prendre des décisions plus rapides et mieux fondées sur la base de données.
  3. Pour mieux gérer les risques liés à l’intelligence artificielle, l’IA TRiSM (IA Trust, Risk and Security Management) associe différentes méthodes pour sécuriser l’IA et la rendre plus transparente, ce qui permettra de mieux expliquer les résultats obtenus par l’IA, de gérer les problèmes de sécurité et d’éthique, ainsi que de déployer de nouveaux modèles.
  4. Les plateformes cloud sectorielles combinent différents services – IaaS (Infrastructure-as-a-Service), PaaS (Platform-as-a-Service) et SaaS (Software-as-a-Service) – pour doter les entreprises d’un ensemble de capacités industrielles spécifiques pour leur permettre de s’adapter aux évolutions dans leur secteur.
  5. Afin de faciliter la vie des développeurs et des utilisateurs finaux, l’ingénierie de plateforme permet aux entreprises d’exploiter des plateformes de développeurs en libre-service pour une livraison plus rapide et plus fluide de logiciels ainsi que gérer le cycle de vie des applications.
  6. Les entreprises vont associer différentes solutions de connectivité sans fil – 4G, 5G et Wi-Fi de types 5, 6 et 7 – pour gérer plusieurs environnement réseaux simultanément. Les entreprises utiliseront en effet un éventail de réseaux sans fil, de créateurs à terme ainsi que de nouvelles informations et données.
  7. Les super-applis qui regroupent à la fois les fonctionnalités d’une application, d’un écosystème et d’une plateforme vont s’imposer de plus en plus, qu’elles soient web ou mobiles. Avec comme avantage de pouvoir consolider et remplacer plusieurs applications utilisées par les clients et les employés.
  8. À partir de nouvelles données fournies en temps réel et d’objectifs adaptés, les systèmes d’IA adaptative peuvent apprendre de leurs modèles d’intelligence dans un environnement d’exécution et dès lors s’adapter rapidement aux changements et aux imprévus.
  9. Le métavers devrait évoluer vers davantage d’activités physiques dans le monde virtuel ou transformer toujours plus le monde réel. Selon Gartner, le métavers se définit comme un espace collectif virtuel partagé en 3D où se combinent la réalité physique et la réalité virtuelle augmentée.
  10. Les solutions de technologie durable augmenteront l’efficacité des entreprises grâce à différentes techniques comme l’analyse, la traçabilité ou encore l’IA. De telles solutions devraient permettre aux organisations d’atteindre leurs objectifs en matière de développement durable.

ESG : poursuivre la transformation numérique

De son côté, le cabinet Enterprise Strategy Group (ESG) estime que, malgré les licenciements dans le secteur technologique et les conditions de marché incertaines, les organisations continueront à accroître leurs investissements en IT, notamment pour poursuivre leurs projets de transformation numérique.

Au-delà de la réduction des coûts d’exploitation et des investissements, ESG estime que 2023 devrait être marquée par l’amélioration des processus métier et de l’expérience utilisateur. Dans cette optique, les relations entre IT et business devront être renforcées : « IT is also a business function », affirme le cabinet.

Par ailleurs, trois tendances technologiques se dégagent. D’abord, la cybersécurité où la pénurie de talents IT obligera les entreprises à recourir à des services de sécurité gérés associant l’automatisation, l’IA et l’apprentissage machine. Ensuite, l’automatisation et l’IA précisément, compte tenu de la complexité croissante des environnements IT qui deviennent distribués et évolutifs. Enfin, l’observabilité, grâce à des outils et pratiques permettant de collecter des données pertinentes dans des environnements IT distribués, y compris l’identification automatique de nouvelles sources de données.

De la surveillance à l’observabilité

Si la plupart des entreprises ont désormais déployé des outils de surveillance de leurs infrastructures informatiques, certains fournisseurs estiment qu’elles devraient aller un pas plus loin en mettant en place des solutions d’observabilité. Car s’il est possible d’identifier les risques connus, comment faire face aux risques totalement inattendus ?

Alors que les plateformes informatiques deviennent toujours plus complexes et interconnectées, l’imprévisibilité de leur comportement ne fait évidemment que croître : paralysie, goulet d’étranglement, perte de performance, bogues, etc. Dans ces conditions, les systèmes actuels de surveillance révèlent toutes leurs limites.

En effet, il ne suffit plus de protéger les systèmes contre des défaillances connues à l’aide de solutions de surveillance. Car celles-ci sont conçues pour analyser des tendances, créer des tableaux de bord et alerter les équipes de réponse lorsqu’il problème survient. En d’autres termes, ce type de produits permettent d’identifier les « inconnues connues », entendez des problèmes qui ont déjà été rencontrés et pour lesquels une solution existe.

« Inconnues inconnues »

Or il existe de nombreux cas où un risque apparaît de manière totalement inattendue et se révèle difficile à anticiper. Ce sont les fameuses « inconnues inconnues » également appelés « angles morts » qui sont à ce point inattendues que les identifier et s’y préparer représente un effort en ressources humaines et en argent difficilement justifiable. D’autant que leur menace est surtout une question de volume.

Pour déployer une solution d’observabilité, trois composantes principales sont nécessaires. Tout d’abord, une instrumentation ouverte, à savoir un recueil de données de télémétrie open source ou propriétaire à partir de n’importe quelle source de données (application, service, infrastructure, conteneur, service cloud, appli mobile, etc.). Celle-ci offrira en effet une visibilité sur l’ensemble des applications et des plateformes. Ensuite, des entités connectées, dans la mesure où toutes les données de télémétrie collectées doivent être analysées dans le but d’identifier et de connecter les entités à l’origine de ces données, puis d’obtenir des métadonnées pour créer une corrélation entre les entités et leurs données. Enfin, une programmabilité, à savoir le contexte de l’entreprise et son type d’organisation, après quoi les données de télémétrie et les dimensions critiques de l’entreprise seront associées.

Bénéfices

Rendre une organisation observable d’un point de vue des opérations IT implique de connaître l’infrastructure dont dépend chaque métier ainsi que de développer et de fournir des expériences numériques susceptibles d’offrir un avantage compétitif.

En pratique, l’observabilité permet d’abord d’aligner les équipes sur les performances de l’entreprise. En effet, le suivi des performances orienté business plutôt que purement technique permet une résolution plus rapide des incidents et limite les dégradations de service. Par ailleurs, l’observabilité est un moyen pour les équipes métier d’optimiser les technologies numériques pour atteindre plus rapidement les objectifs de croissance. En outre, en combinant plusieurs niveaux d’informations dans des tableaux de bord centralisés (sur l’optimisation des ressources, les KPI métier, l’expérience utilisateur, l’expérience client, etc.), il est possible d’identifier rapidement tout problème et d’y remédier. En outre, l’entreprise s’en trouve ainsi plus compétitive grâce à une meilleure compréhension de son fonctionnement et une optimisation en continu de la chaîne de valeur numérique. Enfin, l’observabilité permettra de soutenir l’innovation en trouvant rapidement ce qui fonctionne et ce qui ne fonctionne pas, et en identifiant les points d’amélioration.

En d’autres termes, l’observabilité rend les équipes plus performantes, plus agiles, alignées sur les objectifs de l’entreprise, axées sur la compétitivité et innovantes.

Défis

Si l’observabilité peut apporter des résultats intéressants, le défi majeur consiste à collecter et à analyser les données pertinentes et de qualité. Pour ce faire, il faut disposer d’un outil adéquat. Car la technologie n’est qu’une partie (technologique) de la réponse, l’essentiel étant de structurer les équipes et de les préparer à tirer parti des concepts et des fonctionnalités offertes par l’outil. De même, il convient de définir d’emblée des KPI (key performance indicators), lesquels varient d’une application à l’autre. Car de mauvais KPI se traduiront inévitablement par de mauvais scénarios.

Aprico peut accompagner les équipes techniques du client dans la conception technique de la plateforme, notamment les considérations architecturales concernant la structuration des données. Enfin, au-delà des aspects techniques, Aprico peut prendre en charge la formation ainsi que le transfert de savoir-faire technologique.

Web3, quand le web se décentralise

Face aux critiques liées à la centralisation du web sémantique, un nouveau concept voit le jour : le web3 ou web 3.0. Avec comme volonté de proposer une infrastructure décentralisée intégrant notamment des technologies de chaîne de blocs.

D’emblée, une précision s’impose : le web3 ne doit pas être confondu avec le web sémantique qui était la 3e version du protocole principal du WWW (world wide web) imaginé par Berners-Lee. Rappelons que le web 1.0 (années 1990-2004) était principalement constitué de sites web statiques d’entreprises et n’offrait qu’une interaction très limitée aux utilisateurs, tandis que le web 2.0 (2004 à aujourd’hui) a évolué avec l’émergence des plateformes de réseaux sociaux pour devenir en ‘lecture-écriture’, les utilisateurs pouvant générer du contenu et s’engager dans des interactions.

Concept

Si le terme est certes un peu ‘fourre-tout’ pour désigner une nouvelle vision d’un internet meilleur, le Web3 s’appuie sur les chaînes de blocs, les cryptomonnaies et les NFT (non-fungible tokens ou jetons non-fongibles, à savoir une donnée valorisée composée d’un type de jeton cryptographique qui représente un objet auquel est rattachée une identité numérique).

Plus besoin donc d’autorisation pendant l’utilisation d’un service sur la Toile, sachant que personne ne pourra bloquer un utilisateur ou refuser un accès. Bref, plus question de censure abusive. En effet, l’autonomie est le principe numéro 1 du web3 qui se veut un processus dégroupé et distinct. Par ailleurs, ce nouveau Web3 est conçu sur la base de protocoles et de langages standards du web.

Autre spécificité : le fait d’offrir à l’utilisateur un outil lui permettant de gérer lui-même ses activités. En d’autres termes, les géants du web ne devront plus piloter les données personnelles des utilisateurs. Ce qui sous-entend que ces grands du web n’auront plus la mainmise sur la Toile et ne serviront plus d’intermédiaire.

Avantages/inconvénients

Parmi les avantages du Web3, la propriété et le contrôle des données sont évidents, de même que la limitation du nombre d’intermédiaires puisque la chaîne de blocs permettra de connecter directement les entreprises à leurs clients. La transparence sera aussi au rendez-vous dans la mesure où les utilisateurs pourront tracer leurs données et contrôler le code source des plateformes qu’ils utilisent, le tout sans intermédiaire.

La recherche d’informations sera également plus efficace puisque le moteur de recherche ne vous présentera plus les pages les plus populaires, mais les résultats les plus pertinents grâce notamment au recours à la sémantique. L’expérience de navigation sera davantage personnalisée (les sites web pouvant mieux identifier les préférences de chaque utilisateur), tandis que les services seront ininterrompus puisque les données seront stockées sur des nœuds décentralisés. Enfin, le marketing sera plus ciblé et donc plus performant dans la mesure où les centres d’intérêt des utilisateurs seront mieux cernés.

En dépit de ces avantages, les observateurs estiment que le Web3 pourrait nécessiter des appareils assez sophistiqués. De même, le concept risque d’être difficilement à maîtriser par les néophytes, tandis que les sites web de générations précédentes devraient sembler démodés et nécessiter une mise à niveau vers le Web3. De même, l’accès aux données ne devrait pas être facilité. Enfin, la nature même du Web3, à savoir sa décentralisation, pourrait rendre son contrôle et sa régulation plus délicates, et donc favoriser potentiellement la cybercriminalité.

Cas d’usage

Aux dires des observateurs, le Web3 devrait à l’avenir s’imposer dans de nombreux domaines. C’est ainsi que l’économie de créateur (de contenu), la chaîne de blocs, les médias sociaux et les jeux à base de chaîne de blocs sont autant de technologies qui permettront l’essor du Web3, sans oublier les sciences décentralisées, les navigateurs, le stockage, les solutions de streaming décentralisé ou encore les applications de la vie réelle. En effet, les plateformes étaient jusqu’ici trop centralisées, obligeant ces créateurs à se plier aux contraintes existantes.

Cela étant, le concept reste flou et nébuleux. « Cela ressemble plus à un terme de marketing en vogue qu’à une réalité », aurait déclaré Elon Musk, CEO de Tesla et SpaceX, pourtant lui-même un crypto-enthousiaste convaincu.

Balbutiements

Si le Web3 n’en est encore qu’à ses débuts et que des progrès doivent encore être accomplis, il est clair que la donne a changé et que des applications innovantes vont voir le jour. A cet égard, une collaboration avec un partenaire IT se révèle pertinente, voire nécessaire.

Aprico ambitionne d’aider les entreprises à innover et à repenser leurs processus métier en mettant la sécurité au centre de leur réflexion stratégique. Nous pouvons partager les bonnes pratiques, technologies et modèles organisationnels qui permettront à l’organisation de s’ouvrir sur l’extérieur et de partager l’information en toute sécurité.

Data Fabric – Consolider les sources de données

Considérée par le cabinet Gartner comme l’une des principales tendances stratégiques technologiques de l’année, la data fabric permet l’intégration flexible et résiliente des différentes sources de données afin que les celles-ci soient disponibles partout où elles sont nécessaires. Mais comment y parvenir ?

Selon Tibco, spécialisée en logiciels d’infrastructures, la data fabric est une solution d’intégration et de gestion de données de bout en bout, composée d’un logiciel d’architecture, de gestion et d’intégration de données ainsi que de données partagées pour la gestion globale de données. La data fabric permet donc d’accéder et de partager les données avec une expérience utilisateur optimale dans un environnement sécurisé.

Avantages

Par rapport à des solutions traditionnelles d’intégration de données, la data fabric permet de gérer les données quelles que soient les types d’applications, de plateformes et d’emplacement de stockage. Elle répond dès lors aux exigences de connectivité en temps réel, de libre-service, d’automatisation et de transformations universelles.

Grâce au fait que la data fabric est avant tout une nouvelle architecture de données intégrée, l’organisation pourra mieux contrôler ses coûts, ses performances et l’efficacité de son stockage. Bref, savoir qui utilise quoi et comment, indépendamment de l’endroit de stockage des données et des applications. Et comme elle est gérée de manière centralisée, la data fabric est accessible partout, que ce soit sur site ou dans un cloud privé ou public.

En d’autres termes, la data fabric permet d’exploiter tout le potentiel des données pour répondre aux besoins business et gagner en productivité et compétitivité. De plus, les services IT peuvent tirer parti de la puissance du cloud hybride, gagner en automatisation et dès lors accélérer le développement, le test et le déploiement d’applications, tout en protégeant les ressources en continu.

Comment déployer une data fabric ?

Pour le cabinet Gartner, la data fabric ne doit pas se limiter à associer des technologies traditionnelles et modernes, mais se présente plutôt comme une approche susceptible d’optimiser la gestion des données en automatisant les tâches répétitives grâce à l’apprentissage machine.

Pour apporter une véritable valeur métier, Gartner estime qu’il faut s’appuyer sur une base technologique solide, puis identifier les fonctionnalités de base et évaluer les outils existants de gestion des données. Pour ce faire, associer des solutions développées en interne et achetées sur le marché est l’approche la plus appropriée. Ainsi, il serait possible de trouver une plateforme répondant à 65 ou 70% des besoins, après quoi les autres fonctionnalités proviendront d’une solution sur mesure.

Toujours selon Gartner, une data fabric globale doit être constituée de trois piliers. Primo, l’information contextuelle est à la base d’un concept de data fabric dynamique. En effet, il faut disposer d’un mécanisme permettant à la fabric d’identifier, de connecter et d’analyser tous types de métadonnées (techniques, métier, opérationnelles ou sociales). Secundo, la fabric doit convertir les métadonnées passives en métadonnées actives. Pour ce faire, il faut analyser en permanence les métadonnées disponibles au niveau des métriques et des statistiques clés pour construire ensuite un modèle graphique. Et tertio, la fabric devra générer et nettoyer les graphes de connaissance qui serviront aux décideurs à créer de la valeur métier en enrichissant les données à l’aide de sémantique.

Retour sur investissement

Alors que les entreprises ont aujourd’hui tendance à travailler en silos, ce qui crée de nombreuses façons différentes de gérer les données et d’y accéder, la data fabric entend répondre aux défis suivants : données situées sur plusieurs sites et dans le cloud, plateformes informatiques hétérogènes, données structurées et non-structurées qui se côtoient, niveaux de maintenance différents des fichiers, bases de données et application, sans parler de la croissance exponentielle des volumes de stockage.

Pour garantir un meilleur ROI possible, quatre conditions doivent être remplies : stimuler la réutilisation des données, éliminer les réplications inutiles de données, créer un jumeau numérique de tous les ‘objets’ de l’entreprise, et accélérer les délais d’analyse.

Une récente étude d’IBM estime que de 60 à 73% des données d’entreprise ne sont absolument pas exploitées. Or chacun sait que les entreprises qui gagneront demain et seront les plus compétitives sont celles qui allient connaissances et analyses des données. Il conviendra donc de combler le fossé entre connaissances disponibles et informations, puis de transformer les informations en analyses.

Aprico Consultants est une société de consultance de premier plan qui guide la stratégie et la transformation ICT dans le but de stimuler la performance, la productivité et la compétitivité de votre organisation. Nous combinons une expertise pointue à une parfaite compréhension du contexte et de l’expérience du client ainsi qu’une approche de bout en bout dans tous les secteurs, depuis la consultance jusqu’au déploiement de solutions.

L’ingénierie de données, préalable à l’exploitation optimale des données

Pour que le data scientist puisse exploiter de manière optimale les données présentes dans et en-dehors de l’organisation, encore faut-il qu’il dispose de données de qualité. Telle est la mission de l’ingénierie de données.

Permettez-nous d’enfoncer une porte ouverte : les données sont certes le nouvel or noir des entreprises, mais que les organisations croulent sous les données dont il est difficile, voire impossible, d’extraire des informations pertinentes et utiles, et donc de prendre les bonnes décisions au bon moment et au bon endroit.

Exploiter la donnée

Aujourd’hui, toute organisation stocke des données à la fois structurées et non-structurées, générées soit en interne, soit par des partenaires extérieurs ou des sources de données tierces, comme Google notamment. Ces données doivent être considérées comme de la ‘matière première’ qu’il conviendra de rendre intelligible.

C’est à ce niveau qu’intervient le data scientist dont la mission sera d’analyser les données en profondeur, de construire des modèles prédictifs et de communiquer les résultats aux ‘décideurs’ dans l’entreprise.

Traiter la donnée

Mais avant que le data scientist ne puisse traiter la donnée, il importera de la rendre exploitable. C’est le rôle dévolu au data engineer. Son travail consistera à travailler en amont du data scientist en créant des plateformes qui facilitent le traitement de gros volumes de données (big data) ainsi qu’en s’assurant que les échanges de données soient fiables et sécurisés.

Dans le cycle de la donnée, le data engineer intervient donc à deux niveaux, à savoir la collecte et le stockage des données. Il s’agira de construire des entrepôts de données de grande taille (datawarehouses) ou de plus petites tailles et dédiés (datamarts).

Métier spécifique

Alors que le data scientist analyse et exploite les données, le data engineer a davantage un profil de technicien. Son activité principale consiste à préparer les systèmes et les réseaux sur lesquels vont travailler les data scientists. Il lui revient de bâtir les réservoirs de données qui stockeront et tester les données. De même, il gèrera les systèmes de traitement et les bases de données et en assurera le bon fonctionnement.

Ses compétences sont davantage techniques et couvrent l’architecture de bases de données, la maîtrise des outils de modélisation et des langages de programmation, le codage, le recours aux technologies SQL et NoSQL ainsi que l’exploration des données, le cas échéant avec l’intelligence artificielle et l’apprentissage machine, ce qui exigera une bonne connaissance des algorithmes. Il va de soit que la compréhension des outils de big data comme Hadoop ou de l’ETL seront autant d’atouts.

Trois profils

Dans l’entreprise, l’ingénieur de données pourra remplir trois types de mission. D’abord, en tant que généraliste, assurer la collecte, la consolidation et le traitement des données de bout en bout au sein d’une petite équipe et dans le cadre d’un projet de petite dimension. Ensuite, l’ingénieur ‘pipeline-centric’ qui s’intégrera dans une équipe d’analytique de données de taille moyenne et prendra en charge des projets plus complexes dans le cadre de plateformes distribuées. Enfin, l’ingénieur ‘database-centric’ qui assurera l’implémentation, la maintenance et la dissémination de bases de données analytiques. Son rôle conviendra davantage à de grandes organisations où les données sont réparties entre différentes bases de données. En général, l’ingénieur de données travaillera sur les données à la fois structurées et non-structurées.

Globalement, les responsabilités de l’ingénieur de données seront : la conception et la gestion de bases de données et/ou du data lake ; la collecte de différentes sources et rapprochement ; la mise en place de pipelines permettant d’automatiser les différentes étapes d’acquisition des données, de l’extraction jusqu’au stockage ; la création d’outils permettant d’accéder aux données ; et la gestion de la scalabilité de l’infrastructure (horizontale et verticale) de manière transparente pour les autres acteurs.

Collaboration étroite

En général, l’ingénieur de données travaille au sein d’une équipe d’analytique en étroite collaboration avec le data scientist. Il fournit des données dans des formats exploitables par le data scientist qui lance des requêtes et fait tourner des algorithmes pour obtenir de l’analytique prédictif, de l’apprentissage machine ou du data mining. Par ailleurs, il livre des données agrégées à l’intention de la direction et des analystes ainsi qu’à d’autres utilisateurs à des fins d’analyse, ces résultats permettant alors d’améliorer les opérations.

Careers opportunities

We’re always looking for talented people.
Are you one of those?