L’IA adaptative absorbe les apprentissages au fur et à mesure qu’elle se construit dans le but de créer une expérience utilisateur supérieure et plus rapide en s’adaptant aux circonstances changeantes du monde réel de l’entreprise.
Alors que la flexibilité et l’adaptabilité sont désormais vitales dans un monde toujours plus concurrentiel et où l’innovation fait la différence, les organisations se tournent désormais vers l’IA adaptative pour réagir plus rapidement et efficacement.
Importance croissante
Le cabinet Gartner prévoit qu’à l’horizon 2026, les entreprises qui auront adopté les pratiques d’ingénierie de l’IA pour construire et gérer des systèmes d’IA adaptative surpasseront d’au moins 25% leurs homologues au niveau du nombre de modèles d’intelligence artificielle et du temps nécessaire pour les rendre opérationnels.
L’IA adaptative regroupe différentes méthodes (entendez la conception à base d’agents) et de techniques d’IA (l’apprentissage par renforcement) pour permettre aux systèmes d’ajuster leurs pratiques d’apprentissage et leurs comportements dans le but de s’adapter à l’évolution des circonstances du monde réel.
Dans cette optique, il importe dès lors de regrouper les gestionnaires, les informaticiens et les équipes de support pour mettre en œuvre des systèmes d’IA adaptative qui joueront à terme un rôle essentiel dans la construction et l’opérationnalisation des architectures d’IA adaptative.
Étapes de la mise en œuvre
Toujours selon Gartner, l’ingénierie de l’IA fournit les composants fondamentaux de la mise en œuvre, de l’opérationnalisation, et assure la gestion du changement au niveau des processus pour faire émerger des systèmes d’IA adaptative. Cela étant, l’IA adaptative exige un renforcement considérable et modifie l’aspect de gestion des efforts d’ingénierie de l’IA. Les systèmes de réorganisation pour l’IA adaptative auront un impact significatif sur les employés, les entreprises et les partenaires technologiques, mais leur déploiement prendra du temps.
Dès lors, il conviendra de poser les bases de systèmes d’IA adaptatifs en enrichissant les modèles actuels de l’IA avec des modèles conceptuels d’IA et des capacités de traitement des flux d’événements, pour évoluer à terme vers des méthodes basées sur des agents, ce qui offrira davantage d’autonomie aux composants des systèmes.
De même, il faudra faciliter l’adoption de l’IA par les utilisateurs professionnels et stimuler la gestion de ces systèmes en intégrant des indicateurs commerciaux explicites et mesurables, fournis par les systèmes opérationnels.
À terme, les systèmes d’IA adaptative créeront une expérience utilisateur supérieure et plus rapide, et permettront d’élargir les capacités de prise de décision et de flexibilité. Mais pour ce faire, les responsables des équipes informatiques devront réorganiser divers processus pour construire des systèmes capables d’apprendre et de modifier leurs comportements en fonction des circonstances.
Avantages
Si elle est relativement puissante, l’IA traditionnelle peut éprouver des difficultés à s’adapter à l’évolution rapide des conditions du marché. Dès lors, l’IA adaptative se positionne comme une amélioration transformative de l’IA pour permettre d’offrir différents avantages intéressants. Ainsi, elle permet d’apporter des améliorations continues en redéfinissant la précision, la vitesse et la fiabilité en apprenant de l’expérience et du feedback des utilisateurs. Par ailleurs, elle se développe dans des environnements imprévisibles, en récupérant à partir d’erreurs et en s’adaptant à de nouveaux défis.
De même, elle réduit les coûts opérationnels en limitant le besoin d’intervention constante de la part d’un humain ainsi que les mises à jour manuelles. Enfin, l’IA adaptative améliore les expériences fortement personnalisées en adaptant les réponses aux préférences individuelles des utilisateurs.
Cas d’usage
Selon le cabinet Precedence Research, le marché mondial de l’IA adaptative devrait passer de 0,73 milliard de dollars en 2023 à 24,63 milliards de dollars en 2033, soit une croissance annuelle cumulée de plus de 42% entre 2024 et 2033.
Parmi les cas d’usage potentiels, le secteur des soins de santé apparaît comme particulièrement prometteur, notamment pour la détection précoce de maladies, les plans de traitement personnalisés ou les tâches administration et de soins routinières. De même, l’enseignement pourrait bénéficier de l’IA adaptative dans la mise en place de trajets d’enseignement sur mesure ou l’identification d’étudiants à risque. Dans la finance également, cette technologie pourrait être appliquée à la gestion des risques ou la détection des fraudes, tandis que le trading algorithmique peut apprendre des tendances du marché pour définir des stratégies de trading.
Enfin, même si les cas d’usage pourraient se multiplier à mesure que la technologie devient plus mature, l’IA adaptative pourra être déployée dans le manufacturing pour optimiser les processus de fabrication et réduire les temps d’arrêt coûteux en analysant les données de production pour prédire toute interruption future.
Aprico Consultants collabore avec ses clients pour traduire la stratégie de l’entreprise, ses objectifs et ses contraintes en programmes de transformation pragmatiques qui délivrent une véritable valeur ajoutée et un retour sur investissement avéré.
L’IA adaptative absorbe les apprentissages au fur et à mesure qu’elle se construit dans le but de créer une expérience utilisateur supérieure et plus rapide en s’adaptant aux circonstances changeantes du monde réel de l’entreprise.
Alors que la flexibilité et l’adaptabilité sont désormais vitales dans un monde toujours plus concurrentiel et où l’innovation fait la différence, les organisations se tournent désormais vers l’IA adaptative pour réagir plus rapidement et efficacement.
Importance croissante
Le cabinet Gartner prévoit qu’à l’horizon 2026, les entreprises qui auront adopté les pratiques d’ingénierie de l’IA pour construire et gérer des systèmes d’IA adaptative surpasseront d’au moins 25% leurs homologues au niveau du nombre de modèles d’intelligence artificielle et du temps nécessaire pour les rendre opérationnels.
L’IA adaptative regroupe différentes méthodes (entendez la conception à base d’agents) et de techniques d’IA (l’apprentissage par renforcement) pour permettre aux systèmes d’ajuster leurs pratiques d’apprentissage et leurs comportements dans le but de s’adapter à l’évolution des circonstances du monde réel.
Dans cette optique, il importe dès lors de regrouper les gestionnaires, les informaticiens et les équipes de support pour mettre en œuvre des systèmes d’IA adaptative qui joueront à terme un rôle essentiel dans la construction et l’opérationnalisation des architectures d’IA adaptative.
Étapes de la mise en œuvre
Toujours selon Gartner, l’ingénierie de l’IA fournit les composants fondamentaux de la mise en œuvre, de l’opérationnalisation, et assure la gestion du changement au niveau des processus pour faire émerger des systèmes d’IA adaptative. Cela étant, l’IA adaptative exige un renforcement considérable et modifie l’aspect de gestion des efforts d’ingénierie de l’IA. Les systèmes de réorganisation pour l’IA adaptative auront un impact significatif sur les employés, les entreprises et les partenaires technologiques, mais leur déploiement prendra du temps.
Dès lors, il conviendra de poser les bases de systèmes d’IA adaptatifs en enrichissant les modèles actuels de l’IA avec des modèles conceptuels d’IA et des capacités de traitement des flux d’événements, pour évoluer à terme vers des méthodes basées sur des agents, ce qui offrira davantage d’autonomie aux composants des systèmes.
De même, il faudra faciliter l’adoption de l’IA par les utilisateurs professionnels et stimuler la gestion de ces systèmes en intégrant des indicateurs commerciaux explicites et mesurables, fournis par les systèmes opérationnels.
À terme, les systèmes d’IA adaptative créeront une expérience utilisateur supérieure et plus rapide, et permettront d’élargir les capacités de prise de décision et de flexibilité. Mais pour ce faire, les responsables des équipes informatiques devront réorganiser divers processus pour construire des systèmes capables d’apprendre et de modifier leurs comportements en fonction des circonstances.
Avantages
Si elle est relativement puissante, l’IA traditionnelle peut éprouver des difficultés à s’adapter à l’évolution rapide des conditions du marché. Dès lors, l’IA adaptative se positionne comme une amélioration transformative de l’IA pour permettre d’offrir différents avantages intéressants. Ainsi, elle permet d’apporter des améliorations continues en redéfinissant la précision, la vitesse et la fiabilité en apprenant de l’expérience et du feedback des utilisateurs. Par ailleurs, elle se développe dans des environnements imprévisibles, en récupérant à partir d’erreurs et en s’adaptant à de nouveaux défis.
De même, elle réduit les coûts opérationnels en limitant le besoin d’intervention constante de la part d’un humain ainsi que les mises à jour manuelles. Enfin, l’IA adaptative améliore les expériences fortement personnalisées en adaptant les réponses aux préférences individuelles des utilisateurs.
Cas d’usage
Selon le cabinet Precedence Research, le marché mondial de l’IA adaptative devrait passer de 0,73 milliard de dollars en 2023 à 24,63 milliards de dollars en 2033, soit une croissance annuelle cumulée de plus de 42% entre 2024 et 2033.
Parmi les cas d’usage potentiels, le secteur des soins de santé apparaît comme particulièrement prometteur, notamment pour la détection précoce de maladies, les plans de traitement personnalisés ou les tâches administration et de soins routinières. De même, l’enseignement pourrait bénéficier de l’IA adaptative dans la mise en place de trajets d’enseignement sur mesure ou l’identification d’étudiants à risque. Dans la finance également, cette technologie pourrait être appliquée à la gestion des risques ou la détection des fraudes, tandis que le trading algorithmique peut apprendre des tendances du marché pour définir des stratégies de trading.
Enfin, même si les cas d’usage pourraient se multiplier à mesure que la technologie devient plus mature, l’IA adaptative pourra être déployée dans le manufacturing pour optimiser les processus de fabrication et réduire les temps d’arrêt coûteux en analysant les données de production pour prédire toute interruption future.
Aprico Consultants, membre du groupe Yuma, collabore avec ses clients pour traduire la stratégie de l’entreprise, ses objectifs et ses contraintes en programmes de transformation pragmatiques qui délivrent une véritable valeur ajoutée et un retour sur investissement avéré. Au sein de Yuma, nous bénéficions d’un réseau important de collaborateurs, ainsi que de l’expertise de la société B12, tous deux très actifs dans le déploiement de l’intelligence artificielle. N’hésitez pas à nous solliciter pour toute question ou projet lié à l’IA, où nous pouvons mettre à profit ces compétences étendues.
Attaque désormais bien connue, mais toujours très mal gérée dans les organisations, la compromission de messagerie d’entreprise vise à voler de l’argent ou des informations critiques par le biais du courriel. Visant n’importe quel collaborateur où qu’il se situe dans la hiérarchie, la BEC exploite la crédulité. Mais se révèle redoutablement efficace.
S’ils sont omniprésents dans l’actualité, les rançongiciels ne représentent que 1% des pertes financières subies par les entreprises à la suite d’une cyberattaque, selon un rapport de Crane Hassold. Et notre homme sait de quoi il parle pour avoir été analyste au FBI durant plus de 11 ans et être aujourd’hui directeur de la Threat Intelligence chez Abnormal Security, spécialisée en protection des courriels. D’ailleurs, ce même FBI estime dans son rapport Internet Crime Complaint Center (IC3) que le coût total des attaques de type BEC représentait 26 milliards de dollars entre juin 2016 et juillet 2019. De son côté, le rapport State of the Phish réalisé par ProofPoint, autre spécialiste américain de la cybersécurité, a estimé que 65% des organisations ont été confrontées à un attaque BEC en 2020.
Types d’attaques
L’attaque BEC utilise un courriel visant à inciter une personne à verser de l’argent ou divulguer des informations confidentielles. Si les arnaques ne sont pas toutes identiques, il existe cinq types d’attaques:
Cibles et protection
N’importe qui peut être cible par une attaque BCE, qu’il s’agisse d’une entreprise, d’une administration, d’une association ou d’une école. Cependant, les cadres et dirigeants, les employés du service financier ou des ressources humaines, ainsi que les collaborateurs nouveaux ou débutants sont particulièrement visés.
Pour se protéger au maximum, il importera de mettre en place différentes bonnes pratiques. Ainsi, utiliser une solution de courriel sécurisée est indispensable pour permettre de bloquer certains expéditeurs ou de signer des courriels indésirables, de même que de prévoir une protection avancée contre l’hameçonnage ou la détection de transferts suspects. Configurer une authentification multi facteur (MFA) est également nécessaire, en exigeant un code PIN ou une empreinte digitale en plus du mot de passe pour se connecter. De même, apprendre aux employés à repérer les signaux d’alerte se révèle judicieux afin que le collaborateur détecte des liens d’hameçonnage, une discordance de domaine ou d’adresse électronique ou tout autre signal alarmant. Définir des paramètres de sécurité par défaut permettra aussi de renforcer la sécurité, tandis que le recours aux outils d’authentification d’e-mails s’avérera important. Enfin, adopter une plateforme de paiement sécurisée permettra d’authentifier les paiements et donc d’éviter de payer une facture inappropriée.
Agir et réagir
Si les attaques BEC sont difficiles à identifier, c’est principalement parce qu’elles sont peu nombreuses et ne consistent souvent que d’un ou de deux courriels. Ce faible volume permet de changer régulièrement d’adresse IP, ce qui rend leur blocage difficile. De même, elles utilisent une source ou un domaine légitime (adresse IP ayant une réputation neutre ou bonne) ou recourent également à l’usurpation d’identité. Elles peuvent aussi provenir d’un compte de messagerie légitime, même si cela demande plus d’efforts de la part de l’attaquant. Enfin, elles passent les contrôles DMARC (domain-based message authentication, reporting and conformance), ce qui permet d’éviter l’usurpation d’identité d’un domaine.
Aprico ambitionne d’aider les entreprises à innover et à repenser leurs processus métier en mettant la sécurité au centre de leur réflexion stratégique. Nous pouvons partager les bonnes pratiques, technologies et modèles organisationnels qui permettront à l’organisation de s’ouvrir sur l’extérieur et de partager l’information en toute sécurité.
Si tous les observateurs s’accordent à dire que l’IA aura un impact majeur sur nos vies et nos activités professionnelles, les dangers associés à l’IA ne doivent évidemment pas être occultés. D’où l’urgence de déployer un cadre d’AI TRiSM qui gérera les risques, la confiance et la sécurité.
Nous n’allons pas dans ces colonnes nous pencher sur les potentialités qu’offrent l’intelligence artificielle (IA). Celles-ci sont évidemment gigantesques et impactent d’ores et déjà nos vies tant privées que professionnelles. Mais dans son ‘Top 10 Strategic Technology Trends for 2024’, le cabinet Gartner identifie la gestion de la confiance, des risques et de la sécurité l’IA (AI TRiSM) comme l’une des tendances à prendre à compte par les organisations.
Framework
Dès lors, le cabinet estime qu’il convient de mettre en place un cadre articulé autour de trois éléments : la confiance pour permettre la transparence et l’explicabilité, notamment sur la manière dont un modèle d’IA atteint un résultat donné ; la mise en place d’une gouvernance pour gérer les risques liés à l’IA, y compris les diverses étapes du développement et du déploiement pour garantir l’intégrité et la conformité du modèle ; et la gestion de la sécurité pour s’assurer que la sécurité est intégrée à chaque étape du processus et sur l’ensemble du cycle d’apprentissage machine, y compris la prise en compte d’anomalies et de vulnérabilités.
Toujours selon Gartner, ce cadre doit reposer sur quatre piliers. Primo, l’explicabilité et le monitoring du modèle afin que les décisions prises par l’IA soient transparentes et compréhensibles en décrivant le fonctionnement des modèles, en documentant leurs forces et leurs faiblesses, et en examinant les biais potentiels. Secundo, un ModelOps qui permet de couvrir la gestion des modèles d’IA sur l’ensemble de leur cycle de vie ainsi que de maintenir un fonctionnement optimal et des standards éthiques. Tertio, la sécurité de l’application d’IA vise à protéger les modèles contre les cyberattaques. Et enfin quarto, la vie privée qui garantit la protection des données en privilégiant la vie privée individuelle au cas où des données sensibles sont utilisées.
Défis
Clairement, la confiance est un élément clé du succès de l’intégration de l’IA. De même, la sécurité et le risque sont des notions capitales, sachant que les systèmes d’IA peuvent introduire de nouvelles vulnérabilités et menaces. En effet, il s’agit de préserver des informations sensibles, de protéger des actifs vitaux et de garantir la conformité à des réglementations et des standards du marché. Traditionnellement, ces éléments sont gérés de manière manuelle par des experts, mais une telle approche est chronophage, source d’erreurs et difficilement évolutive. Avec le développement de la technologie, l’automatisation devient un outil pertinent pour exploiter les systèmes à base d’IA.
Si un cadre d’AI TRiSM se révèle intéressant, plusieurs défis devront être surmontés avant leur déploiement sur le terrain à grande échelle. En cause, le fait qu’un tel framework nécessité d’être fiable et de s’appuyer sur des avancées dans les systèmes d’IA. Par ailleurs, la mise en place de ce cadre nécessitera une approche unifiée et globale du développement et du déploiement durable et responsable des systèmes d’IA, une stratégie adaptée en fonction des défis à venir et une acceptation des réglementations et de l’éthique du marché.
Déploiement
Plusieurs raisons peuvent pousser les organisations à intégrer l’AI TRiSM dans leurs modèles d’IA. Ainsi, cette technologie permet d’identifier et d’atténuer proactivement les risques associés aux modèles d’IA afin de s’assurer que ceux-ci sont honnêtes, conformes et sécurisés dans la protection de la vie privée. De même, elle garantit que les systèmes d’IA seront dignes de confiance, fiables et transparents afin d’améliorer la confiance dans de tels modèles et applications. Elle facilite en outre l’intégration de la gouvernance dès les premiers stades de développement, d’où une garantie de conformité aux régulations, standards et normes éthiques.
Un tel cadre aide aussi à établir des protocoles et des mesures de sécurité pour protéger les systèmes d’IA contre les cybermenaces et cyberattaques, ce qui permet de garantir la sécurité et la protection des systèmes d’IA, tout en respectant le droit à la vie privée des individus. Les organisations qui déploient l’AI TRiSM dans leurs opérations constatent une augmentation de 50% dans l’adoption de modèles d’IA du fait de la précision de ces modèles, ce qui améliore l’efficacité et l’expérience utilisateur. Enfin, comme les stratégies d’IA et d’automatisation peuvent réduire significativement les charges de travail et sont synonymes d’économies, les organisations s’ouvrent ainsi sur l’avenir en améliorant la fiabilité, la sécurité et la confiance dans les modèles et applications d’IA.
La conception et la mise en œuvre d’un framework d’AI TRiSM (Trust, Risk and Security Management) exige non seulement des connaissances technologiques, mais aussi et surtout une parfaite compréhension du métier du client. Or qui d’autre que votre partenaire informatique de confiance est en mesure de bien appréhender votre stratégie, vos besoins et vos objectifs. Aprico Consultants aide, guide, facilite et coordonne de tels projets dans le but de permettre une mise en œuvre plus rapide, de générer des gains d’efficacité et de réduire les coûts de vos projets.
Aprico Consultants is taking a big step into the future by joining the leading digital transformation group, Yuma. Together with its affiliate company Freedom of Dev, Aprico Consultants will strengthen the Yuma group with complementary services and extend its geographical footprint, especially in the south of Belgium.
Yuma is an integrated group of best-in-class companies in digital transformation, with M80, a Brussels-based private equity firm, as its majority shareholder. Their ambition is to become a leading European player in digital transformation. The group aims to offer solutions that cover the entire digital value chain, from strategy and ideation to execution and operation. With Aprico Consultants, Yuma will have more than 650 professionals across four countries, serving clients in various sectors such as finance, healthcare, education, energy and public services.
Next to Aprico Consultants, Yuma includes Luminis, XPLUS, Total Design and BPSOLUTIONS. Luminis is an advanced software and technology company focused on cloud and data solutions. XPLUS is an expert in enterprise IT architecture. Total Design has award-winning branding, communication and technology disciplines and BPSOLUTIONS helps organizations with Cloud, Managed Services, and Data Analytics so they can move forward smarter.
Christophe Delcorte, founder of Aprico Consultants and Freedom of Dev: “Joining Yuma is a great opportunity to accelerate our growth and expand our capabilities. We are excited to collaborate with the outstanding talents in the other Yuma companies, who share the same vision of delivering high-quality digital solutions that create value for our clients and society. Together, we can offer a comprehensive range of services and products that cover every aspect of the digital journey, from strategy and design to development and maintenance.”
Pascal Laffineur, Yuma CEO: “We are delighted to welcome Aprico Consultants and Freedom of Dev to the Yuma family. Aprico Consultants brings a wealth of expertise and experience in digital transformation, especially in the areas of software development, solution architecture, project and change management. This strengthens our capabilities and offerings in the Benelux to support our customers throughout their digital journey. Together, we deliver innovative and sustainable solutions that connect digital transformation with human nature.”
The transaction is expected to be finalized early April, upon receipt of the required approvals.
Aprico Consultants is a leading hands-on ICT strategy and management consultancy firm based in Brussels, Belgium. Aprico Consultants is specialized in information systems architecture and transformation. By resolutely accelerating the digital transformation process, Aprico Consultants provides customers with the flexibility, performance and required competitiveness to reinforce their market position and to improve their customer service. Freedom of Dev is an Aprico Consultants affiliate offering nearshore software development solutions with a short time to market.
Yuma is a European digital transformation player offering a range of services from Digital & IT-strategy to Cloud operations. Their mission is to enable digital transformations that genuinely resonate with people. Yuma acknowledges the undeniable power of technology, but also firmly believes that at its core, technology needs the human touch. Yuma combines the best-in-class expertise from a range of companies: all experts in their field. This combination allows for a sustainable, pragmatic and human approach to make digital transformations successful. XPLUS, Total Design, BPSOLUTIONS, Luminis and soon also Aprico Consultants are part of Yuma.
D’ici 2026, prédit le cabinet Gartner, une grande entreprise sur trois mettra en place une entité ou un canal de vente pour desservir des clients-machines, dans des domaines comme la chaîne d’approvisionnement, les ventes, le marketing, le service client, l’e-commerce ou l’expérience client. Et vous ?
D’autant que, ajoute encore Gartner, d’ici 2025 – soit deux ans maximum – quelque 25% des centres de vente et de service des grandes organisations recevront des appels téléphoniques émanant de tels clients-machines ?
Définition
Un client machine est une entité non-humaine qui établit automatiquement des transactions telles que l’achat de biens et de services. Contrairement aux systèmes automatisés traditionnels, ces clients-machines ne suivent pas des règles strictement définies, mais peuvent prendre des décisions basées sur toute une série de facteurs et s’adapter au fil du temps. Elles peuvent établir des transactions pour le compte d’humains, mais aussi pour elles-mêmes. Jusqu’à présent, les organisations ont déployé des d’outils de self-service comme les IVR (interactive voice response) ou les chatbots (agents conversationnels). Mais force est de constater que les clients ne semblent pas particulièrement apprécier ce type d’interaction.
S’il faut toutefois en croire les experts, les clients-machines généreront des milliards de revenus à l’horizon 2030. D’ailleurs, Gartner croit savoir qu’en 2030 précisément, les CEO devraient tirer jusqu’à 20% de leurs revenus de clients-machines. Et d’ajouter que plus de 15 milliards de produits connectés auront le potentiel de se comporter comme des clients.
Trois phases
Gartner définit trois phases de développement de cette technologie. D’abord, le bound customer où l’humain dirige et la machine exécute (ce qui est le cas aujourd’hui). Ensuite, l’adaptable customer où l’humain et la machine co-dirigent, et ou la machine exécute (2026). Enfin, l’autonomous customer où la machine dirige et exécute (2036). Différentes technologies servent de fondement à l’émergence des clients-machines, et notamment l’IoT ou la reconnaissance de modèles d’IA.
Certes, il existe déjà des outils des machines capables de remplacer le client humain. Par exemple, les assistants numériques à fonctionnalité d’IA. C’est ainsi qu’il est possible de demander à Siri de définir une alarme ou au Google Assistant de vous remplacer, ou encore à Alexa de réorganiser vos accords de guitare.
Actuellement, il n’existe que deux types d’interactions entreprise/client : de personne à personne ou de personne à machine. Mais à terme, on verra apparaître des interactions de type ‘personne à machine’ (un assistant numérique ou robot qui appelle une entreprise pour le compte d’un humain et parle à un humain pour demander une action) et ‘machine à machine’ (par exemple un humain demande à son assistant numérique de changer la date de paiement d’une facture, après quoi l’assistant interagit avec le système téléphonique du fournisseur pour exécuter la tâche en toute autonomie, sans l’intervention d’un humain donc).
Défis
Certes, plusieurs défis devront encore être relevés. Le premier – assez évident – tient à la sécurité. Il conviendra en effet d’appliquer des processus de sécurité très stricts, notamment de la biométrique vocale ou encore de l’authentification à deux facteurs (2FA).
Cela étant, il importera de ne pas trop hésiter à déployer la technologie dans la mesure où les clients utiliseront de plus en plus un assistant numérique pour interagir avec le service client, ceci pour des questions de facilité (et, partant, de coût). Ainsi, les compagnies d’assurances, fournisseurs d’énergie et opérateurs de téléphonie par exemple ont tout intérêt à se pencher sur cette technologie, au risque de perdre un avantage concurrentiel.
Reste qu’il ne faudra pas non plus se précipiter et aller trop loin dans le déploiement de clients-machines. Car il n’est pas question de remplacer simplement une interaction de personne à personne par un tel client-machine, mais plutôt de l’utiliser en complément.
Enfin, il faudra repenser tous les processus internes à une organisation et redéfinir ce que signifie une bonne expérience client, notamment en termes d’empathie.
Préparez-vous !
Toujours selon le cabinet Gartner, on recensera en 2025 plus de 15 milliards d’objets connectés susceptibles d’interagir avec des clients. Et à l’horizon 2030, les machines-clients seront directement impliquées ou influenceront les achats pour un montant de 3.000 milliards de dollars.
Dès lors, le déploiement de la technologie ne sera pas uniquement de la responsabilité du CIO, mais de l’ensemble des cadres de niveau C. Car sans l’implication et la collaboration de l’ensemble des dirigeants, les progrès ne seront que partiels, inefficaces et non-inclusifs.
La collaboration devra porter sur la stratégie, le développement de produits, les ventes et le marketing. Il appartiendra au CIO d’analyser dans un premier temps ce que les clients-machines signifient pour l’organisation avant de formuler des scénarios d’opportunités de marché. Ce CIO devra également être attentif aux barrières liées à la mise en place de la technologie et bien communiquer avec les (autres) cadres dirigeants.
Enfin, il importera de se pencher sur les questions éthiques et juridiques ainsi que l’atténuation des risques dans un environnement où les machines agiront comme des clients.
Aprico Consultants est votre partenaire de la transformation numérique – Dans un monde caractérisé par la rupture des marchés et des technologies, nous vous assistons dans la transformation intelligente de vos activités pour vous permettre d’atteindre vos objectifs métier. Nous adoptons une approche différente, rapide et pragmatique afin d’identifier, d’aligner, de transformer et d’implémenter les leviers technologiques qui vous permettrons de gagner en efficience, de réduire vos coûts et de stimuler votre croissance.
Nous avons emprunté leur boule de cristal à deux grands cabinets de consultance IT, Gartner et Deloitte. Sans grande surprise, l’intelligence artificielle est au cœur des défis non seulement du département informatique, mais aussi de l’entreprise en général.
GARTNER
Le cabinet Gartner a identifié dix tendances technologiques stratégiques pour cette année 2024 : la gestion de la sécurité, du risque et de la confiance dans l’IA (AI TRiSM), la gestion de l’exposition continue aux menaces (CTEM), la technologie durable, l’ingénierie de plateforme, le développement de l’IA augmentée, les plateformes cloud industrielles, les applications intelligentes, l’IA générative démocratisée, la main-d’œuvre connectée et augmentée et les clients-machine.
Chacune de ces technologies se réfère à trois grands thèmes métier. Primo, la protection et la préservation des investissements passés et futurs, le but étant d’arrêter toute expérimentation non-contrôlée dans une direction mal définie afin que les efforts soient intentionnels et produisent des résultats tangibles dans les opérations au jour le jour. Secundo, la mise en avant de forces productives en stimulant le potentiel créatif de différentes communautés qui développent des applications et des solutions en exploitant des technologies qui correspondent au secteur d’activité, en mettant au point des feuilles de route pour permettre aux non-spécialistes d’être créatifs et en travaillant étroitement avec les parties prenantes du métier pour définir le déploiement de logiciels et la gestion du cycle de vie du portefeuille applicatif. Tertio, la génération de valeur en redéfinissant et en accélérant la manière d’améliorer l’expérience pour les parties prenantes, tout en élargissant les options d’amélioration des revenus.
Gartner ajoute que pour exploiter ces technologies et atteindre les objectifs fixés par le CEO et le CIO pour 2024, il conviendra d’étudier le potentiel de ces tendances au regard de la situation spécifique de l’organisation, de l’intégrer dans le planning stratégique des prochaines années et d’adapter en conséquence les modèles organisationnels et les opérations. Le cabinet précise que ces tendances se renforcent mutuellement et ne doivent pas être isolées l’une de l’autre. « Combinez ces technologies pour concrétiser votre stratégie, vos objectifs de transformation et vos performance », conclut Gartner.
DELOITTE
De son côté, le consultant Deloitte a identifié dans son ‘Tech Trends 2024’ six grandes tendances et estime que l’IA bouleverse le rapport de l’humain à la technologie, « avec une technologie au service de l’homme et non plus un homme qui se plie aux processus d’un logiciel pensé en fonction de contraintes technologiques. »
Ainsi, le métavers (qui combine les technologies de réalité augmentée et de réalité virtuelle) va sortir du domaine ludique pour conquérir le monde industriel, avec des applications comme les jumeaux numérique et l’essor du travail augmenté. Par ailleurs, l’ère de l’IA et des applications très gourmandes en puissance de calcul va contraindre les entreprises à se tourner vers des infrastructures optimisées. D’où le succès par exemple des puces GPU (graphical processing unit ou processeur graphique) et le besoin croissant de grands hyperscalers (Google, AWS, Microsoft, Facebook, IBM et consorts) qui disposent de leurs propres accélérateurs. L’expérience utilisateur devient également au centre des préoccupations de toute organisation, de même que la volonté d’améliorer la productivité et la satisfaction des développeurs de logiciels dans le cadre d’une approche DevEx qui « souligne l’importance croissante du capital humain dans le développement technologique. »
Autre grande tendance mise en lumière par Deloitte, la nécessité d’adopter une approche plus holistique et proactive de la dette technique, évoquant le « bien-être technique », une démarche dans laquelle les entreprises optent pour une stratégie préventive en identifiant les domaines prioritaires pour les améliorations, tout en considérant l’ensemble de l’existant, plutôt que de se concentrer uniquement sur la correction des problèmes existants. En outre, après une année 2023 marquée par une explosion des cybermenaces, l’année qui vient exigera des entreprises de pouvoir détecter de nouveaux types de menaces liées aux deepfakes et aux nouveaux outils d’IA capables de faciliter l’usurpation d’identité et la tromperie.
Enfin, Deloitte considère que l’IA générative va non seulement augmenter la productivité des professionnels, mais également introduire un véritable changement de paradigme. « Trop de chefs d’entreprise considèrent l’IA générative comme une simple pilule amaigrissante – un moyen rapide de réduire les coûts en automatisant et en supprimant des emplois. Le fait de s’attaquer aux centres de coûts est une approche à court terme. Or l’IA générative doit plutôt être considérée comme le carburant des fusées », affirment Bill Briggs et Mike Bechtel, respectivement global chief technology officer et chief futurist de Deloitte.
Disposer d’une infrastructure informatique qui soit à la fois plus disponible, plus évolutive et plus performante, le tout avec des coûts maîtrisés? Le rêve évidemment de tout CIO… et de son CEO. Pourquoi ne pas dès lors adopter l’ingénierie de plateforme?
Pour répondre aux besoins croissants de transformation numérique des organisations tout en stimulant l’innovation, le département IT fait aujourd’hui face à de nombreux défis. L’un de ceux-ci consiste à automatiser toujours plus les opérations pour accélérer le déploiement d’applications, d’autant que les architectures logicielles modernes se révèlent toujours plus complexes et se tournent toujours davantage vers le cloud.
Définition
Désignée par le cabinet Gartner comme l’une des tendances de l’année 2023 le platform engineering vise à « améliorer l’expérience et la productivité du développeur en fournissant des fonctions en self-service grâce à l’automatisation des opérations liées à l’infrastructure. Cette technologie émerge dans la mesure où elle promet d’optimiser l’expérience du développeur et d’accélérer la génération de valeur métier par les équipes de produits. »
Toujours selon Gartner, l’ingénierie de plateforme entend répondre à l’augmentation croissante de la complexité des architectures logicielles. « Aujourd’hui, les utilisateurs finaux non-experts se voient souvent demander de gérer un ensemble de services complexes et obscurs », précise Paul Delory, vice-président analyste chez Gartner. « Pour aider les utilisateurs finaux et réduire les frictions dans le travail, les entreprises innovantes ont commencé à déployer des plateformes qui se positionnent entre l’utilisateur final et les services de soutien sous-jacents. »
D’ici 2026 d’ailleurs, Gartner estime que 80% des grandes organisations d’ingénierie logicielle auront mis en place des équipes de platform engineering comme fournisseur interne de services, de composants et d’outils réutilisables pour la fourniture d’applications. Car à terme, l’ingénierie de plateforme résoudra le problème central de coopération entre les développeurs de logiciels et les utilisateurs.
Fonctionnement
Globalement, l’ingénierie de plateforme vise donc à accélérer la mise en production d’applications et à réduire les délais de génération de valeur pour le métier. L’objectif est par ailleurs d’améliorer l’expérience et la productivité du développeur en lui fournissant des fonctionnalités en self-service dans le cadre d’une infrastructure automatisée.
Cette discipline se concentre sur la conception, le développement et la gestion de plateformes techniques délivrant un ensemble de services et d’outils permettant au développeur de construire, déployer et gérer des applications et services de manière efficace et évolutive.
En pratique, les équipes d’ingénierie de plateforme assument notamment le développement et la maintenance de l’infrastructure de la plateforme en gérant et en pilotant l’installation, la configuration et la gestion des serveurs, du stockage, des réseaux et des autres composants de l’infrastructure. Dès lors, elles permettent d’améliorer la productivité des équipes, mais aussi la disponibilité de l’infrastructure (avec possibilité d’évolutivité et d’adaptabilité aux besoins réels du métier), tout en renforçant la sécurité grâce à des outils de gestion des identités et des accès, à la surveillance de la sécurité et la réponse aux incidents.
Bénéfices
L’ingénierie de plateforme est censée apporter de nombreux bénéfices aux organisations travaillant dans le cloud. En effet, cette technologie vise à inciter les développeurs à consommer des services par le biais du self-service. L’un des intérêts majeurs est d’automatiser les processus, et donc d’accélérer le cycle de développement puisque les développeurs pourront déployer leur code plus rapidement
Par ailleurs, le déploiement en self-service d’infrastructures ou d’applications réduit la complexité liée à ces processus. Le cycle DevOps étant totalement automatisé, la productivité des développeurs s’accroît et leur charge de travail diminue. Les développeurs sont en effet plus autonomes et peuvent recourir à des portails pour délivrer plus rapidement de nouvelles versions de logiciels.
Par ailleurs, les applications sont plus évolutives puisque les développeurs peuvent créer, répliquer, supprimer et mettre à jour l’environnement de déploiement sans devoir se soucier des activités en arrière-plan. Dès lors, les organisations peuvent grandir plus rapidement et plus efficacement.
Plusieurs cas pratiques peuvent justifier la mise en place de l’ingénierie de plateforme. Ainsi, si l’organisation souhaite que son équipe de base puisse se focaliser exclusivement sur le développement d’un produit, si l’équipe de développement connaît une croissance rapide, ou encore si l’innovation est privilégiée, l’ingénierie de plateforme peut apporter une réponse appropriée.
Aprico Consultants propose des conseils et services personnalisés et de bout en bout. Nous offrons une expertise sectorielle étendue, un framework agile scrum et un support nearshore. Nos services personnalisés d’ingénierie logicielle et d’intégration sont conçus pour répondre à vos exigences spécifiques grâce au recours aux bonnes pratiques qui permettent de générer des résultats rapides et efficaces s’inscrivant parfaitement dans vos activités. Le développement d’applications ne peut se révéler optimal que s’il est pratiqué dans un environnement adapté. Notre expertise pointue en ALM et en DevOps permet d’aligner les départements IT, ce qui garantit une efficience supérieure, une mise en production plus rapide lors du déploiement d’applications, une réduction des coûts et une meilleure satisfaction client.
*illustration réalisée avec l’aide de l’intelligence artificielle.
Pour simplifier et rationaliser leurs plateformes technologiques dans le cadre de la transformation numérique, les entreprises se tournent vers l’automatisation et l’orchestration. Alors que l’automatisation ne concerne qu’un seul processus, l’orchestration vise un niveau plus large.
L’automation de processus consiste à faire appel à la technologie pour effectuer une tâche unique et ainsi remplacer l’intervention humaine. Dès lors, la productivité peut être améliorée, tandis que chaque tâche en cours d’exécution a sa propre automatisation. Aujourd’hui, l’automatisation est appliquée à un large éventail de processus IT, par exemple la création de tickets de service dans le helpdesk, le développement et le déploiement d’applications, l’audit, l’intégration d’applications, etc.
Cependant, au fur et à mesure que le nombre d’automatisations augmente, il devient toujours plus complexe de surveiller et de gérer la manière dont ces automations s’intègrent dans l’ensemble de l’écosystème d’une organisation. En effet, une entreprise peut avoir des centaines, voire des milliers d’automatisations qui fonctionnent dans des environnements disparates. D’où cette question : comment faire pour que ces automatisations collaborent entre elles de manière efficace ?
Orchestration
Tel est précisément l’objectif de l’orchestration : agir comme un organe directeur de la suite technologique en dressant un portrait exhaustif du fonctionnement de l’organisation afin d’atteindre une meilleure coopération entre les flux automatisés.
Les outils d’orchestration visent donc à permettre aux entreprises d’automatiser et de prendre en charge des flux de travail, des systèmes informatiques, des services et des middlewares complets, interconnectés dans l’environnement informatique. L’orchestration est polyvalente et peut être appliquée à des plateformes sur site ou à des systèmes distribués dans le cloud. Bref, l’orchestration permet de gérer des ensembles complets de tâches, de bout en bout.
Globalement, l’orchestration permet tout d’abord une précision améliorée dans les tâches en évitant les erreurs humaines liées à leur répétition. Par ailleurs, la productivité s’en trouve accrue puisque les experts peuvent consacrer davantage de temps aux processus importants et qui nécessitent des connaissances et des compétences plus pointues. En outre, la standardisation des tâches se traduit par une plus grande fiabilité et cohérence, tout en simplifiant la mise en œuvre de nouveaux processus et leur intégration dans l’ensemble de l’écosystème de l’organisation.
Quels outils ?
Comme l’orchestration est une opération complexe par nature, le choix de l’outil adapté n’a rien d’évident. Il existe de nombreux outils logiciels et plateformes conçus pour aider les entreprises à effectuer la transition vers l’orchestration. Pour bien choisir son outil, plusieurs éléments doivent être pris en compte. D’abord, il convient de définir les besoins professionnels et les objectifs à atteindre puisque différents processus, systèmes et services nécessitent des outils différents d’orchestration. Ensuite, la facilité d’utilisation doit être prise en considération afin de s’assurer que les outils seront accessibles et suffisamment intuitifs pour être utilisés par du personnel non-spécialisé en IT. De même, l’évolutivité est importante sachant que les besoins évoluent constamment, tandis que l’auditabilité permettra de s’assurer que les outils d’orchestration permettent un suivi d’audit clair.
Enfin, l’outil d’orchestration devra être capable de collecter les données pertinentes qui seront ensuite analysées pour générer des rapports et des aperçus business appropriés.
Bénéfices
Alors qu’elle ne porte que sur une tâche spécifique, l’automatisation ne peut apporter de véritable différence perceptible. En revanche, si l’automatisation porte sur une série de processus ou de flux qui sont ensuite orchestrés pour fonctionner de manière automatique, les bénéfices sont nettement plus intéressants.
Tout d’abord, le bénéfice sera financier puisque les coûts IT pourront diminuer, sachant que le budget ainsi dégagé pourra être utilisé pour stimuler l’innovation. Ensuite, les interactions entre équipes pourront être limitées, tandis que les frictions seront réduites. Bien évidemment, la productivité sera améliorée puisque les ressources humaines pourront être affectées à d’autres tâches. Grâce à la standardisation des flux et des produits, l’entreprise pourra également travailler de manière plus cohérente et fiable. Enfin, l’expérience employé sera améliorée puisque les collaborateurs pourront se consacrer à des tâches plus créatives et stimulantes.
Ajoutons que lors de l’implémentation de l’orchestration, il conviendra de préférence d’opter dans un premier temps pour un projet susceptible de générer une valeur métier significative et mesurable. Si l’organisation ne recourt à l’orchestration que pour accélérer l’exécution de tâches, elle aura des difficultés à en retirer une véritable valeur métier ou financière.
Aprico ambitionne d’aider les entreprises à innover et à repenser leurs processus métier en mettant la sécurité au centre de leur réflexion stratégique. Nous pouvons partager les bonnes pratiques, technologies et modèles organisationnels qui permettront à l’organisation de s’ouvrir sur l’extérieur et de partager l’information en toute sécurité.
Face à l’augmentation des (cyber-)attaques contre les systèmes informatiques et compte tenu que les infrastructures sont toujours plus partagées, le concept d’informatique confidentielle tend à s’imposer. Il promet en effet à la fois d’augmenter le niveau de sécurité des plateformes et d’accroître le niveau de confiance des utilisateurs.
Les experts s’accordent à considérer que les données peuvent être dans trois états : les données ‘au repos’ stockées par exemple sur un disque dur ou dans une base de données ; les données ‘en mouvement’ qui transitent sur les réseaux ; et les données en cours d’utilisation, qui sont traitées par le microprocesseur. Si des primitives cryptographiques sont largement mises en œuvre pour sécuriser les données dans les deux premiers états, ce qui permet de garantir l’intégrité et la confidentialité, les données en cours d’utilisation restent difficiles à protéger. D’autant que les infrastructures sont toujours plus décentralisées et partagées dans le contexte du cloud hybride ou public.
En effet, les attaques sont nombreuses et prennent globalement deux grandes formes. D’une part, les attaques logicielles pour compromettre l’intégrité du système (rançongiciel, piratage, exploitation de vulnérabilités, injection d’erreurs logiques, etc.), mais aussi pour accéder aux données par des canaux auxiliaires (side-channel attacks), sans oublier les erreurs de configuration et de paramétrage. D’autre part, au niveau physique, le risque existe qu’un administrateur système ou un prestataire externe accède sans autorisation à l’infrastructure et puisse copier des données, espionner un lien ou surveiller un bus informatique par exemple.
Fonctionnement
Globalement donc, les données sont vulnérables juste avant le traitement, pendant leur traitement et juste après : elles sont exposées aux vidages de mémoire, aux compromissions de l’utilisateur root et à d’autres exploits malveillants.
L’informatique confidentielle prétend pouvoir résoudre ce problème à l’aide d’un environnement d’exécution sécurisé (TEE ou trusted exécution environment) basé sur le matériel. Ce TEE est sécurisé à l’aide de clés de chiffrement intégrées, tandis que des mécanismes d’attestation intégrés garantissent que ces clés ne sont accessibles qu’au seul code d’application autorisé. Si un logiciel malveillant ou un code non autorisé tente d’accéder aux clés, ou si le code autorisé est piraté ou altéré, le TEE refusera l’accès aux clés et annulera l’opération.
Ce faisant, les données sensibles restent protégées en mémoire jusqu’à ce que l’application demande au TEE de les déchiffrer pour pouvoir les traiter. Ajoutons que pendant le chiffrement et tout au long du processus de traitement, les données sont invisibles pour le système d’exploitation ou pour l’hyperviseur d’une machine virtuelle, de même que pour les autres ressources de la pile de traitement ou encore le fournisseur cloud et ses employés.
Marché
Le déploiement d’un environnement de confiance doit favoriser le recours au multicloud grâce au chiffrement des données les plus sensibles dans des environnements mutualisés. D’ailleurs, le cabinet d’études Everest estime que le marché de l’informatique confidentielle progresse de 90 à 95% par an pour passer de 2 milliards de dollars en 2021 à pas moins de 54 milliards de dollars en 2026.
Et pour promouvoir davantage encore cette technologie, plusieurs acteurs du marché du semiconducteur (Intel, ARM, AMD ou encore Nvidia) se sont associés aux géants du logiciel (Microsoft, Google, Oracle et IBM) dans le Confidential Computing Consortium qui s’attelle depuis 2019 à définir des standards de l’informatique confidentielle et à accélérer son adoption.
Champ d’application
L’intégration croissante du multicloud et les cas d’utilisation spécifiques à la sécurité dans les différents secteurs d’activité seront les principaux moteurs de la croissance de cette technologie. Les entreprises axées sur la technologie dans les secteurs réglementés tels que les banques, les services financiers, les assurances, les soins de santé et les sciences de la vie devraient accélérer la croissance du marché. En effet, ces secteurs réglementés sont confrontés à une pression croissante des autorités de réglementation pour renforcer la sécurité et la confidentialité des données.
« L’exposition élevée aux données privées, associée à des réglementations telles que l’ACCP, Schrems II, le RGPD et l’HIPPA, garantit que l’intérêt pour l’informatique confidentielle sera élevé dans le secteur bancaire et financier », note ainsi Everest. En outre, les entreprises fintech, insurtech et healthtech, axées sur la technologie, sont susceptibles de pousser la sensibilisation dans les domaines BFSI (banking, financial services, insurance) et HLS (healthcare, life sciences) au cours des cinq prochaines années.
Aprico Consultants agit aux côtés de ses clients pour définir leur positionnement stratégique sur un marché en rupture et pour développer leur stratégie en exploitant les technologies existantes et nouvelles et en alignant l’IT sur les réalités métier dans tous les domaines. Notre méthodologie de consultance se veut un guide intelligent pour anticiper les changements et traduire les menaces numériques en opportunités, la transformation numérique intelligente étant étroitement liée à l’architecture d’entreprise et aux besoins opérationnels tant présents que futurs.