Prévisions IT 2024 – Que nous réserve l’informatique en 2024 ?

Nous avons emprunté leur boule de cristal à deux grands cabinets de consultance IT, Gartner et Deloitte. Sans grande surprise, l’intelligence artificielle est au cœur des défis non seulement du département informatique, mais aussi de l’entreprise en général.

GARTNER

Le cabinet Gartner a identifié dix tendances technologiques stratégiques pour cette année 2024 : la gestion de la sécurité, du risque et de la confiance dans l’IA (AI TRiSM), la gestion de l’exposition continue aux menaces (CTEM), la technologie durable, l’ingénierie de plateforme, le développement de l’IA augmentée, les plateformes cloud industrielles, les applications intelligentes, l’IA générative démocratisée, la main-d’œuvre connectée et augmentée et les clients-machine.

Chacune de ces technologies se réfère à trois grands thèmes métier. Primo, la protection et la préservation des investissements passés et futurs, le but étant d’arrêter toute expérimentation non-contrôlée dans une direction mal définie afin que les efforts soient intentionnels et produisent des résultats tangibles dans les opérations au jour le jour. Secundo, la mise en avant de forces productives en stimulant le potentiel créatif de différentes communautés qui développent des applications et des solutions en exploitant des technologies qui correspondent au secteur d’activité, en mettant au point des feuilles de route pour permettre aux non-spécialistes d’être créatifs et en travaillant étroitement avec les parties prenantes du métier pour définir le déploiement de logiciels et la gestion du cycle de vie du portefeuille applicatif. Tertio, la génération de valeur en redéfinissant et en accélérant la manière d’améliorer l’expérience pour les parties prenantes, tout en élargissant les options d’amélioration des revenus.

Gartner ajoute que pour exploiter ces technologies et atteindre les objectifs fixés par le CEO et le CIO pour 2024, il conviendra d’étudier le potentiel de ces tendances au regard de la situation spécifique de l’organisation, de l’intégrer dans le planning stratégique des prochaines années et d’adapter en conséquence les modèles organisationnels et les opérations. Le cabinet précise que ces tendances se renforcent mutuellement et ne doivent pas être isolées l’une de l’autre. « Combinez ces technologies pour concrétiser votre stratégie, vos objectifs de transformation et vos performance », conclut Gartner.

DELOITTE

De son côté, le consultant Deloitte a identifié dans son ‘Tech Trends 2024’ six grandes tendances et estime que l’IA bouleverse le rapport de l’humain à la technologie, « avec une technologie au service de l’homme et non plus un homme qui se plie aux processus d’un logiciel pensé en fonction de contraintes technologiques. »

Ainsi, le métavers (qui combine les technologies de réalité augmentée et de réalité virtuelle) va sortir du domaine ludique pour conquérir le monde industriel, avec des applications comme les jumeaux numérique et l’essor du travail augmenté. Par ailleurs, l’ère de l’IA et des applications très gourmandes en puissance de calcul va contraindre les entreprises à se tourner vers des infrastructures optimisées. D’où le succès par exemple des puces GPU (graphical processing unit ou processeur graphique) et le besoin croissant de grands hyperscalers (Google, AWS, Microsoft, Facebook, IBM et consorts) qui disposent de leurs propres accélérateurs. L’expérience utilisateur devient également au centre des préoccupations de toute organisation, de même que la volonté d’améliorer la productivité et la satisfaction des développeurs de logiciels dans le cadre d’une approche DevEx qui « souligne l’importance croissante du capital humain dans le développement technologique. »

Autre grande tendance mise en lumière par Deloitte, la nécessité d’adopter une approche plus holistique et proactive de la dette technique, évoquant le « bien-être technique », une démarche dans laquelle les entreprises optent pour une stratégie préventive en identifiant les domaines prioritaires pour les améliorations, tout en considérant l’ensemble de l’existant, plutôt que de se concentrer uniquement sur la correction des problèmes existants. En outre, après une année 2023 marquée par une explosion des cybermenaces, l’année qui vient exigera des entreprises de pouvoir détecter de nouveaux types de menaces liées aux deepfakes et aux nouveaux outils d’IA capables de faciliter l’usurpation d’identité et la tromperie.

Enfin, Deloitte considère que l’IA générative va non seulement augmenter la productivité des professionnels, mais également introduire un véritable changement de paradigme. « Trop de chefs d’entreprise considèrent l’IA générative comme une simple pilule amaigrissante – un moyen rapide de réduire les coûts en automatisant et en supprimant des emplois. Le fait de s’attaquer aux centres de coûts est une approche à court terme. Or l’IA générative doit plutôt être considérée comme le carburant des fusées », affirment Bill Briggs et Mike Bechtel, respectivement global chief technology officer et chief futurist de Deloitte.

Platform engineering. – L’ingénierie de plateforme, moteur de l’innovation ?

Disposer d’une infrastructure informatique qui soit à la fois plus disponible, plus évolutive et plus performante, le tout avec des coûts maîtrisés? Le rêve évidemment de tout CIO… et de son CEO. Pourquoi ne pas dès lors adopter l’ingénierie de plateforme?

Pour répondre aux besoins croissants de transformation numérique des organisations tout en stimulant l’innovation, le département IT fait aujourd’hui face à de nombreux défis. L’un de ceux-ci consiste à automatiser toujours plus les opérations pour accélérer le déploiement d’applications, d’autant que les architectures logicielles modernes se révèlent toujours plus complexes et se tournent toujours davantage vers le cloud.

Définition

Désignée par le cabinet Gartner comme l’une des tendances de l’année 2023 le platform engineering vise à « améliorer l’expérience et la productivité du développeur en fournissant des fonctions en self-service grâce à l’automatisation des opérations liées à l’infrastructure. Cette technologie émerge dans la mesure où elle promet d’optimiser l’expérience du développeur et d’accélérer la génération de valeur métier par les équipes de produits. »

Toujours selon Gartner, l’ingénierie de plateforme entend répondre à l’augmentation croissante de la complexité des architectures logicielles. « Aujourd’hui, les utilisateurs finaux non-experts se voient souvent demander de gérer un ensemble de services complexes et obscurs », précise Paul Delory, vice-président analyste chez Gartner. « Pour aider les utilisateurs finaux et réduire les frictions dans le travail, les entreprises innovantes ont commencé à déployer des plateformes qui se positionnent entre l’utilisateur final et les services de soutien sous-jacents. »

D’ici 2026 d’ailleurs, Gartner estime que 80% des grandes organisations d’ingénierie logicielle auront mis en place des équipes de platform engineering comme fournisseur interne de services, de composants et d’outils réutilisables pour la fourniture d’applications. Car à terme, l’ingénierie de plateforme résoudra le problème central de coopération entre les développeurs de logiciels et les utilisateurs.

Fonctionnement

Globalement, l’ingénierie de plateforme vise donc à accélérer la mise en production d’applications et à réduire les délais de génération de valeur pour le métier. L’objectif est par ailleurs d’améliorer l’expérience et la productivité du développeur en lui fournissant des fonctionnalités en self-service dans le cadre d’une infrastructure automatisée.

Cette discipline se concentre sur la conception, le développement et la gestion de plateformes techniques délivrant un ensemble de services et d’outils permettant au développeur de construire, déployer et gérer des applications et services de manière efficace et évolutive.

En pratique, les équipes d’ingénierie de plateforme assument notamment le développement et la maintenance de l’infrastructure de la plateforme en gérant et en pilotant l’installation, la configuration et la gestion des serveurs, du stockage, des réseaux et des autres composants de l’infrastructure. Dès lors, elles permettent d’améliorer la productivité des équipes, mais aussi la disponibilité de l’infrastructure (avec possibilité d’évolutivité et d’adaptabilité aux besoins réels du métier), tout en renforçant la sécurité grâce à des outils de gestion des identités et des accès, à la surveillance de la sécurité et la réponse aux incidents.

Bénéfices

L’ingénierie de plateforme est censée apporter de nombreux bénéfices aux organisations travaillant dans le cloud. En effet, cette technologie vise à inciter les développeurs à consommer des services par le biais du self-service. L’un des intérêts majeurs est d’automatiser les processus, et donc d’accélérer le cycle de développement puisque les développeurs pourront déployer leur code plus rapidement

Par ailleurs, le déploiement en self-service d’infrastructures ou d’applications réduit la complexité liée à ces processus. Le cycle DevOps étant totalement automatisé, la productivité des développeurs s’accroît et leur charge de travail diminue. Les développeurs sont en effet plus autonomes et peuvent recourir à des portails pour délivrer plus rapidement de nouvelles versions de logiciels.

Par ailleurs, les applications sont plus évolutives puisque les développeurs peuvent créer, répliquer, supprimer et mettre à jour l’environnement de déploiement sans devoir se soucier des activités en arrière-plan. Dès lors, les organisations peuvent grandir plus rapidement et plus efficacement.

Plusieurs cas pratiques peuvent justifier la mise en place de l’ingénierie de plateforme. Ainsi, si l’organisation souhaite que son équipe de base puisse se focaliser exclusivement sur le développement d’un produit, si l’équipe de développement connaît une croissance rapide, ou encore si l’innovation est privilégiée, l’ingénierie de plateforme peut apporter une réponse appropriée.

Aprico Consultants propose des conseils et services personnalisés et de bout en bout. Nous offrons une expertise sectorielle étendue, un framework agile scrum et un support nearshore. Nos services personnalisés d’ingénierie logicielle et d’intégration sont conçus pour répondre à vos exigences spécifiques grâce au recours aux bonnes pratiques qui permettent de générer des résultats rapides et efficaces s’inscrivant parfaitement dans vos activités. Le développement d’applications ne peut se révéler optimal que s’il est pratiqué dans un environnement adapté. Notre expertise pointue en ALM et en DevOps permet d’aligner les départements IT, ce qui garantit une efficience supérieure, une mise en production plus rapide lors du déploiement d’applications, une réduction des coûts et une meilleure satisfaction client.

*illustration réalisée avec l’aide de l’intelligence artificielle.

De l’automatisation à l’orchestration

Pour simplifier et rationaliser leurs plateformes technologiques dans le cadre de la transformation numérique, les entreprises se tournent vers l’automatisation et l’orchestration. Alors que l’automatisation ne concerne qu’un seul processus, l’orchestration vise un niveau plus large.

L’automation de processus consiste à faire appel à la technologie pour effectuer une tâche unique et ainsi remplacer l’intervention humaine. Dès lors, la productivité peut être améliorée, tandis que chaque tâche en cours d’exécution a sa propre automatisation. Aujourd’hui, l’automatisation est appliquée à un large éventail de processus IT, par exemple la création de tickets de service dans le helpdesk, le développement et le déploiement d’applications, l’audit, l’intégration d’applications, etc.

Cependant, au fur et à mesure que le nombre d’automatisations augmente, il devient toujours plus complexe de surveiller et de gérer la manière dont ces automations s’intègrent dans l’ensemble de l’écosystème d’une organisation. En effet, une entreprise peut avoir des centaines, voire des milliers d’automatisations qui fonctionnent dans des environnements disparates. D’où cette question : comment faire pour que ces automatisations collaborent entre elles de manière efficace ?

Orchestration

Tel est précisément l’objectif de l’orchestration : agir comme un organe directeur de la suite technologique en dressant un portrait exhaustif du fonctionnement de l’organisation afin d’atteindre une meilleure coopération entre les flux automatisés.

Les outils d’orchestration visent donc à permettre aux entreprises d’automatiser et de prendre en charge des flux de travail, des systèmes informatiques, des services et des middlewares complets, interconnectés dans l’environnement informatique. L’orchestration est polyvalente et peut être appliquée à des plateformes sur site ou à des systèmes distribués dans le cloud. Bref, l’orchestration permet de gérer des ensembles complets de tâches, de bout en bout.

Globalement, l’orchestration permet tout d’abord une précision améliorée dans les tâches en évitant les erreurs humaines liées à leur répétition. Par ailleurs, la productivité s’en trouve accrue puisque les experts peuvent consacrer davantage de temps aux processus importants et qui nécessitent des connaissances et des compétences plus pointues. En outre, la standardisation des tâches se traduit par une plus grande fiabilité et cohérence, tout en simplifiant la mise en œuvre de nouveaux processus et leur intégration dans l’ensemble de l’écosystème de l’organisation.

Quels outils ?

Comme l’orchestration est une opération complexe par nature, le choix de l’outil adapté n’a rien d’évident. Il existe de nombreux outils logiciels et plateformes conçus pour aider les entreprises à effectuer la transition vers l’orchestration. Pour bien choisir son outil, plusieurs éléments doivent être pris en compte. D’abord, il convient de définir les besoins professionnels et les objectifs à atteindre puisque différents processus, systèmes et services nécessitent des outils différents d’orchestration. Ensuite, la facilité d’utilisation doit être prise en considération afin de s’assurer que les outils seront accessibles et suffisamment intuitifs pour être utilisés par du personnel non-spécialisé en IT. De même, l’évolutivité est importante sachant que les besoins évoluent constamment, tandis que l’auditabilité permettra de s’assurer que les outils d’orchestration permettent un suivi d’audit clair.

Enfin, l’outil d’orchestration devra être capable de collecter les données pertinentes qui seront ensuite analysées pour générer des rapports et des aperçus business appropriés.

Bénéfices

Alors qu’elle ne porte que sur une tâche spécifique, l’automatisation ne peut apporter de véritable différence perceptible. En revanche, si l’automatisation porte sur une série de processus ou de flux qui sont ensuite orchestrés pour fonctionner de manière automatique, les bénéfices sont nettement plus intéressants.

Tout d’abord, le bénéfice sera financier puisque les coûts IT pourront diminuer, sachant que le budget ainsi dégagé pourra être utilisé pour stimuler l’innovation. Ensuite, les interactions entre équipes pourront être limitées, tandis que les frictions seront réduites. Bien évidemment, la productivité sera améliorée puisque les ressources humaines pourront être affectées à d’autres tâches. Grâce à la standardisation des flux et des produits, l’entreprise pourra également travailler de manière plus cohérente et fiable. Enfin, l’expérience employé sera améliorée puisque les collaborateurs pourront se consacrer à des tâches plus créatives et stimulantes.

Ajoutons que lors de l’implémentation de l’orchestration, il conviendra de préférence d’opter dans un premier temps pour un projet susceptible de générer une valeur métier significative et mesurable. Si l’organisation ne recourt à l’orchestration que pour accélérer l’exécution de tâches, elle aura des difficultés à en retirer une véritable valeur métier ou financière.

Aprico ambitionne d’aider les entreprises à innover et à repenser leurs processus métier en mettant la sécurité au centre de leur réflexion stratégique. Nous pouvons partager les bonnes pratiques, technologies et modèles organisationnels qui permettront à l’organisation de s’ouvrir sur l’extérieur et de partager l’information en toute sécurité.

L’informatique confidentielle, la solution ultime de sécurité ?

Face à l’augmentation des (cyber-)attaques contre les systèmes informatiques et compte tenu que les infrastructures sont toujours plus partagées, le concept d’informatique confidentielle tend à s’imposer. Il promet en effet à la fois d’augmenter le niveau de sécurité des plateformes et d’accroître le niveau de confiance des utilisateurs.

Les experts s’accordent à considérer que les données peuvent être dans trois états : les données ‘au repos’ stockées par exemple sur un disque dur ou dans une base de données ; les données ‘en mouvement’ qui transitent sur les réseaux ; et les données en cours d’utilisation, qui sont traitées par le microprocesseur. Si des primitives cryptographiques sont largement mises en œuvre pour sécuriser les données dans les deux premiers états, ce qui permet de garantir l’intégrité et la confidentialité, les données en cours d’utilisation restent difficiles à protéger. D’autant que les infrastructures sont toujours plus décentralisées et partagées dans le contexte du cloud hybride ou public.

En effet, les attaques sont nombreuses et prennent globalement deux grandes formes. D’une part, les attaques logicielles pour compromettre l’intégrité du système (rançongiciel, piratage, exploitation de vulnérabilités, injection d’erreurs logiques, etc.), mais aussi pour accéder aux données par des canaux auxiliaires (side-channel attacks), sans oublier les erreurs de configuration et de paramétrage. D’autre part, au niveau physique, le risque existe qu’un administrateur système ou un prestataire externe accède sans autorisation à l’infrastructure et puisse copier des données, espionner un lien ou surveiller un bus informatique par exemple.

Fonctionnement

Globalement donc, les données sont vulnérables juste avant le traitement, pendant leur traitement et juste après : elles sont exposées aux vidages de mémoire, aux compromissions de l’utilisateur root et à d’autres exploits malveillants.

L’informatique confidentielle prétend pouvoir résoudre ce problème à l’aide d’un environnement d’exécution sécurisé (TEE ou trusted exécution environment) basé sur le matériel. Ce TEE est sécurisé à l’aide de clés de chiffrement intégrées, tandis que des mécanismes d’attestation intégrés garantissent que ces clés ne sont accessibles qu’au seul code d’application autorisé. Si un logiciel malveillant ou un code non autorisé tente d’accéder aux clés, ou si le code autorisé est piraté ou altéré, le TEE refusera l’accès aux clés et annulera l’opération.

Ce faisant, les données sensibles restent protégées en mémoire jusqu’à ce que l’application demande au TEE de les déchiffrer pour pouvoir les traiter. Ajoutons que pendant le chiffrement et tout au long du processus de traitement, les données sont invisibles pour le système d’exploitation ou pour l’hyperviseur d’une machine virtuelle, de même que pour les autres ressources de la pile de traitement ou encore le fournisseur cloud et ses employés.

Marché

Le déploiement d’un environnement de confiance doit favoriser le recours au multicloud grâce au chiffrement des données les plus sensibles dans des environnements mutualisés. D’ailleurs, le cabinet d’études Everest estime que le marché de l’informatique confidentielle progresse de 90 à 95% par an pour passer de 2 milliards de dollars en 2021 à pas moins de 54 milliards de dollars en 2026.

Et pour promouvoir davantage encore cette technologie, plusieurs acteurs du marché du semiconducteur (Intel, ARM, AMD ou encore Nvidia) se sont associés aux géants du logiciel (Microsoft, Google, Oracle et IBM) dans le Confidential Computing Consortium qui s’attelle depuis 2019 à définir des standards de l’informatique confidentielle et à accélérer son adoption.

Champ d’application

L’intégration croissante du multicloud et les cas d’utilisation spécifiques à la sécurité dans les différents secteurs d’activité seront les principaux moteurs de la croissance de cette technologie. Les entreprises axées sur la technologie dans les secteurs réglementés tels que les banques, les services financiers, les assurances, les soins de santé et les sciences de la vie devraient accélérer la croissance du marché. En effet, ces secteurs réglementés sont confrontés à une pression croissante des autorités de réglementation pour renforcer la sécurité et la confidentialité des données.

« L’exposition élevée aux données privées, associée à des réglementations telles que l’ACCP, Schrems II, le RGPD et l’HIPPA, garantit que l’intérêt pour l’informatique confidentielle sera élevé dans le secteur bancaire et financier », note ainsi Everest. En outre, les entreprises fintech, insurtech et healthtech, axées sur la technologie, sont susceptibles de pousser la sensibilisation dans les domaines BFSI (banking, financial services, insurance) et HLS (healthcare, life sciences) au cours des cinq prochaines années.

Aprico Consultants agit aux côtés de ses clients pour définir leur positionnement stratégique sur un marché en rupture et pour développer leur stratégie en exploitant les technologies existantes et nouvelles et en alignant l’IT sur les réalités métier dans tous les domaines. Notre méthodologie de consultance se veut un guide intelligent pour anticiper les changements et traduire les menaces numériques en opportunités, la transformation numérique intelligente étant étroitement liée à l’architecture d’entreprise et aux besoins opérationnels tant présents que futurs.

Industry Cloud Platforms – Pourquoi ne pas opter pour un cloud sectoriel ?

Désormais, une majorité d’entreprises stocke des données dans le cloud. Or les plateformes cloud génériques ne semblent pas toujours répondre à des besoins spécifiques de certaines industries. D’où l’émergence de solutions cloud sectorielles. Avec quels avantages pour votre entreprise ?

Toute entreprise a évidemment des besoins particuliers en termes de gestion et de sécurisation de ses données. Pourtant, les plateformes cloud génériques comme AWS ou Microsoft Azure répondent qu’à une partie seulement des exigences des organisations. Pour preuve, le cabinet Gartner estime dans son Top 10 Strategic Technology Trends 2023 que près de 40% des organisations basées en Amérique du Nord et en Europe envisagent l’adoption d’une plateforme cloud sectorielle, tandis que 15% ont déjà lancé un projet pilote dans ce sens et que 15% considèrent le déploiement de ce type de solution d’ici 2026. Dès lors, Gartner prévoit qu’à l’horizon 2027, les organisations utiliseront des plateformes cloud sectorielles pour accélérer plus de 50% de leurs initiatives métier critiques, contre moins de 10% en 2021.

Qu’est-ce qu’un cloud sectoriel ?

Un cloud sectoriel est une infrastructure robuste et évolutive qui intègre des fonctions et des services adaptés aux besoins spécifiques d’un secteur industriel. Il peut s’agir d’outils d’analytique, de gestion de la chaîne d’approvisionnement, de solutions de sécurité ou encore d’applications métier. Leur but est de permettre aux organisations d’améliorer leur efficacité, de réduire leurs coûts et d’accélérer l’innovation en permettant un accès plus rapide et aisé à des services pointus. En outre, ces plateformes aident les entreprises à gérer les risques et à se conformer à des réglementations sectorielles particulières.

Toujours selon Gartner, un cloud sectoriel transforme une infrastructure cloud en une plateforme métier pour permettre à un outil d’innovation technologique existant de servir également d’outil d’innovation métier. Il ne s’agit donc pas d’une solution SaaS verticale prédéfinie, mais plutôt d’une infrastructure modulaire et composable, supportée par un catalogue de fonctionnalités métier spécifiques.

Quels avantages ?

Une stratégie visant à basculer simplement des applications dans le cloud pourrait ne pas se révéler optimale en termes de performances, tandis qu’optimiser les applications pour le cloud peut être coûteux. Or un cloud sectoriel intègre à la fois des fonctionnalités et des outils susceptibles de répondre aux besoins spécifiques d’une industrie.

Par ailleurs, d’autres arguments plaident en faveur de tels clouds sectoriels. Ainsi, la nécessité de conformité (par ex. les règles HIPAA) et la volonté de réduire les risques tout en sécurisant les contenus peuvent inciter les organisations à adopter de telles technologies qui leur permettent en outre de disposer de solutions d’analytique de sécurité ainsi que de détection et de prévention des menaces.

Solutions industrielles

De nombreux secteurs industriels sont potentiellement intéressés par les clouds sectoriels. Ainsi, la construction, l’architecture et l’ingénierie font face à des projets nécessitant des solutions de gestion de contenu et de collaboration, le tout avec des flux de travail toujours plus complexes et qui se doivent d’être sécurisés et intelligents. De même, l’enseignement impose une collaboration étroite entre établissements et étudiants, facultés, chercheurs, entreprises privées, etc., dans le cadre d’une gestion du cycle de vie des financements, des recherches et des étudiants.

Les services financiers sont évidemment parmi les cibles potentielles les plus évidentes, compte tenu de la numérisation croissante de leurs processus et de leurs données. En outre, il s’agit là d’un secteur fortement régulé et ultra-concurrentiel, où l’information doit être extrêmement sécurisée. Cette sécurité s’impose d’ailleurs également dans le monde de la santé, tandis que le partage d’informations s’intensifie toujours davantage, avec les défis liés notamment à la conformité. Dans ce secteur également, la régulation et la gouvernance sont à l’ordre du jour.

Les administrations publiques sont également un secteur où collaboration et efficacité sont essentielles dans le cadre de contraintes économiques sans cesse plus fortes. Ici aussi, la sécurité et la conformité figurent parmi les priorités, sans oublier l’échange d’informations entre administrations et citoyens.

Les sciences de la vie sont elles aussi demandeuses de solutions collaboratives pour stimuler l’innovation dans l’ensemble de la chaîne de valeurs. L’amélioration des processus ainsi que la gestion de la qualité et du cycle de vie sont également à l’agenda, dans le respect de régulations sans cesse plus contraignantes.

Parmi les autres secteurs potentiels des clouds sectoriels, citons encore les médias et les loisirs, les services professionnels ou encore la distribution et le secteur associatif où la gestion de contenus, la collaboration et l’innovation requièrent des outils spécifiques.

Aprico Consultants est une société de conseil spécialisée dans l’architecture et la transformation des systèmes d’information. En accélérant résolument les processus de transformation numérique, nous fournissons à nos clients la flexibilité, la performance et la compétitivité nécessaires pour leur permettre de renforcer leur position sur le marché et d’améliorer leur service à la clientèle.

Culture organisationnelle – Et si vous osiez l’adhocratie ?

Alors que de nombreuses organisations s’appuient toujours sur une structure hiérarchique, de nouvelles cultures organisationnelles voient le jour. Et notamment l’adhocratie. Avec comme ambition de mieux aligner la vision, la finalité et les objectifs de l’entreprise.

De tous temps, les organisations ont eu besoin d’une culture d’entreprise – ou d’une combinaison de cultures – leur permettant d’être flexibles, innovantes et productives. En effet, le National Bureau of Economic Research américain a révélé que 9 cadres sur 10 pensent que l’amélioration de la culture organisationnelle valoriserait grandement l’entreprise. De même, selon une enquête de la société américaine SHRM spécialisée en ressources humaines, un lieu de travail toxique coûterait des milliards de dollars aux entreprises, tandis que plus d’un employé sur 5 a quitté son emploi pour cette raison au cours des 5 dernières années.

Plusieurs types de culture

Les spécialistes s’accordent à identifier quatre types de culture organisationnelle. Primo, la culture de hiérarchie qui prévoit « une place pour chacun et chacun à sa place », avec des dirigeants au sommet et une chaîne de commandement bien définie. Ce type d’organisation a l’avantage d’être efficace, organisée et coordonnée grâce à des rôles et responsabilités clairement définis, mais se révèle rigide et donc peu flexible pour les salariés, sans parler de son coût.

Secundo, la culture de marché où l’environnement de travail est axé sur les objectifs, les délais et la nécessité d’obtenir des résultats. Elle met l’accent sur la réussite et pousse les employés à se surpasser pour atteindre, voire dépasser, les résultats fixés. Ce type d’environnement peut se révéler gratifiant, mais risque de mener à l’épuisement professionnel étant donné son caractère hautement compétitif.

Tertio, la culture de clan spécifique aux petites entreprises, start-up et organisations familiales est orientée vers l’intérieur. Elle encourage ses salariés et met l’accent sur les relations interpersonnelles, la collaboration et la communication, le but étant de créer « une famille heureuse. » Si ce type de structure est plus horizontale et stimule le mentorat, elle pêche par manque de leadership fort et décisif, d’où un déficit d’autorité et un risque d’absence de règles qui pourrait pousser à des conflits de personnalités.

Adhocratie

Le quatrième type de culture organisationnelle est l’adhocratie, une structure qui met l’accent sur la flexibilité, l’innovation et la décentralisation, et est caractérisé par l’absence de structures hiérarchiques rigides et de procédures formalisées. Elle favorise une approche dynamique et adaptable de la résolution de problèmes, tout en encourageant la créativité et l’expérimentation, et se révèle particulièrement adaptée aux environnements ou aux industries en évolution rapide où innovation et adaptabilité sont d’une importance cruciale.

Globalement, l’adhocratie se caractérise par des rôles et responsabilités fluides (les individus étant affectés à des équipes ou des projets en fonction de leurs compétences et de leur expertise), une prise de décision décentralisée (avec des équipes autonomes, ce qui favorise l’agilité), l’accent mis sur l’innovation et la créativité (en encourageant l’expérimentation et les idées nouvelles), un esprit d’entreprise (en favorisant la prise de risques, l’initiative et la motivation personnelle), une communication ouverte et transparente (permettant d’exprimer ses idées, de partager l’information et de donner son avis), ainsi que la responsabilisation et l’autonomie. Une telle structure est orientée résultats, encourage l’apprentissage et l’amélioration continue, se montre tolérante à l’échec et est orientée client.

Et dans l’IT ?

Dans l’informatique, et plus spécifiquement dans le développement de logiciels, une adhocratie performante se doit de prendre en compte plusieurs facteurs. Ainsi, les méthodologies agiles mettent l’accent sur la flexibilité, la collaboration et le développement itératif, et se révèlent donc particulièrement adaptées à l’adhocratie. De même, le Devops peut aider à automatiser les tâches, à améliorer la collaboration et à augmenter l’efficacité dans une structure adhocratique.

Par ailleurs, les plateformes collaboratives sont essentielles puisqu’elles offrent des fonctions de gestion des tâches, de suivi des progrès, de communication et de partage de documents pour encourager la collaboration et la communication. Enfin, le cloud offre évolutivité, flexibilité et accès rapide aux ressources, autant d’éléments importants dans une adhocratie.

Résultats

Trois éléments clés séparent les adhocraties des autres types de structures organisationnelles. D’abord, la coordination s’articule autour d’opportunités et non de règles, de procédures, de routines ou de flux d’information. Ensuite, la prise de décisions se fait par l’expérimentation avec un effort conscient pour limiter la délibération et itérer rapidement en fonction du feedback des clients. Enfin, cette organisation se concentre sur la mise au défi des employés en leur fournissant les ressources et l’autonomie nécessaires pour réussir.

Accompagner les entreprises dans leur transformation : telle est la mission d’Aprico Consultants. Un accompagnement qui se veut à la fois stratégique et technologique. Pour supporter cette stratégie, Aprico a mis au point une méthodologie de travail originale articulée selon trois axes : smart, lean and agile. L’approche transversale d’Aprico, combinant métier, technologie et méthodologie, le tout associé à nos critères d’exigence, constitue l’un des facteurs clés de succès.

Technologie durable – Aller au-delà du verdissement de l’IT

A l’heure actuelle, peu d’entreprises ont encore intégré le développement durable dans leur stratégie de numérisation et d’innovation technologique. Or la technologie représente l’un des leviers principaux de mise en œuvre d’initiatives de développement durable.

Les définitions concernant la technologie durable sont multiples et variées. Mais les observateurs s’accordent sur un point : pour être durable, la technologie doit être conçue et utilisée de manière durable et éthique, et doit éliminer ou prévenir tout dommage pour l’individu et son environnement. On parle également dans ce contexte de technologie respectueuse de la nature et de l’homme.

En pratique, la technologie durable fait référence à un produit ou service qui a été fabriqué/développé avec comme priorité voulue et consciente de limiter l’impact environnemental et éthique de sa production, de son utilisation et de sa destruction.

La notion de durabilité s’applique donc aux différentes étapes du cycle de vie d’un produit ou d’une solution. Sachant que l’économie moderne est basée sur la consommation, toute la difficulté consiste à trouver un équilibre entre les défis environnementaux et l’innovation technologique. Et sachant que tout acte que nous posons n’est qu’une goutte d’eau dans l’océan, même si c’est une goutte d’eau qui fait déborder le vase, selon l’expression consacrée.

Définir une stratégie

Au niveau des entreprises, une récente étude publiée lors du Forum de Giverny en 2020, à l’initiative notamment d’Accenture montre que 55% des entreprises françaises se sont engagées à atteindre d’ici 2030 les objectifs de neutralité carbone de l’ONU, tout en mettant en avant la croissance économique durable et l’utilisation durable des écosystèmes terrestres. Il faut dire que, toujours selon l’étude, les entreprises qui mettent en avant les questions ESG (Environnement, Social et Gouvernance) généreraient 2,6 fois plus de valeur pour leurs actionnaires que leurs homologues. Malgré ce constat, seules 7% des entreprises françaises ont intégré des stratégies technologiques dans leur politique de développement.

Toujours selon Accenture, une stratégie de technologies durables s’appuie sur trois éléments clés. D’abord, la ‘sustainability by technology’ où l’innovation technologique est mise au service de la durabilité. Cette stratégie nécessite de respecter plusieurs impératifs, parmi lesquels la transition vers la neutralité carbone, la mise en place de chaînes d’approvisionnement plus respectueuses de l’environnement (en mettant l’accent sur la collecte et l’analyse de données), l’évaluation et le pilotage de la politique ESG grâce à la technologie, et la construction d’une entreprise durable. Ensuite, la ‘sustainability in technology’ qui vise à rendre les technologies plus durables. C’est ainsi que le département informatique peut contribuer à la neutralité carbone en promouvant la sobriété numérique (réduire la consommation énergétique grâce à des logiciels adaptés et encourager la migration vers le cloud notamment), en développant des systèmes informatiques qui garantissent la confidentialité, tout en étant équitables et accessibles, et en établissant des structures de gouvernance claires ainsi qu’un environnement de travail inclusif.

Enfin, la ‘sustainability at scale’ est destinée à favoriser la collaboration avec l’écosystème de l’entreprise pour induire le changement au-delà des frontières de l’organisation dans le déploiement de technologies responsables. En pratique, l’entreprise aura intérêt à intensifier ses collaborations avec des ONG, des partenaires et des fournisseurs en s’engageant à suivre les bonnes pratiques, à nouer des liens avec des startup et universités ainsi qu’à exploiter les initiatives entrepreneuriales susceptibles de mettre la technologie au service de la transition écologique.

Sur le terrain

La technologie durable doit englober des technologies à la fois existantes et modernes. En l’occurrence, l’entreprise devra prioritiser ses investissements technologiques en fonction des domaines qu’elle identifie comme essentiels à son succès futur. C’est ainsi que les modèles de services cloud se révèlent flexibles et permettent de partager l’utilisation des ressources, et donc de réduire l’impact sur l’environnement.

Par ailleurs, les logiciels de gestion des gaz à effet de serre permettront de collecter, d’analyser et de communiquer différents types d’informations sur les émissions de CO2 ainsi que de répondre aux obligations de reporting. De même, grâce à l’IA, il sera possible d’optimiser les processus organisationnels et, partant, de limiter l’empreinte écologique de l’entreprise. En outre, un logiciel dédié pourra permettre de collecter et d’évaluer la performance ESG des fournisseurs, et dès lors de couvrir plus largement la chaîne d’approvisionnement et de mieux contrôler les processus d’approvisionnement. A cet égard, la chaîne de blocs sera en mesure de protéger, de vérifier et de retracer les transactions liées à l’approvisionnement.

À terme

Une stratégie technologique durable vise à promouvoir la durabilité à grande échelle en rendant la technologie elle-même plus durable. La création et la mise en œuvre d’une telle stratégie impliquera forcément l’informatique puisqu’elle deviendra la base des solutions numériques et apportera une valeur environnementale, sociale et de gouvernance de l’entreprise.

En tant qu’entreprise inscrite dans le tissu économique et social, Aprico a décidé de mettre en œuvre une stratégie environnementale qui se veut à la fois ambitieuse et pragmatique. Cette responsabilité environnementale constitue l’un des piliers de la RSE ou responsabilité sociétal des entreprises. Cette responsabilité sociale des entreprises s’appuie sur une démarche volontaire qui consiste en un comportement responsable vis-à-vis des acteurs économiques, de l’environnement et de la société. Elle correspond à l’application, au niveau de l’entreprise, des principes du développement durable et crée le lien entre l’entreprise et la société. Par ailleurs, elle consiste à intégrer des enjeux sociaux et environnementaux dans leur gestion quotidienne et dans leurs interactions avec des acteurs extérieurs.

 ChatGPT – Quel apport pour votre entreprise ?

Si l’intelligence artificielle peut paraître encore relativement abstraite pour bon nombre d’entreprises, l’arrivée de l’agent conversationnel d’intelligence artificielle ChatGPT ouvre de multiples applications pratiques. Votre entreprise doit-elle investir dans ce nouvel outil ?

Selon le cabinet MarketsandMarkets, le marché mondial des agents conversationnels devrait représenter pas moins de 10,5 milliards de dollars à l’horizon 2026, soit une croissance annuelle cumulée de 23,5%. Or l’arrivée de ChatGPT semble donner un coup d’accélérateur extraordinaire à l’intelligence artificielle puisque l’outil recensait 1,8 milliard de visiteurs en avril 2023, soit 7 fois le nombre de visiteurs enregistrés en décembre 2022.

Pour rappel, ChatGPT est un outil de traitement du langage naturel qui permet aux humains de converser avec un agent doté d’intelligence artificielle. Cet outil applique des algorithmes d’apprentissage machine à un volume considérable de textes puisés sur l’internet pour répondre à des requêtes en utilisant un langage proche de celui utilisé par l’homme.

Certes, ChatGPT a ses limitations, notamment dans la qualité des textes de départ et dans les biais potentiels liés à l’apprentissage du système. De même, faire tourner ChatGPT est très coûteux en termes de puissance de calcul.

Avantages

Mais la solution présente de multiples avantages. Ainsi, GPT-3 – le modèle de base de l’outil – se révèle versatile dans la mesure où le modèle de langage est capable de traiter un large éventail de domaines et de questions, avec des réponses précises indépendamment du secteur ou du contexte. En outre, la communication est naturelle, ce qui offre une expérience utilisateur optimale et permet aux utilisateurs d’être à l’aise.

La compréhension contextuelle de ChatGPT est optimale puisque la plateforme dispose d’un très large éventail de données de formation. De plus, l’outil peut générer des réponses ouvertes, ce qui lui permet de continuer à converser avec l’utilisateur et lui offrir des informations complémentaires sur la base de la discussion entamée. Enfin, ChatGPT peut apprendre et s’adapter sur la base de données nouvelles ou d’interactions avec les utilisateurs, d’où la capacité d’améliorer constamment ses performances et d’offrir un support toujours plus personnalisé.

Pour quelles activités de l’entreprise ?

Selon les experts, il est possible d’identifier plusieurs domaines où ChatGPT peut induire rapidement de la transformation, et donc générer des bénéfices. Ainsi, le service et le support à la clientèle est le premier secteur susceptible d’être impacté par le traitement en langage naturel. En effet, en intégrant les assistants virtuels et autres chatbots à ChatGPT, la satisfaction client pourra être améliorée grâce à une réponse plus rapide et plus précise à la demande d’un utilisateur/client.

De même, la création et l’édition de contenu apparaissent comme des activités où cet outil pourra simplifier le travail des marketeurs en créant des blogs, posts, contenus de médias sociaux, courriels, etc. En outre, la solution peut servir à améliorer et éditer des textes en corrigeant les éventuelles erreurs de grammaire, de syntaxe ou d’orthographe.

Toujours en marketing et ventes, ChatGPT pourra aider au développement de campagnes promotionnelles grâce à l’analyse de tendances de consommation et participer à la mise en place d’actions de communication.

Dans les ressources humaines, l’outil pourra accélérer et optimiser les processus de recrutement, tandis que dans la formation, les processus d’apprentissage pourront être fluidifiés et améliorés. D’autres domaines sont également susceptibles d’être impactés, comme le reporting et l’analyse de données, la gestion d’agendas ou encore le développement de produits et l’innovation.

À noter encore que dans le développement de logiciels, ChatGPT pourrait être utilisé pour convertir du code écrit dans un langage de programmation en un autre code en utilisant la même technique que celle appliqué au langage naturel.

Risques et limitations

Si ChatGPT pourrait potentiellement transformer de nombreux aspects de l’activité d’une organisation grâce à ses capacités de traitement du langage naturel, il ne faudrait pas passer sous silence certains risques et contraintes, indépendamment des aspects plus philosophiques et sociétaux (largement répercutés dans les médias). En effet, la qualité de l’information qui alimente le système est de première importante, d’autant qu’il s’agit souvent de très gros volumes de données. De même, ChatGPT peut générer des réponses inappropriées ou biaisées, voire offensantes.

Face à de tels risques, l’interaction entre les humains et l’IA revêt une importance capitale pour assurer le contrôle de qualité des données ainsi que pour analyser les réponses données.

Assistance

Il est clair que ChatGPT pourrait aider les entreprises à améliorer leur productivité, à rationaliser leurs processus et à améliorer l’expérience client. Encore faut-il trouver le bon partenaire capable d’identifier les cas d’usage pertinents et de mettre ensuite en place la technologie dans une approche pragmatique.

Aprico Consultants s’engage à stimuler la créativité et l’innovation. Ses consultants proposent une interaction constante avec le client pendant toute la durée du projet et adaptent leurs services à la demande du client. De même, nous visons l’excellence opérationnelle et la transparence totale dans le cadre d’un partenariat loyal. Nos équipes mettent en place les technologies et les méthodologies adaptées pour délivrer un projet à haute valeur ajoutée, quelles qu’en soient la taille et la complexité. Nous nous positionnons comme un partenaire loyal du changement avec un sens affirmé de l’engagement pour une livraison dans les délais et le budget prévus.

Digital Immune System – Un système immunitaire numérique pour l’entreprise

Face à l’accélération de la numérisation des entreprises et aux risques croissants de cyberattaques, le système d’information d’une organisation se doit d’être toujours plus résilient. D’où l’idée de l’immunité numérique.

Selon le cabinet de consultance Gartner, les entreprises font aujourd’hui face à des défis sans précédent pour garantir la résilience des environnements d’exploitation, accélérer le déploiement du numérique et offrir une expérience utilisateur fiable. « Le métier s’attend à pouvoir réagir rapidement aux évolutions du marché et innover plus rapidement, tandis que les utilisateurs voudraient disposer de fonctionnalités enrichies, de performances élevées et d’une sécurité maximale », estime Joachim Herschmann, senior director analyst chez Gartner.

Prérequis

Figurant dans le top 10 des tendances technologiques stratégiques pour 2023, le DIS ou système immunitaire numérique combine différentes pratiques et technologies en matière de conception logicielle, de développement, d’automatisation, d’exploitation et d’analytique pour créer une expérience utilisateur (UX) unique et réduire les pannes de systèmes qui impactent les performances du métier.

Le cabinet Gartner a identifié six prérequis pour mettre en place un DIS performant :

  1. L’observabilité (voir aussi notre blog de novembre 2022) qui offre une vue d’ensemble permettant d’atténuer les problèmes de fiabilité et de résilience en observant le comportement des utilisateurs et ainsi améliorer l’UX ;
  2. Les tests augmentés par l’IA grâce auxquels les activités de testing de logiciels seront plus indépendantes de l’intervention humaine en incluant la planification, la création, la maintenance et l’analyse automatisés ;
  3. L’ingénierie du chaos qui s’appuie sur des tests expérimentaux pour identifier les vulnérabilités et les faiblesses d’un système complexe, après quoi les leçons apprises pourront être appliquées aux opérations normales et au renforcement de la production ;
  4. L’auto-remédiation qui vise à créer des capacités de surveillance contextuelles et des fonctions de correction automatisées directement dans une application, ce qui permet grâce à l’auto-surveillance de corriger automatiquement les problèmes ;
  5. L’ingénierie de fiabilité de site qui équilibre le besoin de vélocité par rapport à la stabilité et au risque, tout en réduisant l’effort mis par les équipes de développement sur la correction et la dette technologique ;
  6. La sécurité de la chaîne d’approvisionnement logicielle qui traite le risque d’attaques de la chaîne d’approvisionnement logicielle grâce notamment à des nomenclatures logicielles, des politiques de contrôle de version et des référentiels d’artefacts.

Déploiement pratique

En pratique donc, l’immunité numérique est la capacité d’une organisation à se protéger et à faire preuve de résilience en cas de cyberattaque ou d’incident. Il s’agit d’un ensemble de technologies et de processus destinés à sécuriser l’organisation en lui permettant d’identifier les menaces et d’y répondre de manière rapide et efficace. Cette immunité numérique est essentielle pour les équipes de développement de logiciels dans la mesure où elle impacte la manière dont celles-ci travaillent et où elle protège les données et les infrastructures utilisées par l’organisation.

Pour faciliter le déploiement du DIS, différentes actions peuvent/doivent être prises. Ainsi, il faut automatiser les changements de code pour détecter plus rapidement les risques potentiels. De même, il faudra élargir le champ d’action du testing et s’assurer que les scénarios de test couvrent l’ensemble des charges de travail des utilisateurs. Par ailleurs, les API et architectures de micro-services seront optimisées pour rendre la mise à jour du code et des applications plus gérable et sécurisée. Des tests de sécurité automatisés seront exécutés pour valider la sécurité des applications et une approche de tests de performances en continu garantira la non-dégradation des performances lors du déploiement de nouveaux logiciels.

Bénéfices

« Le but ultime du DIS est de garantir, grâce à l’automatisation, que les logiciels et applications seront immunisées contre les bugs et les vulnérabilités dès le moment de leur développement ou de leur mise en production », précise encore Gartner.

La principale motivation du déploiement d’un DIS est d’éviter la perte d’informations sensibles. (4) Mais un DIS peut également permettre de freiner/empêcher la diffusion de malware ou d’autres logiciels malveillants en empêchant l’accès à des informations non-autorisées ou en la diffusion d’informations sensibles.

De même, un DIS peut offrir aux entreprises et à leur personnel un sentiment de sécurité et de sérénité. Les utilisateurs pourraient en effet être plus confiants à entamer des activités en ligne. Dès lors, l’expérience utilisateur (UX) et l’expérience client (CX) pourraient être améliorées.

Enfin, d’un point de vue métier, le DIS permettra de réduire les risques de perte financière et de garantir la conformité aux exigences légales et réglementaires.

Chief Ethics Officer : l’autre CEO

Avec l’émergence de l’intelligence artificielle et de l’apprentissage machine, les organisations commencent à s’intéresser à l’usage qui est fait des données collectées et traitées dans des volumes sans cesse plus importants. D’autant que les entreprises se veulent toujours plus ‘data driven’. La désignation d’un ‘chief ethics officer’ (CEO) ne s’impose-t-elle dès lors pas ?

Dans les organisations modernes, la donnée est clairement le nouvel or noir. Et sa collecte, son traitement et son stockage doivent faire l’objet d’une attention particulière. Notamment en raison du RGPD (règlement général sur la protection des données) et ses sanctions très lourdes pour les contrevenants. De même, toute fuite de données pénalise l’entreprise qui perd en crédibilité. D’ailleurs, une récente étude d’Adobe indique que 57% des consommateurs arrêteraient d’acheter une marque si celle-ci était victime d’un vol de données à la suite d’une faille de sécurité. Preuve qu’il existe un lien étroit entre niveau de confiance, fidélité et profitabilité.

La question de l’éthique ne se limite donc pas à des résultats commerciaux, mais vise essentiellement à réduire les risques d’exploitation. Et donc à une problématique de gouvernance. « D’un point de vue opérationnel, il y a clairement un avantage pratique à désigner un ‘chief ethics officer’ », estime Nicholas Creel, professeur assistant de droit des entreprises au Georgia College and State University.

Approche globale

Cela étant, désigner un CEO ne suffit pas, toujours selon Nicholas Creel. « Les données et l’éthique sont une problématique transfonctionnelle qui impacte tous les éléments d’une organisation et l’ensemble de ses processus. » Il s’agit donc d’un effort collectif qui exige de mettre en place des politiques spécifiques.

D’ailleurs, les considérations éthiques s’inscrivent dans la responsabilité sociale des organisations. En effet, l’auto-régulation éthique apparaît comme une preuve de ‘bonne foi’ vis-à-vis de la communauté. Le rôle du CEO consistera donc non seulement à s’assurer que tous les acteurs dans l’entreprise ont conscience de leur responsabilité sociale, mais aussi que les approches sont cohérentes et reflètent des objectifs communs.

Plus spécifiquement en ce qui concerne l’IA, le CEO sera chargé de trouver le meilleur équilibre entre la transparence, l’inclusion, la responsabilité, l’impartialité, la fiabilité, la sécurité et la vie privée. De même, il lui appartiendra de consulter les différents départements de l’entreprise sur les règles éthiques à mettre en œuvre.

Dans le cas de l’intelligence artificielle, ce CEO aura la responsabilité d’appréhender et de communiquer sur la finalité et les mécanismes des algorithmes utilisés, tout en garantissant la consistance entre les différents outils déployés.

Défis

Si la désignation d’un CEO fait débat dans les entreprises, son rôle n’a rien d’anecdotique. En effet, ce CEO devra composer avec les autres ‘chiefs’ de département (notamment les directeurs financier, juridique ou HR, ou encore le responsable de la sécurité) pour arrêter une position commune. En outre, il devra faire preuve de compétences technologiques pluridisciplinaires, que ce soit en matière d’IA, mais aussi de sciences sociales, de droit ou encore de stratégie d’entreprise. Car finalement, sa mission sera de mettre en place une éthique cohérente dans tous les départements de l’organisation.

Enfin, et comme souvent, l’aspect humain sera capital dans le travail du CEO. « En réalité, les entreprises ne véhiculent aucune valeur, mais bien les êtres humains », résume David Lewis de la London Business School. « Et la plupart des hommes ont de vraies valeurs. Or les valeurs n’apportent pas de solutions, elles créent des dilemmes. » C’est le fameux exemple du ‘pieu mensonge’ également appelé ‘mensonge blanc’, entendez un mensonge qui est fait dans l’intention d’être utile ou agréable à quelqu’un. Autre dilemme potentiel dans l’entreprise : être transparent tout en protégeant la confidentialité.

« Le rôle du CEO sera de créer un environnement dans lequel les collaborateurs, à tous les niveaux dans l’organisation, pourront s’engager dans ces dilemmes et résoudre ensemble la quadrature du cercle d’une manière qui a du sens pour eux, faire un usage positif de leurs diverses idées et expériences et leur permettre de contribuer en tant que personnes réactives qui sont fières de leur contribution. »

Passion

Le problème est évidemment que les gens ne changent pas parce qu’on leur dit de changer. « La raison seule n’induit pas le changement et n’incite pas à l’action. L’impulsion de l’action doit provenir de la passion », estimait déjà le philosophe britannique David Hume.

Dès lors, l’organisation se doit d’être proactive, et non réactive en matière de politique d’éthique en mettant la confiance au centre du débat. Et en définissant des processus et un ‘ownership’ sur qui collecte, contrôle et stocke la donnée.

Précisons que l’IA et l’apprentissage machine ne s’improvisent pas, mais exigent non seulement des connaissances technologiques, mais aussi et surtout une parfaite compréhension du métier du client. Or qui d’autre que votre partenaire informatique de confiance est en mesure de bien comprendre votre stratégie, vos besoins et vos objectifs. Aprico Consultants aide, guide, facilite et coordonne de tels projets dans le but de permettre une mise en œuvre plus rapide, de générer des gains d’efficacité et de réduire les coûts de vos projets.

Careers opportunities

We’re always looking for talented people.
Are you one of those?