Blog

Data Fabric – Consolider les sources de données

November 7th, 2022  by Bruno van Marsenille

Considérée par le cabinet Gartner comme l’une des principales tendances stratégiques technologiques de l’année, la data fabric permet l’intégration flexible et résiliente des différentes sources de données afin que les celles-ci soient disponibles partout où elles sont nécessaires. Mais comment y parvenir ?

All articles

Selon Tibco, spécialisée en logiciels d’infrastructures, la data fabric est une solution d’intégration et de gestion de données de bout en bout, composée d’un logiciel d’architecture, de gestion et d’intégration de données ainsi que de données partagées pour la gestion globale de données. La data fabric permet donc d’accéder et de partager les données avec une expérience utilisateur optimale dans un environnement sécurisé.

Avantages

Par rapport à des solutions traditionnelles d’intégration de données, la data fabric permet de gérer les données quelles que soient les types d’applications, de plateformes et d’emplacement de stockage. Elle répond dès lors aux exigences de connectivité en temps réel, de libre-service, d’automatisation et de transformations universelles.

Grâce au fait que la data fabric est avant tout une nouvelle architecture de données intégrée, l’organisation pourra mieux contrôler ses coûts, ses performances et l’efficacité de son stockage. Bref, savoir qui utilise quoi et comment, indépendamment de l’endroit de stockage des données et des applications. Et comme elle est gérée de manière centralisée, la data fabric est accessible partout, que ce soit sur site ou dans un cloud privé ou public.

En d’autres termes, la data fabric permet d’exploiter tout le potentiel des données pour répondre aux besoins business et gagner en productivité et compétitivité. De plus, les services IT peuvent tirer parti de la puissance du cloud hybride, gagner en automatisation et dès lors accélérer le développement, le test et le déploiement d’applications, tout en protégeant les ressources en continu.

Comment déployer une data fabric ?

Pour le cabinet Gartner, la data fabric ne doit pas se limiter à associer des technologies traditionnelles et modernes, mais se présente plutôt comme une approche susceptible d’optimiser la gestion des données en automatisant les tâches répétitives grâce à l’apprentissage machine.

Pour apporter une véritable valeur métier, Gartner estime qu’il faut s’appuyer sur une base technologique solide, puis identifier les fonctionnalités de base et évaluer les outils existants de gestion des données. Pour ce faire, associer des solutions développées en interne et achetées sur le marché est l’approche la plus appropriée. Ainsi, il serait possible de trouver une plateforme répondant à 65 ou 70% des besoins, après quoi les autres fonctionnalités proviendront d’une solution sur mesure.

Toujours selon Gartner, une data fabric globale doit être constituée de trois piliers. Primo, l’information contextuelle est à la base d’un concept de data fabric dynamique. En effet, il faut disposer d’un mécanisme permettant à la fabric d’identifier, de connecter et d’analyser tous types de métadonnées (techniques, métier, opérationnelles ou sociales). Secundo, la fabric doit convertir les métadonnées passives en métadonnées actives. Pour ce faire, il faut analyser en permanence les métadonnées disponibles au niveau des métriques et des statistiques clés pour construire ensuite un modèle graphique. Et tertio, la fabric devra générer et nettoyer les graphes de connaissance qui serviront aux décideurs à créer de la valeur métier en enrichissant les données à l’aide de sémantique.

Retour sur investissement

Alors que les entreprises ont aujourd’hui tendance à travailler en silos, ce qui crée de nombreuses façons différentes de gérer les données et d’y accéder, la data fabric entend répondre aux défis suivants : données situées sur plusieurs sites et dans le cloud, plateformes informatiques hétérogènes, données structurées et non-structurées qui se côtoient, niveaux de maintenance différents des fichiers, bases de données et application, sans parler de la croissance exponentielle des volumes de stockage.

Pour garantir un meilleur ROI possible, quatre conditions doivent être remplies : stimuler la réutilisation des données, éliminer les réplications inutiles de données, créer un jumeau numérique de tous les ‘objets’ de l’entreprise, et accélérer les délais d’analyse.

Une récente étude d’IBM estime que de 60 à 73% des données d’entreprise ne sont absolument pas exploitées. Or chacun sait que les entreprises qui gagneront demain et seront les plus compétitives sont celles qui allient connaissances et analyses des données. Il conviendra donc de combler le fossé entre connaissances disponibles et informations, puis de transformer les informations en analyses.

Aprico Consultants est une société de consultance de premier plan qui guide la stratégie et la transformation ICT dans le but de stimuler la performance, la productivité et la compétitivité de votre organisation. Nous combinons une expertise pointue à une parfaite compréhension du contexte et de l’expérience du client ainsi qu’une approche de bout en bout dans tous les secteurs, depuis la consultance jusqu’au déploiement de solutions.

Careers opportunities

We’re always looking for talented people.
Are you one of those?