EDITO - Les DSI face au défi du Data Management

Dans un film qui connut son heure de gloire dans les années 80, Le Déclin de l'Empire américain, un professeur d'université s'adresse à ses étudiants en ces termes (si je me souviens bien) : "L'Histoire, c'est la combinaison de trois éléments : premièrement le nombre, deuxièmement le nombre, troisièmement, le nombre. " De même, dans un système d'information, trois éléments sont déterminants : premièrement la donnée, deuxièmement la donnée, et, troisièmement, la donnée.  Les décideurs informatiques le savent bien : les données sont capitales dans le processus de prise de décision et la capacité à les maîtriser constitue un atout compétitif considérable. La donnée est à la fois l'alpha et l'oméga, le carburant, le moteur... mais aussi, face obscure de la force,  le  cauchemar de la gestion et, partant, celui des DSI.

Plusieurs études récentes pointent en effet la difficulté (voire l'incapacité) des entreprises à bien gérer leurs données, c'est-à-dire à les exploiter pour en tirer le meilleur parti, en termes de valeur et de business. Centrée sur les institutions financières europénnes, grosses consommatrices de données, une étude signée Capco intitulée "La gestion des données, cette inconnue méconnue" (*), constate "un surprenant manque d'efficacité dans la gestion des données" au sein de ces organisations. L'importance de la gestion des données y serait largement sous-estimée. Au point que 42% des personnes interrogées dans le cadre de cette étude voient dans  les données clients  plus une contrainte réglementaire qu'un potentiel économique pour l'entreprise !

Faisant le même constat mais sur un spectre plus large d'entreprises, une autre étude, signée NettApps (**), va plus loin dans l'analyse des causes. Pour les promoteurs de cette étude, les infrastructures IT mises en place dans les entreprises ne sont pas adaptées à l'augmentation inflationniste des données.  En France, plus de 70% des décideurs IT estimeraient leur système d'information "insuffisamment agile" pour soutenir une prise de décision rapide lors des comités de direction. Pour 83% des répondants, leur système serait "trop lent" pour permettre un accès aux données en temps et en heure, une lenteur qui a évidemment des conséquences néfastes, entraînant une perte de potentiels nouveaux clients, un retard d'allumage face à la concurrence et une baisse des bénéfices. Pour près de 48% des répondants, l'accès aux données serait "trop compliqué" et les données  "introuvables ou trop complexes à analyser" pour 39% des décideurs informatiques.

Si l'on y réfléchit bien, dans le système d'information, c'est à la fois la donnée et leur nombre qui sont décisifs, le nombre (le volume des données) venant s'ajouter aujourd'hui comme facteur de complexité supplémentaire pour le gestionnaire. L'inflation irrépressible des données, structurées ou non (les  fameuses "Big Data"), la dimension "sociale" qui s'impose à plusieurs niveaux de gestion, le "BYOD" poussé par la mobilité et par les métiers, la nécessité de prendre en compte  les Open Data dans le secteur public, tout cela est en train de compliquer beaucoup la tâche des DSI. Comme le résume justement l'étude NettApps, les DSI se trouvent face à un double défi : d'une part faire face à l'explosion des données (position défensive), d'autre part faire de cette explosion une arme concurrentielle pour l'entreprise (position offensive). Autrement dit, il leur faut exécuter ce incroyable tour de force de retourner l'inconvénient en avantage, à l'heure où les utilisateurs métier ont tendance à considérer l'informatique comme une "force perturbatrice" plutôt qu'une ressource génératrice d'opportunités nouvelles.

Une réponse au problème s'appelle le Data Management. Une bonne gestion des données passe bien sûr par une gestion rigoureuse de  la qualité et de la pertinence des données (l'abondance et la complexité  sont causes de dégradation ), par une lutte acharnée et quotidienne contre la tendance naturelle à l'entropie du système d'information. Et aussi par des solutions logicielles diverses, comme le MDM, qui ne relèvent pas à proprement parler de la BI mais qui assurent les fondements nécessaires pour tirer le meilleur parti des fonctions d'analyse et de simulation sur des données maîtrisées et qualifiées.

Le sujet est si important qu'il fera l'objet dans une grande mesure de notre prochain CXP Forum, en juin prochain.

(*) Les résultats de l' étude commanditée par Capco, fournisseur de services pour l'industrie financière, ont été rendus publics le 30 octobre dernier.
(**) L'étude commanditée par NettApps, fournisseur de solutions d'infrastructure et de stockage, et réalisée par Vanson Bourne en octobre 2012, a été menée auprès de 250 salariés des départements IT des entreprises françaises dans des secteurs tels que la finance, le transport, la distribution, le secteur public et les entreprises IT.

> En savoir plus :
- Etude comparative sur les solutions de MDM, complètement revue (en cours de parution)
- E-SHOP - Dossier de recherche - BYOD / consumérisation de l'IT, nouveau défi pour les DSI
- E-SHOP - Dossier de recherche - Big Data
: nouvelles approches pour l'analyse de données à structures multiples
 
 

Commentaires

Publier un nouveau commentaire