Le NOUVEL ACHAT

Aller au contenu | Aller au menu | Aller à la recherche

DEMATERIALISATION

Thierry AMADIEU commente l'actualité de la dématérialisation des marchés publics

Fil des billets

vendredi, février 15 2019

La qualité des données indispensable à l'intelligence artificielle

poor data

Comment libérer le potentiel de l’IA si les données sont pauvres en qualité ? Tel est le défi posé à la technologie et la mission critique du master data management. La qualité des données est une priorité à la mesure d’une transformation digitale devenue vitale pour l’entreprise.

Automatisation de processus, RPA et IA sont des technologies prometteuses à fort potentiel dans le traitement de données, mais fondamentalement limitée par la faible qualité ou l’inexactitude des informations avec lesquelles ces systèmes opèrent. Les coûts de non qualité dus à la médiocrité des données gérées quotidiennement représentent des sommes considérables et inacceptables pour les entreprises.

La qualité des données est le facteur limitant le plus important dans la réussite d’un plan de digitalisation et la recherche d’une plus grande automatisation des processus. La question du nettoyage des données (data cleansing) n’est pas nouvelle et constitue un prérequis incontournable si l’on veut qu’en aval que les décisions qui en découlent soient cohérentes. La détection et la correction des erreurs est devenue un domaine clé du master data management.

Un problème majeur des systèmes de données est qu'ils sont de plus en plus décentralisés multiples et virtualisés; les coûts de nettoyage deviennent alors prohibitifs. Naissent alors des processus itératifs qui impliquent souvent que des enregistrements inexacts soient traités et intégrés avant même d'être validés, ce qui entraîne une escalade des coûts de gestion dans le traitement des erreurs. Ces coûts sont largement sous-estimés car l’impossibilité de validation en amont fait que les erreurs sont entrainées en aval des processus et deviennent difficiles à identifier, tracer et corriger en remontant à la source à travers plusieurs systèmes et opérations. La tentation est forte pour le data scientist d’exporter les données dans Excel pour les retraiter manuellement. Ce processus manuel est fastidieux et limite les gains obtenus de la numérisation et de l’automatisation, ajoutant encore au potentiel d'erreur le facteur humain. L’analyse est rendue délicate par l’aléa et le caractère non fiable de certaines données. Selon l’étude Forrester (1) 38% des entreprises (sur 235 sondées) passent plus de 30% de leur temps à valider les données.

Vers une nouvelle ère de la qualité des données

La technologie fait du nettoyage des données post-activité une approche révolue et largement dépassée par les avantages offerts par les réseaux intelligents. Grâce à la technologie, les entreprises sont maintenant en mesure de tirer le meilleur parti de la puissance d’outils de validation et d’analyse intégrés directement à des réseaux intelligents (smart network). En validant les données par le biais de règles prédéfinies avant que les données ne soient intégrées dans le système, ils réduisent le temps de réponse et augmentent l'efficacité. Le nettoyage ex-post devient inutile. Un exemple est donné par l’opérateur de service de dématérialisation qui va opérer une validation et un formatage des données provenant d’un fournisseur avant intégration dans l’ERP de son client ; autre exemple, le PIM (Product information management) très utilisé dans la santé ou l’alimentaire, va synchroniser les données d’un partenaire commercial avec un référentiel de produits servant de master data à l’ensemble d’une communauté.

Une des conclusions de l’étude Forrester est que cette stratégie doit être fondée sur un écosystème. En effet, la variété des systèmes, l’accroissement du volume de données, l’hétérogénéité des formats constituent un défi pour les systèmes de validation. A plus grande échelle, un des écueils du MDM qui consiste à renommer, éliminer ou dédoublonner certaines données se rencontre désormais à une échelle plus grande. L’ERP ne suffit plus et un traitement en profondeur, devient indispensable.

Une première approche consiste à s’entendre au sein de cette communauté sur le choix de standards ou de référentiels communs mais cette approche trouve aussi ses limites car elle se heurte très vite aux spécificités et exigences sectorielles. Des réseaux intelligents intégrant des outils de validation prennent le relais et permettent alors aux entreprises de tirer tous les bénéfices de leur master data. En offrant par exemple un système de vérification de la conformité ou l’imposition de références précises dans les commandes clients ou les factures fournisseurs. Si le master data est correctement défini dans toutes ses composantes et dispose de données pertinentes, il devient alors le composant essentiel du système de données de l’entreprise. Il révèle alors tout le potentiel de l'automatisation des processus RPA, de l'IA et du machine learning.

Qualité des données et MDM sont intimement liés

S’il est possible de conduire un projet qualité des données sans master data, l’inverse n’est pas vrai. A petite erreur grand dommage. En effet, le master data en tant que cœur du SI intègre le référentiel et l’ensemble des règles. Il est lui-même soumis à d’autres règles de gouvernance (propriété, production, mise à jour, évolution, criticité, risque etc.) comme à des politiques de gestion (sécurité, privacy, confidentialité, secret économique etc.) Le master data en tant que pivot du système de données de l’entreprise rend ensuite possible toutes les transformations, l’inférence de nouvelles règles, le passage de données brutes au données agrégées ou structurées ; facilite le reporting, l’analyse (data analytics) l’identification des écarts, voire le prédictif etc. Nous rejoignons à ce stade le domaine ou l’IA peut exercer toute sa pertinence.

Prenez le cas de données clients. Les données sont stockées dans des silos multiples, des systèmes hétérogènes sont maintenus par des services différents tels que la marketing, les ventes, le support technique, le delivery etc. Ceux qui ont effectué ce travail découvrent qu’il existait souvent plusieurs enregistrements de clients pour chaque emplacement de compte client dans des applications telles que Salesforce, l’ERP ou le système de commande client.

Quels gains attendre ?

La qualité des données augmente la productivité et génère des gains de temps mesurables, tout en rationalisant et en accélérant les processus. La qualité des données n'a pas seulement pour but de réduire les coûts. La qualité permet d’insuffler une nouvelle agilité à l’entreprise. Les services gagnent en visibilité alimentant de nouvelles initiatives métier, l'amélioration de l'expérience client, l'augmentation des ventes croisées, la dynamisation du chiffre d'affaires par l'amélioration des produits et services, le développement d'innovations ouvrant la voie à de nouveaux marchés, ou encore la promotion d'informations décisives, plus rapidement exploitables. A l’ère de l’IOT (2) et des objets connectés ce travail est névralgique pour libérer tout le potentiel de l’IA sans lequel aucun résultat ne sera réellement exploitable. Malheureusement, la plupart des données qui touchent les entreprises ne sont ni structurées ni classifiées. Elles ne sont donc pas adaptées à l'apprentissage supervisé « machine learning » et encore moins au « deep learning ».

« A key benefit of Deep Learning is the analysis and learning of massive amounts of unsupervised data, making it a valuable tool for Big Data Analytics where raw data is largely unlabelled and un-categorized (3) » .

Un Master Data de qualité facilite grandement la mise en conformité du SI. Le règlement sur les données personnelles s’inscrit dans une logique de veille active et continue. Savoir où résident vos données sensibles et où elles sont utilisées. Le master data vous permet de prouver que vos données sont utilisées en conformité et que vous savez les sécuriser. Enfin le master data simplifie la réalisation de processus documentés toujours requis dans les phases d’audit.

Le travail sur la qualité du MDM est donc indispensable pour réduire les coûts d’implémentation de politiques comme le RGPD fortement impactantes pour le SI, tout en permettant de garantir à l’entreprise une conformité permanente et une réactivité immédiate à la survenance de nouvelles mesures. De ce point de vue, le MDM rend possible la gouvernance sur les données.

D’une révolution à l’autre, digitale cette fois, la data représente cet or noir de l’ère numérique. Les données sont aujourd’hui et demain encore plus appelées à investir progressivement tous les domaines de l’économie et de l’entreprise. Ne pas gérer ses données reviendrait à ne pas disposer d’Internet. Pour organiser et exploiter les données, le MDM est au cœur des décisions et permet le redéploiement agile des politiques au sein de l’organisation. Sans un travail sur la qualité des données, pas de MDM et donc impossibilité d’une vision cohérente. Il est urgent d’agir et faire de la qualité des données une priorité dont le ROI est quasi immédiat. Les entreprises qui survivront à la révolution digitale en cours seront celle qui auront pris la mesure d’un tel enjeu.

  • (1) The Forrester Wave™: Data Quality Solutions, Q4 2015
  • (2) IOT, Internet of things
  • (3) Deep learning applications and challenges in big data analytics – Journal of Big Data (2015)

mercredi, juin 18 2014

Identité numérique, il reste peu de temps pour agir

O.Piou
M.Olivier Piou - Président de Gemalto

Il reste peu de temps pour agir, voici le message que les industriels incarnés par Olivier PIOU de GEMALTO adressent aux pouvoirs publics à l’occasion des assises de la confiance numérique organisées à Bercy le 16 juin par la FNTC.

Le constat est inquiétant, alors que les usages vont croissant, nous assistons à une érosion de la confiance dans le numérique, déclare M. Cyril Zimmerman, Président de l’ACSEL (Association de l’Economie Numérique). Avec 551 millions d’identités volées en 2013, le capital de confiance dans l’économie numérique est mis à mal avec des retombées sur l’économie en général. Isabelle Falque- Pierrotin, Présidente de la CNIL, alerte aussi l’assistance sur l’augmentation de la violation des données (+62%) et insiste sur les trois piliers de la confiance numérique : la sécurité d’abord mais aussi la transparence que constitue l’affichage des référentiels comme se propose de le faire l’Europe avec la publication des listes de confiance (TSL) et la certification qui aussi doit être transparente pour l’utilisateur ; enfin le troisième pilier est constitué par la confiance-coopération qui voit l’émergence d’une nouvelle économie dite participative ou « share economy » qui vient modifier le paradigme du traditionnel B2B pour lui substituer le modèle B4B lisez « business for business » fondé sur la reconnaissance mutuelle des communautés d’internautes ou chacun détient les clés de la confiance sans laquelle rien n’est possible. Des modèles tels que Airbnb, Yerdle.com ou LYFT.me ou plus près de nous, BlaBlacar nous viennent à l’esprit.

Emergence d’un modèle européen alternatif


Dans un contexte ou les géants le l’internet, les GAFA « Google Apple Facebook Amazon » délivrent de l’identité à tour de bras et se préoccupent du respect des données personnelles comme d’une guigne « La vie privée n’est qu’une anomalie » selon Vince Cerf de Google ; il est urgent de bâtir un modèle alternatif qui puisse faire le poids dans le jeu International. L’Europe pourrait constituer l’ultime rempart contre un système fortement invasif via les réseaux sociaux. M. Gérard GALLER de la Commission Européenne annonce que le réglement e-IDAS qui porte sur les moyens électroniques d’identification, d’authentification et de signature sera transmis le 2 juillet au Parlement pour un vote au plus tard en octobre. Avec ce dispositif qui vient écraser les lois Nationales contradictoires au principe d’une reconnaissance mutuelle des opérateurs au sein de l’Union, nous voyons apparaitre un modèle alternatif, régulé par le pouvoir régalien de la puissance publique de chaque Etat et qui se montre en définitive plus protecteur et sure pour les opérateurs qu’un modèle non régulé où l’internaute se trouve exposé à la jungle du Net. Comme « l’église au centre du village », il est grand temps que les Etats remettent l’identité numérique au cœur de l’espace citoyen.

Mme Claire Levallois-Barth de TELECOM PARITECH évoquant, l’échec de la carte d’identité numérique Nationale (e-CNI) censurée en première lecture par le Conseil Constitutionnel en mars 2012 sur le fondement que les garanties qui entouraient la gestion des fichiers n’étaient pas suffisantes ; souligne que l’autorité n’en a pas moins estimé que le projet d’identité numérique s’avérait tout à fait justifié. Mme Carole Pellegrino de MORPHO représentant l’Alliance pour la Confiance Numérique (ACN) parle au nom des industriels et défend elle aussi un modèle régulé par l’Etat sans quoi le marché risque fort d’être littéralement préempté par des opérateurs privés. Faisant écho à ces propos M. Olivier PIOU, Président de GEMALTO leader mondial de la carte à puce, pousse un cri d’alarme, que l’on pourrait résumer à « Cessons de disserter et prenons les choses en mains » . L’orgueil de vouloir tout réinventer en France tue l’action et menace notre leadership (GEMALTO réalise 96% de son chiffre d'affaires à l'International). S’adressant directement aux pouvoirs publics, M. PIOU souligne qu’il reste peu de temps pour agir, sans quoi notre monde numérique rêvé n’arrivera pas…

Mme. Axelle LEMAIRE, Secrétaire d’Etat chargée du numérique, récemment nommée, conclura ces assises en évoquant un nouveau monde fait de menaces qui impose la création de nouvelles règles. Résumant son plan d’action en trois points : renforcer le rôle des intermédiaires de confiance (tiers de confiance) dans la représentation de la société civile ; sur le plan technique la volonté de soutenir une filière reposant sur les technologies de confiance déclinée en trois volets, cyber sécurité, cloud et big-data et la mise en œuvre indispensable des standards (on pense aux travaux du CEN, CEN ELEC et de l’ETSI) sans lesquels l’internationalisation de nos technologies est impossible ; Enfin des mesures sociétales d’accompagnement qui visent à encourager les technologies de protection de la vie privée et la sensibilisation d’une société civile encore trop peu informée. A suivre...

lundi, avril 15 2013

Tour de France de la carte d’achat, la compétitivité passe par la dématérialisation

Le 12 avril, l’APECA présentait son nouveau millésime du tour de France de la carte d’achat avec un objectif, faire de la dématérialisation un atout de compétitivité pour les entreprises et les collectivités.
Le tour de France de la dématérialisation s’arrêtera dans six villes, Lille le 30 mai, Nantes le 18 juin, Bordeaux, le 2 juillet, Marseille le 10 octobre, Lyon le 19 novembre, Strasbourg, le 28 novembre.
Parmi, les partenaires officiels, la DGCIS (1) ; profitera de l’événement pour promouvoir le programme « transition numérique » lancé par Fleur PELLERIN et destiné à apporter de l’expertise aux TPE/PME en s’appuyant sur les réseaux des CCI et des experts-comptables. La DGFiP (2) veut encourager la dématérialisation des flux comptables vers les trésoreries. La Commission européenne est aussi représentée par PEPPOL qui indiquera la voie des standards et présentera des solutions concrètes pour les collectivités. L’APECA souhaite dynamiser la formule en des mini plateaux TV, les « IT days » lieux de rencontre et de démonstration de solutions pour les utilisateurs potentiels.

(1) DGCIS « Direction générale de la compétitivité de l’industrie et des services » (2) DGFiP « Direction générale des finances publiques »

vendredi, avril 12 2013

Les autorités de certification bien mal préparées à l’arrivée des nouveaux certificats électroniques RGS

La transition vers le RGS est très mal gérée par les autorités de certifications qui donnent l'impression d'être prises au dépourvu par une réforme pourtant prévue de longue date et rappelée à l’ordre du jour par la publication le 15 juin 2012 du décret signature.

Rappelons d’abord que la nouvelle réglementation impose aux opérateurs d’utiliser des certificats électroniques RGS de niveau 2 étoiles ou 3 étoiles pour les marchés publics et cela à compter du 19 mai 2013 . Jusqu’à cette date vos anciens certificats PRIS V1 restent valables.

Au-delà du 19 mai à quoi doit-on s’attendre ?
Si vous signez avec un certificat PRIS V1 « ancien régime », Il se peut que certaines plates-formes appliquant les textes à la règle, soient amenées à rejeter systématiquement votre certificat dès le 19 mai, interdisant la réponse électronique. Il parait toutefois plus probable que le profil d’acheteur n’interdise pas l'utilisation de votre certificat mais vous prévienne qu'il n’est juridiquement pas conforme. Même si cela ne bloque pas votre réponse dématérialisée, le couperet Juridique fera le reste en constituant une raison suffisante de rejet de votre offre. Ne prenons donc pas ce risque.

La difficulté réside dans le fait que les nouveaux certificats présentent des spécifications techniques telles qu'elles imposent aux autorités d’en émettre de nouveaux. Ce qui signifie pour les utilisateurs, la nécessité de commander les nouveaux certificats en remplacement des anciens avec la fourniture d’un nouveau support cryptographique USB. Les autorités qui ont anticipé le problème en livrant les deux certificats PRIS V1 et RGS sur la même clé sont à notre connaissance, très peu nombreuses. Si vous avez fait ce choix, bravo, vous n’avez rien à faire. Si comme moi vous faites partie de la deuxième catégorie, alors prenez votre courage à deux mains et votre carnet de chèque. Notez que les autorités bien conscientes de cet inconvénient, peuvent décider de vous faire une remise exceptionnelle sur votre nouvel achat qui pourrait aller jusqu'à 50% . En attendant qu’un règlement européen vienne encore modifier la donne mais à chaque jour suffit sa peine…

- page 1 de 5