Comment visualiser ses données avec efficience ?


Data Analytics : de la visualisation au prédictif
La Matinée Stratégique « Data Analytics : De la visualisation au prédictif » a été organisée par CIO le 25 avril 2017. Organisée en partenariat avec Axway, Informatica et HPE Vertica, avec le soutien de Forrester, elle a permis le témoignage d'entreprises comme Mappy, Kaufman et Broad, le CEA,...
DécouvrirCIO a organisé le 25 avril 2017 une Matinée Stratégique «Data Analytics, de la visualisation au prédictif ». Philippe Minier, DSI de Kaufman and Broad, Damien Poulain, architecte applicatif au CEA et Nicolas Korchia, responsable business intelligence chez Mappy, ont ainsi participé à une table ronde sur la visualisation de la donnée.
PublicitéComment visualiser ses données avec efficience ? C'était le thème de la première table ronde lors de la Matinée Stratégique sur « Data Analytics » que CIO organisait le 25 avril dernier. Table ronde donnant la parole à trois managers IT : Philippe Minier, DSI de Kaufman and Broad, Damien Poulain, architecte applicatif au CEA et Nicolas Korchia, responsable business intelligence chez Mappy.
Philippe Minier, devait remettre le data analytics dans son contexte : respecter les obligations de qualité de service, le besoin de gérer les fournisseurs, de facturer. « La qualité est un point fort chez nous, c'est ce qui a fait la marque. Rechercher le zéro défaut est très compliqué, mais on a mis en place des outils de dernière génération, par exemple pour assurer la livraison d'un bien au client. L'un des points importants pour nous en termes de qualité, c'est de minimiser le nombre d'incidents lors des livraisons et ensuite aller très vite pour régler les petits défauts qui peuvent rester. »
« On a mis en place des outils agiles avec de la tablette tactile, de la récupération de données. On récupère de plus en plus de données du côté des fournisseurs, des prestataires et derrière on trace tout ce qui se passe en termes de levées de réserve, de réactivité des entreprises. Derrière, il y a beaucoup d'automatisation avec tous ces outils, on récupère de plus en plus de données, et on les traite, on les remonte à la direction générale avec des indicateurs. On fait de l'analyse très « high level » mais on est capable ensuite de descendre vers du plus fin grâce aux technologies Qlick. »
Assurer tout le cycle de vie d'une opération
Le spécialiste de l'immobilier est capable de faire de l'agrégation mais aussi de faire descendre les données Qlick, Tableau, Vertica, Alteryx, pour ses différents besoins, sur la partie livraison. La qualité c'est plutôt Qlick. Vertica étant plus pour le suivi financier très fin par opération, avec des fiches d'opérations, du Tableau dessus pour faire de la dataviz. Tout le cycle de vie d'une opération immobilière est assuré par ces outils de data analytics, en partant de la recherche foncière, très importante. Un des problèmes aujourd'hui, c'est le foncier, la réservation et son cycle de vie, et le montage de l'opération. « On utilise les nouvelles technologies pour améliorer ce suivi complet. On a pas trouvé une solution qui fasse tout, on est obligé d'agglomérer plusieurs solutions. Derrière, on capitalise les données, les observations faites sur un chantier, tous les indicateurs sont réutilisables par exemple pour identifier les meilleurs fournisseurs et leur évolution. Ce qui sert aux appels d'offres suivants. »
Pour Damien Poulain, du CEA, « on a utilisé au fil du temps une grande variété d'outils décisionnels, des données classiques, on essaie de limiter les outils par technologie, un en base de données, un seul en BI, Business Object en BI objet en BI agile on vient de valider Digdash. On a une hétérogénéité d'activités, ce n'est pas une raison suffisante pour être hétérogène en outils. On essaie d'optimiser en ayant le meilleur outil pour chaque technologie».
Publicité« Je prône une BI agile qui aille jusqu'au bout »
Quelle est la limite entre Business Objet et Digdash ? Dans l'agilité il y a tout, l'intuitivité, la capacité à fabriquer de la BI sans formation, sans prestataire de service. « Je prône une BI agile qui aille jusqu'au bout. L'utilisateur non informaticien peut s'en servir avec un collègue qui montre comment ça marche, ça reste simple, pas de coût supplémentaire. La BI traditionnelle avec du datawarehouse, a fait ses preuves, elle n'est pas obsolète pour accéder aux données. Le standard BO existe. Le but c'est qu'on intervienne le moins possible, je ne sais même pas quels sont les tableaux de bord, on a mis la plateforme, on assure la disponibilité, la performance, l'infrastructure. Par contre, l'usage nous échappe, mais c'est ce qu'on souhaite, que ce soit le moins bloquant dans le processus. Je pense qu'Excel est l'outil de la BI historique, avec Digdash on n'est pas loin de l'usage qu'on a avec Excel. C'est quand même la première fois que je vois un outil capable de concurrencer Excel pour le tableau de bord (pas pour le côté tableur évidemment). »
Nicolas Korchia, de Mappy, a, lui, utilisé successivement beaucoup d'outils décisionnels et de traitements de la donnée, il était l'un des premiers sur Hadoop. Son gros sujet, c'est l'analyse des logs, pour vérifier que les itinéraires proposés sont bons. L'équipe BI travaille pour comprendre ce que font les utilisateurs et comprendre comment sont utilisés les produits Mappy et cela en se basant les logs. 13 millions de visiteurs uniques chaque mois, 500 millions de requêtes par mois : mais il faut sortir l'information essentielle. Sur certains logs, on ne cherchera pas d'information supplémentaire. Mais, sur d'autres, au contraire, il faudra descendre de manière très fine. Mappy essaye donc de structurer au maximum la donnée pour que l'utilisateur final soit à l'aise, même si on lui met à disposition un maximum de données.
L'utilisateur a aussi un niveau d'exigence important
« On est autour de 10 To de données utiles chez Mappy, de la donnée qui contient l'historique de tous les itinéraires ou bien l'audience de chacun des centres d'intérêt. 2 ou 3 To supplémentaires arrivent chaque semaine. Nous utilisons Tableau pour la visualisation. On a croisé une start up Indexima, avec des temps de réponse intéressants, à la milliseconde. L'idée c'est d'être transparent, que l'utilisateur ne se rende pas compte qu'il est en lien avec des données hallucinantes. L'utilisateur a aussi un niveau d'exigence important. Mes utilisateurs sont très durs, et on a 5 milliards de lignes. »
La qualité de la donnée reste une grande préoccupation. « On a fait des progrès, on voyait des anomalies dans les graphiques, on amélioré la qualité, souligne Philippe Minier, aujourd'hui on est plus dans le redressement. On utilise Alteryx pour gérer cette partie au moment de l'intégration pour nettoyer la donnée ».
Au CEA, remarque Damien Poulain, on est moins en avance mais il n'y a pas non plus un grand besoin. Conclusion générale : On va avoir de plus en plus de données, c'est exponentiel, c'est cela le grand sujet.
Article rédigé par

Didier Barathon, Journaliste
Commentaire
INFORMATION
Vous devez être connecté à votre compte CIO pour poster un commentaire.
Cliquez ici pour vous connecter
Pas encore inscrit ? s'inscrire