Business

Passer du Big Data au Big Knowledge

Passer du Big Data au Big Knowledge

Le 23 septembre 2014, CIO a organisé une conférence sur « Le décisionnel transforme les données en connaissance : du Big Data au Big Knowledge ». Cette Matinée Stratégique a été réalisée en partenariat avec Informatica, Capgemini, Teradata et Access France.

PublicitéIl y a loin de la coupe aux lèvres. Si le décisionnel est le projet co-piloté conjointement par les métiers et la DSI par excellence, il en résulte un usage très modéré des technologies les plus avancées, comme le Big Data par exemple. C'était l'enseignement principal de l'étude réalisée par CIO à l'occasion de la matinée stratégique « Le décisionnel transforme les données en connaissance : du Big Data au Big Knowledge » qui a eu lieu au centre d'affaires Paris Trocadéro le 23 septembre 2014. Organisée par CIO, cette conférence s'est faite avec le soutien de plusieurs partenaires : Informatica, Capgemini, Teradata et Access France.

La présentation de l'étude en vidéo

Convaincre avec des projets pilotes

Pour Bruno Labidoire, Directeur Technique Europe du Sud d'Informatica, face aux réticences des métiers à investir dans des concepts comme le Big Data, « il faut commencer par des projets pilotes démontrant la création de valeur ». Cette création de valeur peut être liée à de nouveaux projets complets comme à des améliorations de projets antérieurs (accroissement de la couverture fonctionnelle, flexibilité...).

L'intervention de Bruno Labidoire en vidéo

« L'une des difficultés du Big Data est son nom car le terme ne renvoie qu'à un problème de volume, ignorant les autres V tels que valeur et vélocité » a observé Elias Baltassis, Directeur Big Data et Analytique du BCG (Boston Consulting Group). Il a également remarqué que les entreprises américaines étaient, en moyenne, beaucoup plus matures que les entreprises européennes sur le Big Data. Mais les entreprises leaders sont en fait au même niveau, la différence provenant des entreprises moyennes ou petites. Pour Elias Baltassis, une autre difficulté est la difficulté à trouver un « mouton à treize pattes » pour occuper la fonction de Data Scientist. Il en déduit : « il faut des équipes car il n'existe pas de personnes ayant toutes les compétences requises comme les entreprises européennes s'obstinent à chercher. »

L'intervention de Elias Baltassis en vidéo

PublicitéRapprocher Big Data et BI traditionnelle

Afin de maximiser la synergie des données et la génération de valeur, la solution est de rapprocher au maximum le décisionnel traditionnel et l'approche Big Data » a plaidé Jean-Marc Bonnet, Consulting International chez Teradata. En effet, il ne faut pas oublier que le Big Data, c'est avant tout... des datas ! Mais quand le chaos est gérable avec de faibles volumes, une faible variété ou une faible vélocité, le Big Data implique de devoir architecturer ses données avec beaucoup plus de rigueur, faute de quoi l'exploitation technique IT sera délicate et la création de valeur métier non optimale.

L'intervention de Jean-Marc Bonnet en vidéo

Le Big Data suppose en effet de disposer d'outils pour collecter et stocker les données. C'était l'objet d'une première table ronde où ont témoigné Joël Boutet, DSI de Ellisphere, et Jean-François Paccini, Directeur Technique de So Local.

La table ronde en vidéo

Analyse et Big Data : un couple uni

« Big Data et analytique forment les deux faces inséparables du traitement de la donnée sur lequel nous concentrons toutes nos forces » a relevé Valérie Perhirin, Responsable de l'offre Big Data et Analytics chez Capgemini France. Construire un SI Big Data sans réaliser d'analyse n'apporte pas la valeur escomptée offerte par ces nouvelles technologies. Comme le Big Data gère par définition une forte hétérogénéité des données, il permet de consolider des sources multiples et de fournir une vision transverse des données en brisant les silos traditionnels par métiers. Mais, au final, toujours dans une optique analytique.

L'intervention de Valérie Perhirin en vidéo

Casser les silos traditionnels, c'est aussi mixer des données internes et des données externes. L'information est ainsi infiniment plus riche en possibilités d'analyses. Alexandre Schneider, Directeur général de Access France a ainsi présenté le projet Fleetbase mis en oeuvre au sein de Renault Flottes : « le système existant ne permettait pas de connaître les flottes de véhicules des non-clients, d'où l'intégration de fichiers externes comme celui des immatriculations. » Cette intégration a permis de connaître exactement quels véhicules étaient utilisés par quelles entreprises avant de les prospecter. Mis en oeuvre en mode SaaS, le projet devait cependant ne stocker de données que sur le territoire national.

L'intervention d'Alexandre Schneider en vidéo

Le cas Renault Flottes était un bon exemple de l'apport de connaissance pertinente aux métiers. Deux autres ont été présentés sur une table ronde dédiée au sujet, avec les témoignages de : Laurent Rousset, DSI de Celio, et Nora Guemar, Data Scientist de GDF Suez.

La table ronde en vidéo

Enfin, Fabrice Benaut, CIO Global IFR, groupe GFK Consumer Choices, et CIL de son entreprise, a été le Grand Témoin de la matinée. Pour lui, instaurer la confiance est indissociable de la création du business par la data. Et l'exploitation des données est le coeur de métier de son groupe depuis son origine.

L'intervention de Fabrice Benaut en vidéo

Partager cet article

Commentaire

Avatar
Envoyer
Ecrire un commentaire...

INFORMATION

Vous devez être connecté à votre compte CIO pour poster un commentaire.

Cliquez ici pour vous connecter
Pas encore inscrit ? s'inscrire

    Publicité

    Abonnez-vous à la newsletter CIO

    Recevez notre newsletter tous les lundis et jeudis

    La question du moment
    Les contraintes de fonctionnement propres à votre entreprise imposent-elles des environnements IT au plus proche des utilisateurs ou des lieux de production ?