Data Management

Télécharger le Cahier Spécial "Les 10 tendances clés 2017 de la Data Intelligence / Data Intelligence Forum"


Jean-Pierre Malle (M8)
Samedi 14 Janvier 2017


Parce que vos projets évoluent, le programme du Data Forum 2017, en complément de l’exposition, vous accompagne au rythme de vos besoins et de vos usages.

Il se déclinera autour de plusieurs formats :

Dans le salon :

La plénière
Les conférences-experts
Les ateliers solutions

Sur le village Data Forum :

Les débats Meet-Up
Les Rendez-vous One-to-One
Les démos "Start & Do It"
Vous pourrez ainsi construire vos parcours personnalisés de découverte, de benchmark et de synthèse.



By Veillemag pour le Data Intelligence Forum
By Veillemag pour le Data Intelligence Forum
Les 29 & 30 mars 2017 se tiendra la 2ème édition du Data Intelligence Forum organisé par Reed Expositions France. 
Parce que la data est au coeur de la transformation numérique des entreprises, cet événement lui est consacré à part entière. 
Dans le cadre de la préparation du Data Forum 2017, près d'une vingtaine d'experts ont été consultés pour définir les 10 tendances-clés du domaine. 
2 groupes de réflexion ont été composés    
- le comité scientifique présidé par Jacqueline Sala, rédactrice en chef de Veille Magazine    
- le jury des Data Intelligence Awards présidé par Olivier Mamavi, rédacteur en chef, Management & Data Science, la première revue scientifique française consacrée au management et à la data science.  
Pour tout contact : jsala@veillemag.com

Les 10 tendances-Clés 2017

1/ L'interopérabilité des systèmes
2/ La finalité du data storytelling
3/ Libérer et protéger les données
4/ Une IA plus proche de l'homme
5/ Les données de l'expérience utilisateur mieux exploitées
6/ Une soif de collaborativité dans les données
7/ La quête de la véracité des données
8/ La Business Intelligence incontournable
9/ Vers une géolocalisation tout azimut
10/ Data discovery. Un trésor est caché dans vos données

1/ L'interopérabilité des systèmes

On pourrait penser que cette problématique est solutionnée car les systèmes sont interopérables en matière d'échange de données.
De nombreux protocoles ont été développés depuis des dizaines d'années, des API permettent de connecter les dataservices, des ETL assurent la connexion à des bases de données, des moteurs sémantiques approchent le langage naturel.
La "tuyauterie" existe et s'enrichit régulièrement de nouveaux dispositifs plus rapides et plus performants. Mais la progression de la data-intelligence a ouvert de nouveaux territoires qui intéressent à la fois les laboratoires de recherche, les éditeurs et les entreprises concernant l'interopérabilité des données entre l'homme et la machine intelligente ou entre deux machines intelligentes.
La communication de la connaissance et des concepts est un champ de recherche très actif et qui le restera sur plusieurs années encore. Dans ce domaine des avancées moins ambitieuses mais plus pragmatiques sont constatées pour élever le niveau d'abstraction des échanges entre machines intelligentes et constituer une surcouche permettant dans un premier temps de s'affranchir de la gestion des diverses solutions d'échange de données.

2/ La finalité du data storytelling

La circulation des données entre experts et datascientists engendre des temps non négligeables consacrés à l'analyse et l'appropriation des données échangées, avec leur cortège d'interprétations, de redécouvertes voire d'erreurs.
Le data storytelling apporte de la connaissance sur ce processus d'analyse et d'appropriation facilement transférable avec les données. Dans un monde ou la célérité est souvent la clé de la réussite, le gain de temps et d'énergie peut être déterminant. Les plateformes de visualisation des données intègrent de plus en plus des fonctions de data storytelling renforçant la collaboration sur les données. Les formations à la datascience insistent maintenant sur l'importance du storytelling.  
Nous savions que l'acte de narration n'était pas prisé par les informaticiens, lesquels éprouvent d'autant plus de difficultés à transmettre leur savoir que les langages sont de plus en plus lisibles. Espérons que la population des datascientists se révèle plus encline à recourir au storytelling.

3/ Libérer et protéger les données

Depuis des années deux courants s'opposent, celui du renforcement de la protection des données à caractère privé et celui de l'accroissement des services personnalisés. 
Sur le plan législatif, la France s'est doté d'un cadre plus robuste que certains de ses partenaires anglo-saxons. Toutefois les opérateurs sont passés maitres dans l'art d'obtenir l'accord des individus en leur présentant un texte à connotation juridique peu lisible et présenté à un moment peu propice à la lecture et à la prise de recul.
Sur le plan des services personnalisés, la connaissance de chaque situation individuelle s'avère indispensable. Mais dans ce domaine capter des données privées est souvent une solution de facilité. La modélisation des comportements est une voie permettant de traiter efficacement les acteurs anonymes et donc limiter le besoin en données à caractère personnel.
Toutefois le recours à de telles données demeure incontournable dans certains domaines tels que la santé, la sécurité, l'éducation, …
Le self-data sur lequel travaille la FING et le VRM (vendor relationship management) ont pour objectif de rendre le contrôle de ses données à leur propriétaire qui pourra choisir de leur usage en toute circonstance. Des technologies sont très attendues par le marché pour prendre en charge cette difficile équation entre la libération et la protection des données privées. De nombreuses initiatives naissent notamment autour du concept de la blockchain et visent à y apporter une réponse.

4/ Une IA plus proche de l'homme

Le développement des nouvelles techniques d'IA telles que le deep learning marque le début d'une nouvelle ère où l'IA peut concurrencer l'homme sur des tâches intellectuelles relativement complexes.
L'automatisation des travaux intellectuels peut révolutionner le monde des services à très courts termes. Selon le Gartner un tiers des emplois dans le monde seraient concernés dans les dix ans à venir. Dans un pays tel que la France, plus de 80% des activités relèvent des services et seront directement impactées par le phénomène. 
Une IA plus proche de l'homme c'est une IA apte à mieux servir l'homme, mieux le conseiller, mieux l'orienter, mieux le sécuriser. Les progrès enregistrés en matière d'homme intellectuellement augmenté, en matière de compréhension du langage naturel et familier, la reproduction de l'émotion, sont autant de domaines dans lesquels des startups naissent tous les jours.

5/ Les données de l'expérience utilisateur mieux exploitées

Capter et exploiter les données de l'expérience utilisateur a toujours constitué un objectif majeur des entreprises en vue de nourrir d'informations fraiches et pertinentes leurs services marketing, design, maintenance, approvisionnement, …
Le développement de l'internet puis de la mobilité a fortement contribué à l'émergence de techniques de capture des données de l'expérience à toutes les étapes vécues par l'utilisateur. Les nouveaux objets connectés vont renforcer encore ce phénomène.  Les moyens de stockage et d'interrogation des données offrent régulièrement de nouvelles capacités pour un prix toujours plus accessible. Les progrès se constatent également tous les jours en matière de visualisation des données. Les studios de "data-visualization" offrent des moyens de plus en plus puissants aux datascientists pour explorer leurs données.
Mais c'est sur le plan holiste que les progrès en matière d'exploitation des données de l'expérience utilisateur sont les plus intéressants. La majorité des systèmes se limitaient jusqu'alors à la catégorisation des utilisateurs ou la génération d'alertes et devaient ensuite passer la main à des experts. Les progrès enregistrés sur l'ensemble des techniques disponibles offrent la possibilité d'une exploitation bien plus riche et pertinente des données issues de l'expérience utilisateur. L'enjeu est de premier plan pour les entreprises.

6/ Une soif de collaborativité dans les données

On avait bien vu la collaborativité dans le monde de l'open source fédérant des milliers de contributeurs autour de projets communs, on l'avait vu aussi dans celui des réseaux sociaux permettant à chacun de s'exprimer ouvertement sur tout sujet d'observation ou de réflexion, on l'avait vu également dans des grands projets d'encyclopédie réunissant le savoir et les connaissances mondiales.
Mais dans le monde de la donnée libre, le mouvement open-data est resté longtemps réduit à un catalogue de sources de données très indépendantes.
Les données les plus pertinentes résultent toujours d'une forte agrégation de nombreuses sources de données.
Les progrès des techniques de dématérialisation associés à la volonté constatée des entreprises et des administrations à automatiser leurs traitements renforcent encore le besoin de collaborativité dans les données.  Le développement des techniques de la data-intelligence permet de traiter, comprendre et générer des données avec une puissance jamais égalée et à ce titre est avide de nouvelles sources de données et de collaborativité dans les données.

7/ La quête de la véracité des données.

S'assurer que l'on dispose de données les plus proches possibles de la réalité est un réflexe bien naturel.
Qui pourrait contester la nécessite de corriger une erreur ou une imprécision dont on a connaissance et vouloir poursuivre un travail avec une donnée frelatée ? C'est sur ce principe que se développent des moyens autour des notions de sécurité, de véracité, de traçabilité et d'intégrité des données.
Mais depuis quelques années on assiste aussi à un autre phénomène apparu avec les technologies noSQL qui ont ouvert la boite de pandore en abandonnant l'intégrité des données au profit de la célérité. Le monde du big-data est peuplé de données dont on n'a pas l'assurance de leur complétude, de leur véracité ni de leur actualité ce qui multiplie les besoins en techniques alternatives permettant de travailler avec des données imparfaites.

8/ La Business Intelligence incontournable

Au fil du temps, nous sommes tous devenus des sources de données business pour les entreprises. Toutes nos navigations internet, nos déplacements, les applications que nous chargeons sur nos smartphones, nos échanges sur les réseaux sociaux, nos mails sont sources d'informations business.  Mais nous sommes également des pourvoyeurs de données pour notre entreprise.
Le développement des applications spécialisées offre de nouvelles possibilités d'alimenter en continu le système d'information de l'entreprise. Les employés, les clients, les fournisseurs en situation de mobilité sont connectés au système d'information.
Ces canaux de collecte et d'interaction sont plus structurés, moins dispersifs, plus rapides. Ils sont donc moins chers et plus performants que l'analyse des réseaux sociaux. Ils constituent une nouvelle étape dans la transformation de la business intelligence constatée depuis plusieurs années avec l'apparition de la datascience.
C'est dans le domaine de la business intelligence mobile que les progressions sont les plus marquantes, le smartphone devenant peu à peu notre bureau mobile, sur un créneau ou l'ordinateur portable et la tablette ne se sont pas imposés avec la même ferveur. L'enjeu est comportemental, les entreprises ayant besoin de collecter ces données n'hésitent plus à accorder une part de rémunération aux collaborateurs, aux clients, aux fournisseurs pour les récompenser de la collecte des données ou de l'installation de leurs applications propriétaires.

9/ Vers une géolocalisation tout azimut

Après le bluetooth basse consommation, le wifi, l'ultrason et le Beacon, les enseignes ont le choix de la technologie pour géolocaliser leurs visiteurs au sein de leurs points de vente.
Le monde de l'internet avec sa facilité de capter le parcours client mais son impossibilité de faire toucher le produit perd peu à peu sa supériorité en matière de collecte de la connaissance client face au magasin physique.  L'impact de la géolocalisation dépasse largement le cade du commerce. Chaque jour de nouvelles applications naissent et intéressent les gestionnaires des espaces dans le domaine de la culture, du transport, de la ville, du sport, de la santé, … 
Des solutions à base de géolocalisation se développent pour proposer des produits et des services, fournir des informations et des commentaires, mettre en relation des personnes, optimiser les flux, prendre en charge la sécurité, … Savoir qu'un médecin se situe à quelques mètres du lieu d'un accident peut sauver une vie.
La géolocalisation est une base indispensable à la nouvelle révolution que permet l'intelligence artificielle dans le concept de la "société augmentée".

10/ Data discovery. Un trésor est caché dans vos données

Il n'est plus nécessaire de convaincre les entreprises que leurs données constituent un trésor encore insuffisamment exploité.  Les systèmes de "data discovery" regroupant notamment les moteurs de recherche, l'indexation et l'analyse sémantique font l'objet de développements et d'améliorations continuelles.
Les data-lake se constituent dans chaque entreprise pour accueillir de plus en plus de données offrant ainsi un terrain d'expérience très concret à ces nouvelles technologies. L'économie de la donnée se développe de façon croissante tel qu'en atteste le rapport de la task force franco-britannique paru cet été sur ce thème.
Nous enregistrons dans ce domaine la volonté exprimée des entreprises pour la valorisation de leurs données. Elles souhaitent non seulement connaitre les données qu'elles possèdent, détecter les données importantes pour effectuer leurs prédictions, améliorer leurs processus et développer de nouvelles sources de chiffre d'affaire, mais elles veulent aussi affecter une valeur financière à ces données.  Des solutions de gouvernance de la donnée (data-driven) et MDM (master data management) sont disponibles et s'enrichissent tous les jours de nouvelles possibilités. Les solutions de valorisation des données, les ERP de la production et de l'exploitation de la donnée sont attendus par l'ensemble du secteur.

Le comité stratégique Data Intelligence Forum 2017

Le comité stratégique du Data Intelligence Forum mobilise experts, utilisateurs et scientifiques pour éclairer les meilleures pratiques et innovations en cours.
Il est placé sous la présidence de :

  • Jacqueline SALA, rédactrice en chef Veille Magazine

Les membres du comité

  • Sylvie Sage, Responsable du Business Research Center chez Deloitte
  • Romain Zerbib, Enseignant Chercheur Groupe IGS chez Revue Management et Data Sciences
  • Antoine Henry, Doctorant Chantiers Tranverses SI/Veille/Innovation - Délégation systèmes d'information chez GRDF
  • Arnaud Rayrole, Directeur Général chez Lecko
  • Jean Pierre Malle, Data Scientist - Spécialiste de l'Analyse Situationnelle chez M8

Le Jury Data Intelligence Awards 2017

  • Olivier Mamavi, Enseignant Chercheur ICD/ Directeur de Publication Revue M&DS chez ICD
  • Jean Rohmer, Responsable de la Recherche Partenariale chez Pole Leonard De Vinci
  • Samuel Fosso Wamba, Professeur chez Toulouse Business School
  • Jean-David Benassouli, Managing Director at Accenture - Digital Data & Analytics chez Accenture
  • Diane Rambaldini, CEO. Conseil Strategique. CyberSecurité chez Crossing Skills, Security Tuesday - ISSA France

Contacts

Ces sujets vous concernent, les services et solutions que vous développez apportent des réponses à ces enjeux, alors participez au Data Intelligence Forum. Soyez conférencier ou partenaire !
Pour contacter directement REED Expositions France, cliquez ici