Le Congrès Big data a démontré une nouvelle fois la très forte dynamique de ce marché tant en termes d'innovation que d'usages

La 8ème édition du congrès Big data 2019 s’est déroulée les 11 et 12 mars au palais des Congrès à Paris. Comme le domaine traité, les chiffres sont en évolution exponentielle pour démontrer aux 5000 auditeurs présents que nous sommes bel et bien entrés dans l’ère de la « data driven economy » : plus de 50% des entreprises ont investi sur le sujet. Pour assurer la réussite de cet événement annuel incontournable, 250 éditeurs ou intégrateurs étaient présents, un village startup réunissait des contributeurs très significatifs, 200 ateliers produits et tracks consulting étaient organisés, plus de 50 conférences se sont déroulées.
 
Le machine learning, l’Intelligence Artificielle, l’IoT, le streaming, l’edge computing, le cloud computing sont autant de thématiques qui auront été traitées lors de cette nouvelle édition du congrès.
 
Outre le machine learning, les technologies d’intelligence artificielle au sens large telles que le deep learning et le traitement du langage naturel (NLP) s’imposent désormais dans de nombreux contextes et cas d’usage. Non seulement l’environnement Big data leur donne leur pleine raison d’être et leur efficacité mais aussi les algorithmes se perfectionnent pour permettre la percée de vrais assistants conversationnels auprès des utilisateurs métier (chatbots textuels ou vocaux), de systèmes de recommandation et de personnalisation des offres, mais aussi de détection d’anomalies.
 
La gouvernance renforcée et démultipliée par la cyber sécurité.
 
La multiplication des données requiert une gouvernance qui va de pair avec la gestion de la sécurité et des accès aux données mais aussi la gestion de la qualité de ces données. De nombreuses enquêtes relaient aussi la défiance des consommateurs dans la sécurité de leurs données personnelles et dans l’usage qui en est fait, sans compter la crainte prégnante des cyber-attaques. On le voit, la gestion des données et la transformation numérique sont devenues stratégiques à la survie des grandes entreprises et au développement des plus petites. 
 
Enfin, les architectures Cloud permettent de gérer les données et aussi les fonctions analytiques en tant que services. On parle de « Data as a service », et « d’Analytic as a service » avec toute la gouvernance que cela suppose.
 
La stratégie des entreprises se transforme en profondeur pour accompagner les mutations liées au numérique
 
Les nouveaux secteurs d’activités portés par des entreprises innovantes axent tout leur modèle métier sur les stratégies liées à la transformation numérique, à savoir la gestion de l’expérience et de l’engagement du client, l’analyse de ses interactions avec la marque ou l’enseigne, les recommandations, la personnalisation mais aussi la détection d’anomalies dans le comportement du client ou le fonctionnement des produits. Pour ce faire, il convient de ne rien laisser au hasard quant aux types de données à exploiter. Les Big data sont partout : ce sont les données issues des mobiles, des réseaux sociaux, des blogs, des sites Web, des emails, des chatbots, des photos, des images, des vidéos ou encore des capteurs IoT, etc. Toutes ont des choses à dire sur le client pour reconstituer progressivement son identité numérique et être pertinent sur les offres qui lui faites. En l’occurrence, cela va désormais bien plus loin : mesurer la pression marketing que le client peut supporter à titre individuel, le fidéliser en le traitant de façon unique et en lui offrant un parcours entièrement personnalisé depuis les messages et offres qui lui sont adressés jusqu’au chemin à emprunter (voir notre dossier sur analytique du parcours client), assurer sa satisfaction en prenant régulièrement son avis (voir notre prochain dossier sur le feedback management), l’inciter à s’exprimer sur les réseaux sociaux en vue de contribuer à l’e-reputation de la marque ou enseigne, enfin atteindre ce cercle vertueux qui le fait devenir ambassadeur de la marque et donc influenceur des autres clients potentiels pour favoriser l’acte d’achat.
 
Les dernières innovations résident dans l’analyse de la voix et de l’écrit mais aussi des émotions du client face par exemple à une publicité pour tester sa réceptivité à un message ou à une offre. Il devient aussi possible d’adresser au client une publicité interactive en lien avec ses sujets de préoccupation, ce à partir de ses seules requêtes sous Google.
 
Au-delà du client, une bonne partie de ces notions énoncées ci-dessus sont également transposables pour le collaborateur, le fournisseur ou le partenaire. A titre d’exemple, la relation avec le collaborateur a des similitudes avec celle du client, dans la mesure où l’employeur doit préserver l’attractivité et la notoriété de l’entreprise pour capter puis conserver les meilleurs talents.
 
Le Big data concerne tous les secteurs d’activités 
 
De nombreuses grandes entreprises et organismes publics ont présenté leur solution Big data désormais installée durablement au sein de leur système d’information.
La mairie de Paris a exposé son projet d’usage des données d’intérêt général pour la ville de demain. 
Covea dans le domaine de l’assurance a mis en avant les apports du Big Data pour l’amélioration de l’expérience et du parcours client, la détection de marchés et segments à forte valeur ajoutée et l’amélioration de l’efficience opérationnelle.
MacDo a présenté son projet Big data qui vise à détecter les leviers de compréhension des consommateurs.
Maison du Monde a montré en quoi le Big data permet de comprendre les liens entre produits, d’évaluer les effets d’une animation marketing multicanale, de corréler les clients sur le Web et en magasin.
Renault a pu mesurer la performance des opérations marketing mais aussi l’efficacité des nouvelles offres.
Clarins exploite les feedbacks clients via l’analyse des sentiments et le machine learning pour gagner en performances.
C-Discount a mis en place un projet de recommandation de produits adaptés au client et de personnalisation des actions promotionnelles.
L’Occitane a conçu une vision 360° du client via un référentiel unique et l’outil de gestion de campagnes Adobe Campaign, ce qui a apporté une plus grande autonomie de ses équipes métier, une meilleure précision des analyses et une capacité croissante à répondre aux enjeux internes et externes (en particulier avec le RGPD).
ERAM a montré comment intégrer les données émotionnelles des internautes au cœur de sa stratégie e-commerce avec l’offre Datakalab.
Tomtom a souhaité révolutionner la mobilité au sein d’une smart city.
Audio Electronic Venture a présenté le concept de data streaming sur les véhicules connectés avec des analyses instantanées en temps réel mais aussi prédictives. Air Liquide a montré en quoi le Big data peut contribuer au développement durable et à la performance économique avec l’optimisation, la maintenance prédictive et l’amélioration des performances (prévenir les émissions sur les gaz d’échappement ou bien les usines etc.). Total est venu partager 2 projets : l’un d’analyse textuelle, l’autre de recherche d’informations. Pour ce faire, le groupe a conçu un portail pour les géo-scientistes et une plate-forme cognitive en langage naturel.
Kubernates a démontré le concept de « data driven application » avec l’IoT, le monitoring et la mobilité pour la gestion des containers et des micro-services. Il a aussi mis en avant les défis de l’agilité dans ce type de projet.
La SNCF a présenté son ambition de devenir une « Data driven company » dans le cadre du développement des transports durables tant du point de vue du matériel (multiplicité des capteurs embarqués dans les trains pour réguler la circulation ou participer à une opération de maintenance) que des voyageurs (gestion de la qualité et de la fiabilité des informations délivrées aux voyageurs). Easy Farm et Airbus ont présenté les atouts des analyses de photos satellites et de la cartographie des parcelles. 
ST Microelectronics a mis en place la détection des failles d’exécution dans une ligne de production industrielle complexe via un moteur de règles et du machine learning.
Enfin, la SNCF est revenue avec un second projet Big data pour optimiser la gestion des carrières et des talents par la création d’un vivier des talents, la constitution de communautés, la mise en place de compétences « made in SNCF ».
 
Cette édition 2019 du congrès Big data fut ainsi riche de nouveaux acteurs, de nouveaux projets et l’occasion de mesurer le chemin parcouru d’une part par les fournisseurs dans leurs propositions de valeur, et d’autre part par les entreprises qui s’emparent réellement du sujet en déployant des projets désormais opérationnels et réplicables à d’autres problématiques. La « data driven economy » est en marche et ne s’arrêtera pas !
 
Le Big data au service de l’innovation
 
Sur cette édition du congrès, le concours de l’innovation Big data 2019 était de nouveau organisé pour récompenser deux catégories d’entreprises : « Startup » et « PME et Grande entreprise ». Un prix coup de cœur du jury était également remis. 
 
Pour la catégorie « Startup », Myrtea Metrics l’a emporté avec un outil qui vise à identifier les sujets à traiter en priorité dans la journée. La solution s’appuie sur un assistant intelligent qui permet de transformer les décideurs en « décideurs augmentés ».
 
Pour la catégorie « PME et Grande entreprise », Daher a été le gagnant avec son projet d’analyse de millions d’informations sur les avions à partir d’un Data lake dans le Cloud. Ceci permet de détecter les pannes potentielles et de déclencher les interventions nécessaires mais aussi d’optimiser le fonctionnement des appareils. 
 
Enfin, le prix coup de cœur du jury a été remporté par Proxem pour l’analyse de texte et la visualisation des données. La solution s’appuie sur une couche hybride d’IA composée de système expert et de machine learning. Les usages sont multiples : analyse de contenus web, analyse de sentiments clients, analyse de risques industriels, chatbots, détection d'appels d'offres, moteur de recommandations, mise en relation CV / offres d'emploi, réponse automatique aux emails. 
 
Pour conclure et pour information , nos interviews éditeurs et éclairages d’actualités à paraitre prochainement dans l’Œil Expert seront :
 
- Un interview de Marklogic, éditeur américain disposant d’une base noSQL adaptée aux projets MDM et ECM
- Un interview de Dataiku, éditeur français et international qui propose une plate-forme analytique avancée
- Un éclairage d’actualité sur la fusion Cloudera / Hortonworks (ce dernier est éditeur d’une plate-forme de données basée sur Hadoop, utilisée pour analyser, stocker et manipuler de grandes quantités de données).

L'AVIS DE TEKNOWLOGY

 
La « data driven economy » est en marche.
 
Les entreprises innovantes (Blablacar, Uber, Airbnb, Drivy, etc.) nativement « data driven » exploitent toutes leurs données dans une infrastructure Big data. Celles-ci sont entièrement stockées dans un Data Lake sans présager de l’usage qui en sera fait ultérieurement. Elles sont aussi issues de sources multiples (mobiles, réseaux, sociaux, mails, blogs, Web, IoT, photos, images, vidéos etc.) et arrivent à cadence ultra rapide ce qui exige des infrastructures à la fois robustes, sécurisées et gouvernées (framework Hadoop, bases NoSQL etc.).
Dans cette édition 2019 du congrès Big data, l’accent a été mis sur d’une part la gouvernance des données, d’autre part l’intelligence artificielle et le machine learning.
La gouvernance de données reste un sujet majeur d’autant plus prégnant que nous sommes en ère post RGPD. Comment réconcilier propriétaires et utilisateurs des données ? Comment garantir la sécurité et la qualité des données ? Quand les algorithmes de plus en plus sophistiqués posent la question de leur fiabilité, de même que celle du traitement des données (profilage des données, fake news, sécurité des données etc.)
Le machine learning est véritablement conforté par le marché. La technique est particulièrement prometteuse pour de multiples métiers dans l’entreprise : le marketing afin de l’assister pour personnaliser ses offres, émettre des recommandations au client, mesurer la pression qu’il est prêt à accepter ; la vente afin de répondre aux besoins du client avec pertinence, exploiter sa géolocalisation, le service client enfin pour lui permettre d’anticiper les pannes, d’effectuer de la maintenance prédictive sur les produits et de prévenir le client avant qu’il ne se manifeste (en cela l’IoT embarqué sur les produits aura de plus en plus un rôle déterminant).
Tous les secteurs d’activités sont aussi concernés : la banque et l’assurance pour la détection de fraude ou bien le transfert d’expertise, l’industrie automobile pour l’anticipation de panne et la surveillance du comportement du conducteur au service des compagnies d’assurance, l’e-commerce pour la personnalisation des offres et les recommandations de produits, la santé pour l’analyse du profil des patients d’une pathologie donnée, l’anticipation sur les risques encourus mais aussi la prévention, etc. Les cas d’usage se multiplient en la matière et laissent présager de grands bouleversements tous azimuts.

Commentaires

Publier un nouveau commentaire