say hello !
un projet ? des infos ? un devis ?
Tapez votre message

on est partout.

Marseille - Siège social
Scala Marseille

11 avenue André Roussin
Immeuble Grand Ecran

13 016 Marseille
+33 (0)4 91 46 84 60
Paris
Scala Paris

8 Rue Euler

75 008 Paris
+33 (0)1 56 68 77 80
Sophia-Antipolis
Scala Sophia Antipolis

ADEME
500, route des lucioles

06 560 Sophia-Antipolis
+33 (0)4 91 46 84 60
Tarascon
Scala Tarascon

18 bis rue Edouard Millaud

13 150 Tarascon
+33 (0)4 91 46 84 60
Tunis
Scala Tunis

Rue du Lac Biwa, Immeuble Fraj
3ème étage, Lac 1,
Les Berges du Lac

1053 Tunis
+216 71 357 451
Et même Londres, Bruxelles, NY, Montréal et Casablanca.Voir carte.

on recrute !

Venez voir toutes nos offres ici.

contact
le blog
Retour

Microsoft Experiences’16 : retour vers la Data Culture

L'exploitation des donnéesLes évènements 12/10/2016 Joël Crest

Les 4 et 5 septembre 2016 avaient lieu l’évènement Microsoft Experiences, nouvelle mouture des fameux TechDays, évènement auquel j’ai eu la chance d’assister avec une partie des équipes de SCALA. Les deux journées étaient respectivement consacrées aux aspects business et technique. Pour notre part, c’est pour la journée technique que nous sommes montés à Paris.

A peine arrivés, nous fonçons vers le Palais des Congrès où a lieu l’évènement.

Accompagnés de quelques milliers de professionnels réunis là pour l’occasion, nous nous sommes engouffrés dans un immense auditorium pour assister à la plénière présentée par Nicolas Gaume, Directeur Général de la division Developer eXperience de Microsoft France. Celui-ci nous a confirmé que Microsoft était totalement engagé sur le chemin de transformation numérique des entreprises, et cela, à travers une plateforme ouverte (l’OpenSource, grande révolution chez Microsoft !). Pendant près de 2 heures vont se succéder sur scène les équipes d’Accord Hôtel, Orange Business Service et le très attendu Scott Guthrie, patron du Cloud Microsoft. Quelques temps forts :

    • Isabelle Daviaud, Marc Champsaur et Richard Dubost (AccorHotels) ont présenté le programme Employee Friendly qui adresse en priorité les Deskless Workers, employés ne disposant ni d’ordinateur, ni d’adresse e-mail (ce qui représente 80% du personnel d’Accor Hotel (200 000 employés).
      C’est pour répondre aux trois besoins fondamentaux des équipes (communiquer aisément, faciliter le quotidien au travail, garantir l’appartenance à une communauté plus large) que Microsoft a mis au point l’application StaffHub (nouveau service d’Office 365), accessible via smartphones non contrôlés par l’IT (suivant ainsi la tendance BYOD : Bring Your Own Device).

 

    • Les équipes Orange Business Service ont ensuite présenté le projet Salsa, projet stratégique destiné aux 1500 commerciaux de la société, population essentiellement mobile et agile. Le besoin était de proposer une poste de travail mobile et sécurisé. Les besoins exprimés ont conduit Orange Business Service à se baser sur le socle Windows 10 et ses nouveautés (Windows Anniversary Update).
      Windows Hello, service d’authentification de Windows 10 peut déverrouiller à distance le pc sur la base de la sécurité de son propre smartphone. L’accès aux applications métiers de l’entreprise est simplifié par sa centralisation sur un onglet dans le Windows Store. Les données professionnelles sont sécurisées via la technologie Windows Information Protection / WIP (impossible, par exemple, de copier/coller des données professionnelles sur une application d’emailing non contrôlée par l’IT). Enfin, Orange Application for Business a également adopté Xamarin (intégré à Visual Studio) qui permet désormais de développer des applications multi-devices en une seule passe.

 

  • Enfin, Scott Guthrie, identifiable à son éternel polo rouge, nous a embarqué pour un voyage vers le Cloud. En introduction à plusieurs démonstrations tournant autour du monitoring de la sécurité dans Azure, le Cloud Boss de Microsoft a annoncé l’ouverture de Data Centers Azure en France. L’annonce avait déjà fait grand bruit dans la communauté Cloud deux jours auparavant. En exclusivité, Scott Guthrie a dévoilé les situations géographiques de ces centres : Paris et le Sud de la France ! (parlait-il de Marseille ? Nous l’espérons !).

Le Cloud vous intéresse ? Envoyez-nous un message et nous étudierons ensemble toutes les possibilités pour votre organisation

De cette introduction aux journées techniques, nous retiendrons essentiellement un point : Azure, encore et toujours Azure. Le portail cloud de Microsoft est la colonne vertébrale sur laquelle repose la stratégie de conquête de marché de la firme de Redmond. Répété comme un mantra tout au long de cette plénière, ce postulat sera confirmé dans une majorité des sessions auxquelles nous avons assisté.

L’internet des objets se construit maintenant

A peine le temps de souffler et nous rejoignons Alex Danvy, évangeliste technique dans le domaine de l’IoT chez Microsoft.

Après une introduction illustrée au travers des films abordant le thème de l’intelligence des machines et des objets (ma fibre cinéphile fût comblée par l’apparition à l’écran des images de Robbie, le robot de Planète Interdite, Star Wars, Terminator ou encore Her), Alex Danvy a donné la parole aux équipes des sociétés OTIO, Actility et Energisme pour des démonstrations où les incontournables services Azure se taillaient la part du lion.

Il faut savoir que l’Internet of Things représente en 2016 22,9 Milliards d’objets connectés et qu’il attendra 50 Milliards d’objets connectés en 2020. Le monde de l’IoT se décline selon trois axes :

  • Les objets : la société OTIO, spécialisée dans les solutions domotiques, nous présente une architecture IoT fondée sur le pattern CQRS (Command Query Responsibility Segregation) adapté au déploiement sur une architecture distribuée.
  • Les réseaux : au tour de la société Actility de nous présenter la technologie LoRA, solution de communication en réseau des objets connectés, présentant l’avantage d’être très faible consommatrice d’énergie avec une couverture à l’intérieur comme à l’extérieur des bâtiments.
  • La donnée : la société Energisme, spécialisée dans l’optimisation des dépenses énergétiques, analyse et exploite les données d’énergie au travers de l’environnement Azure Machine Learning Studio.

Et puisque cette session était filmée par une caméra 360° depuis la scène, je vous laisse assister à l’exposé d’Alex Danvy en choisissant vous-même l’angle de caméra en temps réel !

Business Intelligence

Une demi-baguette jambon-beurre plus tard (oui, les sessions s’enchaînaient à un rythme assez soutenu), nous rejoignons la session Business Intelligence regroupant plusieurs experts dans des domaines distincts de la B.I.
Cette session marathon a été l’occasion de faire un tour d’horizon, bien trop rapide à mon goût, des aspects de la B.I. aujourd’hui :

  • Isabelle Van Campenhoudt nous a présenté le tout nouveau portail SSRS 2016, évolution majeure de Reporting Services : intégration de rapports mobiles créés via SQL Server Mobile Report Publisher (ex Datazen Publisher), KPI accessibles via le portail web, personnalisation de la bannière du portail, sauvegarde sous Powerpoint de rapports interactifs, accès aux fichiers PBIX de définition des rapports Power BI.
    Sur ce dernier point, Franck Mercier a laissé planer un espoir de voir dans les prochains mois le partage des rapports Power BI on-premise totalement intégré au portail Reporting Services. Tous les consultants Business Intelligence attendent ceci avec une grande impatience !
  • Franck Mercier a ensuite présenté les multiples facettes de Power BI : un service SaaS mais aussi un outil de création de rapports (Power BI Desktop) et des applications mobiles. Power BI dispose de trois modes d’encapsulation dans une application ou une page web :
    • Le mode Publish to Web permet de disposer d’une url publique. Dans ce cas, les données présentées deviennent, elles aussi, publiques.
    • L’API REST Power BI permet une intégration dans vos applications métiers (l’authentification est basée sur Office 365)
    • Le service Azure Power BI Embedded permet une intégration dans vos propres produits. L’authentification peut alors être transparente et n’est plus associée à Office 365 mais bel et bien intégrée à Azure.
  • Toujours sur le sujet de Power BI, Bertrand David-Renotte a détaillé les possibilités techniques de Power Query, l’outil d’alimentation de données intégré au Power BI Desktop. Il a en particulier détaillé le Query Folding (technique qui permet de déporter sur la donnée source une partie des transformations) et les possibilités de logs, les fichiers de trace pouvant être, à leur tour, analysés via … un tableau de bord Power BI ! Le reporting se fait sur le log. La boucle est bouclée.
  • Enfin, Jean-Pierre Rhiel et Charles-Henri Sauget ont présenté les possibilités prédictives de Power BI à travers l’intégration du langage R. Le langage préféré des Data Scientists a fait l’objet d’une démonstration durant laquelle nous avons pu découvrir qu’il est maintenant possible d’appliquer un script R en tant qu’étape dans Power Query. Un composant R est également disponible dans la barre d’outils de visualisation du Power BI Desktop et permet de doter Power BI d’une solution native de forecasting (le composant est uniquement disponible en preview, pour l’instant).

Vous voulez découvrir Power BI ?
Prenez RDV avec un de nos consultants pour une démonstration !

Machine learning : état de l’art et mise en œuvre

La session Machine Learning fût sans doute la plus pointue et la plus scientifique des sessions de cette journée. La plus populaire aussi puisque amphithéâtre dans lequel elle se déroulait fût rapidement complet.

Cette session comme la suivante fût l’occasion de retourner à mes premières amours que sont  la recherche en Intelligence Articielle et les mécanismes d’apprentissage : du Machine Learning avant l’heure ! La présentation était assurée par Benjamin Guinebertière, Olivier Grisel, Frédéric Vautrain et Katja Hofman.

En partant de la définition du Machine Learning, les orateurs introduisent la notion de Réseaux de neurones et de Deep Learning ou Apprentissage par renforcement.

Le concept nous est présenté à travers l’exemple d’une base de transactions immobilières. Chaque bien mis en vente est caractérisé par un ensemble de descripteurs (numériques, catégoriels ou booléens). Ainsi, on connait pour le type de bien et la surface correspondante le prix de vente associé. On utilise donc ce qu’on a vu dans le passé pour anticiper le futur (quel sera le prix de vente cible d’un bien dont on connait le type et la surface ?). On déduit donc d’une base de données historique (plus l’échantillon sera représentatif, meilleure sera la prédiction) et d’une variable cible un modèle prédictif, algorithme qui pourra être appliqué dans le futur.

La modélisation prédictive est donc la capacité à extraire une structure de données répétitives. Le modèle obtenu est un programme exécutable, utile pour un nombre important de petites décisions.
Le Deep Learning va consister à faire des prédictions de représentations intermédiaires du signal d’entrée. On déduit donc une structure d’un signal d’entrée de bas niveau. On est passé en quelques années d’un modèle (avant 2012) où l’ajustement des paramètres s’appliquait sur la dernière étape du processus (mais ne concernait pas l’extraction de la structure initiale) à un modèle d’apprentissage par renforcement où l’ajustement des paramètres peut être propagé à chacune des étapes intermédiaires du processus d’apprentissage.

Enfin un peu d’intelligence artificielle !

Les réseaux neuronaux profonds et l'apprentissage par renforcement

Décidément, les sessions parlant d’Intelligence Artificielle et de Machine Learning sont très populaires puisque, pour la seconde fois, nous arrivons juste à temps pour assister à une session se déroulant à guichet fermé. Plus de monde que de places assises pour la seconde intervention de Katja Hoffmann.

Katja Hofman illustre le principe d’apprentissage par renforcement à travers ses recherches concernant l’application de l’Intelligence Artificielle et du Deep Learning à l’univers de Minecraft. Exemple surprenant (et passionnant !) que Katja développera également dans la session consacrée à l’Intelligence Artificielle.

Mon collègue Christophe Relliaud en parle mieux que moi. Je vous laisse découvrir son article sr Minecraft et l’utilisation de l’IA dans l’apprentissage sur le blog de la Transformation Numérique.

Outillage BI & data culture : apportez de la valeur aux métiers de l’audit

Tout au long de ce talk, J-P. Rhiel et J. Mootoosamy illustrent la démarche qu’ils adoptent afin d’auditer, de déployer et de mettre en œuvre les solutions Business Intelligence (Power BI, en l’occurrence, pour le pure player Microsoft AZEO) en entreprise.
Suivant une démarche basée sur l’identification des populations d’utiisateurs en entreprise (la distinction des deux niveaux d’utilisation – modélisation de processus d’une part, consommation et visualisation d’autre part – est fondamentale pour appréhender le besoin du client final), les deux speakers déroulent leur processus d’audit en quatre étapes :

  • Data Culture : il faut favoriser l’adoption en identifiant les Data Champions, c’est-à-dire les personnes à même de prendre en main l’outil d’analyse de données et maîtrisant les processus métiers, puis en organisant des workshops en fonction des différents profils d’utilisateur final.
  • Valeur Ajoutée : améliorer l’offre d’analyse, notamment au travers de la stratégie Quick Wins (j’y reviens un peu plus loin).
  • Gouvernance : avoir confiance dans la data. Pour cela, il faut garantir la qualité des données, ainsi que la sécurité et la conformité.
  • Pilotage : maîtriser l’activité B.I. en tenant compte des contraintes budgétaires, des retours d’expérience et en ne négligeant surtout pas le retour sur investissement.

Parmi les facteurs clefs de succès d’une démarche d’audit présentés par les deux orateurs (Gouvernance, Sponsorship, Change management), le quatrième facteur a particulièrement retenu mon attention : la stratégie Quick Wins. Une stratégie résumée en deux mots par Jean-Pierre Riehl : « Fail Fast ». Si on rate, mieux vaut s’en apercevoir rapidement. Jordan Mootoosamy a également exprimé ce concept à sa manière : mieux vaut obtenir de nombreux petits succès que connaître un gros échec.

Très peu technique mais fortement axé méthode d’audit et de consulting, ce talk fut une des plus enrichissante session de cette journée placée sous le signe de la data et de la Business Intelligence.

Les nouveaux scénarios de la data et leur mise en œuvre

Et pour clore cette intense journée en beauté, nous nous retrouvons dans l’amphithéâtre Bleu face à Nadia Ben El Kadi, Technology Specialist SQL Server (entre autres) et Franck Mercier, membre de la division Developer eXperience et évangéliste Data chez Microsoft, pour nous présenter les nouveautés de SQL Server 2016.

Après avoir situé les différentes briques applicatives de la plateforme de données de Microsoft, Nadia et Franck nous ont démontré la puissance de la toute nouvelle version de SQL Server, classée n°1 par le Gartner dans la partie SGBD relationnel et leader dans la partie B.I. & Analytics.

Du point de vue plateforme relationnelle :

  • SQL Server (on-premise) intègre les nouveautés suivantes :
    • In-memory : l’analyse temps réel sur de la données OLTP est désormais possible.
    • Query Data Store : les plans d’exécutions sont historisés, ce qui permet de détecter les requêtes qui auraient régressées en terme de performances.
    • Always encrypted : on peut désormais crypter de bout en bout les données sensibles et stocker les clés d’encryptage ailleurs que sur le serveur.
    • Row-Level-Security : la sécurité se fait à la ligne. La mécanique de filtrage se fait au niveau de la base de données.
    • Temporal Tables : l’historisation des données stockées est directement intégrée à SQL Server. Il n’est plus nécessaire de gérer les règles d’historisation au niveau du processus d’alimentation de données.
    • Stretch Database : il s’agit d’une technologie d’archivage automatique des données (à cheval sur le on-premise et le cloud, donc). Les données à archiver seront déplacées sur un autre système (extension de la table principale dans une table Azure) et peuvent être requêtées à la demande.
  • Font également partie de cette plateforme les services Azure DB et Azure DW (cloud)

Du point de vue de la plateforme NoSQL, on trouve les services suivants :

  • Analytics Platform System (on-premise)
  • Azure Data Lake, Document DB et HD Insight (NoSQL / Cloud)

Du point de vue de la plateforme Data Insights (au croisement des deux autres plateformes de données), on retrouve les thèmes suivants :

  • Business Intelligence
  • Machine Learning Analytics
    • Polybase est le moteur permettant de requêter à la fois des données transactionnelles et non transactionnelles.
    • La B.I. mobile est gérée par l’intégration de la solution Datazen dans Reporting Services.
    • L’intégration du langage R permet de faire de l’analyse prédictive au niveau de la transaction.

En conclusion

On l’a vu tout au long de cette journée, la donnée est au cœur de la transformation digitale. Comme vous le savez déjà, Chez SCALA, nous en sommes convaincus.
N’hésitez pas à nous contacter afin que nous puissions vous convaincre également.
En attendant, je vous invite à voir (ou revoir si vous étiez parmi nous) la plénière ainsi que la session Les nouveaux scénarios de la data et leur mise en œuvre sur la chaîne Youtube de Microsoft.

Et je vous laisse en compagnie du charmant petit robot, croisé sur le stand de la société Avanade…

Joël Crest
Écrit par ,
Consultant décisionnel
Ça vous a plu ? Faites tourner !

À lire aussi