L’intelligence artificielle : notre meilleur espoir pour gagner la bataille de la cybersécurité

Commençons par les mauvaises nouvelles : le consensus des experts est que nous perdons la bataille contre les cybercriminels. La croissance de la surface d’attaque dépasse la capacité des organisations de colmater les brèches potentielles, et les criminels n’ont qu’à pénétrer le réseau une seule fois pour infliger de sérieux dégâts.

Maintenant, les bonnes nouvelles : l’aide est peut-être à portée de main. L’apprentissage machine offre une occasion inédite de renverser la vapeur contre les attaquants et – à défaut d’empêcher les intrusions – au moins, limiter les dégâts qu’ils peuvent faire.

Le plus gros problème auquel est confrontée la communauté de sécurité aujourd’hui est le manque de personnel qualifié. La pénurie mondiale de professionnels de la cybersécurité devrait atteindre 3,5 millions de postes disponibles d’ici 2021. Cette crise survient au milieu d’une explosion de données qui voit les volumes d’information dans de nombreuses organisations doubler chaque année. Au fur et à mesure que les volumes de données augmentent, la tâche de surveillance pour détecter les menaces ou le vol augmente également. L’humain étant beaucoup moins évolutif que les machines, l’intelligence artificielle devient notre meilleur moyen de défense.

Les centres d’opérations de sécurité sont déjà submergés par les données, et le volume ne fera que s’accélérer, car l’Internet des objets contribue à cette croissance. Nous avons plusieurs façons de capturer et de stocker les informations, mais jusqu’à récemment, il y avait peu de moyens d’en tirer des connaissances, en particulier lorsque le volume augmente. Les organisations informatiques ont recours à plus d’outils – l’entreprise moyenne dispose désormais de 75 produits de sécurité différents –, mais une mauvaise intégration les empêche d’avoir une vision unifiée de tout ce qui se passe dans leur infrastructure.

La différence : l’apprentissage machine

Les algorithmes d’apprentissage machine excellent dans le traitement de grandes quantités de données. Les percées récentes dans la conception de serveur les ont rendus encore plus puissants. Les supercalculateurs alimentés par des unités de traitement graphique (GPU) de sociétés comme Nvidia permettent de paralléliser des algorithmes et de les appliquer à d’énormes bases de données. Alors que les GPU ne sont pas aussi flexibles que les CPU à usage général, elles sont extrêmement rapides et conçues pour fonctionner en parallèle pour atteindre une évolutivité quasi illimitée. Nvidia conçoit des technologies telles que NVLink Fabric pour rendre l’alimentation de type supercalculateur accessible au plus grand nombre.

Ces progrès surviennent au moment où la communauté de la sécurité se concentre davantage sur la détection et le confinement plutôt que sur la prévention. L’hypothèse est que la plupart des principaux systèmes ont déjà été victimes d’intrusion, donc le défi consiste à isoler les attaquants avant qu’ils ne puissent faire beaucoup de dégâts.

Cela nécessite une analyse de modèle sophistiquée appliquée à la consignation des données pour repérer les anomalies. Les administrateurs de sécurité établissent une base d’activité « normale » et les systèmes de détection d’intrusion parcourent les journaux de réseau et de bases de données pour identifier les modèles inhabituels qui pourraient indiquer une intrusion.

Le problème avec la détection d’intrusion conventionnelle est que les humains doivent définir ce qui est « normal », ce qui est extrêmement difficile à faire parce que le trafic est intrinsèquement imprévisible. Le résultat est un déluge de fausses alertes sur les administrateurs de sécurité. Par conséquent, de nombreuses alertes sont ignorées, ce qui va à l’encontre du but de la détection d’intrusion.

Les systèmes d’apprentissage machine commencent avec la même base de référence, mais s’améliorent en continuant à parcourir les données. Avec un peu d’aide des administrateurs de sécurité, ils apprennent à identifier les modèles qui caractérisent les comportements malveillants et éliminent les anomalies bénignes. Leur analyse s’améliore au fil du temps, entrainant beaucoup moins de fausses alertes et donnant aux administrateurs des cibles plus précises.

La détection d’intrusion intelligente n’est qu’une façon dont l’IA modifie l’équation de sécurité. Les systèmes cognitifs peuvent surveiller des sources externes comme des alertes de menaces et des blogues de sécurité pour trouver des informations utiles pour le personnel de sécurité et les alerter de nouvelles menaces. Les filtres intelligents peuvent analyser les messages courriel à la recherche de signes d’hameçonnage, de la même manière que l’apprentissage machine est déjà appliqué à la détection de pourriel.

Le jeu du chat et de la souris

Aussi prometteurs que soient ces développements, nous ne pouvons nous permettre de nous reposer sur nos lauriers. Les mauvais joueurs auront accès à la même technologie et pourront l’utiliser contre nous. Prenez l’exemple des systèmes de réponse vocale. L’an dernier, un groupe de chercheurs chinois a montré des moyens de tromper les assistants vocaux dans l’exécution de commandes malveillantes cachées dans le discours humain ordinaire et même dans la musique. La manipulation de l’image et du son peut être utilisée pour tromper les systèmes d’authentification biométriques. L’IA peut être appliquée aux algorithmes de devinette de mots de passe pour les rendre plus précis. Et la même technologie cognitive qui surveille les sources externes pour les alertes de menace peut également être utilisée pour recueillir des données pour le vol d’identité.

Le risque est que l’intelligence artificielle pourrait créer un jeu du chat et de la souris dans lequel les entreprises et les attaquants se battent dans une impasse en utilisant un nouvel ensemble d’outils.

Notre plus grand atout dans la lutte contre la cybercriminalité avec l’intelligence artificielle est la coopération. Les systèmes d’apprentissage machine peuvent faire des choses extraordinaires par eux-mêmes, mais lorsqu’ils sont fédérés avec d’autres systèmes, ils tirent parti de leurs connaissances collectives à un point que les criminels trouveront difficile à égaler. Le Qradar Advisor with Watson d’IBM n’est qu’un exemple de la manière dont la collaboration est intégrée dans les produits de sécurité. Vous pouvez vous attendre à voir beaucoup plus d’activité dans ce domaine alors que l’immense potentiel de l’apprentissage machine se concrétise.

L’IoT plante les graines de la transformation numérique pour les services publics

L’Internet des objets est à la fois une bénédiction et une malédiction pour les entreprises de services publics. La malédiction vient du fait que les appareils intelligents donnent aux clients un contrôle accru sur leurs propres besoins de production et de distribution d’énergie. La bénédiction est la chance pour les services publics d’améliorer nettement l’efficacité, de réduire les coûts et d’étendre leurs activités dans de nouvelles directions. Les gagnants choisiront de voir ce changement comme une opportunité.

L’IoT prend forme à mesure que les services publics se retrouvent à la croisée des chemins. Leur industrie est hautement réglementée, et la plupart des fournisseurs détiennent des monopoles ou des semi-monopoles sur leurs zones de service. Mais la technologie de l’énergie alternative érode leur contrôle du marché. Le marché de l’énergie solaire devrait atteindre 422 milliards de dollars d’ici 2022, en croissance de près de 25% annuellement. En Europe, des complexes immobiliers entiers ont quitté le réseau public car ils répondent à leurs propres besoins énergétiques grâce à une combinaison de sources d’énergie solaire, éolienne, géothermique et autres. Cetaines communautés résidentielles commencent à mettre en place des échanges d’énergie pour acheter et vendre l’énergie que les propriétaires individuels génèrent, supprimant complètement le service public.

Dans la plupart des industries, ces tendances seraient inquiétantes, mais les services publics ne sont pas comme les autres secteurs. La plupart sont dans la position inhabituelle de vouloir réellement que les clients utilisent moins de leurs produits, et IoT pourrait être leur meilleur allié pour atteindre cet objectif.

La raison en est que les services publics veulent éviter les investissements énormes et les procédures réglementaires qui sont impliqués dans la construction de nouvelles centrales. Encourager les clients à réduire leur consommation d’énergie leur coûte moins cher en capital. C’est pourquoi les sociétés gazières et électriques canadiennes et américaines ont investi 8,8 milliards de dollars en 2017 pour aider les clients à devenir plus efficaces.

Les appareils connectés pourraient contribuer à des réductions importantes de la consommation. Certains services publics utilisent déjà des thermostats télécommandés pour ajuster les températures dans les maisons et les entreprises de leurs clients afin de réduire la pression sur le réseau électrique et profiter des périodes de faible utilisation, économisant ainsi les coûts des deux côtés. À mesure que de nouveaux appareils deviennent instrumentés, ces opportunités vont croitre.

Par exemple, les capteurs allumeront et éteindront les lumières ou ajusteront les températures aux réglages optimaux en fonction du nombre de personnes présentes dans une pièce. L’apprentissage machine rendra ces ajustements de plus en plus précis au fil du temps. Les appareils tels que les imprimantes et les moniteurs peuvent être mis hors tension lorsqu’ils sont inutilisés, ou la température du réfrigérateur réduite en fonction du contenu. La gestion de la consommation d’énergie peut même être un nouveau service lucratif que les services publics peuvent vendre à des clients qui ne veulent pas gérer eux-mêmes leur flotte d’appareils intelligents.

De la place pour l’épargne

Il y a beaucoup d’efficacité à retirer du système. L’Agence internationale de l’énergie estime que le Canada pourrait réduire ses coûts énergétiques d’environ 2% par année grâce à des investissements dans l’efficacité, réduisant ainsi la demande globale d’environ un tiers d’ici 2050.

Les appareils intelligents peuvent également être les meilleurs alliés des services publics pour rendre leurs propres opérations plus efficaces. Les capteurs installés dans les centrales de production et de stockage d’énergie peuvent équilibrer les charges des équipements pour une efficacité maximale avec une usure minimale. Les analyses prédictives permettent de trier les historiques de maintenance afin d’aider les propriétaires à résoudre les problèmes avant qu’ils ne se produisent et à éviter d’envoyer les travailleurs dans des environnements éloignés et souvent dangeureux pour les réparations d’urgence. McKinsey s’attend à ce que cette forme de technologie d’apprentissage machine aide les entreprises à économiser 630 milliards de dollars par année d’ici 2025.

Sur le terrain, les drones émergent comme une ressource précieuse pour les services publics pour inspecter les équipements situés au-dessus de la cime des arbres ou à des kilomètres de la route la plus proche. Ce scénario IoT apparait comme un choix naturel pour les entreprises de services publics, dont les actifs sont souvent situés loin des zones habitées par leur conception. Les premiers utilisateurs rapportent des économies de coûts spectaculaires et une meilleure qualité d’inspection, car les drones peuvent atteindre des endroits inaccessibles aux  humains.

Ces scénarios sont le fruit de l’IoT pour les services publics. De nouveaux modèles d’affaires créatifs vont aussi émerger. Par exemple, les services publics pourraient gérer les « microréseaux » communautaires décrits précédemment afin d’optimiser la production d’électricité et d’éviter aux clients les inconvénients de la tenue de livres et de la facturation. Ils peuvent fournir des services à la population croissante de véhicules électriques. Il y aura églaement de nouvelles façons de tirer parti de l’énorme quantité de données que les services publics pourront collecter à partir des appareils connectés pour mieux comprendre les habitudes d’utilisation des consommateurs et recommander les produits en conséquence.

Les services publics qui prospéreront dans ce nouvel environnement seront ceux qui appliquent le mieux la créativité et l’innovation à leurs entreprises. Ce secteur hautement réglementé n’est pas traditionnellement un terrain fertile pour l’innovation, mais l’environnement changeant récompensera les entreprises qui font le meilleur travail de sortir des sentiers battus… ou du réseau.

Comment l’IoT bouleverse les règles de l’assurance

Understory n’est qu’un exemple de la façon donc le Big Data et l’Internet des objets (IoT) vont révolutionner l’assurance. Cette société d’analytique météorologique utilise un réseau de capteurs au sol pour détecter les conditions météo sous les nuages que les satellites ne peuvent pas voir. Les données collectées de ces appareils locaux complètent les observations satellitaires et radar pour identifier l’impact des événements météorologiques avec une précision sans précédent. Par exemple, lors d’une tempête de grêle, les capteurs d’Understory peuvent identifier les zones touchées par les plus gros grêlons, qui présentent le plus grand potentiel de dommages. Avec cette information, les assureurs peuvent envoyer leurs experts dans les secteurs qui requièrent l’attention la plus immédiate et nécessitent des réparations rapides pour éviter d’autres dommages. Les économies réalisées grâce à l’efficacité et à la prévention des fraudes sont en moyenne de 15% à 30% par tempête.

Peu d’industries sont susceptibles d’être plus transformées par la technologie que l’assurance. Le fondement de l’industrie de l’assurance est la mesure du risque, mais jusqu’à récemment, cela a été largement fait à partir de grandes quantités de données synthétisées pour extraire des tendances générales et appliquées à de grands groupes d’assurés.

Tout ceci est sur le point de changer. L’assurance sera de plus en plus orientée vers des marchés où les primes et les prestations seront calculées en fonction des comportements observés plutôt que des formules probabilistes. Les appareils intelligents et l’analyse prédictive vont conduire cette transformation.

Pensez à Progressive Snapshot, un système de surveillance des conducteurs introduit par Progressive Insurance en 2011. Les clients qui consentent à participer au programme ont un petit dispositif de suivi installé dans le moteur de leurs véhicules qui surveille des variables comme la vitesse, l’accélération et la pression de freinage. Les conducteurs qui respectent le code de la route sont récompensés par des rabais. En contrepartie, Progressive attire plus de clients soucieux de la sécurité. La compagnie a distribué plus de 600 millions de dollars de rabais, et a engendré de nombreux imitateurs.

Imaginez comment cette même idée pourrait s’appliquer à d’autres scénarios. Par exemple, des pisteurs connectés de conditionnement physique peuvent fournir aux compagnies d’assurance des données en temps réel sur les habitudes d’exercice de leurs assurés, leur permettant de personnaliser les polices selon certains modes de vie. UnitedHealthcare offre aux participants dans certains de ses programmes de bien-être parrainés par les employeurs jusqu’à 1 500 $ d’économies annuelles pour permettre à l’entreprise de jeter un coup d’œil à leur activité mesurée par un Fitbit. À l’avenir, les balances connectées et les tensiomètres pourront récompenser les assurés pour le contrôle de leur poids.

La prochaine frontière pourrait être des capteurs à avaler. La Food and Drug Administration aux ÉU a récemment approuvé un dispositif de suivi ingérable qui surveille la conformité des patients à leur régime de médicaments. Bien qu’aucun assureur ne surveille encore les clients à ce point, il semble que ce ne soit qu’une question de temps avant que quelqu’un ne franchisse le pas.

L’IoT permettra également de découvrir de nouvelles innovations dans l’assurance de biens. Les capteurs intelligents peuvent déjà signaler la présence de fumée, de chaleur et de monoxyde de carbone. Les assureurs qui exploitent ces flux d’informations peuvent appliquer des analyses prédictives pour rechercher les signes d’un risque d’incendie. Ils peuvent faire la même chose pour la machinerie dispendieuse assurée, en accordant des rabais de prime aux entreprises qui leur permettent d’exploiter les données de capteurs générées par les machines. Par exemple, des capteurs intégrés aux pneus des camions pourraient avertir d’une chute de pression ou d’une usure extrême de la bande de roulement, ce qui permettrait à l’assureur d’aviser immédiatement le conducteur de prendre des mesures préventives.

Réaliser la promesse de ces technologies présente d’importants défis techniques, à commencer par la construction d’une infrastructure pour surveiller une quantité de données beaucoup plus importante que ce que les assureurs gèrent aujourd’hui. L’Internet des objets a donné naissance à de nouveaux types d’architectures de réseau – ce que Cisco appelle le « brouillard informatique » (fog computing) – pour répondre à ce besoin en traitant les données à différents points du réseau afin que le cloud ne devienne pas un point d’étranglement. Les compagnies d’assurance qui s’intéressent au potentiel des appareils connectés devraient déjà planifier des changements architecturaux pour s’adapter à la prochaine inondation de données.

Il faut également considérer les problèmes de confidentialité. La collecte de données sur les assurés à un niveau aussi personnel va imposer de nouvelles exigences aux opérations de sécurité pour protéger les données en transit et au repos. Il y aura également des problèmes juridiques et réglementaires à résoudre que nous pouvons à peine imaginer à ce stade.

Mais choisir de ne pas participer à la révolution de l’IoT n’est peut-être pas une option. La technologie est déjà en train de réécrire les règles de l’assurance, et les compagnies qui ne veulent pas y adhérer risquent d’être rapidement laissées pour compte.

L’Internet des rails

C’est le cauchemar de l’exploitant de chemin de fer : un train d’une centaine de wagons immobilisé dans la nature sauvage canadienne, à des centaines de kilomètres du dépôt de réparation le plus proche, à cause d’un piston éclaté ou d’un essieu brisé. Les pannes de ce type ont toujours été traitées en envoyant des personnes et de l’équipement à partir des zones de service les plus proches, un processus long et onéreux. Plus le retard est long, plus le risque de détérioration, les connexions manquées et la perte de productivité sont importants pour les personnes et le matériel roulant.

Ces risques font partie intégrante de l’industrie ferroviaire, qui opère dans des conditions exceptionnellement difficiles. Les trains de marchandises traversent des zones peu peuplées à toute heure et dans toutes sortes de conditions météorologiques. Un essieu surchauffé ou un raccordement brisé sur une voiture peut interrompre toute la ligne. Parce que le coût d’une panne est si élevé, les trains doivent transporter des pièces de rechange et des ingénieurs pour effectuer les réparations en cours de route. Le diagnostic et la réparation par une froide nuit d’hiver prennent du temps et sont dangereux.

Mais grâce à l’Internet des objets (IoT) et à l’analytique des mégadonnées (Big Data), ces problèmes deviendront bientôt l’exception. Qui plus est, les opérateurs ferroviaires peuvent améliorer considérablement leur efficacité opérationnelle grâce à une meilleure compréhension et optimisation de la performance de leurs équipements sur le terrain.

L’IoT tire parti d’un réseau d’appareils connectés intelligents pour surveiller en permanence les performances des composants critiques au cours de leur voyage. Les capteurs suivent des facteurs tels que la température, les vibrations, la pression, les niveaux de fluides, le rendement énergétique et les émissions, envoyant un flux constant de mises à jour à un ordinateur de bord exécutant des algorithmes analytiques.

L’ordinateur local peut rechercher des conditions anormales – comme une chute soudaine de la pression d’huile – et alerter les opérateurs locaux d’une panne imminente afin qu’ils puissent arrêter le train en toute sécurité. Cependant, l’impact le plus spectaculaire de la combinaison de données IoT et Big Data est la possibilité d’effectuer une maintenance prédictive. Ce processus analytique identifie l’équipement qui risque d’échouer à temps pour le réparer pendant que le train est dans la cour de réparation.

La maintenance prédictive combine des données historiques avec des flux de données ou des informations récemment enregistrées et applique des algorithmes analytiques pour déterminer les futurs besoins de maintenance. Le processus est complexe parce que tous les équipements ne s’usent pas au même rythme, mais il y a des gains importants. Par exemple, la maintenance prédictive permet aux propriétaires d’équipements de personnaliser les calendriers de maintenance en fonction de leur état, plutôt que de tout gérer selon le même calendrier. Ce fait à lui seul peut permettre de réaliser d’importantes économies en évitant les coûts et en utilisant inutilement les pièces de rechange.

IoT apporte également de nouvelles économies potentielles dans la maintenance des voies. Le processus de surveillance des conditions des voies a toujours été un processus manuel, mais les drones autonomes assumeront bientôt une grande partie de ce fardeau. Ces appareils volants à bas prix peuvent constamment regarder depuis les airs pour détecter les dangers tels que les arbres tombés, les éboulements et les inondations. Ils peuvent aussi effectuer des inspections rapprochées impossibles à faire avec des avions conventionnels. Les drones attachés peuvent même être actionnés à partir de locomotives, volant plusieurs kilomètres à l’avance pour s’assurer que le chemin est libre.

Ces technologies ne sont pas de la science fiction; General Electric, un chef de file dans l’Internet industriel des objets, commercialise un système d’analyse en circuit fermé que les opérateurs ferroviaires peuvent utiliser pour optimiser l’efficacité, surveiller, suivre les conditions et tester les temps de réponse des conducteurs. Le Trip Optimizer de la société peut réaliser des économies de carburant allant jusqu’à 17%, tout en améliorant la sécurité et en réduisant les coûts de maintenance.

Cisco Connected Rail est un cadre architectural de bout en bout qui permet aux opérateurs ferroviaires de tout surveiller, des conditions à bord à l’éclairage et aux températures dans les salles d’attente des gares. Il offre également des fonctionnalités conviviales comme le sans fil à bord, le divertissement à la demande et des services d’information à jour.

Les services IoT pour les chemins de fer s’appuient sur les dernières avancées en matière de traitement analytique distribué. Parce que l’envoi de flux de données volumineux vers une installation centrale ou un cloud est onéreux – voire impossible dans certaines conditions – une grande partie du traitement des flux est déléguée à des périphériques embarqués locaux disposant de suffisamment d’informations pour identifier et réagir aux situations urgentes. Les données en continu peuvent être saisies de façon sélective ou intégrale et téléchargées sur des serveurs d’analyse puissants lorsque le train arrive à destination. Les opérateurs ferroviaires peuvent ainsi effectuer des analyses historiques détaillées pour améliorer leurs capacités d’analyse prédictive.

L’Internet des objets donnera aux opérateurs ferroviaires une visibilité sans précédent sur leur matériel roulant, quel que soit l’endroit où il se trouve. Les gains d’efficience et les économies de coûts qu’il permet rendront le transport ferroviaire plus sûr, plus rapide et plus concurrentiel avec une variété croissante d’options.

Êtes-vous prêts pour votre transformation vers le DevOps?

« Des livraisons plus rapides, plus fréquentes et plus fiables ». Telles sont les promesses du DevOps; mais votre organisation est-elle prête à effectuer les changements nécessaires pour y parvenir?

Voici quelques exemples de changements que votre organisation devra adopter afin de tirer le maximum de votre initiative DevOps.

Architecture

Vos applications sont-elles suffisamment découplées et autonomes afin d’évoluer facilement? Les applications monolithiques sont difficiles à modifier, à tester et à déployer. C’est pour cette raison que les microservices représentent une architecture de choix pour le DevOps. Sans nécessairement procéder à la réingénierie complète de vos applications existantes en microservices, il serait intéressant de commencer dès maintenant à les briser en plus petits segments afin d’en faciliter le cycle de vie (évolution et exploitation).

Vos applications sont-elles compatibles avec l’infonuagique? La volatilité des serveurs dans un PaaS peut provoquer des pertes de données si ceux-ci conservent l’état des applications. Il faudra corriger vos applications afin d’éviter une journalisation locale, l’écriture des données dans des fichiers du système et des informations de la session des clients, etc. La méthodologie 12 Factor App peut servir d’excellent guide afin de vous assurer du bon fonctionnement de vos applications dans l’infonuagique.

Intégration continue

Il n’est pas suffisant d’avoir un orchestrateur d’intégration continue (par exemple Jenkins) afin de fusionner régulièrement les branches créées par les équipes de développement.

Les développeurs doivent s’assurer d’envoyer régulièrement leurs modifications locales vers le gestionnaire de source centralisé (« commit »). Idéalement, ils doivent effectuer un seul changement à la fois. Les changements apportés aux schémas de bases de données sont-ils intégrés au processus d’intégration continue? Est-ce que les développeurs attendent trop longtemps dans leurs branches avant de remettre au tronc principal? La couverture de tests unitaires est-elle suffisante?

Si vous répondez non à l’une ou plusieurs de ces questions, sachez que les différents mécanismes d’automatisation apportés par les outils DevOps n’apporteront que très peu de valeur. Il vous faudra donc corriger ces situations avant d’avancer dans votre transformation au risque de ne pas atteindre les objectifs visés, soit livrer plus rapidement, plus souvent et avec plus de fiabilité.

Automatisation des tests

L’automatisation des tests est probablement le talon d’Achille de la majorité des organisations. En effet, la croissance organique des systèmes existants ont fait que ces applications monolithiques comportent des milliers, voire des millions de lignes de code qui ont toujours été testées manuellement. Afin d’optimiser le DevOps, les organisations doivent impérativement réaliser des tests unitaires, intégrés, fonctionnels et non-fonctionnels (sécurité, charge, etc.) Cette tâche peut représenter un investissement important dont la valeur ajoutée ne se fera sentir qu’à moyen et à long terme. L’automatisation des tests est directement en lien avec les livraisons continues. Si les tests sont réalisés manuellement, c’est toute la chaine de livraison continue qui sera ralentie.

Gestion des bases de données

Vos migrations de bases de données sont-elles automatisées? Vos DBA possèdent-ils une parfaite maîtrise des scripts de migration et ceux-ci sont-ils gérés à l’aide de versions? Les procédures de retour en arrière sont-elles testées et fonctionnelles? Dans les automatismes proposés par le DevOps, les mises à jour des bases de données doivent suivre celles apportées par les applications afin d’atteindre les objectifs de livraison continue.

Analyse des besoins des clients

Si vous désirez opter pour une architecture en microservices, vous devrez vous assurer que vos analystes d’affaires maîtrisent la modélisation basée sur les capacités d’affaires. Pour y parvenir, des méthodes d’analyse telles que le « Domain-Driven-Design » facilitent cette modélisation. Vos analystes devront être aguerris avec ces techniques, autrement le découpage des microservices sera inadéquat (« high coupling »).

Structure des équipes de livraison (de la gestion de projet à la gestion de produit)

Vos équipes devront être partagées selon un modèle de gestion de produits et celles-ci seront responsables de toutes les étapes de la livraison (conception et exploitation). Un propriétaire du produit sera responsable d’établir la vision. Les organisations doivent donc envisager un financement non plus par projet mais par produit.

Culture

Une culture de valorisation des succès collectifs, de collaboration et de responsabilité commune est à la base des pratiques DevOps.

Il est essentiel d’aligner les motivations et les objectifs entre ces équipes afin d’établir la confiance et l’esprit de collaboration. Par exemple, des équipes alignées et collaborant activement au sein d’un seul projet et évaluées collectivement sur tous les aspects de son succès sont plus susceptibles d’être engagées à travailler efficacement ensemble, plutôt que d’être partagées. Bien que facile à acheter, l’outillage à lui seul ne procure pas les avantages d’une pratique DevOps. Les technologies doivent être utilisées dans le cadre d’une philosophie culturelle ancrée dans la collaboration et la responsabilité conjointe.

La création d’équipes pérennes responsables d’un ou de plusieurs produits facilite l’alignement de ces objectifs. Les équipes seront alors responsables de la conception et de l’exploitation de leurs applications selon le principe : « you build it, you run  it » (vous le construisez, vous l’exploitez).

Conclusion

Ce ne sont là que quelques exemples des points de vue technique, organisationnel et culturel auxquels les entreprises doivent s’attaquer tôt ou tard afin de faciliter leur transformation vers le DevOps.

Le véritable défi dans cette transformation est d’en accélérer son adoption avec un minimum de risque. Et c’est ici que notre expertise stratégique peut vous aider. En effet, notre équipe chevronnée peut vous accompagner dans toutes les étapes de cette transformation : à l’aide de notre grille d’évaluation de maturité DevOps, nous pouvons établir clairement les disciplines dans lesquelles votre organisation devra apporter plus d’attention pour ainsi concevoir un plan d’action réaliste. Nous pouvons aussi vous assister dans la conception de microservices, l’automatisation des tests, la construction des pipelines de livraison, la sélection de PaaS et IaaS ainsi que la surveillance et l’alertage de vos applications et infrastructures.

Pourquoi la transformation numérique est un atout pour votre entreprise

La transformation numérique a été une des expressions les plus discutées – on pourrait même dire surutilisées – en 2017, mais ce serait une erreur de rejeter le concept comme un autre mot à la mode. Les avantages potentiels de la transformation numérique sont très tangibles pour les organisations qui peuvent exploiter la multitude de nouvelles technologies pour redéfinir leurs propres processus et leurs relations clients.

La transformation numérique est facilitée par une combinaison de cinq grandes tendances technologiques.

Le Big Data et l’analytique permettent aux entreprises de mieux comprendre leur environnement d’affaires, leurs clients et leurs propres opérations en rendant de grands volumes de données compréhensibles et exploitables.

La mobilité offre une nouvelle façon de fournir les résultats de ces informations aux clients, employés et partenaires, où et quand ils en ont besoin.

Les médias sociaux simplifient la publication de l’information à l’échelle mondiale à faible coût et permettent de dialoguer avec les entreprises dans le cadre de conversations en temps réel.

L’Internet des objets (IoT) capture et transmet les données à partir d’appareils sans nécessiter d’intervention humaine. Des outils d’analytique peuvent être utilisés pour transformer ces données brutes en informations sur tout, depuis l’état de santé d’équipements d’usine jusqu’au développement de bouchons de circulation.

L’infonuagique qui est le tissu conjonctif de la transformation numérique. L’infrastructure infonuagique combine une extensibilité abordable et infinie avec un accès à des ressources informatiques de classe mondiale. Les applications infonuagiques et les services de données rendent les capacités et les informations qui était auparavant le domaine des plus grandes entreprises accessibles à tous sur une base d’abonnement à bas prix.

Plus forts ensemble

Chacune de ces innovations est révolutionnaire en soi, mais le pouvoir de la transformation numérique vient de leur combinaison. Prenez par exemple Waze, la très populaire application de navigation de Google. Elle utilise une combinaison de toutes ces technologies innovatrices pour amener les utilisateurs à leur destination plus rapidement, les avertir de retards ou d’obstructions et les connecter avec d’autres sur la route. Waze révolutionne la façon dont nous nous déplaçons, créant un nouveau modèle d’affaires par la même occasion.

La transformation numérique consiste à trouver des opportunités grâce à l’utilisation de données. Cela peut prendre la forme de nouveaux secteurs d’activités ou d’une meilleure efficacité opérationnelle. Dans plusieurs cas, les données ont toujours existé, mais l’infonuagique et la mobilité créent de nouvelles façons de les utiliser et de les diffuser.

Une des manières dont la transformation numérique crée de la valeur consiste à exposer des informations et des services utiles aux clients. Par exemple, les propriétaires de flottes de camions peuvent utiliser des capteurs IoT pour suivre les véhicules louées à leurs clients et appliquer l’analytique pour suggérer des itinéraires plus optimaux. Les banques peuvent facilement intégrer les services de tiers dans leurs applications web et mobiles pour offrir aux clients des fonctionnalités telles que le suivi des cartes de crédit ou le financement participatif. Les détaillants peuvent informer les clients des ventes de produits qu’ils ont déjà achetés dans le passé et distribuer des coupons numériques sur leurs appareils mobiles. Les entreprises peuvent facturer ces services ou les livrer comme une valeur ajoutée pour améliorer les relations avec les clients.

Une autre forme de transformation numérique est l’amélioration des performances internes. Par exemple, les vendeurs sur la route peuvent générer des rapports personnalisés et des contrats pour leurs clients sur place à partir d’un service infonuagique. Les capteurs d’un édifice peuvent ajuster automatiquement l’éclairage et la température en fonction de l’utilisation réelle. Les entreprises ayant de grandes opérations de service mobile peuvent mettre à jour et réacheminer dynamiquement les techniciens pendant qu’ils sont en déplacement.

Au fur et à mesure que l’infonuagique évolue et devient plus fluide, les entreprises mélangent les clouds publics, privés et hybrides pour mieux contrôler et gérer les informations qu’ils exposent et pour migrer de manière transparente les charges de travail entre les plateformes cloud. Les organisations les plus performantes adopteront les trois modèles infonuagiques pour rendre leurs opérations TI virtuelles et en mesure de suivre le soleil.

Personnaliser et moderniser

Voici quelques lignes directrices à garder à l’esprit en tête en cours d’adoption.

La transformation numérique n’est pas une stratégie technologique. Cela commence avec les gens et les processus. Pensez aux domaines de votre entreprise où le manque d’information inhibe votre prise de décision ou remet en question votre efficacité. Considérez comment de nouvelles sources de données pourraient être appliquées pour vous aider. Ces informations sont peut-être disponibles sur le cloud, les appareils IoT ou les applications mobiles. Elles sont peut-être même déjà entre vos murs, attendant d’être dévoilées par l’analytique.

Pensez aux avantages. Les meilleures opportunités de changement viennent souvent de l’autonomisation des clients ou des employés individuels. Quelles informations permettraient aux représentants de conclure des ventes plus rapidement? Quelles informations pourraient être fournies aux clients en libre-service? Comment les employés des centres d’appels pourraient-ils offrir un service plus personnalisé aux clients? Ce sont les domaines qui procurent le plus grand effet de levier.

Impliquez tout le monde. Le soutien de la direction est essentiel, mais les personnes les mieux outillées pour identifier les domaines à améliorer sont souvent celles qui sont en première ligne. Offrez des ateliers de transformation numérique et mettez en place des groupes de travail axés sur différentes opérations fonctionnelles et orientées client. Les employés apprécieront le processus d’idéation et se l’approprieront plus volontiers s’ils en font partie.

Modernisez l’infrastructure. Le développement agile basé sur les microservices, les conteneurs et DevOps révolutionne la façon dont les organisations construisent et déploient les applications. Les cycles de vie de développement se raccourcissent de quelques mois à quelques jours, et des cycles de version plus fréquents permettent la livraison continue de nouvelles innovations. La plupart des infrastructures existantes sont mal adaptées à ce paradigme hautement virtualisé et flexible. Les organisations doivent passer à une infrastructure définie par logiciel pour tirer pleinement parti des nouvelles plateformes qui sous-tendent la transformation numérique.

Une étude de KPMG sur 400 PDG a indiqué que « la technologie en évolution rapide et la rapidité de la transformation qui en résulte font que les trois prochaines années seront plus critiques pour leur industrie que les 50 années précédentes. » La transformation numérique doit être sur votre écran radar. Un partenaire expérimenté peut vous aider à trouver votre chemin.

Comment le Big Data change les règles du monde bancaire

La banque en ligne a été une offre gagnant-gagnant pour les institutions bancaires et leurs clients. Ces derniers bénéficient de la rapidité et de la commodité du libre-service, tandis que les banques font d’importantes économies sur les coûts de transaction. Mais pour plusieurs banques de consommateurs en particulier, le passage aux services en ligne a également signifié la perte de l’engagement critique des clients que les succursales ont longtemps fourni. Lorsque les services bancaires en ligne se ressemblent à peu près tous, les banques doivent trouver de nouvelles façons de se distinguer. En tirant parti de l’infonuagique et de l’analytique Big Data, les banques peuvent intégrer de nouvelles façons innovantes par les plateformes web et mobile.

Dans un rapport récent décrivant une nouvelle vision numérique pour les banques de consommateurs, Accenture présente des exemples de ce que certaines banques font déjà pour améliorer l’expérience en ligne et renforcir leurs liens avec leur clientèle.

Banco Bilbao Vizcaya Argentaria d’Espagne capture plus de 80 caractéristiques de transaction chaque fois que les clients utilisent leur carte de débit et utilise ces informations pour aider les consommateurs à gérer et à prévoir leurs dépenses courantes.

BNP Paribas Fortis de Belgique s’est associée au plus important fournisseur de télécommunications du pays pour créer une plateforme de commerce électronique mobile qui permet aux consommateurs de magasiner et payer les produits à partir de leurs téléphones intelligents. Ce service aide les consommateurs à trouver des commerces et permet aux entreprises locales d’être payées plus rapidement, ce qui est bon pour les activités commerciales de la banque.

La Commonwealth Bank d’Australie dispose d’une application mobile qui permet aux clients d’utiliser la réalité augmentée pour obtenir des informations détaillées sur les propriétés résidentielles qui les intéressent en pointant simplement la caméra de leur téléphone intelligent sur la maison en question. L’application indique également aux utilisateurs à combien s’éleverait exactement leurs paiements hypothécaires à la banque.

Cinq des plus grandes banques canadiennes se sont associées à Sensibill pour intégrer la fonctionnalité automatisée de gestion des reçus dans leurs applications bancaires numériques. Les clients peuvent utiliser le service pour organiser les reçus et obtenir des rapports qui les aident à faire leur budget.

Ces efforts sont couronnés de succès parce que les banques ne se considèrent plus comme des gestionnaires d’argent. Elles ont élargi leur champ d’action pour devenir des alliés de leurs clients en les aidant à devenir plus efficaces et à réaliser leurs projets.

L’infonuagique offre des capacités sans précédent aux banques pour intégrer d’autres services dans leurs applications de base par des API. Par exemple, plusieurs institutions financières offrent maintenant des fonctionnalités de rapports de crédit gratuites. Les agences de crédit sont ravies de promouvoir leurs marques grâce à ce type d’intégration, et elles collaborent volontiers avec les banques.

Lorsque le cloud se combine aux Big Data, les banques peuvent utiliser les connaissances existantes sur leurs clients pour travailler de façon différente. Par exemple, elles peuvent segmenter les clients par leurs comportements d’épargne et de consommation et proposer des services adaptés à différents budgets. Elles peuvent cibler des services vers des segments distincts de clients en fonction de la géographie ou du groupe d’âge en superposant les données démographiques sur les données des clients. Elles peuvent même écouter les conversations sur les réseaux sociaux pour identifier des occasions d’offrir, par exemple, des prêts automobiles aux amateurs de certaines marques ou modèles de véhicules.

Les principaux obstacles à ce type de transformation ne sont pas techniques mais plutôt culturels. Si les banques ne se perçoivent que comme des intendants de l’argent, elles limitent leur potentiel de rupture avec leurs niches traditionnelles. Mais lorsque les institutions bancaires se considèrent comme des alliés dans le succès financier de leurs clients, elles peuvent profiter de l’infonuagique et des Big Data pour développer et enrichir les relations avec leurs clients. L’application mobile est la nouvelle succursale, et un bon fournisseur de services peut aider votre institution financière à réaliser son potentiel de transformation.

Comprendre Splunk et l’adopter

Splunk est une solution tendance dans l’industrie depuis un certain temps, mais que connaissons-nous de son utilisation et du marché auquel Splunk est destiné? Splunk vient du terme anglais « spelunking », en français « spéléologie », qui signifie notamment, l’activité qui consiste à repérer, explorer, étudier et cartographier.

Indexation des données

Splunk collecte les données de différents endroits, les combine puis les stocke dans un index centralisé.

Utilisation des index pour optimiser les recherches

L’utilisation des index confère à Splunk un grand degré de rapidité lors des recherches de sources de problèmes.

Filtrage des résultats

Splunk met à la disposition de l’utilisateur plusieurs outils permettant de filtrer les résultats, pour une détection plus rapide du problème.

Prenons un exemple concret à partir des données ouvertes du site « montreal.bixi.com » qui sont formatées de la façon suivante :

Start date – Start station number – Start station – End date – End station number – End station – Account type – Total duration (ms)

Avec ces données, nous sommes capables de trouver les trajets les plus communs, d’estimer la durée moyenne d’un trajet, les points d’ancrage les plus sollicités pour l’entrée ou la sortie des vélos.

Pour l’équipe d’exploitation du service, cela offre en temps réel ou en prévision pour le lendemain, quels points d’ancrage devraient avoir plus de vélos et majoritairement vers où ces vélos vont se diriger. Ils pourraient prévoir le manque ou le surplus de vélos dans les points d’ancrage. Si les données sont récoltées en temps réel, des alertes pourraient être émises pour annoncer un potentiel de surplus ou de manque dans les points d’ancrage. Ainsi le système facilite la planification et permet d’être proactif pour répondre à la demande, plutôt que réactif. Nous serions même en mesure de déceler un vélo non remis; par exemple un vélo qui n’a pas été ancré depuis plus de 24 heures pourrait émettre une alerte, pour que l’équipe d’exploitation tente de retracer le vélo.

Pour les responsables marketing, on pourrait penser que ces données ne sont pas utiles, alors que c’est tout le contraire ; ces mêmes données peuvent servir à mettre en place des offres potentielles pour attirer la clientèle, puisque nous possédons les données qui donnent les heures de départ et d’arrivée, le temps d’utilisation des déplacements et les trajets les plus utilisés. On peut donc connaitre les plages horaires les plus utilisées et ainsi faire des promotions ou ajuster les tarifs en fonction d’objectifs d’achalandage ou de fidélisation de la clientèle.

Pour la direction, les données ouvertes ne donnent malheureusement pas le prix des courses en fonction du statut des utilisateurs (membres ou non-membres), mais la beauté de Splunk est qu’on peut enrichir les données récoltées avec d’autres données provenant d’un système tiers, d’une base de données ou tout simplement collectées manuellement. La direction pourrait alors obtenir des rapports et des tableaux de bord des revenus en fonction de différents facteurs, tels que le statut de l’utilisateur, la durée des déplacements, les jours de la semaine et bien plus. On pourrait même faire des comparaisons avec les mois précédents ou le même mois de l’année précédente. Les limites sont quasi infinies lorsqu’on possède une donnée qui réside dans Splunk ; la seule limite est celle de notre imagination!

Il s’agit bien sûr d’exemples fictifs réalisé avec les données ouvertes disponibles, mais qui pourraient être bien réels avec vos propres systèmes et données.

La collecte d’information d’un site web peut offrir une visibilité pour tous les utilisateurs d’une entreprise, les équipes d’exploitation peuvent recevoir des alertes de surcharge des systèmes, l’équipe marketing reçoit des informations sur la provenance des connexions pour cibler ses campagnes en fonction de ces données, la direction obtient une vue de l’expérience utilisateur, ainsi que les métriques de performance qui confirment les niveaux de services offerts (SLA).

Qu’il s’agisse de sécurité, d’exploitation, de marketing, d’analytique ou autres, Splunk pourra répondre à vos besoins. En plus des 1 200 applications disponibles dans leur portail, vous pouvez créer vos propres tableaux, rapports ou alertes. Vous pouvez utiliser leur « Pivot » pour permettre aux gens d’utiliser facilement les données et bâtir leur propre tableau de bord.

La plateforme est facile à utiliser et ne nécessite pas d’expertise particulière; vous avez seulement besoin des données qui s’y trouvent.

N’hésitez pas à contacter ESI pour obtenir une présentation ou une démonstration; nos spécialistes se feront un plaisir de vous montrer à utiliser Splunk.

Où est passée l’agilité promise?

Le monde des intégrateurs de solutions technologiques a considérablement changé en 10 ans. Les clients sont plus informés que jamais grâce à l’accès à l’information disponible sur Internet. On évalue que 80% des clients ont basé leur prise de décision en ligne avant même de nous contacter. Et notre industrie n’est pas l’exception. Internet est maintenant imbriqué dans le tissu de la société et les clients qui vont chez le vétérinaire ont déjà identifié la maladie de leur animal car « internet » leur a fourni un diagnostic!

Qu’en est-il des promesses des géants de l’industrie? La simplification des TI, la réduction des dépenses d’exploitation, une disponibilité des budgets accrue pour les projets au lieu de la maintenance, etc.?

Comment expliquer que ce ne soit pas le constat des entreprises? Comment se fait-il que nous constatons encore aujourd’hui que les clients qui ont adopté ces technologies nous avouent faire face à une plus grande complexité qu’avant? Peut-être est-ce dû en partie au fait que justement 80% des décisions sont prises basées sur des stratégies de marketing web bien ficelées…

Peu importe l’évolution technologique, la base d’une intégration réussie est encore la conception d’architecture, pensée pour une stratégie d’affaires et visant une intégration TI adaptée à vos besoins à l’aide de professionnels. De la même façon que le vétérinaire est certainement une meilleure source d’information qu’Internet pour soigner votre animal…

C’est pourquoi faire appel à un intégrateur aidera à combler le fossé entre les besoins de l’entreprise et la technologie, en concevant des solutions agiles, évolutives et personnalisées selon vos besoins spécifiques, en maximisant le retour sur investissement et en fournissant des conseils professionnels objectifs.

Donnez-moi vos copies de sauvegarde!

La sauvegarde des données est au cœur des activités de toutes les entreprises. Cependant, la législation en vigueur dans les différents pays où les entreprises sont en affaire nécessite de respecter des règles de gouvernance strictes afin d’être en conformité avec les organismes régulant les marchés et assurant la probité des entreprises et de leurs activités. Un client a reçu la visite d’inspecteurs anticorruption qui ont réquisitionné ses copies de sauvegarde pendant plusieurs mois. Pourquoi si longtemps? La nature de la méthodologie utilisée par le client pour ses sauvegardes rendait les recherches d’information ardue pour les inspecteurs, les empêchant de rendre au client ses copies… Afin de pallier cette situation pour l’avenir, le client a décidé de se procurer une solution d’archivage pour non seulement se conformer à la loi, mais surtout pour récupérer ses données dans des délais raisonnables.

Les entreprises requièrent de plus en plus des solutions d’archivage permettant de mettre en application les règles de gouvernance. Les entreprises sont tenues de pouvoir répondre de leurs actes en tout temps, et de pouvoir coopérer avec les autorités. Une solution d’archivage de conformité répond à ce besoin. Elle se distingue par la capacité de pouvoir effectuer des recherches légales à travers l’historique des courriels, pièces jointes et fichiers de l’organisation. Elle offre aussi une méthodologie pour protéger les données trouvées et les exporter rapidement aux personnes qui en font la demande.

Le coût de l’inaccessibilité aux copies de sauvegarde, le temps requis pour récupérer les données, effectuer une recherche de documents suspects et recommencer le processus pour la prochaine fois, est beaucoup plus dispendieux que d’avoir une solution d’archivage de conformité qui peut effectuer la même tâche en quelques minutes plutôt de plusieurs heures voire des jours ou des semaines. C’est une valeur ajoutée facile à calculer pour les entreprises.