Informatique agile : une meilleure façon de faire des affaires

Une des nouvelles idées les plus puissantes provenant de la révolution infonuagique est l’agilité informatique. Les entreprises agiles peuvent s’adapter facilement aux besoins changeants de l’entreprise en fournissant rapidement des applications et des infrastructures à ceux qui en ont besoin. Votre entreprise a-t-elle ce qu’il faut pour être vraiment agile?

Il existe de nombreux composants à l’infrastructure informatique agile, mais trois que nous estimons particulièrement importants sont les conteneurs, les microservices et l’automatisation. Ceux-ci forment la base de la nouvelle génération d’applications natives de l’infonuagique, et peuvent être utilisés par toute organisation pour révolutionner la rapidité et l’agilité de la livraison d’applications pour soutenir l’entreprise.

Conteneurs : rapides et flexibles

Les conteneurs sont une sorte de machine virtuelle légère, mais ils en diffèrent de manière fondamentale. Les conteneurs s’exécutent en tant que groupe de processus nommés dans un système d’exploitation, chacun ayant un accès exclusif aux ressources telles que le processeur, la mémoire et tous les éléments de support nécessaires à une application. Ils sont généralement stockés dans des bibliothèques pour réutilisation et peuvent être démarrés et arrêtés en quelques secondes. Ils sont également portables, ce qui signifie qu’une application s’exécutant dans un conteneur peut être déplacée vers n’importe quel autre environnement qui prend en charge ce type de conteneur.

Les conteneurs ne sont sur l’écran radar TI que depuis environ trois ans, mais ils sont adoptés avec une vitesse étonnante. Une étude récente a révélé que 40% des organisations utilisent déjà des conteneurs en production et seulement 13% n’ont pas l’intention de les adopter dans la prochaine année. Les conteneurs sont particulièrement populaires auprès des développeurs, car ils peuvent configurer et lancer leurs propres espaces de travail, sans encourir le retard et les frais généraux d’impliquer les équipes informatiques.Microservices : une meilleure approche des applications

L’utilisation de conteneurs va souvent de pair avec l’adoption d’une architecture de microservices. Les applications conçues à partir de microservices sont basées sur un réseau de services modulaires déployables indépendamment qui utilisent un mécanisme de communication léger tel qu’un protocole de messagerie. Imaginez un objet assemblé à partir de blocs Lego. Les blocs individuels en eux-mêmes n’ont pas une grande valeur, mais lorsqu’ils sont combinés, ils peuvent créer des structures élaborées.

L’architecture axée sur les services n’est pas nouvelle, mais la technologie a enfin évolué au point qu’il est pratique de repenser les applications sous cette forme. L’approche par microservices est plus souple et efficace que les applications intégrées verticalement qui ont dominé les TI depuis des décennies. En assemblant les applications à partir de bibliothèques de services, la duplication est minimisée et les logiciels peuvent être déployés en production beaucoup plus rapidement. Il y a moins de tests de surcharge et une exécution plus efficace, car les développeurs peuvent se concentrer sur l’amélioration de microservices existants plutôt que de réinventer la roue à chaque projet.

Les conteneurs constituent une plateforme idéale pour les microservices. Ils peuvent être lancés rapidement et personnalisés pour utiliser uniquement les ressources dont ils ont besoin. Un microservice unique peut être utilisé à bien des égards par plusieurs applications différentes. Les logiciels d’orchestration tels que Kubernetes assurent la maintenance, gèrent les exceptions et équilibrent constamment les ressources dans un cluster.

Automatisation : quitter la routine

L’automatisation est essentielle pour maintenir le fonctionnement en douceur de cet environnement complexe. Des outils logiciels libres populaires tels que Puppet et Ansible permettent de gérer plusieurs tâches auparavant effectuées par des administrateurs de systèmes, telles que la définition de stratégies de sécurité, la gestion des certificats, l‘équilibrage du traitement des charges et l’attribution d’adresses réseau par des scripts automatisés. Les outils d’automatisation ont été développés par des entreprises natives du cloud afin de leur permettre de gérer des opérations informatiques à grande échelle sans des légions d’administrateurs, mais les outils sont utiles dans n’importe quel contexte.

L’automatisation non seulement économise de l’argent mais améliore la satisfaction au travail. Les tâches manuelles routinières peuvent être assignées aux scripts afin de donner aux administrateurs des activités plus importantes et stimulantes. Et en période de grave pénurie de main-d’œuvre informatique, qui ne veut pas d’employés plus heureux?

L’informatique agile rend les entreprises plus simples, plus réactives et plus rapides. Lorsqu’elle est planifiée et exécutée avec l’aide d’un partenaire d’intégration expérimenté, elle économise également de l’argent.

Services infonuagiques : les petits fournisseurs sont un meilleur choix!

Lorsque vous achetez du vin, allez-vous dans un grand magasin d’escompte ou chez un détaillant spécialisé? Vous faites probablement les deux selon la situation. Le grand magasin a la sélection et les bas prix, mais les employés des marchés spécialisés vous offre des conseils que vous ne trouverez pas ailleurs.

La même dynamique s’applique au choix d’un fournisseur de services infonuagiques. Lorsque vous pensez à des fournisseurs de cloud, quatre ou cinq noms de sociétés vous viennent sans doute immédiatement à l’esprit. Mais si vous cherchez sur Google des fournisseurs de cloud en fonction de la satisfaction de la clientèle ou par pertinence pour les petites entreprises, vous trouverez une liste bien différente. Il existe des centaines de petits fournisseurs régionaux et spécialisés en service d’infrastructure (IaaS) dans le marché. Dans plusieurs cas, ils offrent une valeur que les géants ne peuvent égaler. Voici cinq raisons de les considérer.

Service à la clientèle : c’est sans doute la première raison de choisir un plus petit fournisseur d’hébergement. Si vous avez un problème, vous pouvez généralement parler à quelqu’un au téléphone. Avec le temps, le fournisseur de services apprend à vous connaitre et peut vous proposer des conseils ou des rabais exclusifs. La grande compagnie ne peut tout simplement pas offrir ce type de service personnalisé.

Expertise spécialisée : vous pouvez trouver des applications pour à peu près tout ce qui existe auprès des grands fournisseurs cloud, mais après cela, vous êtes laissé à vous-même. Si vous éprouvez des difficultés avec les fichiers de configuration et si le dépannage des messages d’erreurs Apache n’est pas votre point fort, cherchez un fournisseur de services spécialisé dans les tâches que vous essayez d’accomplir. Non seulement vous obtiendrez un service personnalisé, mais les personnes sont des experts des solutions qu’elles supportent. Elles vont trouver des réponses à vos questions rapidement.

Un sourire et une poignée de main : il existe plusieurs bonnes raisons de choisir un fournisseur dans votre région géographique. D’une part, les lois sur la protection des données imposées par le gouvernement peuvent l’exiger. Les fournisseurs locaux offrent également une touche personnelle que les centres d’appels ne peuvent procurer. Vous pouvez visiter leurs installations, les rencontrer pour planifier les besoins de votre service et obtenir des recommandations pour des développeurs ou entrepreneurs dont vous pourriez avoir besoin. Plusieurs petits fournisseurs offrent également des options de colocation et des sauvegardes sur site et des services de reprise après sinistre. Dans un monde de technologie où tout semble devenu virtuel, il est agréable de mettre un nom sur un visage.

Faible coût : cela semble contradictoire, mais la réalité est que plusieurs fournisseurs spécialisés offrent de meilleurs prix que les géants du cloud. C’est particulièrement vrai lorsqu’ils se spécialisent dans une application telle que WordPress ou Drupal, ou dans un service comme la sauvegarde. Ces entreprises tirent parti d’économies d’échelle pour offrir des prix concurrentiels, et vous profitez de tous les autres avantages de leur expertise spécialisée. Comparez les prix, vous pourriez être surpris.

Performance : si les principaux utilisateurs du service infonuagique sont des personnes de votre entreprise ou dans votre région géographique, vous obtiendrez probablement de meilleures performances avec un fournisseur local. C’est une simple loi physique. Plus les électrons voyagent loin, plus ils prennent du temps à atteindre leur destination. Ceci est particulièrement important à considérer si vous prévoyez utiliser des services comme le stockage infonuagique ou si vous devez transférer de gros fichiers, un processus susceptible d’entrainer des erreurs qui ne fait que s’aggraver avec la distance.

Cloud public, privé ou hybride? Faites le bon choix!

Vous savez que vous souhaitez aller vers l’infonuagique, mais vous ne savez pas laquelle des trois options – publique, privée ou hybride – vous convient. Nous sommes là pour vous aider avec cet aperçu rapide des trois possibilités, ainsi que les avantages et inconvénients de chacune.

Cloud public

Imaginez un serveur dans le ciel. L’infonuagique publique, également connue sous le nom d’infrastructure en tant que service (IaaS), procure l’équivalent d’un centre de données dans un environnement virtuel hautement évolutif accessible par Internet. Les clients peuvent s’approvisionner en serveurs virtuels (les « instances ») et ne paient que pour la capacité utilisée. Plusieurs fonctionnalités de cloud public sont automatisés pour le libre-service. Les utilisateurs peuvent déployer leurs propres serveurs selon leurs besoins et sans l’implication des TI. La comptabilité et la refacturation sont automatisées. En fait, les organisations trouvent souvent que le cloud public offre les économies les plus importantes, non pas en coûts d’équipement, mais en frais administratifs généraux.

Les applications les mieux adaptées au cloud public sont celles qui sont déjà virtualisées ou exécutées sur des systèmes d’exploitation Linux ou Windows non modifiés. Les applications vendues prêtes à l’utilisation en sont un bon exemple. L’infonuagique publique est également une bonne plateforme à utiliser pour évaluer et tester de nouvelles applications, puisque plusieurs fournisseurs de cloud public offrent une grande variété d’applications payables à l’utilisation. Le cloud public est également bien adapté au développement d’applications conçues pour le cloud, comme les applications mobiles.

L’infonuagique publique n’est pas idéale pour chaque utilisation. Les applications locales sur des plateformes existantes ou celles ayant d’importantes interdépendances pourraient ne pas être faciles à migrer. Les organisations qui ne portent pas attention à la gestion des instances peuvent finir par payer pour des capacités non utilisées. Il existe également des frais cachés à prendre en compte, tels que les frais additionnels pour les téléchargements et téléversements de données ou pour des niveaux de service garantis. Des enjeux règlementaires peuvent également limiter l’utilisation de l’infonuagique publique pour certaines applications.

Cloud privé

L’infonuagique privée est essentiellement un cloud public réservé à l’usage d’un client unique. Les cloud privés peuvent être construits sur site à l’aide de logiciels de virtualisation et d’automatisation, ou sous licence de fournisseurs qui offrent des services infonuagiques soit de leurs propres centres de données ou même dans les locaux du client.

Le cloud privé est populaire auprès des entreprises qui ont besoin d’un contrôle strict sur les données, que ce soit pour des raisons de sécurité, de confidentialité ou de règlementation. Dans les industries règlementées qui spécifient comment les données des clients doivent être conservées et gérées, c’est parfois la seule option infonuagique possible. Le cloud privé est aussi attrayant pour les compagnies qui ont besoin de niveaux de service garantis sans l’imprévisibilité de l’Internet public. Enfin, il offre le plus haut niveau de contrôle pour les entreprises qui souhaitent une visibilité en profondeur sur qui utilise les ressources et comment.

L’infonuagique privée est en général plus dispendieuse que l’option publique car les fournisseurs de services doivent attribuer des capacités exclusives à l’environnement dédié. Cependant, ce n’est pas toujours le cas. Pour les entreprises ayant des investissements importants dans les infrastructures existantes, un cloud privé sur site est une bonne façon d’ajouter de la flexibilité, de l’automatisation et de l’autosuffisance tout en préservant la valeur de leur équipement. Pour des charges de travail prévisibles, cela peut être le modèle le plus économique.

Cloud hybride

Cette option est la plus populaire auprès des grandes entreprises, et devrait dominer le paysage de l’infonuagique dans un avenir prévisible. Le cloud hybride combine des éléments du cloud public et privé de façon à permettre aux organisations de déplacer les charges de travail de manière flexible tout en gardant un contrôle strict sur leurs actifs les plus importants. Les entreprises déplacent généralement les fonctions qui sont traitées plus efficacement sur un cloud public mais conservent les autres à l’interne. Le cloud public peut servir d’extension à un centre de données interne ou être dédié à des utilisations spécifiques, telles que le développement d’applications. Par exemple, une application mobile développée dans le cloud public peut tirer des données d’un entrepôt de données dans un cloud privé.

Beaucoup des avantages du cloud hybride sont les mêmes que ceux de l’infonuagique privée : contrôle, sécurité, confidentialité et niveaux de services garantis. Les organisations peuvent conserver leurs données les plus sensibles sur site mais en transférer une partie vers le cloud public à moindre coût. Elles peuvent également réduire les coûts en utilisant l’infonuagique publique pour gérer des pointes occasionnelles d’activité qui surtaxent leur propre infrastructure, une tactique connue sous le nom de « cloud bursting ». Le cloud hybride est également une étape de transition utilisée par les entreprises lorsqu’elles passent d’une infrastructure sur site à une infrastructure infonuagique publique.

Il existe beaucoup plus de dimensions à considérer pour décider quel type de cloud est le meilleur. Un bon fournisseur de services gérés peut vous aider à comprendre les options et à estimer les avantages et les inconvénients de chaque option disponible.

Il est temps de repenser la cybersécurité.

Pendant plusieurs années, les organisations ont concentré leurs efforts de sécurité sur la protection des terminaux. Les pare-feu, les logiciels antivirus, la détection d’intrusion et les outils contre les logiciels espions sont tous efficaces, mais ils sont impuissants à arrêter la grande majorité des menaces.

Un récent sondage de ServiceNow auprès de 300 responsables de la sécurité de l’information dévoile que 81% sont très préoccupés des intrusions qui ne sont pas abordées et 78% s’inquiètent même de leur capacité à les détecter. L’indice X-Force Threat Intelligence d’IBM rapporte une augmentation de 566% du nombre d’enregistrements compromis en 2016 comparativement à l’année précédente. FireEye rapporte que le temps moyen pris par une organisation pour détecter une intrusion est supérieur à 200 jours.

Les mesures de sécurité des terminaux deviendront moins efficaces à mesure qu’ils proliféreront. Les téléphones intelligents ont introduit une toute nouvelle catégorie de menaces, et l’Internet des objets (IoT) ajoutera des milliards de périphériques terminaux aux réseaux dans les années à venir, dont beaucoup ne sont que peu ou pas sécurisés.

C’est pourquoi la cybersécurité, selon les mots du chef de la direction de Cisco Chuck Robbins, «doit débuter dans le réseau». Cette approche privilégiée par Cisco reconnait la réalité que les intrusions sont devenues inévitables mais qu’elles ne doivent pas être débilitantes. La popularité croissante des centres d’opérations de sécurité démontre que les organisation informatiques portent leur attention dans la création de vues intégrées de toutes les activités qui se déroulent sur leurs réseaux, y compris les applications, les bases de données, les serveurs et les terminaux, et adoptent des outils permettant d’identifier les modèles qui indiquent une violation. Par exemple, des tentatives d’accès multiples provenant d’une certaine adresse IP ou de transferts importants de fichiers sortants peuvent indiquer une intrusion, et cette activité peut être arrêtée avant qu’elle ne cause beaucoup de dommages.

Heureusement, la technologie évolue pour soutenir cette approche axée sur le réseau. Les plateformes Big Data comme Hadoop ont rendu le stockage de grandes quantités de données pour analyse pratique et abordable pour les entreprises. Les plateformes de diffusion en continu telles qu’Apache Spark et Kafka peuvent capturer et analyser les données en temps quasi réel. Les programmes d’apprentissage machine, lorsqu’ils sont appliqués à de larges magasins de données comme Hadoop, peuvent trier en permanence les journaux de réseau et de serveurs pour trouver les anomalies, devenant progressivement « plus intelligents ».

De son côté, l’infonuagique présente de nouvelles options de déploiement. C’est pourquoi la sécurité migre rapidement d’équipement dédié vers des solutions infonuagiques utilisant un modèle de logiciel sous forme de service (SaaS). Grandview Research estime que le marché des services gérés de sécurité qui valait plus de 17.5 milliards de dollars en 2015 augmentera à plus de 40 milliards de dollars en 2021. Au fur et à mesure que les organisations virtualisent leurs réseaux, ces services seront intégrés aux services réseau de base. Cela signifie la fin des mises à niveau de microcodes, des visites sur le site pour réparer les pare-feu et des mises à jour de signature contre les logiciels malveillants.

Il est trop tôt pour affirmer que la lutte contre les cybercriminels est gagnée, mais les signes sont au moins prometteurs. Il est encourageant de voir Cisco faire de la sécurité une pièce maitresse de sa stratégie. Deux acquisitions récentes (Jasper et Lancope) donnent à Cisco une présence prépondérante dans la sécurité IoT infonuagique et les capacités approfondies d’apprentissage pour l’analyse des menaces et des réseaux. La société a déclaré que la sécurité sera intégrée à chaque nouveau produit qui sera à l’avenir mis en marché. C’est peut-être pour cela que Robbins a appelé son entreprise « la seule entreprise de sécurité de 2 milliards de dollars qui va croitre du double ».

Les solutions de sécurité ne suffisent pas à prévenir les ransomware. Assurez-vous d’avoir une bonne stratégie de relève.

Si la notion de « ransomware » (rançongiciel en français) vous était inconnue jusqu’à maintenant,  l’attaque du 12 mai dernier du virus WannaCryptor qui a eu des répercussions mondiales dans toutes les sphères d’activités vous a certainement sensibilisé aux conséquences de ces attaques qui ne connaissent pas de frontières.

Les attaques informatiques par ransomware coûtent des millions de dollars par année aux entreprises et deviennent de plus en plus sophistiquées et difficiles à éviter. La particularité de ce type d’attaque est qu’elle se répand rapidement à travers les fichiers partagés, et ce parfois en quelques heures, comme l’attaque du 12 mai l’a démontré. Le ransomware s’infiltre généralement par le point le plus faible du réseau, généralement le compte courriel de l’utilisateur ou les sites de réseautage social.Le ransomware verrouille l’ordinateur ou chiffre les fichiers, exigeant le paiement d’une «rançon» pour rendre aux utilisateurs l’accès à leurs données. Mais le paiement de la rançon ne garantit pas la récupération des données*, sans compter que les entreprises qui cèdent au chantage des pirates deviennent des cibles de choix pour une prochaine fois…

Si vous êtes chanceux, votre entreprise a été épargnée par le virus et vous vous félicitez d’y avoir échappé. Dans ce cas, retenez la leçon : vous avez eu de la chance cette fois-ci, mais soyez assuré que ce type d’attaque se reproduira, et que votre entreprise pourrait fort bien en être victime la prochaine fois.

Les entreprises prévoyantes ont investi des sommes souvent considérables pour sécuriser leurs environnements informatiques et les données qui y transitent, données qui sont souvent critiques et dont la destruction peut mettre en péril la continuité des activités. Bien que les solutions de sécurité fassent partie de l’équation lorsqu’il s’agit de protéger vos actifs, elles ne sont qu’une partie de la stratégie pour contrer ces menaces.

Une solution complète pour vous prémunir contre les attaques virales doit impérativement inclure un plan de relève et des copies de sauvegarde accessibles et complètes afin de pouvoir restaurer votre environnement tel qu’il était avant l’attaque.

La mise en place d’un plan de relève vous procure l’assurance de pouvoir vous relever rapidement et de minimiser votre période d’inactivité, qui est souvent le maillon faible dans la gestion des attaques informatiques. En effet, plus vite vous reprendrez votre rythme de croisière, moins vos clients et fournisseurs auront à se tourner vers des alternatives qui pourraient, à terme, coûter très cher à votre entreprise et à sa réputation, allant même jusqu’à la mettre à risque.

Les entreprises soumises à des normes de conformité spécifiques à leur industrie sont en général sensibilisées et mieux outillées pour rapidement restaurer leur infrastructure en cas d’attaque. Pour savoir si votre entreprise a mis en place une stratégie de relève adéquate, posez-vous les questions suivantes :

  • Est-ce que vos copies de sauvegarde sont conservées hors site (loin de votre site principal)?
  • Êtes-vous en mesure de vous assurer que votre processus de sauvegarde fonctionne correctement?
  • À quelle vitesse êtes-vous en mesure de restaurer les données prises en otage?
  • Est-ce que vos données originales sont sauvegardées de manière inaltérable, vous assurant une récupération complète et intègre de vos données en cas d’attaque ransomware?

En répondant à ces questions, vous franchirez la première étape qui vous permettra de remédier aux lacunes de votre stratégie de relève en cas d’attaque informatique. Soyez prêts à faire face aux prochaines menaces pour protéger vos actifs!

* Selon un récent sondage, des entreprises victimes de ransomware qui ont payé la rançon, seuls 71% ont pu récupérer leurs données.

Problèmes de réseau? Optimisez votre environnement!

Les réseaux d’entreprises sont bien souvent comme des enfants : ils grandissent sans qu’on s’en rende compte, parfois de manière désorganisée et souvent inattendue. L’entreprise peut rapidement se retrouver avec un grand nombre d’équipements non optimisés à gérer, qui peuvent ressembler à ceci…

Mais la croissance se poursuit : la direction veut installer un système de vidéoconférence, on doit faire les copies de sauvegarde d’une filiale et les conserver au siège social…

Est-ce que votre réseau peut soutenir ces ajouts ? La réponse est probablement non.

À partir de là, les problèmes se multiplient. Avec le temps, les utilisateurs éprouvent des ralentissements, les appels téléphoniques sont parfois saccadés, des pannes intermittentes peuvent même survenir. Comment résoudre les problèmes? Où chercher?

Avec une multitude d’équipements disparates, et souvent sans système de journalisation centralisé, il est difficile d’enquêter et de trouver un problème.

L’analyse de réseau : pourquoi et comment

Pour ESI, chaque client est différent. La partie la plus importante de notre travail est tout d’abord de déterminer dans quelle situation notre client se trouve, et ce qui l’a amené à avoir besoin d’une analyse de réseau. Un ajout de fonctionnalité? Des pannes intermittentes? Une volonté de planifier les investissements futurs à faire dans le réseau?

Une fois cet objectif établi, nous procédons à l’analyse des diagrammes réseau les plus récents, quand il y en a. Nous examinons les équipements, les configurations, la redondance, la segmentation… Nous évaluons tout cela afin de dresser un bilan de santé des équipements.

Nous arrivons ainsi à identifier :

  • Les équipements en fin de vie
  • Les équipements proches de la panne
  • Les problèmes de configuration / les optimisations à effectuer
  • Les points du réseau qui sont limitants

Mais le plus important, c’est qu’en fonction de vos besoins, nous vous aidons à identifier les priorités d’investissement sur le réseau, à court, moyen et long terme. À la fin de l’analyse, nos clients obtiennent :

  • Une vue précise de leur réseau
  • Un plan d’action sur les équipements existants
  • Un plan d’investissements

Pourquoi ESI?

ESI Technologies accompagne les entreprises dans la planification et les modifications à leurs infrastructures depuis maintenant plus de 22 ans!
Contactez-nous dès maintenant pour en savoir plus sur ce qu’ESI peut faire pour vous!

Adoptez l’approche unifiée de la sécurité sans fil!

Pour de nombreuses organisations, l’accès sans fil n’est plus un luxe. Les employés ont besoin d’un accès facile alors qu’ils parcourent les bureaux, et les clients et partenaires s’attendent à pouvoir se connecter dès qu’il sont sur le site. Mais fournir un accès non-sécurisé crée une foule de problèmes de sécurité potentiels si les points d’accès ne sont pas rigoureusement surveillés, corrigés et entretenus. Plus le nombre de points d’accès augmente, plus il est facile d’escamoter cette importante tâche de maintenance.

Les équipes de sécurité sont si occupées à combattre les urgences que la maintenance préventive est souvent négligée. Kaspersky Labs a récemment analysé les données de près de 32 millions de bornes sans fil dans le monde et rapporté que près de 25% d’entre elles ne sont pas chiffrées. Ce qui signifie que les mots de passe et les données personnelles qui transitent par ces périphériques peuvent facilement être interceptés par toute personne connectée au réseau.

Les réseaux privés virtuels (VPN) sont une façon de garder les données en sécurité, mais 82% des utilisateurs de mobiles ont indiqué à IDG qu’ils ne prennent pas toujours la peine de les utiliser. La profusion de logiciels offerts en mode infonuagique (SaaS) encourage ce comportement. Gartner a estimé qu’en 2018, 25% des données d’entreprise contourneront le périmètre de sécurité et iront directement dans le cloud.

Le paysage du sans fil évolue, grâce aux périphériques mobiles, aux services infonuagiques et à la menace croissante des cyberattaques. Cela signifie que la sécurité sans fil doit être gérée de façon holistique, avec une approche de gestion centralisée et une architecture qui intègre à la fois la protection des terminaux et l’analyse du trafic réseau. Cisco a dépensé plus d’un milliard de dollars en acquisitions de sécurité depuis 2015 et a mis en place les éléments nécessaires pour assurer cette intégration.

Cisco Umbrella, que la compagnie a lancé le mois dernier, est une nouvelle approche pour sécuriser le périmètre d’entreprise qui prend en compte les façons changeantes d’accéder à Internet. Umbrella donne aux gestionnaires de réseau et de sécurité une image complète de tous les périphériques sur le réseau et de leur activité. Par exemple, en combinant la technologie Umbrella au Cisco Cloudlock Cloud Access Security Broker, les entreprises peuvent appliquer des stratégies personnalisées aux différentes applications SaaS et même bloquer totalement les services inappropriés. Elles peuvent également bloquer les connexions vers des destinations réputées malveillantes sur les couches DNS et IP, ce qui réduit la menace de logiciels malveillants. Umbrella peut même découvrir et contrôler les informations sensibles dans les applications SaaS, même si elles sont hors du réseau.

L’approche modernisée de Cisco en matière de sécurité utilise également la puissance de l’infonuagique pour l’administration et l’analyse. Cisco Defense Orchestrator résout plus de 100 milliards de requêtes Internet chaque jour. Sa technologie d’apprentissage machine compare ce trafic contre une base de données de plus de 11 milliards d’événements historiques pour rechercher des modèles qui identifient le comportement malveillant connu. Defense Orchestrator peut donc repérer les brêches rapidement afin qu’elles puissent être bloquées ou isolées avant qu’elles ne causent des dommages. Grâce au cloud, des données anonymes provenant d’Internet peuvent être combinées à l’apprentissage approfondi pour améliorer en continu ses capacités de détection. Les modèles analytiques prédictifs permettent à Cisco de déterminer où se déroulent les attaques actuelles et futures. En d’autres termes, le cloud de sécurité de Cisco devient plus intelligent chaque jour.

Umbrella peut s’intégrer aux systèmes existants, y compris les serveurs monofonctionnels, les flux et outils internes, de sorte que vos investissements sont protégés. Umbrella est construit sur OpenDNS, une plateforme native du cloud depuis sa création il y a plus de dix ans. C’est la base de la feuille de route de sécurité de Cisco à l’avenir.

Une excellente façon de commencer à utiliser Cisco Umbrella consiste à revoir la protection de vos points d’accès sans fil. Les réseaux de Cisco n’ayant plus de secrets pour nous, laissez-nous vous mettre sur la voie d’avenir de la sécurité réseau.

Votre réseau est-il prêt pour la transformation numérique?

Si votre entreprise possède plus d’un bureau, vous connaissez déjà la complexité impliquée dans le maintien du réseau. Vous avez probablement plusieurs périphériques connectés dans chaque succursale, avec des pare-feu, routeurs sans fil et peut-être de l’équipement VoIP. Chaque correctif, mise à jour logicielle ou nouvelle signature de logiciels malveillants doit être installé manuellement, nécessitant un appel de service. Plus vous avez de succursales, plus le coût est élevé et plus le délai est important.

C’est l’état de la technologie dans la plupart des entreprises distribuées de nos jours, mais cela n’évoluera pas bien dans l’avenir. Environ 50 milliards de nouveaux appareils intelligents connectés s’ajouteront au cours des trois prochaines années, selon l’évaluation faite par le manufacturier Cisco. Cette soi-disant révolution dite « Internet des objets » (IoT) va exiger de repenser complètement l’infrastructure réseau.

Les réseaux de l’avenir doivent fournir et gérer de manière flexible la bande passante pour s’adapter à une grande variété de scénarios d’utilisation. Ils doivent également être gérables à partir d’un point central. La fonctionnalité qui est actuellement intégrée dans les périphériques matériels doit passer dans le logiciel. La sécurité deviendra partie intégrante du réseau, plutôt que distribuée dans des dispositifs de pointe. Les mises à jour logicielles seront automatiques.

C’est la vision que Cisco appelle la Digital Network Architecture ou DNA (l’architecture réseau numérique). C’est une approche logicielle pilotée par les réseaux et les périphériques intelligents et l’automatisation. En virtualisant plusieurs des fonctionnalités fournies actuellement par des équipements physiques, votre organisation TI peut acquérir une visibilité et un contrôle inégalés sur chaque partie du réseau.

Par exemple, vous pouvez remplacer des pare-feu matériels par une connexion à prise unique. Vos administrateurs réseau peuvent obtenir une vue complète de chaque dispositif de pointe, et vos équipes responsables de la sécurité peuvent utiliser l’analytique pour identifier et isoler les anomalies détectées. Les nouveaux téléphones, ordinateurs ou autres appareils peuvent être détectés automatiquement et les autorisations et politiques appropriées sont appliquées de manière centralisée. Les réseaux sans fil, qui sont un des points d’entrée les plus courants des cyberattaquants, peuvent être sécurisés et surveillés en tant qu’unité.

Un des avantages les plus importants du DNA est l’allocation flexible de la bande passante. Plusieurs entreprises offrent aujourd’hui la bande passante sur la base du scénario le plus défavorable, ce qui entraine une capacité de réseau excédentaire qui reste inactive la plupart du temps. Dans un scénario entièrement défini par logiciel, la bande passante est allouée sur demande uniquement, de sorte qu’une succursale qui connait une accalmie n’accapare pas les ressources d’une autre qui est occupée. Les ressources serveur virtualisées peuvent également être allouées de la même façon, en améliorant l’utilisation et en évitant le gaspillage.

L’Internet des objets exigera des niveaux sans précédent de flexibilité du réseau. Certains dispositifs de pointe, tels que les terminaux de point de vente, nécessiteront des connexions à haut débit qui transmettent des informations rapides pour des tâches telles que la validation par carte de crédit. D’autres, comme les caméras de sécurité, doivent transmettre des fichiers beaucoup plus volumineux, mais peuvent tolérer de plus longs délais. À l’aide d’une approche basée sur les politiques DNA, les priorités peuvent être définies pour s’assurer que chaque appareil dispose des ressources dont il a besoin.

Arriver au DNA ne se fait pas en un jour. Presque chaque nouveau produit mis en marché par Cisco est activé pour le DNA. Au fur et à mesure que vous retirez des équipements plus anciens, vous pouvez passer graduellement à un environnement entièrement virtualisé et défini par logiciel. Dans certains cas, vous pouvez constater que les coûts de gestion d’un vaste réseau distribué, tels que les déplacements, le temps du personnel et la perte de productivité, justifient déjà un changement. Quoi qu’il en soit, ESI a l’expertise de conseil et de mise en œuvre pour vous aider à prendre la meilleure décision.

Comprendre Splunk et l’adopter

Splunk est une solution tendance dans l’industrie depuis un certain temps, mais que connaissons-nous de son utilisation et du marché auquel Splunk est destiné?

Splunk vient du terme anglais « spelunking », en français « spéléologie », qui signifie notamment, l’activité qui consiste à repérer, explorer, étudier et cartographier.

  1. Indexation des données : Splunk collecte les données de différents endroits, les combine puis les stocke dans un index centralisé.
  2. Utilisation des index : l’utilisation des index confère à Splunk un grand degré de rapidité lors des recherches de sources de problèmes.
  3. Filtrage des résultats : Splunk met à la disposition de l’utilisateur plusieurs outils permettant de filtrer les résultats, pour une détection plus rapide du problème.

Depuis plus d’un an j’expérimente avec Splunk sous plusieurs facettes, soit la sécurité, le stockage, l’infrastructure, la télécom et bien plus. Nous possédons chez ESI un laboratoire très complet qui m’a permis de pousser mes expérimentations.

En plus d’utiliser toutes ces quantités de données, j’ai utilisé des données ouvertes pour expérimenter la capacité de Splunk à les interpréter.

J’ai testé les données ouvertes du site « montreal.bixi.com » ; ces données brutes sont formatées de la façon suivante :

Start date – Start station number – Start station – End date – End station number – End station – Account type – Total duration (ms)

Avec ces données, nous sommes capables de trouver les trajets les plus communs, d’estimer la durée moyenne d’un trajet, les points d’ancrage les plus sollicités pour l’entrée ou la sortie des vélos.

Pour l’équipe d’exploitation du service, cela offre en temps réel ou en prévision pour le lendemain, quels points d’ancrage devraient avoir plus de vélos et majoritairement vers où ces vélos vont se diriger. Ils pourraient prévoir le manque ou le surplus de vélos dans les points d’ancrage. Si les données sont récoltées en temps réel, des alertes pourraient être émises pour annoncer un potentiel de surplus ou de manque dans les points d’ancrage. Ainsi le système facilite la planification et permet d’être proactif pour répondre à la demande, plutôt que réactif. Nous serions même en mesure de déceler un vélo non remis; par exemple un vélo qui n’a pas été ancré depuis plus de 24 heures pourrait émettre une alerte, pour que l’équipe d’exploitation tente de retracer le vélo.

Pour les responsables marketing, on pourrait penser que ces données ne sont pas utiles, alors que c’est tout le contraire ; ces mêmes données peuvent servir à mettre en place des offres potentielles pour attirer la clientèle, puisque nous possédons les données qui donnent les heures de départ et d’arrivée, le temps d’utilisation des déplacements et les trajets les plus utilisés. On peut donc connaitre les plages horaires les plus utilisées et ainsi faire des promotions ou ajuster les tarifs en fonction d’objectifs d’achalandage ou de fidélisation de la clientèle.

Pour la direction, les données ouvertes ne donnent malheureusement pas le prix des courses en fonction du statut des utilisateurs (membres ou non-membres), mais la beauté de Splunk est qu’on peut enrichir les données récoltées avec d’autres données provenant d’un système tiers, d’une base de données ou tout simplement collectées manuellement. La direction pourrait alors obtenir des rapports et des tableaux de bord des revenus en fonction de différents facteurs, tels que le statut de l’utilisateur, la durée des déplacements, les jours de la semaine et bien plus. On pourrait même faire des comparaisons avec les mois précédents ou le même mois de l’année précédente. Les limites sont quasi infinies lorsqu’on possède une donnée qui réside dans Splunk ; la seule limite est celle de notre imagination!

Il s’agit bien sûr d’exemples fictifs réalisé avec les données ouvertes disponibles, mais qui pourraient être bien réels avec vos propres systèmes et données.

La collecte d’information d’un site web peut offrir une visibilité pour tous les utilisateurs d’une entreprise, les équipes d’exploitation peuvent recevoir des alertes de surcharge des systèmes, l’équipe marketing reçoit des informations sur la provenance des connexions pour cibler ses campagnes en fonction de ces données, la direction obtient une vue de l’expérience utilisateur, ainsi que les métriques de performance qui confirment les niveaux de services offerts (SLA).

Qu’il s’agisse de sécurité, d’exploitation, de marketing, d’analytique ou autres, Splunk pourra répondre à vos besoins. En plus des 1 200 applications disponibles dans leur portail, vous pouvez créer vos propres tableaux, rapports ou alertes. Vous pouvez utiliser leur « Pivot » pour permettre aux gens d’utiliser facilement les données et bâtir leur propre tableau de bord.

La plateforme est facile à utiliser et ne nécessite pas d’expertise particulière; vous avez seulement besoin des données qui s’y trouvent.

N’hésitez pas à contacter ESI pour obtenir une présentation ou une démonstration; il me fera plaisir de vous montrer à « Splunker ».

Guillaume Paré
Conseiller principal, architecture et technologies – ESI Technologies

Êtes-vous prêts à faire face à toute interruption inattendue?

Nombre de petites et moyennes entreprises ont des lacunes dans leur infrastructure technologique les empêchant de se prémunir face aux imprévus qui causent des interruptions à leurs activités.

Une entreprise a vu ses bureaux dévalisés : les serveurs, ordinateurs, dossiers clients et même les copies de sauvegarde ont disparu. Comment faire pour se relever de cette situation, rapidement, et en minimisant les conséquences? Sans solution de relève, les activités de l’entreprise sont fortement compromises…

Catastrophes naturelles ou industrielles, vols, pannes d’électricité ou bris des télécommunications, piratage, terrorisme… Un arrêt des opérations, même de courte durée, peut mettre en péril votre part de marché, vous faire perdre plusieurs clients importants, et menacer la survie de votre entreprise. Il est primordial pour toute entreprise, quelque soit sa taille, de se préparer à faire face à toute éventualité en protégeant ses actifs informationnels.

Une solution de reprise après sinistre (DRaaS), vous permet d’atténuer les conséquences fâcheuses d’une interruption de vos activités. ESI vous offre la protection de votre environnement sans le fardeau de la dépense et de la gestion d’un site de relève.

Notre service DRaaS vous offre l’accès à notre centre de données certifié Tier III, doté d’équipements des meilleurs manufacturiers et entièrement redondants, qui vous garantit une évolutivité élastique et des conditions d’abonnement flexibles.

Des solutions infonuagiques adaptées à vos besoins, abordables et offertes par une entreprise qui possède plus de 20 ans d’expérience en gestion des données, qui comprend l’importance de la protection et de la sauvegarde de vos actifs… n’attendez pas les situations d’urgence pour en profiter!

Alex Delisle
Vice-président développement des affaires, solutions infonuagiques – ESI Technologies