Il est temps de repenser la cybersécurité.

Pendant plusieurs années, les organisations ont concentré leurs efforts de sécurité sur la protection des terminaux. Les pare-feu, les logiciels antivirus, la détection d’intrusion et les outils contre les logiciels espions sont tous efficaces, mais ils sont impuissants à arrêter la grande majorité des menaces.

Un récent sondage de ServiceNow auprès de 300 responsables de la sécurité de l’information dévoile que 81% sont très préoccupés des intrusions qui ne sont pas abordées et 78% s’inquiètent même de leur capacité à les détecter. L’indice X-Force Threat Intelligence d’IBM rapporte une augmentation de 566% du nombre d’enregistrements compromis en 2016 comparativement à l’année précédente. FireEye rapporte que le temps moyen pris par une organisation pour détecter une intrusion est supérieur à 200 jours.

Les mesures de sécurité des terminaux deviendront moins efficaces à mesure qu’ils proliféreront. Les téléphones intelligents ont introduit une toute nouvelle catégorie de menaces, et l’Internet des objets (IoT) ajoutera des milliards de périphériques terminaux aux réseaux dans les années à venir, dont beaucoup ne sont que peu ou pas sécurisés.

C’est pourquoi la cybersécurité, selon les mots du chef de la direction de Cisco Chuck Robbins, «doit débuter dans le réseau». Cette approche privilégiée par Cisco reconnait la réalité que les intrusions sont devenues inévitables mais qu’elles ne doivent pas être débilitantes. La popularité croissante des centres d’opérations de sécurité démontre que les organisation informatiques portent leur attention dans la création de vues intégrées de toutes les activités qui se déroulent sur leurs réseaux, y compris les applications, les bases de données, les serveurs et les terminaux, et adoptent des outils permettant d’identifier les modèles qui indiquent une violation. Par exemple, des tentatives d’accès multiples provenant d’une certaine adresse IP ou de transferts importants de fichiers sortants peuvent indiquer une intrusion, et cette activité peut être arrêtée avant qu’elle ne cause beaucoup de dommages.

Heureusement, la technologie évolue pour soutenir cette approche axée sur le réseau. Les plateformes Big Data comme Hadoop ont rendu le stockage de grandes quantités de données pour analyse pratique et abordable pour les entreprises. Les plateformes de diffusion en continu telles qu’Apache Spark et Kafka peuvent capturer et analyser les données en temps quasi réel. Les programmes d’apprentissage machine, lorsqu’ils sont appliqués à de larges magasins de données comme Hadoop, peuvent trier en permanence les journaux de réseau et de serveurs pour trouver les anomalies, devenant progressivement « plus intelligents ».

De son côté, l’infonuagique présente de nouvelles options de déploiement. C’est pourquoi la sécurité migre rapidement d’équipement dédié vers des solutions infonuagiques utilisant un modèle de logiciel sous forme de service (SaaS). Grandview Research estime que le marché des services gérés de sécurité qui valait plus de 17.5 milliards de dollars en 2015 augmentera à plus de 40 milliards de dollars en 2021. Au fur et à mesure que les organisations virtualisent leurs réseaux, ces services seront intégrés aux services réseau de base. Cela signifie la fin des mises à niveau de microcodes, des visites sur le site pour réparer les pare-feu et des mises à jour de signature contre les logiciels malveillants.

Il est trop tôt pour affirmer que la lutte contre les cybercriminels est gagnée, mais les signes sont au moins prometteurs. Il est encourageant de voir Cisco faire de la sécurité une pièce maitresse de sa stratégie. Deux acquisitions récentes (Jasper et Lancope) donnent à Cisco une présence prépondérante dans la sécurité IoT infonuagique et les capacités approfondies d’apprentissage pour l’analyse des menaces et des réseaux. La société a déclaré que la sécurité sera intégrée à chaque nouveau produit qui sera à l’avenir mis en marché. C’est peut-être pour cela que Robbins a appelé son entreprise « la seule entreprise de sécurité de 2 milliards de dollars qui va croitre du double ».

Les solutions de sécurité ne suffisent pas à prévenir les ransomware. Assurez-vous d’avoir une bonne stratégie de relève.

Si la notion de « ransomware » (rançongiciel en français) vous était inconnue jusqu’à maintenant,  l’attaque du 12 mai dernier du virus WannaCryptor qui a eu des répercussions mondiales dans toutes les sphères d’activités vous a certainement sensibilisé aux conséquences de ces attaques qui ne connaissent pas de frontières.

Les attaques informatiques par ransomware coûtent des millions de dollars par année aux entreprises et deviennent de plus en plus sophistiquées et difficiles à éviter. La particularité de ce type d’attaque est qu’elle se répand rapidement à travers les fichiers partagés, et ce parfois en quelques heures, comme l’attaque du 12 mai l’a démontré. Le ransomware s’infiltre généralement par le point le plus faible du réseau, généralement le compte courriel de l’utilisateur ou les sites de réseautage social.Le ransomware verrouille l’ordinateur ou chiffre les fichiers, exigeant le paiement d’une «rançon» pour rendre aux utilisateurs l’accès à leurs données. Mais le paiement de la rançon ne garantit pas la récupération des données*, sans compter que les entreprises qui cèdent au chantage des pirates deviennent des cibles de choix pour une prochaine fois…

Si vous êtes chanceux, votre entreprise a été épargnée par le virus et vous vous félicitez d’y avoir échappé. Dans ce cas, retenez la leçon : vous avez eu de la chance cette fois-ci, mais soyez assuré que ce type d’attaque se reproduira, et que votre entreprise pourrait fort bien en être victime la prochaine fois.

Les entreprises prévoyantes ont investi des sommes souvent considérables pour sécuriser leurs environnements informatiques et les données qui y transitent, données qui sont souvent critiques et dont la destruction peut mettre en péril la continuité des activités. Bien que les solutions de sécurité fassent partie de l’équation lorsqu’il s’agit de protéger vos actifs, elles ne sont qu’une partie de la stratégie pour contrer ces menaces.

Une solution complète pour vous prémunir contre les attaques virales doit impérativement inclure un plan de relève et des copies de sauvegarde accessibles et complètes afin de pouvoir restaurer votre environnement tel qu’il était avant l’attaque.

La mise en place d’un plan de relève vous procure l’assurance de pouvoir vous relever rapidement et de minimiser votre période d’inactivité, qui est souvent le maillon faible dans la gestion des attaques informatiques. En effet, plus vite vous reprendrez votre rythme de croisière, moins vos clients et fournisseurs auront à se tourner vers des alternatives qui pourraient, à terme, coûter très cher à votre entreprise et à sa réputation, allant même jusqu’à la mettre à risque.

Les entreprises soumises à des normes de conformité spécifiques à leur industrie sont en général sensibilisées et mieux outillées pour rapidement restaurer leur infrastructure en cas d’attaque. Pour savoir si votre entreprise a mis en place une stratégie de relève adéquate, posez-vous les questions suivantes :

  • Est-ce que vos copies de sauvegarde sont conservées hors site (loin de votre site principal)?
  • Êtes-vous en mesure de vous assurer que votre processus de sauvegarde fonctionne correctement?
  • À quelle vitesse êtes-vous en mesure de restaurer les données prises en otage?
  • Est-ce que vos données originales sont sauvegardées de manière inaltérable, vous assurant une récupération complète et intègre de vos données en cas d’attaque ransomware?

En répondant à ces questions, vous franchirez la première étape qui vous permettra de remédier aux lacunes de votre stratégie de relève en cas d’attaque informatique. Soyez prêts à faire face aux prochaines menaces pour protéger vos actifs!

* Selon un récent sondage, des entreprises victimes de ransomware qui ont payé la rançon, seuls 71% ont pu récupérer leurs données.

Problèmes de réseau? Optimisez votre environnement!

Les réseaux d’entreprises sont bien souvent comme des enfants : ils grandissent sans qu’on s’en rende compte, parfois de manière désorganisée et souvent inattendue. L’entreprise peut rapidement se retrouver avec un grand nombre d’équipements non optimisés à gérer, qui peuvent ressembler à ceci…

Mais la croissance se poursuit : la direction veut installer un système de vidéoconférence, on doit faire les copies de sauvegarde d’une filiale et les conserver au siège social…

Est-ce que votre réseau peut soutenir ces ajouts ? La réponse est probablement non.

À partir de là, les problèmes se multiplient. Avec le temps, les utilisateurs éprouvent des ralentissements, les appels téléphoniques sont parfois saccadés, des pannes intermittentes peuvent même survenir. Comment résoudre les problèmes? Où chercher?

Avec une multitude d’équipements disparates, et souvent sans système de journalisation centralisé, il est difficile d’enquêter et de trouver un problème.

L’analyse de réseau : pourquoi et comment

Pour ESI, chaque client est différent. La partie la plus importante de notre travail est tout d’abord de déterminer dans quelle situation notre client se trouve, et ce qui l’a amené à avoir besoin d’une analyse de réseau. Un ajout de fonctionnalité? Des pannes intermittentes? Une volonté de planifier les investissements futurs à faire dans le réseau?

Une fois cet objectif établi, nous procédons à l’analyse des diagrammes réseau les plus récents, quand il y en a. Nous examinons les équipements, les configurations, la redondance, la segmentation… Nous évaluons tout cela afin de dresser un bilan de santé des équipements.

Nous arrivons ainsi à identifier :

  • Les équipements en fin de vie
  • Les équipements proches de la panne
  • Les problèmes de configuration / les optimisations à effectuer
  • Les points du réseau qui sont limitants

Mais le plus important, c’est qu’en fonction de vos besoins, nous vous aidons à identifier les priorités d’investissement sur le réseau, à court, moyen et long terme. À la fin de l’analyse, nos clients obtiennent :

  • Une vue précise de leur réseau
  • Un plan d’action sur les équipements existants
  • Un plan d’investissements

Pourquoi ESI?

ESI Technologies accompagne les entreprises dans la planification et les modifications à leurs infrastructures depuis maintenant plus de 22 ans!
Contactez-nous dès maintenant pour en savoir plus sur ce qu’ESI peut faire pour vous!

Adoptez l’approche unifiée de la sécurité sans fil!

Pour de nombreuses organisations, l’accès sans fil n’est plus un luxe. Les employés ont besoin d’un accès facile alors qu’ils parcourent les bureaux, et les clients et partenaires s’attendent à pouvoir se connecter dès qu’il sont sur le site. Mais fournir un accès non-sécurisé crée une foule de problèmes de sécurité potentiels si les points d’accès ne sont pas rigoureusement surveillés, corrigés et entretenus. Plus le nombre de points d’accès augmente, plus il est facile d’escamoter cette importante tâche de maintenance.

Les équipes de sécurité sont si occupées à combattre les urgences que la maintenance préventive est souvent négligée. Kaspersky Labs a récemment analysé les données de près de 32 millions de bornes sans fil dans le monde et rapporté que près de 25% d’entre elles ne sont pas chiffrées. Ce qui signifie que les mots de passe et les données personnelles qui transitent par ces périphériques peuvent facilement être interceptés par toute personne connectée au réseau.

Les réseaux privés virtuels (VPN) sont une façon de garder les données en sécurité, mais 82% des utilisateurs de mobiles ont indiqué à IDG qu’ils ne prennent pas toujours la peine de les utiliser. La profusion de logiciels offerts en mode infonuagique (SaaS) encourage ce comportement. Gartner a estimé qu’en 2018, 25% des données d’entreprise contourneront le périmètre de sécurité et iront directement dans le cloud.

Le paysage du sans fil évolue, grâce aux périphériques mobiles, aux services infonuagiques et à la menace croissante des cyberattaques. Cela signifie que la sécurité sans fil doit être gérée de façon holistique, avec une approche de gestion centralisée et une architecture qui intègre à la fois la protection des terminaux et l’analyse du trafic réseau. Cisco a dépensé plus d’un milliard de dollars en acquisitions de sécurité depuis 2015 et a mis en place les éléments nécessaires pour assurer cette intégration.

Cisco Umbrella, que la compagnie a lancé le mois dernier, est une nouvelle approche pour sécuriser le périmètre d’entreprise qui prend en compte les façons changeantes d’accéder à Internet. Umbrella donne aux gestionnaires de réseau et de sécurité une image complète de tous les périphériques sur le réseau et de leur activité. Par exemple, en combinant la technologie Umbrella au Cisco Cloudlock Cloud Access Security Broker, les entreprises peuvent appliquer des stratégies personnalisées aux différentes applications SaaS et même bloquer totalement les services inappropriés. Elles peuvent également bloquer les connexions vers des destinations réputées malveillantes sur les couches DNS et IP, ce qui réduit la menace de logiciels malveillants. Umbrella peut même découvrir et contrôler les informations sensibles dans les applications SaaS, même si elles sont hors du réseau.

L’approche modernisée de Cisco en matière de sécurité utilise également la puissance de l’infonuagique pour l’administration et l’analyse. Cisco Defense Orchestrator résout plus de 100 milliards de requêtes Internet chaque jour. Sa technologie d’apprentissage machine compare ce trafic contre une base de données de plus de 11 milliards d’événements historiques pour rechercher des modèles qui identifient le comportement malveillant connu. Defense Orchestrator peut donc repérer les brêches rapidement afin qu’elles puissent être bloquées ou isolées avant qu’elles ne causent des dommages. Grâce au cloud, des données anonymes provenant d’Internet peuvent être combinées à l’apprentissage approfondi pour améliorer en continu ses capacités de détection. Les modèles analytiques prédictifs permettent à Cisco de déterminer où se déroulent les attaques actuelles et futures. En d’autres termes, le cloud de sécurité de Cisco devient plus intelligent chaque jour.

Umbrella peut s’intégrer aux systèmes existants, y compris les serveurs monofonctionnels, les flux et outils internes, de sorte que vos investissements sont protégés. Umbrella est construit sur OpenDNS, une plateforme native du cloud depuis sa création il y a plus de dix ans. C’est la base de la feuille de route de sécurité de Cisco à l’avenir.

Une excellente façon de commencer à utiliser Cisco Umbrella consiste à revoir la protection de vos points d’accès sans fil. Les réseaux de Cisco n’ayant plus de secrets pour nous, laissez-nous vous mettre sur la voie d’avenir de la sécurité réseau.

Votre réseau est-il prêt pour la transformation numérique?

Si votre entreprise possède plus d’un bureau, vous connaissez déjà la complexité impliquée dans le maintien du réseau. Vous avez probablement plusieurs périphériques connectés dans chaque succursale, avec des pare-feu, routeurs sans fil et peut-être de l’équipement VoIP. Chaque correctif, mise à jour logicielle ou nouvelle signature de logiciels malveillants doit être installé manuellement, nécessitant un appel de service. Plus vous avez de succursales, plus le coût est élevé et plus le délai est important.

C’est l’état de la technologie dans la plupart des entreprises distribuées de nos jours, mais cela n’évoluera pas bien dans l’avenir. Environ 50 milliards de nouveaux appareils intelligents connectés s’ajouteront au cours des trois prochaines années, selon l’évaluation faite par le manufacturier Cisco. Cette soi-disant révolution dite « Internet des objets » (IoT) va exiger de repenser complètement l’infrastructure réseau.

Les réseaux de l’avenir doivent fournir et gérer de manière flexible la bande passante pour s’adapter à une grande variété de scénarios d’utilisation. Ils doivent également être gérables à partir d’un point central. La fonctionnalité qui est actuellement intégrée dans les périphériques matériels doit passer dans le logiciel. La sécurité deviendra partie intégrante du réseau, plutôt que distribuée dans des dispositifs de pointe. Les mises à jour logicielles seront automatiques.

C’est la vision que Cisco appelle la Digital Network Architecture ou DNA (l’architecture réseau numérique). C’est une approche logicielle pilotée par les réseaux et les périphériques intelligents et l’automatisation. En virtualisant plusieurs des fonctionnalités fournies actuellement par des équipements physiques, votre organisation TI peut acquérir une visibilité et un contrôle inégalés sur chaque partie du réseau.

Par exemple, vous pouvez remplacer des pare-feu matériels par une connexion à prise unique. Vos administrateurs réseau peuvent obtenir une vue complète de chaque dispositif de pointe, et vos équipes responsables de la sécurité peuvent utiliser l’analytique pour identifier et isoler les anomalies détectées. Les nouveaux téléphones, ordinateurs ou autres appareils peuvent être détectés automatiquement et les autorisations et politiques appropriées sont appliquées de manière centralisée. Les réseaux sans fil, qui sont un des points d’entrée les plus courants des cyberattaquants, peuvent être sécurisés et surveillés en tant qu’unité.

Un des avantages les plus importants du DNA est l’allocation flexible de la bande passante. Plusieurs entreprises offrent aujourd’hui la bande passante sur la base du scénario le plus défavorable, ce qui entraine une capacité de réseau excédentaire qui reste inactive la plupart du temps. Dans un scénario entièrement défini par logiciel, la bande passante est allouée sur demande uniquement, de sorte qu’une succursale qui connait une accalmie n’accapare pas les ressources d’une autre qui est occupée. Les ressources serveur virtualisées peuvent également être allouées de la même façon, en améliorant l’utilisation et en évitant le gaspillage.

L’Internet des objets exigera des niveaux sans précédent de flexibilité du réseau. Certains dispositifs de pointe, tels que les terminaux de point de vente, nécessiteront des connexions à haut débit qui transmettent des informations rapides pour des tâches telles que la validation par carte de crédit. D’autres, comme les caméras de sécurité, doivent transmettre des fichiers beaucoup plus volumineux, mais peuvent tolérer de plus longs délais. À l’aide d’une approche basée sur les politiques DNA, les priorités peuvent être définies pour s’assurer que chaque appareil dispose des ressources dont il a besoin.

Arriver au DNA ne se fait pas en un jour. Presque chaque nouveau produit mis en marché par Cisco est activé pour le DNA. Au fur et à mesure que vous retirez des équipements plus anciens, vous pouvez passer graduellement à un environnement entièrement virtualisé et défini par logiciel. Dans certains cas, vous pouvez constater que les coûts de gestion d’un vaste réseau distribué, tels que les déplacements, le temps du personnel et la perte de productivité, justifient déjà un changement. Quoi qu’il en soit, ESI a l’expertise de conseil et de mise en œuvre pour vous aider à prendre la meilleure décision.

Comprendre Splunk et l’adopter

Splunk est une solution tendance dans l’industrie depuis un certain temps, mais que connaissons-nous de son utilisation et du marché auquel Splunk est destiné?

Splunk vient du terme anglais « spelunking », en français « spéléologie », qui signifie notamment, l’activité qui consiste à repérer, explorer, étudier et cartographier.

  1. Indexation des données : Splunk collecte les données de différents endroits, les combine puis les stocke dans un index centralisé.
  2. Utilisation des index : l’utilisation des index confère à Splunk un grand degré de rapidité lors des recherches de sources de problèmes.
  3. Filtrage des résultats : Splunk met à la disposition de l’utilisateur plusieurs outils permettant de filtrer les résultats, pour une détection plus rapide du problème.

Depuis plus d’un an j’expérimente avec Splunk sous plusieurs facettes, soit la sécurité, le stockage, l’infrastructure, la télécom et bien plus. Nous possédons chez ESI un laboratoire très complet qui m’a permis de pousser mes expérimentations.

En plus d’utiliser toutes ces quantités de données, j’ai utilisé des données ouvertes pour expérimenter la capacité de Splunk à les interpréter.

J’ai testé les données ouvertes du site « montreal.bixi.com » ; ces données brutes sont formatées de la façon suivante :

Start date – Start station number – Start station – End date – End station number – End station – Account type – Total duration (ms)

Avec ces données, nous sommes capables de trouver les trajets les plus communs, d’estimer la durée moyenne d’un trajet, les points d’ancrage les plus sollicités pour l’entrée ou la sortie des vélos.

Pour l’équipe d’exploitation du service, cela offre en temps réel ou en prévision pour le lendemain, quels points d’ancrage devraient avoir plus de vélos et majoritairement vers où ces vélos vont se diriger. Ils pourraient prévoir le manque ou le surplus de vélos dans les points d’ancrage. Si les données sont récoltées en temps réel, des alertes pourraient être émises pour annoncer un potentiel de surplus ou de manque dans les points d’ancrage. Ainsi le système facilite la planification et permet d’être proactif pour répondre à la demande, plutôt que réactif. Nous serions même en mesure de déceler un vélo non remis; par exemple un vélo qui n’a pas été ancré depuis plus de 24 heures pourrait émettre une alerte, pour que l’équipe d’exploitation tente de retracer le vélo.

Pour les responsables marketing, on pourrait penser que ces données ne sont pas utiles, alors que c’est tout le contraire ; ces mêmes données peuvent servir à mettre en place des offres potentielles pour attirer la clientèle, puisque nous possédons les données qui donnent les heures de départ et d’arrivée, le temps d’utilisation des déplacements et les trajets les plus utilisés. On peut donc connaitre les plages horaires les plus utilisées et ainsi faire des promotions ou ajuster les tarifs en fonction d’objectifs d’achalandage ou de fidélisation de la clientèle.

Pour la direction, les données ouvertes ne donnent malheureusement pas le prix des courses en fonction du statut des utilisateurs (membres ou non-membres), mais la beauté de Splunk est qu’on peut enrichir les données récoltées avec d’autres données provenant d’un système tiers, d’une base de données ou tout simplement collectées manuellement. La direction pourrait alors obtenir des rapports et des tableaux de bord des revenus en fonction de différents facteurs, tels que le statut de l’utilisateur, la durée des déplacements, les jours de la semaine et bien plus. On pourrait même faire des comparaisons avec les mois précédents ou le même mois de l’année précédente. Les limites sont quasi infinies lorsqu’on possède une donnée qui réside dans Splunk ; la seule limite est celle de notre imagination!

Il s’agit bien sûr d’exemples fictifs réalisé avec les données ouvertes disponibles, mais qui pourraient être bien réels avec vos propres systèmes et données.

La collecte d’information d’un site web peut offrir une visibilité pour tous les utilisateurs d’une entreprise, les équipes d’exploitation peuvent recevoir des alertes de surcharge des systèmes, l’équipe marketing reçoit des informations sur la provenance des connexions pour cibler ses campagnes en fonction de ces données, la direction obtient une vue de l’expérience utilisateur, ainsi que les métriques de performance qui confirment les niveaux de services offerts (SLA).

Qu’il s’agisse de sécurité, d’exploitation, de marketing, d’analytique ou autres, Splunk pourra répondre à vos besoins. En plus des 1 200 applications disponibles dans leur portail, vous pouvez créer vos propres tableaux, rapports ou alertes. Vous pouvez utiliser leur « Pivot » pour permettre aux gens d’utiliser facilement les données et bâtir leur propre tableau de bord.

La plateforme est facile à utiliser et ne nécessite pas d’expertise particulière; vous avez seulement besoin des données qui s’y trouvent.

N’hésitez pas à contacter ESI pour obtenir une présentation ou une démonstration; il me fera plaisir de vous montrer à « Splunker ».

Guillaume Paré
Conseiller principal, architecture et technologies – ESI Technologies

Êtes-vous prêts à faire face à toute interruption inattendue?

Nombre de petites et moyennes entreprises ont des lacunes dans leur infrastructure technologique les empêchant de se prémunir face aux imprévus qui causent des interruptions à leurs activités.

Une entreprise a vu ses bureaux dévalisés : les serveurs, ordinateurs, dossiers clients et même les copies de sauvegarde ont disparu. Comment faire pour se relever de cette situation, rapidement, et en minimisant les conséquences? Sans solution de relève, les activités de l’entreprise sont fortement compromises…

Catastrophes naturelles ou industrielles, vols, pannes d’électricité ou bris des télécommunications, piratage, terrorisme… Un arrêt des opérations, même de courte durée, peut mettre en péril votre part de marché, vous faire perdre plusieurs clients importants, et menacer la survie de votre entreprise. Il est primordial pour toute entreprise, quelque soit sa taille, de se préparer à faire face à toute éventualité en protégeant ses actifs informationnels.

Une solution de reprise après sinistre (DRaaS), vous permet d’atténuer les conséquences fâcheuses d’une interruption de vos activités. ESI vous offre la protection de votre environnement sans le fardeau de la dépense et de la gestion d’un site de relève.

Notre service DRaaS vous offre l’accès à notre centre de données certifié Tier III, doté d’équipements des meilleurs manufacturiers et entièrement redondants, qui vous garantit une évolutivité élastique et des conditions d’abonnement flexibles.

Des solutions infonuagiques adaptées à vos besoins, abordables et offertes par une entreprise qui possède plus de 20 ans d’expérience en gestion des données, qui comprend l’importance de la protection et de la sauvegarde de vos actifs… n’attendez pas les situations d’urgence pour en profiter!

Alex Delisle
Vice-président développement des affaires, solutions infonuagiques – ESI Technologies

 

Attaques de déni de service – les comprendre, les éviter

En octobre dernier, une cyberattaque contre le prestataire de services Internet Dyn a rendu inaccessibles de nombreux sites et services Internet, dont plusieurs diffuseurs de nouvelles (Fox News, HBO, CNN, Weather Channel, etc.) et sites de renommée mondiale tels que Netflix, Paypal, Yelp, Starbucks, pour n’en nommer que quelques-uns.

Cette attaque est considérée comme la plus importante attaque de déni de service jamais effectuée. Afin de comprendre un peu mieux ce qui s’est passé, nous allons tout d’abord rappeler quelques notions de base du fonctionnement des communications sur Internet. Nous poursuivrons en parlant des botnets et de leur évolution, avant de voir les spécificités de cette récente attaque. Enfin, nous verrons comment on peut s’en prémunir.

Notions de base des communications Internet

La plupart des communications sur Internet sont de type client-serveur. Le navigateur Internet sert souvent de « client », et envoie des requêtes au serveur, pour lui demander d’afficher une vidéo Youtube par exemple.

Chaque serveur possède une adresse IP. Lorsqu’on navigue sur Google, par exemple, il se peut que le serveur qui répond à notre requête soit différent en fonction de notre localisation géographique. Ceci est rendu possible par l’utilisation d’un système de noms de domaine (ou DNS, pour Domain Name System).

Ces serveurs DNS vont traduire une adresse faite des mots « www.google.com » en une adresse IP. Cette notion est importante pour la compréhension de l’attaque dont Dyn a été la cible.

Historique des botnets

Un botnet (mot anglais issu de la combinaison des mots robot et network) est un réseau d’ordinateurs infectés par un virus, qui les transforme en des entités passives qui restent à l’écoute de futures instructions. La personne qui contrôle le botnet peut ensuite envoyer des commandes à son armée d’ordinateurs infectés. Elle peut, par exemple, demander à ses « robots » d’envoyer des pourriels (spam) ou de lancer des attaques de déni de service (DDoS). Le caractère distribué de cette architecture rend la détection des attaques distribuées difficiles.

Avec la miniaturisation et le coût toujours décroissant des appareils informatiques, de plus en plus d’objets deviennent « connectés ». Cela crée un réseau toujours plus grand d’imprimantes, d’appareils photo IP et de toutes sortes d’objets qui sont connectés sur Internet. Tous ces objets sont en fin de compte de petits ordinateurs, et comme tous les ordinateurs, ils sont vulnérables aux attaques. De plus, puisque peu de gens prennent le temps de configurer ces objets connectés, la plupart d’entre eux se retrouvent configurés avec les mots de passe par défaut, ce qui rend encore plus simple pour un attaquant de les compromettre et de les infecter par des virus.

Nous nous retrouvons donc dans une situation où de très nombreux objets connectés sur Internet sont infectés par un virus. Et ces objets, comme les appareils photo IP, sont allumés en permanence, contrairement à nos ordinateurs. Lors du plus récent déni de service, ce botnet a réussi à générer jusqu’à 1,2 To de données par seconde! C’est un débit de données qui équivaut à près de 2000 films de qualité DVD envoyés par seconde!

Pourquoi cette attaque a-t-elle fait si mal?

Les attaques de déni de service visent traditionnellement les serveurs ou les sites Internet de compagnies qui sont ciblés soit pour des raisons d’activisme (hacktivism), soit dans le but d’extorquer de l’argent.

Les raisons de cette attaque ne sont pas encore connues, mais ce qui la diffère des attaques précédentes, c’est la cible. Pour la première fois, ce ne sont pas les serveurs de sites qui ont été visés, mais les serveurs DNS de la compagnie Dyn.

Les sites de Twitter, Paypal et Netflix, par exemple, étaient pleinement fonctionnels. Mais en nous empêchant de savoir l’adresse des serveurs auxquels se connecter, cette attaque a rendu tous ces sites inaccessibles.

Comment se défendre face à ces attaques?

Les attaques de déni de service suivent souvent un schéma bien établi. Une première façon de se protéger consiste donc à utiliser des systèmes qui vont détecter les signatures de ces attaques.

Une autre façon de se prémunir est d’implémenter de la redondance sur les serveurs. En utilisant des équilibreurs de charge (load balancer), on peut intelligemment diriger le trafic sur plusieurs serveurs, et ainsi améliorer la résilience du système face à de hauts débits de trafic.

Mais ce n’est pas tout! Il faut également se prémunir contre les infections, pour empêcher que l’un de nos systèmes ne devienne membre d’un botnet. Pour cela, il faut dans un premier temps protéger les ordinateurs avec des logiciels d’antivirus.

Cependant, de nombreux objets connectés sont des systèmes trop simples pour installer un antivirus. Il est donc primordial d’analyser le trafic réseau entrant dans votre réseau d’entreprise, à la fois pour y détecter les menaces connues et les vulnérabilités de type « zero-day ».

Il est possible de minimiser encore les risques d’infection de vos systèmes en effectuant la corrélation et la surveillance des journaux d’événements, comme par exemple, la surveillance de réseau et systèmes en continu, qui fait partie des services offerts par ESI Technologies.

Enfin, il est très important de garder ses systèmes à jour, afin de minimiser le risque que des vulnérabilités connues soient exploitables et utiliser des mots de passe uniques et complexes. Il existe des logiciels de gestion de mots de passe pour vous faciliter la vie.

Une firme spécialisée en sécurité comme ESI Technologies sera en mesure de vous accompagner dans l’analyse de vos besoins et la sélection des solutions les plus performantes et efficaces pour atténuer les risques d’attaques de type botnet sur vos systèmes.

Tommy Koorevaar, conseiller en sécurité – ESI Technologies

Stratégie infonuagique : collecte de données

Voici le volet 6 de notre série portant sur les questions clés à considérer dans l’adhésion des technologies infonuagiques. Ce mois-ci, nous discutons de l’élaboration d’une stratégie et des points de données à ne pas négliger.

Dans l’élaboration d’une stratégie infonuagique, les entreprises doivent réfléchir aux résultats souhaités, à des objectifs quantifiables assortis de délais et identifier les initiatives précises à entreprendre afin d’exécuter la stratégie et atteindre les objectifs visés. Comme l’ont démontré les sondages sur le sujet réalisés par Gartner en 2013 et 2014, les processus et la culture de l’organisation sont susceptibles d’être des obstacles majeurs dans toute migration vers le cloud. Il faut donc prendre en compte tous les aspects de l’entreprise et recueillir la bonne information peut aider à renforcer la bonne stratégie et identifier les problèmes potentiels à l’avance.
La première étape concrète dans l’élaboration de cette stratégie consiste à rassembler les informations permettant d’identifier et définir les objectifs, buts et démarches de l’entreprise à court et moyen terme. Une fois les données recueillies, vous pourrez examiner, analyser et identifier les résultats d’affaires souhaités, définir des cibles (quantifiables) et les démarches spécifiques à mettre en place pour y parvenir. Votre démarche ne doit pas uniquement reposer sur un prix ou une évaluation technologique.

Collecte de données
Les points de données nécessaires devront provenir de tous les secteurs de l’entreprise (unités d’affaires, finances, RH et TI). Certaines des informations requises pourraient prendre la forme de fichiers, mais une grande partie de l’information proviendra des employés eux-mêmes, et il faut donc prévoir des entrevues dans le processus de collecte de données. Chaque entrevue devrait nécessiter quelques heures et se concentrer sur les tâches des personnes interrogées, les processus utilisés et nécessaires et les résultats souhaités, pour donner un aperçu des impacts réels à l’entreprise avant de créer votre stratégie cloud.

Avec ces données, vous serez en mesure de rendre compte de tous les aspects reliés à l’infonuagique, identifier ce qui aura une incidence et évaluer les impacts positifs ou négatifs pour vous aider à décider de votre stratégie à l’avenir.

Benoit Quintin – directeur services infonuagiques, ESI Technologies

Compte-rendu de NetApp Insight 2016

L’édition 2016 du NetApp Insight a eu lieu à Las Vegas du 26 au 29 septembre. Encore cette année, NetApp s’est employée à présenter sa vision ‘Data Fabric’ dévoilée il y a deux ans. Selon NetApp, la croissance en capacité, vélocité et variété des données ne peut plus être gérée par les outils habituels. Comme l’a déclaré le CEO de NetApp George Kurian « les données sont la devise de l’économie numérique » et NetApp veut se comparer à une banque pour aider les entreprises à gérer, déplacer et globalement faire fructifier leurs données. L’enjeu actuel de l’économie numérique est donc la gestion de données et NetApp entend clairement être un leader dans ce domaine. Cette vision se concrétise de plus en plus nettement chaque année à travers les produits et plateformes ajoutés au portfolio.

Nouvelles plateformes matérielles

NetApp a profité de la conférence pour présenter officiellement ses nouvelles plateformes matérielles, qui intègrent des ports 32Go FC SAN, 40GoE réseau, du cache lecture NVMe SSD en standard et des ports SAS-3 12Go pour le stockage back-end. De plus, les FAS9000 et AFF A700 utilisent un nouveau châssis entièrement modulaire (y compris pour le module contrôleur) qui facilitera les mises à jour matérielles futures.

À noter que les plateformes SolidFire ont fait l’objet d’une attention particulière, de la part de NetApp et du public : le premier pour expliquer son positionnement dans le portfolio, le deuxième pour en savoir plus sur cette technologie extrêmement agile et innovatrice. https://www.youtube.com/watch?v=jiL30L5h2ik

Nouvelles solutions logicielles

  • SnapMirror pour AltaVault, disponible bientôt à travers la plateforme SnapCenter (remplaçant de SnapDrive/SnapManager) : cette solution permet de sauvegarder les données NetApp d’un volume (incluant les bases de données d’application) directement dans le cloud (AWS, Azure et StorageGrid). https://www.youtube.com/watch?v=Ga8cxErnjhs
  • SnapMirror pour SolidFire est en développement. Aucun autre détail n’a filtré.

La présentation de ces fonctionnalités renforce l’objectif de proposer une couche de gestion de données unifiée à travers le portfolio NetApp.

  • Cloud Sync permet de synchroniser des données NFS d’un serveur vers AWS et vice-versa de manière extrêmement rapide (disponible maintenant)  https://www.youtube.com/watch?v=fVyRTygpggM
  • SaaS Data Protection Service permet de sauvegarder des services Office 365 vers le cloud (AWS, stockage dédié AltaVault, Azure Blob, Amazon S3, stockage on-premise ou NetApp Private Storage). La disponibilité n’a pas été annoncée. https://www.youtube.com/watch?v=a983gqI9pKM

Ces deux dernières solutions sont plus étonnantes car elles ne requièrent aucun équipement NetApp pour être utilisées. Elles sont disponibles sur le magasin d’applications AWS (SaaS).

En conclusion, on sent que NetApp prend les moyens pour être un joueur important dans le domaine du « software-defined », tout en mettant à niveau ses plateformes matérielles pour être prêt à relever les défis actuels de l’industrie de stockage.

Olivier Navatte, conseiller principal – Architecture de stockage