Comment les mégadonnées changent les règles du monde bancaire

La banque en ligne a été une offre gagnant-gagnant pour les institutions bancaires et leurs clients. Ces derniers bénéficient de la rapidité et de la commodité du libre-service, tandis que les banques font d’importantes économies sur les coûts de transaction. Mais pour plusieurs banques de consommateurs en particulier, le passage aux services en ligne a également signifié la perte de l’engagement critique des clients que les succursales ont longtemps fourni. Lorsque les services bancaires en ligne se ressemblent à peu près tous, les banques doivent trouver de nouvelles façons de se distinguer. En tirant parti de l’infonuagique et de l’analytique Big Data, les banques peuvent intégrer de nouvelles façons innovantes par les plateformes web et mobile.

Dans un rapport récent décrivant une nouvelle vision numérique pour les banques de consommateurs, Accenture présente des exemples de ce que certaines banques font déjà pour améliorer l’expérience en ligne et renforcir leurs liens avec leur clientèle.

  • Banco Bilbao Vizcaya Argentaria d’Espagne capture plus de 80 caractéristiques de transaction chaque fois que les clients utilisent leur carte de débit et utilise ces informations pour aider les consommateurs à gérer et à prévoir leurs dépenses courantes.
  • BNP Paribas Fortis de Belgique s’est associée au plus important fournisseur de télécommunications du pays pour créer une plateforme de commerce électronique mobile qui permet aux consommateurs de magasiner et payer les produits à partir de leurs téléphones intelligents. Ce service aide les consommateurs à trouver des commerces et permet aux entreprises locales d’être payées plus rapidement, ce qui est bon pour les activités commerciales de la banque.
  • La Commonwealth Bank d’Australie dispose d’une application mobile qui permet aux clients d’utiliser la réalité augmentée pour obtenir des informations détaillées sur les propriétés résidentielles qui les intéressent en pointant simplement la caméra de leur téléphone intelligent sur la maison en question. L’application indique également aux utilisateurs à combien s’élèverait exactement leurs paiements hypothécaires à la banque.
  • Cinq des plus grandes banques canadiennes se sont associées à Sensibill pour intégrer la fonctionnalité automatisée de gestion des reçus dans leurs applications bancaires numériques. Les clients peuvent utiliser le service pour organiser les reçus et obtenir des rapports qui les aident à faire leur budget.

Ces efforts sont couronnés de succès parce que les banques ne se considèrent plus comme des gestionnaires d’argent. Elles ont élargi leur champ d’action pour devenir des alliés de leurs clients en les aidant à devenir plus efficaces et à réaliser leurs projets.

L’infonuagique offre des capacités sans précédent aux banques pour intégrer d’autres services dans leurs applications de base par des API. Par exemple, plusieurs institutions financières offrent maintenant des fonctionnalités de rapports de crédit gratuites. Les agences de crédit sont ravies de promouvoir leurs marques grâce à ce type d’intégration, et elles collaborent volontiers avec les banques.

Lorsque le cloud se combine aux mégadonnées (ou Big Data), les banques peuvent utiliser les connaissances existantes sur leurs clients pour travailler de façon différente. Par exemple, elles peuvent segmenter les clients par leurs comportements d’épargne et de consommation et proposer des services adaptés à différents budgets. Elles peuvent cibler des services vers des segments distincts de clients en fonction de la géographie ou du groupe d’âge en superposant les données démographiques sur les données des clients. Elles peuvent même écouter les conversations sur les réseaux sociaux pour identifier des occasions d’offrir, par exemple, des prêts automobiles aux amateurs de certaines marques ou modèles de véhicules.

Les principaux obstacles à ce type de transformation ne sont pas techniques mais plutôt culturels. Si les banques ne se perçoivent que comme des intendants de l’argent, elles limitent leur potentiel de rupture avec leurs niches traditionnelles. Mais lorsque les institutions bancaires se considèrent comme des alliés dans le succès financier de leurs clients, elles peuvent profiter de l’infonuagique et des Big Data pour développer et enrichir les relations avec leurs clients. L’application mobile est la nouvelle succursale, et un bon fournisseur de services peut aider votre institution financière à réaliser son potentiel de transformation.

Conseils pour une migration sans souci vers une infrastructure définie par logiciel

Selon certaines estimations, 70% des serveurs dans les centres de données d’entreprise sont maintenant virtualisés, ce qui signifie que presque toutes les entreprises bénéficient de la flexibilité, des taux d’utilisation élevés et de l’automatisation que fournit la virtualisation.

Si vous en faites partie, vous pourriez être tenté de déplacer votre réseau, votre stockage et vos ordinateurs de bureau vers une infrastructure de type « software-defined » (SDI) le plus vite possible. C’est une excellente stratégie à long terme. En fait, Gartner prédit que l’infrastructure programmatique sera une nécessité pour la plupart des entreprises d’ici 2020. Mais vous devriez y aller à votre rythme et pour les bonnes raisons. Ne précipitez pas ce changement et soyez conscient de ces pièges courants.

Avoir une stratégie et un plan. Pensez à ce que vous souhaitez virtualiser et pourquoi vous voulez le faire. Les raisons les plus communes incluent l’amélioration de l’efficacité de l’équipement que vous avez déjà, l’amélioration des performances des applications ou la création des bases pour le cloud hybride. Connaitre vos objectifs vous donnera, ainsi qu’à votre partenaire technologique, un meilleure solution sur ce qu’il faut migrer et quand.

Soyez conscient que plusieurs zones SDI en sont encore à leurs débuts et que les normes sont incomplètes ou inexistantes. Ce qui fait que les applications critiques ne sont pas de bonnes candidates pour une migration hâtive. Commencez par des applications à faible risque et implémentez-les par étapes, en sachant qu’une migration complète peut prendre des années et que certains actifs hérités ne valent peut-être pas la peine d’être virtualisés. Si vous en êtes à vos débuts, envisagez de virtualiser une petite partie de votre infrastructure, comme les pare-feu ou quelques postes de travail, pour vous familiariser avec le processus.

Si SDI offre une grande flexibilité, elle introduit également la complexité. Vous aurez maintenant une couche virtuelle à surveiller en plus de vos couches physiques existantes. Ce n’est pas une raison pour ne pas le faire, mais sachez que les tâches de gestion et de dépannage peuvent devenir un peu plus complexes.

Cartographier les dépendances. Dans un monde idéal, toutes les interfaces entre logiciel et matériel seraient définies logiquement, mais nous savons que nous ne sommes pas dans un monde idéal. Dans la précipitation pour lancer ou réparer une application, les développeurs peuvent créer des raccourcis en spécifiant les dépendances physiques entre, par exemple, une base de données et un périphérique de stockage. Ces connexions peuvent échouer si le stockage est virtualisé. Comprenez où existent de telles dépendances et réparez-les avant d’introduire une couche définie par logiciel.

SDI nécessite également une nouvelle approche de la gestion des systèmes. Étant donné que de nouveaux dispositifs peuvent être introduits dans le réseau avec peu ou pas d’intervention manuelle, il est difficile de prévoir leur impact sur les performances à l’avance. Assurez-vous de prendre en compte les analyses et les mesures de gestion de la performance dans votre planification afin de pouvoir modéliser l’impact des modifications avant de les faire.

Utiliser les normes. Plusieurs normes SDI sont encore en cours de développement. Bien que la plupart des vendeurs s’engagent bien à adhérer à un ensemble de normes de base, ils peuvent également inclure des extensions de propriété susceptibles d’affecter la compatibilité avec des produits tiers. Pour vous assurer le plus grand degré de souplesse, recherchez des solutions conformes aux normes Open Networking Foundation’s OpenFlow et OpenSDS pour le stockage.

SDI dépend fortement des interfaces des programmes d’application pour la communication. Étant donné qu’il n’existe pas de normes universelles pour les API d’infrastructure, elles sont une source potentielle de verrouillage si votre solution SDI nécessite des API spécifiques à un fournisseur particulier. Recherchez plutôt des solutions qui respectent les API définies par les normes de l’industrie.

Doubler la sécurité. Les connexions virtuelles créent certaines vulnérabilités de sécurité qui n’existent pas dans un monde où tout est physiquement attaché. Par exemple, le cœur d’un réseau défini par logiciel est un contrôleur SDN, qui gère toutes les communications entre les applications et les périphériques réseau. Si le contrôleur est violé, le réseau entier est en danger, il est donc essentiel de choisir une plateforme de confiance avec la possibilité de valider les nouvelles composantes et applications. Assurez-vous que les plateformes qui gèrent vos processus virtuels sont verrouillées.

Ne pas négliger le facteur humain. Un des grands avantages de SDI est qu’il permet d’automatiser de nombreux processus autrefois manuels. Ceci aura une incidence sur les compétences dont vous aurez besoin dans votre centre de données. Une connaissance approfondie du matériel deviendra moins importante que la capacité de gérer les applications et l’infrastructure à un niveau élevé. Préparez votre personnel pour ce changement et soyez prêt à reconvertir les personnes que vous croyez capables de faire la transition.

Ces quelques pièges modestes ne devraient pas vous empêcher de préparer votre organisation à tirer parti des nombreux avantages de SDI. Travailler avec un partenaire expérimenté est le meilleur moyen d’assurer une migration en douceur et couronnée de succès.

Informatique agile : une meilleure façon de faire des affaires

Une des nouvelles idées les plus puissantes provenant de la révolution infonuagique est l’agilité informatique. Les entreprises agiles peuvent s’adapter facilement aux besoins changeants de l’entreprise en fournissant rapidement des applications et des infrastructures à ceux qui en ont besoin. Votre entreprise a-t-elle ce qu’il faut pour être vraiment agile?

Il existe de nombreux composants à l’infrastructure informatique agile, mais trois que nous estimons particulièrement importants sont les conteneurs, les microservices et l’automatisation. Ceux-ci forment la base de la nouvelle génération d’applications natives de l’infonuagique, et peuvent être utilisés par toute organisation pour révolutionner la rapidité et l’agilité de la livraison d’applications pour soutenir l’entreprise.

Conteneurs : rapides et flexibles

Les conteneurs sont une sorte de machine virtuelle légère, mais ils en diffèrent de manière fondamentale. Les conteneurs s’exécutent en tant que groupe de processus nommés dans un système d’exploitation, chacun ayant un accès exclusif aux ressources telles que le processeur, la mémoire et tous les éléments de support nécessaires à une application. Ils sont généralement stockés dans des bibliothèques pour réutilisation et peuvent être démarrés et arrêtés en quelques secondes. Ils sont également portables, ce qui signifie qu’une application s’exécutant dans un conteneur peut être déplacée vers n’importe quel autre environnement qui prend en charge ce type de conteneur.

Les conteneurs ne sont sur l’écran radar TI que depuis environ trois ans, mais ils sont adoptés avec une vitesse étonnante. Une étude récente a révélé que 40% des organisations utilisent déjà des conteneurs en production et seulement 13% n’ont pas l’intention de les adopter dans la prochaine année. Les conteneurs sont particulièrement populaires auprès des développeurs, car ils peuvent configurer et lancer leurs propres espaces de travail, sans encourir le retard et les frais généraux d’impliquer les équipes informatiques.Microservices : une meilleure approche des applications

L’utilisation de conteneurs va souvent de pair avec l’adoption d’une architecture de microservices. Les applications conçues à partir de microservices sont basées sur un réseau de services modulaires déployables indépendamment qui utilisent un mécanisme de communication léger tel qu’un protocole de messagerie. Imaginez un objet assemblé à partir de blocs Lego. Les blocs individuels en eux-mêmes n’ont pas une grande valeur, mais lorsqu’ils sont combinés, ils peuvent créer des structures élaborées.

L’architecture axée sur les services n’est pas nouvelle, mais la technologie a enfin évolué au point qu’il est pratique de repenser les applications sous cette forme. L’approche par microservices est plus souple et efficace que les applications intégrées verticalement qui ont dominé les TI depuis des décennies. En assemblant les applications à partir de bibliothèques de services, la duplication est minimisée et les logiciels peuvent être déployés en production beaucoup plus rapidement. Il y a moins de tests de surcharge et une exécution plus efficace, car les développeurs peuvent se concentrer sur l’amélioration de microservices existants plutôt que de réinventer la roue à chaque projet.

Les conteneurs constituent une plateforme idéale pour les microservices. Ils peuvent être lancés rapidement et personnalisés pour utiliser uniquement les ressources dont ils ont besoin. Un microservice unique peut être utilisé à bien des égards par plusieurs applications différentes. Les logiciels d’orchestration tels que Kubernetes assurent la maintenance, gèrent les exceptions et équilibrent constamment les ressources dans un cluster.

Automatisation : quitter la routine

L’automatisation est essentielle pour maintenir le fonctionnement en douceur de cet environnement complexe. Des outils logiciels libres populaires tels que Puppet et Ansible permettent de gérer plusieurs tâches auparavant effectuées par des administrateurs de systèmes, telles que la définition de stratégies de sécurité, la gestion des certificats, l‘équilibrage du traitement des charges et l’attribution d’adresses réseau par des scripts automatisés. Les outils d’automatisation ont été développés par des entreprises natives du cloud afin de leur permettre de gérer des opérations informatiques à grande échelle sans des légions d’administrateurs, mais les outils sont utiles dans n’importe quel contexte.

L’automatisation non seulement économise de l’argent mais améliore la satisfaction au travail. Les tâches manuelles routinières peuvent être assignées aux scripts afin de donner aux administrateurs des activités plus importantes et stimulantes. Et en période de grave pénurie de main-d’œuvre informatique, qui ne veut pas d’employés plus heureux?

L’informatique agile rend les entreprises plus simples, plus réactives et plus rapides. Lorsqu’elle est planifiée et exécutée avec l’aide d’un partenaire d’intégration expérimenté, elle économise également de l’argent.

Services infonuagiques : les petits fournisseurs sont un meilleur choix!

Lorsque vous achetez du vin, allez-vous dans un grand magasin d’escompte ou chez un détaillant spécialisé? Vous faites probablement les deux selon la situation. Le grand magasin a la sélection et les bas prix, mais les employés des marchés spécialisés vous offre des conseils que vous ne trouverez pas ailleurs.

La même dynamique s’applique au choix d’un fournisseur de services infonuagiques. Lorsque vous pensez à des fournisseurs de cloud, quatre ou cinq noms de sociétés vous viennent sans doute immédiatement à l’esprit. Mais si vous cherchez sur Google des fournisseurs de cloud en fonction de la satisfaction de la clientèle ou par pertinence pour les petites entreprises, vous trouverez une liste bien différente. Il existe des centaines de petits fournisseurs régionaux et spécialisés en service d’infrastructure (IaaS) dans le marché. Dans plusieurs cas, ils offrent une valeur que les géants ne peuvent égaler. Voici cinq raisons de les considérer.

Service à la clientèle : c’est sans doute la première raison de choisir un plus petit fournisseur d’hébergement. Si vous avez un problème, vous pouvez généralement parler à quelqu’un au téléphone. Avec le temps, le fournisseur de services apprend à vous connaitre et peut vous proposer des conseils ou des rabais exclusifs. La grande compagnie ne peut tout simplement pas offrir ce type de service personnalisé.

Expertise spécialisée : vous pouvez trouver des applications pour à peu près tout ce qui existe auprès des grands fournisseurs cloud, mais après cela, vous êtes laissé à vous-même. Si vous éprouvez des difficultés avec les fichiers de configuration et si le dépannage des messages d’erreurs Apache n’est pas votre point fort, cherchez un fournisseur de services spécialisé dans les tâches que vous essayez d’accomplir. Non seulement vous obtiendrez un service personnalisé, mais les personnes sont des experts des solutions qu’elles supportent. Elles vont trouver des réponses à vos questions rapidement.

Un sourire et une poignée de main : il existe plusieurs bonnes raisons de choisir un fournisseur dans votre région géographique. D’une part, les lois sur la protection des données imposées par le gouvernement peuvent l’exiger. Les fournisseurs locaux offrent également une touche personnelle que les centres d’appels ne peuvent procurer. Vous pouvez visiter leurs installations, les rencontrer pour planifier les besoins de votre service et obtenir des recommandations pour des développeurs ou entrepreneurs dont vous pourriez avoir besoin. Plusieurs petits fournisseurs offrent également des options de colocation et des sauvegardes sur site et des services de reprise après sinistre. Dans un monde de technologie où tout semble devenu virtuel, il est agréable de mettre un nom sur un visage.

Faible coût : cela semble contradictoire, mais la réalité est que plusieurs fournisseurs spécialisés offrent de meilleurs prix que les géants du cloud. C’est particulièrement vrai lorsqu’ils se spécialisent dans une application telle que WordPress ou Drupal, ou dans un service comme la sauvegarde. Ces entreprises tirent parti d’économies d’échelle pour offrir des prix concurrentiels, et vous profitez de tous les autres avantages de leur expertise spécialisée. Comparez les prix, vous pourriez être surpris.

Performance : si les principaux utilisateurs du service infonuagique sont des personnes de votre entreprise ou dans votre région géographique, vous obtiendrez probablement de meilleures performances avec un fournisseur local. C’est une simple loi physique. Plus les électrons voyagent loin, plus ils prennent du temps à atteindre leur destination. Ceci est particulièrement important à considérer si vous prévoyez utiliser des services comme le stockage infonuagique ou si vous devez transférer de gros fichiers, un processus susceptible d’entrainer des erreurs qui ne fait que s’aggraver avec la distance.

Cloud public, privé ou hybride? Faites le bon choix!

Vous savez que vous souhaitez aller vers l’infonuagique, mais vous ne savez pas laquelle des trois options – publique, privée ou hybride – vous convient. Nous sommes là pour vous aider avec cet aperçu rapide des trois possibilités, ainsi que les avantages et inconvénients de chacune.

Cloud public

Imaginez un serveur dans le ciel. L’infonuagique publique, également connue sous le nom d’infrastructure en tant que service (IaaS), procure l’équivalent d’un centre de données dans un environnement virtuel hautement évolutif accessible par Internet. Les clients peuvent s’approvisionner en serveurs virtuels (les « instances ») et ne paient que pour la capacité utilisée. Plusieurs fonctionnalités de cloud public sont automatisés pour le libre-service. Les utilisateurs peuvent déployer leurs propres serveurs selon leurs besoins et sans l’implication des TI. La comptabilité et la refacturation sont automatisées. En fait, les organisations trouvent souvent que le cloud public offre les économies les plus importantes, non pas en coûts d’équipement, mais en frais administratifs généraux.

Les applications les mieux adaptées au cloud public sont celles qui sont déjà virtualisées ou exécutées sur des systèmes d’exploitation Linux ou Windows non modifiés. Les applications vendues prêtes à l’utilisation en sont un bon exemple. L’infonuagique publique est également une bonne plateforme à utiliser pour évaluer et tester de nouvelles applications, puisque plusieurs fournisseurs de cloud public offrent une grande variété d’applications payables à l’utilisation. Le cloud public est également bien adapté au développement d’applications conçues pour le cloud, comme les applications mobiles.

L’infonuagique publique n’est pas idéale pour chaque utilisation. Les applications locales sur des plateformes existantes ou celles ayant d’importantes interdépendances pourraient ne pas être faciles à migrer. Les organisations qui ne portent pas attention à la gestion des instances peuvent finir par payer pour des capacités non utilisées. Il existe également des frais cachés à prendre en compte, tels que les frais additionnels pour les téléchargements et téléversements de données ou pour des niveaux de service garantis. Des enjeux règlementaires peuvent également limiter l’utilisation de l’infonuagique publique pour certaines applications.

Cloud privé

L’infonuagique privée est essentiellement un cloud public réservé à l’usage d’un client unique. Les cloud privés peuvent être construits sur site à l’aide de logiciels de virtualisation et d’automatisation, ou sous licence de fournisseurs qui offrent des services infonuagiques soit de leurs propres centres de données ou même dans les locaux du client.

Le cloud privé est populaire auprès des entreprises qui ont besoin d’un contrôle strict sur les données, que ce soit pour des raisons de sécurité, de confidentialité ou de règlementation. Dans les industries règlementées qui spécifient comment les données des clients doivent être conservées et gérées, c’est parfois la seule option infonuagique possible. Le cloud privé est aussi attrayant pour les compagnies qui ont besoin de niveaux de service garantis sans l’imprévisibilité de l’Internet public. Enfin, il offre le plus haut niveau de contrôle pour les entreprises qui souhaitent une visibilité en profondeur sur qui utilise les ressources et comment.

L’infonuagique privée est en général plus dispendieuse que l’option publique car les fournisseurs de services doivent attribuer des capacités exclusives à l’environnement dédié. Cependant, ce n’est pas toujours le cas. Pour les entreprises ayant des investissements importants dans les infrastructures existantes, un cloud privé sur site est une bonne façon d’ajouter de la flexibilité, de l’automatisation et de l’autosuffisance tout en préservant la valeur de leur équipement. Pour des charges de travail prévisibles, cela peut être le modèle le plus économique.

Cloud hybride

Cette option est la plus populaire auprès des grandes entreprises, et devrait dominer le paysage de l’infonuagique dans un avenir prévisible. Le cloud hybride combine des éléments du cloud public et privé de façon à permettre aux organisations de déplacer les charges de travail de manière flexible tout en gardant un contrôle strict sur leurs actifs les plus importants. Les entreprises déplacent généralement les fonctions qui sont traitées plus efficacement sur un cloud public mais conservent les autres à l’interne. Le cloud public peut servir d’extension à un centre de données interne ou être dédié à des utilisations spécifiques, telles que le développement d’applications. Par exemple, une application mobile développée dans le cloud public peut tirer des données d’un entrepôt de données dans un cloud privé.

Beaucoup des avantages du cloud hybride sont les mêmes que ceux de l’infonuagique privée : contrôle, sécurité, confidentialité et niveaux de services garantis. Les organisations peuvent conserver leurs données les plus sensibles sur site mais en transférer une partie vers le cloud public à moindre coût. Elles peuvent également réduire les coûts en utilisant l’infonuagique publique pour gérer des pointes occasionnelles d’activité qui surtaxent leur propre infrastructure, une tactique connue sous le nom de « cloud bursting ». Le cloud hybride est également une étape de transition utilisée par les entreprises lorsqu’elles passent d’une infrastructure sur site à une infrastructure infonuagique publique.

Il existe beaucoup plus de dimensions à considérer pour décider quel type de cloud est le meilleur. Un bon fournisseur de services gérés peut vous aider à comprendre les options et à estimer les avantages et les inconvénients de chaque option disponible.

Il est temps de repenser la cybersécurité.

Pendant plusieurs années, les organisations ont concentré leurs efforts de sécurité sur la protection des terminaux. Les pare-feu, les logiciels antivirus, la détection d’intrusion et les outils contre les logiciels espions sont tous efficaces, mais ils sont impuissants à arrêter la grande majorité des menaces.

Un récent sondage de ServiceNow auprès de 300 responsables de la sécurité de l’information dévoile que 81% sont très préoccupés des intrusions qui ne sont pas traitées et 78% s’inquiètent même de leur capacité à les détecter. L’indice X-Force Threat Intelligence d’IBM rapporte une augmentation de 566% du nombre d’enregistrements compromis en 2016 comparativement à l’année précédente. FireEye rapporte que le temps moyen pris par une organisation pour détecter une intrusion est supérieur à 200 jours.

Les mesures de sécurité des terminaux deviendront moins efficaces à mesure qu’ils proliféreront. Les téléphones intelligents ont introduit une toute nouvelle catégorie de menaces, et l’Internet des objets (IoT) ajoutera des milliards de périphériques terminaux aux réseaux dans les années à venir, dont beaucoup ne sont que peu ou pas sécurisés.

C’est pourquoi la cybersécurité, selon les mots du chef de la direction de Cisco Chuck Robbins, «doit débuter dans le réseau». Cette approche privilégiée par Cisco reconnait la réalité que les intrusions sont devenues inévitables mais qu’elles ne doivent pas être débilitantes. La popularité croissante des centres d’opérations de sécurité démontre que les organisation informatiques portent leur attention dans la création de vues intégrées de toutes les activités qui se déroulent sur leurs réseaux, y compris les applications, les bases de données, les serveurs et les terminaux, et adoptent des outils permettant d’identifier les modèles qui indiquent une violation. Par exemple, des tentatives d’accès multiples provenant d’une certaine adresse IP ou de transferts importants de fichiers sortants peuvent indiquer une intrusion, et cette activité peut être arrêtée avant qu’elle ne cause beaucoup de dommages.

Heureusement, la technologie évolue pour soutenir cette approche axée sur le réseau. Les plateformes Big Data comme Hadoop ont rendu le stockage de grandes quantités de données pour analyse pratique et abordable pour les entreprises. Les plateformes de diffusion en continu telles qu’Apache Spark et Kafka peuvent capturer et analyser les données en temps quasi réel. Les programmes d’apprentissage machine, lorsqu’ils sont appliqués à de larges magasins de données comme Hadoop, peuvent trier en permanence les journaux de réseau et de serveurs pour trouver les anomalies, devenant progressivement « plus intelligents ».

De son côté, l’infonuagique présente de nouvelles options de déploiement. C’est pourquoi la sécurité migre rapidement d’équipement dédié vers des solutions infonuagiques utilisant un modèle de logiciel sous forme de service (SaaS). Grandview Research estime que le marché des services gérés de sécurité qui valait plus de 17.5 milliards de dollars en 2015 augmentera à plus de 40 milliards de dollars en 2021. Au fur et à mesure que les organisations virtualisent leurs réseaux, ces services seront intégrés aux services réseau de base. Cela signifie la fin des mises à niveau de microcodes, des visites sur le site pour réparer les pare-feu et des mises à jour de signature contre les logiciels malveillants.

Il est trop tôt pour affirmer que la lutte contre les cybercriminels est gagnée, mais les signes sont au moins prometteurs. Il est encourageant de voir Cisco faire de la sécurité une pièce maitresse de sa stratégie. Deux acquisitions récentes (Jasper et Lancope) donnent à Cisco une présence prépondérante dans la sécurité IoT infonuagique et les capacités approfondies d’apprentissage pour l’analyse des menaces et des réseaux. La société a déclaré que la sécurité sera intégrée à chaque nouveau produit qui sera à l’avenir mis en marché. C’est peut-être pour cela que Robbins a appelé son entreprise « la seule entreprise de sécurité de 2 milliards de dollars qui va croitre du double ».

Les solutions de sécurité ne suffisent pas à prévenir les ransomware. Assurez-vous d’avoir une bonne stratégie de relève.

Si la notion de « ransomware » (rançongiciel en français) vous était inconnue jusqu’à maintenant,  l’attaque du 12 mai dernier du virus WannaCryptor qui a eu des répercussions mondiales dans toutes les sphères d’activités vous a certainement sensibilisé aux conséquences de ces attaques qui ne connaissent pas de frontières.

Les attaques informatiques par ransomware coûtent des millions de dollars par année aux entreprises et deviennent de plus en plus sophistiquées et difficiles à éviter. La particularité de ce type d’attaque est qu’elle se répand rapidement à travers les fichiers partagés, et ce parfois en quelques heures, comme l’attaque du 12 mai l’a démontré. Le ransomware s’infiltre généralement par le point le plus faible du réseau, généralement le compte courriel de l’utilisateur ou les sites de réseautage social.Le ransomware verrouille l’ordinateur ou chiffre les fichiers, exigeant le paiement d’une «rançon» pour rendre aux utilisateurs l’accès à leurs données. Mais le paiement de la rançon ne garantit pas la récupération des données*, sans compter que les entreprises qui cèdent au chantage des pirates deviennent des cibles de choix pour une prochaine fois…

Si vous êtes chanceux, votre entreprise a été épargnée par le virus et vous vous félicitez d’y avoir échappé. Dans ce cas, retenez la leçon : vous avez eu de la chance cette fois-ci, mais soyez assuré que ce type d’attaque se reproduira, et que votre entreprise pourrait fort bien en être victime la prochaine fois.

Les entreprises prévoyantes ont investi des sommes souvent considérables pour sécuriser leurs environnements informatiques et les données qui y transitent, données qui sont souvent critiques et dont la destruction peut mettre en péril la continuité des activités. Bien que les solutions de sécurité fassent partie de l’équation lorsqu’il s’agit de protéger vos actifs, elles ne sont qu’une partie de la stratégie pour contrer ces menaces.

Une solution complète pour vous prémunir contre les attaques virales doit impérativement inclure un plan de relève et des copies de sauvegarde accessibles et complètes afin de pouvoir restaurer votre environnement tel qu’il était avant l’attaque.

La mise en place d’un plan de relève vous procure l’assurance de pouvoir vous relever rapidement et de minimiser votre période d’inactivité, qui est souvent le maillon faible dans la gestion des attaques informatiques. En effet, plus vite vous reprendrez votre rythme de croisière, moins vos clients et fournisseurs auront à se tourner vers des alternatives qui pourraient, à terme, coûter très cher à votre entreprise et à sa réputation, allant même jusqu’à la mettre à risque.

Les entreprises soumises à des normes de conformité spécifiques à leur industrie sont en général sensibilisées et mieux outillées pour rapidement restaurer leur infrastructure en cas d’attaque. Pour savoir si votre entreprise a mis en place une stratégie de relève adéquate, posez-vous les questions suivantes :

  • Est-ce que vos copies de sauvegarde sont conservées hors site (loin de votre site principal)?
  • Êtes-vous en mesure de vous assurer que votre processus de sauvegarde fonctionne correctement?
  • À quelle vitesse êtes-vous en mesure de restaurer les données prises en otage?
  • Est-ce que vos données originales sont sauvegardées de manière inaltérable, vous assurant une récupération complète et intègre de vos données en cas d’attaque ransomware?

En répondant à ces questions, vous franchirez la première étape qui vous permettra de remédier aux lacunes de votre stratégie de relève en cas d’attaque informatique. Soyez prêts à faire face aux prochaines menaces pour protéger vos actifs!

* Selon un récent sondage, des entreprises victimes de ransomware qui ont payé la rançon, seuls 71% ont pu récupérer leurs données.

Problèmes de réseau? Optimisez votre environnement!

Les réseaux d’entreprises sont bien souvent comme des enfants : ils grandissent sans qu’on s’en rende compte, parfois de manière désorganisée et souvent inattendue. L’entreprise peut rapidement se retrouver avec un grand nombre d’équipements non optimisés à gérer, qui peuvent ressembler à ceci…

Mais la croissance se poursuit : la direction veut installer un système de vidéoconférence, on doit faire les copies de sauvegarde d’une filiale et les conserver au siège social…

Est-ce que votre réseau peut soutenir ces ajouts ? La réponse est probablement non.

À partir de là, les problèmes se multiplient. Avec le temps, les utilisateurs éprouvent des ralentissements, les appels téléphoniques sont parfois saccadés, des pannes intermittentes peuvent même survenir. Comment résoudre les problèmes? Où chercher?

Avec une multitude d’équipements disparates, et souvent sans système de journalisation centralisé, il est difficile d’enquêter et de trouver un problème.

L’analyse de réseau : pourquoi et comment

Pour ESI, chaque client est différent. La partie la plus importante de notre travail est tout d’abord de déterminer dans quelle situation notre client se trouve, et ce qui l’a amené à avoir besoin d’une analyse de réseau. Un ajout de fonctionnalité? Des pannes intermittentes? Une volonté de planifier les investissements futurs à faire dans le réseau?

Une fois cet objectif établi, nous procédons à l’analyse des diagrammes réseau les plus récents, quand il y en a. Nous examinons les équipements, les configurations, la redondance, la segmentation… Nous évaluons tout cela afin de dresser un bilan de santé des équipements.

Nous arrivons ainsi à identifier :

  • Les équipements en fin de vie
  • Les équipements proches de la panne
  • Les problèmes de configuration / les optimisations à effectuer
  • Les points du réseau qui sont limitants

Mais le plus important, c’est qu’en fonction de vos besoins, nous vous aidons à identifier les priorités d’investissement sur le réseau, à court, moyen et long terme. À la fin de l’analyse, nos clients obtiennent :

  • Une vue précise de leur réseau
  • Un plan d’action sur les équipements existants
  • Un plan d’investissements

Pourquoi ESI?

ESI Technologies accompagne les entreprises dans la planification et les modifications à leurs infrastructures depuis maintenant plus de 22 ans!
Contactez-nous dès maintenant pour en savoir plus sur ce qu’ESI peut faire pour vous!

Adoptez l’approche unifiée de la sécurité sans fil!

Pour de nombreuses organisations, l’accès sans fil n’est plus un luxe. Les employés ont besoin d’un accès facile alors qu’ils parcourent les bureaux, et les clients et partenaires s’attendent à pouvoir se connecter dès qu’il sont sur le site. Mais fournir un accès non-sécurisé crée une foule de problèmes de sécurité potentiels si les points d’accès ne sont pas rigoureusement surveillés, corrigés et entretenus. Plus le nombre de points d’accès augmente, plus il est facile d’escamoter cette importante tâche de maintenance.

Les équipes de sécurité sont si occupées à combattre les urgences que la maintenance préventive est souvent négligée. Kaspersky Labs a récemment analysé les données de près de 32 millions de bornes sans fil dans le monde et rapporté que près de 25% d’entre elles ne sont pas chiffrées. Ce qui signifie que les mots de passe et les données personnelles qui transitent par ces périphériques peuvent facilement être interceptés par toute personne connectée au réseau.

Les réseaux privés virtuels (VPN) sont une façon de garder les données en sécurité, mais 82% des utilisateurs de mobiles ont indiqué à IDG qu’ils ne prennent pas toujours la peine de les utiliser. La profusion de logiciels offerts en mode infonuagique (SaaS) encourage ce comportement. Gartner a estimé qu’en 2018, 25% des données d’entreprise contourneront le périmètre de sécurité et iront directement dans le cloud.

Le paysage du sans fil évolue, grâce aux périphériques mobiles, aux services infonuagiques et à la menace croissante des cyberattaques. Cela signifie que la sécurité sans fil doit être gérée de façon holistique, avec une approche de gestion centralisée et une architecture qui intègre à la fois la protection des terminaux et l’analyse du trafic réseau. Cisco a dépensé plus d’un milliard de dollars en acquisitions de sécurité depuis 2015 et a mis en place les éléments nécessaires pour assurer cette intégration.

Cisco Umbrella, que la compagnie a lancé le mois dernier, est une nouvelle approche pour sécuriser le périmètre d’entreprise qui prend en compte les façons changeantes d’accéder à Internet. Umbrella donne aux gestionnaires de réseau et de sécurité une image complète de tous les périphériques sur le réseau et de leur activité. Par exemple, en combinant la technologie Umbrella au Cisco Cloudlock Cloud Access Security Broker, les entreprises peuvent appliquer des stratégies personnalisées aux différentes applications SaaS et même bloquer totalement les services inappropriés. Elles peuvent également bloquer les connexions vers des destinations réputées malveillantes sur les couches DNS et IP, ce qui réduit la menace de logiciels malveillants. Umbrella peut même découvrir et contrôler les informations sensibles dans les applications SaaS, même si elles sont hors du réseau.

L’approche modernisée de Cisco en matière de sécurité utilise également la puissance de l’infonuagique pour l’administration et l’analyse. Cisco Defense Orchestrator résout plus de 100 milliards de requêtes Internet chaque jour. Sa technologie d’apprentissage machine compare ce trafic contre une base de données de plus de 11 milliards d’événements historiques pour rechercher des modèles qui identifient le comportement malveillant connu. Defense Orchestrator peut donc repérer les brêches rapidement afin qu’elles puissent être bloquées ou isolées avant qu’elles ne causent des dommages. Grâce au cloud, des données anonymes provenant d’Internet peuvent être combinées à l’apprentissage approfondi pour améliorer en continu ses capacités de détection. Les modèles analytiques prédictifs permettent à Cisco de déterminer où se déroulent les attaques actuelles et futures. En d’autres termes, le cloud de sécurité de Cisco devient plus intelligent chaque jour.

Umbrella peut s’intégrer aux systèmes existants, y compris les serveurs monofonctionnels, les flux et outils internes, de sorte que vos investissements sont protégés. Umbrella est construit sur OpenDNS, une plateforme native du cloud depuis sa création il y a plus de dix ans. C’est la base de la feuille de route de sécurité de Cisco à l’avenir.

Une excellente façon de commencer à utiliser Cisco Umbrella consiste à revoir la protection de vos points d’accès sans fil. Les réseaux de Cisco n’ayant plus de secrets pour nous, laissez-nous vous mettre sur la voie d’avenir de la sécurité réseau.

Votre réseau est-il prêt pour la transformation numérique?

Si votre entreprise possède plus d’un bureau, vous connaissez déjà la complexité impliquée dans le maintien du réseau. Vous avez probablement plusieurs périphériques connectés dans chaque succursale, avec des pare-feu, routeurs sans fil et peut-être de l’équipement VoIP. Chaque correctif, mise à jour logicielle ou nouvelle signature de logiciels malveillants doit être installé manuellement, nécessitant un appel de service. Plus vous avez de succursales, plus le coût est élevé et plus le délai est important.

C’est l’état de la technologie dans la plupart des entreprises distribuées de nos jours, mais cela n’évoluera pas bien dans l’avenir. Environ 50 milliards de nouveaux appareils intelligents connectés s’ajouteront au cours des trois prochaines années, selon l’évaluation faite par le manufacturier Cisco. Cette soi-disant révolution dite « Internet des objets » (IoT) va exiger de repenser complètement l’infrastructure réseau.

Les réseaux de l’avenir doivent fournir et gérer de manière flexible la bande passante pour s’adapter à une grande variété de scénarios d’utilisation. Ils doivent également être gérables à partir d’un point central. La fonctionnalité qui est actuellement intégrée dans les périphériques matériels doit passer dans le logiciel. La sécurité deviendra partie intégrante du réseau, plutôt que distribuée dans des dispositifs de pointe. Les mises à jour logicielles seront automatiques.

C’est la vision que Cisco appelle la Digital Network Architecture ou DNA (l’architecture réseau numérique). C’est une approche logicielle pilotée par les réseaux et les périphériques intelligents et l’automatisation. En virtualisant plusieurs des fonctionnalités fournies actuellement par des équipements physiques, votre organisation TI peut acquérir une visibilité et un contrôle inégalés sur chaque partie du réseau.

Par exemple, vous pouvez remplacer des pare-feu matériels par une connexion à prise unique. Vos administrateurs réseau peuvent obtenir une vue complète de chaque dispositif de pointe, et vos équipes responsables de la sécurité peuvent utiliser l’analytique pour identifier et isoler les anomalies détectées. Les nouveaux téléphones, ordinateurs ou autres appareils peuvent être détectés automatiquement et les autorisations et politiques appropriées sont appliquées de manière centralisée. Les réseaux sans fil, qui sont un des points d’entrée les plus courants des cyberattaquants, peuvent être sécurisés et surveillés en tant qu’unité.

Un des avantages les plus importants du DNA est l’allocation flexible de la bande passante. Plusieurs entreprises offrent aujourd’hui la bande passante sur la base du scénario le plus défavorable, ce qui entraine une capacité de réseau excédentaire qui reste inactive la plupart du temps. Dans un scénario entièrement défini par logiciel, la bande passante est allouée sur demande uniquement, de sorte qu’une succursale qui connait une accalmie n’accapare pas les ressources d’une autre qui est occupée. Les ressources serveur virtualisées peuvent également être allouées de la même façon, en améliorant l’utilisation et en évitant le gaspillage.

L’Internet des objets exigera des niveaux sans précédent de flexibilité du réseau. Certains dispositifs de pointe, tels que les terminaux de point de vente, nécessiteront des connexions à haut débit qui transmettent des informations rapides pour des tâches telles que la validation par carte de crédit. D’autres, comme les caméras de sécurité, doivent transmettre des fichiers beaucoup plus volumineux, mais peuvent tolérer de plus longs délais. À l’aide d’une approche basée sur les politiques DNA, les priorités peuvent être définies pour s’assurer que chaque appareil dispose des ressources dont il a besoin.

Arriver au DNA ne se fait pas en un jour. Presque chaque nouveau produit mis en marché par Cisco est activé pour le DNA. Au fur et à mesure que vous retirez des équipements plus anciens, vous pouvez passer graduellement à un environnement entièrement virtualisé et défini par logiciel. Dans certains cas, vous pouvez constater que les coûts de gestion d’un vaste réseau distribué, tels que les déplacements, le temps du personnel et la perte de productivité, justifient déjà un changement. Quoi qu’il en soit, ESI a l’expertise de conseil et de mise en œuvre pour vous aider à prendre la meilleure décision.