Gestion multiple avec passerelle API et grille de services - Partie 2

Dans la première partie de cette série en deux parties, nous avons discuté de la montée en puissance du multicloud en tant que nouvelle norme pour les paramètres de cloud d’entreprise. Nous avons également constaté qu’une passerelle API possède des fonctionnalités clés pour gérer plusieurs applications de haut-parleurs – gérées de manière centralisée à partir du monde entier. Ils sont conçus pour connecter des applications et des services à l’aide d’un cadre commun. Accélérez l’intégration dans l’entreprise. Nous avons également vu les meilleurs vendeurs dans le domaine – Apigee, Mulesoft, Kong, Tyk et AWS API Gateway. Dans cet article, nous discutons d’une puissante solution complémentaire aux API: les grilles de service. Nous discutons également de la manière dont ils peuvent travailler ensemble pour vous aider à tirer le meilleur parti de la configuration multifonction.

Service Mesh: Communication au niveau de l’infrastructure

Les grilles de service sont un développement récent dans le monde de l’informatique en nuage. Cela a provoqué la montée des Kubernetes. Alors que les API sont placées «devant» un service ou une application, une grille de services est placée «à côté» d’une application native du cloud. Les grilles de services offrent un meilleur moyen de surveiller et de gérer la communication réseau pour les applications cloud natives.

Selon William Morgan, co-créateur de la grille de services open source Linkerd, “La grille de services est un outil permettant d’ajouter des fonctionnalités d’observabilité, de sécurité et de fiabilité aux applications en introduisant ces fonctionnalités au niveau de la plate-forme plutôt qu’au niveau de l’application.” Les grilles de service telles que Istio et Linkerd adoptent un modèle «side-car», dans lequel elles insèrent un proxy dans chaque pod dans Kubernetes. La poussette de choix pour de nombreux outils de grille de service est l’apôtre. Ces cartes côte à côte gèrent la communication entre les petits services.

Les proxys de trame constituent la couche de données, tandis qu’une grille de service offre un niveau de contrôle nettement plus élevé. Le flux et le routage du trafic se produisent au niveau des données, tandis que la gestion a lieu au niveau du contrôle.

Grille de service: avantages et inconvénients

Les outils de grille de service ont leurs avantages et leurs inconvénients qui doivent être pris en compte. Ce sont des solutions réseau complètes capables de gérer la complexité des applications distribuées. Ils offrent une visibilité plus profonde dans la communication entre les services.

Cependant, ils présentent certains inconvénients qui ne peuvent être ignorés. Premièrement, les outils de grille de service sont difficiles à configurer. La création du premier instantané Istio implique une courbe d’apprentissage précise et une bonne compréhension de l’ensemble du système. L’architecture complexe rend difficile la gestion à grande échelle. Plusieurs éléments doivent être mis à jour régulièrement, sécurisés et adaptés aux applications. Cela dit, il y a des points positifs et des solutions de réseau de service comme Linkerd est plus facile à configurer et exploité par des tiers.

De plus, certains chevauchements entre une grille de services et une passerelle API compliquent la recherche de la place d’une grille de services dans l’architecture.

Grille de services et de portails d’API qui fonctionnent ensemble

Il existe plusieurs objectifs et fonctions qui se chevauchent entre une passerelle API et une grille de service. Par exemple, ils gèrent tous les deux le trafic réseau, disposent tous deux de capacités de routage et tous deux améliorent la visibilité du système. Cependant, ils ont aussi leurs différences.

Les portails API traitent les requêtes API. Ces demandes d’API se font généralement entre des applications (ou utilisateurs) internes et externes. Il s’agit principalement de trafic nord-sud, bien qu’ils puissent également être utilisés pour le trafic est-ouest entre les services intérieurs. Les API permettent la conversion des demandes et des réponses pour l’introduction de la charge utile personnalisée dans toute demande d’API. Ils fonctionnent à un niveau élevé, suivant de près la logique métier d’une application.

Une grille de services, quant à elle, gère la communication entre les services au sein des applications. Il s’agit principalement d’un mouvement est-ouest, bien que les options d’entrée / sortie soient ajoutées aux réseaux de services à mesure qu’ils mûrissent. La grille de services est une solution de bas niveau qui travaille en étroite collaboration avec Kubernetes et fonctionne au niveau de la plate-forme. Ils sont capables de fournir une observation à un niveau plus profond que les API. En plus de la visibilité, ils permettent l’application des politiques de sécurité du trafic et du réseau.

Lorsque vous décidez d’utiliser une passerelle API ou une grille de services, où vous en êtes dans votre parcours cloud, cela compte. Les organisations peuvent exécuter des applications ou des microservices monolithiques ou une combinaison des deux. Une pile monolithique est plus simple et ne peut bien fonctionner qu’avec une passerelle API devant l’application. Une pile cloud native nécessite à la fois une passerelle API et une grille de services. La complexité et la maturité du niveau de mise en réseau augmentent à mesure que les organisations évoluent des services monolithiques aux services de façade aux microservices.

Outils de grille de service aujourd’hui

https://www.youtube.com/watch?v=cAMsONJadyΙ

Lorsqu’il s’agit de mettre en œuvre une grille de services, les options ne sont pas aussi nombreuses que les portails API, mais plusieurs options sont disponibles. Il existe Istio et Linkerd open source, qui sont les outils de grille de service les plus populaires aujourd’hui. Linkerd est le plus grand des deux et a été l’outil qui a créé l’espace. Linkerd a une communauté open source plus petite mais plus forte et se lance rapidement dans la production. Produit mature, il est régi par la CNCF et est bien intégré à Kubernetes.

Istio est entré en scène plus tard, mais connaît une croissance explosive grâce au soutien d’entreprises comme Google et à son large éventail de fonctionnalités. Cependant, il s’agit d’un sujet de préoccupation, car l’industrie souhaiterait qu’un outil aussi important ne soit pas sous le contrôle d’une entreprise individuelle comme Google, mais qu’il soit régi par un consortium comme la CNCF. Le récent changement de licence d’Elasticsearch d’Apache v2.0 à SSPL est un exemple de la façon dont les projets open source peuvent mal tourner s’ils ne sont pas gérés de manière responsable.

Un nouveau venu notable dans le domaine est Kuma, un niveau de contrôle pour de nombreux réseaux de services sous-jacents. Kuma a été créé par Kong, la société d’API de passerelle. Il a été récemment approuvé par la CNCF et est actuellement la seule grille de service CNCF fonctionnant sur un serveur proxy Envoy. Kuma s’appelle un réseau de service universel. Il prend en charge les machines virtuelles ainsi que les conteneurs, les applications cloud natives modernes et les applications de type plus ancien. Il semble simplifier les fonctions du réseau de services par rapport aux réseaux de services de première génération comme l’Istio. Kuma dispose d’un modèle d’application multizone avec plusieurs niveaux de contrôle et plusieurs niveaux de données. Ceci est idéal pour les scénarios multi-haut-parleurs. De plus, Kuma peut être facilement intégré à n’importe quel service de passerelle API. Ce n’est pas surprenant, car il vient de la maison Kong. Kuma est une grille de services que vous devez suivre au fur et à mesure de son évolution.

Service de maillage

Même

Tous les outils de grille de service ci-dessus sont open source – il n’y a pas beaucoup de solutions de réseau de service commercial sur le marché aujourd’hui. Google intègre un service Istio géré dans l’offre d’Anthos. Ceci est un rappel que ce sont encore les premiers jours pour les outils de service de réseau.

Aujourd’hui, les organisations exécutent généralement une grille de services sur un seul site de cloud public. Cependant, ils sont de plus en plus obligés d’exécuter plusieurs instances d’une grille de services dans des emplacements à plusieurs haut-parleurs – cloud privé et public.

Grilles de service et portails API: mieux ensemble dans un monde aux multiples capacités

API-passerelle-et-service-mesh-Pixabay

La grille de service est une innovation moderne et nécessaire qui a été créée pour un monde avec de nombreux intervenants. Il fonctionne en parallèle avec une passerelle API, assurant la communication entre les services distribués en interne. Avec une séparation claire de la couche de données et de la couche de contrôle, des grilles de service sont créées pour les applications à grande échelle. Alors que l’espace du réseau de service est créé et évolue rapidement, des options sont disponibles aujourd’hui. Il est bon que ce soit un fournisseur open source et neutre. Cela s’inscrit parfaitement dans un monde avec de nombreux orateurs.

Image en vedette: Shutterstock


Affichage des messages:
5


Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *