Le cloud computing, ou l’informatique en nuage est le concept de ne plus posséder de serveurs informatiques mais de louer à la demande ces serveurs ainsi que les services associés (stockage de données et réplication, connexion physique entre les serveurs, …) à un fournisseur.
Ceci permet bien souvent de faire des économies, car le cloud permet d’abstraire et de déléguer nombre de problèmes que l’on rencontrera lorsque l’on développe notre propre infrastructure physique :
- La partie physique, remplacer le matériel qui casse (disque dur, serveurs, connexion, réseaux, …).
- La partie géographique, mise à disposition de data center ou serveurs à travers le monde.
- La partie production, mise à disposition de services (stockage, calcul, DNS, …) permettant d’accélérer le développement, déploiement et de passer à l’échelle (par exemple, augmenter la puissance de calcul lorsqu’un site web connait un fort nombre de visiteurs).
- La partie facturation, payement en fonction de l’utilisation (par heure ou par minutes) plutôt que d’acheter les serveurs avant de les utiliser.
Le cloud est un marché de taille importante. L’entreprise Gartner qui est une des plus grosses entreprises en analyses et prédictions dans le domaine informatique nous indique que celui-ci vaut $209 milliards de dollars en 2017 et prédit $380 milliards en 2020 (contre en 2015 $67 milliards et prédisait alors $162 milliards pour 2020).
Les ambitions concurrentielles
Amazon Web Services (AWS) est une division du groupe américain Amazon, dédiée aux services de cloud computing pour les entreprises et particuliers.
Lancé officiellement en 2006, AWS propose 3 services qui vont constituer la base de son offre et le propulser en quelque années à la tête de ce marché qui ne verra apparaitre de concurrents (Microsoft, Google, Baidu, IBM, …) que très tard, entre 2010 et 2012 laissant ainsi libre champ a AWS pour devenir l’offre dominante.
En 2015, AWS génère 7 % du chiffre d'affaires ($7,880 milliards) d'Amazon et représente la première source de profit de l'entreprise. En 2016 son chiffre d’affaire double et passe la barre des 14 milliards.
De son côté Google Cloud Platform (GCP) est une division du groupe américain Google qui vise à fournir les services cloud que Google utilise en interne depuis plusieurs années pour ses produits tels que son moteur de recherche.
Lancée en 2011, la division cloud de Google peine à se hisser a une place solide de concurrent face à Microsoft et Amazon que ce soit en terme de part de marche ou revenu (que Google continue à grouper dans sa catégorie de revenus non publicitaires a $2 milliards de dollars en 2016)
En 2017, un rapport de « synergy research group » indique que Amazon Web Services possède 34% des parts de marches. En concurrence face à Microsoft, IBM et Google qui possèdent respectivement 11%, 8% et 5% (la plus grande part de marché, le cloud privé est capturé par des acteurs privés).IBM n’est pas en concurrence face à Microsoft et Google avec son offre de cloud prive.
Nous sommes dans un rapport de force qui est aujourd’hui strictement économique et se traduit par une position dominante de Amazon dans les parts du marché (34%) face aux faibles, deux adversaires de plus modeste tailles Google (5%) et Microsoft (11%).
Les affrontements entre ces différents acteurs ont lieux sur multiples terrains qui sont notamment :
- Les services et le matériel spécialisé exposés aux clients ainsi que leur prix
- Les certifications
- La capture des clients qui viennent du cloud privé et qui souhaitent transitionner vers un cloud public ou hybride
Amazon utilise sa position de fort pour développer une stratégie dont le but est de continuer à augmenter ses parts de marche en rendant aussi cher et long que possible aux autres de le concurrencer.
De plus en offrant des services à ses clients Amazon cherche à rendre la transition vers un autre fournisseur de cloud plus difficile et couteuse.
On observe ceci via les actions suivantes :
- Multiplication des services offerts aux clients (450 en 2014) et mise à disposition de matériel spécifique (FPGA et GPU), toujours dans l’optique d’offrir plus de services aux clients (et donc d’obtenir des parts de marché)
- Prix basé sur les secondes ainsi que mise à disposition de plus de services « préemptibles » et donc moins cher
- Verrouillage des clients sur sa technologie avec ses services rendant couteux la transition vers un autre fournisseur
Multiplication des services
D’un côté, la multiplication des services a pour but d’étendre les services cloud a des acteurs qui n’en avait pas encore l’utilisation (le domaine High Performance Computing par exemple qui jusqu’ici créait des machines dédies) mais aussi force les autres fournisseur cloud à investir temps et énergie pour répliquer ces services.
De plus avec la mise à disposition de matériel spécifique (FPGA et GPU) Amazon force un investissement monétaire important de la part des autres vendeurs.
En effet, le choix d’un fournisseur est pour beaucoup de client une décision extrêmement rationnel basé sur la disponibilité des services nécessaire, la maitrise de ces outils par l’équipe et l’intégration de ce service avec les autres (il est difficile de faire du multi-cloud).
Ce faisant chaque fois que Amazon créé un service l’ensemble des fournisseurs cloud se doivent de le répliquer au risque de ne pouvoir remplir la grille que les clients utilisent pour choisir leur fournisseur.
De plus, si un fournisseur cloud met à disposition 1000 GPU par zone géographique soit 16 000 au total (Amazon propose des datacenters dans 16 régions), cela représente un investissement de près de $100 millions (les GPU de la génération 2016 pour serveurs les moins cher étant à $5 900), sans compter le temps et les ressources nécessaire pour mettre à disposition ce service.
Amazon force donc les autres fournisseurs cloud (dont pour Google le cloud n’est pas le cœur de ses bénéfices) à investir et éparpiller leurs ressources sur toujours plus de services.
On peut prendre comme exemple encore récemment, AWS a mis en place la possibilité pour les clients d’utiliser des instances GPU « préemptibles » c’est-à-dire que AWS met à disposition des utilisateurs des machines dont le prix varie en fonction de l’utilisation de ses data center.
Ce faisant, Amazon offre des machines dont le prix est largement réduit (pouvant aller jusqu’à un prix réduit de 80%) qui prouvent sa stratégie de compétions agressive alors que cette offre a peu de sens d’un point de vue strictement économique.
AWS offrait des instances CPU « préemptibles » depuis plusieurs années.
Tarification
Depuis plusieurs années, le modèle tarifaire de AWS se basait sur la facturation pour l’utilisation de la machine a l’heure (toute heure entamée était comptée comme une heure pleine).
Ce modèle fonctionnait très bien lorsque le déploiement prenait plusieurs dizaines de minutes et pour des applications monolithiques.
Cependant, les récentes avancées technologiques ont permis à ce modèle d’évoluer vers le déploiement d’applications en l’espace de quelques secondes et des micro-services qui vivent et meurent sur plusieurs minutes (et parfois secondes) grâce aux conteneurs.
Google a su capitaliser sur cette nouvelle évolution en proposant une tarification a la minute lors du lancement de son offre cloud.
En 2017 ce modèle se démocratise et touche de plus en plus de clients, Amazon a jugé qu’il était temps de faire évoluer sa tarification car celle-ci était une vraie source de perte de clients.
En faisant évoluer son modèle a une tarification a la seconde, Amazon joue sur le rapport dominant / domine de ce marche en forçant les autres fournisseurs cloud à le suivre et confirmant sa stratégie de faire payer cher le domaine du cloud a ses compétiteurs.
Google le fait d’ailleurs remarquer dans son article de blog ou il indique s’aligner sur une tarification a la seconde (quelques jours après l’annonce de AWS). Pour la plupart des clients, la différence est d’un café par jour, c’est à dire minime. Pour Google cela signifie que son revenu accuse probablement un coup de plusieurs millions par ans.
L’autre stratégie employée par Amazon, est subie par ses clients qui pour utiliser les services proposés par AWS doivent investir non seulement du temps pour comprendre l’interconnexion de ces services mais surtout développer l’application autour de ces services.
Les IAM par exemples qui sont des « images » du système d’exploitation que l’on veut installer sur la machine que l’on utilise, unique a AWS et évidemment n’ont pour but d’être utilisés que par les services AWS.
Ce verrouillage a pour but de rendre la transition vers d’autre fournisseurs cloud très difficile et par extension de rendre plus cher pour les fournisseurs cloud qui ont des équipes dédies à aider à la transition leur clients et potentiels clients.
C’est d’ailleurs sur ce dernier point que Google a bâti sa stratégie, en finançant, participant et standardisant le mouvement technologique des conteneurs (CNCF), Google a ainsi créé un terrain d’affrontement majeur autour du verrouillage client face à Amazon (ou plutôt de la libération de ce verrouillage).
Conteneurs et Kubernetes
Le mouvement des conteneurs, initié par docker en 2012 permet de créer des applications qu’il est possible de déployer extrêmement rapidement, moins d’une seconde contre plusieurs minutes avec les Virtual Machines.Ils embarquent toute leurs dépendances avec eux, détruisant ainsi pour AWS la dépendance sur les IAM, et permettent de créer plus facilement des applications de type « micro services » qui permettent entre autres d’interchanger plus facilement les composants (réduisant donc le verrouillage).
De même que les conteneurs physiques ont révolutionnés l’industrie du transport maritime, les conteneurs informatiques révolutionnent aujourd’hui l’industrie du cloud en permettant de faire tourner efficacement plusieurs centaines (voire plusieurs milliers) de conteneurs sur la même machine (contre quelques Virtual Machines). Ils remettent en question les techniques de mise en production d’applications élaborées depuis 10 ans ainsi que le développement de celles-ci. Dans une étude réalisée par 451 research, on estime que ce marché a une valeur de $1 milliards en 2017 et pourrait passer le cap des $2.5 milliards en 2020.
On trouve notamment à la tête de ce mouvement Google avec son outil de gestion de conteneurs dans des clusters de plusieurs milliers de machines, Kubernetes.
Dont le principal argument de vente est de permettre aux utilisateurs de déployer des applications en production en utilisant les méthodes que Google utilise depuis des années en interne.
Google a d’ailleurs réussi à imposer cet outil comme le standard de déploiement pour le mouvement des conteneurs. La caractéristique la plus intéressante de cet outil est qu’il permet le multi-cloud que ce soit public (AWS, GCP, …), privé ou hybride.
Stratégie
C’est d’ailleurs sur cette dernière caractéristique que se base la stratégie de Google, qui se concentre autour de cette promesse de libérer les clients du verrouillage des fournisseurs.
On observe que cette stratégie est développée par les actions suivantes :
- Projet open source et collaboratif
- Définition de standards à travers l’industrie
- Elaboration de systèmes permettant la transition vers les technologies conteneurs
Le but étant évidemment de capturer non seulement ce nouveau marché que Google a contribué à créer mais aussi le marché qui est déjà attaché à AWS (en facilitant la transition).
Projet open source et collaboratif
En publiant son outil en tant que projet open source et collaboratif, Google a permis la création de la plus grosse communauté open source ou des entreprises tel que Red Hat, Intel, IBM, Huawei ou encore des développeurs sur leur temps libre collaborent ensemble.
Avec sa communauté forte de 2000 contributeurs unique à travers l’industrie et sa liste impressionnante d’utilisateur, Google a su reprendre les codes et valeurs (open source, libre, non verrouillage) du mouvement conteneur et a réussi à imposer Kubernetes comme l’incontournable outil de référence en terme gestion de cluster de machines.
Standardisation
C’est d’ailleurs grâce à cet outil et cette sa communauté que Google a pu définir des standards à travers l’industrie qui sont suivi par tout le plus grand contributeur de ce mouvement.
On note parmi ceux-ci les standards pour exécuter les conteneurs (CRI et OCI) ainsi que le standard pour le stockage (CSI) ou pour le réseau (CNI). En définissant ces standards, Google signale à tous et notamment Amazon que l’industrie compte bien s’affranchir du verrouillage contraint depuis des années sur les clients des fournisseurs cloud. Google a permis (et continue de permettre) grâce à ce mouvement et au développement des standards de supprimer une partie importante du débat qu’est la situation de verrouillage fournisseur cloud.
Ceci déplace ainsi le débat du choix du fournisseur cloud non plus sur le coût du changement mais uniquement sur la qualité des services fourni (et leur absence ou présence du fournisseur) évidemment Google propose une intégration profonde des services et outils développé avec sa communauté.
Transition
Enfin, grâce notamment à la définition d’un standard d’exécution des conteneurs (CRI), Google ouvre la porte à l’exécution de VM sur Kubernetes et donc d’applications développes avant que le mouvement des conteneurs démarre.
Ceci permettant une transition hybride depuis les applications déjà déployés sur les services AWS car une fois cette transition hybride effectue il est facile de changer de fournisseur.
Qui est sorti vainqueur de l’affrontement et pourquoi ?
Amazon reste le grand vainqueur du domaine du cloud computing et persiste avec sa stratégie de rendre le marché difficilement accessible aux autres fournisseurs. On peut donc imaginer la suite logique de cette stratégie, plus de services et de meilleure qualité, plus de matériel spécialisé et neuf et, peut-être un payement au nombre de cycles CPU. Google de son côté n’a aujourd’hui d’autre stratégie que de subir ce rapport de force et de continuer à suivre l’offre AWS avec souvent plusieurs mois de retard.
Cependant, sa stratégie basée sur la libération du verrouillage porte aujourd’hui ses fruits et permet à Google de capturer de nouvelles parts du marché que Google a contribué à faire émerger.
Mais aussi, grâce à sa stratégie open source, collaborative et permettant de faire tourner Kubernetes non seulement sur le cloud public mais aussi privé et hybride, Google a aussi réussi à convertir et capturer un vaste segment du marché qui même s’il n’utilise pas les services cloud de Google directement se laisse tenter par l’adoption de son outil phare Kubernetes (et pourrait à terme utiliser les services de Google).
De plus, Google a réussi à créer une contradiction dans le rapport de force qui l’oppose à Amazon, en forçant Amazon à rejoindre cet effort en aout dernier alors même que AWS propose sa propre « version de Kubernetes » aux clients via la suite de services EC2.
Renaud Gaubert
Ceci permet bien souvent de faire des économies, car le cloud permet d’abstraire et de déléguer nombre de problèmes que l’on rencontrera lorsque l’on développe notre propre infrastructure physique :
- La partie physique, remplacer le matériel qui casse (disque dur, serveurs, connexion, réseaux, …).
- La partie géographique, mise à disposition de data center ou serveurs à travers le monde.
- La partie production, mise à disposition de services (stockage, calcul, DNS, …) permettant d’accélérer le développement, déploiement et de passer à l’échelle (par exemple, augmenter la puissance de calcul lorsqu’un site web connait un fort nombre de visiteurs).
- La partie facturation, payement en fonction de l’utilisation (par heure ou par minutes) plutôt que d’acheter les serveurs avant de les utiliser.
Le cloud est un marché de taille importante. L’entreprise Gartner qui est une des plus grosses entreprises en analyses et prédictions dans le domaine informatique nous indique que celui-ci vaut $209 milliards de dollars en 2017 et prédit $380 milliards en 2020 (contre en 2015 $67 milliards et prédisait alors $162 milliards pour 2020).
Les ambitions concurrentielles
Amazon Web Services (AWS) est une division du groupe américain Amazon, dédiée aux services de cloud computing pour les entreprises et particuliers.
Lancé officiellement en 2006, AWS propose 3 services qui vont constituer la base de son offre et le propulser en quelque années à la tête de ce marché qui ne verra apparaitre de concurrents (Microsoft, Google, Baidu, IBM, …) que très tard, entre 2010 et 2012 laissant ainsi libre champ a AWS pour devenir l’offre dominante.
En 2015, AWS génère 7 % du chiffre d'affaires ($7,880 milliards) d'Amazon et représente la première source de profit de l'entreprise. En 2016 son chiffre d’affaire double et passe la barre des 14 milliards.
De son côté Google Cloud Platform (GCP) est une division du groupe américain Google qui vise à fournir les services cloud que Google utilise en interne depuis plusieurs années pour ses produits tels que son moteur de recherche.
Lancée en 2011, la division cloud de Google peine à se hisser a une place solide de concurrent face à Microsoft et Amazon que ce soit en terme de part de marche ou revenu (que Google continue à grouper dans sa catégorie de revenus non publicitaires a $2 milliards de dollars en 2016)
En 2017, un rapport de « synergy research group » indique que Amazon Web Services possède 34% des parts de marches. En concurrence face à Microsoft, IBM et Google qui possèdent respectivement 11%, 8% et 5% (la plus grande part de marché, le cloud privé est capturé par des acteurs privés).IBM n’est pas en concurrence face à Microsoft et Google avec son offre de cloud prive.
Nous sommes dans un rapport de force qui est aujourd’hui strictement économique et se traduit par une position dominante de Amazon dans les parts du marché (34%) face aux faibles, deux adversaires de plus modeste tailles Google (5%) et Microsoft (11%).
Les affrontements entre ces différents acteurs ont lieux sur multiples terrains qui sont notamment :
- Les services et le matériel spécialisé exposés aux clients ainsi que leur prix
- Les certifications
- La capture des clients qui viennent du cloud privé et qui souhaitent transitionner vers un cloud public ou hybride
Amazon utilise sa position de fort pour développer une stratégie dont le but est de continuer à augmenter ses parts de marche en rendant aussi cher et long que possible aux autres de le concurrencer.
De plus en offrant des services à ses clients Amazon cherche à rendre la transition vers un autre fournisseur de cloud plus difficile et couteuse.
On observe ceci via les actions suivantes :
- Multiplication des services offerts aux clients (450 en 2014) et mise à disposition de matériel spécifique (FPGA et GPU), toujours dans l’optique d’offrir plus de services aux clients (et donc d’obtenir des parts de marché)
- Prix basé sur les secondes ainsi que mise à disposition de plus de services « préemptibles » et donc moins cher
- Verrouillage des clients sur sa technologie avec ses services rendant couteux la transition vers un autre fournisseur
Multiplication des services
D’un côté, la multiplication des services a pour but d’étendre les services cloud a des acteurs qui n’en avait pas encore l’utilisation (le domaine High Performance Computing par exemple qui jusqu’ici créait des machines dédies) mais aussi force les autres fournisseur cloud à investir temps et énergie pour répliquer ces services.
De plus avec la mise à disposition de matériel spécifique (FPGA et GPU) Amazon force un investissement monétaire important de la part des autres vendeurs.
En effet, le choix d’un fournisseur est pour beaucoup de client une décision extrêmement rationnel basé sur la disponibilité des services nécessaire, la maitrise de ces outils par l’équipe et l’intégration de ce service avec les autres (il est difficile de faire du multi-cloud).
Ce faisant chaque fois que Amazon créé un service l’ensemble des fournisseurs cloud se doivent de le répliquer au risque de ne pouvoir remplir la grille que les clients utilisent pour choisir leur fournisseur.
De plus, si un fournisseur cloud met à disposition 1000 GPU par zone géographique soit 16 000 au total (Amazon propose des datacenters dans 16 régions), cela représente un investissement de près de $100 millions (les GPU de la génération 2016 pour serveurs les moins cher étant à $5 900), sans compter le temps et les ressources nécessaire pour mettre à disposition ce service.
Amazon force donc les autres fournisseurs cloud (dont pour Google le cloud n’est pas le cœur de ses bénéfices) à investir et éparpiller leurs ressources sur toujours plus de services.
On peut prendre comme exemple encore récemment, AWS a mis en place la possibilité pour les clients d’utiliser des instances GPU « préemptibles » c’est-à-dire que AWS met à disposition des utilisateurs des machines dont le prix varie en fonction de l’utilisation de ses data center.
Ce faisant, Amazon offre des machines dont le prix est largement réduit (pouvant aller jusqu’à un prix réduit de 80%) qui prouvent sa stratégie de compétions agressive alors que cette offre a peu de sens d’un point de vue strictement économique.
AWS offrait des instances CPU « préemptibles » depuis plusieurs années.
Tarification
Depuis plusieurs années, le modèle tarifaire de AWS se basait sur la facturation pour l’utilisation de la machine a l’heure (toute heure entamée était comptée comme une heure pleine).
Ce modèle fonctionnait très bien lorsque le déploiement prenait plusieurs dizaines de minutes et pour des applications monolithiques.
Cependant, les récentes avancées technologiques ont permis à ce modèle d’évoluer vers le déploiement d’applications en l’espace de quelques secondes et des micro-services qui vivent et meurent sur plusieurs minutes (et parfois secondes) grâce aux conteneurs.
Google a su capitaliser sur cette nouvelle évolution en proposant une tarification a la minute lors du lancement de son offre cloud.
En 2017 ce modèle se démocratise et touche de plus en plus de clients, Amazon a jugé qu’il était temps de faire évoluer sa tarification car celle-ci était une vraie source de perte de clients.
En faisant évoluer son modèle a une tarification a la seconde, Amazon joue sur le rapport dominant / domine de ce marche en forçant les autres fournisseurs cloud à le suivre et confirmant sa stratégie de faire payer cher le domaine du cloud a ses compétiteurs.
Google le fait d’ailleurs remarquer dans son article de blog ou il indique s’aligner sur une tarification a la seconde (quelques jours après l’annonce de AWS). Pour la plupart des clients, la différence est d’un café par jour, c’est à dire minime. Pour Google cela signifie que son revenu accuse probablement un coup de plusieurs millions par ans.
L’autre stratégie employée par Amazon, est subie par ses clients qui pour utiliser les services proposés par AWS doivent investir non seulement du temps pour comprendre l’interconnexion de ces services mais surtout développer l’application autour de ces services.
Les IAM par exemples qui sont des « images » du système d’exploitation que l’on veut installer sur la machine que l’on utilise, unique a AWS et évidemment n’ont pour but d’être utilisés que par les services AWS.
Ce verrouillage a pour but de rendre la transition vers d’autre fournisseurs cloud très difficile et par extension de rendre plus cher pour les fournisseurs cloud qui ont des équipes dédies à aider à la transition leur clients et potentiels clients.
C’est d’ailleurs sur ce dernier point que Google a bâti sa stratégie, en finançant, participant et standardisant le mouvement technologique des conteneurs (CNCF), Google a ainsi créé un terrain d’affrontement majeur autour du verrouillage client face à Amazon (ou plutôt de la libération de ce verrouillage).
Conteneurs et Kubernetes
Le mouvement des conteneurs, initié par docker en 2012 permet de créer des applications qu’il est possible de déployer extrêmement rapidement, moins d’une seconde contre plusieurs minutes avec les Virtual Machines.Ils embarquent toute leurs dépendances avec eux, détruisant ainsi pour AWS la dépendance sur les IAM, et permettent de créer plus facilement des applications de type « micro services » qui permettent entre autres d’interchanger plus facilement les composants (réduisant donc le verrouillage).
De même que les conteneurs physiques ont révolutionnés l’industrie du transport maritime, les conteneurs informatiques révolutionnent aujourd’hui l’industrie du cloud en permettant de faire tourner efficacement plusieurs centaines (voire plusieurs milliers) de conteneurs sur la même machine (contre quelques Virtual Machines). Ils remettent en question les techniques de mise en production d’applications élaborées depuis 10 ans ainsi que le développement de celles-ci. Dans une étude réalisée par 451 research, on estime que ce marché a une valeur de $1 milliards en 2017 et pourrait passer le cap des $2.5 milliards en 2020.
On trouve notamment à la tête de ce mouvement Google avec son outil de gestion de conteneurs dans des clusters de plusieurs milliers de machines, Kubernetes.
Dont le principal argument de vente est de permettre aux utilisateurs de déployer des applications en production en utilisant les méthodes que Google utilise depuis des années en interne.
Google a d’ailleurs réussi à imposer cet outil comme le standard de déploiement pour le mouvement des conteneurs. La caractéristique la plus intéressante de cet outil est qu’il permet le multi-cloud que ce soit public (AWS, GCP, …), privé ou hybride.
Stratégie
C’est d’ailleurs sur cette dernière caractéristique que se base la stratégie de Google, qui se concentre autour de cette promesse de libérer les clients du verrouillage des fournisseurs.
On observe que cette stratégie est développée par les actions suivantes :
- Projet open source et collaboratif
- Définition de standards à travers l’industrie
- Elaboration de systèmes permettant la transition vers les technologies conteneurs
Le but étant évidemment de capturer non seulement ce nouveau marché que Google a contribué à créer mais aussi le marché qui est déjà attaché à AWS (en facilitant la transition).
Projet open source et collaboratif
En publiant son outil en tant que projet open source et collaboratif, Google a permis la création de la plus grosse communauté open source ou des entreprises tel que Red Hat, Intel, IBM, Huawei ou encore des développeurs sur leur temps libre collaborent ensemble.
Avec sa communauté forte de 2000 contributeurs unique à travers l’industrie et sa liste impressionnante d’utilisateur, Google a su reprendre les codes et valeurs (open source, libre, non verrouillage) du mouvement conteneur et a réussi à imposer Kubernetes comme l’incontournable outil de référence en terme gestion de cluster de machines.
Standardisation
C’est d’ailleurs grâce à cet outil et cette sa communauté que Google a pu définir des standards à travers l’industrie qui sont suivi par tout le plus grand contributeur de ce mouvement.
On note parmi ceux-ci les standards pour exécuter les conteneurs (CRI et OCI) ainsi que le standard pour le stockage (CSI) ou pour le réseau (CNI). En définissant ces standards, Google signale à tous et notamment Amazon que l’industrie compte bien s’affranchir du verrouillage contraint depuis des années sur les clients des fournisseurs cloud. Google a permis (et continue de permettre) grâce à ce mouvement et au développement des standards de supprimer une partie importante du débat qu’est la situation de verrouillage fournisseur cloud.
Ceci déplace ainsi le débat du choix du fournisseur cloud non plus sur le coût du changement mais uniquement sur la qualité des services fourni (et leur absence ou présence du fournisseur) évidemment Google propose une intégration profonde des services et outils développé avec sa communauté.
Transition
Enfin, grâce notamment à la définition d’un standard d’exécution des conteneurs (CRI), Google ouvre la porte à l’exécution de VM sur Kubernetes et donc d’applications développes avant que le mouvement des conteneurs démarre.
Ceci permettant une transition hybride depuis les applications déjà déployés sur les services AWS car une fois cette transition hybride effectue il est facile de changer de fournisseur.
Qui est sorti vainqueur de l’affrontement et pourquoi ?
Amazon reste le grand vainqueur du domaine du cloud computing et persiste avec sa stratégie de rendre le marché difficilement accessible aux autres fournisseurs. On peut donc imaginer la suite logique de cette stratégie, plus de services et de meilleure qualité, plus de matériel spécialisé et neuf et, peut-être un payement au nombre de cycles CPU. Google de son côté n’a aujourd’hui d’autre stratégie que de subir ce rapport de force et de continuer à suivre l’offre AWS avec souvent plusieurs mois de retard.
Cependant, sa stratégie basée sur la libération du verrouillage porte aujourd’hui ses fruits et permet à Google de capturer de nouvelles parts du marché que Google a contribué à faire émerger.
Mais aussi, grâce à sa stratégie open source, collaborative et permettant de faire tourner Kubernetes non seulement sur le cloud public mais aussi privé et hybride, Google a aussi réussi à convertir et capturer un vaste segment du marché qui même s’il n’utilise pas les services cloud de Google directement se laisse tenter par l’adoption de son outil phare Kubernetes (et pourrait à terme utiliser les services de Google).
De plus, Google a réussi à créer une contradiction dans le rapport de force qui l’oppose à Amazon, en forçant Amazon à rejoindre cet effort en aout dernier alors même que AWS propose sa propre « version de Kubernetes » aux clients via la suite de services EC2.
Renaud Gaubert