Open Container Project, pour libérer les machines virtuelles

closeCet article a été publié il y a 5 ans 11 mois 23 jours, il est donc possible qu’il ne soit plus à jour. Les informations proposées sont donc peut-être expirées.

containerUn sujet, sur lequel je ne suis pas revenu depuis pas mal de temps, est celui du cloud computing. Pourtant, il est désormais devenu partie intégrante de l’informatique des entreprises qui se sont plongées avec frénésie (et pas forcément pour leur bien) dans le gros nuage commercial. Pour beaucoup de patrons d’entreprise, désormais, l’informatique se consomme et le cloud computing est le vecteur de cette transformation. Le résultat est là : Microsoft annonce que le cloud représente désormais 35 % des revenus de sa division PME. C’est tout dire.

Un des points d’achoppement est celui de l’interopérabilité entre les clouds ou fournisseurs de services. Pour être précis, nous parlons ici de la couche basse du cloud : l’IaaS ou Infrastructure as a Service. C’est la possibilité de louer pour une minute, une heure, un jour, un mois, etc. une machine virtuelle dans laquelle nous allons pouvoir installer le système d’exploitation de notre choix. Cette machine virtuelle possède des caractéristiques techniques capables d’évoluer au grès de nos besoins.

Seulement, le jour où je ne suis plus content des services de mon fournisseur, il m’est difficile, voire souvent impossible, de transférer ma machine virtuelle. Je dois donc en prendre une neuve chez le nouveau fournisseur et tout réinstaller, migrer les données, etc..

Il existe pourtant depuis belle lurette des formats d’échanges tels que l’OVF (Open Virtual Machine Format) proposé comme standard de stockage sur disque des images de machines virtuelles depuis 2007. Bien que théoriquement soutenu au travers de la DMTF (Distributed Management Task Force, Inc.) par des acteurs comme Novell, Dell, HP, IBM, Microsoft, VMware, et Citrix, je ne l’ai guère vu mis en œuvre si ce n’est dans VirtualBox d’Oracle.

Depuis maintenant plusieurs mois, un projet dans le domaine de la virtualisation a beaucoup fait parler de lui : Docker. C’est ce projet qui a végété en France pendant trois ans, car personne n’en voulait, avant d’aller connaître un succès fulgurant de l’autre côté de l’Atlantique. Un container c’est une sorte de machine virtuelle, mais contenant en général une unique application.

Voici apparaître un nouveau projet dénommé Open Container Project. Son objectif est de fournir les spécifications d’un format de container standardisé capable de voyager d’un cloud à un autre de façon transparente ou presque. L’initiative est portée par la Linux Foundation et soutenue sur le papier par les gros bonnets du cloud : Amazon, Microsoft, Google et IBM et par des fournisseurs de solutions de cloud : VMware, EMC, Cisco, HP et Red Hat.

C’est Docker bien évidement qui fourni les bases en offrant une portion du code de son logiciel. C’est sur cette base minimale que devrait être construit le nouveau format.

L’annonce est toute fraîche, il va falloir attendre un peu avant de savoir s’il va réellement en sortir quelque chose et si les grands du cloud ont réellement un intérêt à permettre à leurs clients de balader leurs applications d’un nuage à un autre. Je ne sais pas pourquoi, mais je vois le verre à moitié vide…

Philippe Scoffoni

Je barbote dans la mare informatique depuis 30 ans (premier ordinateur à 16 ans, un ORIC ATMOS) et je travaille à mon compte au travers de ma société Open-DSI. J'accompagne les associations, TPE et PME dans leurs choix et dans la mise en oeuvre se solutions informatiques libres.

2 réponses

  1. bonob0h dit :

    Il faut au moins que les grands du cloud annoncent que les clients peuvent passer de chez les uns aux autres facilement !
    Mais c’est comme Obama qui jure qu’il n’espionne plus les gouvernements étrangers ^^

    L’info rappelée qui est peut être la plus importante, c’est qu’en France docker à végété pendant 3 ans !!!

  2. > Un container c’est une sorte de machine virtuelle, mais contenant en général une unique application.

    Disons que surtout c’est le Kernel du « host », de la machine ou VM qui runne Docker, qui va servir à l’application. L’application elle a dans le conteneur librairies dynamiques, fichiers de conf, logs, etc. Mais il n’y a pas vraiment d’OS et de kernel qui « tourne » dans le conteneur. L’ancêtre des conteneurs c’est plutôt le « chroot » que les VMs.
    Et pour cette raison, on ne peux avoir que du Linux (conteneur) sur du Linux (host) ou bien peut-être bientôt du Windows sur du Windows.

    Maintenant il y a aussi plusieurs technos de conteneurs en concurrence: Docker bien sur, mais aussi un système Google en interne qui l’a précédé dans le temps, une autre boite CoreOS qui fait rkt (rocket), et il y en aura encore d’autres, d’où.. la volonté de standardiser: une appli dans un conteneur docker pourra tourner sur un host CoreOS etc. C’est une bonne chose. C’était la meilleure chose à faire.. 😉

    Si vous êtes intéressé au sujet des conteneurs, j’ai fait une petite intro qui est dispo sur slideshare: http://fr.slideshare.net/cm13/introduction-to-docker-48784005 où j’explique les différences entre émulation hardware, VM, conteneurs, à quoi ça sert, comment ça marche (à 30.000 pieds) et comment on s’en sert.

    Cheers,
    Christophe.