VDI et postes clients virtuels : Pourquoi le grand retour ?

Spread the love
  • Yum

VDI et postes clients virtuels : Pourquoi le grand retour ?

Le poste client virtuel et l’infrastructure VDI (virtual desktop infrastructure) relèvent de concepts très proches : c’est la possibilité de délivrer, sous forme de “machines virtuelles” (VM), des ressources informatiques complètes – applications, outils de développement de logiciels systèmes, etc. – à des postes clients, “légers” ou non, c’est-à-dire des claviers et écrans dépourvus de processeur et de mémoire, la connexion s’effectuant par un simple boîtier. Elle est, en effet, devenue accessible à tous terminaux – PC fixes ou portables, Mac ou encore à des tablettes ou smartphones (cf. le concept BYOD, “bring your own device”) – sous réserve que les applications disponibles soient compatibles avec les OS et l’affichage-écran de ces terminaux.

Voilà pourquoi la VDI répond bien aux besoins du télétravail et a rendu de grands services lors des récentes périodes de confinement.

publicité

Architecture RAID ou hyperconvergée

La VDI consiste à créer un “front-end” pour découpler environnement de travail et terminal utilisé (on parle aussi de “remote desktop services”, ou RDS). C’est une infrastructure, car elle permet de déployer des dizaines, centaines ou milliers d’environnements de travail à un serveur ou pool de serveurs centralisés à travers un réseau local et/ou distant. Ce serveur central reconnaît et traduit les instructions du système d’exploitation utilisé par le terminal (Linux, Windows, iOS, Android ou autre) pour donner accès aux applications souhaitées. Une architecture de serveurs en mode “cluster” avec contrôleur RAID est recommandée pour rendre l’infrastructure bien robuste. Ou une infrastructure hyperconvergée (HCI).

Les environnements de travail s’activent, à la demande après authentification sécurisée des utilisateurs – typiquement à travers un accès VPN (virtual private network) protégé par chiffrement.

Deux éléments clés sont à considérer : le “connection broker”, qui gère la connexion du poste virtuel à un “pool” de connexions et de ressources partagées. Et l’hyperviseur, qui exécute les postes virtuels, appelé Virtual Machine Monitor (VMM). C’est un logiciel “plateforme”, un firmware ou une “appliance” qui crée, segmente et exécute les machines virtuelles (VM) hébergeant les environnements de postes de travail virtuels. L’ordinateur sur lequel tournent ces VM est le “host” (serveur hôte). Chaque VM est désignée “guest machine” (machine hébergée).

Permanente ou non, sur le cloud ou non

Une VDI peut être permanente (chaque poste virtuel étant configuré et mémorisé de façon personnalisée, comme sur un poste physique) ou non permanente (les postes virtuels créés sont génériques ; les modifications apportées ne sont pas enregistrées – solution plus économique).

Les ressources informatiques peuvent être hébergées soit dans le datacenter de l’entreprise soit chez un prestataire hébergeur. Elles tendent aussi à être installées dans un cloud (cf. le DaaS, Desktop as a service). Une infrastructure virtualisée présente l’avantage d’une protection des données élevée grâce à un verrouillage des postes par l’administrateur, et grâce à une automatisation des “patchs” de sécurité, des réplications et des sauvegardes de données sur un système hôte central sécurisé.

A la clé, ce sont des économies d’échelle, du fait que les utilisateurs partagent des ressources globales mutualisées qui leur sont allouées à un instant T.

Les administrateurs d’une solution VDI peuvent cloner, selon les besoins métiers, des groupes ou “pools” de PC virtuels ou machines virtuelles (VM) identiques et mis à jour simultanément depuis un point central unique, en une seule fois.

Les écueils à éviter

Cela ne signifie pas pour autant qu’un projet VDI se met en place en un claquement de doigts. Il peut être long et complexe à déployer, notamment à cause du casse-tête des licences logicielles, souvent dispersées, et pouvant verrouiller le nombre de postes simultanément actifs. Tout le parc logiciel doit être homogène.

Autre point clé : l’administration des pilotes d’impression et des écrans d’affichage ; et, plus particulièrement critique, la gestion des environnements multimédia et de visioconférence (ouverture aux divers protocoles vidéo du marché, comme Stream, sur PC, Mac, smartphones). On veillera à utiliser et installer correctement des protocoles éprouvés comme, par exemple, le déport d’affichage HDX ICA (Independant Computing Architecture). Mais on n’est jamais à l’abri d’incompatibilités cachées. Merci les forums…

Parmi les points à surveiller, il faut aussi prévoir l’effacement des données à la demande et sans risques (mise à la corbeille). Autre point critique, plus classique : l’infrastructure devra être suffisamment dimensionnée pour supporter une extension du parc de postes de travail, y compris en termes de licences et, entre autres, celles des serveurs de chiffrement de clés VPN (typiquement Fortinet ou F5 Networks, etc.). La bande passante doit être suffisante, sinon c’est la chute des temps de réponse à certaines heures de la journée.

Une offre multiple

Parmi les diverses solutions VDI du marché, la plus répandue est celle de Citrix (XenDesktop), suivie de VMware (View), de Microsoft (Virtual Desktop, ou Citrix), IBM / RedHat, Oracle VDI ou encore Systancia, sans oublier des solutions open source comme LTSP (Linux Terminal Server Project) d’Edubuntu.

A noter que les solutions de VDI sont tout à fait adaptées aux systèmes dits “hyperconvergés” où les fonctions de calcul, de réseau et de stockage sont intégrées dans un seul nœud serveur (cf. Nutanix, Dell Vx-Rail, Simplivity, etc.).

Solutions sur le cloud

Enfin, la VDI tend à retrouver une nouvelle jeunesse, car elle peut aujourd’hui être installée et beaucoup plus facilement déployée via un cloud, comme le propose, entre autres, VMware (Horizon Cloud). Le point de contrôle, unique, est situé dans le cloud, ce qui simplifie énormément l’administration et le déploiement de l’ensemble.

Leave a Reply

%d bloggers like this: