AWS : archivage automatique vers le stockage profond dans S3, et grosses promesses d’économies à la clé

Spread the love
  • Yum

Amazon annonce plusieurs nouvelles extensions de son service de stockage dans le cloud S3 dans le cadre de son deuxième événement annuel Storage Day. Les nouvelles offres comprennent la possibilité de déplacer automatiquement les données vers la forme de stockage la moins chère lorsqu’elles n”ont pas été utilisées pendant de longues périodes.

aws-archive-access-tier-2020.png

publicité

Les nouvelles offres couvrent de nombreuses offres de stockage Amazon, y compris Simple Storage Service, ou S3 ; le système de fichiers Lustre, utilisé pour les configurations informatiques à haute performance (HPC) ; le stockage sur Windows File Server; Elastic Block Storage; Elastic File System; AWS Snow; et Data Sync.

Pour S3, Amazon a supprimé la nécessité de préparer les objets pour les déplacer vers S3 Glacier et S3 Glacier Deep Archive. Ces niveaux de stockage sont moins chers que le stockage principal de S3. AWS va maintenant déplacer un actif donné du stockage principal de S3 vers les autres niveaux de sauvegarde automatiquement après que ces actifs soient restés inutilisés pendant 90 jours ou 180 jours, respectivement.

aws-intelligent-tiering-2020.png

Il peut en résulter de grandes économies pour les clients, explique AWS : “Vous pouvez obtenir un accès à haut débit et à faible latence à vos données lorsque vous en avez besoin immédiatement, mais aussi payer automatiquement moins d’un dollar par To par mois lorsque les objets n’ont pas été consultés pendant 180 jours ou plus”. Selon Amazon, “les clients de (cette offre) S3 Intelligent-Tiering ont déjà réalisé des économies allant jusqu’à 40% et maintenant, grâce aux nouveaux niveaux d’accès aux archives, ils peuvent réduire les coûts de stockage jusqu’à 95% pour les objets rarement consultés”.

Le nouveau service Archive Access Tier est une extension du service S3 Intelligent Tiering dévoilé il y a un an.

La nouvelle offre de Lustre permet à un client de fixer des limites d’utilisation du stockage pour une équipe. Pour Windows File Server, les clients peuvent désormais configurer une entrée DNS lors de la création d’un partage de fichiers Windows, afin d’éliminer la complexité de l’accès aux fichiers à partir d’applications en mode cloud.

En outre, les applications fonctionnant dans des conteneurs sur Elastic Compute Service peuvent désormais accéder directement à un partage de fichiers Windows : “Les charges de travail Windows basées sur des conteneurs et fonctionnant sur Amazon ECS peuvent désormais accéder à Amazon FSx pour les partages de fichiers Windows File Server. Cela permet à ECS d’exécuter des charges de travail avec état, des systèmes de gestion de contenu et d’autres applications qui nécessitent un stockage partagé permanent. Il vous suffit de spécifier l’identifiant du système de fichiers et le point de montage dans la définition de votre tâche, et ECS s’occupe du reste” explique AWS.

Source : “ZDNet.com”

Leave a Reply

%d bloggers like this: