Le B.A.-BA de la sécurité –la sauvegarde consciencieuse des serveurs d’entreprise- serait-elle en passe de devenir un acte à catégoriser dans la colonne « dénis de services et autres calamités » ? C’est ce que nous apprend en tous cas cet article de Steve Kenniston. Lorsque l’on lance une sauvegarde de serveur, combien de ressources cette opération prend-elle ? En moyenne 25 % de la capacité de la machine en train de se faire « backuper ». Que l’on possède 4 ou 12 serveurs, ce taux est propre à chaque machine et n’évolue pas particulièrement. Mais si ces 12 serveurs sont tout à coup concentrés sur une seule plateforme, que se passe-t-il ? Un raz de marée de données, une montée en charge qui frise les 80%… autrement dit, une saturation des ressources peu compatible avec les assurances de permanence de service que nous promet la virtualisation. Pourquoi ce goulot d’étranglement et cette noyade ? Parce que 12 serveurs, c’est, nous explique l’auteur, 12 cartes réseau, 12 espaces mémoires répartis, 12 processeurs (au moins) etc. Or, un « host » de virtualisation n’est que très rarement de type dodéca-processeurs, n’aligne pas 13 cartes Gigabit à la douzaine et ainsi de suite. Les lois matérielles sont imparables –c’est ce qui fit longtemps la puissance des mini- : la puissance d’une machine dépend aussi de ses capacités en termes d’E/S. C’est pourquoi plus on cherche à protéger les serveurs que l’on a virtualisé par souci de sécurité, plus on risque le sinistre. Un paradoxe savoureux qui risque d’enquiquiner quelques administrateurs et autres sectateurs du Cloud interne.