Overblog Suivre ce blog
Editer l'article Administration Créer mon blog

Windows 8 gérera nativement les très gros disques durs

30 Novembre 2011 , Rédigé par Jean Michel Graveron Publié dans #Actualités Informatique

Un nouveau billet sur le blog du développement de Windows 8 permet à Microsoft d’expliquer ce que va gérer la prochaine version majeure de son système. Contrairement aux billets précédents, celui-ci reflète des choix faits sur la base d’une migration profonde en cours dans le monde du stockage. Histoire du disque dur et explications.


win8
 

L’évolution des disques durs impose des obligations

Le sort des disques durs s’est majoritairement joué dans les années 1980. À une époque où l’on pouvait dépenser 1500 dollars pour une unité de 5 Mo, des choix ont été faits par les industriels pour s’accorder sur des éléments communs.

L’adressage utilisait ainsi la méthode CHS (Cylinder-Head-Sector) qui utilisait des numéros de cylindres, têtes et secteurs du disque dur pour pointer vers une zone de données. Ce référencement géométrique fut abandonné car la méthode avait une limite intrinsèque de 137 Go. Au-delà, une autre méthode fut utilisée, LBA (Logical Block Addressing), avec lequel l’adressage se faisait via une valeur absolue pour un numéro de secteur. Le LBA imposait également une taille prédéfinie pour chaque secteur, telle que 512 octets jusqu’à récemment.

Techniquement, utiliser le LBA permet de ne pas avoir de limite dans l’adresse d’un disque dur, mais ce n’est évidemment pas si simple. Durant les premières années de vie des disques, le besoin de créer des partitions s’est fait sentir. Le MBR, pour Master Boot Record, fut alors créé pour garder un inventaire de ces partitions. Malheureusement, le nombre total d’informations pouvant être stockées sur un disque dur était codé via une valeur 32 bits, ce qui autorise un maximum de 2,2 To. Un chiffre qui n’a rien d’inconnu.

La solution est connue mais tarde à s’implanter dans le monde du PC : la GUID Partition Table (GPT), faisant elle-même partie de la norme UEFI. Contrairement au MBR, le nombre d’informations est codé sur 64 bits au sein de la GPT, ce qui permet en théorie une capacité d’un milliard de To. Mais même la conjonction d’une GPT et du LBA n’est pas suffisante pour régler le problème des disques durs de plus en plus gros.

Comme indiqué précédemment, la taille des secteurs a longtemps été fixée à 512 octets. Cette taille a fini par poser un problème. Ceux qui suivent l’actualité des disques durs savent que les plateaux qui les composent voient leur densité augmenter sans cesse. Cette densité provoque un rapprochement physique des secteurs, ce qui finit par engendrer des erreurs à la lecture. Pour compenser ces erreurs, des Error Correction Codes (ECC) sont intégrés dans les secteurs. Mais la densité atteint un tel niveau qu’ils ne suffisent presque plus tout en consommant beaucoup de place dans les secteurs. Solution ? Formater les disques durs pour créer des secteurs de 4 Ko. Ce formatage 4K est dit « AF » (Advanced Format) et est utilisé dans pratiquement tous les disques d’une taille supérieure à 2,2 To vendues aujourd’hui (avec une couche d’émulation pour supporter les écritures faites pour des secteurs de 512 octets).
 

Et Windows 8 dans tout ça ?

Microsoft va en fait profiter de son programme de certification de machines OEM pour favoriser un certain nombre d’éléments. Premièrement, l’utilisation de l’UEFI sera obligatoire, comme on a pu le voir avec le Secure Boot.

Deuxièmement, d’ici à la sortie du système, les disques durs fournis en standard devraient être de 3 To ou davantage, du moins si la crise actuelle ne casse pas la tendance. La GPT remplacera donc le MBR. Bien entendu, le LBA sera de la partie. L’éditeur souhaite cette combinaison de facteurs pour permettre facilement le Secure Boot, le chiffrement  des données et le démarrage rapide.

Pour information, Apple utilise la table GUID depuis plusieurs années pour les disques livrés dans les Mac. Cette situation est facilitée par la maîtrise du matériel et du logiciel, alors que Microsoft doit s'accorder avec les constructeurs pour créer le contexte favorable.

Pour Windows 8, la question est donc : puisqu’il faut stocker encore plus de données qu’avec les anciens Windows, quel sera le système de fichiers utilisé ? Réponse: le NTFS.
 

Nouvelle version du NTFS

Il ne s’agit toutefois pas du NTFS actuel. L’un des objectifs de Windows 8 est en effet de pouvoir se passer de la couche d’émulation présente dans certains disques durs et qui permet d’écrire dans des secteurs de 4 Ko. Il faut savoir en effet que ce « tronçon » de 4 Ko est d’abord préparé de manière logicielle via huit sections de 512 octets. Une fois ces sections prêtes, l’ensemble est écrit physiquement sur le disque. Le but est de pouvoir écrire directement sur le disque, sans passer par cette étape qui peut diminuer les performances.

Le NTFS de Windows 8 supporte donc nativement les deux types de secteurs : 512 octets et 4 Ko. Cette capacité du système passe par plusieurs moyens :
  • Blue-Square-GEL.gif Un lot d’API, nouvelles et existantes améliorées, pour permettre aux applications d’établir des requêtes vers des secteurs physiques
  • Blue-Square-GEL.gif L’amélioration de la détection  des secteurs larges par le NTFS
  • Même amélioration au sein du récent format de fichier VHDx pour les machines virtuelles créées par Hyper-V
  • Blue-Square-GEL.gif Modification de la séquence de démarrage de Windows pour utiliser nativement les secteurs de 4 Ko.
Bien que cette évolution semble aller dans le bon sens, les utilisateurs passeront nécessairement par une période où des questions de compatibilités se poseront à un moment ou un autre. Si ce n’est une inquiétude pour les disques durs internes, ce sera potentiellement le cas des modèles externes, dont les capacités grandissent aussi. Il y a aura probablement des surprises quand un disque voyagera d’une machine à une autre et que son formatage ne sera pas reconnu.
Source-PCinpact.png

Partager cet article

Commenter cet article