1.4. Configuration et connexion du matériel du cluster

Après avoir installé Red Hat Enterprise Linux, configurez les composants matériels du cluster et vérifiez l'installation pour vous assurer que les membres reconnaissent bien tous les périphériques connectés. Notez que les étapes spécifiques pour installer le matériel dépendent du type de configuration. Consultez la Section 1.1 pour obtenir de plus amples informations sur les configurations de cluster.

Pour installer le matériel du cluster, suivez les étapes suivantes :

  1. Éteignez les membres du cluster et déconnectez-les de leur source d'alimentation électrique.

  2. Configurez les canaux Ethernet liés, si possible. Reportez-vous à la Section 1.4.1 pour davantage d'informations.

  3. Lors de l'utilisation d'interrupteurs, installez-les et connectez chaque membre à un interrupteur. Consultez la Section 1.4.2 pour obtenir plus d'informations.

    De plus, il est recommandé de connecter chaque interrupteur (ou le câble électrique de chaque membre, si vous n'utilisez pas d'interrupteur) à un système UPS différent. Consultez la Section 1.4.3 pour obtenir plus d'informations sur l'utilisation de systèmes UPS facultatifs.

  4. Installez le stockage disque partagé conformément aux instructions du revendeur et connectez les membres à la baie de stockage externe. Consultez la Section 1.4.4 pour obtenir plus d'informations sur la façon d'exécuter cette tâche.

    De plus, il est recommandé de connecter la baie de stockage à des systèmes UPS redondants. Consultez la Section 1.4.3 pour obtenir plus d'informations sur l'utilisation de systèmes UPS facultatifs.

  5. Mettez le matériel sous tension et démarrez chaque membre du cluster. Pendant le processus d'amorçage, entrez dans l'utilitaire du BIOS pour modifier la configuration du membre de la manière suivante :

    • Assurez-vous que le numéro d'identification SCSI utilisé par l'adaptateur bus hôte (HBA) est unique pour le bus SCSI auquel il est relié. Consultez la Section B.5 pour obtenir plus d'informations sur la façon d'exécuter cette tâche.

    • Activez ou désactivez les terminaisons sur carte de chaque adaptateur bus hôte selon les besoins de la configuration de stockage. Consultez la Section 1.4.4 et la Section B.3 pour obtenir plus d'informations sur la façon d'exécuter cette tâche.

    • Activez le membre de façon à ce qu'il s'amorce automatiquement lors de la mise sous tension.

  6. Sortez de l'utilitaire du BIOS et continuez à amorcer chaque membre. Examinez les messages de démarrage pour vérifier que le noyau Red Hat Enterprise Linux a bien été configuré et peut reconnaître l'ensemble des disques durs partagés. Utilisez la commande dmesg pour afficher les messages de démarrage de la console. Consultez la Section 1.3.3 pour obtenir plus d'informations sur l'utilisation de la commande dmesg.

  7. Vérifiez que les membres peuvent communiquer à travers chaque connexion Ethernet point-à-point en utilisant la commande ping pour envoyer des paquets à travers chaque interface réseau.

  8. Configurez les partitions du cluster partagées sur le stockage disque partagé. Consultez la Section 1.4.4.3 pour obtenir plus d'informations sur la façon d'exécuter cette tâche.

1.4.1. Configuration de liaisons de canaux Ethernet

La liaison de canaux Ethernet dans un système de cluster sans aucun point de défaillance permet une connexion réseau tolérante aux pannes en combinant deux périphériques Ethernet en un seul périphérique virtuel. L'interface de liaison de canaux résultant assure que, dans le cas de la défaillance d'un périphérique Ethernet, l'autre périphérique deviendra actif. Ce type de liaison de canaux, appelée politique de sauvegarde-active (active-backup), permet la connexion des deux périphériques sur un commutateur. Elle peut également permettre à chaque périphérique Ethernet d'être connecté à des bus ou des commutateurs séparés, ce qui élimine tout point de défaillance unique dans le hub ou le commutateur réseau.

La liaison de canaux requiert que chaque membre du cluster ait deux périphériques Ethernet installés. Une fois chargé, le module de liaison utilise l'adresse MAC du premier périphérique réseau asservi et assigne cette adresse à l'autre périphérique réseau si le premier périphérique échoue la détection de liens.

Afin de configurer deux périphériques réseau pour la liaison de canaux, effectuez les opérations suivantes :

  1. Créez un périphérique de liaison dans /etc/modules.conf. Par exemple :

    alias bond0 bonding
    options bonding miimon=100 mode=1

    Cela charge le périphérique de liaison avec le nom d'interface bond0. Les options sont également transmises au pilote de liaison afin de le configurer en tant que périphérique maître de sauvegarde-active pour les interfaces réseau asservies.

  2. Éditez le fichier de configuration /etc/sysconfig/network-scripts/ifcfg-ethX pour eth0 et eth1, afin que les fichiers aient des contenus identiques. Par exemple :

    DEVICE=ethX
    USERCTL=no
    ONBOOT=yes
    MASTER=bond0
    SLAVE=yes
    BOOTPROTO=none

    Cela asservira ethX (remplacez X par le numéro assigné des périphériques Ethernet) au périphérique maître bond0.

  3. Créez un script réseau pour le périphérique de liaison (par exemple, /etc/sysconfig/network-scripts/ifcfg-bond0), qui devrait ressembler à l'exemple suivant :

    DEVICE=bond0
    USERCTL=no
    ONBOOT=yes
    BROADCAST=192.168.1.255
    NETWORK=192.168.1.0
    NETMASK=255.255.255.0
    GATEWAY=192.168.1.1
    IPADDR=192.168.1.10
  4. Redémarrez le système afin que les changements prennent effet. Vous pouvez également charger manuellement le périphérique de liaison et redémarrer le réseau. Par exemple :

    /sbin/insmod /lib/modules/`uname -r`/kernel/drivers/net/bonding/bonding.o \
    	      miimon=100 mode=1
    /sbin/service network restart

1.4.2. Configuration des interrupteurs

Des interrupteurs permettent à un membre de prendre le relais d'un autre membre, avant de redémarrer ses services dans le cadre d'une procédure de failover. Cette capacité à désactiver un membre à distance permet de maintenir l'intégrité des données dans tous les cas de pannes. Il est recommandé que les environnements de production utilisent des interrupteurs ou des horloges chiens-de-garde dans la configuration du cluster. Seuls des environnements de développement (tests) devraient utiliser une configuration sans interrupteur. Reportez-vous à la Section 1.1.3 pour obtenir une description des différents types d'interrupteurs. Notez bien que dans cette section, le terme général "interrupteur" englobe également les horloges chiens-de-garde.

Dans une configuration de cluster utilisant des interrupteurs physiques, le câble électrique de chaque membre est connecté à un interrupteur soit par une connexion série, soit par une connexion réseau (selon le type d'interrupteur). Lors d'une procédure de failover, un système cluster peut utiliser cette connexion pour prendre le relais d'un autre membre avant de redémarrer ses services.

Les interrupteurs protègent contre la corruption des données dans le cas où un système qui ne répond pas (ou est suspendu avec un statut hung) répond à nouveau après le basculement (failover) de ses services et envoie un message E/S à un disque qui reçoit aussi un message E/S d'un autre membre. De plus, si un démon Quorum est défaillant sur un membre, ce dernier n'est plus en mesure de surveiller les partitions de cluster partagé. Si des interrupteurs ou horloges chiens-de-garde ne sont pas utilisés dans le cluster, cette situation peut entraîner le lancement de services sur plusieurs membres, provoquant la corruption de données et la possibilité d'un plantage du système.

Il est fortement recommandé d'utiliser des interrupteurs dans un cluster. Néanmoins, les administrateurs conscients des risques choisiront peut-être d'établir un cluster sans interrupteur.

Il se peut qu'un membre soit suspendu (ou hung) pour quelques secondes s'il effectue des opérations d'échange de mémoire ou si le système a une charge de travail élevée. Pour cette raison, une durée adéquate est allouée avant qu'un autre membre ne soit déclaré défaillant (généralement 12 secondes).

Si un membre détermine qu'un autre membre suspendu (ou hung) n'est pas opérationnel et que des interrupteurs sont utilisés dans le cluster, ce membre prendra le relais du membre suspendu avant de redémarrer ses services. Les clusters configurés pour utiliser des horloges chiens-de-garde redémarre d'eux-mêmes dans la plupart des situations de système suspendu. Ceci entraîne le redémarrage du membre suspendu de façon nette tout en l'empêchant d'émettre des E/S et de corrompre les données de service.

Les membres suspendus (aussi qualifiés de hung) redémarrent d'eux-mêmes suite à l'intervention d'un chien-de-garde, à l'incapacité à envoyer des paquets de pulsation (heartbeat) ou — dans le cas où un membre ne dispose pas d'interrupteurs électriques physiques — lorsque l'état du Quorum ne permet pas l'accès au volume physique.

Les membres suspendus peuvent être redémarrés par d'autres membres s'ils sont reliés à un interrupteur. Dans le cas où le membre suspendu demeure non opérationnel et en l'absence d'interrupteurs, un redémarrage manuel est nécessaire.

Si des interrupteurs sont utilisés, ils doivent être installés conformément aux instructions du revendeur. Néanmoins, il est possible que certaines tâches spécifiques au cluster doivent utiliser un interrupteur dans le cluster. Consultez la Section B.1 pour obtenir des informations détaillées sur les interrupteurs (y compris des informations sur les horloges chiens-de-garde). Prenez bien note de tout avertissement ou des attributs fonctionnels des types d'interrupteurs spécifiques. Notez bien également que les informations spécifiques au cluster fournies dans ce guide remplacent les informations du revendeur.

Lors du raccordement des interrupteurs aux câbles, assurez-vous bien que chaque câble est branché dans la prise appropriée. Ce point est crucial car les logiciels n'ont aucun moyen distinct de vérifier que le câblage est effectué correctement. Un mauvais câblage peut entraîner la prise en charge du mauvais membre ou peut induire un membre en erreur en le faisant conclure à tort qu'il a réussi à prendre le relais d'un autre membre du cluster.

Après avoir installé les interrupteurs, exécutez les tâches suivantes afin de les connecter aux membres :

  1. Connectez les câbles électriques de chaque membre à un interrupteur.

  2. Connectez chaque membre à l'interrupteur. Le câble utilisé pour la connexion dépend du type d'interrupteur. Un interrupteur relié série utilise des câbles null modem, alors qu'un interrupteur relié au réseau utilise un câble Ethernet.

  3. Connectez le câble électrique de chaque interrupteur à une source d'alimentation électrique. Il est également recommandé de connecter chaque interrupteur à un système UPS différent. Consultez la Section 1.4.3 pour obtenir plus d'informations.

Après avoir installé le logiciel de cluster, testez les interrupteurs pour vous assurer que chaque membre peut prendre le relais de l'autre membre avant de démarrer le cluster. Consultez la Section 2.11.2 pour obtenir davantage d'informations.

1.4.3. Configuration des systèmes UPS

Les systèmes fournissant une alimentation électrique ininterrompue (ou UPS de l'anglais Uninterruptible Power Supply) fournissent une source d'alimentation électrique à haute disponibilité. De façon idéale, il faudrait utiliser une solution redondante, incorporant de multiples systèmes UPS (un par serveur). Pour une tolérance maximale aux pannes, il est possible d'incorporer deux systèmes UPS par serveur ainsi que des commutateurs de transfert automatique APC (Automatic Transfer Switches) pour gérer l'alimentation électrique et désactiver la gestion du serveur. Les deux solutions dépendent entièrement du niveau de disponibilité souhaité.

Il n'est pas recommandé d'utiliser une seule infrastructure UPS comme source unique d'alimentation électrique du cluster. Une solution UPS dédiée au cluster lui-même offre plus de flexibilité en matière de capacité de gestion et de disponibilité.

Une système UPS complet doit pouvoir fournir une tension et un courant appropriés pour une longue période de temps. Bien qu'il n'existe pas un seul système UPS pour répondre à tous les besoins en électricité, une solution sur mesure peut être élaborée pour correspondre à une configuration particulière.

Si le sous-système du stockage disque du cluster a deux sources d'alimentation avec des cordons électriques séparés, configurez deux systèmes UPS et connectez un interrupteur (ou le cordon électrique d'un système cluster si vous n'utilisez pas d'interrupteur) et un des cordons électriques du sous-système de stockage à chaque système UPS. La Figure 1-3 montre la configuration redondante d'un système UPS.

Figure 1-3. Configuration redondante d'un système UPS

Il est également possible de configurer l'alimentation électrique de façon redondante en connectant les interrupteurs (ou les cordons électriques des membres) et le sous-système du stockage disque au même système UPS. Ce type de configuration est le moins coûteux et offre une certaine protection en cas de panne de courant. Néanmoins, dans le cas d'une coupure de courant, le seul système UPS devient un point de défaillance possible. De plus, un seul système UPS ne sera peut-être pas en mesure de fournir suffisamment d'énergie à tous les périphériques attachés pour une durée adéquate. La Figure 1-4 montre la configuration d'un système UPS unique.

Figure 1-4. Configuration d'un système UPS unique

Bon nombre de systèmes UPS fournis par les revendeurs incluent des applications Red Hat Enterprise Linux qui contrôlent le statut opérationnel du système UPS au moyen d'une connexion de port série. Si la pile est usée et fournit une faible tension, le logiciel de contrôle amorce un arrêt net du système. Lors de cette opération, le logiciel de cluster s'arrête correctement car il est contrôlé par un script du niveau d'exécution du SysV (par exemple, /etc/rc.d/init.d/clumanager).

Référez-vous à la documentation UPS fournie par le revendeur pour obtenir des informations détaillées sur l'installation.

1.4.4. Configuration du stockage disque partagé

Dans un cluster, un stockage disque partagé est utilisé pour contenir les données de services et deux partitions (primaire et secondaire) qui conservent les informations relatives à l'état du cluster. Parce que ce stockage doit être disponible pour tous les membres, il ne peut se trouver sur des disques qui dépendent de la disponibilité d'un membre particulier. Référez-vous à la documentation du revendeur pour des informations détaillées sur le produit et son installation.

Un certain nombre de facteurs doivent être pris en considération lors de l'installation d'un stockage disque partagé dans un cluster :

La liste suivante énumère les besoins des SCSI parallèles qui doivent être respectés lors de l'utilisation de bus SCSI parallèles dans un environnement de cluster :

Consultez la Section B.2 pour obtenir davantage d'informations.

Il est fortement recommandé de connecter la baie de stockage à des systèmes UPS redondants afin de disposer d'une source d'alimentation à haute disponibilité. Consultez la Section 1.4.3 pour davantage d'informations.

Consultez la Section 1.4.4.1 et la Section 1.4.4.2 pour obtenir davantage d'informations sur la configuration de stockage partagé.

Après avoir installé le matériel du stockage disque partagé, partitionnez les disques et ensuite créez soit des systèmes de fichiers, soit des périphériques bruts sur les partitions. Deux périphériques bruts doivent être créés pour les partitions partagées du cluster, à savoir la partition primaire et la partition secondaire. Consultez la Section 1.4.4.3, la Section 1.4.4.4, la Section 1.4.4.5 et la Section 1.4.4.6 pour obtenir davantage d'informations.

1.4.4.1. Installation d'un bus SCSI initiateur-simple

Un bus SCSI initiateur-simple n'est connecté qu'à un membre et permet non seulement l'isolement de l'hôte mais fournit également de meilleures performances qu'un bus initiateur-multiple. Les bus initiateur-simple assurent la protection de chaque membre contre des perturbations dues à la charge de travail, à l'initialisation ou à des réparations sur les autres membres.

Lors de l'utilisation d'une matrice RAID contrôleur-double munie de multiples ports hôtes et offrant l'accès simultané à toutes les unités logiques partagées des ports hôte sur la baie de stockage, il est possible d'installer deux bus SCSI initiateur-simple pour connecter chaque membre du cluster à la matrice RAID. Si une unité logique peut basculer d'un contrôleur à un autre, le processus doit être transparent pour le système d'exploitation. Notez bien que certains contrôleurs RAID limitent un ensemble de disques à un contrôleur ou à un port spécifique. Dans ce cas-là, l'installation de bus initiateur-simple n'est pas possible.

Un bus initiateur-simple doit respecter les besoins décrits dans la Section B.2.

Pour établir la configuration d'un bus SCSI initiateur-simple, il est nécessaire d'effectuer les opérations suivantes :

  • Activez la terminaison sur carte de chaque adaptateur bus hôte.

  • Activez la terminaison de chaque contrôleur RAID.

  • Utilisez le câble SCSI approprié pour connecter chaque adaptateur bus hôte à la baie de stockage.

La configuraton de la terminaison d'adaptateurs bus hôte est généralement effectuée dans l'utilitaire du BIOS de l'adaptateur lors de l'amorçage du membre. Pour établir les terminaisons des contrôleurs RAID, référez-vous à la documentation fournie par le revendeur. La Figure 1-5 montre une configuration utilisant deux bus SCSI initiateur-simple.

Figure 1-5. Configuration d'un bus SCSI initiateur-simple

La Figure 1-6 montre la terminaison dans une matrice RAID contrôleur-simple connectée à deux bus SCSI initiateur-simple.

Figure 1-6. Matrice RAID contrôleur-simple connectée à des bus SCSI initiateur-simple

La Figure 1-7 montre la terminaison dans une matrice RAID contrôleur-simple connectée à deux bus SCSI initiateur-simple.

Figure 1-7. Matrice RAID contrôleur-double connectée à des bus SCSI intitiateur-simple

1.4.4.2. Installation d'un câble d'interconnexion Fibre Channel

Fibre Channel peut être utilisé dans des configurations initiateur-simple ou initiateur-multiple.

Un câble d'interconnexion initiateur-simple Fibre Channel n'est relié qu'à un seul membre. Cette configuration peut fournir un meilleur isolement de l'hôte et une meilleure performance qu'un bus initiateur-multiple. Des câbles d'interconnexion initiateur-simple assurent la protection de chaque membre contre des perturbations dues à la charge de travail, à l'initialisation ou encore aux réparations de l'autre membre.

Si vous employez une matrice RAID qui a des ports hôtes multiples et qu'elle fournit un accès simultané à toutes les unités logiques partagées à partir des ports hôtes de la baie de stockage, installez des câbles d'interconnexion initiateur-simple Fibre Channel pour connecter chaque membre à la matrice RAID. Si une unité logique peut basculer d'un contrôleur à un autre, le processus doit être transparent pour le système d'exploitation.

La Figure 1-8 représente une matrice RAID à contrôleur-simple avec deux ports hôtes et les adaptateurs bus hôtes connectés directement au contrôleur RAID, sans utiliser de hubs ou de commutateurs Fibre Channel. Lorsque vous utilisez ce type de connexion Fibre Channel à initiateur-simple, votre contrôleur RAID doit posséder un port hôte séparé pour chaque membre du cluster.

Figure 1-8. Matrice RAID Contrôleur-simple connectée à des câbles d'interconnexion initiateur-simple Fibre Channel

La matrice RAID externe doit posséder un canal SCSI séparé pour chaque membre du cluster. Dans les clusters à plusieurs membres, connectez chaque membre à un canal SCSI différent sur la matrice RAID, en utilisant un bus SCSI à initiateur-simple comme l'illustre la Figure 1-8.

Pour connecter plusieurs membres du cluster sur le même port hôte sur la matrice RAID, utilisez un hub ou commutateur FC. Dans ce cas, chaque HBA est connecté au hub ou commutateur, et celui-ci est connecté à un port hôte sur le contrôleur RAID.

Un hub ou commutateur Fibre Channel est également requis avec une matrice RAID à double contrôleurs avec deux ports hôtes sur chaque contrôleur. Cette configuration est représentée dans la Figure 1-9. Des membres du cluster supplémentaires peuvent être connectés au hub ou au commutateur Fibre Channel sur le diagramme. Certaines matrices RAID incluent un hub intégré afin que chaque port hôte soit déjà connecté à chacun des contrôleurs RAID internes. Dans ce cas, un hub ou commutateur externe supplémentaire peut être nécessaire.

Figure 1-9. Matrice RAID contrôleur-double connectée à des câbles d'interconnexion initiateur-simple Fibre Channel

1.4.4.3. Configuration des partitions de cluster partagées

Deux périphériques bruts doivent être créés sur le stockage disque partagé pour la partition primaire partagée et pour la partition masquée partagée. Chaque partition partagée doit avoir une taille minimum de 10 Mo. La quantité de données dans une partition partagée est constante ; elle n'augmente pas et ne diminue pas au cours du temps.

Les partitions partagées sont utilisées pour conserver des informations sur l'état du cluster ; parmi ces dernières figurent les éléments suivants :

  • États des verrous du cluster

  • États des services

  • Informations de configuration

Périodiquement, chaque membre enregistre le statut de ses services dans le stockage partagé. De plus, les partitons partagées contiennent une version du fichier de configuration du cluster. Ceci permet de s'assurer que chaque membre a bien la même perception de la configuration du cluster.

Si la partition primaire partagée est corrompue, les membres du cluster lisent les informations dans la partition secondaire (de sauvegarde) partagée et simultanément réparent la partition primaire. La cohérence des données est maintenue par des sommes de contrôle et toute contradiction entre les deux partitions est automatiquement corrigée.

Si un membre ne peut pas enregistrer d'informations dans les deux partitions partagées au moment de la mise en route, il ne sera pas autorisé à faire partie du cluster. De plus, si un membre actif ne peut plus écrire dans les deux partitions partagées, le membre se retirera du cluster en se réamorçant (et sera peut-être pris en charge à distance par un membre sain du cluster).

Ci-dessous figurent les besoins des partitions partagées :

  • Les deux partitions doivent avoir une taille minimale de 10 Mo.

  • Les partions partagées doivent être des périphériques bruts. Elles ne peuvent pas contenir de systèmes de fichiers.

  • Des partitions partagées ne peuvent être utilisées que pour des informations sur l'état du cluster ou sa configuration.

Ci-dessous figurent les instructions recommandées pour la configuration des partitions partagées :

  • Il est fortement recommandé d'installer d'une part un sous-système RAID pour le stockage partagé, et d'utiliser d'autre part RAID 1 (mode miroir ou mirroring) pour rendre hautement disponible l'unité logique qui contient les partitions partagées. De façon facultative, un dispositif RAID peut être utilisé pour une haute disponibilité. Ceci étant, n'utilisez pas RAID 0 (agrégat par bandes ou stripping) seul pour les partitions partagées.

  • Mettez les deux partitions partagées sur le même ensemble RAID ou sur le même disque si vous n'utilisez pas RAID, car les deux partitions partagées doivent être disponibles pour que le cluster puisse fonctionner.

  • Ne mettez pas les partitons partagées sur un disque contenant des données de services fréquemment demandées. Dans la mesure du possible, mettez les partitions partagées sur des disques contenant des données de services rarement demandées.

Consultez la Section 1.4.4.4 et la Section 1.4.4.5 pour obtenir davantage d'informations sur l'installation des partitions partagées.

Consultez la Section 2.5 pour obtenir des informations sur la manière d'éditer le fichier rawdevices pour lier les périphériques bruts d'entrée-sortie de caractères (raw character devices) aux périphériques blocs (block devices) chaque fois que les membres démarrent.

1.4.4.4. Partitionnement des disques durs

Après avoir installé le matériel de stockage disque partagé, partitionnez les disques afin qu'ils puissent être utilisés dans le cluster. Ensuite, créez des systèmes de fichiers et des périphériques bruts sur les partitions. Par exemple, deux périphériques bruts doivent être créés pour les partitions partagées, selon les instructions décrites dans la Section 1.4.4.3.

Invoquez la commande parted pour modifier la table des partitions d'un disque dur et diviser le dernier en partitions. Dans parted, utilisez la commande p pour afficher la table des partitions actuelle et la commande n pour créer une nouvelle partition sur le disque.

  • Invoquez parted depuis le shell en utilisant la commande parted et en spécifiant bien un périphérique disque partagé disponible. À l'invite(parted), utilisez la commande p pour afficher la table des partitions actuelle. La sortie renvoyée devrait ressembler à l'extrait suivant :

    Disk geometry for /dev/sda: 0.000-4340.294 megabytes
    Disk label type: msdos
    Minor    Start       End     Type      Filesystem  Flags
  • Déterminez la taille de la partition nécessaire. Créez une partition de cette taille en utilisant la commande mkpart dans parted. Bien que la commande mkpart ne crée pas un système de fichiers, elle a généralement besoin d'un type de système de fichiers lors de la création d'une partition. parted utilise une plage sur le disque afin de déterminer la taille d'une partition ; cette taille correspond à l'espace entre le début et la fin d'une plage donnée. L'exemple suivant illustre la manière de créer deux partitions de 20Mo chacune sur un disque vide.

    (parted) mkpart primary ext3 0 20
    (parted) mkpart primary ext3 20 40
    (parted) p
    Disk geometry for /dev/sda: 0.000-4340.294 megabytes
    Disk label type: msdos
    Minor    Start       End     Type      Filesystem  Flags
    1          0.030     21.342  primary
    2         21.343     38.417  primary
  • Lorsque plus de quatre partitions sont nécessaires sur un même disque, il est nécessaire de créer une partition étendue. Si une partition étendue est nécessaire, mkpart peut aussi effectuer cette opération. Dans ce cas, il n'est pas utile de préciser un type de système de fichiers.

    NoteRemarque
     

    Seulement une partition étendue peut être créée et elle doit figurer sur l'une des quatre partitions primaires.

    (parted) mkpart extended 40 2000
    (parted) p
    Disk geometry for /dev/sda: 0.000-4340.294 megabytes
    Disk label type: msdos
    Minor    Start       End     Type      Filesystem  Flags
    1          0.030     21.342  primary
    2         21.343     38.417  primary
    3         38.417   2001.952  extended
  • Une partition étendue permet la création de partitions logiques en son sein. L'exemple suivant montre la séparation de la partition étendue en deux partitions logiques.

    (parted) mkpart logical ext3 40 1000
    (parted) p
    Disk geometry for /dev/sda: 0.000-4340.294 megabytes
    Disk label type: msdos
    Minor    Start       End     Type      Filesystem  Flags
    1          0.030     21.342  primary
    2         21.343     38.417  primary
    3         38.417   2001.952  extended
    5         38.447    998.841  logical
    (parted) mkpart logical ext3 1000 2000
    (parted) p
    Disk geometry for /dev/sda: 0.000-4340.294 megabytes
    Disk label type: msdos
    Minor    Start       End     Type      Filesystem  Flags
    1          0.030     21.342  primary
    2         21.343     38.417  primary
    3         38.417   2001.952  extended
    5         38.447    998.841  logical
    6        998.872   2001.952  logical
  • Il est possible de supprimer une partition à l'aide de la commande rm de parted. Par exemple :

    (parted) rm 1
    (parted) p
    Disk geometry for /dev/sda: 0.000-4340.294 megabytes
    Disk label type: msdos
    Minor    Start       End     Type      Filesystem  Flags
    2         21.343     38.417  primary
    3         38.417   2001.952  extended
    5         38.447    998.841  logical
    6        998.872   2001.952  logical 
  • Après la création de toutes les partitions nécessaires, quittez parted grâce à la commande quit. Si une partition a été ajoutée, supprimée ou modifiée alors que les deux membres étaient sous tension et connectés au stockage partagé, redémarrez l'autre membre afin qu'il puisse prendre en considération les changements effectués. Après avoir partitionné un disque, formatez la partition devant être utilisée dans le cluster. Par exemple, créez les systèmes de fichiers ou périphériques bruts devant se trouver sur les partitions partagées. Reportez-vous à la Section 1.4.4.5 et à la Section 1.4.4.6 pour obtenir davantage d'informations.

    Pour obtenir des informations de base sur le partitionnement de disques durs lors de l'installation, reportez-vous au Guide d'installation de Red Hat Enterprise Linux.

1.4.4.5. Création des périphériques bruts

Après avoir partitionné les disques de stockage partagés, créez des périphériques bruts sur les partitions. Les systèmes de fichiers sont des périphériques blocs (par exemple, /dev/sda1) qui mettent en cache des données utilisées récemment afin d'améliorer les performances. Les périphériques bruts n'utilisent pas la mémoire du système pour la mise en cache. Consultez la Section 1.4.4.6 pour obtenir davantage d'informations.

Red Hat Enterprise Linux supporte les périphériques d'entrée-sortie de caractères bruts qui ne sont pas codés en dur contre des périphériques blocs spécifiques. Au lieu de cela, Red Hat Enterprise Linux utilise un nombre majeur de caractères (actuellement 162) pour exécuter une série de périphériques bruts non-liés dans le répertoire /dev/raw. Tout périphérique bloc peut avoir un frontal de périphérique brut d'entrée-sortie de caractères, même si les périphériques blocs sont chargés plus tard, lors de la phase d'exploitation.

Pour créer un périphérique brut, éditez le fichier /etc/sysconfig/rawdevices afin de lier un périphérique brut d'entrée-sortie de caractères au périphérique bloc approprié afin de permettre au périphérique brut d'être ouvert, lu et écrit.

Les partitions partagées et certaines applications de bases de données ont besoin de périphériques bruts car ces applications effectuent leur propre mise en cache dans une mémoire tampon pour des raisons de performance. Les partitions partagées ne peuvent pas contenir de systèmes de fichiers car si les données sur l'état des systèmes étaient stockées dans des caches de la mémoire du système, les membres ne pourraient avoir une vue cohérente des données d'état.

Les périphériques bruts d'entrée-sortie de caractères doivent être liés aux périphériques blocs chaque fois qu'un membre démarre. Pour vous assurer que tel est bien le cas à chaque fois, éditez le fichier /etc/sysconfig/rawdevices et spécifiez les liaisons de la partition partagée. Si vous utilisez un périphérique brut dans le service d'un cluster, utilisez ce fichier pour lier les périphériques au démarrage. Consultez la Section 2.5 pour obtenir davantage d'informations.

Après avoir édité /etc/sysconfig/rawdevices, les changements seront mis en application soit en réamorçant, soit en exécutant la commande suivante :

service rawdevices restart

Interrogez tous les périphériques bruts à l'aide de la commande raw -aq. La sortie renvoyée devrait ressembler à l'extrait suivant :

/dev/raw/raw1   bound to major 8, minor 17 
/dev/raw/raw2   bound to major 8, minor 18 

Notez que pour les périphériques bruts, il n'y a aucune cohérence au niveau de la cache entre le périphérique brut et le périphérique bloc. De plus, les requêtes doivent être alignées sur 512 octets aussi bien dans la mémoire que sur le disque dur. Par exemple, la commande standard dd ne peut être utilisée avec les périphériques bruts parce que la mémoire tampon dans laquelle la commande passe pour exécuter l'appel d'écriture du système, n'est pas alignée sur une limite de 512 octets.

Pour obtenir davantage d'informations sur l'utilisation de la commande raw, consultez la page du manuel relative à raw(8).

NoteRemarque
 

Les mêmes noms de périphériques bruts (par exemple, /dev/raw/raw1 et /dev/raw/raw2) doivent être utilisés sur tous les membres du cluster.

1.4.4.6. Création de systèmes de fichiers

Utilisez la commande mkfs pour créer un système de fichiers ext3. Par exemple :

mke2fs -j -b 4096 /dev/sde3

Afin d'optimiser les performances des systèmes de fichiers partagés, assurez-vous de bien spécifier un bloc d'une taille de 4 Ko avec l'option -b associée à mke2fs. Un bloc d'une taille inférieure pourrait entraîner une exécution plus longue de la commande fsck.