1.4. Einrichtung und Verbindung der Cluster-Hardware

Nach dem Installieren von Red Hat Enterprise Linux richten Sie die Cluster-Hardware-Komponenten ein und prüfen Sie die Installation, um sicherzustellen, dass das Cluster-System alle verbundenen Geräte erkennt. Beachten Sie, dass die exakten Schritte zur Einrichtung der Hardware von der jeweiligen Konfiguration abhängen. Weitere Informationen zur Cluster-Konfiguration finden Sie unter Abschnitt 1.1.

Zur Einrichtung der Cluster-Hardware folgen Sie diesen Schritten:

  1. Fahren Sie die Cluster-Systeme herunter und trennen Sie diese von der Stromversorgung.

  2. Richten Sie die Punkt-zu-Punkt Ethernet und seriellen Heartbeat Kanäle, falls zutreffend, ein. Sehen Sie Abschnitt 1.4.1 für weitere Informationen.

  3. Sollten Sie Stromschalter benutzen, richten Sie die Geräte ein und verbinden sie jedes Cluster-System mit einem Stromschalter. Weitere Informationen finden Sie unter Abschnitt 1.4.2.

    Zusätzlich wird empfohlen jeden Stromschalter (oder die Stromkabel jedes Cluster-Systems, falls keine Stromschalter verwendet werden) mit einem eigenen USV-System zu verbinden. Weitere Informationen zur Verwendung eines optionalen USV-Systems finden Sie unter Abschnitt 1.4.3.

  4. Richten Sie den gemeinsamen Speicher nach den Anweisungen des Herstellersein und verbinden Sie die Cluster-Systeme mit der externen Speichereinheit. Weitere Informationen hierzu finden Sie unter Abschnitt 1.4.4.

    Zusätzlich wird es empfohlen, die Speichereinheit zu zwei redundanten USV-Systemen anzuschließen. Weitere Informationen finden Sie unter Abschnitt 1.4.3.

  5. Schalten Sie die Cluster-Systeme ein und booten Sie diese. Während des Boot-Prozesses gehen Sie in das BIOS Utility und modifizieren Sie das System Setup folgendermaßen:

    • Stellen Sie sicher, dass die vom HBA verwendete SCSI-Identifikationsnummer für den mit ihr verbundenen SCSI-Bus eindeutig ist. Weitere Informationen finden Sie unter Abschnitt B.5.

    • Schalten Sie den Abschluss jedes Host Bus Adapter je nach Anforderungen der Speicher-Konfiguration entweder ein oder aus. Weitere Informationen finden Sie unter Abschnitt 1.4.4 und Abschnitt B.3.

    • Stellen Sie das Cluster-System so ein, dass es bei Anschluss an die Stromversorgung automatisch hochfährt.

  6. Verlassen Sie die BIOS Utility und fahren Sie mit dem Hochfahren der einzelnen Systeme fort. Überprüfen Sie die Startup-Meldungen darauf, dass der Red Hat Enterprise Linux Kernel konfiguriert wurde und alle gemeinsamen Speicher erkennen kann. Benutzen Sie den dmesg Befehl, um die Startup-Meldungen der Konsole anzuzeigen. Weitere Informationen zum dmesg Befehl finden Sie unter Abschnitt 1.3.3.

  7. Überprüfen Sie, dass das Cluster-System über jede der Punkt-zu-Punkt Ethernet-Verbindungen kommunizieren kann, indem Sie mit dem ping-Befehl Pakete über jede der Netzwerk Schnittstellen senden.

  8. Richten Sie die Shared-Cluster-Partitionen auf dem gemeinsamen Speicher ein. Weitere Informationen hierzu finden Sie unter Abschnitt 1.4.4.3.

1.4.1. Konfigurieren des Ethernet-Channel-Bonding

Ethernet-Channel-Bonding in einem No-Single-Point-Of-Failure Cluster-System erlaubt für eine fehlertolerante Netzwerkverbindung, indem zwei Ethernet-Geräte in einem virtuellen Gerät zusammengeschlossen werden. Das entstehende Channel-bonded Interface stellt sicher, dass im Falle des Ausfalls eines Ethernet-Geräts, das andere aktiv wird. Diese Art des Channel-Bonding, Active-Backup Policy genannt, erlaubt die Verbindung von beiden "bonded" Geräten zu einem Schalter oder kann es jedem der Ethernet-Geräte erlauben, zu separaten Hubs oder Schaltern verbunden zu werden, was den einzelnen Punkt des Ausfalls im Netzwerk-Hub oder Schalter umgeht.

Channel-Bonding erfordert, dass jedes Cluster-Member über zwei Ethernet-Geräte verfügt. Wenn geladen, benutzt das Bonding-Modul die MAC-Adresse des ersten "versklavten" Netzwerk-Geräts und weist diese MAC-Adresse dem anderen zu, sollte die Link-Erkennung des Ersten fehlerhaft sein.

Um zwei Netzwerk-Geräte für Channel-Bonding zu konfigurieren, führen Sie Folgendes aus:

  1. Erzeugen Sie die Bonding-Geräte in /etc/modules.conf. Zum Beispiel:

    alias bond0 bonding
    options bonding miimon=100 mode=1

    Dies lädt Bonding-Geräte mit dem Interface-Namen bond0 und übergibt dem Bonding-Treiber Optionen, um dieses als Aktiv-Backup Master-Gerät für die "versklavten" Netzwerk-Schnittstellen zu konfigurieren.

  2. Bearbeiten Sie die Konfigurationsdatei /etc/sysconfig/network-scripts/ifcfg-ethX für eth0 und eth1, sodass die Dateien identische Inhalte anzeigen. Zum Beispiel:

    DEVICE=ethX
    USERCTL=no
    ONBOOT=yes
    MASTER=bond0
    SLAVE=yes
    BOOTPROTO=none

    Dies wird ethX (ersetzen Sie X mit der zugewiesenen Nummer des Ethernet-Geräts) zum bond0 Master-Gerät "versklaven".

  3. Erzeugen Sie ein Netzwerk-Skript für das Bonding-Gerät (z.B. /etc/sysconfig/network-scripts/ifcfg-bond0), was wie im folgenden Beispiel aussehen würde:

    DEVICE=bond0
    USERCTL=no
    ONBOOT=yes
    BROADCAST=192.168.1.255
    NETWORK=192.168.1.0
    NETMASK=255.255.255.0
    GATEWAY=192.168.1.1
    IPADDR=192.168.1.10
  4. Starten Sie das System neu, damit die Änderungen wirksam werden. Als Alternative können Sie das Bonding-Gerät manuell laden und das Netzwerk neu starten. Zum Beispiel:

    /sbin/insmod /lib/modules/`uname -r`/kernel/drivers/net/bonding/bonding.o \
    	      miimon=100 mode=1
    /sbin/service network restart

1.4.2. Konfigurieren der Stromschalter

Durch Stromschalter können Systeme ein anderes System vom Netz nehmen, bevor es die Services dessen als Teil des Failover Prozesses übernimmt und neustartet. Die Möglichkeit, das andere System auszuschalten, wahrt dieDatenintegrität unter jeder möglichen Fehlerbedingung. Es wird empfohlen, dass Produktionsabläufe entweder Stromschalter oder Watchdog Timer in der Cluster Konfiguration verwenden. Lediglich Entwicklungsumgebungen (Testumgebungen) sollten eine Konfiguration ohne Stromschalter zulassen. Unter Abschnitt 1.1.3 finden Sie eine Beschreibung der verschiedenen Typen von Stromschaltern. Beachten Sie, dass in diesem Abschnitt der allgemeine Begriff Term "Stromschalter" auch Watchdog Timer umfasst.

In einer Cluster-Konfiguration, die physische Stromschalter verwendet, sind die Stromkabel der jeweiligen Cluster-Systeme mit einem Stromschalter verbunden. Dieser ist entweder durch eine serielle oder Netzwerk-Verbindung (je nach Typ des Stromschalters) mit dem anderen Cluster-System verbunden. Im Falle eines Failover kann ein Cluster-System diese Verbindung verwenden, um einen Neustart des anderen Systems zu veranlassen, bevor es dessen Services übernimmt und neustartet.

Stromschalter schützen vor Datenkorruption im Falle das ein System, das nicht antwortet (oder hängt), nach der Übernahme des Services durch ein anderes Cluster-System wieder aktiv wird, und I/O an eine Festplatte ausgibt, die bereits I/O vom anderen System erhält. Sollte zusätzlich dazu ein Quorum-Daemon auf einem Cluster-System ausfallen, dann ist dieses System nicht länger in der Lage, die Cluster-Partitionen zu überwachen. Sollten Sie keine Stromschalter oder Watchdogs verwenden, so kann dieser Fehlerfall dazu führen, dass Services auf mehr als einem Cluster-System laufen, was zur Korruption der Daten führen kann.

Es wird strengstens empfohlen, Stromschalter in einem Cluster zu verwenden. Administratoren, die sich der Risiken bewusst sind, können jedoch auch Cluster ohne Stromschalter einrichten.

Ein Cluster-System kann für einige Sekunden hängen, wenn es RAM Speicher auf eine Festplatte auslagert oder eine hohe Arbeitsbelastung hat. Aus diesem Grund muss genügend Zeit gelassen werden, bevor ein System annimmt, dass das andere System ausgefallen ist (normalerweise 15 Sekunden).

Wenn ein Cluster-System feststellt, dass ein hängendes System nicht reagiert, und es werden Stromschalter im Cluster verwendet, dann veranlasst das Cluster-System den Neustart des hängenden Systems, bevor es dessen Services übernimmt und neustartet. Cluster, die mit Watchdog Timern konfiguriert sind, werden sich in den meisten Fällen selbst neustarten. Dies sorgt dafür, dass das System sauber hochgefahren wird und demnach keine I/O Signale senden wird, die zur Korruption von Servicedaten führen könnten.

Hängende Systeme booten sich selbst entweder durch ein Watchdog Firing, Ausfall beim Senden von Heartbeat-Paketen oder — im Fall das ein System keinen physischen Stromschalter hat — Verlust des Quorum-Status.

Hängende Systeme können durch andere Systeme gebootet werden, wenn diese mit einem Stromschalter verbunden sind. Reagiert das hängende System überhaupt nicht und es werden keine Stromschalter verwendet, ist ein manueller Neustart erforderlich.

Falls verwendet müssen Stromschalter gemäß den Anleitungen des Herstellers eingerichtet werden. Einige Cluster-spezifische Aufgaben könnten jedoch die Benutzung eines Stromschalters erfordern. Unter Abschnitt B.1 finden Siedetaillierte Informationen zu Stromschaltern (einschließlich Watchdog Timern). Stellen Sie sicher, dass Sie jegliche Einschränkungen und funktionalen Attribute der spezifischen Typen von Stromschaltern notieren. Beachten Sie, dass die Cluster-spezifischen Informationen in dieser Dokumentation den Informationen des Verkäufers vorgehen.

Seien Sie beim Verkabeln der Stromschalter sorgfältig und stellen Sie sicher, dass jedes Kabel richtig angeschlossen ist. Dies ist entscheidend, da es keine unabhängige Methode gibt, mit der die Software eine korrekte Verkabelung feststellen kann. Falsche Verkabelung kann zu einem falschen Neustart eines Systems führen, oder zu der falschen Annahme eines Systems, dass es das andere erfolgreich neugestartet hat.

Nach der Einrichtung der Stromschalter folgen Sie diesen Schritten, um diese mit dem Cluster-System zu verbinden:

  1. Verbinden Sie die Stromkabel für jedes Cluster-System mit einem Stromschalter.

  2. Verbinden Sie jedes Cluster-System mit dem Stromschalter. Das zu verwendende Kabel hängt vom Typ des Stromschalters ab. Seriell-verbundene Stromschalter, zum Beispiel, benötigen Nullmodemkabel, und ein Netzwerk-verbundener Stromschalter benötigt ein Ethernet-Patch-Kabel.

  3. Verbinden Sie das Stromkabel für jeden Stromschalter mit einer Stromquelle. Es ist empfohlen, die jeweiligen Stromschalter mit ihren eigenen USV-Systemen zu verbinden. Weitere Informationen finden Sie unter Abschnitt 1.4.3.

Nach der Installation der Cluster-Software testen Sie die Stromschalter, um sicherzustellen, dass jedes der Cluster-Systeme das andere zum Neustart veranlassen kann, bevor Sie den Cluster in Betrieb nehmen. Weitere Informationen finden Sie unter Abschnitt 2.11.2.

1.4.3. Konfigurieren der USV-Systeme

Systeme für unterbrechungsfreie Stromversorgung (USV) liefern eine hochverfügbare Stromquelle. Im Idealfall sollte eine redundante Lösung mehrere USV (eine pro Server) einschließen. Für maximale Fehlertoleranz ist es möglich, zwei USV pro Server einzurichten, sowie einen automatischen Übertragungsschalter von APC zum Strommanagement der Server. Beide Lösungen sind lediglich von der Stufe der gewünschten Verfügbarkeit abhängig.

Es wird nicht empfohlen den Cluster in eine größere USV-Infrastruktur einzubinden. Eine USV-Lösung exklusiv für den Cluster erlaubt mehr Flexibilität in Bezug auf einfaches Management und Verfügbarkeit.

Ein vollständiges USV-System muss eine angemessene Spannung und Strom über einen längeren Zeitraum hinweg liefern. Obwohl es keine individuelle USV für alle Anforderungen gibt, kann eine Lösung für eine bestimmte Konfiguration entwickelt werden.

Sollte das Subsystem der Cluster-Speichereinheit zwei Stromversorgungen mit separaten Stromkabeln haben, richten Sie zwei USV-Systeme ein und verbinden Sie einen Stromschalter (oder das Stromkabel eines Cluster-Systems, sollten keine Stromschalter verwendet werden) und eines der Stromkabel der Speichereinheit mit jedem der USV-Systeme. Eine redundante USV-Konfiguration ist in Abbildung 1-3 gezeigt.

Abbildung 1-3. Redundante USV-System Konfiguration

Eine alternative redundante Strom-Konfiguration verbindet beide Stromschalter (oder die Stromkabel beider Cluster-Systeme) und den Festplattenspeicher mit dem gleichen USV-System. Dies ist die kostengünstigste Konfiguration und bietet einigen Schutz gegen Stromausfall. Sollte jedoch ein Stromausfall eintreten, dann bekommt diese einzelne USV ein möglicher einzelner Punkt des Ausfalls (Single-Point-of-Failure). Zusätzlich, kann ein USV-System unter Umständen nicht genügend Spannung für alle angeschlossenen Systeme über einen längeren Zeitraum zur Verfügung stellen. Eine Konfiguration eines einzelnen USV ist in Abbildung 1-4 gezeigt.

Abbildung 1-4. Einzelne USV-System Konfiguration

Viele im Verkauf erhältlichen USV-Systeme enthalten Linux Applikationen, die den Betriebsstatus des USV-Systems über eine serielle Verbindung überwachen können. Sollte die Batterie sich der Entladung nähern, wird die Software ein sauberes Herunterfahren des Systems einleiten. Bei diesem Vorgang wird die Cluster Software ordnungsgemäß geschlossen, da dieser durch ein SysV Runlevel Skript (zum Beispiel /etc/rc.d/init.d/clumanager) kontrolliert wird.

Lesen Sie die vom Verkäufer mitgelieferte USV-Dokumentation für detaillierte Informationen.

1.4.4. Konfigurieren des gemeinsamen Festplattenspeichers

Gemeinsamer Festplattenspeicher wird in einem Cluster für das Ablegen von Servicedaten und zwei Partitionen (Primär- und Shadow-) verwendet. Da dieser Speicher beiden Cluster-Systemen verfügbar sein muss, kann dieser nicht von einem der Systeme abhängig gemacht werden. Lesen Sie die Informationen des Herstellersfür detaillierte Information zum Produkt und zur Installation.

Einige Faktoren müssen bei der Einrichtung eines gemeinsamen Speichers in einem Cluster berücksichtigt werden:

Die folgende Liste enthält detaillierte parallele SCSI Anforderungen und muss strengstens eingehalten werden, falls in einer Cluster-Umgebung eingesetzt:

Weitere Informationen finden Sie unter Abschnitt B.2.

Zusätzlich wird es strengstens empfohlen, die gemeinsame Speichereinheit an redundante USV-Systeme anzuschließen, um Hochverfügbarkeit der Stromquelle zu erzielen. Weitere Informationen finden Sie unter Abschnitt 1.4.3.

Weitere Informationen über die Konfiguration des gemeinsamen Speichers finden Sie unterAbschnitt 1.4.4.1 und Abschnitt 1.4.4.2.

Nach dem Einrichten des gemeinsamen Festplattenspeichers partitionieren Sie die Festplatten, und erzeugen Sie entweder Dateisysteme oder Raw-Geräte auf den Partitionen. Zwei Raw-Geräte müssen für die primäre und für die Shadow-Shared-Cluster-Partitionen erzeugt werden. Weitere Informationen finden Sie unter Abschnitt 1.4.4.3, Abschnitt 1.4.4.4, Abschnitt 1.4.4.5 und Abschnitt 1.4.4.6.

1.4.4.1. Einrichten eines Single-Initiator SCSI-Busses

Ein Single-Initiator SCSI-Bus ist lediglich mit einem Cluster-System verbunden und liefert Host-Isolation und eine bessere Leistung als ein Multi-Initiator Bus. Single-Initiator Busse stellen sicher, dass jedes Cluster System vor Störungen geschützt ist, die durch Arbeitsleistung, Initialisierung oder Reparatur des anderen Cluster-System hervorgerufen werden können.

Wenn ein Single oder Dual-Controller RAID Array benutzt wird, dasmehrere Host Ports besitzt und gleichzeitigen Zugriff zu allen logischen Einheiten von den Host Ports auf der Speichereinheit bereitstellt, ist das Einrichten von zwei Single-Initiator SCSI-Bussen zur Verbindung der einzelnen Cluster-Systeme zum RAID Array möglich. Wenn eine logische Einheit von einem auf den anderen Controller im Fehlerfall übergeben werden kann (Failover), muss dieser Prozess transparent für das Betriebssystem sein. Beachten Sie, dass einige RAID Controller eine Gruppe von Festplatten auf einen bestimmten Controller oder Port einschränken. In diesem Fall ist das Einrichten von Single-Initiator Bussen nicht möglich.

Ein Single-Initiator Bus muss den in Abschnitt B.2 beschriebenen Anforderungen genügen.

Um eine Single-Initiator SCSI-Bus Konfiguration einzurichten, ist folgendes erforderlich:

  • Stellen Sie den Onboard Abschluss für jeden der Host Bus Adapter ein.

  • Schließen Sie jeden der RAID Controller mit einem Endwiderstand ab.

  • Benutzen Sie die entsprechenden SCSI-Kabel, um jeden der Host Bus Adapter mit der Speichereinheit zu verbinden.

Der Abschluss der Host Bus Adapter wird normalerweise im BIOS Utility während des Hochfahrens vorgenommen. Für den Abschluss der RAID Controller lesen Sie bitte die vom Hersteller mitgelieferte Dokumentation. Abbildung 1-5 zeigt eine Konfiguration, die zwei Single-Initiator SCSI-Busse verwendet.

Abbildung 1-5. Single-Initiator SCSI-Bus Konfiguration

Abbildung 1-6 zeigt, wie ein Single-Controller RAID Array, verbunden mit zwei Single-Initiator SCSI Bussen, abgeschlossen wird.

Abbildung 1-6. Single-Controller RAID Array verbunden mit Single-Initiator SCSI-Bussen

Abbildung 1-7 zeigt, wie ein Dual-Controller RAID Array, verbunden mit zwei Single-Initiator SCSI Bussen, abgeschlossen wird.

Abbildung 1-7. Dual-Controller RAID Array verbunden mit Single-Initiator SCSI-Bussen

1.4.4.2. Einrichten eines Fibre-Channel-Interconnect

Ein Fibre-Channel kann entweder in einer Single-Initiator oder Multi-Initiator Konfiguration verwendet werden.

Ein Single-Initiator Fibre-Channel-Interconnect ist lediglich mit einem Cluster-System verbunden. Dies kann bessere Host-Isolation und bessere Leistung als eine Multi-Initiator Bus bieten. Ein Single-Initiator Interconnect stellt sicher, dass jedes Cluster-System vor Störungen geschützt ist, die durch Arbeitsbelastung, Initialisierung oder Reparatur des anderen Cluster-System hervorgerufen werden können.

Sollte ein RAID Array im Einsatz sein, das mehrere Host Ports hat, und erlaubt das RAID Array gleichzeitigen Zugriff auf alle gemeinsamen logischen Einheiten durch die Host Ports auf der Speichereinheit, richten Sie zwei Single-Initiator Fibre-Channel-Interconnects ein, die jedes der Cluster-Systeme mit dem RAID Array verbindet. Sollte eine logische Einheit im Fehlerfall übergeben werden können (Failover), so muss dieser Prozess transparent für das Betriebssystem sein.

Abbildung 1-8 zeigt ein Single-Controller RAID-Array mit zwei Host Ports. Die Host-Bus-Adapter sind direkt mit dem RAID-Controller, ohne Benutzung von Fibre-Channel Hubs oder Schaltern, verbunden. Wenn diese Art von Single-Initiator Fibre-Channel-Verbindung verwendet wird, muss Ihr RAID-Controller einen separaten Host-Port für jedes Cluster-Member haben.

Abbildung 1-8. Single-Controller RAID Array verbunden mit Single-Initiator Fibre-Channel-Interconnects

Das externe RAID-Array muss einen separaten SCSI-Channel für jedes Cluster-Member haben. In Clustern mit mehr als zwei Membern, verbinden Sie jedes Member zu einem anderen SCSI-Channel auf dem RAID-Array, unter Verwendung eines Single-Initiator SCSI-Bus, wie in Abbildung 1-8 gezeigt.

Sollte ein Multi-Initiator Fibre-Channel benutzt werden, dann ist eine Fibre-Channel Hub oder ein Schalter erforderlich. In diesem Fall, ist jeder HBA zu einer Hub oder einem Schalter verbunden und die Hub oder der Schalter ist zu einem Host Port auf jedem der RAID-Controller verbunden.

Ein Fibre-Channel Hub oder Schalter ist auch für ein Dual-Controller RAID-Array mit zwei Host-Ports auf jedem Controller erforderlich. Diese Konfiguration ist in Abbildung 1-9 gezeigt. Zusätzliche Cluster-Member können zu entweder Fibre-Channel Hub oder Schalter, wie im Diagramm gezeigt, verbunden werden. Auf einigen RAID-Arrays befindet sich eine eingebaute Hub, sodass jeder Host-Port bereits zu jedem der internen RAID-Controller verbunden ist. In diesem Fall muss ein externer Hub oder Schalter nicht erforderlich sein.

Abbildung 1-9. Dual-Controller RAID Array verbunden mit Single-Initiator Fibre-Channel-Interconnect

1.4.4.3. Konfigurieren der Shared-Cluster-Partitionen

Die Raw-Geräte auf dem gemeinsamen Festplattenspeicher müssen für die primäre und die Shadow-Shared-Partition erzeugt werden. Jede Shared-Partition muss eine Größe von mindestens 10 MB haben. Die Datenmenge auf den Shared-Partitionen is konstant und wird sich weder vergrößern noch verkleinern.

Shared-Partitionen können für Informationen zum Cluster-Status einschließlich folgendem, verwendet werden:

  • Cluster Sperr-Zustand

  • Service-Zustand

  • Konfigurationsinformationen

In periodischen Abständen schreibt jedes der Cluster-Systeme den Status seiner Services auf dem gemeinsamen Speicher. Zusätzlich enthalten die Shared-Partitionen eine Version der Cluster-Konfigurationsdatei. Dies stellt sicher, dass jedes der Cluster-Systeme einen Überblick über die Cluster-Konfiguration hat.

Sollte die primäre Shared-Partition korrupt sein, liest das Cluster-System die Information von der Shadow (oder Backup) Shared-Partition und repariert die primäre Shared-Partition zur gleichen Zeit. Konsistenz der Daten wird durch Checksummen überprüft und jede Inkonsistenz zwischen den Shared-Partitionen wird automatisch behoben.

Sollte es einem System nicht möglich sein, während dem Hochfahren auf beide Shared-Partitionen zu schreiben, wird dieses nicht in den Cluster aufgenommen. Sollte ein aktives Cluster-System nicht länger aufbeide Shared-Partitionen schreiben können, wird dieses System sich selbst aus dem Cluster nehmen und seinen Neustart veranlassen (oder wird von dem betriebsbereiten Cluster-System neugestartet).

Im folgenden finden Sie Anforderungen an die Shared-Partitionen:

  • Beide Partitionen müssen eine Größe von mindestens 10 MB haben.

  • Shared-Partitionen müssen Raw-Geräte sein. Diese können keine Dateisysteme enthalten.

  • Shared-Partitionen können für den Cluster-Status und für Informationen zur Konfiguration verwendet werden.

Die folgenden sind empfohlene Richtlinien zur Konfiguration der Shared-Partitionen:

  • Es wird strengstens empfohlen, ein RAID 1 (mirroring) zu verwenden, um Servicedaten und Shared-Partitionen hochverfügbar zu machen. Optional kann ein Parity RAID für Hochverfügbarkeit eingesetzt werden. Benutzen Sie nicht nurRAID 0 (striping) für Shared-Partitionen, da dieses die Verfügbarkeit des Speichers reduziert.

  • Legen Sie beide Shared-Partitionen auf die selbe RAID Gruppe oder auf die selbe Festplatte, sollte kein RAID im Einsatz sein, da für den Betrieb des Cluster beide verfügbar sein müssen.

  • Legen Sie die Shared-Partitionen nicht auf Festplatten, die häufig benutzte Servicedaten enthalten. Wenn möglich, legen Sie die Shared-Partitionen auf Festplatten, die selten benutzte Servicedaten enthalten.

Weitere Informationen zum Einrichten der Shared-Partitionen finden Sie unter Abschnitt 1.4.4.4 und Abschnitt 1.4.4.5.

Unter Abschnitt 2.5 finden Sie weitere Informationen zum Bearbeiten der Datei rawdevices, um die Raw-Zeichengeräte während jedem Hochfahren des Cluster-Systems zu den Blockgeräten zu binden.

1.4.4.4. Partitionieren der Festplatten

Nach dem Einrichten der Hardware des gemeinsamen Festplattenspeichers, partitionieren Sie die Festplatten zur Benutzung im Cluster. Erstellen Sie anschließend die Dateisysteme oder Raw-Geräte auf den Partitionen. Zum Beispiel müssen zwei Raw-Geräte für die Shared-Partitionen unter den in Abschnitt 1.4.4.3 beschriebenen Richtlinien erzeugt werden.

Rufen Sie parted auf, um die Partitionstabelle zu modifizieren und Ihre Festplatte in Partitionen aufzuteilen. Während der Ausführung von parted benutzten Sie die Option p, um die Partitionstabelle anzuzeigen, und die Option mkpart, um eine neue Partition zu erstellen. Im folgenden Beispiel wird beschrieben, wie eine Partition mit Hilfe von parted auf einer Festplatte erstellt wird:

  • Rufen Sie parted an einem Shell-Prompt mit dem Befehl parted auf, und geben Sie einen verfügbaren gemeinsamen Festplattenspeicher an. Am partedPrompt nutzen Sie die Option p zur Anzeige der Partitionstabelle, die in etwas wie folgt aussieht:

    Disk geometry for /dev/sda: 0.000-4340.294 megabytes
    Disk label type: msdos
    Minor    Start       End     Type      Filesystem  Flags
  • Legen Sie fest, wie groß die Partition sein soll. Erstellen Sie eine Partition mit dieser Größe mittels des Befehls mkpart in parted. Auch wenn mkpart kein Dateisystem erstellt, benötigt es doch einen Dateisystemtyp zum Zeitpunkt der Erstellung der Partition. parted verwendet einen bereich auf der Festplatte, um die Partitionsgröße zu bestimmten; diese Größe liegt zwischen dem Ende und dem Anfang des Angegebenen Bereichs. Im folgenden Beispiel wird das Erstellen zweier Partitionen mit einer Größe von 20 MB auf einer leeren Festplatte gezeigt.

    (parted) mkpart primary ext3 0 20
    (parted) mkpart primary ext3 20 40
    (parted) p
    Disk geometry for /dev/sda: 0.000-4340.294 megabytes
    Disk label type: msdos
    Minor    Start       End     Type      Filesystem  Flags
    1          0.030     21.342  primary
    2         21.343     38.417  primary
  • Werden mehr als 7 Partitionen auf einer einzigen Festplatte benötigt, müssen Sie eine erweiterte Partition erstellen. Wird eine erweiterte Partition benötigt, übernimmt dies auch mkpart. In diesem Fall müssen Sie keinen Dateisystemtyp festlegen.

    AnmerkungHinweis
     

    Es kann nur eine einzige erweiterte Partition erstellt werden, und diese muss eine der vier primären Partitionen sein.

    (parted) mkpart extended 40 2000
    (parted) p
    Disk geometry for /dev/sda: 0.000-4340.294 megabytes
    Disk label type: msdos
    Minor    Start       End     Type      Filesystem  Flags
    1          0.030     21.342  primary
    2         21.343     38.417  primary
    3         38.417   2001.952  extended
  • Eine erweiterte Partition ermöglicht das Erstellen von logischen Partitionen innerhalb dieser. Im folgenden Beispiel wird die Aufteilung der erweiterten Partition in zwei logische Partition gezeigt.

    (parted) mkpart logical ext3 40 1000
    (parted) p
    Disk geometry for /dev/sda: 0.000-4340.294 megabytes
    Disk label type: msdos
    Minor    Start       End     Type      Filesystem  Flags
    1          0.030     21.342  primary
    2         21.343     38.417  primary
    3         38.417   2001.952  extended
    5         38.447    998.841  logical
    (parted) mkpart logical ext3 1000 2000
    (parted) p
    Disk geometry for /dev/sda: 0.000-4340.294 megabytes
    Disk label type: msdos
    Minor    Start       End     Type      Filesystem  Flags
    1          0.030     21.342  primary
    2         21.343     38.417  primary
    3         38.417   2001.952  extended
    5         38.447    998.841  logical
    6        998.872   2001.952  logical
  • Eine Partition kann mittels parted und des Befehls rm gelöscht werden. Beispiel:

    (parted) rm 1
    (parted) p
    Disk geometry for /dev/sda: 0.000-4340.294 megabytes
    Disk label type: msdos
    Minor    Start       End     Type      Filesystem  Flags
    2         21.343     38.417  primary
    3         38.417   2001.952  extended
    5         38.447    998.841  logical
    6        998.872   2001.952  logical 
  • Nachdem alle erforderlichen Partitionen erstellt wurden, beenden Sie parted, in dem Sie den Befehl quit eingeben. Wurde eine Partition hinzugefügt, entfernt oder geändert, während beide Systene liefen und mit dem gemeinsamen Speicher verbunden waren, starten Sie das andere Systen neu, damit die Änderungen erkannt werden. Nach dem Partitionieren einer Festplatte formatieren Sie die Partition für die Verwendung im Cluster. Erstellen Sie zum Beispiel die Dateisysteme oder Raw-Devices für die gemeinsamen Partitionen. Weitere Informationen finden Sie unter Abschnitt 1.4.4.5 and Abschnitt 1.4.4.6.

    Allgemeine Informationen zur Partitionierung von Festplatten bei der Installation finden Sie im Red Hat Enterprise Linux Installationshandbuch.

1.4.4.5. Erstellen der Raw-Geräte

Nach dem Partitionieren des gemeinsamen Plattenspeichers erstellen Sie Raw-Geräte auf den Partitionen. Ein Dateisystem ist ein Blockgerät (zum Beispiel /dev/sda1), das kürzlich verwendete Daten im Cache ablegt, um die Leistung zu steigern. Raw-Geräte machen keine Verwendung von einem Cache. Weitere Informationen finden Sie unter Abschnitt 1.4.4.6.

Red Hat Enterprise Linux unterstützt Raw-Zeichengeräte, die nicht gegen ein spezifisches Blockgerät hard-codiert sind. Red Hat Enterprise Linux benutzt stattdessen eine CMM (aus dem englischen: character major number, zur Zeit 162), um eine Reihe von ungebundenen Raw-Geräten im /dev/raw Verzeichnis abzulegen. Jedes Blockgerät kann ein Raw-Zeichengerät Frontend haben, auch wenn das Blockgerät später zur Runtime geladen wird.

Um ein Raw-Gerät zu erstellen, bearbeiten Sie die Datei /etc/sysconfig/rawdevices und binden ein Raw-Zeichengerät zu dem entsprechenden Blockgerät. Sobald zu einem Blockgerät gebunden, kann ein Raw-Gerät geöffnet, gelesen und beschrieben werden.

Shared-Partitionen und einige Datenbank-Applikationen benötigen Raw-Geräte, da diese Applikationen ihren Cache selbst verwalten, um die Leistung zu steigern. Shared-Partitionen können keine Dateisysteme enthalten, da die einzelnen Cluster-Systeme auf konsistente Statusdaten zugreifen müssen und diese deswegen nicht im Cache gehalten werden können.

Raw-Zeichengeräte müssen bei jedem Hochfahren des Systems zu Blockgeräten gebunden werden. Um dies sicherzustellen, bearbeiten sie die Datei /etc/sysconfig/rawdevices und geben Sie die Bindungen der Shared-Partitionen an. Sollte ein Raw-Gerät in einem Cluster verwendet werden, benutzten Sie diese Datei zum Binden der Geräte während dem Hochfahren. Weitere Informationen finden Sie unter Abschnitt 2.5.

Nach dem Bearbeiten von /etc/sysconfig/rawdevices treten die Änderungen entweder bei einem Neustart oder durch Ausführen des folgenden Befehls in Kraft:

service rawdevices restart

Lassen Sie sich alle Raw-Geräte mit dem Befehl raw -aq anzeigen:

/dev/raw/raw1   bound to major 8, minor 17 
/dev/raw/raw2   bound to major 8, minor 18 

Beachten Sie, dass für Raw-Geräte keine Kohärenz im Cache zwischen Raw-Gerät und Blockgerät gegeben ist. Zusätzlich dazu müssen Anforderungen im Speicher und auf der Platte auf 512 Byte ausgelegt sein. Der Standard dd Befehl zum Beispiel kann nicht mit Raw-Geräten benutzt werden, da der Speicherbuffer, den dieser Befehl zum Write System Call gibt, nicht auf 512 Byte ausgelegt ist.

Weitere Informationen zur Benutzung des Befehls raw, finden Sie auf der man-Seite zu raw(8).

AnmerkungHinweis
 

Die Raw-Device-Namen (z.B. /dev/raw/raw1 und /dev/raw/raw2) müssen auf allen Cluster-Systemen gleich sein.

1.4.4.6. Erzeugen von Dateisystemen

Benutzen Sie den mkfs-Befehl, um ein ext3 Dateisystem auf einer Partition zu erzeugen. Zum Beispiel:

mke2fs -j -b 4096 /dev/sde3

Für optimale Leistung auf gemeinsamen Dateisystemen sollten Sie eine Blockgröße von 4 KB mit der Option -b im Befehl mke2fs angeben. Eine kleiner Zahl kann lange fsck Zeiten zur Folge haben.