2.11. Überprüfen der Cluster-Konfiguration

Um sicherzustellen, dass die Cluster Software fehlerfrei konfiguriert wurde, benutzten Sie die folgenden Tools, die sich im Verzeichnis /usr/sbin befinden:

Der folgende Abschnitt erklärt die Cluster Utilities in mehr Detail.

2.11.1. Testen der Shared-Partitionen

Die gemeinsamen Partitionen müssen auf beiden Cluster-Systemen zum gleichen physischen Gerät verweisen. Führen Sie das /usr/sbin/shutil-Utility mit der Option -v aus, um den Zugriff auf die gemeinsamen Partitionen zu überprüfen.

Sollte dieser Befehl erfolgreich sein, rufen Sie den Befehl /usr/sbin/shutil -p /cluster/header auf beiden Cluster-Systemen auf, um eine Übersicht der Header-Datenstrukturen für die Shared-Partitionen zu erhalten. Sollte die Ausgabe auf den Systemen unterschiedlich sein, dann verweisen die Shared-Partitionen nicht auf das selbe Gerät auf allen Systemen. Prüfen Sie, dass das Raw-Gerät vorhanden und richtig in der Datei /etc/sysconfig/rawdevices angegeben ist. Weitere Informationen finden Sie unter Abschnitt 1.4.4.3 .

Das folgende Beispiel zeigt, dass die Shared-Partitionen auf das gleiche physiche Gerät auf den Cluster-Membern clu1.example.com undclu2.example.com über den Befehl /usr/sbin/shutil -p /cluster/header zeigen:

/cluster/header is 140 bytes long
SharedStateHeader {
        ss_magic = 0x39119fcd
        ss_timestamp = 0x000000003ecbc215 (14:14:45 May 21 2003)
        ss_updateHost = clu1.example.com

Alle Felder in der Ausgabe des Befehls /usr/sbin/shutil -p /cluster/header sollten gleich sein, wenn dieser auf allen Cluster-Systemen ausgeführt wird. Ist die Ausgabe nicht auf allen Membern gleich, führen Sie folgendes durch:

Nach dem Ausführen dieser Aufgaben starten Sie das /usr/sbin/shutil Utility neu und verwenden Sie die Option -p.

2.11.2. Testen der Stromschalter

Sollten entweder Netzwerk oder seriell-verbundene Stromschalter in der Cluster-Hardware-Konfiguration verwendet werden, installieren Sie die Cluster Software und rufen Sie den Befehl clufence auf, um die Stromschalter zu testen. Rufen Sie den Befehl auf jedem der Cluster Systeme auf, um sicherzustellen, dass jedes System das andere zum Neustart veranlassen kann (power-cycle). Sollten diese Tests erfolgreich sein, kann der Cluster gestartet werden.

Der Befehl clufence kann den Stromschalter nur dann testen, wenn die Cluster Software nicht ausgeführt wird. Dies ist deshalb der Fall, da für serielle Schalter nur jeweils ein Programm zu jeder bestimmten Zeit auf die serielle Schnittstelle zugreifen kann, die den Stromschalter mit einem Cluster System verbindet. Wenn der Befehl clufence aufgerufen wird, überprüft dieser den Status der Cluster Software. Sollte die Cluster Software laufen, gibt der Befehl lediglich die Meldung aus, die Cluster Software zu beenden.

Die Befehlszeilenoptionen von clufence sind folgende:

Beim Testen von Stromschaltern ist der erste Schritt, sicherzustellen, dass jedes der Cluster Member erfolgreich mit dem mit ihm verbundenen Stromschalter kommunizieren kann. Das folgende Beispiel der Ausgabe des Befehls clufence zeigt, dass der Cluster Member mit seinem Stromschalter kommunizieren kann:

[27734] info: STONITH: rps10 at /dev/ttyS0, port 0 controls clumember1.example.com
[27734] info: STONITH: rps10 at /dev/ttyS0, port 1 controls clumember2.example.com

Falls ein Fehler in der Ausgabe von clufence auftritt, prüfen Sie folgendes:

Nachdem die Kommunikation mit dem Schalter erfolgreich getestet wurde, versuchen Sie das andere Cluster Member durch temporäres Trennen von der Stromquelle neuzustarten. Vor diesem Schritt wird allerdings empfohlen nachzuprüfen, dass dieser Cluster Member nicht gerade wichtige Funktionen ausführt (wie das Bearbeiten von Cluster Services zu aktiven Clients). Das Ausführen des Befehlsclufence -f clumember2.example.com zeigt folgende Ausgabe nach einem erfolgreichen Shutdown und Fencing an (was bedeutet, dass das System keinen Strom vom Stromschalter erhält, bis der Service wieder frei geschaltet wird):

[7397] info: STONITH: rps10 at /dev/ttyS0, port 0 controls clumember1.example.com
[7397] info: STONITH: rps10 at /dev/ttyS0, port 1 controls clumember2.example.com
[7397] notice: STONITH: clumember2.example.com has been fenced!

2.11.3. Anzeige der Cluster Software Version

Stellen Sie sicher, dass alle Cluster-Systeme die gleiche Softwareversion von Red Hat Cluster Manager ausführen.

Um die Version des Cluster Configuration Tool und des Cluster Status Tool anzuzeigen, können Sie eine der folgenden Methoden verwenden: