Red Hat Cluster Suite: Konfiguration und Management eines Cluster | ||
---|---|---|
Zurück | Kapitel 2. Cluster-Konfiguration | Nach vorne |
Um sicherzustellen, dass die Cluster Software fehlerfrei konfiguriert wurde, benutzten Sie die folgenden Tools, die sich im Verzeichnis /usr/sbin befinden:
Testen Sie die Shared-Partitionen und stellen Sie sicher, dass auf diese zugegriffen werden kann.
Führen Sie das shutil-Utility mit der Option -v aus, um den Zugriff auf die Shared-Partitionen zu testen. Weitere Informationen finden Sie unter Abschnitt 2.11.1.
Testen Sie die Operation der Stromschalter.
Sollten Stromschalter in der Konfiguration der Cluster Hardware verwendet werden, rufen Sie den Befehl clufence auf jedem der Cluster-Systeme auf, um sicherzustellen, dass das System das andere System zum Neustart veranlassen kann (power-cycle). Rufen Sie diesen Befehl nicht auf, solange die Cluster Software ausgeführt wird. Weitere Informationen finden Sie unter Abschnitt 2.11.2.
Stellen Sie sicher, dass alle Cluster-Systeme die gleiche Software Version ausführen.
Rufen Sie den Befehl rpm -q clumanager und rpm -q redhat-config-clusterauf jedem der Cluster-Systeme auf, um die Revision der installierten Cluster-Software-RPMs anzuzeigen.
Der folgende Abschnitt erklärt die Cluster Utilities in mehr Detail.
Die gemeinsamen Partitionen müssen auf beiden Cluster-Systemen zum gleichen physischen Gerät verweisen. Führen Sie das /usr/sbin/shutil-Utility mit der Option -v aus, um den Zugriff auf die gemeinsamen Partitionen zu überprüfen.
Sollte dieser Befehl erfolgreich sein, rufen Sie den Befehl /usr/sbin/shutil -p /cluster/header auf beiden Cluster-Systemen auf, um eine Übersicht der Header-Datenstrukturen für die Shared-Partitionen zu erhalten. Sollte die Ausgabe auf den Systemen unterschiedlich sein, dann verweisen die Shared-Partitionen nicht auf das selbe Gerät auf allen Systemen. Prüfen Sie, dass das Raw-Gerät vorhanden und richtig in der Datei /etc/sysconfig/rawdevices angegeben ist. Weitere Informationen finden Sie unter Abschnitt 1.4.4.3 .
Das folgende Beispiel zeigt, dass die Shared-Partitionen auf das gleiche physiche Gerät auf den Cluster-Membern clu1.example.com undclu2.example.com über den Befehl /usr/sbin/shutil -p /cluster/header zeigen:
/cluster/header is 140 bytes long SharedStateHeader { ss_magic = 0x39119fcd ss_timestamp = 0x000000003ecbc215 (14:14:45 May 21 2003) ss_updateHost = clu1.example.com |
Alle Felder in der Ausgabe des Befehls /usr/sbin/shutil -p /cluster/header sollten gleich sein, wenn dieser auf allen Cluster-Systemen ausgeführt wird. Ist die Ausgabe nicht auf allen Membern gleich, führen Sie folgendes durch:
Untersuchen Sie die Datei /etc/sysconfig/rawdevices auf jedem der Cluster-Systeme und stellen Sie sicher, dass die Raw-Zeichengeräte und Blockgeräte für die primäre und Backup-Shared-Partitionen richtig angegeben sind. Sollten diese nicht gleich sein, bearbeiten Sie die Datei und beheben Sie etwaige Fehler. Führen Sie dann das Cluster Configuration Tool erneut aus. Weitere Informationen finden Sie unter Abschnitt 2.5.
Stellen Sie sicher, dass Sie die Raw-Geräte für die Shared-Partitionen auf jedem der Cluster-Systeme erzeugt haben. Weitere Informationen finden Sie unter Abschnitt 1.4.4.3.
Untersuchen Sie auf jedem Cluster-System die System-Startup-Meldungen an dem Punkt, an dem das System das SCSI-Subsystem zur Ermittlung der Bus-Konfiguration prüft, indem Sie dmesg |less ausführen. Prüfen Sie, dass beide Cluster-Systeme die selben gemeinsamen Speichergeräte verwenden, und geben Sie diesen den gleichen Namen.
Überprüfen Sie, das keines der Cluster-Systeme einen Mount eines Dateisystems auf den Shared-Partitionen versucht. Stellen Sie, zum Beispiel, sicher, dass das aktuelle Gerät (zum Beispiel, /dev/sdb1) nicht in einer /etc/fstab Datei enthaltenist.
Nach dem Ausführen dieser Aufgaben starten Sie das /usr/sbin/shutil Utility neu und verwenden Sie die Option -p.
Sollten entweder Netzwerk oder seriell-verbundene Stromschalter in der Cluster-Hardware-Konfiguration verwendet werden, installieren Sie die Cluster Software und rufen Sie den Befehl clufence auf, um die Stromschalter zu testen. Rufen Sie den Befehl auf jedem der Cluster Systeme auf, um sicherzustellen, dass jedes System das andere zum Neustart veranlassen kann (power-cycle). Sollten diese Tests erfolgreich sein, kann der Cluster gestartet werden.
Der Befehl clufence kann den Stromschalter nur dann testen, wenn die Cluster Software nicht ausgeführt wird. Dies ist deshalb der Fall, da für serielle Schalter nur jeweils ein Programm zu jeder bestimmten Zeit auf die serielle Schnittstelle zugreifen kann, die den Stromschalter mit einem Cluster System verbindet. Wenn der Befehl clufence aufgerufen wird, überprüft dieser den Status der Cluster Software. Sollte die Cluster Software laufen, gibt der Befehl lediglich die Meldung aus, die Cluster Software zu beenden.
Die Befehlszeilenoptionen von clufence sind folgende:
-d — Debugging einschalten
-f — Member ausschalten
-u — Member einschalten
-r — Member neustarten
-s — Status aller Schalter prüfen
Beim Testen von Stromschaltern ist der erste Schritt, sicherzustellen, dass jedes der Cluster Member erfolgreich mit dem mit ihm verbundenen Stromschalter kommunizieren kann. Das folgende Beispiel der Ausgabe des Befehls clufence zeigt, dass der Cluster Member mit seinem Stromschalter kommunizieren kann:
[27734] info: STONITH: rps10 at /dev/ttyS0, port 0 controls clumember1.example.com [27734] info: STONITH: rps10 at /dev/ttyS0, port 1 controls clumember2.example.com |
Falls ein Fehler in der Ausgabe von clufence auftritt, prüfen Sie folgendes:
Für seriell-verbundene Stromschalter:
Überprüfen Sie, dass die Gerätedateien für die serielle Schnittstelle, die mit dem Stromschalter des anderen Systems verbunden ist, (zum Beispiel /dev/ttyS0) richtig in der Cluster Datenbank angegeben ist; im Cluster Configuration Tool rufen Sie den Power Controller Dialog auf, u den Wert des seriellen Ports zu prüfen. Falls notwendig, benutzten Sie ein Paket zur Termina- Emulation, wie minicom, um den Zugriff des Cluster Systems auf die serielle Schnittstelle zu überprüfen.
Stellen Sie sicher, das kein Nicht-Cluster Programm (zum Beispiel, getty) die serielle Schnittstelle verwendet, welche für die Verbindung zum Stromschalter des anderen Systems bestimmt ist. Sie können den lsof Befehl für diese Aufgabe verwenden.
Prüfen Sie, dass der Kabel zum Stromschalter des anderen Systems richtig angeschlossen ist, das der richtige Typ von Kabel verwendet wurde (zum Beispiel, ein RPS-10 Stromschalter erfordert ein Nullmodemkabel), und das alle Verbindungen gut befestigt sind.
Überprüfen Sie, dass physische Dip-Schalter oder rotierende Schalter auf dem Stromschalter richtig eingestellt sind.
Für Netzwerk-basierte Stromschalter:
Überprüfen Sie, dass die Netzwerk-Verbindung zu den Netzwerk-basierten Schaltern steht. Die meisten Schalter haben eine Leuchtdiode, die eine stehende Verbindung anzeigt.
Es sollte möglich sein einen ping zum Netzwerk-verbundenen Stromschalter zu senden; wenn nicht, dann ist der Schalter für seine Netzwerk-Parameter eventuell nicht richtig konfiguriert.
Prüfen Sie, dass der richtige Login und das richtige Passwort (je nach Typ des Schalters) in der Datenbank für die Cluster-Konfiguration (wie beim Ausführens des Cluster Configuration Tool und dem Anzeigen des Power Controller Dialogs angegeben) eingetragen wurden. Eine nützliche Methode der Diagnose ist der Zugriff zum Netzwerkschalter mit Telnet mit den Parametern, die in der Cluster-Konfiguration angegeben sind.
Nachdem die Kommunikation mit dem Schalter erfolgreich getestet wurde, versuchen Sie das andere Cluster Member durch temporäres Trennen von der Stromquelle neuzustarten. Vor diesem Schritt wird allerdings empfohlen nachzuprüfen, dass dieser Cluster Member nicht gerade wichtige Funktionen ausführt (wie das Bearbeiten von Cluster Services zu aktiven Clients). Das Ausführen des Befehlsclufence -f clumember2.example.com zeigt folgende Ausgabe nach einem erfolgreichen Shutdown und Fencing an (was bedeutet, dass das System keinen Strom vom Stromschalter erhält, bis der Service wieder frei geschaltet wird):
[7397] info: STONITH: rps10 at /dev/ttyS0, port 0 controls clumember1.example.com [7397] info: STONITH: rps10 at /dev/ttyS0, port 1 controls clumember2.example.com [7397] notice: STONITH: clumember2.example.com has been fenced! |
Stellen Sie sicher, dass alle Cluster-Systeme die gleiche Softwareversion von Red Hat Cluster Manager ausführen.
Um die Version des Cluster Configuration Tool und des Cluster Status Tool anzuzeigen, können Sie eine der folgenden Methoden verwenden:
Wählen Sie Hilfe => About. DerAbout-Dialog enthält die Versionsnummern.
Geben Sie folgende Befehle ein:
rpm -q redhat-config-cluster rpm -q clumanager |
Die Version des clumanager-Pakets kann auch durch den Befehl clustat -v abgerufen werden.
Zurück | Zum Anfang | Nach vorne |
Einen Service zum Cluster hinzufügen | Nach oben | Konfigurieren des syslogd Event Logging |