2.11. Controllo della configurazione del Cluster

Per assicurarsi che il software del cluster é stato correttamente configurato, usare i seguenti tool situati nella directory /usr/sbin:

La seguente sezione spiega le utility del cluster in modo piú dettagliato.

2.11.1. Come eseguire un test delle partizioni condivise

Le partizioni condivise devono riferirsi allo stesso dispositivo fisico su tutti i membri. Richiamare la utility /usr/sbin/shutil con il comando -v per effettuare un test delle partizioni condivise e verificare che esse possono essere accessibili.

Se il comando ha successo, eseguire il comando /usr/sbin/shutil -p /cluster/header su tutti i membri per visualizzare un riepilogo della struttura dei dati della testata per le partizioni condivise. Se l'output sui membri é diverso, le partizioni condivise non indicano gli stessi dispositivi su tutti i membri. Effettuare un controllo e assicuratevi che i dispositivi raw sono esistenti e sono correttamente specificati nel file /etc/sysconfig/rawdevices. Consultare la Sezione 1.4.4.3 per maggiori informazioni.

Il seguente esempio mostra che le partizioni condivise si riferiscono allo stesso dispositivo fisico sui membri del cluster clu1.example.com e clu2.example.com tramite il comando /usr/sbin/shutil -p /cluster/header.

/cluster/header is 140 bytes long
SharedStateHeader {
        ss_magic = 0x39119fcd
        ss_timestamp = 0x000000003ecbc215 (14:14:45 May 21 2003)
        ss_updateHost = clu1.example.com

Tutti i campi nell'output dal comando /usr/sbin/shutil -p /cluster/header dovrebbero essere gli stessi quando vengono eseguiti su tutti i membri del cluster. Se l'output non è uguale su tutti i membri, effettuare quanto segue:

Dopo aver eseguito questi compiti, eseguire nuovamente la utility /usr/sbin/shutil con l'opzione -p.

2.11.2. Come eseguire il test degli interruttori

Se gli interruttori di rete o quelli seriali sono usati nella configurazione hardware di un cluster, installare il software del cluster e richiamare il comando clufence per effettuare un test degli interruttori. Richiamare il comando su ogni membro per assicurarsi che esso possa condurre una procedura in modo remoto di power-cycle di un altro sistema. Se il test ha successo, il cluster puó essere avviato.

Il comando clufence puó effettuare un controllo accurato di un interruttore, solo se il software del cluster non é in esecuzione. Ció a causa del fatto che per gli interruttori seriali, solo un programma per volta puó accedere alla porta seriale che collega un interruttore ad un membro. Quando il comando clufence viene richiamato, esso controlla la condizione del software del cluster. Se il software del cluster é in funzione, il comando esce ed invia un messaggio per arrestare il software del cluster.

Le opzioni della line adi comando clufence sono le seguenti:

Quando si esegue il test degli interruttori, la prima fase consiste nell'assicurare che ogni membro del cluster puó comunicare con successo con il proprio interruttore. L'output del comando clufence, mostra come il membro del cluster sia in grado di comunicare con il proprio interruttore:

[27734] info: STONITH: rps10 at /dev/ttyS0, port 0 controls clumember1.example.com
[27734] info: STONITH: rps10 at /dev/ttyS0, port 1 controls clumember2.example.com

Nel caso in cui si verifica un errore nell'output clufence, controllate quanto segue:

Dopo aver positivamente verificato la presenza di comunicazione con l'interruttore, cercare di eseguire un power-cycle nei confronti dell'altro membro del cluster. Prima di fare ció, é consigliato verificare se l'altro membro del cluster non stia effettuando attivamente alcuna funzione importante (come ad esempio offrire i servizi del cluster a client attivi). Eseguendo il comando clufence -f clumember2.example.com visualizza il seguente output previo successo nello spegnimento e nell'esecuzione della funzione fencing (la quale significa che il sistema non riceve alimentazione dall'interruttore di alimentazione fino a quando il sistema non sia stato 'unfenced'):

[7397] info: STONITH: rps10 at /dev/ttyS0, port 0 controls clumember1.example.com
[7397] info: STONITH: rps10 at /dev/ttyS0, port 1 controls clumember2.example.com
[7397] notice: STONITH: clumember2.example.com has been fenced!

2.11.3. Visualizzazione della versione del software del cluster

Assicurarsi che tutti i membri nel cluster stiano eseguendo la stessa versione del software di Red Hat Cluster Manager.

Per visualizzare la versione del Tool di configurazione del Cluster e Tool dello stato del Cluster, usare uno dei seguenti metodi: