Red Hat Cluster Suite: Configurazione e gestione di un cluster | ||
---|---|---|
Indietro | Capitolo 2. Configurazione del cluster | Avanti |
Per assicurarsi che il software del cluster é stato correttamente configurato, usare i seguenti tool situati nella directory /usr/sbin:
Effettuare un controllo delle partizioni condivise e assicurarsi che esse possono essere accessibili.
Richiamare la utility /usr/sbin/shutil con l'opzione -v per verificare laccessibilitá delle partizioni condivise. Consultare la Sezione 2.11.1 per maggiori informazioni.
Effettuare un controllo della funzionalitá degli interruttori.
Se in una configurazione hardware del cluster vengono usati degli interruttori, eseguire il comando clufence su ogni sistema del cluster per assicurare che esso possa effettuare una procedura power-cycle remota ad un altro sistema del cluster. Non eseguire questo comando se il software del cluster é in funzione. Vedere la Sezione 2.11.2 per maggiori informazioni.
Assicurarsi che tutti i membri del cluster stiano eseguendo la stessa versione del software.
Richiamare il comando rpm -q clumanager e il comando rpm -q redhat-config-cluster su ogni membroper visualizzare la revisione dell'RPM software del cluster installato.
La seguente sezione spiega le utility del cluster in modo piú dettagliato.
Le partizioni condivise devono riferirsi allo stesso dispositivo fisico su tutti i membri. Richiamare la utility /usr/sbin/shutil con il comando -v per effettuare un test delle partizioni condivise e verificare che esse possono essere accessibili.
Se il comando ha successo, eseguire il comando /usr/sbin/shutil -p /cluster/header su tutti i membri per visualizzare un riepilogo della struttura dei dati della testata per le partizioni condivise. Se l'output sui membri é diverso, le partizioni condivise non indicano gli stessi dispositivi su tutti i membri. Effettuare un controllo e assicuratevi che i dispositivi raw sono esistenti e sono correttamente specificati nel file /etc/sysconfig/rawdevices. Consultare la Sezione 1.4.4.3 per maggiori informazioni.
Il seguente esempio mostra che le partizioni condivise si riferiscono allo stesso dispositivo fisico sui membri del cluster clu1.example.com e clu2.example.com tramite il comando /usr/sbin/shutil -p /cluster/header.
/cluster/header is 140 bytes long SharedStateHeader { ss_magic = 0x39119fcd ss_timestamp = 0x000000003ecbc215 (14:14:45 May 21 2003) ss_updateHost = clu1.example.com |
Tutti i campi nell'output dal comando /usr/sbin/shutil -p /cluster/header dovrebbero essere gli stessi quando vengono eseguiti su tutti i membri del cluster. Se l'output non è uguale su tutti i membri, effettuare quanto segue:
Esaminare il file /etc/sysconfig/rawdevices su ogni membro e assicurarsi che il raw character device ed i dispositivi a blocco per le partizioni primarie e per quelle di backup, siano state accuratamente specificate. Se non sono le stesse, modificateil file e correggere ogni errore. Eseguire nuovamente Tool di configurazione del Cluster. Consultare la Sezione 2.5 per maggiori informazioni.
Assicurarsi di aver creato i raw device per le partizioni condivise su ogni membro. Consultare la Sezione 1.4.4.3 per maggiori informazioni.
Per determinare la configurazione del bus su ogni membro, esaminare i messaggi d'inizio del sistema eseguendo dmesg |less, fino al punto dove il sistema prova il sottosistema SCSI. Verificare che entrambi i membri identificano gli stessi dispositivi di memoria condivisi assegnando loro gli stessi nomi.
Verificare che un membro non cerchi di montare un file system sulla partizione condivisa. Per esempio, assicurarsi che il dispositivo (per esempio, /dev/sdb1) non é incluso in un file /etc/fstab.
Dopo aver eseguito questi compiti, eseguire nuovamente la utility /usr/sbin/shutil con l'opzione -p.
Se gli interruttori di rete o quelli seriali sono usati nella configurazione hardware di un cluster, installare il software del cluster e richiamare il comando clufence per effettuare un test degli interruttori. Richiamare il comando su ogni membro per assicurarsi che esso possa condurre una procedura in modo remoto di power-cycle di un altro sistema. Se il test ha successo, il cluster puó essere avviato.
Il comando clufence puó effettuare un controllo accurato di un interruttore, solo se il software del cluster non é in esecuzione. Ció a causa del fatto che per gli interruttori seriali, solo un programma per volta puó accedere alla porta seriale che collega un interruttore ad un membro. Quando il comando clufence viene richiamato, esso controlla la condizione del software del cluster. Se il software del cluster é in funzione, il comando esce ed invia un messaggio per arrestare il software del cluster.
Le opzioni della line adi comando clufence sono le seguenti:
-d — Abilitare il debugging
-f — Disabilitare il membro
-u — Abilitare il membro
-r — Riavviare (power cycle) il membro
-s — Controllare lo stato di tutti gli interruttori che controllano il membro
Quando si esegue il test degli interruttori, la prima fase consiste nell'assicurare che ogni membro del cluster puó comunicare con successo con il proprio interruttore. L'output del comando clufence, mostra come il membro del cluster sia in grado di comunicare con il proprio interruttore:
[27734] info: STONITH: rps10 at /dev/ttyS0, port 0 controls clumember1.example.com [27734] info: STONITH: rps10 at /dev/ttyS0, port 1 controls clumember2.example.com |
Nel caso in cui si verifica un errore nell'output clufence, controllate quanto segue:
Per interruttori seriali:
Verificare che il file speciale del dispositivo per il collegamento remoto dell'interruttore della porta seriale (per esempio /dev/ttyS0) sia specificato correttamente nel file di configurazione del cluster, nel Tool di configurazione del Cluster, visualizzare la finestra di dialogo Controller di alimentazione per controllare il valore della porta seriale. Se necessario, usare un pacchetto di emulazione terminale come minicom per controllare se il membro del cluster puó accedere alla porta seriale.
Assicurare che un programma non-cluster (per esempio, un programma getty) sia impossibilitato ad usare la porta seriale per il collegamento remoto dell'interruttore. É possibile usare il comando lsof per effettuare questo tipo di compito.
Controllare che il collegamento del cavo dell'interruttore remoto sia corretto. Verificare anche che il corretto tipo di cavo sia usato (per esempio, un interruttore RPS-10 necessita di un cavo null modem), e che tutte i collegamenti siano fissati saldamente.
Verificare che qualsiasi interruttore a pulsante o rotante fisico sia impostato in modo corretto.
Per interruttori basati su rete:
Verificare che il collegamento di rete agli interruttori basati sulla rete, sia funzionante. Molti degli interruttori hanno un dispositivo di segnalazione che indica tale collegamento.
Dovrebbe essere possibile effettuare un ping dell'interruttore di rete; se ció non fosse possibile, potrebbe significare che l'interruttore non é stato propriamente configurato per i propri parametri di rete.
Verificare che la corretta password ed il nome per la registrazione (a seconda del tipo d'interruttore) siano stati specificati nel file di configurazione del cluster (come stabilito eseguendo Tool di configurazione del Cluster e visualizzando le proprietà specificate nella finestra di dialogo Controller di alimentazione). Sarebbe proficuo verificare l'accesso Telnet all'interruttore di rete usando gli stessi parametri come specificato nella configurazione del cluster.
Dopo aver positivamente verificato la presenza di comunicazione con l'interruttore, cercare di eseguire un power-cycle nei confronti dell'altro membro del cluster. Prima di fare ció, é consigliato verificare se l'altro membro del cluster non stia effettuando attivamente alcuna funzione importante (come ad esempio offrire i servizi del cluster a client attivi). Eseguendo il comando clufence -f clumember2.example.com visualizza il seguente output previo successo nello spegnimento e nell'esecuzione della funzione fencing (la quale significa che il sistema non riceve alimentazione dall'interruttore di alimentazione fino a quando il sistema non sia stato 'unfenced'):
[7397] info: STONITH: rps10 at /dev/ttyS0, port 0 controls clumember1.example.com [7397] info: STONITH: rps10 at /dev/ttyS0, port 1 controls clumember2.example.com [7397] notice: STONITH: clumember2.example.com has been fenced! |
Assicurarsi che tutti i membri nel cluster stiano eseguendo la stessa versione del software di Red Hat Cluster Manager.
Per visualizzare la versione del Tool di configurazione del Cluster e Tool dello stato del Cluster, usare uno dei seguenti metodi:
Selezionare Aiuto => Che cos'è. Il dialogo che cos'è include i numeri della versione.
Richiamare i seguenti comandi:
rpm -q redhat-config-cluster rpm -q clumanager |
La versione del pacchetto clumanager può essere determinata richiamando il comando clustat -v.