A) Accesso ai cluster via web

In linea di massima si puo' accedere ad ogni macchina del cluster tramite interfaccia web:

https://st0x.virgo.infn.it/2224

dove st0x e' una macchina nel range st03-st06

La login di accesso e' "hacluster", la password e' quella dello storage.

cluster img 1.png

Sono visibili dalla prima schermata i gruppi di cluster (archivi, homes e procdata), le macchine attive che ne fanno parte e le macro risorse.

Si seleziona quindi il cluster con cui si vuole operare (es. homes) e la macchina di cui si vuole conoscere lo stato o su cui si vuole operare (es. st04):

cluster img 2.png

Si possono adesso verificare lo stato delle risorse (se attive e dove) e lanciare dei comandi al singolo host componente il cluster: start e stop (servizio cluster), restart (reboot), standby (sospensione serivizio e risorse) o configurare il fencing.

Selezionando in alto "resources" abbiamo il dettaglio di ogni singole risorsa:

cluster img 3.png

Si puo' notare come la macro risorsa (homes) comprenda tutte le altre. Questa risulta correttamente in funzione quando e' di colore blu.

Colore rosso indica un errore nella risorsa mentre arancio indica una risorsa in standby.

La macro risorsa divene blu solo e soltanto se tutte le risorse che la compongono sono blu, ovvero avviare con successo.

Nel caso una risorsa sia in errore o abbia un problema (indicato da un triangolo giallo) si puo' provare a far rileggere/resettare la risorsa con il comando "cleanup".

Dato che le nostre risorse sono tutte sequenzializzate, di solito non e' il caso di interrompere (enable/disable) o meno che mai cancellare (cleanup) una risorsa intermedia perche' questo causerebbe il fallimento dll'intero gruppo.

Le risorse hanno un nome che deriva da dal gruppo e tipo di risorsa usata: per esempio h.filesystem_vol identifica una risorsa del gruppo homes, di tipo filesystem, specificamente il "vol" xfs contenente le homes.

Cliccando su di una risorsa (esempio h.filesystem_vol) si vedono le caratterstiche evidenziate:

cluster img 4.png

Si nota la sequenza di avvio specificata per il server NFS delle homes, ovvero:

- il file system delle homes;

- il file system dei lock;

- l'NFS server vero e proprio;

- l'IP di servizio;

- i vari exportfs (per tutti, per yp server, etc…);

A.1) In sostanza, cosa su puo' fare via web in caso di emergenza:

- vedere lo stato del cluster, delle singole macchine e delle risorse associate ed individuare la possibile causa di un problema;

- mettere in blocco (enable/disable) il cluster di una specifica macchina per metterla in manutenzione, spostando in automatico le risorse sull'altra macchina;

- effettuare un reboot di una macchina (restart) spostando le risorse sull'altra macchina;

- ricaricare un gruppo di risorse o una risorsa in errore (cleanup);

Le altre funzioni sono da intendersi per un uso solo dedicato all'installazione e la configurazione del cluster o di nuove risorse.

B) Accesso ai cluster via CLI

E' sufficente accedere come "root" ad una qualsiasi delle macchine st0x.virgo.infn.it che compongono il cluster, la password resta quella dello storage. Per esmpio:

# ssh root@st05.virgo.infn.it

per verificare lo stato del cluster e' sufficnete digitare:

# pcs status

e si ottiene la lista delle macchine e delle risorse che lo compongono ed il loro status:

[root@st05 ~]# pcs status
Cluster name: RHEL_procdata
Last updated: Thu Apr 27 15:31:29 2017 Last change: Fri Mar 24 10:01:36 2017 by root via cibadmin on st05.virgo.infn.it
Stack: corosync
Current DC: st05.virgo.infn.it (version 1.1.13-10.el7_2.4-44eb2dd) - partition with quorum
2 nodes and 10 resources configured

Online: [ st05.virgo.infn.it st06.virgo.infn.it ]

Full list of resources:

idrac_st05 (stonith:fence_idrac): Started st05.virgo.infn.it
idrac_st06 (stonith:fence_idrac): Started st06.virgo.infn.it
Resource Group: procdata
p.filesystem_vol (ocf::heartbeat:Filesystem): Started st05.virgo.infn.it
p.filesystem_nfs (ocf::heartbeat:Filesystem): Started st05.virgo.infn.it
p.nfs_server (ocf::heartbeat:nfsserver): Started st05.virgo.infn.it
p.IP2 (ocf::heartbeat:IPaddr2): Started st05.virgo.infn.it
p.exportfs_all (ocf::heartbeat:exportfs): Started st05.virgo.infn.it
p.exportfs_procdata (ocf::heartbeat:exportfs): Started st05.virgo.infn.it
p.exportfs_procdata_w3 (ocf::heartbeat:exportfs): Started st05.virgo.infn.it
p.filesystem_cbc (ocf::heartbeat:Filesystem): Started st05.virgo.infn.it

PCSD Status:
st05.virgo.infn.it: Online
st06.virgo.infn.it: Online

Daemon Status:
corosync: active/enabled
pacemaker: active/enabled
pcsd: active/enabled

con in evidenza lo stato delle macchine e delle risorse e la loro assegnazione.

Con il comando "pcs" e' possibile fare qualunque operazione all'interno del cluster, le operazioni disponibili sono superiori a quelle che si possono effettuare con l'interfaccia grafica.

Digitando pcs seguito da <tab> e' possibile ottenere la lista iniziale dei comandi disponibili:

# pcs →TAB

[root@st05 ~]# pcs
acl cluster config constraint property resource status stonith

A seconda di dove si voglia operare o cosa fare. Le scelte sono "nested", come il <tab>, se volessimo conoscere le opzioni dei comandi per operare sulle risorse abbiamo:

# pcs resource →TAB

[root@st05 ~]# pcs resource
agents clear debug-demote debug-start delete enable list meta providers show ungroup
ban clone debug-monitor debug-stop describe failcount manage move relocate standards unmanage
cleanup create debug-promote defaults disable group master op restart unclone update

Nel caso volessimo conoscere l'ordine di caricamento delle risorse, si digita:

# pcs constraint order

[root@st05 ~]# pcs constraint order
Ordering Constraints:
Resource Sets:
set p.filesystem_vol p.filesystem_cbc p.filesystem_nfs p.nfs_server p.IP2 p.exportfs_all p.exportfs_procdata p.exportfs_procdata_w3

Nella fase di configurazione o dopo aver aggiunto una risorsa, per inserirla nellordine di caricamento si annulla il precedente ordine e lo si crea di nuovo:

# pcs constraint order show

# pcs constraint order clear

# pcs constraint order set resource_1 resource_2 … resource_N

Come si vede e' piuttosto complicato navigare all'interno della CLI, c'e' sempre rischio di causare danno, ma e' anche il sistema piu' veloce e sicuro per accedere ad un cluster.
I Attachment Action Size Date Who Comment
cluster_img_1.pngpng cluster_img_1.png manage 67 K 06 Jun 2019 - 08:24 Main.Salconi  
cluster_img_2.pngpng cluster_img_2.png manage 72 K 06 Jun 2019 - 08:24 Main.Salconi  
cluster_img_3.pngpng cluster_img_3.png manage 90 K 06 Jun 2019 - 08:24 Main.Salconi  
cluster_img_4.pngpng cluster_img_4.png manage 74 K 06 Jun 2019 - 08:24 Main.Salconi  
Topic revision: r1 - 06 Apr 2021, Salconi
This site is powered by FoswikiCopyright © by the contributing authors. All material on this collaboration platform is the property of the contributing authors.
Ideas, requests, problems regarding Wiki_Virgo_LSC? Send feedback