• Non ci sono risultati.

Suggerimento: ulteriori dettagli sulla configurazione di chronyd

PROCEDURA 6.1: ESEGUIRE LA MIGRAZIONE A chronyd PRIMA DELL'UPGRADE DEL CLUSTER

1. Installare il pacchetto chrony :

root@minion > zypper install chrony

2. Modificare il file di configurazione di chronyd /etc/chrony.conf e aggiungere le ori-gini NTP della configurazione ntpd corrente in /etc/ntp.conf.

Suggerimento: ulteriori dettagli sulla configurazione di chronyd

Consultare la pagina all'indirizzo https://documentation.suse.com/sles/15-SP1/html/

SLES-all/cha-ntp.html per ulteriori dettagli su come includere le origini dell'orario nella configurazione di chronyd.

3. Disabilitare e interrompere il servizio ntpd:

root@minion > systemctl disable ntpd.service && systemctl stop ntpd.service

4. Avviare e abilitare il servizio di chronyd:

root@minion > systemctl start chronyd.service && systemctl enable chronyd.service

5. Verificare lo stato di chrony:

root@minion > chronyc tracking

PROCEDURA 6.2: ESEGUIRE LA MIGRAZIONE A chronyd DOPO L'UPGRADE DEL CLUSTER

1. Durante l'upgrade del cluster, aggiungere i seguenti archivi software:

SLE-Module-Legacy15-SP1-Pool SLE-Module-Legacy15-SP1-Updates 2. Eseguire l'upgrade del cluster alla versione 6.

3. Modificare il file di configurazione di chronyd /etc/chrony.conf e aggiungere le ori-gini NTP della configurazione ntpd corrente in /etc/ntp.conf.

Suggerimento: ulteriori dettagli sulla configurazione di chronyd

Consultare la pagina all'indirizzo https://documentation.suse.com/sles/15-SP1/html/

SLES-all/cha-ntp.html per ulteriori dettagli su come includere le origini dell'orario nella configurazione di chronyd.

4. Disabilitare e interrompere il servizio ntpd:

root@minion > systemctl disable ntpd.service && systemctl stop ntpd.service

5. Avviare e abilitare il servizio di chronyd:

root@minion > systemctl start chronyd.service && systemctl enable chronyd.service

7. Verificare lo stato di chrony:

root@minion > chronyc tracking

8. Rimuovere gli archivi software esistenti aggiunti per mantenere ntpd nel sistema durante la procedura di upgrade.

6.4 Applicazione di patch al cluster prima dell'upgrade

Applicare le patch più recenti a tutti i nodi del cluster prima di eseguire l'upgrade.

6.4.1 Archivi software obbligatori

Verificare che gli archivi obbligatori siano configurati in ciascun nodo del cluster. Per visualiz-zare un elenco di tutti gli archivi disponibili, eseguire

root@minion > zypper lr

SUSE Enterprise Storage 5.5 richiede:

SLES12-SP3-Installer-Updates SLES12-SP3-Pool

SLES12-SP3-Updates

SUSE-Enterprise-Storage-5-Pool SUSE-Enterprise-Storage-5-Updates

Il gateway NFS/SMB su SLE-HA in SUSE Linux Enterprise Server 12 SP3 richiede:

SLE-HA12-SP3-Pool SLE-HA12-SP3-Updates

6.4.2 Sistemi di gestione provvisoria dell'archivio

Se si utilizza uno dei sistemi di gestione provvisoria dell'archivio (SMT, RMT o SUSE Manager), creare un nuovo livello di patch bloccato per la versione corrente e per quella nuova di SUSE Enterprise Storage.

Per ulteriori informazioni, vedere:

https://www.suse.com/documentation/sles-12/book_smt/data/book_smt.html , https://www.suse.com/documentation/sles-15/book_rmt/data/book_rmt.html . https://www.suse.com/documentation/suse-manager-3/index.html ,

6.4.3 Applicazione delle patch più recenti a tutto il cluster

1. Applicare le patch più recenti di SUSE Enterprise Storage 5.5 e SUSE Linux Enterprise Server 12 SP3 a ciascun nodo del cluster Ceph. Verificare che a ogni nodo del cluster siano connessi gli archivi software corretti (vedere la Sezione 6.4.1, «Archivi software obbligatori») ed eseguire la fase 0 di DeepSea:

root@master # salt-run state.orch ceph.stage.0

2. Al completamento della fase 0, verificare che nello stato di ogni nodo del cluster sia incluso il testo "HEALTH_OK". Se non lo è, risolvere il problema prima dei possibili riavvii previsti nelle fasi successive.

3. Eseguire zypper ps per verificare la presenza di processi in esecuzione con librerie o binari meno recenti e riavviarli.

4. Verificare che il kernel in esecuzione sia il più recente disponibile e riavviarlo in caso contrario. Controllare gli output dei comandi seguenti:

cephadm@adm > uname -a

cephadm@adm > rpm -qa kernel-default

5. Verificare che la versione del pacchetto ceph sia 12.2.12 o precedente. Verificare che la versione del pacchetto deepsea sia 0.8.9 o precedente.

6. Se in precedenza è stata utilizzata una delle impostazioni bluestore_cache, tenere pre-sente che queste non sono più effettive a partire dalla versione 12.2.10 di ceph. La nuova

il dimensionamento manuale della cache. Per attivare il comportamento precedente, è necessario impostare bluestore_cache_autotune=false. Per ulteriori dettagli, vedere Libro «Guida all'amministrazione», Capitolo 16 «Configurazione del cluster Ceph», Sezione 16.2.1

«Ridimensionamento automatico della cache».

6.5 Verifica dell'ambiente corrente

Correggere gli eventuali problemi evidenti del sistema prima di avviare l'upgrade. Il pro-cesso di upgrade non corregge mai i problemi di sistema esistenti.

Verificare le prestazioni del cluster. È possibile utilizzare comandi come rados bench, ceph tell osd.* bench oppure iperf3.

Verificare l'accesso ai gateway (come iSCSI Gateway oppure Object Gateway) e al dispo-sitivo di blocco RADOS.

Documentare le parti specifiche della configurazione di sistema, come i dettagli della con-figurazione di rete, del partizionamento o dell'installazione.

Utilizzare supportconfig per raccogliere le informazioni di sistema importanti e salvarle al di fuori dei nodi del cluster. Per ulteriori informazioni, vedere https://www.suse.com/do-cumentation/sles-12/book_sle_admin/data/sec_admsupport_supportconfig.html .

Assicurarsi che in ciascun nodo del cluster sia disponibile sufficiente spazio libero su disco.

Verificare lo spazio libero su disco con df-h. Se necessario, liberare dello spazio sul disco rimuovendo le directory/i file non necessari o le snapshot del sistema operativo obsolete.

Se lo spazio libero sul disco non è sufficiente, non proseguire con l'upgrade finché non si sarà liberato spazio sufficiente.

6.6 Verifica dello stato del cluster

Verificare il comando cluster health prima di avviare la procedura di upgrade. Non avviare l'upgrade a meno che ogni su ogni nodo del cluster non sia riportato il testo

"HEALTH_OK".

Verificare che tutti i servizi siano in esecuzione:

Salt master e daemon Salt master.

Ceph Monitor e Ceph Manager Daemon.

Daemon del server di metadati.

Daemon Ceph OSD.

Daemon Object Gateway.

Daemon iSCSI Gateway.

I comandi seguenti forniscono i dettagli dello stato del cluster e della configurazione specifica:

ceph -s

Stampa un breve riepilogo sullo stato del cluster Ceph, sui servizi in esecuzione, sull'utilizzo dei dati e sulle statistiche I/O. Verificare che sia presente il testo "HEALTH_OK" prima di avviare l'upgrade.

ceph health detail

Stampa i dettagli se lo stato del cluster Ceph non è valido.

ceph versions

Stampa le versioni dei daemon Ceph in esecuzione.

ceph df

Stampa lo spazio totale e libero su disco del cluster. Non avviare l'upgrade se lo spazio libero su disco del cluster è inferiore al 25% dello spazio su disco totale.

salt '*' cephprocesses.check results=true

Stampa i processi Ceph in esecuzione e i relativi PID ordinati in base ai Salt minion.

Verificare che siano presenti i ag "recovery_deletes" e "purged_snapdirs". Se non lo sono, è possibile forzare una pulitura su tutti i gruppi di posizionamento eseguendo il comando seguente. Si tenga presente che questa pulitura forzata ha un impatto negativo sulle pre-stazioni dei client Ceph.

cephadm@adm > ceph pg dump pgs_brief | cut -d " " -f 1 | xargs -n1 ceph pg scrub

6.7 Upgrade oine dei cluster CTDB

CTDB fornisce un database gestito in cluster utilizzato dai gateway Samba. Il protocollo CTDB è molto semplice e non supporta i cluster dei nodi che comunicano con versioni di protocollo diverse. Pertanto, occorre impostare i nodi CTDB sullo stato offline prima di eseguire l'upgrade.

6.8 Upgrade per nodo - Procedura di base

Per assicurarsi che i Cluster Services di base del cluster siano disponibili durante la procedura, è necessario eseguire l'upgrade dei nodi in modo sequenziale. È possibile eseguire l'upgrade di un nodo in due modi diversi: tramite il DVD del programma di installazione o tramite il sistema di migrazione della distribuzione.

Dopo aver eseguito l'upgrade di tutti i nodi, si consiglia di eseguire rpmconfigcheck per verifi-care la presenza di eventuali file di configurazione modificati in locale. Se il comando restituisce un elenco di nomi di file con un suffisso .rpmnew, .rpmorig o .rpmsave, confrontare tali file con i file di configurazione correnti per assicurarsi che nessuna modifica locale sia andata persa.

Se necessario, aggiornare i file interessati. Per ulteriori informazioni su come utilizzare i file .rpmnew, .rpmorig e .rpmsave, consultare la pagina all'indirizzo https://documentation.su-se.com/sles/15-SP1/single-html/SLES-admin/#sec-rpm-packages-manage .

Documenti correlati