0

Proxmox 4.x : ajout d’un nœud dans un cluster HA existant

Un mémo sur comment ajouter un nœud Proxmox dans un cluster HA existant et l’ajout d’OSDs supplémentaires pour Ceph.
Pour l’exemple, le serveur ajouté au cluster possède 2 disques de 4To, qui seront ajoutés au pool correspondant à cette taille de disque.

nb : Attention, suivant la rapidité des disques, il peut y avoir une indisponibilité d’accès au VMs, qui sont stockées sur le pool où ont été ajoutés les OSDs dû à la duplication des données.

Ajout d’un nouveau nœud dans un cluster en production

Ce qui va suivre part du principe que le nouveau serveur Proxmox est installé, configuré et opérationnel.

  • Renseigner le fichier /etc/hosts comme les autres membres du cluster :
  • nano /etc/hosts
    192.168.1.1 cluster-01
    192.168.1.2 cluster-02
    192.168.1.3 cluster-03
    192.168.4.4 cluster-04
    
  • Ajout du nouveau nœud dans le cluster existant :
  • pvecm add cluster-01 -ring0_addr cluster-04 -force
  • Vérification du statut :
    • Via la commande pvecm :
    • pvecm status
      Quorum information
      ------------------
      Date:             Fri Mar 17 13:32:54 2017
      Quorum provider:  corosync_votequorum
      Nodes:            4
      Node ID:          0x00000004
      Ring ID:          1/512
      Quorate:          Yes
      
      Votequorum information
      ----------------------
      Expected votes:   4
      Highest expected: 4
      Total votes:      4
      Quorum:           3  
      Flags:            Quorate 
      
      Membership information
      ----------------------
          Nodeid      Votes Name
      0x00000001          1 192.168.1.1
      0x00000002          1 192.168.1.2
      0x00000003          1 192.168.1.3
      0x00000004          1 192.168.1.4 (local)
      
    • Via l’interface web de Proxmox :

    Installer Ceph sur le nouveau nœud

    • Installer Ceph :
    • https_proxy=http://IP_PROXY:PORT pveceph install -version jewel

      Sur ce nœud, ne pas installer le moniteur car ils doivent être en nombre impaire.

    Création et ajout des OSDs sur le cluster Ceph existant

    • Création des OSDs avec les disques de disponible :
    • pveceph createosd /dev/sd[X]
    • Créer un nouveau host pour la Crush MAP :
    • ceph osd crush add-bucket ceph4-4ToSAS host
    • Déplacer le nouveau host sur le root souhaité :
    • ceph osd crush move ceph4-4ToSAS root=4ToSAS
    • Déplacer les OSDs dans le host souhaité :
    • ceph osd crush add osd.18 0.200 host=ceph4-4ToSAS
      ceph osd crush add osd.19 0.200 host=ceph4-4ToSAS
    • Lister les OSDs :
      • en mode cli :
      • ceph osd tree
        ID  WEIGHT  TYPE NAME              UP/DOWN REWEIGHT PRIMARY-AFFINITY 
        -13 0.59999 root journal                                             
         -4 0.20000     host ceph1-journal                                   
          0 0.20000         osd.0               up  1.00000          1.00000 
        -11 0.20000     host ceph2-journal                                   
          1 0.20000         osd.1               up  1.00000          1.00000 
        -12 0.20000     host ceph3-journal                                   
          2 0.20000         osd.2               up  1.00000          1.00000 
         -3 1.19998 root 300SAS                                              
         -5 0.39999     host ceph1-300SAS                                    
          3 0.20000         osd.3               up  1.00000          1.00000 
          4 0.20000         osd.4               up  1.00000          1.00000 
         -6 0.39999     host ceph2-300SAS                                    
          8 0.20000         osd.8               up  1.00000          1.00000 
          9 0.20000         osd.9               up  1.00000          1.00000 
         -7 0.39999     host ceph3-300SAS                                    
         13 0.20000         osd.13              up  1.00000          1.00000 
         14 0.20000         osd.14              up  1.00000          1.00000 
         -2 2.19997 root 4ToSAS                                              
         -8 0.59999     host ceph1-4ToSAS                                    
          5 0.20000         osd.5               up  1.00000          1.00000 
          6 0.20000         osd.6               up  1.00000          1.00000 
          7 0.20000         osd.7               up  1.00000          1.00000 
         -9 0.59999     host ceph2-4ToSAS                                    
         10 0.20000         osd.10              up  1.00000          1.00000 
         11 0.20000         osd.11              up  1.00000          1.00000 
         12 0.20000         osd.12              up  1.00000          1.00000 
        -10 0.59999     host ceph3-4ToSAS                                    
         15 0.20000         osd.15              up  1.00000          1.00000 
         16 0.20000         osd.16              up  1.00000          1.00000 
         17 0.20000         osd.17              up  1.00000          1.00000 
        -14 0.39999     host ceph4-4ToSAS                                    
         19 0.20000         osd.19              up  1.00000          1.00000 
         18 0.20000         osd.18              up  1.00000          1.00000
        
      • ou via l’interface web de Proxmox :

    Partager l'article :





    fred

    Administrateur Système autodidacte et utilisateur au quotidien de GNU/Linux (Debian, Ubuntu, Manjaro et un peu de CentOS).

    Laisser un commentaire

    Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *