Skip to main content

Cette version de GitHub Enterprise Server n'est plus disponible depuis le 2024-09-25. Aucune publication de correctifs n’est effectuée, même pour les problèmes de sécurité critiques. Pour de meilleures performances, une sécurité améliorée et de nouvelles fonctionnalités, effectuez une mise à niveau vers la dernière version de GitHub Enterprise. Pour obtenir de l’aide sur la mise à niveau, contactez le support GitHub Enterprise.

Remplacement d’un nœud de cluster

Si un nœud échoue dans un cluster GitHub Enterprise Server, ou si vous souhaitez ajouter un nouveau nœud avec plus de ressources, marquez les nœuds à remplacer comme hors connexion et ajoutez le nouveau nœud.

Qui peut utiliser cette fonctionnalité ?

GitHub détermine l’éligibilité au clustering et doit activer la configuration de la licence de votre instance. Le clustering nécessite une planification minutieuse et une surcharge administrative supplémentaire. Pour plus d’informations, consultez « À propos du clustering ».

À propos du remplacement de nœuds de cluster GitHub Enterprise Server

Vous pouvez remplacer un nœud fonctionnel dans un cluster GitHub Enterprise Server ou remplacer un nœud qui a échoué de manière inattendue.

Après avoir remplacé un nœud, votre instance GitHub Enterprise Server ne distribue pas automatiquement les travaux sur le nouveau nœud. Vous pouvez forcer votre instance à équilibrer les travaux entre les nœuds. Pour plus d’informations, consultez « Rééquilibrage des charges de travail de cluster ».

Warning

Pour éviter les conflits, ne réutilisez pas un nom d’hôte précédemment attribué à un nœud du cluster.

Remplacement d’un nœud fonctionnel

Vous pouvez remplacer un nœud fonctionnel existant dans votre cluster. Par exemple, vous voudrez peut-être fournir à une machine virtuelle des ressources de processeur, de mémoire ou de stockage supplémentaires.

Pour remplacer un nœud fonctionnel, installez l’appliance GitHub Enterprise Server sur une nouvelle machine virtuelle, configurez une adresse IP, ajoutez le nouveau nœud au fichier de configuration du cluster, initialisez le cluster et appliquez la configuration, puis mettez le nœud que vous avez remplacé hors connexion.

Note

Si vous remplacez le nœud MySQL principal, consultez « Remplacement du nœud MySQL principal ».

  1. Provisionnez et installez GitHub Enterprise Server avec un nom d’hôte unique sur le nœud de remplacement.

  2. En utilisant l’interpréteur de commandes d’administration ou DHCP, configurez uniquement l’adresse IP du nœud de remplacement. Ne configurez pas d’autres paramètres.

  3. Pour ajouter le nœud de remplacement nouvellement provisionné, sur n’importe quel nœud, modifiez le fichier cluster.conf pour supprimer le nœud ayant échoué et ajouter le nœud de remplacement. Par exemple, ce fichier cluster.conf modifié remplace ghe-data-node-3 par le nœud nouvellement provisionné, ghe-replacement-data-node-3 :

    [cluster "ghe-replacement-data-node-3"]
      hostname = ghe-replacement-data-node-3
      ipv4 = 192.168.0.7
      # ipv6 = fd12:3456:789a:1::7
      consul-datacenter = PRIMARY-DATACENTER
      git-server = true
      pages-server = true
      mysql-server = true
      elasticsearch-server = true
      redis-server = true
      memcache-server = true
      metrics-server = true
      storage-server = true
    

    Vous pouvez choisir d’échelonner l’attribution de cote de la base de données d’un nouveau nœud de réplique MySQL, ce qui vous permettra d’ouvrir votre appliance au trafic plus tôt. Pour plus d’informations, consultez « Échelonnage de l’attribution de cote de base de données ».

  4. À partir de l’interpréteur de commandes d’administration du nœud avec le cluster.conf modifié, exécutez ghe-cluster-config-init. Cette commande initialise le nœud nouvellement ajouté dans le cluster.

  5. À partir du même nœud, exécutez ghe-cluster-config-apply. Cette commande valide le fichier de configuration, le copie sur chaque nœud du cluster et configure chaque nœud en fonction du fichier cluster.conf modifié.

  6. Si vous prenez un nœud hors connexion qui fournit des services de données, tels que git-server, pages-server ou storage-server, évacuez le nœud. Pour plus d’informations, consultez « Évacuation d’un nœud de cluster exécutant des services de données ».

  7. Pour marquer le nœud défaillant hors connexion, sur n’importe quel nœud, modifiez le fichier de configuration du cluster (cluster.conf) dans la section de nœud appropriée pour inclure le texte offline = true.

    Par exemple, ce fichier cluster.conf modifié marque le nœud ghe-data-node-3 comme étant hors connexion :

    [cluster "ghe-data-node-3"]
    hostname = ghe-data-node-3
    offline = true
    ipv4 = 192.168.0.6
    # ipv6 = fd12:3456:789a:1::6
    
  8. À partir de l’interpréteur de commandes d’administration du nœud où vous avez modifié cluster.conf, exécutez ghe-cluster-config-apply. Cette commande valide le fichier de configuration, le copie sur chaque nœud du cluster et marque le nœud comme étant hors connexion.

Remplacement d’un nœud en cas d’urgence

Vous pouvez remplacer un nœud défaillant dans votre cluster. Par exemple, un problème logiciel ou matériel peut affecter la disponibilité d’un nœud.

Note

Si vous remplacez le nœud MySQL principal, consultez « Remplacement du nœud MySQL principal ».

Pour remplacer un nœud en cas d’urgence, installez l’appliance GitHub Enterprise Server sur une nouvelle machine virtuelle, configurez une adresse IP, mettez le nœud défaillant hors connexion, appliquez la configuration, ajoutez le nouveau nœud au fichier de configuration du cluster, initialisez le cluster et appliquez la configuration, et éventuellement, évacuez le nœud défaillant.

  1. Provisionnez et installez GitHub Enterprise Server avec un nom d’hôte unique sur le nœud de remplacement.

  2. En utilisant l’interpréteur de commandes d’administration ou DHCP, configurez uniquement l’adresse IP du nœud de remplacement. Ne configurez pas d’autres paramètres.

  3. Pour marquer le nœud défaillant hors connexion, sur n’importe quel nœud, modifiez le fichier de configuration du cluster (cluster.conf) dans la section de nœud appropriée pour inclure le texte offline = true.

    Par exemple, ce fichier cluster.conf modifié marque le nœud ghe-data-node-3 comme étant hors connexion :

    [cluster "ghe-data-node-3"]
    hostname = ghe-data-node-3
    offline = true
    ipv4 = 192.168.0.6
    # ipv6 = fd12:3456:789a:1::6
    
  4. À partir de l’interpréteur de commandes d’administration du nœud où vous avez modifié cluster.conf, exécutez ghe-cluster-config-apply. Cette commande valide le fichier de configuration, le copie sur chaque nœud du cluster et marque le nœud comme étant hors connexion.

  5. Pour ajouter le nœud de remplacement nouvellement provisionné, sur n’importe quel nœud, modifiez le fichier cluster.conf pour supprimer le nœud ayant échoué et ajouter le nœud de remplacement. Par exemple, ce fichier cluster.conf modifié remplace ghe-data-node-3 par le nœud nouvellement provisionné, ghe-replacement-data-node-3 :

    [cluster "ghe-replacement-data-node-3"]
      hostname = ghe-replacement-data-node-3
      ipv4 = 192.168.0.7
      # ipv6 = fd12:3456:789a:1::7
      consul-datacenter = PRIMARY-DATACENTER
      git-server = true
      pages-server = true
      mysql-server = true
      elasticsearch-server = true
      redis-server = true
      memcache-server = true
      metrics-server = true
      storage-server = true
    

    Vous pouvez choisir d’échelonner l’attribution de cote de la base de données d’un nouveau nœud de réplique MySQL, ce qui vous permettra d’ouvrir votre appliance au trafic plus tôt. Pour plus d’informations, consultez « Échelonnage de l’attribution de cote de base de données ».

  6. Si vous remplacez le nœud Redis principal dans cluster.conf, modifiez la valeur redis-master avec le nom du nœud de remplacement.

    Remarque : si votre nœud Redis principal est également votre nœud MySQL principal, consultez « Remplacement du nœud MySQL principal  ».

    Par exemple, ce fichier cluster.conf modifié spécifie un nœud de cluster nouvellement approvisionné, ghe-replacement-data-node-1, en tant que nœud Redis principal :

    redis-master = ghe-replacement-data-node-1
    
  7. À partir de l’interpréteur de commandes d’administration du nœud avec le cluster.conf modifié, exécutez ghe-cluster-config-init. Cette commande initialise le nœud nouvellement ajouté dans le cluster.

  8. À partir du même nœud, exécutez ghe-cluster-config-apply. Cette commande valide le fichier de configuration, le copie sur chaque nœud du cluster et configure chaque nœud en fonction du fichier cluster.conf modifié.

  9. Si vous prenez un nœud hors connexion qui fournit des services de données, tels que git-server, pages-server ou storage-server, évacuez le nœud. Pour plus d’informations, consultez « Évacuation d’un nœud de cluster exécutant des services de données ».

Remplacement du nœud MySQL principal

Pour fournir des services de base de données, votre cluster nécessite un nœud MySQL principal et au moins un nœud MySQL réplica. Pour plus d’informations, consultez « À propos des nœuds de cluster ».

Si vous voulez fournir la machine virtuelle à votre nœud MySQL principal doté de plus de ressources ou si le nœud échoue, vous pouvez remplacer le nœud. Pour réduire le temps d’arrêt, ajoutez le nouveau nœud à votre cluster, répliquez les données MySQL, puis promouvez le nœud. Un certain temps d’arrêt est nécessaire pendant la promotion.

  1. Provisionnez et installez GitHub Enterprise Server avec un nom d’hôte unique sur le nœud de remplacement.

  2. En utilisant l’interpréteur de commandes d’administration ou DHCP, configurez uniquement l’adresse IP du nœud de remplacement. Ne configurez pas d’autres paramètres.

  3. Pour vous connecter à votre instance GitHub Enterprise Server, connectez-vous avec SSH à l’un des nœuds de votre cluster. À partir de votre station de travail, exécutez la commande suivante. Remplacez HOSTNAME par le nom d’hôte du nœud. Pour plus d’informations, consultez « Accès à l’interpréteur de commandes d’administration (SSH) ».

    Shell
    ssh -p 122 admin@HOSTNAME
    
  4. Ouvrez le fichier de configuration de groupement sur /data/user/common/cluster.conf dans un éditeur de texte. Par exemple, vous pouvez utiliser Vim. Créez une sauvegarde du fichier cluster.conf avant de modifier le fichier.

    Shell
    sudo vim /data/user/common/cluster.conf
    
  5. Le fichier de configuration du cluster répertorie chaque nœud sous un titre [cluster "HOSTNAME"]. Ajoutez un nouveau titre pour le nœud et entrez les paires clé-valeur pour la configuration, en remplaçant les espaces réservés par des valeurs réelles.

    • Veillez à inclure la mysql-server = true paire clé-valeur.
    • La section suivante est un exemple et la configuration de votre nœud peut être différente.
    ...
    [cluster "HOSTNAME"]
      hostname = HOSTNAME
      ipv4 = IPV4-ADDRESS
      # ipv6 = IPV6-ADDRESS
      consul-datacenter = PRIMARY-DATACENTER
      datacenter = DATACENTER
      mysql-server = true
      redis-server = true
      ...
    ...
    
  6. À partir de l’interpréteur de commandes d’administration du nœud où vous avez modifié cluster.conf, exécutez ghe-cluster-config-apply. Le nœud nouvellement ajouté devient un nœud MySQL réplica, et tous les autres services configurés s’exécutent là.

  7. Attendez la fin de la réplication MySQL. Pour surveiller la réplication MySQL à partir de n’importe quel nœud du cluster, exécutez ghe-cluster-status -v.

    Peu de temps après l’ajout du nœud au cluster, il est possible qu’une erreur sur l’état de réplication s’affiche pendant que la réplication se rattrape. La réplication peut prendre des heures selon la charge de l’instance, la quantité de données de base de données et de la dernière fois que l’instance a généré une valeur initiale de base de données.

  8. Pendant votre fenêtre de maintenance planifiée, activez le mode maintenance. Pour plus d’informations, consultez « Activation et planification du mode de maintenance ».

  9. Vérifiez que la réplication MySQL est terminée à partir de n’importe quel nœud du cluster en exécutant ghe-cluster-status -v.

    Warning

    Si vous n’attendez pas la fin de la réplication MySQL, vous risquez de perdre des données sur votre instance.

  10. Pour définir le nœud principal MySQL actuel en mode lecture seule, exécutez la commande suivante à partir des nœuds de l’instance.

    Shell
    echo "SET GLOBAL super_read_only = 1;" | sudo mysql
    
  11. Attendez que les identificateurs de transaction globaux (GTID) définis sur les nœuds MySQL principaux et réplica soient identiques. Pour vérifier les GTID, exécutez la commande suivante à partir de l’un des nœuds de l’instance.

    Shell
    ghe-cluster-each -r mysql -- 'echo "SELECT @@global.gtid_executed;" | sudo mysql'
    
  12. Une fois que les GTID sur les nœuds MySQL principaux et réplica correspondent, mettez à jour la configuration du cluster en ouvrant le fichier de configuration du cluster à /data/user/common/cluster.conf dans un éditeur de texte.

    • Créez une sauvegarde du fichier cluster.conf avant de modifier le fichier.
    • Dans la section de niveau supérieur [cluster], supprimez le nom d’hôte du nœud que vous avez remplacé de la paire clé-valeur mysql-master, puis affectez le nouveau nœud à la place. Si le nouveau nœud est également un nœud Redis principal, ajustez la paire clé-valeur redis-master.
    [cluster]
      mysql-master = NEW-NODE-HOSTNAME
      redis-master = NEW-NODE-HOSTNAME
      primary-datacenter = primary
    ...
    
  13. À partir de l’interpréteur de commandes d’administration du nœud où vous avez modifié cluster.conf, exécutez ghe-cluster-config-apply. Cela reconfigure le cluster afin que le nœud nouvellement ajouté devienne le nœud MySQL principal, et que le nœud MySQL principal d’origine devienne un nœud MySQL réplica.

  14. Vérifiez l’état de réplication MySQL à partir de n’importe quel nœud du cluster en exécutant ghe-cluster-status -v.

  15. Si la réplication MySQL est terminée, à partir de n’importe quel nœud du cluster, désactivez le mode de maintenance. Pour plus d’informations, consultez « Activation et planification du mode de maintenance ».