• Serveurs
  • Problème serveurs dédiés suite mise à jour d'Ubuntu

Bonjour,
Je viens vous solliciter car suite à mise à jour de mon serveur dédié je n'ai plus accès à mon serveur (ou du moins que en mode secours). Du coup comme si Ubuntu ne se lançait plus. Avez vous une idée d'où cela pourrait t'il venir s'il vous plaît ?
Merci beaucoup d'avance

🔧 Problèmes de démarrage après mise à jour (Ubuntu)

Tu as accès uniquement au mode secours ? Voici les étapes pour diagnostiquer la panne :


1. 📂 Lister les disques

lsblk

Repère le disque où est installé ton système (souvent /dev/sda1, /dev/nvme0n1pX, etc).


2. 📦 Monter le système

mkdir /mnt/system
mount /dev/sdX1 /mnt/system

(remplace /dev/sdX1 par la bonne partition)


3. 🧾 Vérifier les logs système

cat /mnt/system/var/log/syslog | tail -n 100
# ou
cat /mnt/system/var/log/kern.log | tail -n 100

4. 📓 Journalctl (si systemd)

journalctl --directory=/mnt/system/var/log/journal --no-pager -xb

5. ⚠️ Causes fréquentes

  • Mise à jour du noyau corrompue
  • GRUB mal configuré
  • /boot ou / plein
  • UUID/FSTAB incorrect
  • Modules manquants

6. 🧰 Chroot pour réparer

mount --bind /dev /mnt/system/dev
mount --bind /proc /mnt/system/proc
mount --bind /sys /mnt/system/sys
chroot /mnt/system /bin/bash

Ensuite tu peux :

  • Regénérer GRUB : update-grub
  • Réinstaller le noyau : apt install --reinstall linux-image-generic
  • Vérifier /etc/fstab

Tu peux m’envoyer les erreurs ou logs ici si tu veux que je t’aide à cibler le souci. 💡

    tanguy
    Bonjour et merci beaucoup pour ta réponse.
    Je tenvoi la liste de mes partitions pour être sûr de laquelle monté s'il te plaît ? Mais dans tout les cas j'ai une erreur lors du montage. Sur le screen aussi 😭.
    Merci d'avance

    5 jours plus tard

    Explication détaillée pour monter et réparer un système LVM/RAID en mode secours

    Lorsque tu es en mode secours, il se peut que tu voies des partitions /dev/sda1, /dev/sdb1, /dev/sdc1, etc., qui ne se montent pas directement. Cela arrive souvent lorsque le système est installé sur du LVM (et/ou du RAID). Dans ce cas, les partitions physiques (sur les disques) ne contiennent pas directement le système de fichiers root, mais des volumes logiques gérés par LVM.


    1. Identifier le volume logique root

    Pour repérer la vraie partition root, il faut lister les volumes LVM :

    pvdisplay    # Affiche les Physical Volumes
    vgdisplay    # Affiche les Volume Groups
    lvdisplay    # Affiche les Logical Volumes

    Tu verras un volume logique qui ressemble à /dev/VolGroup00/system_root (le nom peut varier, par exemple vgubuntu/root ou autre). C’est ce volume qui contient ton système de fichiers (souvent ext4 ou xfs).


    2. Activer les volumes LVM

    Avant de pouvoir monter un volume LVM, il faut l’activer :

    vgchange -ay

    Cette commande rend accessibles tous les volumes logiques des groupes de volumes détectés.


    3. Monter la racine

    Une fois le volume logique identifié, par exemple /dev/mapper/VolGroup00-system_root, tu peux le monter :

    mkdir -p /mnt/system
    mount /dev/mapper/VolGroup00-system_root /mnt/system

    Si tu reçois une erreur du style "wrong fs type, bad superblock...", vérifie bien que tu montes le volume logique (et pas /dev/sda1 ou /dev/sdb1, qui sont des partitions physiques LVM ou RAID).


    4. Monter /boot (si séparé)

    Vérifie si tu as une partition /boot séparée. Parfois, /boot est une petite partition (1 Go ou moins) sur /dev/sda1 ou /dev/sdb1.
    Pour vérifier :

    mkdir /mnt/test
    mount /dev/sda1 /mnt/test
    ls /mnt/test
    • Si tu vois grub, vmlinuz, initrd.img, etc., c’est que cette partition contient /boot.
    • Dans ce cas, tu la montes dans le dossier /boot de ton système monté :
    mkdir -p /mnt/system/boot
    mount /dev/sda1 /mnt/system/boot

    En UEFI, il peut aussi y avoir une partition EFI (format FAT32) à monter dans /mnt/system/boot/efi.


    5. Chrooter dans le système

    Pour effectuer des réparations (mise à jour du GRUB, réinstallation du noyau, etc.), il faut “basculer” dans le système monté :

    mount --bind /dev  /mnt/system/dev
    mount --bind /proc /mnt/system/proc
    mount --bind /sys  /mnt/system/sys
    chroot /mnt/system /bin/bash

    À partir de là, tu es “dans” ton vrai système :

    1. Mettre à jour GRUB
         update-grub
    2. Vérifier /etc/fstab pour t’assurer que les UUID ou noms LVM sont corrects.
    3. Réinstaller le noyau si besoin :
         apt-get update
         apt-get install --reinstall linux-image-generic

    6. Redémarrer

    Après avoir fait tes modifications et démonté proprement :

    exit               # quitter le chroot
    umount /mnt/system/boot  # si /boot est séparé
    umount /mnt/system/dev
    umount /mnt/system/proc
    umount /mnt/system/sys
    umount /mnt/system

    Puis redémarre ton serveur pour voir si le problème est résolu.


    En résumé

    1. Ne monte pas directement /dev/sda1, /dev/sdb1, etc. s’ils sont sous LVM ou RAID.
    2. Active LVM avec vgchange -ay.
    3. Monte le volume logique où se trouve le système (/dev/mapper/VolGroup00-system_root par exemple).
    4. Monte /boot si c’est une partition à part.
    5. Chroot et répare (GRUB, noyau, /etc/fstab, etc.).
    6. Redémarre et vérifie si le système boot correctement.

    Cette procédure devrait te permettre de diagnostiquer et réparer un système Ubuntu qui ne démarre plus à cause d’un souci de mise à jour (noyau, GRUB, etc.) dans un environnement LVM/RAID.

    Répondre…