Bonjour,
Je viens vous solliciter car suite à mise à jour de mon serveur dédié je n'ai plus accès à mon serveur (ou du moins que en mode secours). Du coup comme si Ubuntu ne se lançait plus. Avez vous une idée d'où cela pourrait t'il venir s'il vous plaît ?
Merci beaucoup d'avance
Problème serveurs dédiés suite mise à jour d'Ubuntu
Problèmes de démarrage après mise à jour (Ubuntu)
Tu as accès uniquement au mode secours ? Voici les étapes pour diagnostiquer la panne :
1.
Lister les disques
lsblk
Repère le disque où est installé ton système (souvent /dev/sda1
, /dev/nvme0n1pX
, etc).
2.
Monter le système
mkdir /mnt/system
mount /dev/sdX1 /mnt/system
(remplace /dev/sdX1
par la bonne partition)
3.
Vérifier les logs système
cat /mnt/system/var/log/syslog | tail -n 100
# ou
cat /mnt/system/var/log/kern.log | tail -n 100
4.
Journalctl (si systemd)
journalctl --directory=/mnt/system/var/log/journal --no-pager -xb
5.
Causes fréquentes
- Mise à jour du noyau corrompue
- GRUB mal configuré
- /boot ou / plein
- UUID/FSTAB incorrect
- Modules manquants
6.
Chroot pour réparer
mount --bind /dev /mnt/system/dev
mount --bind /proc /mnt/system/proc
mount --bind /sys /mnt/system/sys
chroot /mnt/system /bin/bash
Ensuite tu peux :
- Regénérer GRUB :
update-grub
- Réinstaller le noyau :
apt install --reinstall linux-image-generic
- Vérifier
/etc/fstab
Tu peux m’envoyer les erreurs ou logs ici si tu veux que je t’aide à cibler le souci.
Up s'il vous plaît
Explication détaillée pour monter et réparer un système LVM/RAID en mode secours
Lorsque tu es en mode secours, il se peut que tu voies des partitions /dev/sda1
, /dev/sdb1
, /dev/sdc1
, etc., qui ne se montent pas directement. Cela arrive souvent lorsque le système est installé sur du LVM (et/ou du RAID). Dans ce cas, les partitions physiques (sur les disques) ne contiennent pas directement le système de fichiers root, mais des volumes logiques gérés par LVM.
1. Identifier le volume logique root
Pour repérer la vraie partition root, il faut lister les volumes LVM :
pvdisplay # Affiche les Physical Volumes
vgdisplay # Affiche les Volume Groups
lvdisplay # Affiche les Logical Volumes
Tu verras un volume logique qui ressemble à /dev/VolGroup00/system_root
(le nom peut varier, par exemple vgubuntu/root
ou autre). C’est ce volume qui contient ton système de fichiers (souvent ext4 ou xfs).
2. Activer les volumes LVM
Avant de pouvoir monter un volume LVM, il faut l’activer :
vgchange -ay
Cette commande rend accessibles tous les volumes logiques des groupes de volumes détectés.
3. Monter la racine
Une fois le volume logique identifié, par exemple /dev/mapper/VolGroup00-system_root
, tu peux le monter :
mkdir -p /mnt/system
mount /dev/mapper/VolGroup00-system_root /mnt/system
Si tu reçois une erreur du style "wrong fs type, bad superblock...", vérifie bien que tu montes le volume logique (et pas /dev/sda1
ou /dev/sdb1
, qui sont des partitions physiques LVM ou RAID).
4. Monter /boot (si séparé)
Vérifie si tu as une partition /boot
séparée. Parfois, /boot
est une petite partition (1 Go ou moins) sur /dev/sda1
ou /dev/sdb1
.
Pour vérifier :
mkdir /mnt/test
mount /dev/sda1 /mnt/test
ls /mnt/test
- Si tu vois
grub
,vmlinuz
,initrd.img
, etc., c’est que cette partition contient /boot. - Dans ce cas, tu la montes dans le dossier
/boot
de ton système monté :
mkdir -p /mnt/system/boot
mount /dev/sda1 /mnt/system/boot
En UEFI, il peut aussi y avoir une partition EFI (format FAT32) à monter dans /mnt/system/boot/efi
.
5. Chrooter dans le système
Pour effectuer des réparations (mise à jour du GRUB, réinstallation du noyau, etc.), il faut “basculer” dans le système monté :
mount --bind /dev /mnt/system/dev
mount --bind /proc /mnt/system/proc
mount --bind /sys /mnt/system/sys
chroot /mnt/system /bin/bash
À partir de là, tu es “dans” ton vrai système :
- Mettre à jour GRUB
update-grub
- Vérifier /etc/fstab pour t’assurer que les UUID ou noms LVM sont corrects.
- Réinstaller le noyau si besoin :
apt-get update apt-get install --reinstall linux-image-generic
6. Redémarrer
Après avoir fait tes modifications et démonté proprement :
exit # quitter le chroot
umount /mnt/system/boot # si /boot est séparé
umount /mnt/system/dev
umount /mnt/system/proc
umount /mnt/system/sys
umount /mnt/system
Puis redémarre ton serveur pour voir si le problème est résolu.
En résumé
- Ne monte pas directement
/dev/sda1
,/dev/sdb1
, etc. s’ils sont sous LVM ou RAID. - Active LVM avec
vgchange -ay
. - Monte le volume logique où se trouve le système (
/dev/mapper/VolGroup00-system_root
par exemple). - Monte /boot si c’est une partition à part.
- Chroot et répare (GRUB, noyau, /etc/fstab, etc.).
- Redémarre et vérifie si le système boot correctement.
Cette procédure devrait te permettre de diagnostiquer et réparer un système Ubuntu qui ne démarre plus à cause d’un souci de mise à jour (noyau, GRUB, etc.) dans un environnement LVM/RAID.
- Modifié
tanguy
Bonjour et merci beaucoup pour ton suivi de mon problème. J'aimerais vraiment le résoudre car celà fait la 2eme fois que j'ai ce problème.
Du coup j'ai bien réussi à monter la racine VolGroup00-system_root , ensuite je pense que j'ai le boot séparé ou même uefi au vu des partitions (screen de mon post précédent) mais du coup là je bloque et n'arrive pas à trouver/monter la bonne partition .
Merci encore
PS: pour info c'est deux disque monté en raid 0 pour mes essais avant de tout reproduire (sauf le raide 0 évidemment ...)sur un mini pc chez moi (maintenant que j'ai la fibre).
Pour arriver à monter la bonne partition (ou bon volume) pour /boot (ou EFI) dans un environnement RAID 0 + LVM, il faut souvent suivre plusieurs étapes supplémentaires. Voici une procédure détaillée :
1. Vérifier et assembler le RAID
En mode « rescue », le RAID n’est pas toujours assemblé automatiquement.
Lister tes devices RAID :
cat /proc/mdstat
S’il n’y a pas de /dev/md0 (ou /dev/mdX) déjà actif, tu peux l’assembler manuellement :
mdadm --assemble --scan
Après ça, tu devrais voir un device /dev/md0 (ou similaire) qui représente le RAID 0 constitué de tes deux disques /dev/sda et /dev/sdb.
2. Activer LVM
Souvent, on a un schéma du type :
[Disques physiques sda/sdb] -> [RAID 0 = /dev/md0] -> [LVM PV = /dev/md0] -> [Volume Group VolGroup00] -> [Logical Volume system_root]
Donc la partition physique /dev/sda1 ou /dev/sdb1 ne contient pas directement le système de fichiers ; c’est un Physical Volume LVM ou un composant RAID.
Lister les volumes LVM :
pvdisplay # Physical Volumes
vgdisplay # Volume Groups
lvdisplay # Logical VolumesActiver les volumes :
vgchange -ay
Cela va rendre accessibles tous les volumes logiques (par exemple /dev/mapper/VolGroup00-system_root, /dev/mapper/VolGroup00-system_home, etc.).
3. Identifier la partition /boot (ou EFI)
3.1. Utiliser lsblk -f ou blkid
Une fois le RAID assemblé et LVM activé, lance :
lsblk -f
# ou
blkid
Ces commandes te montrent le type de chaque partition ou volume (ext4, vfat, LVM2_member, etc.).
- Si tu as une partition EFI (pour un démarrage UEFI), tu verras généralement un volume de 100–512 Mo en vfat ou fat32, étiqueté EFI ou ayant le type EFI System Partition (ex. /dev/sda1 ou /dev/md0p1).
- Si tu as une partition /boot séparée, elle sera souvent en ext2/ext3/ext4 et de petite taille (200 Mo à 1 Go), contenant un dossier grub, un vmlinuz, etc.
3.2. Tester le montage
Pour savoir si c’est bien /boot (ou EFI), tu peux la monter dans un dossier temporaire et regarder le contenu :
mkdir /mnt/test
mount /dev/sda1 /mnt/test # (à adapter, peut-être /dev/md0p1, /dev/sda2, etc.)
ls /mnt/test
- Si tu vois un dossier EFI/, boot/EFI/ ou des fichiers .efi, c’est probablement la partition EFI.
- Si tu vois un dossier grub/, vmlinuz-xxxx, initrd.img-xxxx, c’est probablement /boot.
Remarque : En RAID 0, il se peut que tu aies une partition EFI (ou /boot) sur chacun des disques, ou bien une seule sur un des disques. Tout dépend de la configuration initiale.
4. Monter la racine et /boot (ou EFI)
Une fois le RAID et LVM activés, tu devrais avoir un volume logique pour la racine, par exemple :
/dev/mapper/VolGroup00-system_root
Tu peux alors le monter :
mkdir -p /mnt/system
mount /dev/mapper/VolGroup00-system_root /mnt/system
Ensuite, monte ta partition /boot (ou EFI) au bon endroit dans l’arborescence chrootée :
4.1. Si tu as un /boot séparé
mkdir -p /mnt/system/boot
mount /dev/sda1 /mnt/system/boot # ou /dev/md0p1, selon le cas
4.2. Si tu es en UEFI et as une partition EFI
Dans ce cas, c’est souvent /boot/efi :
mkdir -p /mnt/system/boot/efi
mount /dev/sda1 /mnt/system/boot/efi # par exemple
5. Chrooter dans le système
Pour faire les réparations (GRUB, noyau, etc.) :
mount --bind /dev /mnt/system/dev
mount --bind /proc /mnt/system/proc
mount --bind /sys /mnt/system/sys
chroot /mnt/system /bin/bash
Désormais, tu es « dans » ton vrai système installé. Tu peux :
Régénérer GRUB :
update-grub
ou, suivant la distribution :
grub-install /dev/sda
update-grub(Adapte si tu as un boot EFI, parfois c’est grub-install --target=x86_64-efi --efi-directory=/boot/efi --bootloader-id=ubuntu.)
Vérifier /etc/fstab
Vérifie que les UUID correspondent bien aux bons volumes /dev/mapper/… ou /dev/md0pX.
Assure-toi que la partition EFI (ou /boot) est bien déclarée si nécessaire.
Réinstaller le noyau si besoin :
apt-get update
apt-get install --reinstall linux-image-generic(ou le méta-paquet du noyau correspondant à ta version Ubuntu).
6. Sortir du chroot et redémarrer
exit # pour quitter le chroot
umount /mnt/system/boot/efi # si montage EFI
umount /mnt/system/boot # si montage /boot séparé
umount /mnt/system/dev
umount /mnt/system/proc
umount /mnt/system/sys
umount /mnt/system
reboot
Ensuite, vérifie si ton serveur démarre correctement.
Récapitulatif
- Assembler le RAID : mdadm --assemble --scan + vérifier cat /proc/mdstat
- Activer LVM : vgchange -ay
- Identifier la partition /boot ou EFI (avec lsblk -f, blkid, etc.)
- Monter la racine (volume logique LVM) + monter /boot/efi si nécessaire
- Chroot puis répare (GRUB, noyau, fstab, etc.)
- Redémarrer
En suivant cette logique, tu arriveras à trouver la bonne partition à monter pour /boot (ou /boot/efi) et à remettre GRUB/noyau en ordre pour que ton Ubuntu puisse redémarrer correctement.
Bonjour et merci pour ta réponse je commence à comprendre un peu la façon de faire mais la réparation du grub n'a pas l’air de donner grand chose je voudrais t’envoyer mes logs si sa ne te dérange pas d’y jeter un œil mais vu la taille je ne sais pas comment te les envoyé si tu a un solution ?
merci d'avance
Bien sûr, donne-les à GPT et demande-lui En plus, tu n’auras plus besoin d’attendre : rapide, simple, efficace
Ou mistral si genre fr: https://chat.mistral.ai/chat