Bonjour,
Je viens vous solliciter car suite à mise à jour de mon serveur dédié je n'ai plus accès à mon serveur (ou du moins que en mode secours). Du coup comme si Ubuntu ne se lançait plus. Avez vous une idée d'où cela pourrait t'il venir s'il vous plaît ?
Merci beaucoup d'avance
Problème serveurs dédiés suite mise à jour d'Ubuntu
Problèmes de démarrage après mise à jour (Ubuntu)
Tu as accès uniquement au mode secours ? Voici les étapes pour diagnostiquer la panne :
1.
Lister les disques
lsblk
Repère le disque où est installé ton système (souvent /dev/sda1
, /dev/nvme0n1pX
, etc).
2.
Monter le système
mkdir /mnt/system
mount /dev/sdX1 /mnt/system
(remplace /dev/sdX1
par la bonne partition)
3.
Vérifier les logs système
cat /mnt/system/var/log/syslog | tail -n 100
# ou
cat /mnt/system/var/log/kern.log | tail -n 100
4.
Journalctl (si systemd)
journalctl --directory=/mnt/system/var/log/journal --no-pager -xb
5.
Causes fréquentes
- Mise à jour du noyau corrompue
- GRUB mal configuré
- /boot ou / plein
- UUID/FSTAB incorrect
- Modules manquants
6.
Chroot pour réparer
mount --bind /dev /mnt/system/dev
mount --bind /proc /mnt/system/proc
mount --bind /sys /mnt/system/sys
chroot /mnt/system /bin/bash
Ensuite tu peux :
- Regénérer GRUB :
update-grub
- Réinstaller le noyau :
apt install --reinstall linux-image-generic
- Vérifier
/etc/fstab
Tu peux m’envoyer les erreurs ou logs ici si tu veux que je t’aide à cibler le souci.
Up s'il vous plaît
Explication détaillée pour monter et réparer un système LVM/RAID en mode secours
Lorsque tu es en mode secours, il se peut que tu voies des partitions /dev/sda1
, /dev/sdb1
, /dev/sdc1
, etc., qui ne se montent pas directement. Cela arrive souvent lorsque le système est installé sur du LVM (et/ou du RAID). Dans ce cas, les partitions physiques (sur les disques) ne contiennent pas directement le système de fichiers root, mais des volumes logiques gérés par LVM.
1. Identifier le volume logique root
Pour repérer la vraie partition root, il faut lister les volumes LVM :
pvdisplay # Affiche les Physical Volumes
vgdisplay # Affiche les Volume Groups
lvdisplay # Affiche les Logical Volumes
Tu verras un volume logique qui ressemble à /dev/VolGroup00/system_root
(le nom peut varier, par exemple vgubuntu/root
ou autre). C’est ce volume qui contient ton système de fichiers (souvent ext4 ou xfs).
2. Activer les volumes LVM
Avant de pouvoir monter un volume LVM, il faut l’activer :
vgchange -ay
Cette commande rend accessibles tous les volumes logiques des groupes de volumes détectés.
3. Monter la racine
Une fois le volume logique identifié, par exemple /dev/mapper/VolGroup00-system_root
, tu peux le monter :
mkdir -p /mnt/system
mount /dev/mapper/VolGroup00-system_root /mnt/system
Si tu reçois une erreur du style "wrong fs type, bad superblock...", vérifie bien que tu montes le volume logique (et pas /dev/sda1
ou /dev/sdb1
, qui sont des partitions physiques LVM ou RAID).
4. Monter /boot (si séparé)
Vérifie si tu as une partition /boot
séparée. Parfois, /boot
est une petite partition (1 Go ou moins) sur /dev/sda1
ou /dev/sdb1
.
Pour vérifier :
mkdir /mnt/test
mount /dev/sda1 /mnt/test
ls /mnt/test
- Si tu vois
grub
,vmlinuz
,initrd.img
, etc., c’est que cette partition contient /boot. - Dans ce cas, tu la montes dans le dossier
/boot
de ton système monté :
mkdir -p /mnt/system/boot
mount /dev/sda1 /mnt/system/boot
En UEFI, il peut aussi y avoir une partition EFI (format FAT32) à monter dans /mnt/system/boot/efi
.
5. Chrooter dans le système
Pour effectuer des réparations (mise à jour du GRUB, réinstallation du noyau, etc.), il faut “basculer” dans le système monté :
mount --bind /dev /mnt/system/dev
mount --bind /proc /mnt/system/proc
mount --bind /sys /mnt/system/sys
chroot /mnt/system /bin/bash
À partir de là, tu es “dans” ton vrai système :
- Mettre à jour GRUB
update-grub
- Vérifier /etc/fstab pour t’assurer que les UUID ou noms LVM sont corrects.
- Réinstaller le noyau si besoin :
apt-get update apt-get install --reinstall linux-image-generic
6. Redémarrer
Après avoir fait tes modifications et démonté proprement :
exit # quitter le chroot
umount /mnt/system/boot # si /boot est séparé
umount /mnt/system/dev
umount /mnt/system/proc
umount /mnt/system/sys
umount /mnt/system
Puis redémarre ton serveur pour voir si le problème est résolu.
En résumé
- Ne monte pas directement
/dev/sda1
,/dev/sdb1
, etc. s’ils sont sous LVM ou RAID. - Active LVM avec
vgchange -ay
. - Monte le volume logique où se trouve le système (
/dev/mapper/VolGroup00-system_root
par exemple). - Monte /boot si c’est une partition à part.
- Chroot et répare (GRUB, noyau, /etc/fstab, etc.).
- Redémarre et vérifie si le système boot correctement.
Cette procédure devrait te permettre de diagnostiquer et réparer un système Ubuntu qui ne démarre plus à cause d’un souci de mise à jour (noyau, GRUB, etc.) dans un environnement LVM/RAID.