LinuxProxmox

Gestion de disque sous Linux ; gros love à growpart -N

growpart -N -v /dev/sda 3 (OUI, il y a un espace avant le 3 !!)

Growpart fait partie de cloud-utils ;
Il étend une partition pour remplir l’espace disponible.

Contexte: J’ai un drive de plus de plus de 8tb,
j’espère que je vais bientôt pouvoir Backup ma VM win 11 sous ProxMox
sans erreur de manque d’espace.

NFO: creating vzdump archive ‘/var/lib/vz/dump/vzdump-qemu-101-2024_07_22-00_05_33.vma.zst’
[…]
INFO: 38% (121.7 GiB of 320.0 GiB) in 20m 8s, read: 44.8 MiB/s, write: 44.4 MiB/s
zstd: error 70 : Write error : cannot write block : No space left on device
IERROR: vma_queue_write: write error – Broken pipe
INFO: aborting backup job
INFO: resuming VM again

J’ai aussi utilisé les commandes suivantes.

(parted) print
Model: ATA HAHA0101 (scsi)
Disk /dev/sda: 12.0TB
Sector size (logical/physical): 512B/4096B
Partition Table: gpt
Disk Flags:

Number Start End Size File system Name Flags
1 17.4kB 1049kB 1031kB bios_grub
2 1049kB 1075MB 1074MB fat32 boot, esp
3 1075MB 12.0TB 12.0TB lvm

root@pr:~# df -h
Filesystem Size Used Avail Use% Mounted on
udev 23G 0 23G 0% /dev
tmpfs 4.7G 1.2M 4.7G 1% /run
/dev/mapper/pve-root 94G 14G 76G 16% /
tmpfs 24G 46M 23G 1% /dev/shm
tmpfs 5.0M 0 5.0M 0% /run/lock
efivarfs 256K 58K 194K 23% /sys/firmware/efi/efivars
/dev/fuse 128M 20K 128M 1% /etc/pve
tmpfs 4.7G 0 4.7G 0% /run/user/0

root@pr:~# lsblk
NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINTS
sda 8:0 0 10.9T 0 disk
├─sda1 8:1 0 1007K 0 part
├─sda2 8:2 0 1G 0 part
└─sda3 8:3 0 10.9T 0 part
├─pve-swap 252:0 0 8G 0 lvm [SWAP]
├─pve-root 252:1 0 96G 0 lvm /
├─pve-data_tmeta 252:2 0 15.9G 0 lvm
│ └─pve-data-tpool 252:4 0 5.3T 0 lvm
│ ├─pve-data 252:5 0 5.3T 1 lvm
│ ├─pve-vm–100–disk–0 252:6 0 4M 0 lvm
│ ├─pve-vm–100–disk–1 252:7 0 128G 0 lvm
│ │ ├─pve-vm–100–disk–1p1 252:15 0 200M 0 part
│ │ └─pve-vm–100–disk–1p2 252:16 0 127.8G 0 part
│ ├─pve-vm–101–disk–0 252:8 0 4M 0 lvm
│ ├─pve-vm–101–disk–2 252:9 0 4M 0 lvm
│ └─pve-vm–101–disk–1 252:10 0 320G 0 lvm
│ ├─pve-vm–101–disk–1p1 252:11 0 100M 0 part
│ ├─pve-vm–101–disk–1p2 252:12 0 16M 0 part
│ ├─pve-vm–101–disk–1p3 252:13 0 319.1G 0 part
│ └─pve-vm–101–disk–1p4 252:14 0 773M 0 part
└─pve-data_tdata 252:3 0 5.3T 0 lvm
└─pve-data-tpool 252:4 0 5.3T 0 lvm
├─pve-data 252:5 0 5.3T 1 lvm
├─pve-vm–100–disk–0 252:6 0 4M 0 lvm
├─pve-vm–100–disk–1 252:7 0 128G 0 lvm
│ ├─pve-vm–100–disk–1p1 252:15 0 200M 0 part
│ └─pve-vm–100–disk–1p2 252:16 0 127.8G 0 part
├─pve-vm–101–disk–0 252:8 0 4M 0 lvm
├─pve-vm–101–disk–2 252:9 0 4M 0 lvm
└─pve-vm–101–disk–1 252:10 0 320G 0 lvm
├─pve-vm–101–disk–1p1 252:11 0 100M 0 part
├─pve-vm–101–disk–1p2 252:12 0 16M 0 part
├─pve-vm–101–disk–1p3 252:13 0 319.1G 0 part
└─pve-vm–101–disk–1p4 252:14 0 773M 0 part
nvme0n1 259:0 0 476.9G 0 disk
├─nvme0n1p1 259:5 0 232.7G 0 part
├─nvme0n1p2 259:6 0 97.7G 0 part
├─nvme0n1p3 259:7 0 2G 0 part
└─nvme0n1p4 259:8 0 1K 0 part

Laisser un commentaire

Votre adresse courriel ne sera pas publiée. Les champs obligatoires sont indiqués avec *