Proxmox VE 9.1.6 offre diverse soluzioni di storage per VM e container, ma sapere come configurarle correttamente è fondamentale per garantire performance, affidabilità e facilità di gestione. In questa guida ti mostrerò passo passo come impostare LVM-Thin, ZFS, con comandi pratici e consigli professionali per un ambiente di produzione sicuro ed efficiente.
🧱 1. Storage LVM-Thin
🔧 Che cos’è
LVM-Thin è un tipo di storage molto usato per VM e container perché supporta thin provisioning: lo spazio viene allocato solo quando realmente necessario, consentendo un uso più efficiente del disco.
📌 Consiglio: ripeti la procedura su tutti i nodi del cluster mantenendo una nomenclatura uniforme per facilitare la gestione da Datacenter → Storage.
🧠 Suggerimenti
- Usalo per: dischi delle VM e root dei container
- Non usarlo per: ISO e backup (meglio storage separati)
Dopo una installazione standard di Proxmox VE 9.1.6, troverai già configurati due storage base:
🔹 local – directory locale per ISO, template, backup
🔹 local-lvm – LVM-Thin gestito dal volume group pve, usato per dischi VM e container
Il primo è basato su filesystem (Directory), mentre il secondo è un thin pool LVM creato all’interno del volume group “pve“.
È importante conoscere questa distinzione prima di aggiungere nuovi storage al nodo.
Configurazione LVM-THIN
- Selezionare il nodo Proxmox
- selezionare Disks,
- selezionare il disco da utilizzare, nel mio caso “/dev/sdb”
- Cliccare sul tasto “Wipe Disk”
Nota: Questa operazione cancella tutti i dati presenti nel disco.

- Cliccare sul tasto “Yes”


… fine del task

- Selezionando nuovamente il nodo
- Cliccare su “Disk”sempre il nodo
- Selezionare “LVM-Thin”
- cliccare su “Create: Thinpool”

- Inserire il disco (viene selezionato in automatico) .
- Digitare un nome per il Thinpool.
- Lasciare il flag su “Add Storage”.
- cliccare su Create


…Nei task possiamo vedere lo stato

- Il disco LVM-Thin e il relativo Pool sono stati creati e aggiunti al nodo

Nota: ripetere questa procedura per tutti i nodi del cluster.
- Conclusa la fase di configurazione su tutti i nodi del cluster è possibile visualizzare il risultato selezionando “Datacenter” e successivamente “Storage“.

- Eseguendo un doppio click con il mouse sul nome dello storage (lvmthin.local) si può visualozzare i nomi degli host che ne fanno parte.
Nota: per ottenere questo risultato tutta nomenclatura in fase di creazione deve essere identica in ogni host

🧊 2. Storage ZFS
ZFS non è solo un filesystem ma un volume manager integrato con funzioni avanzate di:
– checksum automatico dei dati
– snapshot efficienti
– compressione
– protezione contro la corruzione dei dati (self-healing)
Richiede però più RAM rispetto a LVM-Thin ed è consigliato l’utilizzo di controller disco in modalità HBA/IT invece di RAID hardware.
🔧 Perché ZFS
ZFS è ottimo per prestazioni, affidabilità e snapshot. Include snapshot native, checksum e può funzionare anche in configurazioni RAID software.
Procedura:
- Selezionare il nodo Proxmox
- Espanderela sezione “Disks”
- Selezionare “ZFS”
- cliccare su “Create: ZFS”

Inserisci:
- Selezionare “Add Storage”
- Nome pool
- Livello RAID (es. Mirror)
- Compressione (consigliata: On)
- Seleziona i dischi da includere
- Cliccare sul tasto “Create”.


- Storage “ZFS” creato:
📌 Ricorda di eseguire la stessa configurazione su tutti i nodi del cluster mantenendo stessa nomenclatura per semplificare la gestione.

Nota: Come per lo storage LVM-Thin selezionando ZFS e cliccando sul nome dello Storage “zls-local” e possibile visualizzare gli host che ne fanno parte:

- Doppio clic sulla scritta ZFS

Per visualizzare lo stato dei dischi
- Selezionare l’host
- Espandere la sezione “Disks”
- Cliccando su “ZFS”
- Cliccando sulla scritta “zfs-local”

- Possiamo visualizzare lo stato dei dischi “ON LINE”:

Nota: eseguire la stessa configurazione ZFS per tutti gli host del cluster, mantenendo la stessa nomenclatura.
Selezionando lo storage e cliccando su “Edit” è possibile modificare:

- il tipo di Content (Disk image, Container)
- Nodes: quali host vogliamo inserire,
- Enable: abilitarlo o disabilitarlo, i
- Il thin provision
- Inserire il block size

Best Practice ZFS
- Abilitare la compressione (consigliata:
lz4) - Evitare RAID hardware sotto ZFS
- Preferire Mirror per ambienti piccoli
- Utilizzare RAID-Z solo con almeno 3 dischi
- Monitorare lo stato del pool con i comandi: “zpool status” e “zfs list“
3. Tipi di Storage Supportati da Proxmox
Proxmox VE supporta molteplici backend che puoi aggiungere tramite interfaccia grafica o CLI.
🔹 Storage Locale
- LVM / LVM-Thin – ideale per VM/container con provisioning flessibile
- Directory – semplice, per ISO/template/backup
- ZFS – filesystem avanzato con snapshot e ridondanza software
🔹 Storage di Rete
- NFS / SMB – storage condiviso facile da integrare
- iSCSI – blocchi per soluzioni SAN
- Ceph RBD – storage distribuito per ambienti altamente disponibili
Non tutti gli storage supportano le stesse funzionalità:

📊 4. Best Practice Storage
Ecco alcuni consigli per una gestione efficace del tuo storage in Proxmox VE 9.1.6:
👍 Organizzazione dei dati
- Metti ISO, templates e backup su uno storage separato dalla LVM-Thin o ZFS.
- Usa SSD o NVMe per archiviare dischi delle VM in produzione.
- Se possibile, separa lo storage di sistema da quello delle VM.
🔒 Affidabilità
- Preferisci mirror o RAID-Z per storage critici.
- Valuta Ceph se hai più nodi ed esigi alta disponibilità (HA).
- Per storage condiviso in cluster usa NFS/CIFS o Ceph.
🧠 Consigli aggiuntivi
- Mantieni sempre nomenclature coerenti tra i nodi.
- Dedica un disco o volume diverso per backup (es. NFS) invece di lasciare tutto sullo stesso volume delle VM.
🎯Storage e Alta Affidabilità (HA)
In un cluster Proxmox, ZFS locale non garantisce automaticamente l’alta disponibilità.
Per avere HA reale è necessario utilizzare:
– Storage condiviso (NFS, SMB, iSCSI)
oppure
– Storage distribuito come Ceph RBD
La scelta dello storage incide direttamente sulla possibilità di migrazione live delle VM tra nodi.
🔜 In arrivo: Storage Distribuito (Ceph)
Nel prossimo articolo puoi approfondire la configurazione di storage distribuito Ceph, ideale per cluster con alta disponibilità e grandi volumi di dati.
By: Alessandro Romeo – Enjoy 👍

