← Torna al blog

Analisi Opzioni Hardware: Ogni Percorso che Ho Valutato

Un'analisi approfondita delle sei opzioni hardware che ho considerato per l'upgrade del mio homelab — dall'Intel N100 al Mac Mini M4 fino a una build custom completa, confrontando consumi, capacità AI e scalabilità.

homelab hardware pianificazione ai
In questa pagina

Nel post precedente, ho esposto la filosofia dietro la mia scelta hardware: espandibilità sopra la compattezza, separazione delle responsabilità, efficienza energetica e comprare usato. Ora è il momento di entrare nei dettagli — ogni opzione che ho seriamente considerato, perché ciascuna non era all’altezza, e quale ha vinto.

Questo non è un confronto di schede tecniche. È una valutazione reale filtrata attraverso le esigenze specifiche di un homelab che esegue 20+ container Docker, ha bisogno di storage NAS con ridondanza, e vuole un percorso credibile verso l’inferenza AI locale.

I Criteri di Valutazione

Ogni opzione è stata misurata su quattro assi:

  1. Consumo energetico — obiettivo ~30W idle, meno è meglio per il funzionamento 24/7
  2. Capacità AI locale — può far girare Ollama con modelli significativi (7B+), e come?
  3. Scalabilità RAM — posso partire da 32 GB e crescere a 64-128 GB senza sostituire la macchina?
  4. Rumore e formato — questo vive in una casa, non in un data center

Andiamo a vederli.


Opzione 1: Mini PC Intel N100 / N150 / N305

La classe ultra-efficiente. Questi processori sono ovunque nel mercato mini PC — Beelink, MinisForum, Trigkey, GMKtec — tutti offrono piccole scatole fanless o quasi silenziose a €100-200.

Cosa c’è di buono:

  • Consumo idle fenomenale: 6-10W per l’intero sistema
  • Completamente silenzioso (molti sono fanless)
  • Perfetto per un box dedicato Home Assistant o Pi-hole

Cosa lo elimina:

  • 4 core E, nessun core P — l’N100 è un design efficienza-prima di tutto. Va bene per task leggeri, ma far girare 20+ container Docker con Home Assistant, Zigbee2MQTT, Pi-hole, Authentik, monitoraggio e altro lo porterà ai suoi limiti
  • RAM: 16 GB max, spesso saldata — la maggior parte dei box N100 viene con 8 o 16 GB saldati. L’N305 a volte ha uno slot DIMM, ma arriva a massimo 16 GB. Non è abbastanza per il mio carico di lavoro attuale, figurarsi per la crescita
  • Nessuno slot PCIe — zero espansione GPU
  • Capacità AI: essenzialmente nulla — l’inferenza solo CPU su 4 core efficienza è glacialmente lenta. Anche un modello 3B come Phi-3 Mini impiega 10+ secondi per token. Open WebUI è inutilizzabile
  • Storage limitato — tipicamente uno slot M.2, niente SATA. Alcuni hanno un secondo M.2, ma niente bay per drive 3.5” per uso NAS
  • Non economico per quello che offre — una configurazione decente come il Beelink EQ14 con 16 GB e 500 GB SSD arriva a circa €400. A quel prezzo, stai pagando cifre serie per una macchina che è, di fatto, un movimento laterale rispetto al NiPoGi — silicio più recente, ma la stessa architettura sigillata e non espandibile

Consumo idle: ~8W Verdetto AI: Non praticabile Tetto RAM: 16 GB (fisso) Capace NAS: No

La classe Intel N100 va bene come appliance dedicata a un solo ruolo — un box Home Assistant, un server Pi-hole, un endpoint VPN. Ma come server homelab tuttofare, è solo il NiPoGi con un adesivo più nuovo. Stessa RAM saldata, stesso slot SSD singolo, stesso vicolo cieco. E a ~€400, non è neanche un vicolo cieco economico — è una sostituzione diretta che non risolve nessuno dei problemi che mi hanno spinto a fare l’upgrade.


Opzione 2: Mini PC AMD Ryzen 7 7730U

Il gradino superiore. Il Ryzen 7 7730U (Zen 3, 8 core/16 thread) appare nei mini PC di fascia media di Beelink, MinisForum e altri, tipicamente a €300-500 configurati.

Cosa c’è di buono:

  • 8 core reali con SMT — prestazioni multi-threaded genuinamente capaci
  • iGPU Vega 8 con encoding video hardware
  • 15W TDP — molto efficiente per le prestazioni offerte
  • Alcuni modelli hanno slot DIMM (fino a 64 GB DDR4 dual-channel)

Cosa lo elimina:

  • DDR4, non DDR5 — il 7730U è un refresh Cezanne su Zen 3. È memoria di generazione precedente, niente supporto ECC
  • Ancora una scatola sigillata — nessuno slot PCIe, espansione storage limitata (tipicamente 1-2 slot M.2, niente SATA)
  • Capacità AI: marginale — gli 8 core CPU gestiscono modelli 7B a ~2-3 token/secondo. Funzionale per test, ma doloroso per uso quotidiano. La iGPU non aiuta in modo significativo con l’inferenza LLM
  • Nessun percorso di upgrade — ottieni quello che compri. Quando 64 GB non bastano o vuoi una GPU, sei di nuovo a comprare una macchina nuova

Consumo idle: ~12-15W Verdetto AI: Funzionale ma lento (solo 7B, inferenza CPU) Tetto RAM: 64 GB (DDR4, se slot DIMM disponibili) Capace NAS: No

Questa è l’opzione mini PC più forte — può effettivamente gestire il carico di lavoro container attuale. Ma non risolve i tre problemi fondamentali: niente storage NAS, niente slot GPU, e una piattaforma che non può crescere oltre le specifiche che compri oggi. Sposta il vicolo cieco più avanti ma non lo elimina.


Opzione 3: Mini PC AMD Ryzen AI 9 HX 370/375

L’avanguardia. MinisForum, GMKtec e Geekom hanno iniziato a offrire mini PC con gli ultimi processori mobile AMD dotati di NPU (Neural Processing Unit) per carichi AI. Il Ryzen AI 9 HX 375 ha 12 core Zen 5, una iGPU RDNA 3.5 e una NPU da 50 TOPS.

Cosa c’è di buono:

  • Prestazioni mobile di punta — i core Zen 5 sono un salto generazionale enorme
  • iGPU RDNA 3.5 con ray tracing hardware
  • NPU da 50 TOPS per AI con accelerazione hardware
  • Supporto DDR5, fino a 64-96 GB
  • Alcuni modelli offrono espandibilità (un paio di slot SSD)

Cosa lo elimina:

  • Estremamente costoso — i MinisForum UM790 Pro o simili box Ryzen AI 9 partono da €1.100-1.300 per il barebone. Aggiungi RAM e storage e sei a €1.500-1.800. Quello è territorio da build custom
  • La NPU è di nicchia — ad oggi, la NPU XDNA è supportata in pochissimi carichi Linux. Ollama non la usa. Open WebUI non la usa. L’ecosistema software per l’inferenza NPU su Linux è in fase iniziale nel migliore dei casi
  • Ancora sigillato — specifiche impressionanti, ma le stesse limitazioni di espandibilità: niente slot PCIe, niente bay per drive 3.5”, nessuna vera capacità NAS
  • Capacità AI: decente sulla carta, limitata in pratica — la iGPU con ROCm potrebbe teoricamente accelerare l’inferenza LLM, ma il supporto AMD ROCm in Ollama per GPU integrate è irregolare e dipendente dalla versione. In pratica, spesso si ricade sull’inferenza CPU

Consumo idle: ~15-20W Verdetto AI: Promettente ma immaturo (NPU/iGPU non ben supportate nei carichi container) Tetto RAM: 64-96 GB (DDR5, se slot DIMM) Capace NAS: No

Se il prezzo non fosse un problema e non servisse storage NAS o una GPU discreta, sarebbe tentante. Ma a €1.300+ per il barebone — più di un’intera build custom AM5 con una GPU vera — la proposta di valore crolla. Stai pagando prezzi da ammiraglia per una piattaforma che non può comunque ospitare drive 3.5” o una GPU full-size.


Opzione 4: Apple Mac Mini M4

La carta jolly. Apple Silicon è genuinamente impressionante per l’AI. L’architettura di memoria unificata del chip M4 significa che GPU e CPU condividono lo stesso pool di memoria — un M4 da 16 GB può far girare un modello 7B interamente in “memoria GPU” senza una scheda discreta. L’M4 Pro con 48 GB di memoria unificata potrebbe gestire modelli 30B+ via Metal.

Cosa c’è di buono:

  • Memoria unificata = nessun collo di bottiglia VRAM per le dimensioni di modello che la memoria può contenere
  • Accelerazione Metal per Ollama — inferenza genuinamente veloce, nativa su macOS
  • Incredibilmente efficiente: ~5-7W idle per l’M4 base
  • Qualità costruttiva eccellente, formato minuscolo, completamente silenzioso
  • Ecosistema macOS — Homebrew, app native, ottima esperienza sviluppatore

Cosa lo elimina — il blocco Docker:

Questo è il problema critico. Docker Desktop per Mac esegue i container dentro una macchina virtuale Linux. Il framework di virtualizzazione Apple fornisce CPU e memoria a quella VM, ma non espone la GPU Metal o il Neural Engine ad essa. Questo significa:

  • Ollama che gira dentro un container Docker su macOS = inferenza solo CPU. Niente Metal. Niente accelerazione GPU. Si perde il singolo più grande vantaggio di Apple Silicon.
  • Per ottenere inferenza accelerata GPU, Ollama deve girare nativamente su macOS, fuori da Docker. Ma l’intera architettura homelab è basata su container — Home Assistant, Pi-hole, Nginx Proxy Manager, Authentik, monitoraggio — tutto in Docker. Far girare un servizio critico fuori da Docker rompe il modello di gestione (niente Dockge, niente file compose unificati, processo di aggiornamento separato).

Per riferimento, il GPU passthrough di Docker è disponibile solo su Windows con GPU NVIDIA via WSL2. Docker su macOS e Docker su Linux (per GPU non-NVIDIA) non hanno un meccanismo comparabile.

Altre limitazioni:

  • Niente bay per drive 3.5”, niente porte SATA — zero capacità NAS
  • La RAM è saldata — quello che compri è quello che hai (16/24/32/48 GB a seconda del modello)
  • Niente memoria ECC
  • La licenza macOS tecnicamente limita le opzioni di virtualizzazione
  • Partendo da €700 (M4 base, 16 GB) fino a €2.100+ (M4 Pro, 48 GB)

Consumo idle: ~5-7W Verdetto AI: Eccellente nativo, inutile in Docker (no GPU passthrough su macOS) Tetto RAM: Fisso (16-48 GB a seconda del modello, saldato) Capace NAS: No

Il Mac Mini M4 è un fantastico computer personale e un’ottima workstation AI locale se fai girare Ollama nativamente. Ma come server homelab basato su Docker — che è ciò di cui ho bisogno — l’impossibilità di passare la GPU ai container vanifica il suo vantaggio principale. A €700+ per il modello base senza espandibilità, senza NAS, e con una limitazione Docker GPU che non ha workaround, è lo strumento sbagliato per questo lavoro.


Opzione 5: Minisforum MS-A2

Il quasi-ci-siamo più vicino. Il Minisforum MS-A2 è la macchina compatta più interessante che abbia trovato. Usa un socket AMD AM5 standard (socketed, non saldato), ha slot DDR5 SO-DIMM, doppio M.2 NVMe, due bay SATA 2.5” e uno slot di espansione PCIe — tutto in un case più piccolo di una scatola da scarpe.

Cosa c’è di buono:

  • Socket AM5 — scegli tu la CPU (Ryzen 5/7/9), e puoi aggiornare dopo
  • DDR5 SO-DIMM — fino a 96 GB, sostituibile
  • Espansione PCIe — c’è effettivamente uno slot per una GPU
  • Doppio NVMe + 2x SATA 2.5” — storage ragionevole
  • Compatto: più piccolo della maggior parte delle build ITX
  • Rete 2.5GbE

Cosa lo elimina:

Limitazione storage: Solo due bay SATA 2.5”. Per un NAS con ridondanza, è insufficiente. Un mirror ZFS con due drive 2.5” ti dà forse 2-4 TB di storage ridondato usando drive laptop (costosi per TB). Non puoi montare drive NAS 3.5” (€20-25/TB) che sono 3-5x più convenienti per TB. Per qualsiasi uso NAS serio, servirebbe un enclosure esterno via USB — il che vanifica tutto.

Limitazione GPU: Lo slot PCIe è solo a basso profilo. Le GPU low-profile sono un mercato di nicchia:

  • Meno modelli disponibili
  • Raffreddamento peggiore (dissipatori più piccoli, spesso single-fan)
  • Significativamente più costose — una RTX 4060 low-profile costa €100-150 in più della versione standard, con meno opzioni tra cui scegliere
  • Il mercato usato è minuscolo — la strategia “comprare usato” funziona a malapena per schede low-profile

Prezzo di partenza: L’MS-A2 barebone costa ~€400-500. Aggiungi una CPU Ryzen 7 (€200-300), 32 GB DDR5 (€80-100) e un drive NVMe (€60-80), e sei a €750-980 prima di qualsiasi GPU. Una build custom mATX o ITX raggiunge prezzi simili con zero compromessi su GPU, storage o espandibilità.

Consumo idle: ~20-30W (a seconda della scelta CPU) Verdetto AI: Possibile con GPU low-profile, ma limitato e costoso Tetto RAM: 96 GB (DDR5 SO-DIMM) Capace NAS: A malapena (solo 2x 2.5”)

L’MS-A2 è l’unica opzione compatta che si è avvicinata a soddisfare i miei requisiti. Se non hai bisogno di storage NAS e puoi convivere con una GPU low-profile, è eccellente. Ma queste sono le mie due esigenze più importanti dopo l’espandibilità — e non è all’altezza su entrambe.


Opzione 6: Build Custom Desktop

Quella che funziona. Una build compatta mATX o ITX con componenti commerciali, assemblata secondo le tue esatte esigenze.

Il vantaggio fondamentale di una build custom non è un singolo componente — è la versatilità a ogni livello. Scegli il case in base a quanti bay per drive 3.5” ti servono e quanto flusso d’aria vuoi. Scegli la scheda madre in base alle porte SATA, agli slot M.2, e se ti serve il supporto ECC. Scegli la CPU in base al tuo carico di lavoro e budget energetico. Scegli quanta RAM mettere all’inizio, sapendo che puoi raddoppiarla o quadruplicarla dopo senza sostituire nulla.

Ogni singolo componente è una decisione che fai in base ai tuoi requisiti specifici — non un compromesso imposto da un enclosure pre-costruito.

Perché vince su ogni asse:

  • Consumo energetico: Un sistema desktop ben ottimizzato può stare a ~25-35W idle. Confrontato con il setup attuale (NiPoGi ~10W + WD MyCloud ~15W = ~25W), una singola macchina a ~30W idle che sostituisce entrambe e aggiunge drammaticamente più capacità è a malapena un aumento. Il miglioramento in prestazioni per watt è enorme.

  • AI locale: Uno slot PCIe x16 full-size significa che qualsiasi GPU funziona — nessun premium low-profile, miglior raffreddamento, mercato usato più ampio. Il GPU passthrough di Docker funziona perfettamente su Linux con NVIDIA Container Toolkit. Ollama in Docker con accelerazione GPU completa = esattamente il workflow che voglio. Anche senza GPU dal primo giorno, una CPU moderna multi-core è 3-5x più veloce nell’inferenza rispetto al Celeron J4125.

  • Scalabilità RAM: Slot DIMM standard significano che parti con quello che ti serve e cresci fino a 128 GB nel tempo. Il supporto ECC è disponibile sulla piattaforma giusta. Niente saldature, niente tetto fisso, niente sostituzione piattaforma.

  • Storage NAS: Molteplici porte SATA e bay per drive 3.5” nel case significano vera capacità NAS con ridondanza reale — ZFS mirror, RAID-Z1, quello che serve. Niente drive laptop, niente enclosure USB, niente compromessi.

  • Rumore: L’unico vero compromesso. Un tower è più grande di un mini PC e serve uno spazio dedicato. Ma non deve essere rumoroso per forza — i drive NAS moderni sono progettati per funzionamento silenzioso, le CPU efficienti hanno bisogno di pochissimo raffreddamento a idle, e un case di qualità con pannelli fonoassorbenti lo rende effettivamente silenzioso nell’uso normale. Non silenzioso-fanless, ma silenzioso-salotto.

E poi c’è il mercato usato. È qui che la build custom brilla veramente a livello economico. I componenti mATX/ITX standard sono il segmento più competitivo e liquido del mercato PC. CPU, RAM, GPU, case, alimentatori — tutto è disponibile usato con sconti significativi. La filosofia del “comprare usato” dal post precedente funziona al meglio quando ogni componente è uno standard commerciale, non un formato proprietario.


La Matrice di Confronto

CriterioN100Ryzen 7 7730URyzen AI 9Mac Mini M4MS-A2Build Custom
Consumo Idle~8W~12-15W~15-20W~5-7W~20-30W~25-35W
AI (Giorno 1)NessunaCPU lentaiGPU (irregolare)Ottima nativa, nulla in DockerGPU LP possibileCPU (usabile)
AI (Futuro)NessunaNessunaStessaStesso limite DockerLimitata da slot LPQualsiasi GPU NVIDIA
RAM Max16 GB64 GB64-96 GB16-48 GB (fisso)96 GB128 GB
Storage NASNoNoNoNoSolo 2x 2.5”4+ x 3.5”
Espansione GPUNoNoNoNo (limite Docker)Solo low-profilePCIe x16 full-size
Supporto ECCNoNoNoNoPossibile (AM5)Sì (AM5)
Mercato UsatoLimitatoModeratoMinimoNoMinimoEccellente
Fascia Prezzo~€400€300-500€1.100-1.800€700-2.100€750-1.000€500-900

Il Verdetto

La build custom vince perché nient’altro può fare tutte e tre le cose di cui ho bisogno:

  1. Vero storage NAS con drive 3.5” e ridondanza ZFS
  2. Slot GPU full-size per AI locale con passthrough Docker
  3. Scalabilità genuina — RAM fino a 128 GB, CPU aggiornabile su AM5, storage espandibile

Ogni mini PC, per quanto potente, sbatte contro un muro su almeno una di queste. L’MS-A2 ci è andato più vicino, ma la sua restrizione GPU low-profile e la mancanza di bay per drive 3.5” sono compromessi che non voglio fare per una piattaforma che userò per 3-5+ anni.

Cosa c’è Dopo

Il prossimo post copre la scelta del case — il componente che vincola tutto il resto in un build homelab. Quanti dischi, quale GPU, quale alimentatore — tutto inizia dalla scatola.

La build sta prendendo forma. È ora di scegliere i pezzi.