Case Study
Portare l’AI privata in azienda con PUPAU: installazione su infrastruttura dedicata
schedule3 min
calendar_today13 febbraio 2026
syncCaricamento...

Negli ultimi anni l’Intelligenza Artificiale è entrata nel lavoro quotidiano di molte aziende. Strumenti come ChatGPT hanno reso l’AI accessibile a tutti, ma esiste una differenza fondamentale tra AI pubblica e AI privata.
Sempre più organizzazioni stanno scegliendo di portare l’AI direttamente dentro la propria infrastruttura, mantenendo il controllo totale su dati, sicurezza e costi.
In questo articolo raccontiamo un caso reale: l’installazione di PUPAU, la piattaforma che orchestra modelli AI pubblici e on-premise, su hardware dedicato in sede cliente.
AI pubblica vs AI privata: perché le aziende stanno cambiando approccio
La maggior parte degli strumenti AI oggi funziona tramite servizi cloud:
i dati vengono inviati a piattaforme esterne che elaborano le richieste e restituiscono i risultati.
Questo modello è perfetto per l’uso personale o per attività non sensibili, ma può diventare limitante quando si parla di:
- documenti aziendali interni
- dati proprietari
- processi business critical
- costi imprevedibili legati all’utilizzo
L’AI privata ribalta questo paradigma:
i modelli vengono eseguiti su infrastruttura dedicata e i dati non escono mai dall’azienda.
I vantaggi principali:
- pieno controllo sui dati
- maggiore sicurezza e compliance
- costi prevedibili nel lungo periodo
- integrazione diretta con sistemi aziendali
Cos’è PUPAU
PUPAU è una piattaforma progettata per orchestrare modelli AI in modo unificato.
Permette alle aziende di:
- utilizzare modelli pubblici quando serve
- eseguire modelli locali on-premise
- gestire tutto tramite un’unica infrastruttura
In pratica, PUPAU diventa il gateway aziendale dell’AI.
Il progetto: deployment completo in sede cliente
Shellonback ha curato il deployment e l’installazione completa dell’infrastruttura AI, dalla preparazione remota fino alla messa in produzione on-site.
L’obiettivo era creare un ambiente pronto all’uso per:
- orchestrazione dei modelli LLM
- gestione dei servizi di backend AI
- integrazione futura con i sistemi aziendali
Hardware installato
Per garantire performance elevate e scalabilità, l’infrastruttura è stata realizzata su macchine dedicate:
- 1 × NVIDIA DGX Spark
- 4 × Dell ProMax GB10
Questa combinazione consente di gestire carichi AI intensivi e workload distribuiti in modo efficiente.
Dalla preparazione remota all’installazione on-site
Il progetto è stato sviluppato in più fasi.
1. Preparazione del deployment
Abbiamo progettato un sistema di installazione automatizzato basato su:
- Kubernetes (K3s)
- Helm
- Ansible
- containerizzazione completa dei servizi
Questo ha permesso di preparare l’intera infrastruttura da remoto.
2. Installazione in sede cliente
Una volta pronte le macchine, siamo passati alla fase on-site:
- configurazione hardware
- installazione cluster Kubernetes
- deployment completo di PUPAU
- messa in produzione
Il risultato: AI privata operativa in azienda.
Il risultato
L’azienda dispone ora di una piattaforma AI pronta all’uso che permette di:
- utilizzare modelli LLM in sicurezza
- mantenere i dati all’interno dell’infrastruttura
- scalare l’utilizzo dell’AI nel tempo
- integrare nuovi modelli e servizi
In altre parole: l’AI non è più solo uno strumento esterno, ma diventa parte integrante dell’infrastruttura aziendale.
Il futuro dell’AI è ibrido
Sempre più aziende stanno adottando un approccio ibrido:
- modelli pubblici quando serve flessibilità
- modelli locali quando servono sicurezza e controllo
PUPAU abilita proprio questo scenario.
Vuoi portare l’AI privata nella tua azienda?
Shellonback supporta le aziende nella progettazione e nel deployment di infrastrutture AI dedicate.
Se vuoi capire come portare l’AI dentro la tua organizzazione, contattaci.