
News
Contenuti per la community dell'HPC e gli appassionati di innovazione: tutorial, news e press release per utenti, ingegneri e amministratori
- Tutte le news
- Aerospace & Defence
- Artificial Intelligence
- Blog
- Cloud Platform
- HPC
- Kubernetes Cluster
- Press
- Progetti Europei
- Ultime news
- Varie E4
- Video
Cloud Computing o infrastrutture tradizionali?

Vi proponiamo un’intervista al nostro Head of Infrastructure, Ettore Simone, che ci aiuterà a orientarci nel mondo del cloud computing.
Ettore Simone: il tutto nasce dalla volontà di semplificazione di un oggetto complesso e complicato come il data center.
Nel corso degli anni si è assistito ad una tendenza, ossia, ogni azienda dotata di un’infrastruttura finisce per gestirla a modo proprio, senza seguire delle procedure strutturate. Questo ha portato ad avere dei dipartimenti IT di diverso tipo. Specialmente in quelle aziende dove l’IT non è la funzione primaria, viene data a questo dipartimento un’importanza marginale: si sente spesso dire, riferito all’IT, la frase “basta che funzioni”.
Nel tempo però, le infrastrutture aziendali sono diventate molto complesse, offrendo una moltitudine di servizi. Si è avuta, quindi, la necessità di fare un salto evolutivo, come è successo per i sistemi operativi: trovare una soluzione che riesca a governare in modo coerente tutta l’infrastruttura, dallo storage al networking, dalla sicurezza alle applicazioni passando anche attraverso la virtualizzazione.
Una delle soluzioni di gestione dell’infrastruttura è OpenStack. E4 tra le sue soluzioni ad alte prestazioni propone infatti Fluctus, una piattaforma cloud basata su versione OpenStack recenti e stabili.

OpenStack è un software Open Source, perché un’azienda dovrebbe rivolgersi a E4 per installarlo nella propria infrastruttura e pagare una subscription, quando il software è completamente gratuito? E perché scegliere proprio E4 e non una multinazionale?
Ettore Simone: Le multinazionali che propongono loro versioni custom di OpenStack sono molto spesso delle software house che hanno come obiettivo quello di vendere un determinato software, una sorta di prodotto, basato su OpenStack. Invece E4 fornisce una soluzione che al suo interno ha OpenStack, ma è creata apposta per risolvere delle esigenze specifiche dell’infrastruttura del cliente. La complessità di dover integrare una soluzione così grande come OpenStack in un’azienda strutturata è davvero elevata e richiede delle competenze molto verticali.
E4 ha il compito di fare da ponte tra un data center complesso (derivante dal cliente e dalle sue esigenze specifiche) e la soluzione per l’infrastruttura, anche essa complessa (OpenStack), in modo tale che quest’ultima sia utilizzabile immediatamente e già calzante in relazione alle necessità dell’azienda cliente, fornendo, inoltre, tutto quello che c’è in mezzo, dalla consulenza, all’implementazione, alla risoluzione di problemi post-vendita…
Perché allora non prendere quello gratuito?
Ettore Simone: Scaricare l’intero OpenStack e farlo funzionare correttamente su un’infrastruttura è un lavoro che richiede competenze verticali che possono essere sviluppate in anni e per la singola azienda non è un investimento fattibile. Oltretutto, se si parte da zero, non ci sono garanzie di funzionamento e di integrazione alla fine del processo. Infine, se si verificano dei problemi, non si ha nessuno a cui rivolgersi, se non alla community.
Prima si accennava ad un livello di gestione complessiva e semplificazione simile a quella dei sistemi operativi… Quindi, come si faceva prima che esistessero i sistemi operativi? Quali sono i punti in comune e di contatto tra una soluzione per le infrastrutture complesse e il sistema operativo di una singola macchina?
Ettore Simone: Bisognerebbe fare un bel salto nel tempo! Se analizziamo la storia dei computer partendo dai mainframe, risulta evidente che all’inizio ogni componente era a sé: storage, sistema di calcolo, periferiche… e tutti questi pezzi dovevano essere gestiti separatamente, un po’ come avviene nelle infrastrutture tradizionali, sia fisiche che virtualizzate, dove il sistemista di turno deve tenere traccia di tutto (sistemi di security, hypervisors, networking, ecc..).
Questo è di fatto un modo molto scomodo di gestire le cose. Il balzo evolutivo è avvenuto con la nascita di sistemi operativi più complessi, che facevano da filtro tra utente, il sistemista/programmatore e le risorse del computer; una sorta di orchestratore che gestiva in modo organico storage, memoria, rete, servizi, ecc… Questo ha portato a una grandissima semplificazione nella gestione dei computer e nella scrittura dei programmi, e ha ottimizzato il lavoro del sistemista, orientandolo più al business che non al “che cosa c’è dentro al computer”.
OpenStack sta facendo la stessa cosa ma sull’intero data center, in una scala molto più ampia, ossia creare uno strato di orchestrazione e astrazione tra i componenti sottostanti il data center (anche data center distribuiti) e chi ne deve usufruire per erogare servizi al business.
Quando prima si diceva che ogni azienda gestisce il proprio data center a modo suo, ci si riferiva alla parte delle applicazioni o anche a livello più basso? Di solito un’infrastruttura con uno degli hypervisor più diffusi funziona, quindi dove sta la complessità di cui si parlava sopra?
Ettore Simone: In realtà l’hypervisor funziona ed è vero, ma è soltanto uno strumento che ti da’ un servizio di virtualizzazione e gestione prevalentemente della parte computazionale, tutti gli altri problemi di gestione IT rimangono. Ad esempio, tutta la parte che riguarda l’integrazione delle reti virtuali con le altre infrastrutture di rete, la security, lo storage, terminando con le applicazioni. Come farle parlare tra di loro applicazioni e infrastruttura? Il ciclo di vita dello hardware? E’ possibile evitare o minimizzare il disservizio durante la sostituzione dello hardware? E il capacity plan?
Purtroppo il coordinamento di tutto quello che c’è in un data center non lo risolvi con un semplice servizio per la virtualizzazione.
Ma lo stesso vendor produttore di questo hypervisor ha molte di queste funzioni disponibili con altri suoi prodotti…
Ettore Simone: Sì, il vendor ti da’ il mezzo, ma non ti spiega come strutturarti… e spesso funziona solo in quegli ambiti in cui sono presenti i suoi stessi prodotti. Non sempre permette di gestire oggetti esterni come ad esempio apparati di rete terzi. Quello che è emerso in grosse strutture, come gli attuali Cloud Provider, quando hanno avuto la necessità di erogare servizi di infrastruttura orchestrati, è che non è sufficiente affidarsi ad un solo vendor per la creazione di questo tipo di servizi, manca uno strato di semplificazione dell’utilizzo di questi strumenti complessi. E questa mancanza di eterogeneità dei vendor tradizionali è diventata un limite pesante anche per le aziende.
Se si mette a confronto il pannello di lavoro di un hypervisor con quello di un’infrastruttura cloud, si nota subito che il primo è un pannello tecnico, il secondo è molto semplificato, così che gli utilizzatori possano esser autonomi nel gestirlo e anche nel “misurarlo” in modo da percepirne il valore.
Questa è la rivoluzione portata dalle infrastrutture cloud rispetto a quelle tradizionali. Io, utente, non voglio avere il controllo del bit, perché non mi interessa averlo! Voglio avere un pannello di lavoro semplificato, con poche e chiare scelte da compiere.
Ma se un’azienda ha già in casa dei nodi di virtualizzazione con prodotti commerciali, cosa può farci? Deve buttare tutto via?
Ettore Simone: Innanzitutto dobbiamo dire che nulla di quello che si ha in casa verrà abbandonato, ma andrà avanti ad essere utilizzato finché non completamente dismesso. Le strutture cloud sono più diffuse di quel che si pensa nelle e convivono felicemente con le infrastrutture più obsolete. Avere una struttura cloud interna può servire inizialmente ad erogare servizi nella stessa modalità in cui li consumo all’esterno e semplifica la gestione interna; successivamente la sua presenza è abilitante per una migrazione “morbida” tra il precedente ambiente – sempre più spesso definito come legacy – e il nuovo. Gli ambienti “vecchi”, se non in dismissione, una volta liberati dai precedenti work-load, possono essere integrati all’interno della nuova infrastruttura cloud. Si può quindi avere una struttura mista e si lascia scegliere all’orchestratore dove far girare i sistemi.

Quindi con un’installazione OpenStack (Fluctus), posso andarmi a gestire dei nodi della mia farm virtualizzata?
Ettore Simone: La migrazione va fatta con un’infrastruttura parallela: quello che può succedere è che l’infrastruttura esistente, una volta “liberata”, può essere integrata sotto OpenStack e il mio pannello si amplia cominciando a vedere tante region quante sono le mie infrastrutture che ho innestato. Da quel punto in poi si ha la possibilità di andare a inserire le virtual machine, o i vari servizi, in ambienti o che scelgo io o che lascio scegliere all’orchestratore. Quindi da un unico pannello posso gestire ambienti di virtualizzazione “brandizzati” residenti a Seattle, altri ambienti di virtualizzazione cloud in Palo Alto, o nodi locali KVM.
Avendo questa diversità di ambienti c’è anche il vantaggio della diversificazione della tecnologia: posso cioè instanziare macchine particolarmente vitali in cluster tra di loro, ma in infrastrutture completamente separate. Così, se mi si ferma un’infrastruttura, ho la sicurezza che un’altra continui ad erogare il servizio.
Non è rischioso affidarsi al cloud?
Ettore Simone: Sia che si scelga un cloud pubblico o un cloud privato il rischio è estremamente basso. Nel caso di un’azienda privata che scelga un private cloud come OpenStack, si tratta di un’infrastruttura che viene installata internamente nelle proprie macchine, quindi la garanzia di sicurezza e riservatezza è massima, sicuramente superiore alle tecnologie tradizionali.
Perché, nel caso di Fluctus, hai proprio un tuo cloud in casa. Bisogna distinguere infatti tra servizi in cloud e infrastruttura con tecnologia cloud. I primi sono dei servizi erogati esternamente, mentre la tecnologia cloud può essere utilizzata in casa e questo mi da’ il vantaggio di avere le stesse semplificazioni del public cloud ma all’interno del mio data center, ed è proprio questo che mi toglie i problemi di complessità di gestione della mia infrastruttura pur mantenendo tutte le risorse interne.
Ma come faccio a installare in un’azienda una infrastruttura cloud? Non sarebbe troppo costosa e ingombrante? Non comprende molto hardware? Dove lo metto?
Ettore Simone: Innanzitutto tecnologia cloud non significa necessariamente “tanti server”, significa semplicemente una tecnologia che semplifica l’utilizzo delle risorse. È possibile scegliere su quante macchine installare il cloud, perché è proporzionale ai servizi che devo erogare. Naturalmente serve un quantitativo minimo di server per garantire l’alta disponibilità di servizio, ma parliamo di soli 3 computer. E se non serve l’alta disponibilità, come per servizi non critici o per ambienti Edge, anche un solo nodo può essere sufficiente.
Come dicevo prima, l’IT viene purtroppo spesso vista come un costo, soprattutto per le aziende che non fanno dell’IT la loro professione. Con soluzioni cloud tipo Fluctus abbatto il costo, ma ottengo anche vantaggi come:
- aumentare i servizi che riesco ad erogare
- migliorare le performance dei miei tecnici che lo utilizzano
- abbattere i confini tra data center interno e data center esterno
“Difficile tornare indietro una volta assaggiato!”
Grazie per tutte le spiegazioni, ma restano aperte ancora due questioni:
Il vostro Fluctus si basa sulla versione stabile prodotta dalla community. Mi chiedo quanto sia etico da parte di una azienda come E4 cercare di far soldi su un prodotto creato liberamente e gratis da una community?
Inoltre, perché dovrei scegliere E4, un’azienda così piccola? E soprattutto, se ho bisogno di supporto, chi mi risponde?
A queste domande risponderemo nella prossima puntata dell’intervista! Continuate a seguirci e, nel frattempo, visitate la pagina di Fluctus!