In una visione estremamente semplificata, il Cloud Computing non è lontano da un ritorno al passato delle architetture IT rivisitato in chiave moderna. Dove infatti alcuni anni fa i desktop avevano soppiantato i precedenti terminali passivi collegati a un sistema centralizzato, oggi si sta affermando il ritorno di dati e applicazioni verso i server remoti. Decidere se la situazione sia causa o effetto della combinazione dei fattori che caratterizzano le nuove tendenze – in particolare mobility, condivisione e collaborazione – è un fattore secondario. Più importante è infatti riuscire a configurare e gestire i sistemi in modo da assecondare lo scenario attuale.
La prima parte di questo cammino è simile a quanto compiuto anche dalle componenti di networking delle infrastrutture, passando dai semplici hub passivi a switch dotati nel tempo di un numero crescente di funzionalità e intelligenza computazionale. Non deve quindi stupire chi intravede ora un analogo passaggio a ritroso anche in questo contesto.
«L’obiettivo principale degli studi che ho condotto nel corso degli ultimi anni a Standford, e che in seguito ho sviluppato nella società Nicira, era estendere la virtualizzazione alla componente di rete – spiega Martin Casado, Chief Networking Architect (NSX) di VMware -. Con il graduale passaggio al Cloud Computing, per i data center, questo aspetto è infatti diventato una questione prioritaria».
Problematiche complesse nei data center
In tanti data center, soprattutto quelli più grandi come Google o Amazon, si è arrivati a un punto dove non è più sostenibile gestire una serie di funzionalità, quali sicurezza, bilanciamento di carico, difesa o policy a livello di Rete. La tendenza è quindi spostare queste funzioni a livello di applicazioni, così da rendere la gestione molto più semplice. «In questa visione, l’unico compito che rimane da garantire a livello di Rete è la connettività – prosegue Casado -. Significa avere un’infrastruttura meno costosa, più efficiente, più scalabile e più semplice. Soprattutto, la velocità di innovazione è maggiore perchè le funzionalità a livello hardware richiedono anni per essere aggiornate, mentre a livello software si parla al massimo di mesi».
Una visione però, non priva di controindicazioni. Nei casi citati, Google e Amazon ci sono arrivati partendo da configurazioni fortemente personalizzate e non adatte quindi per una commercializzazione su vasta scala. La vera sfida è quindi quella di una soluzione in grado invece di affrontare il mercato. Esattamente quanto Nicira intendeva dimostrare di aver raggiunto.
Una dimostrazione con tutte le carte in regola se VMware nel 2012 non ha esitato a investire 1,26 miliardi di dollari per assicurarsi una tecnologia considerata rivoluzionaria. «In una rete virtualizzata, viene installato un software in ogni server, così da creare una visione del tutto simile a quella tradizionale – sottolinea Casado -. Tutte le impostazioni vengono però gestite a livello di server. Lo scopo è far sì che in qualsiasi data center i costi di gestione risultino drasticamente ridotti, migliorando al tempo stesso l’efficienza».
Dopo alcuni anni di messa a punto e integrazione nella propria offerta, ora secondo VMware i tempi sono maturi per avviare la svolta. I primi clienti in ambito finanziario, pubblica amministrazione e sanità hanno già avuto modo di sperimentare con successo la nuova impostazione e l’interesse di altre realtà viene dichiarato in crescita.
In misura non molto diversa da quanto accaduto con i server e più di recente con lo storage, tra le ragioni per passare alla virtualizzazione, in generale, la principale è ridurre tempi e costi di realizzazione e messa a punto di una rete. Significa poter configurare e rendere disponibili risorse in pochi istanti e rendere fruibili le applicazioni nel giro di poche, quando prima potevano servire settimane. Inoltre, la manutenzione del software si presenta più a buon mercato rispetto agli interventi sull’hardware. Ma è la terza prospettiva destinata a fare al differenza. «Attualmente l’80% della spesa in sicurezza, il 40% in media nella spesa IT totale, riguarda i confini della rete aziendale, ma l’80% dei dati si muove all’interno – puntualizza Casado -. Con la network virtualization si può invece arrivare al concetto estremo di isolare completamente un’applicazione su una connessione di rete e impedire quindi che ogni possibile attacco si propaghi, il pericolo maggiore in fatto di sicurezza».
La nuova concezione di rete secondo VMware tende quindi a spostare l’intelligenza trasferita negli ultimi anni all’interno degli apparati di rete, per collegarla alle applicazioni a livello di server virtuale. Una prospettiva che definisce un modello di architettura IT destinato a guidare i futuri data center. Nel frattempo, l’azienda pensa già a ulteriori sviluppi. «Importante sarà trovare il giusto punto di equilibrio e perfezionare le relative soluzioni software, tra isolamento delle applicazioni e visibilità – conclude Casado -. La sicurezza a livello di applicazioni, infatti, garantisce l’isolamento ma riduce la visibilità su elementi importanti quali il traffico o il profilo degli utenti, mentre in prossimità del firewall avviene esattamente il contrario».