I cambiamenti di scenario competitivo in molti settori, e l’esplosione di tecnologie come Cloud, Mobile, social e Big Data richiedono profondi cambiamenti nell’infrastruttura IT delle aziende e nella sua gestione. Molti stanno puntando come modello di riferimento all’Hybrid Cloud ma nel frattempo occorre governare la continua crescita dei carichi di lavoro (workload) e delle esigenze di gestione e supporto delle applicazioni tradizionali, conciliando il tutto con l’esplosione dei workload delle applicazioni più innovative (analytics, mobile, ecc.), molto esigenti in termini di performance.
In questo quadro si collocano i nuovi annunci di EMC, che al recente evento “Redefine Possible” a Londra ha presentato alcune evoluzioni della sua offerta accomunate dall’obiettivo appunto di ridurre costi e oneri di gestione del parco applicativo consolidato, per liberare risorse da dedicare alle soluzioni innovative, senza creare nuovi “silos” infrastrutturali. «I clienti stanno affrontando le sfide della gestione di una varietà di workload, dovendo supportare allo stesso tempo le richieste di nuove applicazioni sia on-premise sia nel cloud pubblico – ha spiegato Jeremy Burton, President Products, Marketing & Solutions di EMC, nel “keynote” dell’evento -: non esiste una soluzione generica che vada bene per tutti, e le ultime innovazioni di EMC forniscono le basi per poter gestire in modo coerente le applicazioni esistenti e quelle di nuova generazione, accelerando il passaggio verso il cloud ibrido».
Scendendo nel dettaglio, gli annunci riguardano nuove versioni di XtremIO, VMAX, Isilon, e la disponibilità generale di Elastic Cloud Storage (ECS). Nel primo caso, XtremIO 3.0 offre diverse nuove funzionalità e configurazioni, integrazioni di ecosistema e programmi business per la soluzione EMC di storage array basata su tecnologia Flash, disponibile solo da sei mesi, «durante i quali – ha detto Burton – ha raccolto ordini per oltre 100 milioni di dollari». Con quest’evoluzione XtremIO permette più scalabilità, capacità e supporto per workload consolidati e virtualizzati che richiedono alte prestazioni. La novità principale è la possibilità di scrivere copie “snapshot” direttamente in-memory, eliminando così duplicazioni di dati e facilitando la creazione di ambienti di sviluppo e test applicativo.
La prima ECS Appliance consegnata alla Bibiloteca Vaticana
Un secondo annuncio importante è la nuova famiglia VMAX3, che trasforma la soluzione VMAX «da enterprise storage array a piattaforma di enterprise data service», ha sottolineato Burton. «VMAX3 permette di definire le risorse più adatte a far girare determinati workload, nel data center o nel cloud pubblico». Le evoluzioni tecniche principali qui sono Hypermax OS, sistema operativo che funziona da “storage hypervisor”, e Dynamic Virtual Matrix, che permette di allocare dinamicamente la potenza di calcolo in base a livelli di servizio predefiniti. «Workload diversi, come email, virtual machine o elaborazioni transazionali, richiedono performance diverse, e per ciascuno si può definire un livello di servizio in millisecondi da rispettare».
La famiglia VMAX3 comprende tre modelli – 100K, 200K e 400K – a seconda del numero di macchine virtuali gestite (da qualche centinaio a 70mila). EMC dichiara prestazioni fino a tre volte più veloci per workload “tipici” (Oracle database, transazioni SAP, analisi di dati ad alta banda), con un TCO del 50% rispetto alla generazione VMAX precedente. In questo senso l’acquisizione del vendor specializzato TwinStrata, annunciata a Londra, permetterà di spostare i dati usati con minor frequenza in un cloud pubblico, «trattando quest’ultimo come un qualsiasi strato storage», ha spiegato Burton.
EMC ha annunciato a Londra anche la disponibilità di ECS Appliance, dove ECS sta per “Elastic Cloud Storage”. Si tratta di un’infrastruttura hardware e software ottimizzata per situazioni con esigenze di gestione di grandi volumi di dati (da 360 terabyte a 3 petabyte per ogni rack) e forte scalabilità. «Vogliamo che ECS abbia costi paragonabili ai servizi di public cloud, ma anche la sicurezza e il controllo tipici del cloud privato». EMC ha consegnato la prima ECS Appliance, un singolo sistema da tre petabyte, alla Biblioteca Vaticana.
Isilon, l’archivio per i film di iTunes e per Avatar
Infine un importante passo avanti ha fatto anche Isilon, la soluzione “scale-out” NAS di EMC. Si tratta di una delle tecnologie di storage più apprezzate per gestire enormi volumi di dati non strutturati: Isilon in particolare è stata adottata per esempio da Apple per gestire 12 petabyte di video iTunes, e dal regista James Cameron per una parte dei dati del film “Avatar”. “Scale-out” significa che il NAS (Network Attached Storage) si espande all’occorrenza non aggiungendo dischi a una singola macchina “monolitica”, ma aggiungendo via via nodi, con i loro processori e cache.
«Isilon è stata fondata nel 2001 (e poi comprata da EMC nel 2010, ndr) con il preciso obiettivo di sviluppare un’architettura storage focalizzata su dati non strutturati e contenuti digitali: immagini, file PowerPoint, video, file musicali, file CAD, dati generati da macchine – ci ha spiegato Bill Richter, President, EMC Isilon -. Abbiamo circa 5000 organizzazioni utenti, tipicamente con installazioni storage di grande scala – il più piccolo cliente ha centinaia di terabyte, il più grande 50 petabyte -, principalmente nei settori media and entertainment, life sciences, oil & gas, videosorveglianza, sanità, tlc».
L’obiettivo ora per Isilon è realizzare il concetto di “Data Lake”, un’alternativa di nuova generazione al classico Data Warehouse. In quest’ultimo, spiega Richter, i dati all’inserimento vengono “tradotti” in formati già ottimizzati per precisi tipi di analisi. «Ma in uno scenario Big Data questo non ha senso perché man mano che il business si amplia occorre saper accettare velocemente nuove fonti di dati, e perché quando raccogliamo i dati, non sappiamo ancora quale sarà il modo migliore per trarne valore».
Un “lago” di dati non strutturati da analizzare
E qui entra il concetto di Data Lake, che prevede due componenti: un repository facilmente e fortemente scalabile in grado di archiviare grandissime quantità di dati nel loro formato nativo, e un sistema per analizzarli senza muoverli da dove sono. Nel caso di EMC, il repository è Isilon, e Hadoop è la tecnologia per elaborare i dati.
Il fatto che i dati non si muovano è fondamentale per la loro sicurezza: «Nell’approccio tradizionale i dati delle applicazioni sono mandati attraverso reti a qualche cluster di macchine Hadoop, si fa girare l’elaborazione Hadoop, e si rispedisce il risultato via rete all’utente. Questo è molto lento e inefficiente, e alla fine ho due copie dei dati protette in casa e tre copie nel cluster – Hadoop richiede tre copie per funzionare – non si sa quanto tutelate. Invece con Isilon i dati delle applicazioni non si muovono dal Data Lake neanche per l’elaborazione Hadoop».
In questo quadro, conclude Richter, gli annunci di Londra per Isilon riguardano una nuova piattaforma hardware che raddoppia le velocità e nel contempo dimezza i costi rispetto alla precedente; una nuova versione di OneFS, il sistema operativo di Isilon, che introduce SmartFlash, una cache basata su flash che permette di ottenere rapidamente i dati più importanti e “caldi”, aumentando fortemente le performance; nuovi canali d’accesso che permettono di “accettare” in Isilon altri tipi di informazioni oltre a quelli già ammessi, e nuove soluzioni, tra cui spicca “Data Lake Hadoop Bundle”, sviluppata insieme a Pivotal (altra divisione di EMC) per applicazioni di data analytics “next generation”.