Gli eventi di ICT4Executive - Reportage

Il Data Center deve evolvere, e tutte le strade portano al cloud

E’ una delle poche aree in cui gli investimenti non si sono mai fermati, ma i potenziamenti hanno creato anche nuove complessità e inefficienze che vanno affrontate con una strategia pluriennale. I pareri dei vendor e delle aziende utenti italiane in un evento organizzato da ICT4Executive con HP, Intel e Microsoft

Pubblicato il 03 Mag 2013

evento-data-center-130503110534

“Il Data Center rimane un pilastro fondamentale in qualsiasi strategia IT, una delle poche aree in cui gli investimenti durante la crisi economica non sono calati, però i potenziamenti degli ultimi anni hanno anche aumentato complessità di gestione, consumi d’energia e inefficienze, e comunque non basteranno a soddisfare la richiesta del business nei prossimi anni”.

Così Stefano Mainetti, co-direttore scientifico dell’Osservatorio Cloud e ICT as a Service della School of Management del Politecnico di Milano, ha aperto l’evento ‘New Data Center Best Practice’, organizzato a Milano da ICT4Executive.

“Molti Data Center sono cresciuti in modo disordinato: per cercare flessibilità si è investito in nuova capacità senza ottimizzare e integrare, e anche la virtualizzazione, pur portando molti benefici, introduce altra complessità – spiega Mainetti -. Il risultato è che oggi oltre la metà dei CIO riscontra problemi di spazio fisico (in Italia molti data center sono in rifacimento proprio per questo), oltre il 50% non può ospitare nuovi impianti ad alta densità per limiti della rete dati, dell’alimentazione elettrica, del condizionamento, e oltre il 75% prevede di avere problemi di storage entro due anni”.

Cloud, in Italia due velocità

Stefano Mainetti (Politecnico di Milano)

Tutto ciò oltretutto va risolto in un quadro di crescenti richieste del business: riduzione del time-to-market, agilità nell’attivare nuove soluzioni, e così via. Qual è la via d’uscita? Certamente l’evoluzione delle infrastrutture, che va gestita con un piano strategico pluriennale, basato su driver come pianificazione della capacità, allocazione dinamica delle risorse, compliance, ecosostenibilità.

Un punto d’arrivo può essere il cloud computing, perché i trend evolutivi di tutti i principali comparti dell’IT portano in questa direzione. Mainetti ha quindi anticipato alcuni responsi dell’edizione 2013 dell’Osservatorio Cloud, che sarà presentata in giugno. “Il primo dato è sul budget IT: non c’è la contrazione di cui tutti parlano, nel 38% delle aziende medio-grandi è in crescita, in un altro 38% è stabile e nel 24% è in calo”.

Le maggiori spinte a investire vengono dall’infrastruttura obsoleta, dalla frammentazione dei dati e dall’inadeguatezza delle competenze: la virtualizzazione si può considerare acquisita, e ora interessa generare flessibilità e ridurre i costi di gestione dei server e in generale il TCO, in un quadro in cui comunque 4 aziende su 5 gestiscono il data center all’interno, per controllare un asset molto critico, ma solo in un caso su quattro la governance è ispirata a standard come ITIL o Cobit”.

Quanto alla reale diffusione del cloud, l’Osservatorio riscontra un fenomeno a due velocità: “Il 92% delle grandi imprese ha iniziative attive, previste o in sperimentazione, sia di private cloud che di public. Nelle PMI invece la diffusione è di poco più del 20%: c’è molta più consapevolezza e ‘positività’ rispetto a un anno fa, ma comunque sei PMI su 10 dicono di non essere interessate al cloud”. Il data center quindi, conclude Mainetti, sta evolvendo con due percorsi alternativi: virtualizzazione, razionalizzazione, automazione e private cloud da una parte; e IaaS/public cloud dall’altra. “Il primo è in fase molto più avanzata, e il punto critico diventa la gestione dei server virtuali, che richiede tecniche e strumenti diversi rispetto alle macchine fisiche, oltre a un ventaglio di skill e a modelli di direzione ben diversi per l’IT”.

Singoli componenti e converged system

La parola è poi passata ai rappresentanti dei principali fornitori di infrastrutture per i data center. Marcello D’Agnano, EG presales manager di HP Italia, ha illustrato i progressi del colosso californiano in ottica Data Center nelle aree server, storage e networking. “In campo server abbiamo diversi progetti per renderli più ‘intelligenti’, importare funzioni tipicamente Unix anche sulle architetture x86, e proporre modelli ad altissima densità, con forti risparmi di spazio e consumi; nello storage la parola d’ordine è semplificazione, attraverso una architettura scalabile e basata su standard, mentre nel networking stiamo lavorando su un ridisegno totale in funzione di applicazioni e servizi, automazione e visibilità su cosa sta succedendo sulla rete”.

Al di là delle singole aree, HP sta portando avanti anche un’idea di ‘converged system’ con CloudSystem: “E’ un ‘cloud-in-a-box’, pensato per accelerare e centralizzare il provisioning: mette insieme in modo preintegrato le componenti viste finora, supportate da software di gestione, portale, strumenti di tuning per spingere al massimo l’automazione”.

Evoluzione dei processori, ma anche della gestione

Andrea Toigo (Intel)

Passando a Intel, come spiega Andrea Toigo, Enterprise Technology Specialist, sta lavorando sulla modernizzazione di singoli componenti e sulla miglior gestione del data center nel suo complesso. Nel primo campo “dal 2007 per i processori il livello di performance ed efficienza energetica è aumentato di 10 volte, e più in generale il TCO si è ridotto di circa il 66%: stiamo lavorando anche su reti e storage”.

Quanto alla gestione, un primo ambito è la misurazione: “Abbiamo tecnologie hardware e software con cui gestire secondo regole e modelli, plafonare i consumi e così via”. Un altro è il controllo della temperatura: “Un Data Center tradizionale lavora a 21-24 gradi ma i server di ultima generazione riescono a lavorare in modo ottimale a temperature più alte, con un 4% di costi in meno per ogni grado in più. Intel ha un Data Center in New Mexico con 900 server, raffreddato ad aria, che opera a 33 gradi: il livello di guasti è lo stesso dei Data Center a 21 gradi, ma i costi sono del 67% inferiori”. Ovviamente le collocazioni di sistemi e ‘isole’, come pure l’assegnamento dei workload, vanno ottimizzati ad hoc: “Stiamo sviluppando un framework che integra in una sola console i controlli dei parametri fondamentali del Data Center”.

Un sistema operativo ‘cloud’

Alessandro Peroni (Microsoft)

Alessandro Peroni, product manager Windows Server in Microsoft Italia, si è concentrato su Windows Server 2012, presentato nel settembre 2012 come ‘cloud OS’. “E’ una piattaforma che abilita l’utente a trasformare il suo Data Center, per esempio trasformando da fisico a virtuale qualsiasi workload: l’idea è di unificare la manutenzione e la gestione, centralizzare la gestione di identità e sicurezza, accelerare la comunicazione tra server e storage, e potenziare l’automazione e il self-service”.

Per Windows Server 2012, Microsoft parla anche di OS incentrato non più sull’infrastruttura ma sull’utente: “Un esempio è la soluzione di Virtual Desktop Interface completa con deployment semplificato, gestione e governance unificata, per cui l’utente può accedere con qualsiasi tipo di device, anche senza capacità computazionale locale, con tutta la potenza elaborativa del server”.

La comodità di partire da zero

Claudio Rivabene (QVC)

Per completare lo scenario a questo punto è fondamentale ascoltare le aziende utenti. Un esempio interessante è QVC Italia, che ha affrontato il tipico percorso della start-up senza investimenti pregressi da proteggere. “Ci occupiamo di multichannel retailing, soprattutto attraverso la TV: in Italia abbiamo aperto nel febbraio 2010, e ora siamo oltre 550 persone”, spiega Claudio Rivabene, New Technology, E-commerce Platform & Infrastructure Manager di QVC Italia.

“Partendo da zero, abbiamo optato per un Data Center totalmente virtualizzato: una scelta che è stata molto abilitante per le esigenze di rapidità d’avvio e di provisioning tipiche di una start-up. Quanto alla parte desktop, per il call center interno per esempio dobbiamo gestire una forte varianza (numero di stazioni, di chiamate, di operatori, ecc.) e per questo abbiamo implementato il Virtual Desktop Interface (VDI) ottenendo la flessibilità necessaria”.

Guglielmo Mengora (VaiSulWeb)

Un caso particolare è poi VaiSulWeb, che sui Data Center basa la sua attività, essendo un provider di servizi di web hosting, IaaS e application management per piccole e medie aziende su piattaforma Microsoft, con sede a Cosenza e focalizzato sul Sud Italia.

“Abbiamo configurato i nostri data center come una singola private cloud, eliminando i server dedicati, in modo da aumentare il tasso di utilizzo, ridurre i costi, e offrire automazione, scalabilità e servizi cloud di livello enterprise, ma a portata di PMI”, spiega Guglielmo Mengora, fondatore e CEO di VaiSulWeb.

I percorsi a tappe delle grandi aziende

L’evento si è concluso con gli interventi dei CIO di due grandi aziende: Snam e Nestlè. “Anche a causa dello scorporo dal Gruppo Eni, abbiamo in corso un progetto di reingegnerizzazione delle infrastrutture IT, con passaggio da otto a un solo nuovo Data Center – spiega Alessandro Catellino, ICT Manager di Snam -. Abbiamo affrontato le fasi di virtualizzazione e standardizzazione, e quindi attivato il cloud, che per noi è solo privato ed è già in produzione per ambienti di sviluppo e test. Il primo bilancio è certamente positivo. I costi sono stati abbattuti, l’attività effettivamente si è semplificata e i ruoli delle persone IT e le modalità di governance sono profondamente cambiati”.

Infine Nestlè. “In Italia abbiamo varie società, tra cui Buitoni, Perugina, San Pellegrino, Nespresso: nel 2005 tutte le funzioni IT sono state unificate in una società captive che eroga servizi IT a tutto il gruppo – racconta Giuseppe Pontin, CIO di Nestlè -. Integrare una parte dei processi di aziende molto diverse su SAP, con insourcing della società madre ma con una parte gestita direttamente, è una sfida molto complessa”. La soluzione infrastrutturale è mista, per SAP è stato scelto di fare un’implementazione unica, con solo 4 data center per tutto il mondo. “Francoforte eroga i servizi per la parte tecnica, l’analisi funzionale avviene in Italia, e in India c’è la gestione fisica delle macchine e lo sviluppo applicativo; stiamo iniziando a esplorare gli ambiti SaaS e cloud per applicazioni specifiche dove non abbiamo competenze, per esempio Big Data e monitoraggio dei social network”.

A breve Nestlè cambierà sede e ne approfitterà per introdurre cambiamenti nel Data Center: “Dove possibile cederemo in outsourcing i sistemi legacy che ora gestiamo all’interno, avremo una Data Room più piccola, green e sicura, e le competenze IT interne saranno sempre più orientate a supportare processi e gestire richieste dal business”.

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

Articoli correlati

Articolo 1 di 2