CloudScale il progetto UE per cloud più scalabili ed efficienti

Un progetto finanziato dall’UE ha permesso di sviluppare strumenti utili a creare applicazioni cloud scalabili. A beneficiarne imprese e istituzioni pubbliche. I modelli commerciali e le tecnologie cloud possono essere difficili da potenziare in modo efficiente e spesso richiedono metodi di progettazione e software avanzati. Per superare questi inconvenienti è nato CloudScale, un progetto fondato dal Framework Programme Seven (FP7) della Commissione Europea.cloudscale

L’idea alla base è permettere agli utenti finali – tra cui PMI, grandi imprese e istituzioni pubbliche – di sfruttare la flessibilità del cloud aumentando gradualmente le proprie capacità di elaborazione. Si tratta di una serie di strumenti, scaricabili dal sito web del progetto, che permettono di analizzare in dettaglio eventuali problemi di scalabilità e strozzature nell’applicazione per trovare un’architettura più in linea con le esigenze dell’organizzazione.

Ad esempio Hadoop, un ponte tra cloud e big data, che ha rivoluzionato il mondo delle analitiche di business offrendo la possibilità di elaborare in modo veloce ed economico terabyte, petabyte e addirittura (quando utilizzato in cluster) hexabyte di dati.

Hadoop è un progetto opensource basato sul web server Apache per l’analisi distribuita e lo storage di grossi quantitativi di dati. Il framework, che prende il nome dell’elefantino di pezza del figlio del suo fondatore, Doug Cutting, permette alle applicazioni in cloud di lavorare velocemente grazie ad alcune tecniche rivoluzionarie di ottimizzazione dello storage.

Risulta una scelta d’eccellenza per l’elaborazione e la gestione di tutti i dati non strutturati che provengono dal mondo digitale, collaborativo e social. Ma anche, per le aziende, dal mondo dei sensori e degli oggetti interconnessi e intelligenti chiamato Internet of Things.

La maggior parte degli ambienti Hadoop è costituita da gruppi (cluster) di server, ciascuno dotato di sistemi di archiviazione locale. I dati vengono caricati su questi nodi e l’elaborazione avviene in loco, attraverso una funzione chiamata MapReduce, sviluppata da Google.

Ogni nodo elabora i dati in base alle richieste e inoltra i risultati, consolidati su un nodo master sul quale sono memorizzati anche tutti i metadati associati alla gestione dei cluster. Il file system distribuito di Hadoop (HDFS – Hadoop Distributed File System) assicura il trasferimento dati rapido tra i nodi e permette al sistema di continuare a funzionare senza interruzioni anche nel caso di un guasto a uno o più nodi.

Già ampiamente utilizzato per gestire le applicazioni di Internet advertising e nei motori di ricerca, Hadoop negli ultimi mesi ha iniziato a essere offerto “as a service” dai big internazionali dei servizi cloud come Amazon, Microsoft, Ibm, HP e molti altri all’interno dei loro menu di offerta.

Le soluzioni sviluppate comunque sono molteplici. CloudScale Environment è un’applicazione desktop che integra i diversi strumenti del progetto e può essere installata e utilizzata su qualsiasi personal computer. Analyser permette agli utenti di valutare con precisione la scalabilità, elasticità ed efficienza delle applicazioni cloud. Extractor è uno strumento d’ingegneria inversa per l’estrazione automatica di modelli cloud.

DynamicSpotter riesce a rilevare i problemi prestazionali nei sistemi aziendali basati su Java. Static Spotter, infine, è un altro strumento d’ingegneria inversa in grado di rilevare automaticamente i cosiddetti modelli di ricerca, che possono influenzare la scalabilità delle architetture cloud.

Salva

Salva

Salva