Un progetto finanziato
dall'UE ha permesso di sviluppare strumenti utili a creare applicazioni cloud
scalabili. A beneficiarne imprese e istituzioni pubbliche. I modelli
commerciali e le tecnologie cloud possono essere difficili da potenziare in
modo efficiente e spesso richiedono metodi di progettazione e software
avanzati. Per superare questi inconvenienti è nato CloudScale, un progetto
fondato dal Framework Programme Seven (FP7) della Commissione Europea.
L'idea alla base è
permettere agli utenti finali - tra cui PMI, grandi imprese e istituzioni
pubbliche - di sfruttare la flessibilità del cloud aumentando gradualmente le
proprie capacità di elaborazione. Si tratta di una serie di strumenti,
scaricabili dal sito web del progetto, che permettono di analizzare in
dettaglio eventuali problemi di scalabilità e strozzature nell'applicazione per
trovare un'architettura più in linea con le esigenze dell'organizzazione.
Ad esempio Hadoop, un
ponte tra cloud e big data, che ha rivoluzionato il mondo delle analitiche di
business offrendo la possibilità di elaborare in modo veloce ed economico
terabyte, petabyte e addirittura (quando utilizzato in cluster) hexabyte di
dati.
Hadoop è un progetto
opensource basato sul web server Apache per l'analisi distribuita e lo storage
di grossi quantitativi di dati. Il framework, che prende il nome
dell'elefantino di pezza del figlio del suo fondatore, Doug Cutting, permette
alle applicazioni in cloud di lavorare velocemente grazie ad alcune tecniche
rivoluzionarie di ottimizzazione dello storage.
Risulta una scelta
d'eccellenza per l'elaborazione e la gestione di tutti i dati non strutturati
che provengono dal mondo digitale, collaborativo e social. Ma anche, per le
aziende, dal mondo dei sensori e degli oggetti interconnessi e intelligenti
chiamato Internet of Things.
La maggior parte degli
ambienti Hadoop è costituita da gruppi (cluster) di server, ciascuno dotato di
sistemi di archiviazione locale. I dati vengono caricati su questi nodi e
l'elaborazione avviene in loco, attraverso una funzione chiamata MapReduce,
sviluppata da Google.
Ogni nodo elabora i dati
in base alle richieste e inoltra i risultati, consolidati su un nodo master sul
quale sono memorizzati anche tutti i metadati associati alla gestione dei
cluster. Il file system distribuito di Hadoop (HDFS - Hadoop Distributed File
System) assicura il trasferimento dati rapido tra i nodi e permette al sistema
di continuare a funzionare senza interruzioni anche nel caso di un guasto a uno
o più nodi.
Già ampiamente utilizzato
per gestire le applicazioni di Internet advertising e nei motori di ricerca,
Hadoop negli ultimi mesi ha iniziato a essere offerto "as a service"
dai big internazionali dei servizi cloud come Amazon, Microsoft, Ibm, HP e
molti altri all'interno dei loro menu di offerta.
Le soluzioni sviluppate comunque
sono molteplici. CloudScale Environment è un'applicazione desktop che integra i
diversi strumenti del progetto e può essere installata e utilizzata su
qualsiasi personal computer. Analyser permette agli utenti di valutare con
precisione la scalabilità, elasticità ed efficienza delle applicazioni cloud.
Extractor è uno strumento d'ingegneria inversa per l'estrazione automatica di
modelli cloud.
DynamicSpotter riesce a
rilevare i problemi prestazionali nei sistemi aziendali basati su Java. Static
Spotter, infine, è un altro strumento d'ingegneria inversa in grado di rilevare
automaticamente i cosiddetti modelli di ricerca, che possono influenzare la
scalabilità delle architetture cloud.
Nessun commento:
Posta un commento