Vai al contenuto principale

Stream computing

Idee dall'IBM. Stream computing.

Per decenni abbiamo collegato computer a computer.
Ora possiamo collegarli al mondo reale.

Un'unità di cura intensiva neonatale. Una boa nelle profondità delle acque di Galway Bay. Un centro spaziale in Svezia. Sono aree in cui lo stream computing si è rivelato un modo nuovo e potente per elaborare i dati. La nuova piattaforma software di IBM, conosciuta anche come InfoSphere Streams (US), può analizzare in tempo reale enormi quantità di dati provenienti da fonti diverse e fornire un quadro rapido e preciso per aiutare nel processo decisionale.


 

Collegare al mondo reale
Il termine "stream computing" è nato anni fa durante una conferenza dell'IBM Global Technology Outlook. Da più di un quarto di secolo nel GTO scienziati IBM, partner e clienti di tutto il mondo esaminano i trend tecnologici che possono avere maggiore impatto sul mercato in un arco di tempo da tre a sette anni. "In termini semplici, invece di collegare un computer a un altro computer, la premessa dello stream computing è di collegare un computer al mondo reale, alla gente, al traffico, all’ambiente, e vedere cosa succede," spiega Nagui Halim, il ricercatore che dirige l’iniziativa stream computing. "Una volta raccolti, i dati devono essere analizzati e visualizzati… per comprendere cosa succede. Questo concetto di 'consapevolezza del mondo reale' è uno dei principi basilari del pensiero di IBM per un pianeta più intelligente" prosegue Halim.

Ripensare completamente l'informatica
Questo nuovo paradigma dell'informatica capovolge le tecniche di analisi dei dati. I modelli di calcolo tradizionali analizzano retrospettivamente i dati memorizzati. Nello stream computing, invece, viene fatta un'analisi continua dei dati provenienti da diverse fonti, restringendo via via la ricerca e raffinando continuamente la risposta, man mano che si rendono disponibili dati supplementari.

Lo stream computing paragonato alle analisi tradizionali
'C'è differenza tra fare un'istantanea di un bambino di due anni e un video live. L'istantanea è congelata nel tempo. Ma con il video feed live, puoi catturare ogni sfumatura, seguire il bambino fuori della stanza, mettere a fuoco l'immagine, registrarlo per usi futuri e tagliare particolari non interessanti.' - Nagui Halim, ricercatorePer esempio, uno stream audio viene mandato a un traduttore che produce un flusso di testo. Il testo viene quindi mandato a un aggregatore che filtra per argomento: 70% notizie finanziarie, 30% sportive. Poi si sposta al processore successivo per l'analisi e a quello dopo ancora, il tutto mentre nuovi dati continuano ad arrivare. L'informazione che è rilevante o "diversa" viene raccolta dalla massa; i bit irrilevanti sono scartati come "rumore".

Una piattaforma che si adatta ai dati
Sebbene molti database possano gestire grandi quantità di informazioni, InfoSphere Streams può analizzare un enorme e caotico insieme di dati e rilasciare un flusso continuo di informazioni nel giro di microsecondi. E' in grado di modellarsi via via sui problemi che affronta.

A seconda del tipo di carico di lavoro, per l'elaborazione di prototipi di InfoSphere Streams è stata usata una vasta gamma di architetture hardware, da server generici a sistemi per scopi speciali come IBM Blue Gene. Continua a pagina 2

Pagina 1 | 2


Siamo qui per aiutarti

Un modo semplice per ottenere le risposte di cui hai bisogno.