Esattamente quattro anni fa, nel febbraio del 2005, Google ha acquistato un gigantesco lotto di terreno nello stato dell’Oregon, ha costruito due magazzini – grandi ognuno come un campo da calcio – e li ha riempiti di server. Si tratta del cosiddetto “Progetto 2″.
Non è un caso isolato. Il Grande Fratello dei motori di ricerca – da solo – controlla decine di questi centri di elaborazione dislocati nei luoghi meno accessibili del pianeta.
A cosa serve questa gigantesca potenza di calcolo?
Queste reti di decine di migliaia di computer connessi ad altissima velocità alla rete Internet sono la prerogativa tecnologica di un’architettura dell’informazione e del servizio chiamata cloud computing, che non è più soltanto il pane quotidiano di Google o altre web companies della Valle del Silicio, ma è alla portata di qualsiasi privato, pubblica amministrazione o piccola azienda.

In un’ottica tradizionale un client (il vostro computer) invia una richiesta ad un preciso server (quello su cui ha sede il vostro sito preferito) che si proccupa di soddisfare la richiesta restituendo la pagina a cui siete interessati.
Il computer che vi risponderà sarà sempre e solo il destinatario finale della richiesta che avete inviato e – questo è fondamentale – le risorse (memoria, potenza di calcolo, archivio dati) che verranno utilizzate saranno unicamente quelle del singolo computer che avete contattato.

Un sistema di servizi online progettati con un’architettura di cloud computing, invece, prevede una distribuzione del carico di lavoro generato dalla vostra richiesta.
Ecco un esempio. Se da un internet point della Stanford University aprite la homepage di Facebook, la vostra richiesta non verrà gestita da un computer a Santa Clara (dove è allocato il principale centro di elaborazione), ma verrà affidata ad una nuvola.
Il sito vero e proprio (con pagine processate in real time o recuperate dalla cache) verrà gestito da uno delle centinaia di server presenti nella webfarm di San Francisco (a pochi chilometri da dove vi trovate), mentre – per quanto concerne il database, e cioè l’archivio dati – si occuperà della vostra richiesta la potenza di calcolo di Santa Clara.
Le foto ed i video pubblicati sui Wall del social network, invece, vi verranno inviati da un’altra categoria di server, quelli di storage, localizzati quasi tutti a Santa Clara.

Il risultato, insomma, è un elaborato sistema di redistribuzione del carico di lavoro completamente delocalizzato e tecnologicamente decentrato, la nuvola appunto.
Non importa chi servirà la vostra richiesta e dove quel computer si trova, quello che conta è avere la vostra pagina pronta in pochi secondi.

Questo tipo di rivoluzione viene paragonata da Nicholas Carr, giornalista di testate come Wired, New York Times e Financial Times, a quella della creazione di una rete elettrica nazionale negli USA.
Così come prima ogni azienda produceva – con costi tecnologici e di risorse umane decisamente alti – la propria energia elettrica e poi finalmente con il lavoro di Insull, pupillo di Edison, ogni azienda ha potuto acquistare a bassissimo costo energia elettrica prodotta in modo centralizzato dalla General Electric e distribuita attraverso una rete capillare, così grazie alla rivoluzione del cloud computing – racconta Carr in The Big Switch. Rewriting the world from Edison to Googlele aziende stanno buttando via i server che, con alti costi di manodopera ed uno spreco di risorse non indifferente, venivano mantenuti nei loro uffici, e si sono affidati a servizi di nuvole di calcolo offerti da provider esterni.
Altri esempi di successo sono le reti di cloud computing create da Skype, il servizio di VoIP acquistato da Ebay, e BitTorrent, uno dei sistemi più popolari per condividere su Internet file, musica e film.

Se non siete una grande azienda, è molto difficile che decidiate di costruire da zero la vostra nuvola. La soluzione più popolare è affidarsi ad offerte come Amazon Web Services, grazie alle quali potrete eseguire le vostre applicazione e i vostri siti web su sistemi di cloud computing solidi ed affidabili creati da provider come Amazon, il popolare sito di ecommerce creato da Jeff Bezos.
Con il servizio EC2 potrete eseguire le vostre pagine sulla nuvola di Amazon, che ha recentemente aperto delle webfarm in Europa ed offre quindi a noi italiani una velocità di risposta sempre maggiore. S3 è adibito alla memorizzazione di dati, utilizzando appunto gli hard disk decentralizzati della nuvola e infine SimpleDB, che permette di utilizzare i database di Amazon per i vostri archivi.
Tutto questo pagando solamente quello che utilizzate e cioè, nella maggior parte dei casi, poche decine di centesimi al giorno.
In un prossimo articolo prenderemo in considerazione le critiche che sono state mosse a questa architettura (la più recente è quella del guru Richard Stallman).___

La lezione di Oilproject che ti suggeriamo oggi è Apple, ovvero la fiction: il ritorno al funzionalismo nel design dell’azienda di Steve Jobs.