Il più grande computer sulla Terra
Pensi che Internet è grande? E ‘ troppo grande. Ci sono più dispositivi su Internet che persone sulla Terra.
Ora ci sono almeno due miliardi di PC, un miliardo di telefoni cellulari più 4-5 miliardi di server, console, tablet, smart TV e dispositivi embedded tutti uniti insieme da abbastanza cavo per raggiungere la Luna e ritorno 1.000 volte.
Tutto ciò che l’hardware potrebbe riempire ogni stadio di calcio in Gran Bretagna fino all’orlo – e utilizza più elettricità di tutto il Giappone. La rete è diventata una vasta, multi-trilioni di dollari macchina planetaria; la cosa più costosa e complessa che gli esseri umani hanno mai fatto. E tutto sta crescendo.
Oltre 1.5 m smartphone sono registrati ogni giorno; 5x il tasso di natalità umana. CPU e GPU stanno trovando la loro strada in tutto, dai frigoriferi agli orsacchiotti e la legge di Moore continua a tenere; la potenza di calcolo continua a raddoppiare ogni anno o due, rendendo i laptop di oggi più veloci dei supercomputer di ieri.
La somma totale della potenza di calcolo domestica di Internet è quasi oltre ogni immaginazione. È anche oltre 1000 volte più grande di tutti i supercomputer sulla Terra messi insieme. E stiamo sprecando quasi tutto.
Certo, tutti quei miliardi di PC, tablet e telefoni sono “in uso”. Un terzo di tutti i PC non viene mai spento. Ma anche se stiamo utilizzando questi dispositivi costantemente, in un dato momento il carico medio della CPU su Internet è inferiore al 2%. A meno che il video-codifica o giocare l’ultimo gioco 3D, il PC tipico è quasi completamente inattivo. Le persone non digitano a velocità GHz o visualizzano le foto delle vacanze a 60 fps.
Mentre i processori continuano a diventare più veloci e più numerosi, il rapporto tra calcolo usato e inattivo continua ad aumentare. Quasi tutti hanno più del necessario-quasi, cioè, perché alcune persone non possono mai avere abbastanza; fisici, biologi, ingegneri, climatologi, astronomi, chimici, geologi – praticamente chiunque faccia ricerca fondamentale.
La scienza e l’industria spendono miliardi in supercomputer sempre più veloci per questo motivo; sono diventati indispensabili per il nostro stile di vita moderno. Automobili, aerei, medicine, pozzi di petrolio, celle solari, anche la forma di patatine Pringles è stato progettato da supercomputer. Sono gli strumenti di ricerca più utili e produttivi mai realizzati.
Ma non durano. L’IBM Roadrunner, il computer più veloce del mondo nel 2009, è stato dismesso nel 2013 perché era obsoleto. E ‘ costato oltre $100m, come sarà il suo successore. I proprietari, Los Alamos National Lab, possono utilizzare lo stesso spazio ed energia in modo molto più efficiente con il nuovo hardware. Come tutti i supercomputer, però, la durata limitata di Roadrunner era inevitabile. I computer non invecchiano con grazia.
La somma totale della potenza di calcolo domestica di Internet è quasi oltre ogni immaginazione E stiamo sprecando quasi tutto.
Questo contrasto con miliardi di CPU inattive su Internet che vengono continuamente sostituiti dai loro proprietari. I dispositivi rotti vengono riparati, quelli vecchi aggiornati e altri vengono costantemente aggiunti. Internet è unico tra le macchine: efficace auto-guarigione, auto-miglioramento e permanentemente acceso. Parti di esso possono accendersi e spegnersi ogni secondo ma, considerato come un singolo sistema, la rete ha il 100% di uptime e lo farà sempre.
L’utilizzo di Internet come piattaforma sta accadendo da anni. Il software BOINC dell’Università di Berkeley ha permesso a dozzine di progetti scientifici di sfruttare oltre time 2 miliardi di tempo di CPU donato nell’ultimo decennio, da oltre 6 milioni di PC inattivi. Il concetto di calcolo volontario è tecnicamente dimostrato, l’unico problema è persuadere i proprietari di dispositivi a consentirlo. Considerando che Internet sta sprecando oltre $500m nel calcolo inutilizzato al giorno, è certamente uno sforzo vale la pena perseguire.
È vero che molte applicazioni HPC e cloud non sono adatte per il calcolo WAN eterogeneo. La bassa latenza è fuori questione (anche con quella nuova fibra ottica cava 99.7 c) e è improbabile che i dati altamente segreti lascino mai l’edificio del proprietario senza crittografia omomorfica di livello militare. Ma ci sono milioni di compiti che sono perfettamente adatti; Monte Carlos, parameter sweeps, climate modelling, rendering – tutto ciò che non ha bisogno di Infiniband, non dovrebbe essere in coda per HPC e utilizzerà felicemente le risorse pubbliche per ottenere 10x-100x in più di calcolo per lo stesso budget.
L’uso di Internet per calcolare consente anche una nuova classe di compiti che potrebbero rivelarsi i più interessanti – e i più preziosi – di tutti: quelli che possono essere serviti solo da una griglia globale di milioni di CPU che lavorano insieme. Per alcune applicazioni, superc 100m supercomputer sarà sempre troppo piccolo.
Originariamente pubblicato su Confronta il cloud 2 aprile 2013 da Mark McAndrew.
Leave a Reply