Den største computer på jorden
tror internettet er stort? Det er ud over store. Der er flere enheder på internettet, end der er mennesker på jorden.
der er nu mindst to milliarder pc ‘er, en milliard mobiltelefoner plus 4-5 milliarder servere, konsoller, tablets, smart TV’ er og indlejrede enheder, der alle er forbundet med nok kabel til at nå til Månen og tilbage 1.000 gange.
alt det udstyr kunne fylde hvert fodboldstadion i Storbritannien til randen – og det bruger mere elektricitet end hele Japan. Nettet er blevet en enorm, multi-billion-dollar planetarisk maskine; den dyreste og komplekse ting, som mennesker nogensinde har lavet. Og alt ved det vokser.
over 1,5 m smartphones registreres dagligt; 5 gange den menneskelige fødselsrate. CPU ‘er og GPU’ er finder vej ind i alt fra køleskabe til bamser, og Moores lov fortsætter med at holde; computerkraft fortsætter med at fordoble hvert år eller to, hvilket gør dagens bærbare computere hurtigere end gårsdagens supercomputere.
summen af internets hjemmecomputerkraft er næsten uden fantasi. Det er også over 1000 gange større end alle supercomputere på jorden kombineret. Og vi spilder næsten det hele.
sikker på, at alle disse milliarder pc ‘ er, tablets og telefoner “bruges”. En tredjedel af alle pc ‘ er er aldrig slukket. Men selvom vi bruger disse enheder konstant, er den gennemsnitlige CPU-belastning på internettet til enhver tid mindre end 2%. Medmindre videokodning eller afspilning af det nyeste 3D-spil er den typiske PC næsten helt inaktiv. Folk skriver ikke med GTS-hastigheder eller ser feriebilleder ved 60 fps.
da processorer bliver hurtigere og mere talrige, fortsætter forholdet mellem brugt og inaktiv computing med at stige. Næsten alle har mere, end de har brug for – næsten, det vil sige, fordi nogle mennesker aldrig kan få nok; fysikere, biologer, ingeniører, klimatologer, astronomer, kemikere, geologer – stort set alle, der laver grundlæggende forskning.videnskab og industri bruger milliarder på stadig hurtigere supercomputere af denne grund; de er blevet uundværlige for vores moderne livsstil. Biler, fly, medicin, oliebrønde, solceller, selv formen af Pringles chips blev designet af supercomputer. De er de mest nyttige og produktive forskningsværktøjer, der nogensinde er lavet.
men de holder ikke. IBM Roadrunner, verdens hurtigste computer i 2009, blev nedlagt i 2013, fordi den var forældet. Det kostede over $100m, ligesom dens efterfølger. Ejerne, Los Alamos National Lab, kan bruge den samme gulvplads og energi langt mere effektivt med nyt udstyr. Som alle supercomputere var Roadrunners begrænsede holdbarhed uundgåelig. Computere ældes ikke yndefuldt.
summen af internets hjemmecomputerkraft er næsten uden fantasi…
og vi spilder næsten det hele.
kontrast dette med milliarder af ledige CPU ‘ er på internettet, der løbende erstattes af deres ejere. Ødelagte enheder repareres, gamle opgraderes og mere tilføjes konstant. Internettet er unikt blandt maskiner: effektivt selvhelbredende, selvforbedrende og permanent tændt. Dele af det kan tænde og slukke hvert sekund, men betragtes som et enkelt system, har nettet 100% oppetid, og det vil altid gøre.
brug af Internettet som platform har fundet sted i årevis. Berkeley Universitys BOINC-program har gjort det muligt for snesevis af videnskabsprojekter at udnytte over $2 milliarder værd af doneret CPU-tid i løbet af det sidste årti, fra over 6 millioner ledige pc ‘ er. Begrebet frivillig computing er teknisk bevist, det eneste problem er at overtale enhedsejere til at tillade det. I betragtning af at internettet spilder over $500m i ubrugt computing per dag, er det helt sikkert en bestræbelse værd at forfølge.
det er rigtigt, at mange HPC-og cloud-applikationer ikke er egnede til heterogen brug af computere. Lav latenstid er ude af spørgsmålet (selv med den nye 99.7 c hule optiske fiber), og meget hemmelige data vil sandsynligvis aldrig forlade sin ejers bygning uden homomorf kryptering af militær kvalitet. Men der er millioner af opgaver, der passer perfekt; Monte Carlos, parameterfejer, klimamodellering, gengivelse – alt, hvad der ikke har brug for Infiniband, bør ikke stå i kø for HPC og vil med glæde bruge offentlige ressourcer til at få 10 gange-100 gange mere computing til det samme budget.
brug af internettet til beregning tillader også en helt ny klasse af opgaver, der kan vise sig at være de mest interessante – og de mest værdifulde – af alle: dem, der kun kan betjenes af et globalt gitter med millioner af CPU ‘ er, der arbejder sammen. For nogle applikationer vil $100m supercomputere altid være for små.
oprindeligt udgivet på Sammenlign skyen 2 April 2013 af Mark Mcandre.
Leave a Reply