Dieci in uno potrebbero andare

A volte la matematica è così semplice che non hai nemmeno bisogno delle dita dei piedi: le dita di entrambe le mani erano abbastanza quando ho trascorso una giornata di recente a chattare con alcuni ragazzi di Intel. Questi tizi volevano che io - e, per estensione, voi miei lettori - capissimo che Itanium, e l'intero concetto di elaborazione a 64 bit, è vivo e vegeto. Avevano portato con sé altri ragazzi che ci hanno detto cosa aspettarci da una piattaforma completa a 64 bit. Sembra che ciò che salverà la gamma di processori Itanium di Intel sia il consolidamento e la virtualizzazione dei server. Salire sul carro del consolidamento produce uno slancio irresistibile verso operazioni sempre più grandi, e sta diventando quasi inevitabile nel settore aziendale. In breve, Intel vuole farci credere che possiamo ottenere un Itanium per fare il lavoro di dieci vecchi server.

Dieci in uno potrebbero andare

Avevano portato con sé molti grafici e diagrammi per supportare questa affermazione, inclusi alcuni numeri di base sull'overclocking. Sembra che la maggior parte delle volte una CPU overcloccata assorba il 100% di potenza in più per fornire solo il 20% di potenza di elaborazione in più. Tuttavia, puoi eseguire l'underclock di una CPU dual-core dello stesso 20% e ottenere comunque il 178% del throughput, perché ci sono due bei core leggeri che condividono il carico di lavoro. Questa è un'ottima notizia per Intel, perché mette i pattini sotto quelle comunità online che vanno in estasi per l'overclocking come hobby/stile di vita. Questo fatto è alla base dell'intera roadmap filosofica di Intel per le macchine Itanium mentre il decennio si svolge; vale a dire, "gli Itanium multicore stanno arrivando".

C'era anche un ragazzo di Microsoft alla riunione che portava più grafici che descrivevano quale software sarebbe stato disponibile per essere eseguito su di loro, e secondo lui si aspettano che l'utilizzo principale delle versioni multicore a 64 bit di Windows Server sia nel server "a otto vie o superiore" mercato. Ciò significa mettere otto di questi Itanium twin-core proposti, o 16 core CPU distinti, in un singolo server box. Questo mi ha fatto venire in mente un flashback, a un piccolo oggetto delle dimensioni di una valigia che un dimostratore IBM ha posizionato su un piedistallo a LotusSphere un paio di anni fa, ma che poi non ha potuto dimostrare perché il centro congressi non era in grado di fornire abbastanza energia trifase per accendere tutti i suoi alimentatori (anche quando funzionava in modalità di interruzione era un asciugacapelli piuttosto efficace). La scala delle operazioni di supporto necessarie per essere in grado di far fronte a scatole contenenti quel tipo di densità di processore sarà piuttosto maggiore, sospetto, di quanto la maggior parte di noi è abituata a pagare.

Con quella classe di server in mente, non c'è da meravigliarsi che sia i ragazzi di Intel che quelli di Microsoft credano che ci si possa aspettare un vantaggio dal consolidamento dei server sarà una riduzione di dieci a uno del numero complessivo di server di cui un'azienda ha bisogno distribuire. Questo è un piccolo numero divertente: per prima cosa, non molto tempo fa Microsoft citava uno su dieci come il rapporto tra server e numero medio di utenti in ogni tipo di attività. Ora, improvvisamente, siamo in grado di optare nuovamente per la compressione dello stesso fattore, risparmiando spazio acquistando scatole sempre più pesanti di hardware del server. Ma non commettere errori, anche questo è un numero attraente. La sala server più grande che abbia mai frequentato aveva 13 corridoi, con circa 20 armadi montati su rack alti 6 piedi per corridoio. Se quel fattore di consolidamento fosse davvero realizzabile, quei ragazzi potrebbero ridurre, tenendo conto della normale manutenzione abbandono e qualche guadagno in più giocherellando con la virtualizzazione dei sistemi live e di test, fino a un solo sistema a due corsie operazione.

Tuttavia, qui è dove entra in gioco la matematica del contare sulle dita. Posso immaginare alcune situazioni in cui quel fattore dieci a uno potrebbe rivelarsi una stima leggera. Le grandi aziende sono da tempo famose per l'acquisto dei server di fascia alta per supportare la loro abitudine annuale di inflazione del budget, ma poi si tirano indietro nell'attrezzarli con più di un processore perché i loro standard tecnici interni non sono mai stati rivisti dai tempi in cui il funzionamento multiprocessore era una novità (e occasionalmente pericolosa) concetto. Sento che molti addetti alla progettazione di sistemi e alle vendite di server si fanno una bella risata su Crazy Notion di Cassidy su questo argomento, ma esorto tutti a dare un'occhiata ai server messi in vendita su Ebay e a focalizzare la loro attenzione in particolare sui server chiaramente ex aziendali macchine. Quanti vedono che in realtà non hanno spazio per più processori, rispetto a quelli che sono stati eseguiti per mezzo decennio con solo un quarto dei loro potenziali slot per processori occupati?