フリークーリング

効率の良い冷却システムはこれからのデーターセンターには必須ですが、資源の
少ない日本なのにまだまだハコモノでビジネスする人たちには理解できないようです。
海外の事例をご紹介なさっているブログがあるのでご紹介します。

[#DataCenter #データセンタ] フリークーリングを採用したデータセンタが増加

この記事で注意しないといけないのは、「まだサーバーは涼しい環境で無いと動作
しない」という過去の経験です。40℃以上で動作保障しているサーバーも売られて
いる時代にどうして無駄に冷却するのでしょうか?
サーバーの故障原因を追及してゆくと ハードディスクと電源が多いことは良く知ら
れています。しかし、どうしてその2つが多いのか?議論されていることは少ないように
思います。

まじめに作ったNECのブレードサーバーが、価格優先でサーバースペックの電源を
搭載していないメーカーに価格が高いと評価されていましたが、価格優先のサーバー
の故障率が多いことは最近良く知られています。
”NEC製ブレードサーバーの故障率の少なさ”はすごかったです。
しかしながら NECのブレードサーバーの構造を調べてみると30年以上まえに設定
されたデーターセンターの規格(銀行系規格 JQA安対)にはブレードサーバーの
ような高密度サーバーを想定していないことがわかり、8年前ブレードサーバー専用データーセンターを設計しました。

30年前と現在で大きな違いは、コンデンサの対温度特性です。
30年前のコンピュータは自動車の中では動かないでしょう。現在はカーナビを始め
携帯電話など冷却した部屋でコンピュータは動作しなくても良い時代になっています。
現状のデーターセンターは自動車の中でカーナビを使いたいからと大きな空調機を
搭載しているようなものです。

空調機を必要としないデーターセンターを東京で作り始めています。パイロットプラントは昨年7月から稼働、今年の冬も超えました。PUEは1.1以下です。「フリークーリング」と
言ってもいいのかも知れません。
東京都がデーターセンターのPUEを1.5以下に規制する条例を作ろうとしていますが、
実現は簡単なことなので反対する人たちはインターネット業界の行く末を考えていない
人たちだろうと思います。
空調機を必要としないデーターセンターでは、当然いろいろな制約があります。ですが、ちょっとした工夫でクリアできます。200ラックぐらいのデーターセンターで空調機を無く
すと1/3のコスト(おおよそ5億円)が削減できます。その分サーバーを買えば低コスト
なインターネットサービスを提供できます。
少しの努力で 大幅な電力削減が可能なデーターセンターは作れます。ハコモノを作る
人たちがサーバーのことを知らないだけで、これ以上ランニングコストの高いデーター
センターを資源の少ない日本に作っても10年も経過しないうちにインターネットに適さ
ないデーターセンターになるだけです。建物は30年償却が多いでしょうから投資なさ
る方々にとっては大変なことです。

ブレードサーバーの冷却でもうひとつ。
IBMがブレードサーバーの宣伝で大きな白い部屋にあった数々のサーバーが一つ
のラックに入るという有名なTV-CMがありましたが、非常に巧妙な広告で サーバー群
は確かにラック1台に収まりますが、「必要とする部屋の大きさは同じ!」
つまり冷却するのに 部屋の広さは変わらないという、日本にはマッチしない広告でした。