Facebook DC仕様を読みながらツッコミ

Facebookの新しいデーターセンターは、「Open Compute Project」の考え
にもとづき、設計データやたくさんの写真が公開されています。
AgileCatさんが詳しくご紹介なさっているので、ご参照ください。
Agile Cat — in the cloud with openness Facebook 
– 対訳 – Building Efficient Data Centers with the Open Compute Project 
http://agilecat.wordpress.com/2011/04/08/facebook-%E5%AF%BE%E8%A8%B3-building-efficient-data-centers-with-the-open-compute-project-cloud-facebookjp-cbajp/ 
Facebook – Oregon データセンターの写真が一挙公開 http://agilecat.wordpress.com/2011/04/08/facebook-%E5%AF%BE%E8%A8%B3-building-efficient-data-centers-with-the-open-compute-project-cloud-facebookjp-cbajp/ 

5月6日に「Facebook データセンター仕様を読みながらツッコミを
入れる会」を京都産業大学安田先生と行いました。40人近く お集まりい
ただき 大変ありがとうございました。

私が疑問に思ったことをInterlop展示会でも、ご説明しました。
1.排気側構造は?
「外気導入型データセンター」では、気流の流れが大事なのですが、排気側の
構造が公開されていない。
下記写真では 3ラックをひとまとめにして軽量化を図りながら強度を上げる
ような良い提案が出ています。しかし、1ラック30台、1台のサーバには
電源ファンを含んで5ヶ搭載されているので、6ラックで合計900ヶのファン
が搭載されています。1.5U高さなので 大きなファンが使えて静圧も大きいと
思えますが、排気側構造が悪いとサーバは冷えないように思われます。
仕様書にファン風量が規定されているのかな?誰か教えて(m_m)
.
2.ヒートシャッターが徹底されていない?
Googleと同様なお皿サーバは、VCCI(ノイズ対策規格)に対応出来ないので、
一般に販売できません。NECより 40℃対応サーバが出てきましたが、
お皿サーバではありません。
3.特許
Open Compute Projectは、特許に関して責任を持てないような記述があり、
Facebook以外の会社が所有する特許を使っていても関知しないような
記述があります。
4.電源とマザー
UPS機構をもった電源ユニットで特別なコネクタで直結している。先日の
ComputexTaipeiで、Facebookコネクタを付けたマザーボードや電源は
皆無だったので、この電源は簡単に入手できないように思えます。
マザーは特殊でも、1000枚注文すれば たいてい作ってもらえるので
問題になりませんが、電源の特注は通常1万台を越えますので、一般的には
入手できません。電池を接続出来るようになっているので、なおさら簡単
では無いです。電池接続ケーブルのインピーダンス設定がおかしいようにも
思える。
5.空気線図
オレゴンの環境分析に使っている。これについては後日ブログに記載。

 

Interlop展示説明(2)

 

 

 

 

 

「外気導入型省電力データセンター」は、室内管理温度を上げて
「冷凍エアコン稼働時間」を減らすことにより省電力を実現します。
40℃対応サーバであれば、冷凍エアコンも不要となるので、建設費の
約半分を占める「冷凍エアコン」を購入しなくて良いので建設費が
半分以下になります。

大きな部屋に小さな小屋を作るだけの構造なので完成まで数カ月です。
「冷凍エアコン」を使わないので PUE=1.1以下となり、PUE=2.0
以上のデータセンターに比べると運用電力費も半分になります。
1ラック6KVA~8KVA 3ラック構成が基本です。
最新の2Uサイズ Xeon5600シリーズが2CPU搭載されたサーバは
約0.25KVAとして 18台で4.5KVA  3ラックで 54台
CPU数で108CPU 仮想環境でご使用ならば 1CPU 8Core として
864Coreとなります。

たった3ラックで、企業情報システムさまがご利用になる大半を収納できます。
設置場所検討から設置、運用開始後のコンサルタントを含んで 環境コント
ローラなども販売できます。資料お送りします。下記までお問い合わせください。

㈱LXスタイル 杉田  sugi@LXS.jp

 

 

Computexで見かけたGPUサーバ

ComputexTaipei での報告。

サーバ各社はGPUサーバに注力している。
2UでGPGPUを4基も載せられるサーバや、4Uで8基も載せられるサーバが
展示されていました。

 

 

 

 

 

 

 

 

 

 

 

4U機は販売実績があるようで稼働していました。
4Uで3KVAも必要な電力的にすごいサーバです。
最新のTesla M2090だと 512 CUDAコアなので 1台で4096CUDAコアという
すごいサーバです。
しかしながらこのようなサーバを通常のデータセンターに設置しようとすると
1ラック3台しか搭載できず、48サーバで16ラックも必要となり冷凍エアコンを6台から
10台設置することになるので、運用費が高くなります。

弊社の空冷DCなら 2部屋で48サーバを搭載でき空冷出来ます。

※注:空冷DC設置場所に制限があります。

会社や研究所の片隅に約20万CUDAコアのスパコンを設置できます。

 

 

 

 

部屋幅 約6m

1ラック 3KVA×8=24KVA
6ラック 24KVA×6=144KVA
通常の魔法瓶型データセンターだと、1台3000万円の冷凍エアコンが
6台以上必要となり、ラックを取り巻くことになります。
スパコン購入費は 5000万円以下なのに 冷凍エアコン購入費は2億円以上
となり 電気料金も毎月約2倍払うことになります。

 

 

 

 

 

奥行き 約8m以上

※注:空冷DC設置場所に制限があります。
空冷DCは、これからのスパコン普及で必須な技術です。

 

NEC40℃対応サーバーとストレージ

NECから、昨年発売予定だった40℃対応サーバが発売されました。

http://www.nec.co.jp/press/ja/1106/0601.html

 

 

 

 

 

 

 

「外気導入型省電力データセンター」は、室内管理温度を上げて
「冷凍エアコン稼働時間」を減らすことにより省電力を実現します。
30年前に設計された「室温25℃」は、すでに電子パーツの進化により
幻想であるにも関わらず一般的なデータセンター設計基準になってます。
カーナビは最悪100℃環境でも動作します。同じ技術でサーバを作れば
40℃対応サーバは容易に実現できます。

弊社では、レンタルサーバ用特注サーバを多くデザインしてきた経験を
元に40℃対応サーバ設計を支援し「外気導入型省電力データセンター」
での「冷凍エアコン無し」構造を実現しました。

アームズ社 Fujimi-III-TS

 

 

 

 

 

Fujimi-IIIーTSは、様々なmini-ITXマザーボードに対応し、1ラック60
ブレードまで実装できます。

「外気導入型データセンター」は、20年も前にIBM社が各地で導入
しています。

 

 

 

 

 

 

サーバの給気側と排気側を分離する「ヒートシャッター」は、多くの
データセンターで実施され20%以上の省電力を実現されています。

 

 

 

 

 

 

Google社は、5年前から「データーセンター室温を上げるべきだ」と
アナウンスしてきました。
NECが世界初ストレージまで40℃対応した製品まで販売したことは
社会問題化してきているデータセンターでの省電力化が加速されると
思われます。

弊社では、8年前から「PUE=1.3を実現した経験」や、「外気導入型データ
センター冷凍機無し」を3カ所も設計支援した省電力データーセンターの
構築支援を行っております。
古くJQA安全対策実施認定取得やISMSバージョン0.8から関わってきた
セキュリティ対策にも対応したデータセンター設計を支援いたします。

強固な建物で電源に余裕があれば半年で「外気導入型省電力データセンター」
が構築できます。バックアップセンターを低コストで構築したい企業さまに
最適です。

Interlop展示説明

幕張メッセ Interlop2011 ベンチャーパビリオン LXスタイルへお越しいただきました

皆様ありがとうございました。

小さなポスターを2枚掲示しただけの出展でした。
特許も出願し、初めて公の場所で詳細をご説明しました。

 

 

 

 

 

 

 

 

 

 

展示内容がわかりにくとの指摘から、2枚目のポスターを外して、
「冷えるんです!」

 

 

 

 

 

 

 

当初エアコン不要と書いていたら、空調会社の方からご指摘いただき
「冷凍エアコン不要」と書き直しました。
NECから昨年9月発売予定だった、40℃対応サーバー群や世界発となる
40℃対応ストレージが6月6日に発表され、同じ会場でも紹介されて
いましたので、説明はやりやすかったです。

既に3カ所で「外気導入型冷凍エアコン無しデータセンター」建設に従事し、
最新事例などをご紹介しました。
今後、さくらインターネットの石狩センターなども本年中には稼働が始まります。
大幅な省電力を実現する「外気導入型エアコン無しデータセンター」は、これから
普及してくると思います。