Macmini Serverとヒートシャッタ

Macmini Serverを使って高密度実装して
ヒットシャッタを考察します。

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

コロケーションサービスとして 回線費用なども含むので
$35 は適正だと思われます。

ヒートシャッターを設定して省電力化を設計します。

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

こんな簡単なヒートシャッターでも大きな省電力化に
なります。
さらなる省電力化を考察します。
1台のMacmini Serverはどれだけの風量が
必要なんでしょうか?

 

 

 

 

 

 

 

 

 

 

 

 

15CFMの風を流せば冷却出来ます。
156台を1ラック両面実装すると
2,340CFM流せば156台を冷却出来ます。

 

 

 
もっと積めないかなぁ〜〜
(^0^)

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Macmini Serverの上下でヒートシャッターすれば
240台を3,600CFM の風量を流せば冷却出来ます。
50cmクラスの大型軸流ファン1台(200W以下)で
240台を冷却できます。

3ラック720台構成でも たった600Wで冷却出来ます。

 

 

 

 

 

 

 
PUEは1.1以下となり 大幅な省電力化が実現出来ます。

4ブースで構成すれば2,880台 立派で飛び切り省電力な
Macmini Serverデータセンターを作れます。

 

 

焼き芋が出来るデータセンター

新年早々、友人とシリコンバレーにある太陽電池と
燃料電池だけでデータセンターなどを運用している
会社の話をしていた。
この会社は10PTBの青焼き建築図面のデータを預かり
あの広い米国で1時間以内に建築図面を届けるサービ
スを行なっている。
発電で余った電気は電力会社に販売している。

 

 

 

 

 

 

ところが、友人は日本にもっとスゴイ所があると
連れていってくれた。
大阪北部小高い丘の上、大阪平野が見渡せる
XXサイエンスヒルズの一角。
(データセンターなので場所は詳しくは言えない)

太陽電池は、このスーパー銭湯の屋上。
なんと ここのお湯は燃料電池で発電して出来る
お湯だそうだ。

 

 

 

 

 

 

そして、これが 焼き芋が出来るデータセンター

 

 

 

 

 

 

 

セキュリティを守るため「偽装」しているらしい、、

中を見せてもらうと
2Uサーバがぎっしり4ラックに64台も載っている。
1台1500Wとすると、このコンテナだけで100KVAもある。
なるほど 先ほどの大きな太陽電池設備が必要な理由が
わかる。

サーバの中を見せてもらった。
お!サーバにバッテリが内蔵されている。
観たこともないCPUが一枚の基板に4つも載っている。
聞くと1CPU512Core 4つで2048Coreだと!
このコンテナだけで13万Coreもあるじゃないか!!
メモリは1台2TB、ストレージは2TB SSDを24台 48TB
このコンテナだけで メモリ128TB ストレージ3PB。

 

 

 

 

 

サーバが発熱する熱を集めて「焼き芋」が出来るそうだ。
見知らぬ熱交換装置が装備されていた。
電力契約不要な画期的なデータセンター設備で、焼き芋を
焼いて、運用人員の食料まで生産するのか!


で、目があきました。2012年初夢でした。(^0^)

 

まだデータセンターを冷やしているのか?by Intel

Intelの広告ビデオ。ここまでやらないと、
データセンターは冷やさなくても
良いという事が周知出来ないでしょうね。

http://www.intel.com/content/www/us/en/data-center-efficiency/high-ambient-video.html

 

 

これが「新技術」と言うのは、ちょっと無理があるかと。

「インテルの新技術:データセンター室温、38度以上でもサーバー大丈夫 」
http://www.bloomberg.co.jp/news/123-LW4N7G07SXKX01.html

Fcaebookデータセンター解剖

Facebook オレゴンの外気導入だけのデーターセンター
Open Compute Project として公開されている資料から
構造をご紹介します。

なにしろ広いのが特徴

Bloombergで紹介された内部

Open Compute Project
データセンターにオープンソフトの考え方を導入しようと
提案されています。
サーバなども詳細が公開されています。

ドキュメントが公開されています。

この資料に記載されていることを利用することによる
免責が書いてあります。

Google翻訳では、このように読めます。

冷却フロー図

2階から外気を導入し、1階に送ります。
サーバ排熱は中2階から2階排気室へ送ります。

外気導入室、外気導入通路と呼ぶのがふさわしいぐらい。

ミストシャワー、エアーフィルターと押しこみファン

押しこみファンは中心部から吸い込む大型シロッコファン

押しこみファンからのエアーは開口部から一階に送られます。

1階通路とラック
ラックはしっかりキャッピングされていて、サーバ排気が
通路に逆流しない構造になっている。
中2階がホットな空間。

排気用大型ファンが多数設置されています。

ファンやミストシャワーの制御
外部気候環境を7つの状況に分けて制御している。
外部気温10℃であれば 外気は少しだけしか導入せず、
ミストで加湿して、ゆっくり排気している。
分け方は空気線図をAからGで分けている。

AからGまで それぞれに どのように制御するか?
ドキュメントに記載されています。

空気線図については KANAYMAさん作 Excelマクロで
簡単に計算結果が利用できるフリーソフトが公開されています。

サーバも外気導入用に設計されています。
1.5Uサイズは、1Uサイズに比べると、しっかり風量を確保でき、
1ラック積載30台として、ラック耐荷重、搭載密度でバランスが
取れています。

ラック耐荷重を強化しコストアップにならないように、3台を連結
して使っています。

6ラック180台搭載した写真
外気導入型データセンターでは、従来からの密閉型(魔法瓶型)と
比べ高密度にサーバを積載できます。
大事なことは、これらサーバに搭載されているファンがサーバ設計
に合致した風量を供給することです。

Ver2として 新型サーバが発表されています。
6ラックで360台搭載出来ます。
レンタルサーバ向けサーバを10機種以上デザイン、製造してきた
LXスタイルでも 同様なサーバを設計しています。

バッテリシステムも公開されています。
各サーバ搭載電源に通常AC220VとバッテリからのDC48Vを
供給します。バッテリはラック半分ぐらいのサイズで分散配置
サーバは同様なものが設計できても、この電源は初期開発コストが
高くオープンな技術とは言いにくい。
この電源のサンプルも購入できない。
日本では ニプロンがDC24Vで ノンストップ電源として販売され
多数実績があります。
(さくらインターネット石狩が採用したHVDCの方が効率は良い)

Open Compute Projectに賛同する会社が増えてきました。
オープンソフトは バグ取りをユーザーに任せることで開発者、
ユーザーともにメリットがありますが、ハードウエア それも
データセンターのように巨大なシステムで バグが見つかって
そのときに発生する費用はどうするんでしょうか?
Open Compute Project の動向は これからのインターネットに
大きく影響を与えそうです。

http://itpro.nikkeibp.co.jp/article/NEWS/20111028/371609/?k3

外気導入用40℃以上対応サーバ

2011年6月6日に、40℃以上対応サーバのATOM搭載機しか無かったNECから
一般的なXeon1U機とかストレージまでが出てきました。
それまでのオリジナルサーバしか無かった状況が改善されました。
そのあと、DELL、東芝や IPコア研究所などから 出てきました。

40℃以上対応サーバを採用して、25℃室温を28℃から30℃に上げるだけでも 
大幅にデータセンターを省電力化できます。









サーバー電気代計算

Googleの稼働実サーバー台数が90万台とかニュースがあったので
暗算でケタまちがしていたので計算し直してみました。
消費電力100wのサーバを24時間連続で運用すると1ヶ月720円。
1ヶ月500円以下のレンタルサーバの方が運用コストは安いです。

 

 

 

 

都心ビルなどでの電気代は、受電設備の償却費を含みますので
1ヶ月22円で計算すると 100wサーバーで 1,584円。

日本の電力会社ルールでは、大口ユーザーで特別高圧設備など
を設備すると値引きしてくれます。
Googleは、もっと安く電力を買っていると思いますが、1KWh=
10円として、200Wサーバーを90万台運用とすると約13億円
年間で約156億円です。

 

 

 

 

======

東京都内データセンターでは、合計で10万台は超えていると思われ
ます。いろいろな意見がありますが、PUE=2.0とすると無駄な空調
電力で1ヶ月数十億円浪費しているかと考えます。
こんな事を許しているのは、おかしいですね。
Googleのような水冷コンテナや特別な空調機を持たないデータセン
ターに改築しなくても、外気導入すると20%から40%無駄な空調
電力を削減できます。