カテゴリー
データセンター省エネ技術

30MW PUE=1.1 データセンター構築

排熱媒体には「フロン」「水」「空気」があり、
ホコリ・湿度を遮断して排熱を行っている。

データセンター電力効率指標PUEは1年間の効率を
示し、システムの瞬間的な性能はpPUEと呼ぶ。

データセンター室温を28℃に上げるなど、排熱温度が
高いほど冷水を作るコンプレッサー稼働時間が少なく
なりPUEは下がる。

未だにデータセンターは「冷やなければ」と思われる
方々が多いが、スマホやカーナビ、そしてサーバーにも
排熱システムは装備されているが、フロンを使う
冷却機は使っていない。

「空気」による排熱

ムンタース社が開発した間接外気冷却システム
オアシスは「空気」を使い排熱するため熱交換機が
1台だけで効率が良い。排熱にて特許技術で熱交換
するため効率が良く、気象条件により排熱が不足する
場合だけ冷水を利用するためPUEが低い。
しかし、巨大な吸排気ダクトが必要であり、敷地が
広大となりデータセンター建設コストが増大する。

データセンター運用において、光回線利用コストは
重要であり土地コストが安い場所での光回線有無が
データセンター建設適地かどうか?を決める。

広大な敷地が必要な間接外気冷却システムが適する
データセンターは光回線が安価に使える場所で
土地コストが、安い場所に限られる。
弊社は東京で12MW級でPUE=1.07を
実現したが、建設コストは高くなった。
また、ムンタース社オアシス部門はMeta社(旧Face
book社)に買収され現況での入手を確認する必要がある。

「フロン」による排熱

広く使われている「フロン」を使うヒートポンプ排熱
システムは、pPUEが高く、室内でのフロンへの熱変換に
膨大な電力を浪費するため、脱炭素化が重要とされる
近年において、データセンターには不向きである。

「水」による排熱

Google社をはじめ、欧州では一般的に「水」を使う
サーバー排気側(ホットアイル側)を工夫し熱交換
効率を上げ、水搬送配管の工夫や省エネポンプを
採用することにより、間接外気冷却システムと変わら
ない省エネを実現できる。

このとき、ホットアイル側空間サイズが広いほどサーバー
排気循環電力を減らすことが出来るが、排熱温度は下がり、
外部付帯設備での熱交換効率低下と、冷水を作る年間時間が
増えPUEは悪化する。

ホットアイル側空間サイズを狭くし、排気温度を上げた
のが冷却リアドア式であり各社から販売されている。
しかしながら、猛烈な風量が必要であったり、冷却ドア開閉による排熱不足など一般的なデータセンターには向いていない。

詳細資料

カテゴリー
省エネ技術

ソフトでデータセンター省エネ

電力を呼吸し省エネするクラウドサーバー群

コンピュータ性能向上は、パラレルとシリアルを交互に繰り返し進化して来ました。

データセンターでの一般的なサーバーは1,000台あれば80%以上800台以上待機し、アクセスを待っている。これをゾンビサーバと呼ぶ。

仮想化技術すると1台の物理サーバーに数台からコンテナなら100コンテナ収容出来、起動も短時間になるが、アプリケーションは遅くなる。

コンテナをパラレルクラスタ化すると1,000×100=100,000仮想サーバーを構築出来、1/100ずつ1,000サーバーをクラスタとして利用すると、IOバンド幅が拡がりデータ処理を高速化出来る。100コンテナ/1台を10台/1組より、1/100を1,000コンテナ/1組が、圧倒的にデータ処理が速い。圧倒的に速いので、同じ処理を行うなら消費電力は相対的に少ないと言える。

さらに、起動時間は0.4秒なので、アクセスが来たときに起動、アクセスが15分以上無ければシャットダウン出来る。電力を呼吸するように、ゾンビサーバーを駆逐して省エネ出来、PUEを限りなく1.0に近づけることが出来る。

1,000台物理サーバーで、1,000クラスタが100組稼働出来るが、高速起動、短時間シャットダウンにより1,000クラスタ利用ユーザー数は時間軸で増えるので、1ユーザー当たりの物理サーバー利用コストは相対的に安価になる。

1ユーザー当たりの設備共有も時分割で増え、1ユーザー当たりの設備コストも減る。

サーバーでの停電対応電池備蓄も減らすことが出来るので、UPSなどの設備コストも下げられる。

1ユーザー当たりの設備共有も時分割で増え、大規模データセンターにおいて、コンテナクラスタ技術は、再生可能エネルギー対応、脱炭素化に必須な技術となった。

Kubernetes(クーベルネイテス、クーバーネイテスと発音)がソフトウエア世界を変えた。

この膨大なコンテナ群にて、ロードバランサを含め管理するジョブコントローラソフトウエアがKubernetesであり、コンテナオーケストラレーションと呼ばれる。

現在のサーバー技術トップベンダーはGoogleであり、最初のクラスタ化データ処理高速化の成果がBigQueryである。BigQueryは1TByteを1秒で検索出来る。米国Yahoo!などがリバースエンジニアリングしてHadoopが作られた。

古くから世界で広く使用されているHTTP サーバーApacheのApacheファウンデーションがHadoopをインメモリ型にアップデートしApache SPARKを開発した。Apache SPARKは巨大なデータに対して高速に分散処理を行うオープンソースのフレームワークである。

インテルCPUだけで動いていたサービスアプリがパラレル、クラスタ化して、インテルCPU単独だけで達成出来なかった高速データ処理を実現している。

スマホ普及が全てを変えた。

iPhoneを初めとするスマートフォンの爆発的な普及により、膨大なアクセスに耐える処理向上が必須となった。

スマホへのサービス強化のため、データセンターでの電力消費が問題になり、仮想化により1台のサーバーに多数のサーバーが稼働させ省エネ化された。仮想化ソフトウエアの代表はXen、有償のVMWareである。しかし、1台のサーバーを分割するので性能は下がる。VMWareで4台が限度であった。

クラウドサービスでは、スパコン同様に台数が増えるだけ性能が上がり、アクセスユーザー数が増えて収益が向上する。

これが、クラウドジャイアントGAFAM、BUTのデータセンターが巨大化する理由である。

クラウドジャイアントは、スケールする技術が高いので、ハイパースケーラとも呼ばれ、大量アクセスを捌いている。

コンテナ技術の歴史

コンテナ技術が開発され、1台に100コンテナをインストール出来るようになる。代表するソフトウエアはDocker、CoreOS。

コンテナは軽量であるので起動が速い。10GbEを使い1,000サーバーを0.4秒で起動できるシステムをGoogleが実現し、検索サービスを提供している。

1,000サーバー起動は0.4秒、10,000サーバーの起動でも60秒以内。しかもアクセスが無いと15分でシャットダウンする。

これらのサーバー群を制御するソフトはGoogle社内でBorgと呼ばれ、OSSとしてKubernetesが2014年登場する。

引用先:https://ascii.jp/elem/000/001/757/1757103/

Kubernetes発表後3ヶ月で採用したのがMicrosoftAzure、2年後AWSも採用、さらに2年後IBMも採用。IBMはRedHatを買収してクラウドサービスに採用。IBMは今後5年間で全てのサービスをコンテナ化するとして、CentOSの開発を停止した。WindowsCore、UbuntsCoreなど組込用に開発された軽量OSもクラスタで使用出来る。

Kubernetesはコンテナオーケストラレーションと呼ばれるようになりデファクトになった。

Kubernetesは、コンテナ制御でデファクトになったので、続々と周辺ソフトウエアが開発され対応している。

軽量OSとして、eBPF(extended Berkley Packet Filter)がWindows10に対応※1。

BumblebeeによってDockerコンテナの標準的な形式、すなわちOCIイメージとしてパッケージング。eBPFのアプリケーションをDockerコンテナと同様にコンテナレジストリに登録することで、eBPFアプリケーションの公開やシェアを簡単に実現※2。

レンタルサーバー構築OpenStackもKubernetesに対応。

ストレージCLOUDIAN※3、PureStorage※4

Zabbix 6.0リリース、ビジネスサービス監視を大幅強化、機械学習による障害検知、Kubernetes監視機能も搭載※5 

Kubernetesは大規模複雑なので、ハイパースケールをサポートするSUSE社Rancherなどもある。

最上位WebフロントソフトウエアにはメジャーなPHP、JavaScriptがすでにクラスタに対応している。

また、Web通信プロトコルHTTP3も5年掛かりで規格化されQUICと呼ばれ、TCP/IPより2倍速いので、相対的に大規模データセンター消費電力は半分になり、GAFAMではほぼ全てに採用され、データセンター省エネを実現している。

※1.

https://www.publickey1.jp/blog/21/windowslinuxlinuxebpfwindows.html
※2.https://www.publickey1.jp/blog/22/ebpfbumblebee.html

※3.スケールアウト型オブジェクトストレージ製品 CLOUDIAN https://cloudian.com/jp/products/

※4Kubernetesで管理するヤフーの次世代IaaS基盤 https://techblog.yahoo.co.jp/entry/2020122430052973/

Pure Storage®(ピュア・ストレージ)とは https://www.purestorage.com/jp/knowledge/what-is-pure-storage.html

※5.https://www.imagazine.co.jp/zabbix-6-0/

カテゴリー
データセンター省エネ技術

10MW PUE=1.1を実現

日立金属チルドタワーHICS-2000R1
PUE=1.1を実現する技術

カテゴリー
データセンター省エネ技術

500KVA データセンター改造

古い1ラック2〜4KVAで暑くて困っているデータセンターを改造


キャッピングによる寒暖分離(ショートサーキット防止)
自動調圧ブラシによる安全なキャッピング(コンティメント)

ラックを減らして高密度化 1ラック12KVA利用率70%

PUE=1.1を実現する日立金属チルドタワー

500KVA電源設備そのまま、ラック型サーバーやGPUサーバも設置可能。
空調電力が半分以下になるので、サーバーは2倍以上設置可能。

省エネ化改造レシピ作成します。
ラック配置計画、キャピング、コールドアイル、ホットアイル、設定温度上昇、温度傾斜、面風速、風量、微差圧測定と制御方法など。
年間何千万円の電気代削減を実現するレシピをご提供。
お見積もり無料。1ヶ月50万円〜。sugi@LXS.jp 杉田 まで。

カテゴリー
省エネ技術

泡で省エネ

  • 古い空調機は新型電子膨張弁を装備した新型空調機に更新しましょう。おおよそ電気代は半分になり数年でコストを回収できます。
  • 古い空調機を更新せずに15%前後省エネする泡発生器α、8年23,000台の実績、大手工場へ100台単位の導入実績多数。
  • 熱交換機効率を10%改善するナノバブル発生器。微細なナノバブルが新しい時代を開きます。

カテゴリー
省エネ技術

データセンター省エネ技術トレンド

  • 省エネデータセンター構築専門。20年に渡る成果をご紹介
カテゴリー
省エネ技術

省エネデータセンター

データセンター省エネ技術をご紹介

LXスタイル sugipoohのページ

古いデータセンターで使われている電算用空調機CRACをキャッピング(コンティメントとも呼ぶ)無しの場合、PUEは3.0に迫る。この15年で進んだ省エネ技術ならば半分以下PUEを1.2以下に出来ます。余った電力設備を使って、高密度実装を可能にします。