サーバーの性能と電力消費は、時間の経過とともに増加しています。サーバーが消費する電力に今日利用しているサーバーの数を掛けてみると、電力消費が、多くの企業にとってかなりの支出となっていることがわかります。サーバーで主に電力を消費するのは、プロセッサとメモリです。サーバーのプロセッサは、電力消費の上限を設定して消費を抑制しています。しかし、サーバーで使用されるメモリの量は増加しており、その増加のため、メモリが消費する電力が増えています。その上、今日の電源装置は非常に非能率的であり、コンセントで、また交流電源を直流に変換するときに電力が浪費されます。また、サーバーが運転中にはシャーシ全体が熱くなります。コンポーネントを安全な運転温度に維持するため、冷却が必要ですが、冷却もさらに電力を必要とします。この記事では、サーバーが電力を消費する様子、電力使用量を推定する方法、冷却の仕組み、および他の関連するトピックについて説明します。
サーバーの電力使用
データセンターの規模やサーバーの数が増えるにつれて、消費される電力の総量も増えてきました。サーバーが使用する電力は、2000年と2005年の間に、120億キロワット時から230億キロワット時へと倍増しています。これは、データセンターに設置されるサーバーの数の増加、および必要な冷却装置とインフラストラクチャのためです (Koomey 2008)。
各サーバーが消費する電力は、時間の経過とともに増加しています。2000年より前は、サーバーは平均して約50ワットの電力を使用していました。2008年には、消費電力は平均して250ワットになっています。より多くのデータセンターが、より高密度のサーバーフォームファクタに切り替えるにつれて、電力消費の増加はさらに加速しています。アナリストの予測によれば、現在の傾向が緩和されない場合、サーバーを運用するための電力は、サーバーの価格以上になるそうです。
これらの傾向のために、サーバーがどのように電力を消費するかを理解することは重要です。サーバーを交換またはアップグレードするとき、省エネ面での改善を指示することができるからです。
電力とサーバーのフォームファクタ
電力の消費は、サーバーのフォームファクタにより異なります。x86サーバー市場には、サーバーの基本的なフォームファクタが4つあります:
- ペデスタルサーバー
- 2Uサーバーラックサーバー
- 1Uラックサーバー
- ブレードサーバー
床面積が制限され、コンピューティング性能の向上が目的である場合、多くのデータセンターは、ペデスタルサーバーではなく、ラックサーバーまたはブレードサーバーを利用します。
サーバーやルーターなど、多くのデータセンター・インフラストラクチャデバイスは、幅が19インチのスチールラックに取り付けるようになっています。ラックサーバーの場合、サーバーの高さはUの倍数で表され、1Uは1.75インチに相当します。このUの値でフォームファクタを識別します。1Uおよび2Uのサーバーが、一般的です。電力の消費は、個々の構成やその構成と関係する発熱と熱環境、処理される作業量のため、サーバーフォームファクタによって異なります。
電力と発熱
コンピュータに入る電気エネルギーの多くは、熱に変わります。集積回路が発生させる熱の量は、コンポーネントのデザインの効率やその製造プロセスで使われる技術、回路が作動する周波数と電圧の関数です。サーバーから、またはサーバーが詰め込まれたデータセンターから熱を取り除くには、エネルギーが必要です。
メモリサブシステムや電源装置のようなコンピュータサブシステム、そして特に大型のサーバーコンポーネントは、運転中に莫大な量の熱を発します。コンポーネントをその安全運転温度内に維持するため、この熱を逃がす必要があります。一般に、過熱した部品は、寿命が短くなります。コンポーネントの寿命が短くなると、散発的な問題やシステムのフリーズ、さらにはシステムのクラッシュの原因となる場合があります。
サーバーコンポーネントの発熱の他にも、サーバーの部品が、指定されたものよりも高い電圧や周波数で実行されると、さらなる冷却が必要となります。これはオーバークロックと呼ばれます。サーバーをオーバークロックすると、性能は向上しますが、同時に発熱量も増えます。
冷却の仕組み
サーバーメーカーは、コンポーネントを冷却するのに、複数の方法を使います。一般的な2つの方法は、熱を放散する表面積を増やすため、ヒートシンクを使用する方法と、コンポーネントによって温度が高くなった空気の、温度のより低い周囲の空気との入れ替えを促進するため、ファンを使用する方法です。場合によっては、ソフト冷却が選択肢になる場合もあります。コンピュータのコンポーネントを調節して、発熱を減らすことができるのです。
ヒートシンクは、冷却するコンポーネントとの十分な熱的接触を確保するため、1つ以上の平面(つまりベース)および並んだ櫛やフィン状の突起部分を持つ、金属構造から構成されます。フィン部分は、図1が示すように、空気に接する表面積を増やし、熱の放散を加速します。ヒートシンク上の気流を加速するために、ヒートシンクは、ファンと組み合わせてしばしば使われます。ファンは、暖められた空気を冷えた空気と対流させるだけよりも速く置き換えることにより、温度こう配を大きくします。ファンは強制空冷システムを作るために使用されます。コンポーネントを冷却するための空気の移動量は、対流による流れよりはるかに大きくなります。
図1-自然対流ヒートシンク (出典: Wikipedia、2008年)
ヒートシンクの性能は、接合部からコンポーネントのケースへの熱抵抗として定義されます。単位は℃/Wです。定格が10℃/Wのヒートシンクは、1ワットの熱を放散するとき、周囲の空気の温度は10℃高くなります。したがって、C/W値が低いヒートシンクは、C/W値が高いヒートシンクより効率的です。
高品質のヒートシンクは、追加冷却コンポーネントの必要が最小限になる程度まで、熱エネルギーを放散できます。ヒートシンクの伝熱能力は、次の項目によって決まります:
- 対流またはフィンの面積。フィンが多いほど、対流面積が大きくなります。しかし、ファンをフィン付きヒートシンクと使用する場合には注意しなければなりません。強制空冷方式では、気圧の低下が大きくなるからです。
- 従来のファン付きCPUクーラーの欠点は、シャーシカバーの気流の妨害とヒートシンク自体のフィンに起因する、気圧の低下による気流の低下です。
- ファンの性能は、圧力低下が0での立方フィート/分(CFM)で評価されます。また、その性能は、ファンの吸気側または排気側での非常に小さな気流の妨害だけで、大きく損なわれます。
- フィン当たりの伝導面積。フィンは厚いほど、薄いフィンに比べて熱伝導は良くなります。
- 最もエネルギー効率が良いヒートシンクのデザインは、多くの薄いフィンと少ない厚いフィンでバランスを取ったデザインです。
- ヒートシンクのベースの広がり。フィンが効果的に機能するには、ベースで熱ができるだけ均一に広がる必要があります。ベースが厚い方が、熱を広げるのに適しています。
- ただし、サーバーフォームファクタは、ラックに設置するために特定の高さに制限されるので、ベースが厚いとフィンの高さは低くなり、フィンの面積が減って、気圧の低下が大きくなります。
電力消費は、サーバーフォームファクタのタイプによって異なり、処理する作業量よっても異なる場合があります。作業量は、サーバーの処理性能の向上により、すべてのサーバータイプで増加しており、したがってサーバーでの電力消費を増加させる別の傾向が生じています。
表1のサーバーフォームファクタ別の電力増加の例を示しています。3つのクラスのサーバーが、IDCによって定義されています。
- ボリュームサーバーは、価格が25,000ドル未満で、1Uまたは2Uラックマウントフォームファクタに通常1つまたは2つのプロセッサソケットを備えている。
- ミッドレンジサーバーは、価格が25,000ドルから499,999ドルで、通常は2~4つまたはそれ以上のプロセッサソケットを備えている。
- ハイエンドサーバーは、価格が500,000ドル以上で、通常8つ以上のプロセッサソケットを備えている。
表1-2000~2006年のサーバークラス別サーバー1台当たりの推定平均消費電力(W) (出典: Koomey J 2007b Estimating Total Power Consumption by Servers in the US and the World. Oakland, CA: Analytics Press)
ペデスタルサーバーは、幅が様々で、性能とサーバーの冷却を最適化するように設計されています。これらのシステムはスペースが制限されないので、大型のヒートシンクや複数のファン、大きな空冷システムを備えています。
ラックサーバーとブレードサーバーは、標準化された19インチマウントラックに収まるように設計されています。ラックサーバーの構造と、空気口やファンの高さの制限のため、作動するとより熱くなり、冷却インフラストラクチャのためにデータセンターではより多くの電力を必要とします。2Uサーバーは、ペデスタルサーバーよりは熱くなりますが、1Uサーバーやブレードサーバーよりは温度が低くなります。
2Uサーバーは、高さが3.5インチあり、より大きなヒートシンクに加えて、より多くの大きなファンを使用できます。このため、冷却性能により優れ、1Uサーバーより電力消費が少なくなります。ほとんどのサーバーは、ケースの前面下部から温度が低く新鮮な空気を吸い込み、背面上部から暖かい空気を排出するように設計されています。
通常、ラックサーバーの構造では、ディスクドライブのような顧客に望ましい機能を前部に配置し、サーバープロセッサやメモリのような発熱が多いコンポーネントを後部に追いやっています。ラックサーバーでは、メーカーは、バランスが取れたまたは偏らない気流を実現しようとします。これは最も効率的ですが、多くのサーバーは、ダストフィルタが使われる場合にほこりの堆積が少なくなるという付加的な利点を提供する、多少積極的な気流を実現しています。
図2-1Uサーバーの構造(出典: Intel Labs, 2006年)
図2に示した1Uフォームファクタおよびブレードサーバーは、コンポーネントの密度と気流による冷却スペースの不足のために、冷却するのが最も困難です。ブレードサーバーは、より少ないラックスペースと単純化された配線で、より多くの処理能力を提供できるという利点を持っています。標準的な高さの42Uラックに、60台ものブレードサーバーを設置できます。しかしながら、この濃縮されたコンピューティング環境には、電力価格がついて回ります。この構成の典型的な電力需要(電力と冷却)は、4,000ワット以上です。一方、1Uサーバーでラックをいっぱいにすると2,500ワットになります。データセンターではこの需要に対応するのに、電力消費量の増加により対応する場合と、液体冷却やペルチエ効果熱ポンプ、ヒートパイプ、相転移冷却など、より珍しいコンピュータ冷却方法により対応する場合があります。これらのより高度な冷却技術はすべて、より多くの電力を使います。
図3-サーバーの電力消費量(出典: Intel Labs、2008年)
コンポーネント別のサーバー電力の内訳
図3は、電力が個々のサーバーで平均してどのように消費されるかを示しています。プロセッサとメモリが最も多く電力を消費し、電源装置の効率損失がそれに続きます。ディスクドライブの電力が深刻になるのは、サーバーに複数のディスクドライブが搭載されている場合だけです。
プロセッサの電力消費量は、使用されるサーバープロセッサのタイプによって大幅に異なります。電力消費量はマルチコアCPU当たり45Wから200Wまで様々です。最近のIntelプロセッサは、Demand Based SwitchingやEnhanced Speed Step技術などの省電力技術を搭載しています。これらの新しいプロセッサは、C1EやCC3などの省電力状態もサポートしています。また、マルチコアプロセッサは、前の世代より大きく電力効率が向上しています。最近のQuadcore Intel® XeonTMプロセッサを使用するサーバーは、10,000ワット未満の電力を使用して、ピーク時性能で1.8テラフロップスを提供できます。1998年のPentium®プロセッサが、同じ性能を達成したとすれば、約800,000ワットを消費していたでしょう。サーバープロセッサの電力消費量はサーバーの作業量によっても異なります。
図4-CPU利用率と電力消費量 (出典: Blackburn 2008)
図4は、典型的な作業量に対してサーバーの利用率が上昇するとともに、プロセッサのエネルギー効率(1ワット当たりの性能など)が向上する様子を示しています。プロセッサ利用が最適化されるように作業量をチューニングすると、電力消費量とエネルギー効率に大きく影響する場合があります。
一定期間の平均プロセッサ利用率を記録することによって、その期間に消費された電力の推定量を計算することができます。多くのサーバーの作業量は、アイドル状態から最大パワーへと直線的に上昇します。ピーク使用時とアイドル状態でのサーバーの電力消費量がわかっていれば、簡単な計算で任意の稼動率での電力使用量を推定できます。
電力消費量の推定
最大性能時の電力消費量(Pmax)およびアイドル状態での電力消費量(Pidle)がわかっていれば、あるプロセッサ利用率(n%)での電力消費量(P)の推定量を計算できます。以下の式を使用します:
たとえば、サーバーの最大消費電力が400Wでアイドル状態での消費電力が200Wの場合、25パーセントの利用率での消費電力はおよそ次のようになります:
この例の場合、サーバーがその平均利用率で24時間作動すれば、エネルギー消費量は以下のようになります:
様々なサーバーでの電力計を使用した実験による測定では、この近似値は、すべてのプロセッサ稼動率を横断して誤差が±5パーセント以内であることがわかっています。
サーバーで次に電力を消費するのはメモリです。Intelプロセッサの電力レベルは、最新世代では、十分に管理され上限が設定されています。しかしながら、メモリチップによる電力消費は増大しており、今後その傾向が減速する兆しはありません。さらに、アプリケーションが要求するメモリ量は、絶えず増加しています。サーバーでメモリの需要が増大している理由には、次のようなものがあります:
- 最新のサーバーでのプロセッサコア数の増加。コアの数が多ければ、それだけサーバーで利用できるメモリ量が増える
- 仮想化技術の使用の増加。データセンターでは仮想化技術の採用が加速している
- GoogleやFacebookのようなインターネットプロトコルデータセンターによるメモリ集約的な検索アプリケーションでの新しい利用
メモリは、デュアルインラインメモリモジュール(DIMM)に実装されています。これらのモジュールは、DDR3やFB-DIMM (Fully Buffered DIMM)メモリ技術では、DIMM当たりで消費電力が5Wから21Wまでになります。1GB DIMMを8個搭載したサーバーメモリは、優に80Wを消費します。今では、多くの大型のサーバーが、32個や64個のDIMMを使用しており、メモリによる電力消費量がプロセッサより大きくなっています。
メモリ技術の各世代について、その電力消費と帯域幅を決める、DIMMの重要な物理特性と電気特性があります。DRAM (Dynamic Random Access Memory)パッケージングのタイプとダイ数、DIMM上のDRAMランク数、データ転送速度とデータ幅は、DIMMの性能と電源条件を決めます。DIMMには、レジスタを持つRDIMMと、レジスタを持たないUDIMM (Unregistered DIMM)とがあります。RDIMMの方が、UDIMMより消費電力がわずかに大きくなっています。
図5は、DDR2およびDDR3技術を使用するRDIMMの間で、電力消費量がどのように異なるかを示しています。最新のDIMMの電力消費については、主要メモリメーカーのウェブサイトをチェックしてください。
図5-RDIMMメモリ消費電力の比較(出典: Intel Platform Memory Operation、2007年)
通常、DIMMが消費する電力は、アクティブ状態とアイドル・スタンバイ状態で測定されます。アクティブ電力は次のように定義されます: L0状態、DRAM帯域幅50パーセント、リード67パーセントとライト33パーセント、プライマリチャネルとセカンダリチャネルが有効。DRAMクロックはアクティブで、CKEはハイ。アイドル電力は次のように定義されます: L0状態、アイドル(帯域幅0パーセント)、プライマリチャネルが有効、セカンダリチャネルが無効、CKEはハイ、命令ラインとアドレスラインは安定、SDRAMクロックはアクティブ。
平均では、アクティブなとき、DDR3 DIMMは5W~12Wを消費します。ベンダーによってDIMMは異なります。DRAMコンポーネントの製造プロセスや、メモリモジュールを製造するために使用するコンポーネント/構成が異なるからです。さらに、メモリの消費電力は、用途と実行する作業量により異なります。
表2は、メモリ製品別の電力消費量が、サプライヤや構成により大きく異なることを示しています。表2は、メモリ製品別の電力消費量が、サプライヤや構成により大きく異なることを示しています。最新のUDIMMやRDIMMの電力消費量については、これらのベンダーのウェブサイトをチェックしてください。
表2-ベンダーと構成別のRDIMM電力消費量(出典: 各ベンダーが公表しているデータシート、2008年)
2008年の4GBから近い将来には16GBや32GBへと、DIMMの容量が大きくなるにつれて、その電力消費量も増加します。さらに、DIMMは、時間とともに速度が向上しており、これもDIMMの電力消費を増やしています。表3は、DDR3 RDIMMローカード、DRAM密度、容量、そして1066MHz、1333MHz、1600MHzの異なる速度での予測電力消費量を示しています。電力は、1866MHzと2133MHzのメモリ速度では、さらに大きくなると予測されます。表3が示すように、メモリの消費電力は、使用されるメモリ技術、メモリの構成、ベンダーにより著しく異なります。
表3-周波数、構成、容量別の将来のDIMM電力消費(出典: Intel Platform Memory Operation、2008年)
メモリサブシステムによるエネルギー消費量の削減
メモリの冷却は、ますます難しくなり、ほとんどのサーバーシステムでさらなる電力を必要としています。過去には、メモリの帯域幅要件は低かったので、メモリの冷却は比較的簡単で、DIMM上での熱対策機能の強化や熱センサ、速度調整は必要としませんでした。今や状況は正反対です。メモリモジュールの熱分析には、各コンポーネントの電力、メモリモジュール間の間隔、気流速度と温度、さらには何らかのサーマルソリューション(ヒートスプレッダなど)の存在が含まれます。
通常、DIMMメモリは、プロセッサやハードディスク、ファンより下流にあり、したがって周囲温度がより高くなります。通常のサーバーシステムのレイアウトでは、温度が低い空気は、DIMMの一方の端から別の端へと流れます。したがって、たいていはレジスタと同じ側の最後のDRAMコンポーネントが、最も熱くなります。ただし、この結論は、全DIMMフォーマットについて一貫してはいません。たとえば、FB-DIMMの最も熱いDRAMは、AMB (Advanced Memory Buffer)の隣の、DIMMカードの中央近くにあります。
優れたメモリ熱対策は、必要電力が減る上にシステム性能を向上させるので、メモリの熱対策は重要です。メモリサブシステムの動作温度が低くなれば、システム性能が改善し、システムの電力消費量全体が減るので、メモリサブシステムの熱特性は重要です。メモリの熱対策には、ファンの回転速度とDIMMへの予熱が関係します。DIMM当たりの必要冷却性能(ワット)は、DIMMが完全なDIMMヒートスプレッダ(FDHS)を備えているか、DIMMがダブルリフレッシュであるかどうかにより異なります。
ダブルリフレッシュのDIMMは、ケース温度仕様が85℃ではなく95℃なので、少しの電力損と多少の電力消費量の増加を犠牲にして、より高い全体安全システム温度が可能になります。ダブルリフレッシュの影響(85℃対95℃)は大きく、約2~3ワット分、冷却性能が向上し、メモリ帯域幅性能が大幅に改善されます。
電力消費を削減するためのメモリの調節
Intelプロセッサベースのサーバーには、プロセッサやメモリが余分の電力を使わずに、メモリが過熱するのを防ぐ、自動メモリスロットリング機能が備えられています。Intelのチップセットがサポートするメモリスロットリングメカニズムは2つあります。1つは、CLTT (closed loop thermal throttling)であり、もう1つはOLTT (open loop throughput throttling)です。
CLTTは、温度ベースのスロットリング機能です。設置されたFB-DIMMの温度がその熱限界に接近すると、システムBIOSは、メモリスロットリングを開始し、FB-DIMMへの帯域幅を制限することによってメモリ性能を管理します。これにより、電力消費に上限を設け、FB-DIMMが過熱するのを防ぎます。デフォルトでは、BIOSが、すべての設置されたFB-DIMM上に、機能するAMB (advanced memory buffer)熱センサが存在することを検出した場合、BIOSは、CLTTをサポートするようシステムを構成します。CLTTモードでは、システムファンは、あるプラットフォームの騒音範囲を満たすよう、低速で動作します。しかし、高ストレスレベルでは温度仕様内に部品を維持するために、必要に応じてファンの速度を上げることができます。
OLTT (Open loop throughput throttling)は、ハードウェアの帯域幅をベースにしています。帯域幅が、MCHレジスタにプログラムされたスロットリング設定を上回るのを防ぐことにより機能します。システムBIOSは、設置されたDIMMで、機能するAMB熱センサを持たないものが1つ以上あることを検出すると、自動的にメモリスロットリングメカニズムとしてOLTTを選択します。システムBIOSは、OLTTを有効化すると、MRC (memory reference code)を利用して、ある構成でのメモリ帯域幅を最大化します。MRCコードは、FRUSDRユーティリティによって設定されるシステムレベルデータだけでなく、設置されたDIMMから読み込まれたSPD (serial presence detect)データに依存します。
メモリスロットリングは、余分な電力を消費せずにメモリの障害を防ぐという点で優れている一方で、システム性能に悪影響を与える場合がある点で限界があります。CLTTまたはOLTTによって、メモリがシャットダウンされたりメモリ帯域幅が制限されたりすると、プログラムの実行に影響を受ける場合があります。
電源装置
電源装置は、サーバー回路による利用のために、交流電源を直流に変換しますが、電流の変換によりエネルギーが失われます。電源装置の効率はその負荷に左右されます。最も効率的な負荷は、利用率が50~75パーセントの範囲です。電源効率は、負荷が50パーセント以下では大きく下がり、負荷が75パーセントを超えると、あまり改善しません。
通常、電源装置は、非常に高い負荷率、通常は80~90パーセントで効率的に機能するよう設計されています。しかし、ほとんどのデータセンターの負荷は、通常10~15パーセントです。したがって、電源効率は多くの場合低くなります。今日、ほとんどのサーバーは、効率が20~40パーセントの電源装置で作動するので、電源装置を通過する大部分の電力を浪費していることになります。その結果、今日の電源装置は、米国の全発電量の少なくとも2パーセントを消費しています。電源装置の設計をより効率的なものにすれば、その消費量を半分に削減し、ほぼ30億ドルを節約できるでしょう。
高性能電源装置は、システムの電力消費全体を大きく削減できます。たとえば、システム負荷が400Wの場合、効率が60パーセントの電源はコンセントで560Wを消費しますが、効率が85パーセントの電源の場合は460Wになります。効率が良い電源に変更すると100Wの省電力になるのです。
主電源に加えて、サーバーでは二次電源も利用し、ここでも電力を浪費する可能性があります。これらの小型の二次電源は、マザーボード全体に分布し、電力を供給する回路に接近して位置します。サーバーで使用される二次電源には、POL (point-of-load)コンバータ、電圧レギュレータモジュール(VRM)、電圧レギュレータダウン(VRD)があります。).
VRMやVRDからの出力電圧は、電圧識別コード(VID)を使用して、サーバープロセッサによってプログラムされています。POLコンバータなどの他の二次電源には、この機能がありません。VRMとVRDの電圧・電源要件は、サーバーシステムのニーズによって異なります。多くのサーバーでは、マザーボード電力の約85パーセントはVRM/VRDによって、もっぱらサーバーのプロセッサのために消費されます。
電源や二次電圧レギュレータでの電力消費を最小化するために、サーバーは、電源効率を最適化するよう作業を実行するべきです。各コアが最も効率的に動作できるように、IntelのマルチコアプロセッサはVRM/VRDと連携します。
ストレージシステムと電力消費
2つまたは4つのハードディスクドライブ(HDD)を備えた基本的なサーバーは、ストレージ用に24W~48Wの電力を消費します。少数のディスクそれ自体では、それほど電力を消費しません。しかし、大企業の外部記憶システムには何千ものディスクがあり、データセンターで大量の電力を消費します。通常、小企業では、多くのHDDを搭載したダイレクトアタッチトストレージを備えたサーバーを購入します。また、クライアント・サーバーシステムによって共有された、ネットワークストレージシステムを購入する小企業が増えています。
ストレージデバイスは数が少ないほど、エネルギー消費量も少なくなります。より良い利用が鍵です。ストレージ管理が貧弱であれば、大量の電力を消費する場合があります。最も一般的な不経済なストレージ管理は、1日24時間にわたり、それほどアクティブでないデータを管理するディスクを運用している場合です。データのアクセスまたは書き込みが行われているときにだけエネルギーを使用する、良く管理されたストレージソリューションと比較すると、データアクセス(つまりデータの価値)の利用不足は、電力と冷却の費用を増やします。
ストレージの使用率は、オペレーティングシステムとストレージデバイスのタイプによって異なります。通常のサーバーシステムでは、ハードディスクの平均使用率は約40パーセントです。新しいディスクドライブの容量は、ドライブの性能よりはるかに速く増加してします。このアンバランスの結果、通常、ストレージ管理者は、性能と信頼性を向上させるために、低価格のディスクの冗長アレイ(RAID)構造やストライピング技術を利用します。しかし、そのために、回転するドライブの数は増加しています。利用レベルが低下すれば、より多くのデバイスが必要となり、ディスクのコストとエネルギー経費の合計は増えます。
回動するドライブは、エネルギーを消費し、熱を発します。ハードディスクドライブは、他のコンピュータコンポーネントと同様に、過熱に敏感です。メーカーが測定した動作温度の最小範囲は、一般に+5~+55℃(たまに0~+60℃)です。これは、プロセッサやビデオカード、チップセットの範囲よりも狭くなっています。HDDの信頼性と耐久性は、動作温度に左右されます。HDDの温度が5℃上昇すれば、HDDの作業量を10パーセントから100パーセントへ切り替えたのと同じ影響が、信頼性に及びます。HDDの温度が摂氏1度低下すれば、HDDの寿命は10パーセント延びます。
HDDが放散する発熱量は、様々な状態での電流と電圧の積になります。HDDの小型モーターの効率は、50パーセント未満です。通常、ハードドライブの電力消費量は、Idle、SATAまたはSCSI Bus Transfer、Read、Write、Seek、Quiet Seek(サポートされている場合)、Startの各状態で測定されます。HDDの平均電力消費量は、通常のユーザー操作の間および集約的な(一定の)操作の間のHDDの電力消費量を測定することにより計算できます。
各使用モデルについて、HDDのアイドル状態とアクティブ状態との割合は、ディスク容量や利用用途、関連する作業量に左右されます。平均の電力消費量は、下に示した式で推定できますが、実際の電力消費量は異なる可能性があることに注意してください。
オフィス業務などの平均的な操作でのハードディスクの平均電力消費量、PAverageは、以下の式によって推定できます:
ここでは、各状態は、電圧源からのドライブの電力消費を表し、パーセントは、HDDの状態継続期間の一般的な割合を表します。この式は、平均的なオフィスでの使用で読み取り/書き込みのHDD操作が、合計時間の10パーセントを占めるという仮定に基づきます。
ディスクのデフラグメント、表面のスキャン、ファイルのコピーなどの集約的なハードディスク操作の平均電力消費、PConstantは、以下の式によって計算できます:
この式は、集約的な操作での読み取り/書き込みのHDD操作が、時間の50パーセントを占めるという仮定に基づきます。
最も効率的なハードドライブは、アイドル状態では平均で5~6Wを消費します。平均的なSATAインターフェースハードドライブは、アイドル状態で7~10Wを消費します。通常、今日のSATAハードドライブは、アクティブモードで10~15Wを消費します。また、他のコンピュータコンポーネントと同様に、最新世代の効率は前世代よりはるかに良くなっています。
ハードディスクの電力使用量が近年着実に減少しているので、放熱要件は緩くなっています。新しいシリアルインターフェース(SATA IIやSASなど)では、電力使用量や放熱は少し増えるが、全体として、放熱傾向は減少しています。また、Quiet Seekモード(プラッタを回転させるノイズが128デシベル以下になるように、ドライブを減速すること)は、新しいシリアルインターフェースの使用により増える分より、ハードディスクの放熱をはるかに削減できる場合も時々あります。
要約
サーバーが使用する電力は、設置されたサーバーの数および必要な冷却装置やインフラストラクチャの増加により、2000年から2005年の間に2倍になりました。電力消費量は、サーバーのタイプや各サーバー内の構成、実行される作業量によって異なります。サーバーコンポーネントはすべて、動作するときに発熱します。サーバー内部の周囲温度が上昇すると、回路の信頼性に問題が起こる場合があります。余分な電力が、システムとそのコンポーネントを安全な動作温度範囲内に維持するために必要になります。データセンターのサーバー密度が高まるにつれて、サーバーが生成するパワーも熱も増大します。
今日の基本的なサーバーシステムにおいては、サーバープロセッサの電力消費量が最も大きく、メモリ、ディスクまたはPCIスロット、マザーボードがそれに続き、最後にファンとネットワーク相互接続が来ます。マルチコアプロセッサへの最近の移行は、CPUによるエネルギー消費に対応し、プロセッサ電力を調節するパワーマネージメント機能が追加されています。
しかし、今日のアプリケーションは、はるかにプロセッサ集約的であり、そのためパッケージングの高密度化やメモリの増加傾向のきっかけとなりました。この傾向により、将来、サーバーで最も電力を消費するのが、メモリである時が来ます。したがって、メモリの冷却が、熱対策の主要な問題として現れます。
電源装置は、交流電源を直流に変換することによりエネルギーを浪費します。今日、ほとんどのサーバーは、効率20~40パーセントの電源装置で作動しており、電源装置を通過する電力の半分以上が浪費されています。通常のサーバーレベルでは、電源装置の効率が15パーセント上昇すれば、100W以上もの電力が節約できる可能性があります。
ストレージの消費電力は、個々のハードディスクドライブについてはきわめて小さくなっています。しかし、サーバーが、複数のディスクを利用し、RAIDアレイやネットワークストレージシステムを同時に使用すると、ストレージの電力消費はかなり大きくなります。性能が向上せずに、ディスクドライブ容量がより大きく安価になっているので、性能と信頼性のために、冗長ディスクやストライピングが利用される傾向があります。優れたストレージ管理技術は、この傾向を弱めることができます。
電力需要は上昇傾向にありますが、新しいサーバーコンポーネントは、より効率的に動作するように製造されています。最新のIntel Xeonプロセッサや電源、メモリ、さらにハードディスクドライブはすべて、電力使用量が減り、パワーマネージメント機能を搭載していて、発熱量が減っています。新しいサーバーについては、データセンターは、1ワット当たりの性能でサーバーを評価し、TCOコストの代わりにビジネスの最適化に集中することができます。
サーバーの電力消費についての詳細は、Lauri MinasおよびBrad Ellison著の書籍Energy Efficiency for Information Technologyを参照してください。
著者について
Lauri Minasは、Intelのサーバー製品グループ内のサーバーアーキテクチャ・プラニンググループのシニア戦略サーバープランナです。Lauriは、Intelのサーバー業界マーケティンググループを統括し、Intelの各部門を横断してIntelのサーバー技術のためのサーバー業界努力の戦略的方向を設定しました。Intel Achievement Awardを5回受賞しています。Lauriは、アリゾナ州立大学でビジネスの学士号および修士号を取得しました。
Brad Ellisonは、IntelのIT組織内のITオペレーションズデータセンターサービスチームのデータセンターアーキテクトです。Ellisonは、Data Center Instituteの理事を務め、Infrastructure Executive's CouncilのData Center Operations CouncilおよびICEX Knowledge Exchange Program Data Center Excellence Practiceの創設メンバーです。Ellisonは、1981年にノースダコタ大学でB.S.を、1985年にオレゴン州立大学でM.S.を取得しました。
Copyright © 2009 Intel Corporation. All rights reserved.
この記事は、Lauri MinasおよびBrad Ellison著Energy Efficiency for Information Technologyに記載の資料に基づきます。この本についての詳細は、Intel Pressウェブサイトを参照してください: http://www.intel.com/intelpress/sum_rpcs.htm
出版者の事前の書面による許可、またはCopyright Clearance Center, 222 Rosewood Drive, Danvers, MA 01923, (978) 750-8400, fax (978) 750-4744への適切なコピー1件当たりの料金の支払いによる承認を受けずに、1976年アメリカ著作権法の第107条、第108条で許可される場合を除いて、電子的、機械的、コピー、スキャンなど、何らかの形式または方法による、この刊行物のすべてまたは一部の複製、検索システムへの格納、または送信はできません。出版者に対する許可の要請は、Publisher, Intel Press, Intel Corporation, 2111 NE 25 Avenue, JF3-330, Hillsboro, OR 97124-5961までご連絡ください。電子メール: intelpress@intel.com