2013/01/26

オイル/ガス業界のデーターセンター

相当前の記事で、どこまで訳したのか分からなくなったので、まずは公開してみます。


--------

ちょっと前の記事ですが、データーセンター好きにはとても興味深かったので訳してみました。

Inside an oil industry datacentre 2011/2/27 by Jack Clark

--------

2月初旬、ZDNet UKはオイルとガス業界の地質情報を処理するデーターセンターを訪れるチャンスがありました。この施設はPetroleum Geo-Services (PGS)によって運営されており、世界中を渡り地底から船までの距離をセンサーで測る事で地震データなどを解析しています。

Ramform Sovereign(以下の地図)は、PGSの16番目の地震計測用の船です。この船は地震計測用に使われ、地底にたまっている原油やガスを探し当てる為に使われます。
取得されたデータは3D画像に生成されて、小さな正方形に分解されて解析されます(地図を正方形のグリッドで分割するのと似ています)。



PGSのグローバルデンターセンター管理者のMike Turffは「生成されたデータは地球のスキャンしたCATのようだよ、一つの3Dキューブにはものすごいデータがあり、内部イメージとして処理をして、それからスライスしたり、四角に切ったり自分の好きなようにする事も出来るんだ」 とZDNet UKに話してくれmした。 「医療スキャンに似ているかも知れないね。でも僕たちはもっと大きな側面からするんだ。内部イメージをよりよくすれば、もっと正確なデータを得る事が出来るんだ」

各船舶は探検データを集めて溜めており、「収集方法が正しい方法かどうかを適度に確認しています。もちろん集めるデータの質に関しては管理をしたいですし、正しい方法でデータを処理したかどうかを確認しなければいけません。船は一回行ったら戻ってきてしまいますからね」

一度データが処理されたら、結果はテープに保存されます。テープはヘリコプターでPGSの21番目の世界規模の処理センターに運ばれます。もちろん、その処理センターはメガセンターと称されており、そこはデーターの処理をするには最高の場所です。



そこはPGSのデータセンターの中で一番の地位に捉えられており、ZDNet UKはヨーロッパにあるテムズ川にあるサリーにあるウェイブリッジという所のデーターセンターの訪問をする事が出来ました。



100個以上ある箱にはテープが入っており、1つの箱には、30個前後のテープが入っています。テープ1つには500GBのデータが入っています。もしすべての箱に30個テープが入っていたら1.5PBのデータ容量がある事になります。





処理を行う5,737平方フィートのデーターセンターには104ラックが配置されています。ハードウェアは圧倒的にパワフルな1Uサーバが備え付けられています。「私たちはHPC(ハイパフォーマンスコンピューティング)を使っていて、HPやDell、Lenovoなどメジャーなベンダーの1Uを主に使っています。1Uは一番費用対効果がいいです。大体6コアにデュアルプロセッサーがついていますからね」とTurffさんは話してくれました。

データセンターを探検して分かった事はDell PowerEdge R610s、1950sとXenのThinkServersが少しある事が判明しました。ストレージはIBMのD553300, FC5820sが広がっており、それ以外にはDellのPanasasがありました。

処理を行う為には、PGSは特定の地図処理タスクに関しては特別なField Programmable Gate Array(FPGA)を使っていると考えられていますが、しかしIntelシステムでのFPGA開発費用はコストに見合わず高すぎたそうです。

「FPGAはすばらしい仕事をしてくれるかもしれないけど、開発を終えた頃には、Intelは大量のコアを追加して、パフォーマンスのコスト値下げをするだろうね」

メガセンターは15年物のファシリティを入れ替えて2008年11月にオープンしました。「本当に問題から解放されたよ。けど、スクラッチからデーターセンターを作ろうと思うなら、古いデーターセンターよりも簡単に出来るだろうね。」ファシリティはデーターセンター専門のコンダクターのKeysourceにより設計されました。



メガセンターの電力使用効率(PUE)はテープにデータを入れる為に使っているミニデーターセンターの電力も含めて1.148PUEだそうです。メインの処理を行っている箇所のPUEは1.127との事。

分離と冷却、データーセンターの空気の再循環、冷却の断熱と外の空気と、電気を使わずに冷たい風をフィルターする事の組み合わせで1.127PUE を達成する事が出来たそうです。ファシリティは一年間に100時間冷却を止める事も可能です。

データーセンターの他の部分とは分離した状態で、各ラックは中央の通路に面してラック同士お互いに向き合っています。中央にある通路では熱気が天井の空調で冷却システムを通ります。