「Blue Gene」の版間の差分
m →参考文献: accessyear, accessdateの追加 |
→システムソフトウェア: 見出しをリンクにしない。 |
||
(31人の利用者による、間の45版が非表示) | |||
1行目: | 1行目: | ||
[[ |
[[ファイル:BlueGeneL cabinet.jpg|thumb|Blue Gene/Lの1ラック]] |
||
[[ファイル:LLNL BGL Diagram.png|thumb|right|Blue Gene/Lの構成図。この図のCabinetが1ラックに相当する。]] |
|||
'''Blue Gene'''('''ブルージーン''')はP[[FLOPS]]の演算速度を目指す[[IBM]]の[[スーパーコンピュータ]]プロジェクトである。 |
|||
{{Power Architecture}} |
|||
'''Blue Gene'''('''ブルージーン''')は[[IBM]]の[[スーパーコンピュータ]]プロジェクトである。 |
|||
Blue Geneプロジェクトは1999年に発表され<ref>[http://www-06.ibm.com/jp/press/1999/12076.html 世界最速のスーパーコンピューターの開発に向け1億ドル規模の研究計画を発表 - 日本IBM]</ref><ref>[http://www-06.ibm.com/jp/press/2001/11122.html 「Blue Gene」研究プロジェクト拡大を目的に米エネルギー省NNSAとIBMが提携 - 日本IBM]</ref>、第1世代は'''Blue Gene/L'''<ref>[http://www-06.ibm.com/jp/press/2002/11202.html 米エネルギー省向けに世界最速スーパーコンピューターを開発 - 日本IBM]</ref>、第2世代は'''Blue Gene/P'''<ref>[http://www-06.ibm.com/jp/press/20070628002.html IBM Blue Geneが最速スーパーコンピューター・リストで圧勝 - 日本IBM]</ref>、第3世代は'''Blue Gene/Q'''<ref>[http://www-06.ibm.com/jp/press/2011/11/1802.html IBMが科学発展の原動力となるスーパーコンピューターを発表 最大100ペタフロップス演算性能を誇るBlue Gene/Qで現代の難問解決を支援 - 日本IBM]</ref>である。Blue Geneは[[PowerPC]]系の[[プロセッサ]]を多数使用した[[高性能計算|HPC]]クラスタで、[[TOP500]]や[[Green500]]、[[HPCチャレンジベンチマーク|HPCCアワード]]などのスーパーコンピュータ性能ランキングの上位を占めている。 |
|||
==概要== |
|||
Blue Gene プロジェクトの最初のコンピュータである「Blue Gene/L」は、1億ドルの費用をかけてピーク性能で360[[テラ|T]]FLOPSを目指し、[[ローレンス・リバモア国立研究所]]と共同で開発された。この目標は日本製の[[地球シミュレータ]]の実効性能35.86TFLOPSの10倍の速さである。2010年までにピーク性能1PFLOPSの「Blue Gene/P」,2010~2012年には10PFLOPSの「Blue Gene/Q」の開発を目指している。 |
|||
IBMでは1997年にチェスの世界王者[[ガルリ・カスパロフ]]に勝利した「[[ディープ・ブルー (コンピュータ)|Deep Blue]]の子孫」と称している<ref>[http://www-06.ibm.com/jp/press/20070516001.html 新たな科学技術の発見のためのエンジンとなったIBM Blue Gene - IBMの生んだチェス・チャンピオン「Deep Blue」の子孫として -]</ref> |
|||
===特徴=== |
|||
[[Image:LLNL BGL Diagram.png|thumb|right|Blue Gene/Lの構成図。この図のCabinetが1ラックに相当する。]] |
|||
== 概要 == |
|||
Blue Gene プロジェクトの最初のコンピュータである「Blue Gene/L」は、1億[[ドル]]の費用をかけてピーク性能で360[[テラ|T]][[FLOPS]]を目指し、[[ローレンス・リバモア国立研究所]]と共同で開発された。この目標は日本製の旧[[地球シミュレータ]]の実効性能35.86TFLOPSの10倍の速さである。2010年までにピーク性能1[[ペタ|P]]FLOPSの「Blue Gene/P」、2010~2012年には10PFLOPSの「Blue Gene/Q」の開発を目指した。 |
|||
=== 特徴 === |
|||
;プロセッサ |
;プロセッサ |
||
Blue Gene登場前のスーパーコンピュータでは、専用のベクトルプロセッサや[[x86]]、[[POWER]]などの高性能な[[ |
Blue Gene登場前のスーパーコンピュータでは、専用の[[ベクトル計算機|ベクトルプロセッサ]]や[[x86]]、[[POWER (マイクロプロセッサ)|POWER]]などの高性能な[[プロセッサ]]を数十個から最高で数千個搭載するものが中心であった。Blue Geneプロジェクトでは、一つ一つの性能は高くないプロセッサを最高で数十万個以上搭載し、[[並列コンピューティング|並列実行]]するプログラム数を格段に増やすことで高い性能を実現する設計を採用した。 |
||
;ネットワーク |
;ネットワーク |
||
[[メッセージパッシング]]、[[モニタ (同期)|同期]]など並列アプリケーション特有のプログラミング手法を支援する独自のコンピュータネットワークを搭載している。 |
[[メッセージパッシング]]、[[モニタ (同期)|同期]]など並列アプリケーション特有の[[プログラミング]]手法を支援する独自のコンピュータネットワークを搭載している。 |
||
;導入・管理コスト |
;導入・管理コスト |
||
発熱の低いプロセッサの採用や周辺回路の1チップ化によって、設置面積、消費電力、冷却に必要な空調設備などに要するコストを低く抑えている。 |
発熱の低いプロセッサの採用や周辺回路の1チップ化によって、設置面積、消費電力、冷却に必要な空調設備などに要するコストを低く抑えている。 |
||
===システム構成=== |
=== システム構成 === |
||
Blue Geneは、システムとしての最小構成となるラックを必要に応じて複数接続することでユーザが求める性能を提供する。そのラックは、1プロセスを実行する最小単位となる計算ノードを複数個搭載しており、各ノードはコンピュータネットワークによって接続されている。 |
Blue Geneは、システムとしての最小構成となるラックを必要に応じて複数接続することでユーザが求める性能を提供する。そのラックは、1プロセスを実行する最小単位となる計算ノードを複数個搭載しており、各ノードはコンピュータネットワークによって接続されている。 |
||
==歴史== |
== 歴史 == |
||
===ローレンス・リバモア研究所のシステム=== |
=== ローレンス・リバモア研究所のシステム === |
||
2004年11月に発表された第24回Top500リスト<ref>{{Cite web|author=TOP500.org|title=November 2004 TOP500 Supercomputing Sites|url=http://www.top500.org/lists/2004/11| |
2004年11月に発表された第24回Top500リスト<ref>{{Cite web|author=TOP500.org|title=November 2004 TOP500 Supercomputing Sites|url=http://www.top500.org/lists/2004/11 |accessdate=2007年10月24日 }}</ref>において、スーパーコンピュータ向けベンチマーク[[LINPACK]]におけるBlue Gene/Lの実効性能は70.72TFLOPSとなり、地球シミュレータを抜いて当時の世界最速のスーパーコンピュータとなった。当時はまだ搭載CPUコアが32,768個であり、ベータ版という位置づけであった。 |
||
その半年後の2005年6月、Blue Gene/LはCPU数を65,536個に倍増して136.80TFLOPSを達成<ref>{{Cite web|author=TOP500.org|title=June 2005 TOP500 Supercomputing Sites|url=http://www.top500.org/lists/2005/06| |
その半年後の2005年6月、Blue Gene/LはCPU数を65,536個に倍増して136.80TFLOPSを達成<ref>{{Cite web|author=TOP500.org|title=June 2005 TOP500 Supercomputing Sites|url=http://www.top500.org/lists/2005/06 |accessdate=2007年10月24日 }}</ref>し、さらに2005年10月には131,072個のCPUで280TFLOPSを達成<ref>{{Cite web|author=TOP500.org|title=November 2005 TOP500 Supercomputing Sites|url=http://www.top500.org/lists/2005/11 |accessdate=2007年10月24日 }}</ref>したと発表した。 |
||
2007年11月の第30回Top500では、CPUコアをさらに増やし212,992個で478TFLOPSを記録<ref>{{Cite web|author=TOP500.org|title=November 2007 TOP500 Supercomputing Sites|url=http://www.top500.org/lists/2007/11| |
2007年11月の第30回Top500では、CPUコアをさらに増やし212,992個で478TFLOPSを記録<ref>{{Cite web|author=TOP500.org|title=November 2007 TOP500 Supercomputing Sites|url=http://www.top500.org/lists/2007/11 |accessdate=2007年11月15日 }}</ref>し、当初の計画目標である360TFLOPSを達成した。 |
||
[[ファイル:20080831-R0012506.JPG|thumb|高エネルギー加速器研究機構に設置されたBlue Gene]] |
|||
===日本国内への導入=== |
|||
日本国内では[[産業技術総合研究所]][[生命情報工学研究センター]]が4ラックを導入し、2005年6月に発表されたTop500で第8位を記録した<ref>{{Cite web|url=http://www.top500.org/site/2597|title=Computational Biology Research Center, AIST|author=TOP500.org|accessyear=2007年|accessdate=11月7日}}</ref>。その後[[ニイウス]]株式会社で1ラック、2006年には[[高エネルギー加速器研究機構]]で10ラックが稼働を開始した。 |
|||
=== 日本国内への導入 === |
|||
==Blue Gene/L== |
|||
日本国内では[[産業技術総合研究所]][[生命情報工学研究センター]]が4ラックを導入し、2005年6月に発表されたTop500で第8位を記録した<ref>{{Cite web|url=http://www.top500.org/site/2597|title=Computational Biology Research Center, AIST|author=TOP500.org |accessdate=2007年11月7日 }}</ref>。その後[[ニイウス]]株式会社で1ラック、2006年には[[高エネルギー加速器研究機構]]で10ラックが稼働を開始した。 |
|||
===計算ノード=== |
|||
計算ノードは、以下の二つの部品から構成される。構成をシンプルにすることで、[[はんだ]]不良などによるハードウェア故障を減らし、また[[#高密度実装]]を実現した。 |
|||
[[Image:Blue Gene L scheda.png|right|thumb|SoCチップの構成図]] |
|||
*[[SoC]]チップ |
|||
:以下の三つの機能を統合して一つの集積回路として収めている。 |
|||
:* [[PowerPC]] 440ベースのプロセッサ x 2 |
|||
:: [[組み込みシステム]]向けの省電力プロセッサであるPowerPC 440<ref>{{Cite web|author=International Business Machines Corp|title=PowerPC 440 Embedded Core - IBM Microelectronics|url=http://www-01.ibm.com/chips/techlib/techlib.nsf/products/PowerPC_440_Embedded_Core|accessyear=2007年|accessdate=10月24日}}</ref>をベースにしたものを2つ搭載している。各コアにはそれぞれ独立した[[倍精度]][[FPU|浮動小数点演算ユニット]]とL2キャッシュが付属し、2コア間では4[[メビバイト|MiB]]のL3キャッシュを共有している。 |
|||
:* ネットワークインタフェース |
|||
:: 計算ノード間の通信に利用するBlue Gene独自の[[#三次元トーラスネットワーク|三次元トーラスネットワーク]]、[[#集団通信ネットワーク|集団通信ネットワーク]]、[[#グローバルバリアネットワーク|グローバルバリアネットワーク]]と、[[イーサネット#ギガビット・イーサネット|ギガビット・イーサネット]]のインタフェースを備える。 |
|||
:* [[JTAG]]インタフェース |
|||
:: 計算ノードの診断やデバッグに用いる。 |
|||
* 512[[メビバイト|MiB]]の[[DDR SDRAM]] |
|||
=== その他 === |
|||
一つ一つの計算ノードのスペックは一般的なPCのそれと同等ないしは低く設定されている。Blue Gene/Lで動作するプロセスは、この限られたリソースで動作する必要がある。 |
|||
[[2009年]]9月17日、米国家技術賞を受賞した。<ref>[https://www.itmedia.co.jp/enterprise/articles/0909/21/news004.html IBM、Blue Geneで米国家技術賞を受賞 - ITmedia]</ref> |
|||
== Blue Gene/L == |
|||
====高密度実装==== |
|||
=== 計算ノード === |
|||
省電力プロセッサを採用した目的は、高密度実装の実現にある。一般的なPCやサーバ、また旧来のスーパーコンピュータが採用する高性能プロセッサの多くは、消費電力とそれに伴う発熱も大きいため、筐体にそのようなCPUを多数詰め込むと廃熱が非常に困難になる。かといって筐体内の密度を下げるとケーブルや接続コネクタなどの構成部品が増え、それが信頼性の低下を招く。そこで、Blue Gene/Lでは消費電力あたりの性能が高い組み込み用途向けプロセッサを導入することでその問題を解決した<ref name="overview_bg">{{Cite journal |
|||
[[ファイル:Blue Gene L scheda.png|right|thumb|[[SoC]]の構成図]] |
|||
計算ノードの構成をシンプルにすることで、[[はんだ]]不良などによるハードウェア故障を減らし、また[[#高密度実装|高密度実装]]を実現した。計算ノード単体の性能は、PCにくらべ低くまた搭載メモリ量も少ないため、一般的な環境に比べるとプロセスに対する制約が大きい。 |
|||
==== 構成 ==== |
|||
メモリ以外の要素は[[System-on-a-chip|SoC]]として統合し、一つの集積回路に収めたことから、実質的には二つの部品のみで構成される。 |
|||
;[[PowerPC]] 440ベースのプロセッサ x 2 |
|||
:[[組み込みシステム]]向けの省電力プロセッサであるPowerPC 440<ref>{{Cite web|author=International Business Machines Corp|title=PowerPC 440 Embedded Core - IBM Microelectronics|url=http://www-01.ibm.com/chips/techlib/techlib.nsf/products/PowerPC_440_Embedded_Core |accessdate=2007年10月24日 }}</ref>をベースにしたものを2つ搭載している。各コアにはそれぞれ独立した[[倍精度]][[FPU|浮動小数点演算ユニット]]とL2キャッシュが付属し、2コア間では4[[メビバイト|MiB]]のL3キャッシュを共有している。 |
|||
;ネットワークインタフェース |
|||
:計算ノード間の通信に利用するBlue Gene独自の[[#三次元トーラスネットワーク|三次元トーラスネットワーク]]、[[#集団通信ネットワーク|集団通信ネットワーク]]、[[#グローバルバリアネットワーク|グローバルバリアネットワーク]]と、[[イーサネット#ギガビット・イーサネット|ギガビット・イーサネット]]のインタフェースを備える。 |
|||
;[[JTAG]]インタフェース |
|||
:計算ノードの診断やデバッグに用いる。 |
|||
;メモリ |
|||
:512[[メビバイト|MiB]]の[[DDR SDRAM]] |
|||
==== 高密度実装 ==== |
|||
省電力プロセッサを採用した理由は高密度実装を実現するためである。一般的なPCやサーバ、また旧来のスーパーコンピュータが採用する高性能プロセッサの多くは、消費電力とそれに伴う発熱も大きいため、そのようなCPUを筐体に多数詰め込むと排熱が非常に困難になる。かといって筐体内の密度を下げるとケーブルや接続コネクタなどの構成部品が増え、それが信頼性の低下を招く。 |
|||
Blue Gene/Lでは消費電力あたりの性能が高い組み込み用途向けプロセッサを導入することでその問題を解決した<ref name="overview_bg">{{Cite journal |
|||
|author=A. Gara, et. al|title=Overview of the Blue Gene/L system architecture |
|author=A. Gara, et. al|title=Overview of the Blue Gene/L system architecture |
||
|url=http://researchweb.watson.ibm.com/journal/rd/492/gara.html |
|url=http://researchweb.watson.ibm.com/journal/rd/492/gara.html |
||
|journal=IBM Journal of Research and Development|volume=49|issue=2|year=2005|doi=10.1147/rd.492.0195 |
|journal=IBM Journal of Research and Development|volume=49|issue=2|year=2005|doi=10.1147/rd.492.0195 |
||
}}</ref>。この設計方針により、Blue Gene/Lはその性能に対し電力消費や設置面積において非常にコンパクトなシステムとなった。Blue Gene/Lの消費電力あたりの性能は112.24MFLOPS/Wであり<ref>{{Cite web|author=Green500.org|title=The Green500 List|url=http://green500.org/Lists.html| |
}}</ref>。この設計方針により、Blue Gene/Lはその性能に対し電力消費や設置面積において非常にコンパクトなシステムとなった。Blue Gene/Lの消費電力あたりの性能は112.24MFLOPS/Wであり<ref>{{Cite web|author=Green500.org|title=The Green500 List|url=http://green500.org/Lists.html |accessdate=2007年10月24日 }}</ref>、地球シミュレータの3.01MFLOPS/Wと比べると、Blue Gene/Lは37倍も電力効率の良いシステムである。 |
||
===ラック=== |
=== ラック === |
||
[[ |
[[ファイル:BlueGeneL_rack.jpg|thumb|right|計算カードを多数収容したノードカード]] |
||
Blue Gene/Lのラック内には、[[#計算ノード|計算ノード]]を2つ搭載する計算カードが512枚搭載され、2048CPUのマシンとして構成されている。それに加え、ファイルシステムへのアクセスを担当するI/Oノードが1ラック当り2から64枚搭載されている。I/Oノードは[[イーサネット#ギガビット・イーサネット|ギガビット・イーサネット]]でラック外部のファイルサーバ |
Blue Gene/Lのラック内には、[[#計算ノード|計算ノード]]を2つ搭載する計算カードが512枚搭載され、2048CPUのマシンとして構成されている。それに加え、ファイルシステムへのアクセスを担当するI/Oノードが1ラック当り2から64枚搭載されている。I/Oノードは[[イーサネット#ギガビット・イーサネット|ギガビット・イーサネット]]でラック外部のファイルサーバと接続し、[[#集団通信ネットワーク|集団通信ネットワーク]]を介して計算ノードと通信を行う。ラックに搭載するI/Oノードの数は、実行するアプリケーションの性質によって調整する。 |
||
===ネットワーク=== |
=== ネットワーク === |
||
Blue Gene/L内のノード接続には、その用途に応じて異なる5種類のネットワークが使われている。 |
Blue Gene/L内のノード接続には、その用途に応じて異なる5種類のネットワークが使われている。 |
||
====三次元トーラスネットワーク==== |
==== 三次元トーラスネットワーク ==== |
||
[[ |
[[ファイル:2x2x2torus.svg|thumb|2x2x2のトーラスネットワーク]] |
||
三次元[[トーラス]]ネットワークは低遅延・広帯域を要求されるノード間の一対一通信に使われ、Blue Geneの通信ネットワークの中でも最も重要な位置を占める。 |
三次元[[トーラス]]ネットワークは低遅延・広帯域を要求されるノード間の一対一通信に使われ、Blue Geneの通信ネットワークの中でも最も重要な位置を占める。 |
||
63行目: | 75行目: | ||
よって、トーラスネットワークの帯域を効率的に用いるには、三次元トーラスにおける通信を出来るだけ局所的に抑えるようなアルゴリズムを適用する必要がある。また、通信局所性をBlue Geneの物理的な接続配置にあわせることも重要である。 |
よって、トーラスネットワークの帯域を効率的に用いるには、三次元トーラスにおける通信を出来るだけ局所的に抑えるようなアルゴリズムを適用する必要がある。また、通信局所性をBlue Geneの物理的な接続配置にあわせることも重要である。 |
||
各計算ノード間の接続は1方向あたり1.4G[[bps]]、遅延は100[[ナノ]]秒となる。各ノードは近隣の6ノードとそれぞれ双方向に接続しており、1ノードの合計入出力帯域は16.8Gbpsに達する。ノード数が65,536の場合トーラスは64x32x32となり、最大ホップ数は32+16+16=64ホップ、最大遅延は6.4[[マイクロ]]秒となる。 |
各計算ノード間の接続は1方向あたり1.4G[[ビット毎秒|bps]]、遅延は100[[ナノ]]秒となる。各ノードは近隣の6ノードとそれぞれ双方向に接続しており、1ノードの合計入出力帯域は16.8Gbpsに達する。ノード数が65,536の場合トーラスは64x32x32となり、最大ホップ数は32+16+16=64ホップ、最大遅延は6.4[[マイクロ]]秒となる。 |
||
====集団通信ネットワーク==== |
==== 集団通信ネットワーク ==== |
||
[[ |
[[ファイル:Blue Gene L Collective network.svg|thumb|right|集団通信ネットワークの構造]] |
||
集団通信ネットワークは、ある1ノードと複数ノードとの一対多通信やファイル転送に用いられるもので、各ノードと他の1~3ノードとの相互接続による2分木ネットワークによって構成される。発信元から末端までの遅延は最大5マイクロ秒、帯域は2.8Gbpsである。 |
集団通信ネットワークは、ある1ノードと複数ノードとの一対多通信やファイル転送に用いられるもので、各ノードと他の1~3ノードとの相互接続による2分木ネットワークによって構成される。発信元から末端までの遅延は最大5マイクロ秒、帯域は2.8Gbpsである。 |
||
75行目: | 87行目: | ||
あるノードから複数のノードにデータをブロードキャストするのに集合通信ネットワークが用いられる。三次元トーラスネットワークでもブロードキャストは可能だが、ネットワークトポロジの面から見て集合通信ネットワークのほうがずっと効率的である。 |
あるノードから複数のノードにデータをブロードキャストするのに集合通信ネットワークが用いられる。三次元トーラスネットワークでもブロードキャストは可能だが、ネットワークトポロジの面から見て集合通信ネットワークのほうがずっと効率的である。 |
||
====グローバルバリアネットワーク==== |
==== グローバルバリアネットワーク ==== |
||
並列アプリケーションでは、各プロセスの[[モニタ (同期)|同期]]がよく行われる。プロセッサ数とノード数におけるスケーラビリティを確保するためには、同期待ちに伴う遅延を改良する必要がある。グローバルバリアネットワークには、複数ノードの同期をハードウェアによる支援によって高速に行う機構が備えられている。 |
並列アプリケーションでは、各プロセスの[[モニタ (同期)|同期]]がよく行われる。プロセッサ数とノード数におけるスケーラビリティを確保するためには、同期待ちに伴う遅延を改良する必要がある。グローバルバリアネットワークには、複数ノードの同期をハードウェアによる支援によって高速に行う機構が備えられている。 |
||
このバリアネットワークは低遅延という特徴を持ち、65,536ノードの同期に必要な時間は1.5マイクロ秒未満である。 |
このバリアネットワークは低遅延という特徴を持ち、65,536ノードの同期に必要な時間は1.5マイクロ秒未満である。 |
||
====システム管理ネットワーク==== |
==== システム管理ネットワーク ==== |
||
計算ノードの初期化や監視・管理・デバッグのためにイーサネットとJTAG等のインタフェースを変換回路を介して接続するネットワークが用意されている。このネットワークを用いて管理用コンピュータから遠隔操作を行う。 |
計算ノードの初期化や監視・管理・デバッグのためにイーサネットとJTAG等のインタフェースを変換回路を介して接続するネットワークが用意されている。このネットワークを用いて管理用コンピュータから遠隔操作を行う。 |
||
====I/Oネットワーク==== |
==== I/Oネットワーク ==== |
||
I/Oノードが持つギガビット・イーサネットが接続されるネットワークで、I/Oノード同士の通信と外部のファイルサーバ |
I/Oノードが持つギガビット・イーサネットが接続されるネットワークで、I/Oノード同士の通信と外部のファイルサーバへのアクセスを担う。 |
||
=== |
=== システムソフトウェア === |
||
====OS==== |
==== OS ==== |
||
;計算ノード |
;計算ノード |
||
計算ノードでは、''Compute Node Kernel''(CNK)と呼ばれる独自のOSカーネルが動作している。マルチユーザをサポートしない、同時実行スレッド数はCPUの数と同じ2つのみ、ページング機能を持たずアドレス空間は512MiBに固定するなど、機能を絞ることでOSのオーバーヘッドを小さくしている。 |
計算ノードでは、''Compute Node Kernel''(CNK)と呼ばれる独自のOSカーネルが動作している。マルチユーザをサポートしない、同時実行スレッド数はCPUの数と同じ2つのみ、ページング機能を持たずアドレス空間は512MiBに固定するなど、機能を絞ることでOSのオーバーヘッドを小さくしている。 |
||
98行目: | 110行目: | ||
計算ノードとI/Oノードの管理を担うサービスノードでは、''Core Management and Control System''(CMCS)が動作している。CMCSの役割は、各ノードの電源投入や温度やファンなどの監視と異常検知時の緊急シャットダウン、ノードの初期化や再設定などである。 |
計算ノードとI/Oノードの管理を担うサービスノードでは、''Core Management and Control System''(CMCS)が動作している。CMCSの役割は、各ノードの電源投入や温度やファンなどの監視と異常検知時の緊急シャットダウン、ノードの初期化や再設定などである。 |
||
== Blue Gene/P == |
|||
==プログラミングモデル== |
|||
[[Image:BlueGeneP rack.jpg|right|thumbnail|Blue Gene/Pのノードカード]] |
|||
Blue Gene/Lの[[#システム構成|システム構成]]は、各計算ノードで独立して実行されるプロセスがネットワークを介して互いにデータを交換する[[メッセージ (コンピュータ)#メッセージパッシング|メッセージパッシング]]モデルを想定した設計となっている。メッセージパッシングにおいて[[デファクトスタンダード]]として利用される[[Message Passing Interface]] (MPI)をサポートしていることから、MPIを利用して実装された既存のスーパーコンピュータ向け並列アプリケーションの多くは移植するだけでBlue Gene/Lの特徴を生かして実行される。 |
|||
'''Blue Gene/P'''は、2007年6月26日にIBMが発表した、次世代のBlue Geneスーパーコンピュータ。継続的に1 PFLOPSで稼動し、最大3 PFLOPSまで構成可能な余地を持って設計された。更に、小型で低電力の多数のチップを5つの特別なネットワークで結合する事で、他のスーパーコンピュータより少なくとも7倍のエネルギー効率を実現した。それぞれのBlue Gene/Pチップには、4個のPowerPC 450 850MHzプロセッサが搭載されている。1 PFLOPSのBlue Gene/Pは、高速の光ネットワークを備えた72ラックに294,912個のプロセッサで構成される。216ラックに884,736個のプロセッサまで拡張する事で、3 PFLOPS性能に達する。標準のBlue Gene/P構成では、1ラックに4,096個のプロセッサを格納する。 |
|||
2007年11月12日、最初のシステムの[[JUGENE]]が、[[ドイツ]]のユーリッヒ研究センターで、65,536プロセッサを搭載し167 TFLOPSで稼動した<ref>[http://www.pressebox.de/pressemeldungen/ibm-deutschland-gmbh-4/boxid-136200.html Supercomputing: Jülich Amongst World Leaders Again]</ref>。<!---- 未翻訳 When inaugurated it was the fastest supercomputer in Europe and the sixth fastest in the world. The first laboratory in the United States to receive the Blue Gene/P was [[Argonne National Laboratory]]. The first racks of the Blue Gene/P shipped in fall 2007. The first installment was a 111-teraflops system, which has approximately 32,000 processors, and was operational for the US research community in spring 2008.<ref>{{cite news |last = Curry |first = Jessica |title = Blue Gene Baby |publisher = [[Chicago Life]] |date = 2007-08-12 |url = http://chicagolife.net/content/chicago/Blue_Gene_Baby}}</ref> The full Intrepid system is ranked #3 on the June 2008 Top 500 list.<ref>[http://www.mcs.anl.gov/news/detail.php?id=147 "Argonne's Supercomputer Named World’s Fastest for Open Science, Third Overall"]</ref> Another Blue Gene/P has been installed on September 9, 2008 in [[Sofia]], the capital of [[Bulgaria]], and is operated by the [[Bulgarian Academy of Sciences]] and the [[Sofia University]].<ref>[http://dnes.dir.bg/2008/09/09/news3363693.html#sepultura Вече си имаме и суперкомпютър], Dir.bg, 9 September 2008</ref> In 2010, a Blue Gene/P was installed at the [[University of Melbourne]] for the [[Victorian Life Sciences Computational Initiative]].<ref>http://www-03.ibm.com/press/au/en/pressrelease/29383.wss</ref> |
|||
In February 2009 it was announced that JUGENE will be upgraded to reach petaflops performance in June 2009, making it the first [[petascale]] supercomputer in [[Europe]]. The new configuration has started at April 6, the system will go into production end of June 2009. The new configuration will include 294 912 processor cores, 144 terabyte memory, 6 petabyte storage in 72 racks. The new configuaration will incorporate a new water cooling system that will reduce the cooling cost substantially.<ref>http://www.fz-juelich.de/jsc/news/interruptions</ref><ref>http://www.fz-juelich.de/portal/index.php?index=163&jahr=2009&cmd=show&mid=670</ref><ref>http://www-03.ibm.com/press/us/en/pressrelease/26657.wss</ref> |
|||
[[Veselin Topalov]], the challenger to the [[World Chess Championship 2010|World Chess Champion]] title in 2010, confirmed in an interview that he had used a Blue Gene/P supercomputer during his preparation for the match.<ref>{{cite web|url=http://players.chessdom.com/veselin-topalov/topalov-blue-gene-p|accessdate=21 May 2010|title=Topalov training with super computer Blue Gene P|publisher=Chessdom}} |
|||
===Web-scale platform=== |
|||
The [[IBM Kittyhawk]] project team has ported Linux to the compute nodes and demonstrated generic Web 2.0 workloads running at scale on a Blue Gene/P. Their paper published in the [[ACM Operating Systems Review]] describes a kernel driver that tunnels Ethernet over the tree network, which results in all-to-all [[TCP/IP]] connectivity.<ref>[http://weather.ou.edu/~apw/projects/kittyhawk/kittyhawk.pdf Project Kittyhawk: building a global-scale computer]</ref> Running standard Linux software like [[MySQL]], their performance results on [[SpecJBB]] rank among the highest on record.{{Citation needed|date=September 2010}} |
|||
---> |
|||
== Blue Gene/Q == |
|||
'''Blue Gene/Q'''は、Blue Geneシリーズの最新のスーパーコンピュータの設計で、2011年内に20 PFLOPS達成を目標としたが、2012年に延期された。Blue Gene/Qは、高い電力当り性能を持つ Blue Gene/L や Blue Gene/P の拡張と強化を続けたもので、1684 MFLOPS/Watt を実現した<ref>[http://www.serverwatch.com/hreviews/article.php/3913536/Top500-Supercomputing-List-Reveals-Computing-Trends.htm Top500 Supercomputing List Reveals Computing Trends]</ref><ref>[http://www.datacenterknowledge.com/archives/2010/11/18/ibm-system-clear-winner-in-green-500/ IBM Research A Clear Winner in Green 500]</ref>。 |
|||
=== 設計 === |
|||
Blue Gene/Qのプロセッサは'''Power BQC'''と呼ばれ、[[:en:PowerPC A2|PowerPC A2]]をベースにしている。Blue Gene/Q は、16コアを持つ、4-Way の[[マルチスレッド|ハイパースレッド]] [[64ビット]] の [[PowerPC]] A2 ベースのチップを搭載している。そのチップは統合されたメモリとI/Oコントローラを持ち、各プロセッサコアに1 GB DDR3 RAMを持つノードカードに搭載される<ref name="TheRegSC10">[http://www.theregister.co.uk/2010/11/22/ibm_blue_gene_q_super/ IBM uncloaks 20 petaflops BlueGene/Q super]</ref><ref>[http://www.itworld.com/hardware/136215/us-commissions-beefy-ibm-supercomputer US commissions beefy IBM supercomputer - IDG News Service]</ref>。 |
|||
<!---- |
|||
* A compute drawer will have 32 compute cards, each water cooled and connected with fiber optics for the 5D network torus.<ref name="TheRegSC10" /> |
|||
* Each I/O drawer will be air cooled and contain 8 compute cards and 8 PCIe expansion slots for [[Infiniband]] or [[10 Gigabit Ethernet]] networking.<ref name="TheRegSC10" /> |
|||
* Racks will have 32 compute drawers for a total of 1024 compute nodes, 16,384 cores and 16 TB RAM.<ref name="TheRegSC10" />---> |
|||
=== 導入 === |
|||
{{main|TOP500#TOP500リスト}} |
|||
Blue Gene/Qを採用したシステムには以下がある。 |
|||
*[[セコイア (スーパーコンピュータ)|セコイア]] |
|||
*[[Mira (スーパーコンピュータ)|Mira]] - [[アルゴンヌ国立研究所]]<ref>[http://www-03.ibm.com/press/us/en/pressrelease/33586.wss Argonne National Laboratory Selects IBM Supercomputer to Advance Research - Based on next generation IBM Blue Gene, the 10 petaflop "Mira" supercomputer will fuel national innovation - IBM]</ref> |
|||
*Fermi |
|||
*JuQUEEN |
|||
== プログラミングモデル == |
|||
Blue Gene/Lの[[#システム構成|システム構成]]は、各計算ノードで独立して実行されるプロセスがネットワークを介して互いにデータを交換する[[メッセージ (コンピュータ)#メッセージパッシングシステムとモデル|メッセージパッシング]]モデルを想定した設計となっている。メッセージパッシングにおいて[[デファクトスタンダード]]として利用される[[Message Passing Interface]] (MPI)をサポートしていることから、MPIを利用して実装された既存のスーパーコンピュータ向け並列アプリケーションの多くは移植するだけでBlue Gene/Lの特徴を生かして実行される。 |
|||
しかし、[[#ネットワーク|ネットワーク]]で述べたように通信の局所性が乏しい、また処理全体の中で通信時間の比率が高いもの、元々並列度が低いアプリケーションについては、より低遅延・広帯域なネットワークを備える他のシステムに比べ低い実行効率しか得られない。Blue Geneは、通信に対する計算の比率が高いアプリケーションほどより有利に実行可能である。 |
しかし、[[#ネットワーク|ネットワーク]]で述べたように通信の局所性が乏しい、また処理全体の中で通信時間の比率が高いもの、元々並列度が低いアプリケーションについては、より低遅延・広帯域なネットワークを備える他のシステムに比べ低い実行効率しか得られない。Blue Geneは、通信に対する計算の比率が高いアプリケーションほどより有利に実行可能である。 |
||
==脚注== |
== 脚注 == |
||
<references/> |
<references/> |
||
==参考文献== |
== 参考文献 == |
||
*{{Cite web|publisher=IBM Research|title=IBM Journal of Research and Development Vol. 49, No. 2/3, 2005 - Blue Gene|url=http://www.research.ibm.com/journal/rd49-23.html|year=2005| |
*{{Cite web|publisher=IBM Research|title=IBM Journal of Research and Development Vol. 49, No. 2/3, 2005 - Blue Gene|url=http://www.research.ibm.com/journal/rd49-23.html|year=2005 |accessdate=2008年1月17日 }} |
||
*{{Cite journal|title=Blue Gene/L システム ─ スーパーコンピューティングへのグランドチャレンジ─|url=http://www-06.ibm.com/jp/provision/no48/pdf/48_article2.pdf|author=清水茂則、寒川光|journal=PROVISION|issue=48|year=2006|publisher=日本アイ・ビー・エム株式会社}} |
*{{Cite journal|title=Blue Gene/L システム ─ スーパーコンピューティングへのグランドチャレンジ─|url=http://www-06.ibm.com/jp/provision/no48/pdf/48_article2.pdf|author=清水茂則、寒川光|journal=PROVISION|issue=48|year=2006|publisher=日本アイ・ビー・エム株式会社}} |
||
113行目: | 157行目: | ||
*[http://www.cbrc.jp/ 産業技術総合研究所 生命情報工学研究センター] |
*[http://www.cbrc.jp/ 産業技術総合研究所 生命情報工学研究センター] |
||
{{IBM_Computers}} |
|||
[[Category:IBM]] |
|||
[[Category:IBMのスーパーコンピュータ]] |
|||
[[Category:スーパーコンピュータ]] |
[[Category:スーパーコンピュータ]] |
||
[[Category:POWERマイクロプロセッサ]] |
|||
[[de:BlueGene]] |
|||
[[en:Blue Gene]] |
|||
[[eo:BlueGene]] |
|||
[[es:Blue Gene]] |
|||
[[fr:Blue Gene]] |
|||
[[id:Blue Gene]] |
|||
[[it:Blue Gene]] |
|||
[[ka:IBM BlueGene/L]] |
|||
[[lt:BlueGene]] |
|||
[[nl:Blue Gene]] |
|||
[[pl:Blue Gene]] |
|||
[[sv:Blue Gene]] |
|||
[[uk:Blue Gene]] |
|||
[[zh:蓝色基因]] |
2024年9月2日 (月) 05:06時点における最新版
Power アーキテクチャ |
---|
Blue Gene(ブルージーン)はIBMのスーパーコンピュータプロジェクトである。
Blue Geneプロジェクトは1999年に発表され[1][2]、第1世代はBlue Gene/L[3]、第2世代はBlue Gene/P[4]、第3世代はBlue Gene/Q[5]である。Blue GeneはPowerPC系のプロセッサを多数使用したHPCクラスタで、TOP500やGreen500、HPCCアワードなどのスーパーコンピュータ性能ランキングの上位を占めている。
IBMでは1997年にチェスの世界王者ガルリ・カスパロフに勝利した「Deep Blueの子孫」と称している[6]
概要
[編集]Blue Gene プロジェクトの最初のコンピュータである「Blue Gene/L」は、1億ドルの費用をかけてピーク性能で360TFLOPSを目指し、ローレンス・リバモア国立研究所と共同で開発された。この目標は日本製の旧地球シミュレータの実効性能35.86TFLOPSの10倍の速さである。2010年までにピーク性能1PFLOPSの「Blue Gene/P」、2010~2012年には10PFLOPSの「Blue Gene/Q」の開発を目指した。
特徴
[編集]- プロセッサ
Blue Gene登場前のスーパーコンピュータでは、専用のベクトルプロセッサやx86、POWERなどの高性能なプロセッサを数十個から最高で数千個搭載するものが中心であった。Blue Geneプロジェクトでは、一つ一つの性能は高くないプロセッサを最高で数十万個以上搭載し、並列実行するプログラム数を格段に増やすことで高い性能を実現する設計を採用した。
- ネットワーク
メッセージパッシング、同期など並列アプリケーション特有のプログラミング手法を支援する独自のコンピュータネットワークを搭載している。
- 導入・管理コスト
発熱の低いプロセッサの採用や周辺回路の1チップ化によって、設置面積、消費電力、冷却に必要な空調設備などに要するコストを低く抑えている。
システム構成
[編集]Blue Geneは、システムとしての最小構成となるラックを必要に応じて複数接続することでユーザが求める性能を提供する。そのラックは、1プロセスを実行する最小単位となる計算ノードを複数個搭載しており、各ノードはコンピュータネットワークによって接続されている。
歴史
[編集]ローレンス・リバモア研究所のシステム
[編集]2004年11月に発表された第24回Top500リスト[7]において、スーパーコンピュータ向けベンチマークLINPACKにおけるBlue Gene/Lの実効性能は70.72TFLOPSとなり、地球シミュレータを抜いて当時の世界最速のスーパーコンピュータとなった。当時はまだ搭載CPUコアが32,768個であり、ベータ版という位置づけであった。
その半年後の2005年6月、Blue Gene/LはCPU数を65,536個に倍増して136.80TFLOPSを達成[8]し、さらに2005年10月には131,072個のCPUで280TFLOPSを達成[9]したと発表した。 2007年11月の第30回Top500では、CPUコアをさらに増やし212,992個で478TFLOPSを記録[10]し、当初の計画目標である360TFLOPSを達成した。
日本国内への導入
[編集]日本国内では産業技術総合研究所生命情報工学研究センターが4ラックを導入し、2005年6月に発表されたTop500で第8位を記録した[11]。その後ニイウス株式会社で1ラック、2006年には高エネルギー加速器研究機構で10ラックが稼働を開始した。
その他
[編集]Blue Gene/L
[編集]計算ノード
[編集]計算ノードの構成をシンプルにすることで、はんだ不良などによるハードウェア故障を減らし、また高密度実装を実現した。計算ノード単体の性能は、PCにくらべ低くまた搭載メモリ量も少ないため、一般的な環境に比べるとプロセスに対する制約が大きい。
構成
[編集]メモリ以外の要素はSoCとして統合し、一つの集積回路に収めたことから、実質的には二つの部品のみで構成される。
- PowerPC 440ベースのプロセッサ x 2
- 組み込みシステム向けの省電力プロセッサであるPowerPC 440[13]をベースにしたものを2つ搭載している。各コアにはそれぞれ独立した倍精度浮動小数点演算ユニットとL2キャッシュが付属し、2コア間では4MiBのL3キャッシュを共有している。
- ネットワークインタフェース
- 計算ノード間の通信に利用するBlue Gene独自の三次元トーラスネットワーク、集団通信ネットワーク、グローバルバリアネットワークと、ギガビット・イーサネットのインタフェースを備える。
- JTAGインタフェース
- 計算ノードの診断やデバッグに用いる。
- メモリ
- 512MiBのDDR SDRAM
高密度実装
[編集]省電力プロセッサを採用した理由は高密度実装を実現するためである。一般的なPCやサーバ、また旧来のスーパーコンピュータが採用する高性能プロセッサの多くは、消費電力とそれに伴う発熱も大きいため、そのようなCPUを筐体に多数詰め込むと排熱が非常に困難になる。かといって筐体内の密度を下げるとケーブルや接続コネクタなどの構成部品が増え、それが信頼性の低下を招く。 Blue Gene/Lでは消費電力あたりの性能が高い組み込み用途向けプロセッサを導入することでその問題を解決した[14]。この設計方針により、Blue Gene/Lはその性能に対し電力消費や設置面積において非常にコンパクトなシステムとなった。Blue Gene/Lの消費電力あたりの性能は112.24MFLOPS/Wであり[15]、地球シミュレータの3.01MFLOPS/Wと比べると、Blue Gene/Lは37倍も電力効率の良いシステムである。
ラック
[編集]Blue Gene/Lのラック内には、計算ノードを2つ搭載する計算カードが512枚搭載され、2048CPUのマシンとして構成されている。それに加え、ファイルシステムへのアクセスを担当するI/Oノードが1ラック当り2から64枚搭載されている。I/Oノードはギガビット・イーサネットでラック外部のファイルサーバと接続し、集団通信ネットワークを介して計算ノードと通信を行う。ラックに搭載するI/Oノードの数は、実行するアプリケーションの性質によって調整する。
ネットワーク
[編集]Blue Gene/L内のノード接続には、その用途に応じて異なる5種類のネットワークが使われている。
三次元トーラスネットワーク
[編集]三次元トーラスネットワークは低遅延・広帯域を要求されるノード間の一対一通信に使われ、Blue Geneの通信ネットワークの中でも最も重要な位置を占める。
三次元トーラスネットワークは隣接ノード同士の接続から構成されるため、通信相手によってはその通信データが複数ノードを経由して到達することになる。 よって、トーラスネットワークの帯域を効率的に用いるには、三次元トーラスにおける通信を出来るだけ局所的に抑えるようなアルゴリズムを適用する必要がある。また、通信局所性をBlue Geneの物理的な接続配置にあわせることも重要である。
各計算ノード間の接続は1方向あたり1.4Gbps、遅延は100ナノ秒となる。各ノードは近隣の6ノードとそれぞれ双方向に接続しており、1ノードの合計入出力帯域は16.8Gbpsに達する。ノード数が65,536の場合トーラスは64x32x32となり、最大ホップ数は32+16+16=64ホップ、最大遅延は6.4マイクロ秒となる。
集団通信ネットワーク
[編集]集団通信ネットワークは、ある1ノードと複数ノードとの一対多通信やファイル転送に用いられるもので、各ノードと他の1~3ノードとの相互接続による2分木ネットワークによって構成される。発信元から末端までの遅延は最大5マイクロ秒、帯域は2.8Gbpsである。
- ノード処理結果の収集・集約
現在のスーパーコンピュータ向け並列アプリケーションでは、各ノードの処理結果を集約する操作に多く時間を費やしている。その性質を踏まえ、Blue Geneの集団通信ネットワークには最大・最小値、合計等の整数演算やビット列論理演算による集約機能を備えている。Blue Geneの集団通信ネットワークの遅延は他の一般的なスーパーコンピュータにくらべ1/10から1/100であり、Blue Gene/Lの最大構成時においても効率的な集約処理を実現している。
あるノードから複数のノードにデータをブロードキャストするのに集合通信ネットワークが用いられる。三次元トーラスネットワークでもブロードキャストは可能だが、ネットワークトポロジの面から見て集合通信ネットワークのほうがずっと効率的である。
グローバルバリアネットワーク
[編集]並列アプリケーションでは、各プロセスの同期がよく行われる。プロセッサ数とノード数におけるスケーラビリティを確保するためには、同期待ちに伴う遅延を改良する必要がある。グローバルバリアネットワークには、複数ノードの同期をハードウェアによる支援によって高速に行う機構が備えられている。 このバリアネットワークは低遅延という特徴を持ち、65,536ノードの同期に必要な時間は1.5マイクロ秒未満である。
システム管理ネットワーク
[編集]計算ノードの初期化や監視・管理・デバッグのためにイーサネットとJTAG等のインタフェースを変換回路を介して接続するネットワークが用意されている。このネットワークを用いて管理用コンピュータから遠隔操作を行う。
I/Oネットワーク
[編集]I/Oノードが持つギガビット・イーサネットが接続されるネットワークで、I/Oノード同士の通信と外部のファイルサーバへのアクセスを担う。
システムソフトウェア
[編集]OS
[編集]- 計算ノード
計算ノードでは、Compute Node Kernel(CNK)と呼ばれる独自のOSカーネルが動作している。マルチユーザをサポートしない、同時実行スレッド数はCPUの数と同じ2つのみ、ページング機能を持たずアドレス空間は512MiBに固定するなど、機能を絞ることでOSのオーバーヘッドを小さくしている。 CNKはPOSIXに近いインタフェースを持ち、アプリケーション開発者に対してGNU GlibcとファイルI/O用システムコールを提供している。I/O処理はCNKが行うのではなく、CNKの要求を受けたI/Oノードが代わりに実行する。上で述べたCNKの制限からforkやexecなどのマルチプロセスはサポートしない。
- I/Oノード
I/Oノードでは、I/Oノード独自のデバイスをサポートしたLinuxカーネルベースのカーネルを採用している。
I/Oノード上ではControl and I/O Daemon(CIOD)が動作しており、計算ノードのファイルアクセスやジョブの制御を行っている。計算ノードでのジョブ実行は、I/Oノードがプログラムを計算ノードにロードし、実行開始指令をCNKに出すことで開始される。ジョブ実行中、I/OノードはCNKから送られてきたI/O処理依頼を実行する。
- サービスノード
計算ノードとI/Oノードの管理を担うサービスノードでは、Core Management and Control System(CMCS)が動作している。CMCSの役割は、各ノードの電源投入や温度やファンなどの監視と異常検知時の緊急シャットダウン、ノードの初期化や再設定などである。
Blue Gene/P
[編集]Blue Gene/Pは、2007年6月26日にIBMが発表した、次世代のBlue Geneスーパーコンピュータ。継続的に1 PFLOPSで稼動し、最大3 PFLOPSまで構成可能な余地を持って設計された。更に、小型で低電力の多数のチップを5つの特別なネットワークで結合する事で、他のスーパーコンピュータより少なくとも7倍のエネルギー効率を実現した。それぞれのBlue Gene/Pチップには、4個のPowerPC 450 850MHzプロセッサが搭載されている。1 PFLOPSのBlue Gene/Pは、高速の光ネットワークを備えた72ラックに294,912個のプロセッサで構成される。216ラックに884,736個のプロセッサまで拡張する事で、3 PFLOPS性能に達する。標準のBlue Gene/P構成では、1ラックに4,096個のプロセッサを格納する。
2007年11月12日、最初のシステムのJUGENEが、ドイツのユーリッヒ研究センターで、65,536プロセッサを搭載し167 TFLOPSで稼動した[16]。
Blue Gene/Q
[編集]Blue Gene/Qは、Blue Geneシリーズの最新のスーパーコンピュータの設計で、2011年内に20 PFLOPS達成を目標としたが、2012年に延期された。Blue Gene/Qは、高い電力当り性能を持つ Blue Gene/L や Blue Gene/P の拡張と強化を続けたもので、1684 MFLOPS/Watt を実現した[17][18]。
設計
[編集]Blue Gene/QのプロセッサはPower BQCと呼ばれ、PowerPC A2をベースにしている。Blue Gene/Q は、16コアを持つ、4-Way のハイパースレッド 64ビット の PowerPC A2 ベースのチップを搭載している。そのチップは統合されたメモリとI/Oコントローラを持ち、各プロセッサコアに1 GB DDR3 RAMを持つノードカードに搭載される[19][20]。
導入
[編集]Blue Gene/Qを採用したシステムには以下がある。
- セコイア
- Mira - アルゴンヌ国立研究所[21]
- Fermi
- JuQUEEN
プログラミングモデル
[編集]Blue Gene/Lのシステム構成は、各計算ノードで独立して実行されるプロセスがネットワークを介して互いにデータを交換するメッセージパッシングモデルを想定した設計となっている。メッセージパッシングにおいてデファクトスタンダードとして利用されるMessage Passing Interface (MPI)をサポートしていることから、MPIを利用して実装された既存のスーパーコンピュータ向け並列アプリケーションの多くは移植するだけでBlue Gene/Lの特徴を生かして実行される。 しかし、ネットワークで述べたように通信の局所性が乏しい、また処理全体の中で通信時間の比率が高いもの、元々並列度が低いアプリケーションについては、より低遅延・広帯域なネットワークを備える他のシステムに比べ低い実行効率しか得られない。Blue Geneは、通信に対する計算の比率が高いアプリケーションほどより有利に実行可能である。
脚注
[編集]- ^ 世界最速のスーパーコンピューターの開発に向け1億ドル規模の研究計画を発表 - 日本IBM
- ^ 「Blue Gene」研究プロジェクト拡大を目的に米エネルギー省NNSAとIBMが提携 - 日本IBM
- ^ 米エネルギー省向けに世界最速スーパーコンピューターを開発 - 日本IBM
- ^ IBM Blue Geneが最速スーパーコンピューター・リストで圧勝 - 日本IBM
- ^ IBMが科学発展の原動力となるスーパーコンピューターを発表 最大100ペタフロップス演算性能を誇るBlue Gene/Qで現代の難問解決を支援 - 日本IBM
- ^ 新たな科学技術の発見のためのエンジンとなったIBM Blue Gene - IBMの生んだチェス・チャンピオン「Deep Blue」の子孫として -
- ^ TOP500.org. “November 2004 TOP500 Supercomputing Sites”. 2007年10月24日閲覧。
- ^ TOP500.org. “June 2005 TOP500 Supercomputing Sites”. 2007年10月24日閲覧。
- ^ TOP500.org. “November 2005 TOP500 Supercomputing Sites”. 2007年10月24日閲覧。
- ^ TOP500.org. “November 2007 TOP500 Supercomputing Sites”. 2007年11月15日閲覧。
- ^ TOP500.org. “Computational Biology Research Center, AIST”. 2007年11月7日閲覧。
- ^ IBM、Blue Geneで米国家技術賞を受賞 - ITmedia
- ^ International Business Machines Corp. “PowerPC 440 Embedded Core - IBM Microelectronics”. 2007年10月24日閲覧。
- ^ A. Gara, et. al (2005). “Overview of the Blue Gene/L system architecture”. IBM Journal of Research and Development 49 (2). doi:10.1147/rd.492.0195 .
- ^ Green500.org. “The Green500 List”. 2007年10月24日閲覧。
- ^ Supercomputing: Jülich Amongst World Leaders Again
- ^ Top500 Supercomputing List Reveals Computing Trends
- ^ IBM Research A Clear Winner in Green 500
- ^ IBM uncloaks 20 petaflops BlueGene/Q super
- ^ US commissions beefy IBM supercomputer - IDG News Service
- ^ Argonne National Laboratory Selects IBM Supercomputer to Advance Research - Based on next generation IBM Blue Gene, the 10 petaflop "Mira" supercomputer will fuel national innovation - IBM
参考文献
[編集]- “IBM Journal of Research and Development Vol. 49, No. 2/3, 2005 - Blue Gene”. IBM Research (2005年). 2008年1月17日閲覧。
- 清水茂則、寒川光 (2006). “Blue Gene/L システム ─ スーパーコンピューティングへのグランドチャレンジ─”. PROVISION (日本アイ・ビー・エム株式会社) (48) .