初出 2005/7/15
改訂 2005/7/29
 
ISC2005報告
(http://olab.is.s.u-tokyo.ac.jp/~oyanagi/reports/ISC2005.html)
 
小柳義夫(東京大学情報理工学系研究科)
 
1.はじめに
 
 ISC2005は、ドイツ南西部のHeidelbergで、2005年6月21日から24日まで開かれた。参加者は650人ほどであった(末尾の表参照)。Ungaro (Cray), Bishop (SGI)などの有名人も顔を出していた。ISC-xy (International Supercomputer Conference) はManheim大学のProf. Hans Werner Meuerがずっと組織しているスーパーコンピューティングに関する国際会議で、オランダで組織されていたHPCN Europeが2001年を最後になくなってからはヨーロッパでの代表的な会議となった。Meuerの所属がPrometeus GmbHとなっていたので、「大学をやめてこの会社に移ったんですか?」と聞いたら、「これはおれのつくった会社だ」と言っていた。兼業しているようである。
 
 今回の会議の中心的なテーマは、LLNLのBG/Lが136.8 TFを実現し(秋には倍増?)、ペタフロップスが視野に入ってきた今、今後のHPCをどういう方向に進めたらいいかということであった。その意味では、Horst Simonの「スーパーコンピュータは生態学的存在である。」という命題は非常に示唆的である。ダイノザウルス一匹では生きていけない。またLouis-Garaの二人羽織みたいな講演は、必ずしも良く理解できなかったが、要するにペタフロップスを開発するビジネスモデルを論じていたのであろう。
 
 ハイデルベルクは、ライン川の支流ネッカー川沿いの大学町で、丘の上の城や、城の対岸の「哲学者の小道」(哲学者って誰が散歩したのでしょう?)が有名である。到着した19日(日)には家内と町をぶらぶらして、城のすぐ下にあるビールの醸造元がやっているレストランに入った。ビールも料理も非常に満足した。
 
 会場のHeidelberg Kongresshaus(左の写真は外観)は、中央駅とハイデルベルク城の中間の川沿いに位置し、古風ゆかしい会議場である。立派なテーブルをおいたので少し手狭な感じである(右の写真)。なお、来年は、エルベ川の真珠と言われる世界遺産のドレスデン(ザクセン王国の都、旧東ドイツ)に会場を移し、6月27日から30日に開かれる予定である(http://www.supercomp.de/)。
 
 このころ西ヨーロッパでは猛暑が始まったところで(実はインドでもアメリカでも)、このあたりでも最高気温が35度にもなり、冷房の効いた建物から外にでると、頭がくらくらする状態であった。ただ、湿度が低く、しかも朝晩は結構温度が下がるので、まあ耐えられる。時々雷雨やにわか雨が降る。帰る日の早暁には、近くで落雷があったらしく、爆弾のような音に飛び起きた。地元の人に言わせると、「こういう悪い天気はフランスから来るんだ。」たしかに、天気は西からやってくるが、この言葉には別の含意もあるようである。日本は涼しいかと思って帰ってきたら、26日早朝の成田はムンムンしていた。さらに6月28日には東京で36.2度を記録し、日本も暑かった。しかも湿度は高い。
 
 今年は20回目ということでお祭り気分であったが、1986年に始めた頃は、Mannheim Supercomputer Seminarと呼ばれ、マンハイム大学の教室で主にドイツ語で行われた。81人の参加者も大部分ドイツからで、オーストリアやスイスのドイツ語圏から若干の参加者があった程度のいわば国内会議であった。ちなみに、1986年に最初の基調講演を行ったのは、Raul Mendez氏(当時は、Naval Graduate Schoolかリクルートスーパーコンピューター研究所所長、今は株式会社インターナショナルシステムリサーチ代表取締役)であった。1997年からはManheimのRosengarten Congress Centerに会場を移し参加者も200名ほどになった。このときから展示会を併設するようになったとのことである。2001年からはハイデルベルクのこの会場で開かれ、英語を公式言語とするちゃんとした国際会議となった。筆者は、2002年に一度参加したことがある(報告は書かなかった)。この会議はシングルセッション形式で、招待によるreview talkが主である。審査による論文投稿はほとんどないようである。会議で示されたスライドの多くは、webで公開されている(トップページからはリンクが張ってない)。
http://www.supercomp.de/index.php?s=misc&s_nav=Conf05_7.w_Presentations)。
 
 ちなみに、1985年12月から89年4月までアメリカでKartashev夫妻の主催により4回開催されたInternational Conference on Supercomputingや、D. Kuckらを中心に、第2回からはACM/SIGARCHのもとで87年から現在まで続いているこれと同名の会議と名前が似ているので注意が必要である。
 
 21日(火曜日)には駅前の近代的なビルでチュートリアルが行われたが、筆者は後に記すようにSun HPC Consortiumに出ていたので、様子は分からない。
 
 22日朝から、24日11時まで企業や大学・研究機関センターの展示が会議場のそばで開かれていた。46の組織が55のブースで盛大に展示を示していた。ハードウェアが20件、ソフトウェアが8件、接続網が4件、問題解決が3件、記憶装置が2件、HPC センターが9件である。日本関係では、NECと富士通が出していた。IBMはこの会議のメインスポンサーだそうで、多くのブースを使いなかなかにぎやかだった。BG/Lのラックを設置し動かしていた。SC2004にも出していたが、ClearSpeedというベンチャーが、CSX600というマルチコアのコプロの実演をやっていた。96個のprocessing coresが250MHzで動き、全体では50GFのピーク速度を持つ。しかも(クロックが低いので)5 Wしか食わないということである。今後このような低消費電力・マルチコアの製品がいろいろ出てくることであろう。
 
==6月22日(水曜日)=
2.開会式
 
 10時から開会式が行われた。まずMeuer(写真)が歓迎の言葉とともに、この会議の歴史を紹介した。引き続いてハイデルベルク大学のWilli Jäger(偉い人らしい)と、European Media LaboratoryのAndreas Reuterが歓迎のことばを述べた。
 
2.1 Top500の発表 (Strohmaier)
 
 この国際会議が生き残った理由の一つはMeuerらが1993年以来、この会議(と11月のアメリカのSC)でTop500を発表していることである。これは、その時点で稼働しているhigh performance computerを、LINPACKというガウスの消去法による密行列連立一次方程式解法でのスピードでランク付けし、上位の500機をリストしたものである。実は93年5月に、Kahanerを通して、Top500のメンバに入らないかと誘いを受けたのだが、「わたしはForbesみたいのは嫌いだ。」と断った経緯もある。ガウスの消去法である限りプログラムのチューニングは自由、サイズも自由である。現在ではLINPACKによる速度は理論ピーク速度の7〜80%にも達しており、現実のアプリケーションでの速度を表していないという批判もあるが、とにかく単純なところが取り柄で、「現実」に近づけようとするとかえって設定するパラメータが多すぎて、それらを決定する論理が立たなくなる。HPL (High Performance Linpack)が利用できるようになり、現在では多くのスーパーコンがよい速度を出しているが、二昔前には、相互接続網やメモリのバンド幅が足りず、LINPACKさえまともに走らない(ピークの一桁下とか)並列計算機があったことを考えると、LINPACKが並列計算機のベースラインを上げてきた功績は評価すべきであろう。HPCCなどの試みは種々の現実的な応用の性能予測には役立つであろうが、このようなランク付けには使えないのではないかと筆者は思う。
 
 Erich Strohmaier (NERSC) は、"20 Years of Supercomputer Market Analysis at ISC" と題して、今回のリストを発表するとともに、歴史を回顧し、現状を分析した。今回のTop500リストのTop10には、なんとBlueGeneが5台もエントリーしている。




 
No. 1 BlueGene/L LLNL 136.8
No. 2 BlueGene/W Watson Lab.  91.29
No. 6  BlueGene/L Groningen  27.45
No. 8  BlueGene/L EPFP  18.2
 tie  BlueGene/L AIST  18.2
 
これには少々びっくりした。IBM Thomas Watson Lab.にあるBG/Wは、他のBG/Lと同様にピーク2.8GF/proc. であるが、多少仕様が違うのかもしれない(メモリが大きいのか?)。またAISTは産総研の生命情報科学研究センター(お台場)であるが、StrohmaierのスライドにはJAISTと誤記されており、一瞬びっくりした。他のTop10は以下の通り。




 
No. 3 Columbia NASA Ames  51.87
No. 4 Earth Simulator JAMSTEC  35.86
No. 5 MareNostrum Barcelona  27.91
No. 7 Thunder LLNL  19.94
No. 10 Red Storm Sandia  15.25
 
No. 1, 2, 3とNo.5 (ヨーロッパでトップ)に表彰状が授与された。
 
 Strohmaier氏は、1950年頃のEDSAC1やUNIVAC1(1 KF弱、でもそのころLINPACKはなかった)から今日までの計算機の進歩を示し、55年間、年率1.608で進歩していることを示した。Mooreの法則「18ヶ月毎にトランジスタ数は倍増する」は年率1.587に相当するから、これにほぼ等しい。[但しMoore氏は、メモリは12ヶ月毎に倍増、CPUは24ヶ月毎に倍増、といっただけで、18ヶ月という数字は自分では出していないまた、Simonは触れなかったが、クロックも上昇しているはずだから、その高速化の効果がどこかに消えてしまっていることを示している。]
 
 マンハイム大学では、Top500の前、1986年から1992年までMSS (Manheim Supercomputer Statistics) を出しており、これはベクトル計算機の台数の統計である。これによると、製造別では、1986年にはCray+CDC で80%、残りが日本の3社だったが、1992年にはCDCは消滅し、Crayが60%、残りが日本の3社だった。設置場所の統計では、アメリカと日本が35%ずつ、残りのほとんどががヨーロッパであった。台数の合計では530台となっている。
 
 Top500の傾向はHP (http://www.top500.orgまたはhttp://phase.hpcc.jp/mirrors/top500/)にある図にも示されている。くわしくはそちらを見て頂きたいが、今年のTop500の参入条件はすでに1.166TF以上となり、テラフロップスないとスーパーコンの仲間に入れないということである。1993年のTop500の速度の合計が1.167TFであったから、12年前の500台の計算機がまとめてかかっても、今の500番目にも入れるかどうかということである。
 
 なかでもショックだった図は、アジア諸国のTop500に含まれる台数のグラフで、日本は1993年には110台あったのに、2005年には20台強にまで減ってしまっていることである。反面、中国の進出が著しい。日本製のスーパーコンが少ないことと合わせて、いゆゆしき事態と言わなければならない。
 
 予想では、2009年にトップが1PFに到達するはずであるが、これはDARPAのHPCSであろうということである。
 
 
2.2 Horst Simon "Progress in Supercomputing: The Top Three Breakthroughs of the Last 20 Years and the Top Three Challenges for the Next 20 Years"
 
 二つの基調講演の一つはHorst Simon (Associate Laboratory Director, LBNL)(写真)であった。かれはまず20年前のCray-2と現代のBG/Lを比較した。
    Cray-2   IBM BG/L    倍率
  クロック  244 MHz   700 MHz  x  2.86
 ノード数     4   65536  x 16,384
 peak perf.   1.95 GF   180 TF  x 92,307
 memory   2GB   32 TB  x 16,000
 LINPACK Rmax   1.2 GF   135 TF  x 110,000
 floor space   1.6 m^2   250 m^2  x 156
  power   0.2 MW   1.8 MW  x   9
 
私見では、この2台が1985年と2005年を代表する計算機かどうかは疑問の残るところであるが、他の変化に比べてクロック周波数が3倍にもなっていないところが面白い。ただし、Cray-2は当時の最も高速なクロックの計算機であり、BG/Lは電力を減らすためにわざと低い周波数を用いていることに注意すべきであろう。
 
 Simonは、この他20年間の変化として
1. custom built vector vs. commodity MPP
2. vector Fortran vs. Fortran/C with MPI
3. propriety OS vs. Unix, Linux
4. remote batch only vs. interactive use
5. no visualization vs. visualization
6. hand tuning only vs. parallel debugger, development tools
7. dumb terminals vs. high performance desktops
8. 9600 baud access vs. 10 Gb/s access with grid tools
9. serial vectorized algorithms vs. parallel algorithms
その他を上げた。
 
 この講演で面白かったのは、20年間の10の主要な成果である(タイトルでは3つ挙げる予定のようだったが、10に増やしたらしい)。かれは下から列挙していった。
 
No.10−−10番目はTOP500 listだ(半分ジョーク?)
No.9−−NAS Pareallel Benchmark
No.8−−The "grid"
No.7−−Hierarchical algorithms: multigrid and fast multipole methods
No.6−−HPCC initiative and Grand Challenge applications
 
No.5−−The "Attack of the Killer Micros"
 この言葉を最初に使ったのはSC89 (Reno)でのEugene Brooks (LLNL)である[SC89には参加したが、このことは知らなかった。]この表現は、custom ECLからcommodity CMOSへの劇的な変化をうまく言い表していた。しかし(とSimonは言った)、しかしHPCがcommodity micro processorへ傾斜していったことは、不可避でもなかったし、唯一の技術的選択でもなかった。[何を言いたいのか。]
 
No.4−−Beowulf Clusters
 言うまでもなくThomas Sterlingらが低価格ハイエンド計算のビジョンを示した。これにより、並列計算を世界中の多くの人に利用可能なものとし、HPCの民主化を実現した。しかし(と、Simonは強調した)これによりHPCアーキテクチャの革新が少なくとも10年は停止し、custom systemの市場を狭いものとしてしまった。
 
No.3−−Scientific Visualization
 いろいろな絵を示し、いかに研究開発にインパクトをもたらしたかを述べた。
 
No.2−−Messege Passing Interface (MPI)
 MPIにより、1990年頃研究されていた並列言語(Sisal, Haskel, Unity, LGDFなど)はすっかり忘れ去られてしまった。1990年頃Dongarraは7つの並列処理の方法論を与えている。
0. Automatic parallelizing compiler -- low level language
1. Compiler directives
2. Add-on to existing sequential language (monitors, send/receive, SCHEDULE, macros, subroutine)
3. Standard parallel features in existing languages -- PFC
4. Special parallel languages -- SISAL, Linda, Strand
5 High-level languages -- Lips (pure), prolog (pure)
6. New Programming models -- spread sheet, neural networks
 
message passing libraryは2.の括弧のなかに触れられているだけである。.
 
 1996年の並列プログラミングは、NERSCの統計によると、30%はPVM、30%はMPI、30%はHPF、10%はSHMEM or CRAFTであった。MPIの地位がが確立したのは1998年になってからのことであった。
 
 2010年までに、新しい並列プログラミングの方法論が出現するだろうか、わたしは否定的である。なぜなら、
1. MPIはHPCの世界の事実上の標準となってしまった。
2. 標準は常に進歩の障壁である。
3. MPI標準は、1980年代半ばの技術のいわばleast common denominator(最小公約数?)である。
 
 要するに、プログラミングモデルはハードウェアを反映しいる。わたし自身ISC2001において、こう述べている。「どのようにペタフロップスコンピュータでプログラムするのかは分からないが、MPIはどこかで必要になるであろう。」
 
No.1−−[最大の成果に何を持ってくるのかと思ったら]一番は、"Scaled Speed-Up"である。Amdahlの法則により、だれもそんなことができるとは思わなかったからだ。もし、並列化できない部分がαの割合であるとすれば、どんなに並列度を上げても、1/αよりは速くならないからである。しかしこの議論には嘘がある。問題のサイズを固定して考えているからである。そもそも、大きなコンピュータを使うのは、大きな問題を解くためである。これにより、並列応用の開発の道が開けた。並列計算の理解に関するこのチャレンジなしには、並列計算機を使いこなすことは出来なかったであろう。
 
 さて、今度は将来を考えよう。今後20年のチャレンジは何であろうか。3つの時期に分けて考える。まず2005-2010の課題は、ペタフロップスまで応用プログラムをスケールさせることである。たとえば10GFのプロセッサを10万台つなげば名目的には1PFの計算機になる。しかし3つの大問題がある。
1) 100,000個のプロセッサ(おそらくはマルチコア)までスケーリングを実現すること。
2) 相互接続網をどうするか。トポロジーをどうするか。
3) メモリーの壁をどう破るか。
NERSCの利用統計を見せ、今では約半分の時間は、64+ノード(1024+プロセッサ)のジョブが走っていることから、現在は、テラフロップスの実効性能は実現し、512-1024プロセッサまでのスケーリングは実現している。しかし並列度は必ずしも上昇していない。TOP500の統計によると、1998から2004まで並列度の最大値はASCI Redの10000弱であった。BG/Lでやっと破られたが。さらに、違うアーキテクチャの上でスケーリングがポータブルかどうか大いに問題である。アルゴリズム、ツール、システムソフトの3つのレベルで考えて行かなければならない。
 
 2010-2018の課題は、HPCの新しいエコシステムを開発することである。スーパーコンピュータのプラットフォーム、ソフトウェア、研究機関、応用、利用者は一つのエコシステムを構成している。HPCへの研究投資はエコシステムの観点から考えなければならない。個々のブレークスルーの進歩ではなく、相互に連関した技術の広い前線を進歩させなければならない[と言って、池のエコシステムの絵を見せた]。1980年代のスーパーコンピュータのエコシステムは冷戦と多量の石油消費である。その結果、強力なベクトルスーパーコンピュータと、Fortran応用プログラムの20年間の蓄積が主役であった。2005年のスーパーコンピュータのエコシステムは、COTS (Commercial Off The Shelf) technologyである。その結果、クラスタとMPI応用プログラムの12年間の蓄積が主役になっている。この変化はどうして起こったか。
1) 重厚なR&D投資
 −アメリカにおけるHPCC
 −言語、ツール、システムソフトに関するコンピュータ科学の実験
 −グランドチャレンジ応用の発展
2) 外部要因
 −CMOS microsへの産業的転換
3) すべての変化は実質上ほぼ同時に起こった。
 −これはエコシステムの変化だからだ。
2005年のエコシステムを観察すると。
1) 非常に安定している
 −古い種(X1)を再導入しようという試みは失敗した。
 −新しい種を導入しようという試みも失敗した(BG/LはオリジナルなBGの突然変異体である[要するに、普通のマシンになってしまった、と言いたいらしい]。
2) うまく動いている
3) それなのに、なぜみんなハッピーでもなく満足もしないのか。
従って、2010-2018の課題は、HPCの新しいエコシステムを開発することである。
1) スーパーコンピューティング・コミュニティーは、現在の状況がHPCにとって最適でないことを認識しいている。
 −"divergence problem" and Blue Planet at NERSC [意味不明]
 −「正しい」ベンチマークへの関心
2) アーキテクチャやソフトウェアの課題を考えると、現在のエコシステムが2010年後まで存続しうるとは考えられない。
3) どのようにエコシステムを変革したらいいのか。
4) どのようなエコシステムに変化させたらいいのか。
5) DARPA HPCSは正しい道に進んでいる。それは、新しいアーキテクチャと新しい言語を、ベンダによる商業化とともに要求しているからである。
6) しかし、たった$150Mの予算で、$6-8Bの産業界を変革できるのか?
 
 最後に、2015-2025の課題は、Mooreの法則がいよいよ飽和してしまうことである。2015年と2025年の間のいつかに、半導体に基づくマイクロプロセッサの性能向上は終わりを告げるであろう。それは、デバイスあたりの電子数が1個を割ってしまい、信号がノイズより小さくなってしまうからである。いまのところ、この課題に向けての強力な研究計画は存在しない。代替技術による解決はあり得るが、何もしないでいてやって来るわけではない。50年間の指数的成長のあと、産業界は「ゼロ成長」のシナリオに耐えられるか?
 
2.3 New Architectures, New Applications
 
 午後は、ヨーロッパやアメリカの高性能計算機の紹介があった。バルセロナのMareNostrum、パリのCNRS、NASAのColumbia、ORNL、シュトゥットガルトのHLRSなど。
 
2.4 Thomas Sterling, "Looking Back over the Last Year in HPC"
 
 コーヒーブレークのあとはTom Sterling(写真)の講演であった。かれも20周年を意識しているようであった。去年から今年に掛けてのHPCの世界を見ると、新しい方向が見えてきた気がする。それは、新しいレベルの並列度であり、電力消費が鍵だということである。アジアおよび東ヨーロッパの成長も注目に値する。
 
 トレンドのハイライトとしては、2年以上地球シミュレータが占めていた首位の座をBlueGene/Lが取り戻したことである。Linpackベンチマークで4倍の性能を記録した。これは、「High Density Computing」の時代の幕開けである。マルチコア技術が急速に進歩している。Cell processorも同じ路線の上にある。
 
 もう一つのトレンドは、コモディティークラスタが相変わらずHECの主流を占めていることである。使われてるマイクロプロセッサの主要なメーカーはインテルであり、x86もItaniumもともに使われている。システムベンダーの首位はIBMである。AMDやIBMのプロセッサ・アーキテクチャも多くのHECで使われている。他方、CrayはXT3 (Red Storm)を出荷した。これは、新しいスカラーDM MPPであり、AMD OpteronとHyper Transport Interfaceに基づいたマシンである。SNL,ORNL, Pittsburghなどに入っている。
 
 3つ目のトレンドは、次世代のHEC言語の研究が進んでいることである。これは、高い効率とプログラム性を目的とした、high productivity languagesである。Fortran08はCo-Arrayを取り入れる。Wileyからは最初のUPCの教科書が出る。HEC OSの開発も進んでる。DOEのOffice of ScienceがFast-OS programを支援している。また、Linuxを拡張する多くのプロジェクトがある(Plan-9, K42など)。ultra-lightweight kernel modelも開発されいる。[なんでこのソフトのスライドに出てくるのか知らないが]アジアと東ヨーロッパ、特に中国と韓国の成長は著しい。
 
 続いてTomは、トップの計算機の座が、地球シミュレータからBlueGene/Lに移った技術的背景を分析した。「地球シミュレータは聖火を(BG/Lに)手渡した。」その分岐点はHigh Density Computingである。現在のチップの空間効率は極めて低い。浮動小数点ユニットは1平方ミリ以下しか占めていない。ダイサイズは200平方ミリ以上ある。ではスペースは何に使われているのか。大部分のスペースは、小さなスペース(計算ユニットなど)をビジーに保つために使われている。典型的には、半分以上はキャッシュ、あと投機的実行のため、分岐予測のため、アウトオブオーダー実行のため、書き戻しバッファのためなどに使われ、ゲート当たりの性能は、クロックで正規化すると、悪化する一方である。他方、電力消費はどんどん増えている。実際、パワーが性能の上限を決めているし、将来のクロック周波数の増大を制限することになろう。
 
 ベンダーはマルチコアに期待を掛けている。マルチコアは、コアの構造を固定して、チップの中に多数設置し、チップ上で相互接続し、チップ上で階層的なキャッシュを実装する。これによりMooreの法則にそって性能をあげることができる。マルチコアにすることにより、必ずしもクロックを上げる必要がない。Cyclopsは60以上のコアを入れようとしている。IBM, Intel, AMD, Crayその他のベンダーはマルチコアの方向を追求している。
 
 Blue Gene一族は、同一チップ上にプロセッサとメモリを載せ[BG/Lではオンチップメモリは少ない]、ネットワークインターフェースも同一のチップの上にのせている。高密度実装し、高い信頼性を実現してる。FLOPS当たりのコストは最低である。Cellは、IBM, Sony, Toshibaが開発しているチップで、200GF以上の性能がある。これはPlaystation 3のためのものである。
 
 他の方向もある。二つの古典的計算機が上位に再登場した。一つはSGI Columbiaで、最大のConstellationである。これは、20台のAltrix 3700を結合したものである。もう一つは、CrayのXT-3で、昔ながらのMPPである。rack当たり、96個のAMD Opteron100 (2.6 GHz)を納めたもので、500GFである。3次元トーラス接続。
 
 この他特記すべきものをいくつか挙げる。まずMareNostrumがある。これはヨーロッパ最大のクラスターであり、IBM BladeCenter JS20 (PowerPC970 2.2 GHz) を2268のdual nodesから成る。Virginia TechのSuper MacはMac G5を1100台あつめたもので、「かげろう計算機」であった。今年のリストにはない。heavy hittersとして、商業的ベクトル計算機、X1とSX8とがある。
 
 標準的な(canonical) HECシステムとしては、
1) コモディティークラスタ
2) 1台当たり2 GF 以上の性能。
3) 1024台のスカラープロセッサ
4) システムインテグレータはIBM
5) マイクロプロセッサはIntel
6) 相互接続はMyrinet
7) MPI
8) Linux
というイメージがTop500のリストから浮かび上がる。
 
 ネットワークには、Ethernet, Myrinet, Infinbandがあり、それぞれ特徴を持っている。Ethernetは安く、Top500の主流であるが、10Gbのスイッチはまだ高い。Myrinetはレイテンシーが低く、NICの値段はまあまま、去年のリストではトップ。新しい、Myri-10Gは10GEと合流するであろう。Infinibandは、まだ確立していないが、次第に増えつつある。
 
 メッセージパッシングインタフェースについては、MVAPICHとMVAPICH2がある。その比較を示した。
 
 HEC並列言語の限界についても触れた。今のところデータと制御の分割を要求する。並列コードは単一でなければならず、並列のくみ上げをサポートしない。データの抽象化は今一。ChapelやX10やFortressについて述べた。Fast-OSについて、US DOE Office of Scienceが資金を出し、10のプロジェクトが走っている。オープンソースを目指している。
 
 まとめて、今年は変化の年である。HECの性能にはドラマチックな変化があった。その基礎はHigh Density Comptingである。クラスタコンピューティングは相変わらず盛んである。プログラミング言語についても、オペレーティングシステムについてほ、新しい企画が進んでいる。ペタフロップスは、案外近いが、意外に遠いかも知れない。
 
 この日の夕方は、Intel主催のカクテルレセプションがあった。
 
 
==6月23日(木曜日)==
 
3.1 コード最適化
 
 23日は朝8時から始まった。最初のセッションはコード最適化のためのツールとテクニックの話であった。
 
 Jean-Pierre Panziera (SGI) は"SMPL: Shared Memory Parallel Linpack" と題して、分散共有メモリのColumbiaのLinpackをいかに高速化したかについて報告した。BLAS3は単一システムにはよいが、並列機ではスケールしない。HPLは係数行列を2次元タイリングを適用し、ラウンドロビンに割り付け(いわゆるblock cyclic)、MPIで通信を行う。多くのクラスタで良い性能を出すが、Columbiaのように10k threadsもの超並列までスケールするか? とにかく、Top500の締め切りまで3ヶ月しかない。共有メモリ上のメッセージパシングは、コピーなしで実装できるのでオーバーヘッドは少ないが、メモリの配置を誤ると全然性能が出ない。そこで、SMPLではデータ配置を中心においた。コードの35%はデータ管理を担当している。SMPLは小さなサイズでも高い並列性能を持つ。1000次元1スレッドを基準とすると、5000次元25スレッドにおいて、HPLは60%に性能が落ちてしまうが、SMPLは80%以上の効率を保っている。通信と計算とのバランスにも配慮した。結局、昨年9月23日には5 TFしか出ていなかったものが、10月13日には19.6 TF、そして最後10月21日には51.9 TFを達成した。ううむ、昨年のSC2004報告に書いたように、ColumbiaとBG/Lとのつばぜり合いには、こんな裏の努力もあったのだ。
 
 最後の講演は、Bernd Mohr (FZ Jülich) "The Future of Performance Optimaization Tools" であった。まず、商品としてのperformance toolsについてまとめた。ISVの販売してるツールの現状は以下の通り。
1) OpenMP tools : KAI7s Guide → Intelが買収→dead
2) MPI tools: TUD/Pallas Vampir→Intelが買収→Intelのみに適用
新参者:Allinea's OPT, Pathscale's OptiPath, ....
3) Hybrid OpenMP / MPI tools: KAI/Intel VGV → ASCI project only(製品にはならず)
4) メモリやI/Oの性能についてのツール:???
それぞれのツールとそのインターフェースについて詳しい説明があった。ベンダーのperformance toolsはどうかというと、単純なプロファイルツールだけであって、あまり並列プログラミングの役には立たない。
 
 次はperformance tool 研究の最先端の状況である。まず、ツールの要素技術として、PAPI (Performance Application Programming Interface, UTK)、dynInst (Dynamic Binary Instrumentation, Wisconsin-Maryland)、POMP (Monitoring Interface for OpenMP, FZJ-UO)を紹介した。performance Tools Projectsとして、Jumpshot (ANL), SvPablo (UNC), HPCToolkit (Rice)、mpiP/ToolGear (LLNL)を挙げた。
 
 従来のperformance toolsは、プロファイラの膨大な測定データを、解析もせずに出力し、これから多くの表や絵をだすので、ユーザは困ってしまう。解決策の一つはAutomatic Toolsでなんらかのexpert toolにより、関係のある問題点とデータだけを出力してくれるようにするやり方がある。これは普通のユーザには十分であるし、専門家にとっても解析の出発点となる。も一つのやり方は、expert toolと専門家(expert)との組合せである。こういう方向の研究としてESPRITから始まり、ヨーロッパ・アメリカの研究者と多くのベンダとが共同開発しているAPART (Automatic Performance Analysis: Real Tools) がある。KOJAK Project (Kit for Objective Judgement and Automatic Knowledge-based detection of bottlenecks, FZJ) は、最終的にはポータブルで、一般的で、自動的な性能解析環境の設計と実装を目標とし、当面、イベントトレーシング、SMPモデルによる並列計算、MPI, OpenMP, Hybridの各プログラミングモデルを対象としている。この辺は講演者自身の話なのでずいぶん詳しかった。そのほか、CEPBA: Paraver、TAU (Oregon)などについても詳しく触れた。
 
 最後に性能最適化の課題(Challenge)について話した。一つは、実行時間とフロップス値だけでいいのか、という問題である。今日のSMP上のHPCは、キャッシュやメモリ階層の極めて効果的な利用を要求している。従って、メモリ性能そのものを測定するツールが必要である。現在のアプローチでは、キャッシュ、メモリ、TLBのイベントを測定することであるが、これでゃ、どのオブジェクトが問題を起こしているのか見極めることができない。さらに大きな問題は、もし原因が分かったとして、どう修正したらいいのか?もう一つは、I/O性能分析である。現在のところ、これを行うツールはない。今のところ並列I/Oのトレーニングが必要なのは、科学的プログラマーだけかも知れない。3つ目の問題は、新しいプログラミングパラダイムに対応するツールである。まず思いつくのは、一方向通信(SHMEM, MPI-2 RMA)である。これはwrapper functionなどをつかってモニターすることは用意で煽る。CAFやUPCはコンパイラのサポートが恐らく必要であろう。最大の課題は、自動的最適化ツールである。
 
 もう一つの課題は、PEの数である。多くのHPCシステムは1000程度のPEから成っている。gprof, Vampir, TAUなど現在のツールは、その程度の並列度は処理することができる。測定ツールは2000〜4000PEの最適化に十分な洞察を与えることができる。しかし、BG/LやXT3は10000のPEを有している。しかも顧客は必ずしも多くないし、応用も少ない。「このプログラムは16,000台のPEでは動くのに、なぜ32,000PEだとだめなのか?」などというユニークな問題がでてくる。
 
 最後の課題は、分散的でダイナミックな環境における最適化、すなわちグリッド環境での最適化である。一つのジョブならば、一つの解決は、グリッド対応の性能解析ツールであろう。しかし、グリッド環境は極めて多様であり、プロダクションランはモニターランとは状況が違う。もう一つの解決は伝統的なツールをつかうことである。でも膨大なデータを手でどうやって解析するか?現実の問題は、分散かつ多成分のグリッドアプリをモニターすることである。まだ解決策はない。
 
 最後の77枚目のスライドに、「パワーポイント中毒」の漫画を出していたが、あまりのスライドの多さに、自分でも気づいていたのであろう。
 
3.2 応用
 
 コーヒーブレーク後は、クラスタ上の応用と言うことで、financial marketの話と、CFDの話があった。
 
3.3 Steve Louis and Alan Gara, "Peta-Scale Computing during Disruptive Times"
 
 小休止のあと、11時30分から23日の基調講演があった。「破壊の時代におけるペタスケール・コンピューティング」というタイトルでした。
−破壊的技術革新とは何か
−破壊的技術革新は誰が創造するのか。
−破壊的技術革新は誰が必要とするのか。
−破壊的成功はどうやって確認するのか。
−破壊の時代における変化をどううまく管理するのか。
BlueGene/Lの経験は、この答えを与えるか?
 
 筆者は知らなかったが、ビジネスの世界での必読書に、"The Innovator's Dilemma: The Revolutionary National Book That Will Change the Way You Do Business", Clayton M. Christensen (著)(Harvard business school press, 1997)、邦訳は「イノベーションのジレンマ―技術革新が巨大企業を滅ぼすとき」玉田 俊平太, 伊豆原 弓(訳)(翔泳社,2001)、およびその続編、"The Innovator's Solution: Creating and Sustaining Successful Growth," Clayton M. Christensen and Michael E. Raynor(著)(Harvard business school press, 2003)、邦訳は「イノベーションへの解―利益ある成長に向けて」玉田 俊平太, 櫻井 祐子(訳)(翔泳社, 2003)がある。第一の本により、「disruptive technology破壊的技術」という言葉の定義が変わってしまったほどだという。すなわち、技術の進化する速度が、ニーズが進化する速度より大きいとき、破壊的技術が生まれる可能性があるという。第二作では、「技術」を「革新」と言い換え、破壊的な技術革新の挑戦を受ける側ではなく、技術革新により優位企業をうち負かそうとする視点から論じているそうである。この話を知らなかったので、講演はちんぷんかんぷんであった。まず、Steve Louis (LLNL)がしゃべった。
 
 破壊的技術革新とは何か?
1) 現行の製品とは異なるものが市場にもたらされる。
2) 以前より簡単(多くの場合、より安い)もの
3) 市場の主流でないところに根をおくもの
4) 後には、主流のニーズを横取りするように改良される
5) 占有ではなく差別化によって市場の破壊者になる
 
 誰が破壊的技術革新を創造するのか? 確立した会社が破壊を創造することはしばしば困難である。確立すると、リスクを制限し、ボトムラインで満足しようという傾向が出てくる。しかし、確立した会社の内部でも、自立的な部門やグループによって技術革新が成し遂げられることはある。そのような部門は、制約も偏見もリスク回避も固定化した思考もないからである。
 
 誰が破壊的技術革新を望むのか? 要するに顧客である。たとえば、ニーズはあるが既存の製品ではそのニーズに応えられない時。また重要な仕事をする人が、新しい種類の製品でのみその仕事が可能な時。また、低価格でより単純な製品に興味をもっている人とか。
 
 破壊的技術革新が成功裏に使われたことをどうやって確認するか? 新しい製品がユーザに受け入れられるか、新製品が足場を獲得するか。Stakeholders are busy and alliancese are forming(理解できず)。
 
 この観点からIBMはその位置にいるのか、またどこへ行くのか? BG/Lはペタへの道に関する5つの問題を示している。
1) 電力
2) 床面積
3) 価格
4) 単一プロセッサの性能
5) ネットワークのスケーラビリティ
我々は、BG/Lが、破壊的時代におけるペタスケールコンピューティングへの可能な道を示していると考える。
 
 BG/Lのアーキテクチャは、ASCの科学応用に対する効率とスケーリングを推進している。たとえば、多重の相互接続、システムオンチップを用いた高密度高信頼度設計、一ノードあたりの性能、ソフトウェアなど。これにより、異なる階層が重なり合っているモデルを初めて扱うことができる。
 
 第一波のアプリはどういう基準で決めたのか。ASCプログラムに対する重要度、コードグループ内の熱意、よいスケーリングに対するポテンシャルの3つである。第二波の目標も同様な基準で決められる。
 
 ここで、いくつかのアプリの結果の図を示した。古典的MD(金属、格子欠陥など)、乱流、不安定、第一原理MDなど。BG/Lにより、解決までの時間が大幅に短縮した。BG/LはDOEのミッションに革命的な変化をもたらすであろう。
 
 続いてAlan Gara (IBM)が講演した。主題は、今後のアーキテクチャの動向がどうなるかということである。GFLOPS/Wでみると、single thread focus designの流れ(0.01程度)と、power-efficient design focusの流れ(0.1程度、QCDSP, QCDOCなど)がある。CMOSのスケーリングが破れるのはゲートの酸化物の厚みが薄くなり、原子1個の欠陥があるとだめになってしまうからである。module heat flux (W/cm^2)は、1990年頃BipolarからCMOSに移行することにより大きく下がったが、現在のCMOSは再びBipolarの最大熱流に到達している。これを再び下げることが可能か?問題は、数十nmより小さくなると、passive powerがactive powerと同レベルになってしまうことである。電圧と周波数をソフトで制御することにより13分の1になるという研究を示した。
 
 今やパラダイムのシフトが必要である。これまではデバイスの世代が移るとき、改善の大部分はスケーリングによってもたらされた。今や、スケーリングだけでは不十分である。すなわち、技術革新がスケーリングを追い越さなくてはならない。ここでGaraは専用計算機の優位性に触れた。専用的アーキテクチャの優位性はかつて100倍ほどあったが、現在は10程度に下がっている。しかし今後は再び上昇することが期待される。それは専用アーキテクチャは電力の問題を最もよく解決できるからである。
 
 もし技術革新がなかったとすると、将来のスケーリングはこのようになる、ととんでもない表を出した。
  Year BlueGene/L Earth simulator MareNostrum
250 TF 2005 1.0 MW 100 MW 5 MW
1 PF 2008 2.5 MW 200 MW 15 MW
10 PF 2013 25 MW 2000 MW 150 MW
100 PF 2020 250 MW 20,000 MW 1500 MW
 
 将来の方向として
1) high end systemとパートナー(ユーザのこと?)との協力が重要
2) 電力の減少は可能である。システムの可用性を犠牲にせずに。
3) ノードのアーキテクチャはネットワークとのバランスが需要
4) hardware, compiler, middleware, programming model changeが必要
5) アーキテクチャの研究には金がかかる。産業界と政府との関与が重要。
 
 結論として、"Partnership is critical" 現状の技術の破壊は、アプリの特徴を知っているパートナーで、かつアグレッシブなとの協力が重要。今後の10年はアーキテクチャの探求に費やされるであろう。次の10倍の性能向上は、従来よりも困難であろう。
 
[でも、Christensenの本とどういう関係があったのだろう???]
 
 
3.4 Hot Seat
 
 昼食後はHot Seatと呼ばれるベンダーセッションが二つあった。17のベンダーが各10分講演し、これに対し、壇上のInquisitors(異端審問官?)が厳しい質問を出して5分応答という趣向である。MyricomのChuck Seitzは、短パン、Tシャツで現れ、10GbのMyrinetは10GbEと技術を共有すると述べた。QuadricsのMoray McLarenも次の10GbのQuadricsは下位の層では10GbEと同じ技術を使うと述べた。そういう方向でスイッチなどを安価にしようということであろうか。
 
 日本関係の会社では、NEC HPCE GmbHからドイツの人がしゃべり、富士通からは奥田基氏が講演した。NECは2010年までにペタを出すと豪語し、奥田氏は、2006Q1までに、Montecito (2 coreのItanium)を使ったPRIMEQUEST/HPCを出すと豪語した。帰国後知ったことであるが、富士通は同じ6月23日付けで「富士通は2010年度末までに、ピーク性能3PFLOPSを持つ次世代スパコンの稼働を目指して研究開発を進める。」と公式発表したようである。
 
3.5 Gala Event
 
 この日の夜はIBMによるイベントとして、Castle Neckarbischofsheimでのパーティー(写真)があった。これは、ハイデルベルクからネッカー川をバスで1時間ほど上流に上ったあたりで、昔の司教の居所らしい。7時半というのにまだ日が高く、暑いほどであった。すばらしい食事(とビールやワイン)とともに、暗くなった頃盛大な花火(写真)が上がった。2002年に参加したときには、NECのスポンサーで、ネッカー川のディナークルーズがあった。
 
 
==6月24日(金曜日)==                      
4 最終日
 
 最終日は、9時からI/Oのセッションがあった。コーヒーブレークのあとは、Data Management on Distriuted System and Gridsのセッションがあった。さすが最終日ともなると出席者は減ってしまう。
 
 その後、休みをおいて、13時から最後の基調講演があった。Wolfgang Gentzsch, "Grid Computing in Research and Business around the World" 聞いてはいたが頭には全然入っていない。13時45分からやっと昼食時間で、会議は無事終了した。筆者は昼食も取らずに、家内の借りたベンツに乗って、アウトバーンをぶっ飛ばし、中世の都市ローテンブルクまで遊びに行った。
 
 以上、簡単なご報告まで。[写真はこの国際会議のphoto page (http://www.supercomp.de/index.php?s=about&s_nav=Photographs)より]
 
-------------------------------------------------------------------------------------------------------------------------
参加者リストから数えた国・地域別参加者数














 
Germany
USA
UK
France
Russia
Netherlands
Switzerland
Japan
Spain
Korea
Australia
Brazil
Italy
Norway
China
228
120
39
27
18
18
18
10
9
6
6
6
5
4
4














 
Austria
Czeck
New Zealand
Poland
Taiwan
Denmark
Greece
Ireland
Israel
Singapore
Sweden
Croatia
Finland
India
不明
4
4
3
3
3
3
2
2
2
1
1
1
1
1
9














 
                                      
--------------------------------------------------------------------------------------------------------------------------
付録
Sun HPC Consortium Europe 2005 報告
 
 時間的な順序は逆になるが、表記の会議が、ISC2005の直前の6月20日(月)と21日(火)の二日間、Heidelberg downtownのCrowne Plazaホテルで開かれた。日本からも何人か参加してた。NDAに署名したわけではないがSunの技術的情報は部外秘ということなので、簡単に記す。
 
==6月20日(月)==
 
1.Marc Hamilton: Delivering HPC Innovation (9:00)
 
 Sun MicroのHPC関係の全体的な報告があった。日本でもなじみのSingaporeのSimon SeeがSun's Asia Pacific Science and Technology Center (APSTC)のPrincipal Engineerに任命されたことが発表された。DARPAのHPCSは2 PFを目標にしている(サンも狙っているということであろう)。アメリカでもヨーロッパでも日本でも、何台かの50-200 TFのマシンが計画されている。ただ、Top500のうちHPC用のマシンは10%以下ではないか。ただしバランスが必要である。1 TFのマシンなら、メモリは0.5-1.0 TB、メモリバンド幅は0.5-1.0 TB/s、相互結合網は 0.05 TB/s、(あと、メモが取れず)が必要である。
 
 2004年から2006年の間には、buiding blockは2 Pから8 Pへ、アーキテクチャは32 bitsから64 bitsへ、メモリは4 GBから32 GBへと変化するであろう。High Performance Bladeは、4個のdual-core Opteron (38.4 GF @ 2.4 GHz)に、16 DDR DIMMs、16-32 GB memory, 20 GB/s bandwidth、4x DDRといった構成であろう。このノード80個でラックが構成され、3 TFとなる。メモリは2560 GB、電力は48 KW、冷房電力は40 KW、冷却は組み込み水冷であろう。このラック16台(1280 blades, 10240 CPU's)で49 TFのクラスタができる。Niagaraチップはweb向きで、7月末には発表する。これは一つのチップに総計32スレッドを走らすことができる。Rockも2007-8に出るであろう。
 
 HPC Consortiumの今後の予定は、SC|05の直前、2006年春にはAachenで、2006年5月にはシンガポールのCCGridに併設する予定。
 
2.Steve Furtado: Solaris and OpenSolaris (9:45)
 
 Solaris 10はマルチプラットフォームだ。Sun UltraSparcはもちろん、AMDでも、Intelの石でも動く。Solaris 10のアプリは、Sparc上では1003件、x86の上では692件もある。Solaris 10は誰でもただで、現在まで160万件のライセンスを出している。Solaris 10は軍用のTrusted Solarisを統合したので軍レベルのセキュリティがある。2006Q1には、Solaris Trusted Extensionを出す予定。そのほか、Predictive Self-Healingが可能。ライセンスはただだが、金を出せばレベルによるサービスを受けることができる(free--basic--standard--premium)。7年間のバイナリ互換性を保証。ソース互換性はSparc, x86, AMD64 にわたって保証。Solaris ZFS (zero-file system)やSolaris/Linux consolidationなどは近々発表される予定。
 
3.Dennis Kuehn (Boeing): Solving High Performance Technical Computing (HPTC) Problem with Commercial off the Shelf (COTS) Products
 
 このあとユーザの報告が続いた。まずボーイングでの計算の話。74-144 CPUs でSMPに基づく実行が多い。ボーイングの特徴は、大容量I/Oである。$60Mを投資して、Sun, IBM, HP, Storagetec, Ciscoなどを組み合わせた。NAS (Network Attached Storage)やSAN (Storage Area Network) では十分でなく、Sunと協力してQFS (Quick file system)を構築した。これによりファイル性能もCPU利用率も向上した。
 
4.Thomas Nau (Ulm): Time for changes
 
 University of Ulm (ハイデルベルクから100 Kmくらい)は、Solaris 10のベータサイトになっている。ファイルシステムについて話した。
 
5.Bernd Dammann (Denmark): Using ThinLinc in an HPC environment -- some experiences
 
 ThinLincはtight VNS, ssh, Pythonなどを基に作られたシステムで、高速でセキュアなアクセスを提供する。これまでLinuxのみで動いていたが、Technical University of DanmarkはこれをSolarisに実装した。HPCでもGUI-centricでなければならない。
 
6.Parallel Programming & Performance
 
 午後は、二つの部屋に分かれた。筆者の出なかった方はHPTC Storage and Networks であった。
1) Nick Maclaren (Cambridge): Parallel models
2010の並列モデルは、master/workerかlockstep(SPMD)かdataflowであろう。
2) Mick Pont (NAG): High Performance Math Libraries on Multi-core Systems
Opteron上のライブラリについて
3) Henry Fong (Sun): Grid-Based Opteron Solutions for MCAE
4) C. J. Kenneth Tan (Optima Numerics): HPC Software
HPCはスピードが全て。そのためのチューニングツールを売っている。彼は中国系で、会社はBelfastにある。どんなプログラムでも速くする、と。
5) Cos Ierotheou (Parallel Software Ltd.): A parallelization environment for the generation of efficient and scalable parallel code on Sun HPC systems
http://www.parallelsp.comを見ろとのこと。
6) Michael Rudgyard (Allenea Software Ltd.): HPC Development Tools for Linux and Solaris
ddt (distributed debugging tool)について。http://www.allinea.com参照。
 
7.Jim Pepin (USC): "Building and Benchmarking a 7 TF Linux Cluster
 
 4時20分からまたplenaryに戻った。この話は1726 nodes / 3552 CPUs + Myrinet / GBEで7.291 TF(N=34000, 60%)のクラスタを作った話。140ラックから成る。コアサーバとしてE15K (72 CPU)。
 
8.Ruud van der Pas (Sun): A Performance Scalability Study of UltraSPARC IV+ Systems
 
 次のチップの話。dual coreでL2は共有、L3は外部ということ。ダイサイズ、デバイステクノロジー、TLBなど興味ある話があったが、特に企業秘密と言うことなので(本当は宣伝をして欲しいのかも知れないが)書くのは控える。SWEET (Selected Workload for Evaluating Engineering Trade-offs)の紹介があった。
 
9.John Fragalla (Sun): Sun Chip Multithreading Systems
 
 NiagaraもRockも8 core x 4 threadsのCMT (Chip Multi-Threading)である。Niagaraは90 nm technologyでUltraSparc IIIの15倍の性能。SOC (Server-on-a-Chip)のコンセプト。L2は4バンクで3MB。1.2 / 1.0 GHz。378 mm^2 dye, 300 M transistors, <60 W(まあこの程度は秘密でもないでしょう)。
 
 
==6月21日(火曜日)==
 
10.Grid and Portal Computing
 
 朝8時45分から、二つのセッションに分かれた。筆者の出なかった方ははComputation Biology。
1) John Darlington (Imperial College): Economic Models of the grid
Londonのe-Science Centreの関係者で、e-Scienceの現状につい述べ、market for Computational Servicesについては、e-Science+Web service+Pay-per-use→public web market in consumer servicesというようなことを言っていた。去年のSC2004でStarAhaltが提示したBlue Collar HPCを実現するのがe-Scienceということらしい。
2) Simon See (Sun): The Asia-Pacific Science and Technology Center (APSTC)
グリッドをいかに単純にするか。たとえばBioCluster Grid for Solaris, Solaris x86 and Linuxとか、MCAE boxとかGrid Mathematicaとか。
3) Steven Newhouse (OMII): OMII 1.0 and beyond: Architecture & Process
OMII (Open Middlewae Infrastructure Institute)はグリッドミドルウェアを提供する。
4) Philip Bull (Sun): Utility Grid
5) Michal Kosiedowski (Poznan): Handling workflow grid jobs in N1 Grid Engine
6) Fritz Fersti (Sun): Advances in N1GE
Windowsからも、Macからも、AIXからも、Irisからも、HPからも使える。
7) Stephen Perrenod (eXludus Technologies, Inc.): RepliCator: A different Approach to Data-Intensive Cluster computing
日本でもおなじみのPerrenod氏は、Sunをspin-outして、この会社に入った。eXludus社は、2000年1月にケベックに設立され、RepliCatorというdata transfer management systemを売っている。NSFと違って、計算に必要になる前に、遠いファイルは近くに持ってきておく、というシステムである。データのプリフェッチのようなもの。これが果たしてどのくらい有効かは疑問。
8) Kevin Stratford (EPCC): Cosmology using MPI on the Grid
ロードバランスを考慮したPACX (PArallel Computer eXtention) MPIを開発したとか。
9) Mark Jessop (York): World University Network Grid
10) Christian Haeberli (Bern): The Swiss ATLAS Computing Prototype
 
11.Steve Campbell (Sun): Innovation Matters in HPTC
 
 今回の基調講演であった。内容は覚えていない。
 
12.Francesco Torricelli (AMD): AMD's challenge in EMEA HPC
 
13.Jan Fisher, Sr. (Sun): Future NSG Platforms
 
14.Panel: "Bringing the Gap between CIO and Scientist"
 
 最後はパネルであった。面白いテーマであったが話がかみ合わず盛り上がりに欠けた感じがした。
 
===========================================================