初版2005/12/25
改訂2007/1/10
 
 
SC2005報告
小柳義夫
 
http://olab.is.s.u-tokyo.ac.jp/~oyanagi/reports/SC2005.html
(再配布は自由ですが、上記ページから最新版をご利用ください。)
http://olab.is.s.u-tokyo.ac.jp/~oyanagi/conf.html にはその他の国際会議の報告などがありますので、ご興味があればご笑覧ください。
 
 
1.はじめに
 
 SC|05: The International Conference for High Performance Computing, Networking and Storage(通称 Supercomputing 2005) は、18回目の今年、"GATEWAY TO DISCOVERY"のテーマのもとで、ワシントン州シアトルのThe Washington State Convention and Trade Center で11月12日(土)から18日(金)まで開催された。会議名はInternational Conferenceと初めて名乗ったが、"computing", "networking", "storage" の並び方は去年と同じである。SC|05というロゴを用いている点が違っている。SCの歴史の中で、シアトルで開かれたのは初めてである。
 
 シアトルは言うまでもなくCray Inc. の本拠地、またMicrosoftの本拠地、イッチローのマリナーズの本拠地、そしてスターバックス発祥の地である。市内到るところにスターバックスがあるが、海岸沿いのマーケットの近くに1号店がある。会議中のコーヒーもスタバであった。
 
 予報では連日雨が続き寒々しいSCになるとのことであったが、幸い到着した11日(金)と13日(日)以外はほとんど雨も降らず、予想よりも温暖であった。会議のバッグには傘が入っていた。シアトルはダウンタウンに多くのホテルがあり歩ける距離なので、会場との輸送バスは用意されなかった。それでも参加者が1万人を越えたようであり、遅く申し込んだ人ホテル探しに苦労したとのことである。
 
 会議後にいくつかの事件が起こった。会議終了直後の20日(日)に、隣町タコマのショッピングセンターで男がライフルを乱射し、CD店で人質を取って立てこもった事件があった。日本のニュースではワシントン州としか言わなかったので他人事だと思っていたが、タコマと聞いて青くなった。会期中でなくてよかった。また、もう少し後に、シアトルのダウンタウンとシアトルセンター(公園で、サイエンスフィクション博物館や「スペースニードル」というタワーなどがある)とを結ぶモノレール(1マイル程度)で、車両同士の接触事故があり、ガラスの破片で2人の乗客が怪我をしたとか。私もこのモノレールで今回一往復したので、びっくりした。
 
 今年は文部科学省情報課がSCに初めて職員(中里 学 課長補佐、東大情報科学出身)を派遣した。筆者もかねてから情報課の方にこの会議への出席を勧めてきたが、今回これが実現したことは大変心強い。マスコミなどでも報道されているように、文部科学省は現在、汎用京速計算機計画を進めており、スーパーコンピュータに関する世界の動向について情報を集め分析する必要を痛感したのであろう。同時に、文部科学省では、会議に出席する有志の方々に分担を依頼して、主要な部分についてのレポートを収集した。筆者も若干協力した。私のこの個人的なレポートとは別に文部科学省版の「SC|05報告」が出る予定である。今後は情報を収集するだけでなく、日本の新しい動きについてSCの場で積極的に情報発信していくことが必要であろう。
 
 
2.会議の歴史
 
 毎度のことであるが歴史を示す。この会議はアメリカの東西で交互に開かれて来た。年次、開催都市、展示・チュートリアル等を含めた総参加者数、technical program有料登録者数、総展示数、投稿論文数、採択数、採択率を示す。初期の回では、テクニカルプログラム登録者という概念がなかった模様である。
回数年号
 
場所
 
総数
 
tech.
 
展示数
 
投稿数
 
採択
 
採択
1回(1988) Orlando 1495   36 150 60 40%
2回(1989) Reno 1926   47 ? 88  
3回(1990) New York 2303   59 ? 92  
4回(1991) Albuquerque 4442   80 215 83 39%
5回(1992) Minneapolis 4636   82 220 75 34%
6回(1993) Portland 5196   106 300 72 24%
7回(1994) Washington 5822 2209 122 ? 77  
8回(1995) San Diego 5772 2017 106 241 69 29%
9回(1996) Pittsburgh 4682 1642 121 143 54 38%
10回(1997) San Jose 5436 1837 126 334 57 17%
11回(1998) Orlando 5750 1984 130 270 54 20%
12回(1999) Portland 5100 2124 149 223 65 29%
13回(2000) Dallas 5051 2096 159 179 62 35%
14回(2001) Denver 5277 2017 155 240 60 25%
15回(2002) Baltimore 7300? 2192 221   67  
16回(2003) Phoenix 7641 2390 219 207 60 29%
17回(2004) Pittsburgh 7900?   266 192 59 31%
18回(2005) Seattle 10000+   276 260 62 24%
19回(2006) Tampa            
               
 
私は、第1回、第4回、第12回は出席できなかった。ちなみに、来年19回はFlorida州Tampa (November 11-17)で "POWEFUL BEYOND IMAGINATION"の標語の下に行われる。
 
3.全体像
 
 会議はあまりにも巨大で、全体像をつかむことは困難である。昨年は空前の参加者、総展示数となったが、今年はなんと参加総数が1万人を越えたとのことで、またまた空前の規模となった。
 
 Technical programの主要部は15日(火)からであるが、会議そのものは12日(土)から始まっている。Educational Programは11日午後のマイクロソフト社の見学から始まった。Educational Programは年々盛んになっているようであるが、何か別の会議のような感じになってしまった。13日(日)と14日(月)にはチュートリアル(27件、全日は13件、半日は14件)が行われていた。会議に附属して、独立に組織されたいくつかのワークショップも開催された。12日(土)には1件、13日(日)には1件、14日(月)には2件、16日(水)に1件、18日(金)には4件があった。
 
 14日(月)夜7時の展示会場における Gala Openings(盛大な開会式)から会議の中心部分が始まる。このとき展示会場が参加者に初めて公開されその場でおつまみ程度の軽食が提供される。
 
 展示は、企業展示も研究展示もますます盛り上がっている。とくに企業展示はこの会議の最大の収入源である。展示は14日(月)の夜から17日(木)の4時までの実質3日間であるが、その設営も撤収もなかなか大変である。
 
 火曜日の朝からtechnical programが始まる。火水木の8:30--10:00はplenaryで、15日(火)は開会式と基調講演、16日(水)はFernbach AwardとCray Awardの授与式と受賞者講演、11日(木)は招待講演(2件)である。10時からはコーヒーブレークで、展示会場も10時からオープン(6階は9時半)。10:30から17:00まではいろいろなプログラムが多数並列に設定されている。今年も、審査付きの原著講演(30分)と並列に、Masterworksと称して、さまざまな応用分野の総合報告が招待講演(45分)として16件設けられていた。最近はポスター発表も重要視されている。火曜日夕方には、近くで軽食や飲み物が提供されていた。
 
 金曜は展示もなく、早めに帰ってしまう人も多いので、毎年客寄せに苦労する。今年も、近年の例にならって、「受け」をねらった色々なパネル4件が企画されていた。このほかパネルは木曜の午後にも1件あった。
 
 Access Grid技術をつかって、世界中にこの会議の様子を双方向に中継するSC globalは、2001年に始まり、2003年には大きく広がった。一般のテクニカルプログラム、パネル討論、BoF会議を中継した。今年はSC Desktopという新しい企画があり、遠隔からテクニカルプログラムの一部に「仮想出席」することができるとのことである。
 
 会議名称に去年からstorageが入り、今年もStorCloudという新しい試みが続けられた。StorCloudのインフラはProductionとNextGenとの二種類の要素からなる。
 
Production StorCloudの目的は、
・SC|05参加者に対して1 PB以上のランダムアクセス記憶を提供する。
・1 TB/s 以上のバンド幅を目指す。
・バックアップに対して1 GB/sのバンド幅を提供する。
・異機種の記憶システムの間の相互運用性を提供する
・SC|05の研究展示に対して、資源を提供する。
 
NextGen StorCloudは、インフィニバンドを中心とする新しい記憶技術を実証する。OpenIB (Open InfiniBand Alliance) やベンダーとの協力関係により、InfiniBandに基づく記憶装置を運用する。
 
 StorCloud Challengeでは6チームが記憶技術またはその応用での技術について競う。評価の視点は記憶装置の革新的な利用法、バンド幅、I-opsの活用である。
 
 
4.Social Events
 
 恒例により、17日(木)の夜は、ボーイング社発祥の地であるエリオット湾沿いに建つ航空博物館Museum of Flightでevening eventがあった。レオナルド・ダビンチ以来の数十機の航空機が展示されているほか、コンコルドやAir Force One(大統領専用機)の実物があり、中に入って見学することができた。フライト・シミュレータに乗って体験することもできる。
 
 このほかこれも恒例だが、いくつかの企業が、火曜日と水曜日にお客様を招待するパーティーがあった。Microsoft/Intel, IBM, Linux Networx, Cray, HPなどである。日本関係では、日本SGIが火曜日に日本からの参加者を招待し、NECは水曜日に日本人・外国人半々のパーティーを開催した。このパーティーで久しぶりにSteve Wallachを見た。チップ間の光接続の可能性について熱っぽく語っていた。また富士通は12日日曜日夕方に日本からの参加者を対象にセミナーとパーティーを開いた(13−2を参照)。
 
5.展示
 
 主催者発表によると、今年は企業展示171件、研究展示104件、全体で276件があった(計算が合わないが)。これらが適当に混じって所狭しとブースを出している姿は壮観である。ただし今年は展示会場が4階のメイン会場と6階のサテライトに分かれていたのが問題であった。面積はよく分からないが、4階は275700ft2 とのことである。6階の展示場は、セッション会場の隣とはいえどうしても足が向かないので、開場時間を30分早く9時半にしたり、毎日行って投票すると抽選で賞品がもらえたりする趣向が施されていたが、やはり客足は少なかったとのことである。
 
 例年のごとくTechnical programとは独立にExhibitor Forumが火水木とあり、展示出展企業が30分ずつ講演した。このほか、各展示ブースでは企業展示でも研究展示でも、プレゼンテーションがひっきりなしに行われており、とてもつきあいきれない。
 
5-1 企業展示
 
 今年は企業展示は171件であった。中でも、地元Microsoftの展示は人目を引いた。主催者の分類によると、Analytics(18), Communication(19), Data Management(14), Grid(43), Networking(46), Server(43), Software(45), Storage (52), Visualization (30) とのことである。
 
 常連の企業は日本系の企業を含めてそれぞれ元気に出展していたが、それ以外で目立ったものをいくつか。
 
1)Microsoft:マイクロソフト社は地元と言うこともあり、かなり力が入っていた。この会議場の建物はPike streetという道路をまたいでいるので4階のその部分がくびれているが、地元Microsoft社はその両側のブースを確保していた。歩くたびにMicrosoftのところを必ず通るしかけであった。
 
2)ClearSpeed: これは去年から出展しているベンチャーで、低周波数、省電力、マルチコアの浮動小数演算付加プロセッサを出している。元々はイギリスの会社だそうである。今年の出品は500 MHzで動く96個のFPUを1チップに載せたもので、ピークで約50 GF 出るが、電力は10 W程度だそうである。あとに述べる東工大の新システムにも用いられている。
 
 去年までSun MicrosystemsにいたJohn Gustafson氏(彼の職歴は私の知る限りで、nCUBE --> Floating Point --> Ames Lab. (Iowa) --> Sun --> ClearSpeed)がCTOとして9月にこの企業に就任した。Ames Labにいたときの有名な仕事はSLALOM benchmark(1分間でどこまで出来るかというベンチマーク)やHINTである。筆者はFloating Pointにいた86年から旧知である(http://olab.is.s.u-tokyo.ac.jp/~oyanagi/reports/USHPC86)。2004年にしばらくSunを離れて「クラスタコンピューティングをよく知り、HPCコミュニティの需要を理解するために」何かをやっていたようであるが、今回の転職との関係は不明である。ClearSpeedのブースが筑波大学のブースの向かいであったので、かれを見つけて新しい仕事と東工大の商談に祝意を申し上げた。とはいえかれはSunのHPCS開発の責任者をしていたのでそっちが気になる。
 ClearSpeedのブースでは全長1 mを越える長い傘を配っていたが、ちょっともてあまし気味で、シアトル空港ではみなそれをチェックインするので、担当職員があきれてました。成田着のベルトコンベアでは大きなトレイに数本並んで出てきました。
 
3)Linux Networx: 去年も元気に出してパーティーも派手にやっていたが、今年は何か印象が違う。スタッフも変わった感じ。ロゴの色も緑から赤に変えたので違う会社のように見えます。かなり大きなクラスタを作り軍の研究所に納入したようです。Top500の25番目のUS Army Research Laboratory (ARL), John Von Neumann - LNX Cluster, Xeon 3.6 GHz, Myrinetとあり、2048 CPUでRmax=10.65 TFを出しています。西さんの話では最近元Crayのエンジニアを多数採用したとか。
 
5-2 研究展示
 
 全体で104件であったが、そのうち日本からの研究展示は以下の18件であった。最後の数字はブース番号。
a)Advanced Center for Computing and Communication, RIKEN  100 
b)AIST - National Institute of Advanced Industrial Science and Technology  723 (StoreCloud Challengeに参加)
c)Center for Computational Sciences, University of Tsukuba  906 
d)CMC - Cybermedia Center, Osaka University  131 
e)Computing & Communications Center of Kyushu University  1128 
f)Doshisha University  2315 
g)Ehime University & NICT 564(Band Width Challengeに参加)(どういう訳かConference Programでは落ちていた。Exhibit Directoryにはちゃんと出ていたが。)
h)eSociety, the University of Tokyo  6212 (6階展示会場)
i)GRAPE Projects  2439 
j)IIS - Institute of Industrial Science, University of Tokyo (FSIS, IIS)  452 
k)ITBL - Information Tech. Based Laboratory  104 
l)JAEA (Japan Atomic Energy Research & Development Agency) 2111 (旧原子力研究所)
m)JAXA - Japan Aerospace Exploration Agency  2443(Band Width Challengeに参加) 
n)NAREGI - Japanese National Research Grid Initiative  1127 
o)RIST - Research Organization for Information Science and Technology  2154 
p)Saitama Institute of Technology  212 
q)Saitama University  216 
r)Tohoku University  455 
s)University of Tokyo  233 (平木研究室。Band Width Challengeに参加) 
 
 去年あって今年出展しなかったのは、地球シミュレータセンターとLAセミナーであり、今年新たに出展したのはeSocietyである。関係者によると、統計数理研究所を含む情報・システム研究機構は来年出展する希望を持っているとのことである。
 
 今回東京大学から計3件出展してたが、外国でそんな所はない、日本の恥ではないかというような意見が聞かれた。歴史的に見ると、日本から出展しているグループはいわばゲリラ戦的にSCに出しているわけで、正規軍として出展している欧米の大学や研究所とはだいぶ事情が違うようだ。
 
 
6.Technical Papers
 
 SCというとどうしても展示やイベントなど華やかなものに注目があつまるが、レベルの高い査読による原著論文(technical papers)は言うまでもなく重要な部分である。今年のプログラム委員会には日本から松岡聡氏(東工大)がメンバーに入っていた。
 
 論文投稿総数は260、そこから62編が選ばれた。採択率は24%である。日本が関連した発表としては、次の3件である。
 
"Full Electron Calculation Beyond 20,000 Atoms: Ground Electronic State of Photosynthetic Proteins" Tsutomu Ikegami, Toyokazu Ishida, Dmitri G. Fedorov, Kazuo Kitaura, Yuichi Inadomi, Hiroaki Umeda, Mitsuo Yokokawa, Satoshi Sekiguchi
この論文はBest Paper Awardを受賞した。
 
"16.447 TFlops and 159-Billion-dimensional Exact-diagonalization for Trapped Fermion-Hubbard Model on the Earth Simulator" Susumu Yamada, Toshiyuki Imamura, Masahiko Machida
この論文はGordon Bell Awardのfinalistであったが、惜しくも受賞は逃した。
 
"MegaProto: 1 TFlops/10 kW Rack Is Feasible Even with Only Commodity Technology" Hiroshi Nakashima, Hiroshi Nakamura, Mitsuhisa Sato, Taisuke Boku, Satoshi Matsuoka, Daisuke Takahashi, Yoshihiko Hotta
中島さんの講演はなかなかの熱弁であった。
 
 
7.SCinet
 1991年のSCから、会場には超高速のネットワークSCinetが設置されている。今年もその例に漏れず、外部とは合計400 Gb/sを越える接続が設備された。一週間とはいえ地上で最良の接続がなされている場所であった。会場内は、GigEや10GbEの他に、Open InfiniBand NetworkやXnet (eXtreme Networking) 引かれていた。
 
 講演会場を含めほとんどの場所に無料の無線ランが設置されていた。例年、無線ランが不安定で往生して来たが、今年はローミング技術を工夫したらしく、非常に安定であった。そのため、会場内では2.4GHz帯と5.2GHz帯の個人的利用がきつく禁じられている。
 
 
======12日土曜日======
12−1 Sun HPC Consortium USA 2005 (1)
 SC|05に合わせて、表記の会議が2日間にわたって開かれた。会場は、シアトルの海岸にあるBell Harbor Conference Centerでダウンタウンから歩いても行ける(坂がきついが)。これはSun MicrosystemsのHPC分野のシンポジウムで、前回はISC2005に併設してHeidelbergで行われた。Sunの技術情報、とくに将来計画については秘密ということでNDAにもサインした。差し支えない範囲で簡単に報告する。
1)"Delivering HPC Innovation" Marc Hamilton, Sun Microsystems
 いろいろ話していたが最大の話題は東工大の商談であった。そのときは絶対秘密ということだったが、2日後の月曜日にシアトルで記者発表された。dual-core Opteron 8個を入れたSunのサーバ(名前は聞いたが、それは未だに秘密らしい)にClearSpeedの演算ボードCSX600を差したノード655台をInfiniBandで結合したシステムで、契約はNECとのことである(ラックもNEC製とか)。18−1のパネル参照。
 Web serverなどに使われるNiagara processorは来月はじめに発表する、と言っていた。筆者は確かめていない。8 coresにそれぞれ4 threadsが走り、60 Wを消費するそうである。HPC用の次世代Sparcは自社では製造せず、PRIMEPOWERを作っている富士通との協力関係を考えているとのこと。
 
2)"Building and Benchmarking a 10 TF Linux Cluster" Jim Pepin, USC
 
3)"ACEnet, the final link in Canada's HPC roadmap" Graham Mowbray, ACEnet
 Atlantic Canada Education networkという、カナダの東端の地域のネットワーク。
 
4)"AMD Opteron road map & performance" Justin Boggs, AMD and Joe Landman, Scalable Informatics
 AMD dual core Opteronの解説。1 MB L2 cache for each, integrated North Bridge, 144 bit DRAM inteface, HyperTransport。NUMAの例として4個のdual core Opteronsをつないだ図を出した。
 将来の方向性として、single threaded applicationsが重要である。近々に発表予定のものとしては、AMD64のmulticore (4 or 8) architectureへの拡張、HyperTransport V3.0, DDR3, FBB1MMなど。
 将来の予定としては、AMD64にon-chip coprocessorとしてFPUを増強する予定。HyperTransport V4.o, DDR4, FBB2など。
 BLAST, HMMer, AMBERなどでの性能データを示した。
 
5)"Computational Molecular Science in Nanotechnology and Biotechnology: Implemented on Sun's Xeon and AMD Operon Grid Platforms" Sean Smith, Univ of Queensland
 
6)"Sun Developer Announcements" Richard Friedman, Tom Gryder, Sun Microsystems
 火曜に発表予定のSun Studio 11 について述べた。内容は忘れたが、このFriedman氏は、昔Applied Parallel ResearchでHPFの開発に携わっていた人である。彼のNorth Berkeleyのオフィスに尋ねて行ったことがある。当時の社長のJohn M. Levesque氏は、現在Crayにいる。
 
7)"UltraSPARC & CMT" Fred Kohout, Sun Microsystems
 Road mapとして、データ指向のものは、Olympus, Jupiter, Rockと進む。ネットワーク指向のものは、Niagara, ....
 9月中旬に発表したV490-E25Kは、UltraSPARC IVになって2倍の性能増加。UltraSPARCは、90nmのテクノロジーで、2MB L2, 32MB off-chip L3。現在は1.5 GHzだが、来年早々には1.8 GHzにアップする予定。[このあたりは本当は秘密かも知れない。]
 富士通との関係だが、今後共同で開発および販売を進める。SunはUltraSPARC IV+を計画し、富士通はSPARC64V+を計画しているが、将来はAPLとして合流する。エントリー機種[何のかは不明]は1 proc.で32 threads。上位機種のDC(Data Center)3は、64 proc. 256 threads。ここでネットワーク指向のマシンと、データ指向のマシン(ミッドレンジとハイエンド)のデータを示した。
 NiagaraはCMT (chip multi-threading)に基づくチップで月曜に発表する。4,6,8 coresのものがある。threadは16〜32。ただしFPUは1個[core当たりの意味か?]しかない。そういう目的ではないからだ。Rockはもっと浮動小数演算を強化したマルチスレッドチップになる。
 
8)"Sun and the DARPA HPCS Program" Mike Vildibill, Sun Microsystems
 HEROシステムを計画している。これはRockチップに基づく。ピークは3.2 PF、Linpackで2 PF、メモリバンド幅は6.5 PB/s、相互接続網のバイセクションバンド幅はは3.2 PB/s、64000 GUPS[何の単位?]メモリバンド幅は光通信でLuxtera(光でTb/sの通信をするという意味であろうか)というCMOSのphotonic moduleを使う。WDM (wave-length divsion multiplexing)で4x10Gb/sを実現。近接通信は直接チップを接触させて接続する。チャンネル当たり1.35 Gbで16 channelを実現する。
 
9)"HPCS and Software Development Productivity at Sun" Michal van de Vanter, Sun Microsystems
 HPCSのソフトについて。新しい言語としてGuy StielはFortressを計画し得る。10倍のprogrammabilityを実現する。Matlabも有効である。
 
10)"Sun v20z Cluster: A Retrospective" L. Eric Greenwade, Idaho National Labs.
 494個のv20zをdual GigEでつなぐ。Cisco6509によりLinpackの性能が倍になった。
 
11)"SAM-QFS Streaming I/O" Harriet Coverston, Sun Microsystems
 
12)"Innovations in Data Storage" Jeremy Werner, Sun Microsystems
 
13)"Open SMS" Stoeve Cranage, Storage Tek/Sun Microsystems
 
14)"Worldwide University Network Grid" David DeRoure, Southanmpton Univ.
 南京を含む16の大学をネットワークで接続。http://www.wun.ac.uk参照。
 
 
======13日日曜日======
13−1 Sun HPC Consortium USA 2005 (2)
 13日(日)の午前は、Grid and Portal Computing, Computational Biology, Developers Forumの3つの分科会が開かれた。筆者は、日曜日なのでこちらはさぼって家内と教会のミサに出かけた。冷たい雨の中を、ダウンタウンから歩いて10分ほどのSt. Jamesというカテドラル(司教座聖堂)に行ったが、ちょうどこの日はこの教会の大聖堂の礎石が置かれて100年目ということで盛大な記念ミサが行われていた。同時に、この教会の敷地内にpastoral centerが完成したと言うことで、ミサ後に竣工式典も行われた。このセンターは、難民、ホームレス、マイノリティー、非正規滞在者の支援を行う施設だということである。
 
 午後のセッションの一部に出席した。
 
1)"Sun x64 servers2 John Fowler, Sun Microsystems
 Opteronを用いたサーバについて解説があった。
 xxxxxx-4は東工大のシステムで使われるもので、dual coreのOpteron 8個からなる。2006年第1四半期に出荷予定(名前は秘密らしい)。
 Thumperはdual coreのOpteron 2個を含む。ディスクを48 TB/rack付けられる。2006年第1四半期の予定。
 xxxxxx-3はdual coreのOpteron 4個を含む。2006年第2四半期の予定。
 
2)"Science and Performance at Nottingham" Phil Williams, U. of Nottingham and John Tayler, Streamline Computing, UK
 SCoreを使っている。GigEでは、IA32で14μs、Opteronで20μs。MyrinetやInfiniBandでも速い。SCoreではtrunking ができる。
 
3)"Solaris Cluster Grids" Tony Kay, Sun Microsystems
 
4)"Learn how to Harness the Power of Sun Grid Utility Computing" Tom McSweeney, Sun Microsystems
 
 この当たりで失礼した。
 
13−2 Fujitsu User's Meeting 2005 in Seattle
 日本からの参加者を対象とする表記の会が17時よりFairmont Olympic Hotelで開かれ出席した。
 
a)挨拶
 まず、代表取締役会長 秋草直之氏から挨拶があった
 
b)招待講演
 続いて、"MicrosoftのHPCへの取り組みについて"と題して、Microsoft Corporate VP Tony Hey氏の30分ほどの講演があった。これは翌々日のSCのBill Gates氏の基調講演のいわば予告編であり、マイクロソフトはHPCに積極的に取り組んでいること、Grid や Web Serviceの技術が発展しているので、ユーザーのマイクロソフトの環境(Windows, Powerpoint, Excel, Mathworks)とHigh End Machineとがシームレスに繋がっていることを強調した。
 Tony Hey氏はイギリスのe-Scienceの中心人物であったが最近マイクロソフトに加わった。元々は素粒子物理屋である。
 懇親会で「明後日Bill Gates氏は何を話すんですか?」と聞いたら、「知りません」ぐらい答えておけばいいのに、「わたしはそれを話す立場にない。」と持って回った言い方をしていた。イギリス流のレトリックかもしれないが、実際Bill Gates氏の基調講演を聞いていて、Tony Hey氏の入れ知恵ではないかと思われるところがたくさんあった。
 
c)富士通ブースの紹介
 計算科学ソリューションセンター長 奥田基氏が説明
 
d)ペタスケールコンピューティング研究開発状況
 ペタスケールコンピューティング推進室長 木村康則氏が、富士通のペタフロップスへの取り組みを解説した
 
e)このあと中庭(屋根付き)で懇親会があった。
 
 
======14日月曜日======
 この日、展示会場では最後の追い込みが行われていた。例年、3時ぐらいから、特に用事のあるもの以外は排出して床の清掃を行うのだが、今年はそれがなかった。せっかくきれいな絨毯の上にゴミがたくさん残り、しょうがないので皆で手で拾った。
 6時からが、VIPへの公開、そして7時からはGala Openingである。
 
 
======15日火曜日======
 
15−1 開会式
 
 前日のGala Openingに引き続いて、9日(火曜日)の8:30から開会式があった。ビックリしたことは、8時過ぎに、シアトルの各所から人間が「沸き出し」まるで砂糖に向かうアリの大群のように歩道を埋め尽くして会議場に向かっていたことである。こんなSCは初めてである。これは、Bill Gatesが基調講演をするからであろう。
 
a.組織委員長あいさつ
 まず組織委員長のBill Kramer (NERSC)が今回のSCの特徴を述べた。SCは確実に成長している。今年の目玉は
1)Gather-Scatter という新らしい企画。会場でサインアップして自由に一人10分ずつ発言することができる。
2)Katrina and HPC
の二つである。
 Education Program は年々大きくなっている。今年は、20の州から140人の先生が参加し、12のコースが設置されている。
 SCinetは、総計1/2 Tb/s のバンド幅で外部と接続されている。会場内のインフラもルーティングも非常に大規模である。
 登録者の数(展示のみを含む)は、今朝現在9250人という空前の数となった。
 SC Global は44サイトと両方向で毎日つないでいる。今年の新しい試みとしてSC Desktop を設け、遠隔地からバーチャルに参加出来るようになった。
 StorCloud は、34 cabinetsに2000のdisk drivesを納め、総容量は860 TBである。
 また、今年新しくHPC Analytics Initiative を行う。6人のfinalistsが残っている。
 展示の総数は265である。このうち58は初めての展示参加である。
 
b.次回組織委員長あいさつ
 来年の組織委員長であるBarbara Horner-Miller (Arctic Region Supercomputing Center)が、来年の会について予告をした。来年はTampa Convention Center (Florida) で、11月11日〜17日に開かれる。ここと違って気温は80°Fである。キューバ風のナイトライフが楽しめる。標語は、"Powerful beyong Imagingation" でこれは
"Computers are incredibly fast, accurate, and stupid:
humans are incredibly slow, inaccuragte and brilliant;
together they are powerful beyond imagination"
というアインシュタインの有名な言葉に基づく[出典不明]。
 
c.ACM会長挨拶
 主催者の一つであるACM会長のDavid Patterson氏が挨拶したが、ほとんどACMの宣伝であった。
 
d.IEEE/CS次期会長挨拶
 もう一方の主催者であるIEEE/CSの2006年会長Deborah M. Cooper女史が挨拶した。IEEE/CSは来年60周年を迎えるとのこと。
 
15−2 Keynote Address
 
今年の基調講演はマイクロソフトの会長でありChief Software ArchitectであるBill Gates.氏であった。タイトルは"The Role of Computing in the Sciences"であり、ソフトウェア産業が、産業界、学界、政府の間の幅広い協力により科学計算をより容易により生産的なものとすることにより、いかに科学研究や技術革新に貢献することができるかについて述べた。また、マイクロソフト社が世界中の10の大学に共同研究資金を提供していることと、HPC用のOSとして"Windows Compute Cluster Server 2003"のベータ2版を公開したことを述べた。Bill Gatesの講演の全文のテキストはhttp://www.microsoft.com/billgates/speeches/2005/11-15SuperComputing05.aspに公表されている。
 
 
 私が最初に触ったコンピュータはBASICのインタープリタで大変遅かった。その後驚くべき進歩を遂げすべての科学技術の道具となった。科学技術計算は、より安全でより効率の良い自動車や飛行機を作ることから、全世界的な健康問題や環境の変化まで、我々の生活の質に影響を与える多くの発見にとって決定的である。さらにほとんどの科学は計算科学になり、そのため先進的な計算能力は末端の科学研究の過程に継ぎ目なしに統合される必要が出てきた。マイクロソフトは、洞察と発見の速度を速めるような革新的な問題解決手法について、科学のコミュニティーと協力するチャンスがある。
 
 その背景には産業の変化がある。トランジスタがどんどん小さくなり、ハードウェアが進歩しアドレス空間も32ビットから64ビットになった。クロックはあまり進歩しないので並列性が重要になる。コンピュータは安く、小さく、スクリーンは高精度になった。今や図書をインターネットでブラウズ出来る。PCはキーボードで入力するものであったが、今や音声でもカメラでも入力できる。ネットワークのバンド幅は増大した。XMLが標準言語となり、マイクロソフトも文書の標準書式として採用しようとしている。すべてがディジタルになった。
 
 今や大量のデータが流れている。ビジネスでも科学でも。昔モデリングのためには大きなベクトル計算機や並列計算機が必要であったが、いまや個人用のマルチコアの計算機(1万ドル程度)で用が足りる。そういう小さなコンピュータから、大きなスーパーコンピュータまでアーキテクチャ上の連続性が重要である。
 
 低価格のセンサを全世界に大量に設置することにより科学に大きな変化が起こる。この強力な組み合わせは、新しい機会を与えるだけではなく、このデータとそれから得られる結果とをどうやって管理し、検索し、分析し発表するかという新しいチャレンジが迫っている。研究のワークフローが変わる。例としてアメリカ北西部沖のプレートを観測するNEPTUNEプロジェクト(http://www.neptune.washington.edu)について説明した。
 
 ソフトウェアメーカーや他の技術ベンダーは科学研究のコミュニティーと協力して、ソフトウェア、ツール、標準を創造し、今日の科学研究協力の障害を除去することにより、新しい発見のウェーブを起こすべきである。
 
 マイクロソフトは情報産業と協力して、この次の発見のウェーブを容易にし、科学者技術者が直面する障害を除くようなソフトウェアを提供しようとしている。今日配布している、マイクロソフトのWindows Compute Cluster Server 2003 Beta 2 および2006年前半に公開予定の正式版により、マイクロソフトは洞察への時間を加速できるHPCのプラットフォームを提供する予定である。Windows Compute Cluster Server 2003は、配備、運用が簡単で、現存のインフラやツールと統合して使うことができる。
 
 Windows Compute Cluster Server 2003 が確実に広範な応用やツールと統合できるために、マイクロソフトは産業界全体のソフト、アプリ、ハードの協力者とともに働いている。この協力は、カストマーが様々なコンパチのHPC応用を走らせたいというニーズに応えられるように設計されている。マイクロソフトはSC|05の展示ブースにおいて17のソフトウェアのパートナーと多くのハードウェアのパートナーと協力し、20のHPCのアプリを実演している。Dell, HP, IBM, NEC, Orion Mustisystems Inc., Tyan Computer Corp., Verari Systemsなどである。
 
 Cleve Moler氏は、「MathWorksは20年間、技術者科学者に技術計算のツールを提供してきた。」と述べている。Windows Compute Cluster Server 2003は、MathWorksの使命を補い、科学技術における確信と発見の速度を速めるようなソフトを提供するであろう。WindowsプラットフォームとMATLABとの結合は、高性能な計算をより進歩させ、洞察への時間を短縮できるような意味のある結果を提供するであろう。
 
 マイクロソフトは、製造業、ライフサイエンスや地球科学、他の産業などにわたるソフトウェアのパートナーとともに、Windows Compute Cluster Server 2003 上で利用可能な商業的なアプリのロバストなセットを提供しようとしている。種々のアプリをMicrosoft MPI やMicrosoft job schedulerやチューニング技術と統合する。この努力の一部として、マイクロソフトは、インテルと協力して、両社からの64ビットのハード、ソフト、ツールを統合して、オンサイトでの技術的支援において協力しようとしている。これにより、Windows Compute Cluster Server 2003 が市場に公開された時に、より広い応用を支援するためである。
 
 マイクロソフトは、世界の10の大学と共同研究を進めている。これにより、ソフトウェア研究を進歩させるとともに、マイクロソフトにおける製品の革新を引き起こすのである。10の大学とは、
a)Cornell University (U.S.);
b)Nizhni Novgorod State University (Russia);
c)Shanghai Jiao Tong University (China); 上海交通大学
d)Tokyo Institute of Technology (Japan); 東京工業大学
e)University of Southampton (England);
f)University of Stuttgart (Germany);
g)University of Tennessee (U.S.);
h)University of Texas at Austin (U.S.);
i)University of Utah (U.S.); and
j)University of Virginia (U.S.).
である。
 
 「Windows Compute Cluster Server 2003 が提供するような、グループ向けもしくは部門向けのHPC資源に容易にアクセスできることにより、アカデミアにおいても産業界においても、科学的および技術的革新が加速されるであろう。」と上記大学の一つテネシー大学のJack Dongarra教授は語っている。「我々の研究プロジェクトは、Windows Platform におけるHPCの応用やソフトウェアにおける自動チューニングソフトを目的としている。これにより、科学者や技術者が発見への時間を短縮することが出来るであろう。マイクロソフトの技術革新への情熱は、これまでHPCの資源にアクセスできなかった多くの人々の可能性を広げることを確信している。」
 
 ここでKyril Faenow (Microsoft) が登場し、ガン研究において、血液の分析からガンを発見する際、いかにマイクロソフトのツールが有効であるかのデモを示した。ビル・ゲーツも、AIDS Vaccine の設計に関するビデオを見せ、人間では分からないパターンのマッチングを計算機で検出できることを示した。
 
 マイクロソフトは、HPCのコミュニティーに対し長期的な支援を行い、科学上の発見における計算の役割について大きな熱意を抱いている。
 
 まあ、内容的に特に新しい話はなく、誰でも言うような内容であったが、ビル・ゲーツが講演するとそれなりに様になるから不思議である。
 
 面白かったのは質疑応答である。さすが、どんな質問にも平然と明確に答えていた。これがすごい。メモできたものだけ紹介します。
 
Q:オープンスタンダードへのマイクロソフトの取り組みは?[これはかなり嫌みな質問であった。]
A:GGFにはTony Heyが参加している。XMLやWSDLでも協力。[とうまく逃げた]
Q:productivityをどう上げるか。
A:Windowsはcomponent object modelに基づいている。MS Officeは複雑なオブジェクトの集合で出来ている。tightly coupled technologyとloosely coupled technology の両方が重要である。
Q:マルチコアにどう対応するか。アカデミアから新しく人を入れるのか。並列化をどう進めるのか。
A:重要なポイントである。多くのアイデアがある。
Q:energyを減らすのにどうするのか。
A:software security, usabilityが重要である。Global warmingのサイエンスが重要。
Q:Xboxの将来をどう考えるか。
A:グラフィックス、可視化、物理学などに影響するであろう。
 
 
15−3 Exhibitor Forum
 午後はいくつかの企業のExhibitor Forumに出席した。今年は、一部パラレルになっていた。
 
a)IBM "Innovation That Matters" (Tilak Agerwala)
 IBMは今後ともスーパーコンピュータの開発を進め、製品を出していく。
 チップの発熱の問題が性能を制限している。歴史的にみると、平方センチあたりの熱密度は次第に増大してES9000 (1990) では13 W/cm2 で最大になった。スチームアイロンでも 5 W/cm2 である。その後CMOS技術の採用により一時桁違いに下がったが、10年後結局同じ熱密度まで増大してしまった。次のブレークスルーが必要である。
 システムには多様なスペクトルが必要である。IBMでは、large SMP, cluster, blade center, Cell/BG というようないくつかの路線を用意している。
 ASC Purple は8-wayのpSeries p5 575 SMP のクラスタで、10240個のプロセッサからなる。peak 93.4 TF、相互接続は3-stage dual rail fat-treeで>6 TB/sのバイセクション・バンド幅をもつ。2 PBのGlobal storageで、100 GB/s のアクセス速度。
 BlueGene/Lは、131072個のプロセッサからなり、相互接続は3次元トーラス、peak 367 TF, Linpack 280 TF。64 racksからなり、2500 ft2 を占める。消費電力はわずか1.5 MW。
 Cell processorはソニー・東芝と協力して製作したゲーム用のチップ。90 nm SOIでダイは221 mm2、32bit だが256GF のピークをもつ。
 HPCには、programmability, manageability, availabilityが重要である。
 ASC Purple はNIF (National Ignition Facility)でのレーザー核融合を目的にしている。BG/Lの利用例としては、視覚物質ロドプシンとか、SiO2-Si境界でのCar-Parrinello MDとか、Blue Brain (22 TF on 8096 proc)とか。
 
b) Cray "Supercomputing at Cray: Constants, Trends and Futures" (Jeff Brooks)
 Cray社は3つの製品ファミリーをもっている。一つはX1Eに代表されるベクトル計算機で、目的志向のHPCである。二つ目はXT3に代表されるMPPで、いわば昔のT3D, T3Eの後継機である。相互接続は3次元トーラス。もう一つはXD1のミッドレンジシステムである。
 ベクトル計算機のロードマップとしては、2007年にEldorado (Multi-threaded)、次にBlack Widowが続く。XT3の後継機としては、XD1 (dual)、XT3 (dual)、Hood (2006)、Adams (2007)、Bakerと続く。両者は最終的にCascadeで統合される予定である。
 High end machinesとしては、Sandia National LabのRed Storm (peak 43 TF)、Pittsburgh Supercomputer CenterのXT3 (10 TF)、Korea Meteorological AdministrationのX1E (18 TF)、Oak Ridge National Lab.のXT3 (25 TF)などである。
 1990年のY-MPから2005年までの変化を見ると、プロセッサ数は512倍、メモリは64k倍、クロックは15倍、ピーク性能は8000倍だが、ブートタイムは20分で変化がない。メモリバンド幅は、XT3では1 B/Flopで、YMPの12B/Flopよりはかなり小さい。XD1のFPGAは遺伝子など目的による高速化に寄与する。
 問題はプログラミング・ツールである。2005年の現在では、MPI, CoArray Fortran, Unified Parallel C, OpenMP, hybridなどいろいろある。MPIのrandom updateをUPCで書くと80倍速いし、行数も少ない。HPCSで開発しているglobal addressの言語Chapelはhigh productivity language である。
 今後のHPCの問題は、消費電力、設置スペース、クーリングである。[Crayが得意な] liquid cooling が復活するであろう。
 
 [SC|05の次の週に、Cray Inc.のco-founder でChief Scientist のBurton Smith氏が、12月7日にCray社を去り、マイクロソフト社に入社することが発表され世界に衝撃が走った。Cascadeの設計は彼の担当とされていたので、今後の方向性が注目される。]
 
c) Sun "Innovation Matters" (Andreas Bechotolsheim)
 IDC (2004)のHPC market sizeのレポートでは安い方が売れている。OpteronのKey trendとしては、プロセッサ数が2から8へ、32 bitから64 bitへ、メモリは4 GBから32 GBへの進化である。"Opteron + Infiniband" solutionが方向性である。ノードは2.4 GHzの4 dual coresで38.4 GFである。
 Open IB (InfiniBand)が生まれつつある。これは1985にネットワークプロトコルがTCP/IPに統一されたようなものではないか。かつてイーサーネット以外のもの、いわゆるEtherNOT (FDDI, ATMなど)は廃れたが、IBは違う。
 ethernetとIBとは、パケット通信であること、RDMA(Remote DMA)モデルに基づくこと、WARP(何でしたっけ)は共通である、違う点は、10GbEはフローコントロールが良くない、reliable transportプロトコルがない、switch performanceが悪い (IBはcut throughであるが、10GbEはヘッダの制御のためstore forwardである。従ってレーテンシーが大きい。)。
 イーサーネットのチャレンジは、マザーボードにRDMAを加え、レイテンシを減少させることである。IBへのチャレンジは、OpenIBを軌道に乗せること、end-to-end MPI latencyを減らすこと、スイッチのバンド幅を向上させることである。
 [Sun MicrosystemsはDARPA HPCSの参加3社の一つであるが、その話は出なかった。HPCSの責任者であったJohn Gustafson氏がClearSpeedに転出してしまったので、どうなるであろうか。BurtonのいなくなったCrayともども心配になる。]
 
d) Fujitsu "Fujitsu's Vision for High Performance Computing" (奥田基)
 富士通のHPCのラインアップとしては、IA32に基づくlinuxのクラスタと、IA64に基づくPRIMEQUESTと、Solarisに基づくPRIMPOWERの3種がある。
 PRIMEQUEST/HPCはMontecito (dual core) chipを富士通オリジナルのチップセットを使い、32CPUをSMPに組み、これを1ノードとしてleaf switchでつないだものである。1本あたり0.8--1.3 Gbps、全体で102--170 Gbpsのバンド幅をもつ。世界最高速の同期バスを有する。
 Extended memory erleavingは、2006年第1四半期に予定しているHIC-1ではPCI-Xベースであるが、第4四半期のHIC-2はdirect connectionである。
 ミドルウェアおよび言語としては、ジョブ管理としてNQSとOrganic Job Controller、ファイルシステムはShared Rapid File System (SRFS)がある。言語としては富士通独自のItanium用のコンパイラを作る。Intel compiler より高性能なものになる。programming modelとしては、SMPとMPIを使うhybrid modelと、Flat modelとをサポートする。Thread parallel performanceはピークの94%が出る。
 グリッドコンピューティングとしては、NaReGIやITBLやビジネスグリッドと協力し、またGGFにも積極的に参加している。
 サーバのロードマップとしては、SPARC64TM VI+ (2.7 GHz) 4 coreを予定している。富士通はペタスケールコンピューティングに挑戦する。
 
e) NEC "NEC High Perfornance Computing Solutions" (Joerg Stadler)
 SX seriesは18年も続いている。implementationは時代とともに変わっているが。
 SX-8は、16 GF/CPU、64 GB/s memory bandwidth、8 CPU/node、最大構成は512 nodes (4996 CPU)で65 TF。
 サーバとしては、Express 5800/1000 (TX7)はItanium 2ベース。EM64T Blade serverもある。
 ペタフロップスに向けての技術として、CPUとメモリとの光接続を研究している。
 NEC commitment --- keep-on going!!!
 
 日立はBlade serverの会社として登録したので、16日に発表したが、私は出ていない。
 
15−4 Top500 BoF
 恒例により、この日の5:15からTop500のBoFがあった。詳細は、http://www.top500.org/lists/2005/11/ を参照。
 
a) Top500の発表 (Horst Simon)
 まずHorst Simon (NERSC, LBNL) が26回目のトップ10の発表を行い、3位までに表彰状を手渡した。10位までは以下の通り。
順位 マシン名/場所 Rmax(TF) プロセッサ数
1  BlueGene/L(LLNL)   280.60    131072
2  BGW (Watson)    91.29     91290
3  ASC Purple(LLNL)    63.39     10240
4  Columbia (NASA Ames)    51.87     10160
5  Thunderbird (Sandia)    38.27     8000
6  Red Storm (Sandia)    36.19     10880
7  The Earth Simulator    35.86     5120
8  MareNostrum (Barcelona)    27.91     4800
9  BlueGene/L (Groningen)    27.45     12288
10 XT3 (ORNL)   20.527     5200
 
 Simonが一言、"Most boring Top500." 要するに、すべて「想定内」だったからであろう。このうち、前回のリストから存続しているのは6件である。新顔は、3位のASC Purple、5位のThunderbird (Dell製)、9位のGroningenのBlueGene、10位のOak RidgeのXT3である。
 
b) "High Lights of Top 500" (E. Strohmaier)
 続いてStrohmaierが"Highlights"について述べた(http://www.top500.org/lists/2005/11/trends.php)。今回のTop500への参入条件は1.636 TFである。Rmaxの総計は2.3 PF。99年までからの外挿と比べるとトップは上にずれている。今後2009年にDARPA HPCSで2 PF のマシンが出現することが期待されている。
 一つの違いは並列度である。これまでTop500の最大並列度はステップ関数的に振る舞ってきた。これまで最大はASCI Redであったが、BlueGene/Lがこれを追い抜いた。最小並列度は日立のSR11000で、38位で日立の社内にあるSR11000-K1 (Rmax=8893 GF, Rpeak=10752 GF) の「プロセッサ数」は80である。[といってもこれはノード数であってCPU数はその16倍のはずである。]
 設置の国別で見ると、政府が積極的に支援しているアメリカが増えている(305件)。日本は劇的に減少し21件のみ、中国は急激に上昇し現在17件で日本に迫っている。ヨーロッパではイギリスがドイツを抜いた。Top100の設置場所についてはWebに地図を用意した(http://www.top500.org/map)[ゼンリンの地図を使っているためか、拡大していくと日本の都市名が漢字で出てくるところが面白い]。システム製造国ではアメリカは多いが、イギリスも多い。日本は少し。
 アーキテクチャではクラスタが支配的。プロセッサ・タイプではインテルが2/3を占めている。相互接続網では、GigEが多く(249件)、特に低位のシステムに多い。次にMyrinetが多い(101件)。OSはLinuxが支配的。
 
c) "Benchmarking Initiative at BIPS" (E. Strohmaier)
 続いてStrohmaierはThe Berkeley Institute for Performance Studies (BIPS)http://crd.lbl.gov/html/bips.html について説明した。これはLBNLとUC Berkeleyとの共同研究プロジェクトで、
1)The Performance Evaluation Research Center (PERC) (責任者David Bailey)
2)The Berkeley Benchmarking and Optimization Group (BeBOP) (責任者Kathy Yelick と James Demmel)
3)LAPACK/ScaLAPACK project
4)Architecture evaluation research project (責任者Leonid Oliker と Kathy Yelick)
5)Benchmarking and performance optimization project
などを包括する。全体のリーダーはKathy Yelick, a professor of computer science at UC Berkeley である。日本の地球シミュレータに何度かベンチマーク調査に来ているのもこの活動の一環のようである。
 PARATEC (PARAllel Total Energy Code) という、バークレーで開発した、pseudopotentialと平面波基底を用いたab-initioの量子力学的全エネルギー計算のプログラムがある。1/3は3次元FFT、1/3はBLAS、1/3は手で書いたFortran90プログラムである。これを用いて通信への要求、メモリーシステムの評価、データアクセスパターン、空間的・時間的局所性を分析し、いろいろな計算機上でSHMEMとMPIとUPCを比較しつつ分析した。
 
d)HPCC (Jack Dongarra)
 Dongarraらが進めているHPC Challenge Project (http://icl.cs.utk.edu/hpcc/people/index.html) についての説明。内容はよく知られた話であるが、9人の協力者の一人に筑波大学の高橋大介氏の名前を見つけた。
 
e)Automotive Top20
 Dongarraの話が終わると、かなりの人が退席した。そろそろいろんな企業のパーティーが始まるからである。
 さて、業種別のHPCの調査の手始めとして、Automotive Top20 の分析結果を示した。Toyotaが初めてトップを占めた。
 
f) 次回
 次回のTop500は、2006年6月28日10:30にDresdenのISC2006で発表される。
 
 
======16日水曜日======
 
16−1 Seymor Cray Award and Sidney Fernbach Award Distiguished Speakers
 
 SCではいろいろな賞が与えられるが、Sidney Fernbach AwardとSeyour Cray AwardとはIEEE Computer Societyが与える特別に価値のある賞である。例年、すべての賞が木曜日に授与されたが、今年はこの二つの賞だけは水曜日の8:30からのセッションで与えられ、受賞講演が行われた。
 Sidney Fernbach Awardは1992年にIEEE Computer Society 理事会によって制定され、1993年のSCから授与されている。大規模な問題を解くためにhigh performance computerを開発し利用することについてのパイオニアであったSidney Fernbach (LLNL) を記念して、革新的なアプローチによるHPC応用分野への寄与に対して送られる。今年の受賞者はLBNLの研究者John Bellで、「数値アルゴリズム、数学的コンピューター的ツールの開発と、燃焼、流体力学、物性分野における最先端の研究への応用における顕著な貢献」に対して送られた。
 Seymour Cray Award は、1996年10月に自動車事故で亡くなったSeymour Cray を記念して、1997年に設けられ、SGI社(当時Cray Research Inc. を併合中)はそのため20万ドルを拠金した。この賞は、コンピュータ・システムについて革新的なアプローチによって寄与したものに与えられる。第1回は1998年。今年は、Cray X1 のチーフアーキテクトであったSteven Scott氏に与えられた。
 去年のCray AwardもCray Inc. の共同創立者であったBurton Smith氏であった(このときは筆者は選考委員の一人)。二年続いてCray賞をCrayの人がもらうというのもちょっと変な気がする。
 二人は30分ずつ受賞記念講演を行ったが、筆者はBellの講演の一部だけで所用のため退出した。
 
16−2 Search on BluGene/L
 10:30 からGorden-Bell賞のfinalistsの一つの講演があった。"A Scalable Distributed Parallel Breadth-First Search Algorithm on BlueGene/L" Andy Yoo (LLNL) et al. 3,000,000以上の辺をもつランダムなグラフ上のサーチを、32K nodesのBG/Lで実行したという発表である。BG/Lのような細粒度のマシンで非数値的なアルゴリズムを実行したところは面白い。Gordon-Bell賞受賞には到らなかった。http://sc05.supercomputing.org/schedule/event_detail.php?evid=5064
 
16−3 地球シミュレータの性能評価
 毎年、この日の昼食を挟んでInternational Journal for HPC Applications という雑誌の編集委員会(委員長Jack Dongarra)がある。今年は会場近くのホテルのステーキハウスであった。
 午後の講演で面白かったのは、Oliker (LBNL) et al の"Leading Computational Methods on Scalar and Vector HEC Platforms" である。これは4つの最先端応用プログラムを用いて、スカラー計算機とベクトル計算機のベンチマークを行い、ピークと実効速度とのずれを分析したものである。
 用いた応用プログラムは、
1)FVCAM:大気モデリング
2)GTC:PICに基づく磁気核融合
3)LBMHD3D:MHDに基づくプラズマ物理学
4)PARATEC:物性科学
である。これを3種のスカラー計算機
1)Power 3 (375 MHz), SP Switch2, 16 CPU/node
2)Itanium2 (1.4 GHz), Quadrics, 4 CPU/node
3)Opteron (2.2 GHz), InfiniBand, 2 CPU/node
と4種類のベクトル計算機
1)X1 (800 MHz), 4 CPU/node
2)X1E (1.13 MHz), 4 CPU/node
3)Earth Simulator (1 GHz), 8 CPU/node
4)SX-8 (2 GHz), 8 CPU/node
上で性能をしたものである。詳細は論文を見て頂くとして、全体としてベクトル計算機がこのすべての応用について、優れた総合性能を示すことを見いだした。現代のベクトルパラレル計算機は顕著なポテンシャルをもつ。アメリカ人もベクトルを見直せと言いたいようである。
 http://sc05.supercomputing.org/schedule/event_detail.php?evid=5051
 
 
======17日木曜日======
 
17−1 SecurityとHPC
 木曜日の8:30からは二つの招待講演があった。最初は、DOEのNNSA (National Nuclear Security Administration) のacting deputy administrator for Defense ProgramのThomas Paul D'Agonstino氏の"National Nuclear Security Administration Advanced Simulation and Computing: Ushering in a New Decade of Predictive Capability"であった。
 ASCI programは、DOEの3つのdefence laboratories (LLNL, SNL, LANL)とアカデミアが協力して、地下核実験なしに核兵器の維持管理を行うプログラムである。現在はASC (Advanced Simulation and Computing)と呼ばれる。問題には3種ある。
1) as-built issues: [新規設計のことであろうか。]
2) ageing issues: 放射線損傷、爆薬、電子機器
3) replacement of materials:
 "Computationa science is the interaction of leading-edge science and national polity on a schedule to meet national nuclear security needs."
 シミュレーション技術の変遷をsecurityの観点から見ると、
1) 1943-1992 Historical Era- シミュレーションは意志決定やテストベッドの認証には役だった。
2) 1992-2005 Early Stewardship Era-能力の実証段階。ASC technologyのポテンシャルを実証。
3) 2006- Stewardship Matures-ASC技術がstewardshipの主要な手法になる。方法論が実証され、数ペタのスケールが実現する。次のチャレンジは予言能力である。
 今後、計算科学が科学上の発見にとって重要な役割を果たす。
1) ranges of length scales: 原子核、原子、分子、材料、...
2) ranges of time scales
3) extreme conditions and complexity, not experimentally accessible
4) competing complex physical processes and dynamics
5) allows virtual testing and prototyping. Virtual testing increasingly replacing experimentation.
 ウレタンフォームの大変形のシミュレーションは大変難しい。材料の強度の経年劣化を、原子スケールから調べることは難しい。
 今日のスーパーコンピュータへのチャレンジ。
1) code, algorithm and science -- new computer system
2) productivity and user environment
3) sysmtem scalability -- 10000を超すプロセッサ、ソフトウェア、相互接続、ファイルシステム
4) visualization
"National facilities are in the unique position to supprot and drive these efforts."
 BlueGene/L: enabling better science, large scale, multi-disciplinary. Low power, floorspace and scalability. これにより5x108原子のシミュレーションが出来た。このサイズでは組織が直接扱える。
 Changing paradigm for large scale simulation. 昔は地下室のシンクロトロンで実験をしていたが、今は国際センターの大加速器での実験となり、Physical Review Lettersの4ページの論文のなかで2.5ページが著者名と所属に費やされる時代となった。コードを書くのにも似たところがあり、51人で一つのシミュレーションコードを書くこともある。
 verificatin and validationが重要である。計算の信頼性の基礎だからである。
We do not pronounce success. Path our calculations. We must access these products to decide.
 
17−2 e-Science
 9:15からは"e-Science and Cyberinfrastructure in Europe" Anne Trefethen (Acting Director of the UK e-Science Core Programme)があった。Anne Trefethenは、数値解析で有名なNick Trefethen(Oxford)の夫人ではないかと思う。
 まず彼女はいくつかの例を上げた。
1) Dynome - High Througjput Molecular Dynamics for structural genomics
2) Discovery Net -Bridging the macro and micro earthquakes
3) SPICE (Simulated Pore Interactive Computing Environment) protein poresによるbiomoleculeの通過(ちなみに、SPICEはthe HPC Analytics Challenge Awardを受賞した)。
 OxfordではIntegrative Biologyとして心疾患とガンとのモデリングをおこなっている。多くの大学、会社(アメリカ、ヨーロッパ、ニュージーランド)との協力のもとに行っている。
 Next GridはOnto Gridで、GGFとW3Cとのギャップをつなぐことを期待している。EGEE (Enabling Grid for E-sciencE)-service for science and educationは71の機関、27の国にわたり、高エネルギー、バイオ、地球、計算化学など広い範囲に渡っている。
 IB (Integrative Biology)のように成功するにはinteroperabilityが重要であると結論した。
 
17−3 超伝導コンピュータ
 10:30からはパネル"Superconducting Technology Assessment"に出席した。ModeratorはGeorge R. Cotter (DoD)の予定であったが、実際はTom Stirlingが司会をしていた。日本からのパネリストはいなかったが、このパネルではかなり日本の研究が引用されていた。
 
a) Tom Stirling (Lousiana State University, CalTechではないらしい)
 Top500は指数的に上昇している。SIA roadmapも指数的な進歩を予言している。しかし技術的に可能かどうかは疑問がある。しかし超伝導による論理素子では243 GHzという記録が出ている。私は1999年にHTMTというSFQ (Single Flux Quantum)に基づくペタフロップスの計算機を提案した(PetaflopsII会議報告を参照)。NSAは"Superconducting Technology Assessment Report"(http://www.nitrd.gov/pubs/nsa/sta.pdf)を発表した。
 議論したい問題は
1)超伝導素子を開発してほしいというユーザからの需要はあるか
2)アーキテクトは、実現可能でプログラム可能なシステムを開発できるか
3)超伝導素子を使ってシステムを作るという挑戦に挑む会社があるか
4)超伝導スーパーコンピュータを作る際の政府の役割は何か
ということである。
 [私見であるが、この4つの質問は京速計算機にも当てはまる]
 
b) Arnold Silver (independent consultant)
 氏はまずRSFQ (Rapid Single Flux Quatum)の技術の現状を紹介した。システムは3つの温度領域からなる。一つは4KのRSFQ論理素子およびメモリ、中間に40-70Kの領域、そして室温の領域である。CMOSとSFQを比較し、「電子であるところは同じ」と述べたが当たり前ではないか。
 RSFQ技術は既に開発可能な所まで来ている。特徴は高周波数(50-100 GHz)、低消費電力、クロック周波数で通信が可能なことなどである。すでに、LSIウェハーはでき、CADも可能で、チップのデザインがなされれている。複雑なチップもいくつか報告されている、といくつかの例を示したが、一つは日本からのものであった。
 私の技術評価としては、代替技術として有望だとは思うが、まだ成熟した技術とは言えず、産業界のインフラもない。必要なことは研究ではなく、技術開発である。
 リスクとしては、超低温領域との通信のバンド幅である。低熱負荷で何か可能か。ファイバーという案もあるが光のパルスもエネルギーをもっている。
 技術のインフラを開発することが重要である。ウェーファー技術、CADツール、MCM、3D実装、極低温冷却技術など。
 CRAM (Cryogenic RAM)の実証はすでになされている。
 
c) Mikhail Dorojevets (State University of NY)
 RSFQの基礎的な実験データを示し、100 GHzは実現出来るだろうと述べた。
1)セルライブラリ
 今1μプロセスが日本で実現している(ISTECの超電導工学研究所)。RSFQでは大域的な同期は出来ないので、ultrapipeliningを用いる。レーテンシをどう隠すか。
2)メモリ
 pulse-controled RSFQを用いて、latch, FIFO Queue, on-chip RAM, off-chip RAMなどが作られている。3つのプロジェクトがある。
(ア)SPELL (HTMTのため、1997-99)
(イ)FLUX-1
(ウ)COPE1(これは日本?)
3)インターコネクト
 共有バスは使えないので、超高速スイッチが必要になる。
 
d) Ted Van Duzer (UC Berkeley) "Cryogenic Memories for RSFQ Ultra Higfh Speed Processing"
 チャレンジは50 GHzのプロセッサにつなぐメモリである。4Kの領域にはregister, cache, off-chip memoryが置かれる。4K off-chip memoryの可能性としては、(1) Hybrid JJ-CMOS, (2) SFQ, (3) Josephson MRAM の可能性がある。
(ア)Hybrid RAM -- 外とのインタフェースが難しい。
(イ)SFQ memory -- ISEC05で日本からの報告があった。10 GHzの動作周波数での消費電力は、64Kbで0.7 mW、256Kbで3 mW、1 Mbで12 mWであった。
(ウ)MRAM -- 一つはfield-switched MRAMで、line currentに10mAも必要なのが欠点。もう一つはSMT (Spin Momentum Transfer) MRAMである。
 40-77KでのRAMとしては、DRAM without refreshing(低温なのでリークが小さい)やMRAMがある。
 
e) Burton Smith (Cray) "System Balance and Fast Clocks"
 私は超伝導の専門家ではないが、システムのバランスの観点から意見を述べたい。アーキテクトの目から見ると問題はレイテンシである。ベクトル処理も、マルチスレッドも、ある種のデータフローもそれぞれレイテンシの問題を解決している。超伝導では、高速でマルチポートのレジスタファイルが必要である。
 いろんなチャレンジがある
(ア)バンド幅チャレンジ−−Cu or cold Cu, 高価である
(イ)時間的局所性のチャレンジ
(ウ)Thread weight challenge [何を言いたいのか不明]
(エ)Programmability challenge これが最大の問題
 
17−4 表彰式
 17日(木)3:30からのセッションにおいて、FernbachとCray以外の授賞式が行われた。筆者は、手伝っていた筑波大学のブースでの記念撮影があったので最初の部分には出られなかった。
 
1) Gordon Bell Prize:
 この賞はhigh-performance computers の実用的利用に対して授与される。今年は、6つの論文がfinalistsとして発表された。通例では、革新的利用、ピーク速度、費用性能比の3つのカテゴリーで授与されてきたが、今年は一つの論文だけに賞が与えられた。案の定BlueGeneであった。
 
"100+ TFlop Solidification Simulations on BlueGene/L"
Authors: Frederick H. Streitz, James N. Glosli, Mehul V. Patel, Bor Chan, Robert K. Yates, Bronis R. de Supinski (Lawrence Livermore National Laboratory), James Sexton, John A. Gunnels (IBM)
 
このほか二つほどの論文がHonorable mention(いわば佳作)として言及されたようであるが、公式記録には残っていない。finalistsに残った日本のグループの論文
"16.447 TFlops and 159-Billion-dimensional Exact-diagonalization for Trapped Fermion-Hubbard Model on the Earth Simulator" Susumu Yamada, Toshiyuki Imamura, Masahiko Machida
は惜しくも受賞を逃した。
 
2) Best Technical Paper Award :
 優秀論文賞としては次の2論文に授与された
 
"High Resolution Aerospace Applications using the NASA Columbia Supercomputer."
Authors: Dimitri J. Mavriplis (University of Wyoming), Michael J. Aftosmis (NASA Ames Research Center), Marsha Berger (Courant Institute)
 
"Full Electron Calculation Beyond 20,000 Atoms: Ground Electronic State of Photosynthetic Proteins"
Tsutomu Ikegami, Toyokazu Ishida, Dmitri G. Fedorov, Kazuo Kitaura, Yuichi Inadomi, Hiroaki Umeda, Mitsuo Yokokawa, Satoshi Sekiguchi (National Institute of Advanced Industrial Science and Technology)
 
後者は産業技術総合研究所のグリッド技術研究センターのグループである。SCでは論文が採択されるだけでも栄誉なのに、優秀論文賞を獲得したことは大きな快挙である。日本からの投稿では初めてである。
 
3) Best Student Paper:
"Programmer Productivity: A Case Study of Novice Parallel Programmers."
  Author: Lorin Hochstein (University of Maryland)
 
4) Best Research Poster:
"Ultra-Low Latency Optical Networks for Next Generation Supercomputers."
Authors: Benjamin A. Small, Odile Liboiron-Ladouceur, Assaf Shacham, Keren Bergman (Columbia University); Carl Gray, Cory Hawkins, David C. Keezer, Kevin P. Martin, D. Scott Wills (Georgia Institute of Technology); Gary D. Hughes (Laboratory of Physical
Science)
 
5) HPC Analytics Challenge Award :
 HPC Analytics はSC|05で初めて登場したイニシアチブであり、HPCで用いられるデータ解析や可視化の革新的な方法論を、複雑な実世界の問題を実際に解くことによって実証する。6グループが参加し、次の2グループが受賞した。
 
"SPICE: Simulated Pore Interactive Computing Experiment"
Authors: Shantenu Jha, Peter Coveney, Matt Harvey (University College London), Stephen Pickles, Robin Pinning (University of Manchester), Peter Clarke (University of Edinburgh), Bruce Boghosian (Tufts University), Charlie Catlett (TeraGrid), Charles Laughton (Nottingham University), Rob Pennington (NCSA/TeraGrid), Sergiu Sanielevici (Pittsburgh Supercomputing Center), Jennifer Schopf (Argonne National Lab), Richard Blake (CCLRC Daresbury)
 
"Real Time Change Detection and Alerts from Highway Traffic Data"
Authors: Robert L. Grossman, Michal Sabala, Anushka Aanand, Pei Zhang, Jason Leigh, David Hanley, Peter Nelson (University of Illinois at Chicago), John Chaves, Steve Vejcik (Open Data Partners), John Dillenburg, Vince Poor (Princeton University)
 
 なお、未確認ではあるが、日本原子力研究開発機構システム計算科学センター中島憲宏らは、原子力発電施設の地震時の応答をシミュレーショする際に、ITBLを用いて異なる複数のスーパーコンピュータを連携処理させて解析を高速化する手法を実現し、Honorable Mention(佳作)として賞されたとのことである。(http://www.jaea.go.jp/02/press2005/p05111801/index.html参照)
 
6) StorCloud Award
 StorCloudの高度利用に対する賞。6チームがエントリーした。3種類の賞が与えられた。
(ア)Best Overall Performance
"PNNL Computational Chemistry Simulation"
Authors: Kevin Regimbal, Ryan Mooney (Pacific Northwest National Laboratory), Evan Felix.
 
であった。このチームは会場から自分の所(割に近く)まで、画像処理のデータを20 Gbit/s の速度で転送した。
(イ) "Most Innovative Use of Storage in Support of Science" - AIST
"High-performance KEKB/Belle data analysis using Gfarm Grid file system" by Osamu Tatebe, Nobuhiko Katayama, Satoshi Matsuoka, Satoshi Sekiguchi, Hitoshi Sato
産総研のチームは、自家製のハード(MegaProto)の上に自家製のソフトウェア(Gfarm)を実装して、加速器実験に必要な、柔軟で高性能は記憶装置のインフラを構築した。本賞ではないが、高く評価されたことはすばらしい。
(ウ) "Best Deployment of a Prototype for a Scientific Application" - LBNL/ NERSC
"TRI-Data Storm" by William Baird, Jonathan Carter, Michael Wehner, Tavia Stone, Cristina Siegerist, Wes Bethel
このLBNLのチームは、気候モデルのために広域のシステムを構築した。
 
7) Bandwidth Challenge
 バンド幅チャレンジはSC2000に始まり今年はすでに6回目である。エントリーは9チーム。
(ア)本賞には、QWESTから$5000の賞金が出る。
"Distributed TeraByte Particle Physics Data Sample Analysis"
Authors: Julian James Bunn, Harvey Newman (Caltech), Les Cottrell(SLAC), Don Petravik, Matt Crawford (FNAL)
(イ)Most Inovative Use of New Technology
"Wide Screen Window on the World: Life Size HD Videoconferencing".
  Jeremy R. Cooperstock, John Roston, Wieslaw Woszczyk (McGill)
このチームは、シアトルとモントリオールの間のHDTVビデオ会議のレイテンシを減少させ、両地にいる演奏家の間の両方向の同期を可能にした。
 
(ウ)Fastest IPv6
"Data Reservoir on very-long-distance IPv6 / IPv4 network".
Kei Hiraki (Univ. of Tokyo), Akira Kato (WIDE), Mary Inaba, Junji Tamatsukuri, Makoto Nakamura, Yutaka Sugawara, Nao Aoshima (Univ. of Tokyo), Ryutaro Kurusu, Masakazu Sakamoto, Yukichi Ikuta, Yuki furukawa (Fujitsu)
IPv6/IPv4を用いて30,000kmの通信で6.84 Gbit/sの速度を達成した。このグループは2002年から連続して受賞している。
 
 なお、バンド幅チャレンジには、日本からあと2チームが参加した。
"Secure Remote File System for HPC" N. Fujita et al. (JAXA and Fujitsu)
"A Challenge to Real-Time Visualization for 3D Computer Simulations and Satellite Observations for Space Weather" K. Murata et al. (Ehime U. and NICT)
 
(エ) Tri-Challenge Award:
 SC|05の3つのチャレンジ、HPC Analytics, StorCloud and Bandwidth Challenge、すべてに参加し、総合点で最高を得たRobert L. Grossman, National Center for Data MiningにはTri-Challenge Awardが与えられた。なおこの賞は今年限りとのことである。
 
 
======18日金曜日======
 18日(金)は最終日で、Workshopなどの他は午前で終了する。午前中には2つずつ並列で4つのパネルが設けられた。
 
8:30AM - 10:00AM "Computing Beyond CPUs: Strategic Directions in HPC Architectures"
Jeffrey Vetter (Chair), Steve Miller, Michael Parker, Jon Huppenthal, Simon McIntosh-Smith, Kent Gilson, John Johnson
 
8:30AM - 10:00AM "The Six-Million Processor System"
Wu Feng (Chair), C. Gordon Bell, Carl Christensen, Satoshi Matsuoka, James Taft, Allan Benner, Srinidhi Varadarajan
 
10:30AM - 12:00PM "Return of HPC Survivor -- Outwit, Outlast, Outcompute"
Cherri M. Pancake (Chair), Burton Smith, Cleve Moler, Barbara Chapman, Rusty Lusk, Marty Itzkowitz, Al Geist
 
10:30AM - 12:00PM "Tour de HPCycles"
Wu Feng (Chair), Allan E. Snavely, David H. Bailey, John (Jay) Boisseau, Bob Ciotti, Douglass E. Post, Candace Culhane
 
18−1 "The Six-Million Processor System"
 
 このふざけた題名は、1974〜78にテレビで放映された"The Six Million Dollar Man"という番組をもじったものらしい。その冒頭のナレーションはこうなっていたらしい (http://www.interq.or.jp/jazz/girry/ftv/s_m_d_m.html)。
 
 『スチーブ・オースチン』宇宙飛行士。命だけは取り留めた男。右腕、両足を切断、片目を失う。だがNASAのメディカルスタッフによって人体改造手術。サイボーグとなる。その費用600万ドル。
 左目はテレスコープ。右腕は銃を曲げ、コンクリートを砕くアトミックパワー。そして時速100キロで突っ走る 『600万ドルの男。』サイボーグ。
 
オリジナルの英語版は若干違うが (http://www.imdb.com/title/tt0071054/)、
Steve Austin, astronaut. A man barely alive. Gentlemen, we can rebuild him. We have the technology. We have the capability to build the world's first bionic man. Steve Austin will be that man. Better than he was before. Better, stronger, faster.
とある。このパネルの趣旨説明に
"...ASC Kaleidoscope, Large-Scale System ... A system ’barely’alive ... Gentlemen, we can rebuild it ... we have the technology. We have the capability to make the world’s first six-million processor system. ASC Kaleidoscope will be that system. Better than it was before ... stronger, faster ..."
とあって、アメリカ人ならこれが上のパロディーだということが分かるらしい。筆者は必死でサーチエンジンを検索してやっと納得した。600万は単なる語呂あわせであるが、要するに6000000 CPU のシステムは出来るのか、技術上のブレークスルーは何か、誰がどう使うか、というようなことが話題のようである。
 
1)Wu Feng (Chair)Los Alamos National Laboratory
 これは恐るべきチャレンジである。ハード、ソフト、実行時ルーチン、プログラミング、管理、消費電力、価格、維持費用など。私は消費電力が最大の問題だと思う。消費電力についてのMoore's Lawが成り立つ。1990年の発熱密度はホットプレート程度であったが、近々原子炉の炉心の発熱密度に達する。ASC Whiteは2 MW消費+2 MW coolingであるが、年間$4.5M かかる。これを外挿すると6 M CPU では2.93 GWとなりHooverダムが必要だ。
 reliabilityとavailabilityも問題だ。ASC QやASC Whiteや[NERSCの]SeaborgのMTBFは6時間しかない[本当か?]。1899年にアレニウス(Arrhenius)は、反応速度がexp(-E/kT)に比例するというアレニウスの式を出したが、今や計算機にも当てはまる。すなわち、「温度が10度上がると故障率は2倍に増える」。
 
2)Srinidhi Varadarajan, Virginia Tech
 多くのチャレンジがある。power, cooling, computing model, communincation, extreme scalability, usability, reliability, floor spaceなど。可能性としては、a)BlueGene型の省電力システムの拡張、b)constellation of multi-core systems, c)traditional clusters, d)everything else などがありうる。
 私の展望としては、a)VLSI以前のプロセッサを思い出すと、すべての機能は独立していた。このモデルは参考になる。b)More complex functional units, for example linear algebra units, FFT, convolution, image processing。c)redundancy through large number of indentical unitsを挙げる。
 次に、プログラミングモデルが重要である。von Neuman+dataflow を考えている。メモリの構造も重要である。global addressであるべき。computing in memoryかlarge memory with message passingが考えられる。
 
3)James Taft, NASA Ames Research Center
 新しい並列ハードウェアを使う必要がある。mission-critical HPC application へのプログラミング・パラダイムを構築しなくては。
 第一に、もはやSeymour Crayのようなアーキテクチャの天才がいなくなったことである。彼に次ぐとすればSteve Wallachであるが、かれは見えなくなってしまった[会期中のNECのパーティーにはいたが]。なぜか? よく分からないが、Wall Streetのせいか、Venture capitalのせいか、教育のせいか? かれはここでスーパーコンピュータの系統樹と称するものを見せ、エギゾチックなアーキテクチャは行き止まりだと強調した。
 さて、二つの見方がある。まず悲観的な見方について述べる。いったい希望はあるのか? real science + computational science = no science [何をいいたいのか?] ASCIはCOTSを買っただけだ。アーキテクチャの研究開発になっていない。加速度はゼロ。6Mのシステムができても、エギゾチックなマシンであり、その使い勝手は極めて限られる。6Mのシステムを作るべきか? 答えはNOである。
 過去の出来事から学べば、楽観的な見方ができる。100 TF, 100 TB, single sysytem imageは3〜4年で実用になるだろう。
 私の本心はどちらかというと悲観的である。
 
4)Satoshi Matsuoka, Tokyo Institute of Technology
 サイズは問題か?マシンの物理的サイズ、ネットワークのサイズ(次元など)、PEのサイズ(CPU数)、メモリのサイズ、ノードのサイズ(PE数、メモリ、バンド幅、物理的大きさ、ワット数)、チップのサイズ(ダイサイズ、コア数)など。
 まず物理的なマシンのサイズを考えると、地球シミュレータが3000 m2である。もっと大きなものが作れるか。大きな建物の代表としてペンタゴンを考えると、これは600,000m2で地球シミュレータの200倍にすぎない。100万CPUしか入らない。つまり8 PF, 1 GW, Hooverダムの半分。
 PEやノードのサイズを考えると、BlueGene/Lは360 TF/200m2, 1.5 MW である。1ラックは2048 CPUだから、3000 BlueGene/Lで6 M CPUになる。10000m2で、17 PFである。
 私たちが今度東工大に入れようとしてるマシンは、655台のオプテロンサーバをつないだもので、各ノードにdual core Opteronsが8個使われているので50 TFである。それにClearSpeedというチップあたり96個のSIMD PEが装備されたアクセラレータが各サーバに入っている。これが35 TFである。ノード当たりのPE数(浮動小数演算器数)は32+96=128で、全体で83840であるから、これを7倍すれば6 M になる。面積は2000m2で7 MW, 3.5 PFである。65 nmテクノロジーならこの4倍は行くであろう。
 だから、何も問題はない。むしろ、hierarchy of sizes and its abstractionの方が問題。O(n)でなくO(log n)にならなくては[何のこと?]
 
5)Carl Christensen, University of Oxford[気象計算の専門家らしい]
 Volunteer computingでやれば6 M CPUなんて簡単だ。2006年の世界中のPCの0.5%をつかえばちょうど6 Mになる。BOINC (Berkeley Open Infrastructure for Network Computing)では100000以上のユーザが登録し、常時30000台が動いている。Volunteer computingの問題は、security, result falsification, Website/server hacking, malicious executable codesなどいろいろある。result falsification(わざと正しくない結果を返す)には、redundantな処理を行えば防げる。さらにこのような活動は社会にHPCの重要性を認識させるに役立つ。
 
6)Allan Benner, IBM
 コストが問題だ。CPU当たり$1000としても、$6B掛かる。しかし、これはB-2爆撃機の5台分、世界のガムの消費高の1/4、ビールの1/10、そして国債[アメリカだけか?]の年間利子の1/50にすぎない。
 DRAMに$2B掛ければ、2010-11なら24PB買えるだろう。BGの4倍である。CPUのパワーは10WでもDRAMのパワーは80Wにもなる。
 政治的な問題はどこに建設すべきかということである。アメリカにはHomeland Security moneyがある。これをアメリカ中に分散すればよい。一案は学校に置くことである。アメリカ中に学校[high schoolか?]が47000ある。それぞれに128 wayのクラスタを置いてファイバーで結合すればちょうど6Mになる。日中は教育に使い、夕方はゲームに使い、夜はTeraGridとして使う。[どこまで本気なのか??]
 
7)C. Gordon Bell, Microsoft Research[自分では所属をBay Area Researchと書いていた。MSの一部なのか、独立の研究所か?]
 問題は、"little or no creativity and help from computer science community."ということだ[何を言いたいのか?]。私は6Mを3階層に分けそれぞれ2Mずつ割り当てればよい。
a)最初の1/3は結合してcentral systemとして使う。2〜5 PF にはなるであろう。
b)次の1/3は10のクラスタに分けてdepartmental systemとする。
c)最後の1/3は100のクラスタに分けて個人用のシステムとする。
ディレンマは、このような多数のプロセッサを使いこなせるかということである。Wintel has capacity for more functionality.
 [結局何を言いたいかわからず]
 
このあとパネリスト間の討論が少しあったが記録できなかった。
 
18−2 Tour de HPCycles
 このパネルは、スーパーコンピュータをTour de Franceのチームに見立てて、色々な賞を与えようとするものである。Tour de Franceにはいくつかの賞があり、それぞれ違う色模様のジャージーが与えられるらしい。資料によると、
a)マイヨ・ジョーヌ(Maillot Jaune) 黄色ジャージ:
 全ステージを一番早く走破した選手が獲得する。総合チャンピオン。
b)マイヨ・べール 緑色ジャージ:
 各ステージに設けられているスプリントポイントの最高得点者。「スプリント王」。
c)マイヨ・ブランカポアルージュ 白地に赤の水玉模様のジャージー:
 各ステージに設けられている、山岳ポイントの最高得点者。「山岳王」。
d)マイヨ・ブランドゥメイユールジューヌ 白ジャージー:
 25歳以下の新人賞。
 
これに合わせて、下記の賞をどのコンピュータに与えるか議論した。
a)Green Jersey (aka Sprinters Jersey): Fastest consistently in miles/hour.
b)Polka Dot Jersey (aka Climbers Jersey): Ability to tackle difficult terrain while sustaining as much of peak performance as possible.
c)White Jersey (aka Young Rider Jersey): Best "under 25 year-old" rider with the lowest total cycling time.
d)Red Number (Most Combative): Most aggressive and attacking rider.
e)Team Jersey: Best overall team.
f)Yellow Jersey (aka Overall Jersey): Best overall supercomputer.
 
筆者は会場にはいたが、残念ながらメールチェックに掛かりきり(というのはこの日の12時までしかネットワークが使えないので)で、ほとんど聞いておらず、それぞれのジャージーがどのコンピュータに与えられたかは確認していない。
 
18−3 Return of HPC Survivor -- Outwit, Outlast, Outcompute
 前記パネルと並行してPancake教授のパネルが行われていた。これは去年のHPC Survivorパネルのいわば継続のようである。
 
"Workshop on High Performance Compute Clustering with Windows" を除いて、12時ですべてのプログラムは終了した。
 
----------------------------------------------------------------