初版2010/11/29
改訂20110/1/7
 
 
SC10報告(一応完成)
小柳義夫
 
http://olab.is.s.u-tokyo.ac.jp/~oyanagi/reports/SC2010.html
(再配布は自由ですが、上記ページから最新版をご利用ください。)
http://olab.is.s.u-tokyo.ac.jp/~oyanagi/conf.html にはその他の国際会議の報告などがありますので、ご興味があればご笑覧ください。
 
この報告は、主として私のメモに基づいてまとめたもので、英語の聞き違い、メモ違いなど多数あると思います。ご容赦ください。ご指摘は歓迎します。改訂に反映させたいと思います。なお、講演紹介中の[]内は、私の感想またはコメントです。
 
この報告は今後インクリメンタルに修正増補する予定です。
 
1.はじめに
 
 SC10: The International Conference for High Performance Computing, Networking, Storage and Analysis (通称 Supercomputing 2010) は、22年目の今年、ルイジアナ州ニューオーリンズのErnes N. Morial Convention Centerにおいて11月13日(土)から19日(金)まで"The Future of Discovery"のテーマの下に開かれた。会議名は時々変わるが、2007年以来同じで、"Analysis" を加えている。このシリーズの国際会議で、ニューオーリンズは初めての開催である。私の記憶では1998年にここでの開催を予定していたが実際にはオーランドで開催された。
 ミシシッピ川に添って作られたウナギの寝床のようなばかでかい会議場で、長さは1キロをはるかに超えている。オーランドの会議場もかなり長かったが、0.8キロ程度であった。それよりかなり長い。SCより大きな薬学関係の会議が同時に開催されていたが、それでもまだスペースが余っていた。会議場の中を歩くだけで疲れてしまった。
 ニューオーリンズは、2005年にハリケーン・カトリーナが襲来し甚大な被害を受けたが、市の中心部を見る限りはその陰はない。盛り場のフレンチクオーターでは人々が華やかに行き交い、夜にはデキシーランドジャズがストリートで演奏されていた。それから、2010年始めには沖合のBPの掘削装置から大量の原油が噴出し大きな影響を与えたが、街中が油臭いようなことはなかった。
 今年のSC10の中心テーマはずばり"Heterogeneous Computing"であった。Top500のトップ4件のうち3件がGPGPUによるものであり、またテクニカルペーパーでもGPU関係の発表が多かった。総合講演の一つは、NVIDIAのBill Dallyであった。展示会場でもNVIDIAのブースは活気が溢れていた。
 ただ、GPGPUのブームが今後も(エクサフロップスまで)続くか疑問との声もある。その理由として、
 1) プログラミングの難しさ。CUDAで多少は優しくなったが、特定のアーキテクチャに依存したプログラミングが広く受け入れられるか疑問である。
 2) GPUの開発はPCでの画像処理という桁違いの需要により支えられているが、IntelのSandy BridgeやAMDのOntarioやLlanoのように、画像処理がCPUチップに吸収されると、ビジネスモデルとして成立しない。
 3) Tileraとか、IntelのSCC (Single-chip Cloud Computer)や MIC (Many Integrated Core)のような本格的なメニイコアが登場するとGPUは勝ち目がないのではないか。
 これに対してBill DallyはGPUにCPU機能を吸収することによりエクサフロップスに挑戦すると豪語していた。(17−1参照)
 去年は、中国・インドの進出が話題になっていたが、今回のTop500では初めて中国の計算機がトップを占めた。National Supercomputing Center in Tianjin(天津)のTianhe(天河)1Aの2.566 PFlopsである。前回の1位(今回の2位)のJaguar (ORNL)の1.759 PFlopsの5割近い上昇である。3位も中国で、National Supercomputing Centre in Shenzhen(深?[土偏に川])のNebulaeの1.271 PFlops であった。東工大のつばめ2は1.192 PFlopsで4位であった。日本の上位10位入りは、2006年11月のつばめ1以来4年ぶりである。
 日本にとってもう一つ喜ばしいニュースは、Green500の2位に東工大のつばめ2が、4位に理研の「スーパーコンピュータK」がランクされたことである。Grape-DRもエントリーし受理されていたが、リストになく、本来なら2位になるはずということで、関係者は訂正を申し入れている。
 [12月23日になってGRAPE-DR側の抗議が受け入れられ、2+位にランクされたことが報道された。詳しくは16−4 c) Green 500参照。]
 また、濱田.(長崎大学)は、昨年ゴードンベル賞のコスト・パフォーマンス部門を受賞したが、今年はゴードン・ベル賞において、2nd Honorable Mention(佳作に相当)を受賞した。本賞ではないが喜ばしいことである。
 さらに、HPC Challenge Awardsでは、地球シミュレータがClass 1のG-FFT部門で優勝し、Class 2では筑波大学のグループがXcalable MPでHonorable Mentionを受賞した。いずれも喜ばしいことである。詳しくは16−3を参照。
 2011年のSCは、11月12日〜18日に2005年と同じシアトルで"Connectiong communities through HPC"のテーマで開催される予定である。http://sc11.supercomputing.org/を参照してください。
 
2.会議の歴史
 
 毎度のことであるが歴史を示す。この会議はアメリカの東西で交互に開かれて来た。年次、開催都市、展示・チュートリアル等を含めた総参加者数、technical program有料登録者数、総展示数、投稿論文数、採択数、採択率を示す。初期の回では、テクニカルプログラム登録者という概念がなかった模様である。21回のパネル"SC: The Conference" での推定値を記す。2012年以降の開催地は公式発表ではない。
回数年号
 
場所
 
総数
 
tech.
 
展示数 投稿数
 
採択
 
採択
1回(1988) Orlando 1495 700-800 36 150 60 40%
2回(1989) Reno 1926 1400 47 ? 88  
3回(1990) New York 2303   59 ? 92  
4回(1991) Albuquerque 4442   80 215 83 39%
5回(1992) Minneapolis 4636   82 220 75 34%
6回(1993) Portland 5196   106 300 72 24%
7回(1994) Washington 5822 2209 122 ? 77  
8回(1995) San Diego 5772 2017 106 241 69 29%
9回(1996) Pittsburgh 4682 1642 121 143 54 38%
10回(1997) San Jose 5436 1837 126 334 57 17%
11回(1998) Orlando 5750 1984 130 270 54 20%
12回(1999) Portland 5100 2124 149 223 65 29%
13回(2000) Dallas 5051 2096 159 179 62 35%
14回(2001) Denver 5277 2017 155 240 60 25%
15回(2002) Baltimore 7128 2192 221   67  
16回(2003) Phoenix 7641 2390 219 207 60 29%
17回(2004) Pittsburgh 8879   266 192 59 31%
18回(2005) Seattle 10000+   276 260 62 24%
19回(2006) Tampa 9000+   258 239 54 23%
20回(2007) Reno 9300+   314   54  
21回(2008) Austin 11000+ 4100+ 337 277? 59 21%
22回(2009) Portland 10200 4100 318 261 59 23%
23回(2010) New Orleans 10000+ 4390 338 253 51 20%
24回(2011) Seattle            
25回(2012) Salt Lake City            
26回(2013) Austin?            
27回(2014)              
28回(2015)              
 
私は、第1回、第4回、第12回、第19回の他はすべて出席した。この会議は元々アメリカの国立研究所の関係者を中心にボランティア的に発足したところに特徴がある。当初はアメリカの国内会議の印象が強かったが、第10回のころから次第に国際的な会議に成長してきた。
 
 日本の研究者もこの会議の運営に大きく貢献している。SCxyの全般を企画するSteering Committeeには2009年から松岡聡(東工大)が加わっている(敬称略、以下同様)。
 プログラム委員会関係では、Technical Program Chairの下にいくつかの組織がある。
1) Application Areaには中島研吾(東大)がChairとして、委員として岩下武志(京都大)が加わっている。
2) Clouds and Gridsには、合田憲人(情報研)が委員として加わっている。
3) Performance には、朴泰佑(筑波大)が委員として加わっている。
4) Storage には竹房あつ子(産総研)が委員として加わっている。
5) System Softwareには、松岡聡(東工大)と田浦健次朗(東大)が加わっている。
6) Tutorial Committeeには石川裕(東大)が加わっている。
 
3.全体像
 
 会議はあまりにも巨大で、全体像をつかむことは困難である。。
 
 Technical programの主要部は16日(火)からであるが、会議そのものは15日(土)から始まっている。16日(日)と17日(月)にはチュートリアル33件(全日は15件、半日は18件)が行われていた。会議に附属して、独立 に組織された14のワークショップも開催された。14日(日)には7件、15日(月)には7件があった。
 
 15日(月)夜7時の展示会場における Gala Openingsから会議の中心部分が始まる。このとき展示会場が参加者に初めて公開されその場でおつまみ程度の軽食が提供される。例年、おつまみがすぐなくなってしまい、特に展示関係者にはなかなか口にできないが、2007年からは一般公開より少し前から食べ物を提供していて、展示関係者には好評であった。
 
 展示は、企業展示も研究展示もますます盛り上がっている。とくに企業展示はチュートリアルとともにこの会議の最大の収入源である。展示は15日(月)の夜から18日(木)の3時までの実質3日間であるが、その設営も撤収もなかなか大変である。
 
 火曜日の朝からtechnical programが始まる。火水木の8:30--10:00はplenaryで、16日(火)は開会式と招待講演、17日(水)と18日(木)にはそれぞれ招待講演が2件あった。10時からはコーヒーブレークで、展示会場も10時からオープン。飲み物とともにベーグル、菓子パン、果物なども提供される。朝が早いので、これで朝食代わりにしている人も多い。
 
 10:30から17:00まではいろいろなプログラムが多数並列に設定されている。最近はポスター発表も重要視されている。今年は、火曜日5時15分から7時までPosters sessionがあった。
 
 金曜は展示もなく、早めに帰ってしまう人も多いので、毎年客寄せに苦労する。
 
 
4.Social Events
 
 恒例により、18日(木)の夜は、展示会場の隣りのMaldigra Worldでevening eventがあった。
 このほかこれも恒例だが、いくつかの企業が、お客様を招待するパーティーが火曜日と水曜日に多数あった。
 
5.展示
 
 主催者発表によると、今年は386000ft2の広さの会場に338の展示があった。企業展示187件、研究展示144件である(合計は合わないが)。
 例年のごとくTechnical programとは独立にExhibitor Forumが3並列で火水木にあり、展示出展企業が30分ずつ講演した。このほか、各展示ブースでは企業展示でも研究展示でも、プレゼンテーションがひっきりなしに行われており、とてもつきあいきれない。
 
5-1 企業展示
1) NVIDIA
 今年最も元気のあった展示の一つである。展示会場にtheaterを設けていろんなプレゼンが行われていた。同社からのメールによると、姓のアルファベット順で以下の通り。
    a. Takayuki Aoki, Tokyo Institute of Technology
    b. Ben Bergen, Los Alamos National Laboratory
    c. Bill Dally, NVIDIA
    d. Jack Dongarra, University of Tennessee
    e. Robert Farber, Pacific Northwest National Laboratory
    f. Wu-chun Feng, Virginia Tech
    g. Wei Ge, Chinese Academy of Sciences
    h. Mark Govett, National Oceanic Atmospheric Administration
    i. Andy Keane, NVIDIA
    j. Satoshi Matsuoka, Tokyo Institute of Technology
    k. Paul Navratil, Texas Advanced Computing Center
    l. Thomas Schulthess, Swiss National Supercomputing Centre
    m. John Stone, University of Illinois at Urbana-Champaign
    n. Jeff Vetter, Oak Ridge National Laboratory
   Presentations from the GPU Computing Theater are available for download from the NVIDIA SC10 event page at www.nvidia.com/sc10.
 
2) IBM
 今年の目玉はBlueGene/Qのボードであった。これによりLLNLは20PFのSequoiaを2012年に建設する予定である。
 
3) 富士通
 京スーパーコンピュータを中心に、x86ベースのサーバも展示していた。
 
4) NEC
 SX9を中心にSMPサーバなどを展示。
 
5) 日立
 SR16000などを展示
 
6) 日立電線
 今年初めての出展である。1本25Gbpsの光ファイバー通信システムを展示していた。これを4対にして100Gbpsの接続が可能になるとのこと。
 
7) Intel
 インテルもいつもの通り広いスペースを取り展示を出していた。Gala Openingでは、地元のSuper Bowl MVP and New Orleans Saints quarterback, Drew Breesを呼んできて派手なパフォーマンスをやっていたようだ。同社からの宣伝メールによると、彼とインテルのデータセンタのグループマネージャのKirk Skaugen.とで、インテルの情報技術を用いて選手の安全、とくに頭部の怪我や脳震盪を防止する可能性について議論したそうです。
 
5-2 研究展示
 
 全体で144件であったが、そのうち日本からの研究展示は以下の26件(PC Cluster Consortiumを除く)であった。今年初めて出展したところはない。
 
National Institute of Advanced Industrial Science and Technology (AIST)
Center for Computational Sciences, University of Tsukuba
・ CMC (Cybermedia Center), Osaka University
Doshisha University
GRAPE Projects
Hokkaido University
Information Technology Based Laboratory (ITBL)
Japan Agency for Marine-Earth Science and Technology (JAMSTEC)
Japan Advanced Institute of Science and Technology (JAIST)
Japan Atomic Energy Agency (JAEA)
Japan Aerospace Exploration Agency (JAXA)
Kansai University
Kyoto University(去年は高等教育研究開発推進センターの名前で出ていた)
Kyushu University
Nara Institute of Science and Technology (NAIST)
National Institute of Informatics (NII)(「e-サイエンス実現のためのシステム統合・連携ソフトウェアの研究開発」プロジェクトの「研究コミュニティ形成のための資源連携技術に関する研究」の成果も展示)
National Institute of Information and Communications Technology (NICT)
・ PC Cluster Consortium(企業展示に分類)
Research Organization for Information Science & Technology (RIST)
Research Organization of Information and Systems (情報システム研究機構)統数研が中心
RIKEN
Saitama Institute of Technology
Saitama University
T2K Open Supercomputer Alliance(「e-サイエンス実現のためのシステム統合・連携ソフトウェアの研究開発」プロジェクトの「シームレス高生産・高性能プログラミング環境」の成果も展示)
The University of Tokyo 平木研究室
Tohoku University
Tokyo Tech (Tokyo Institute of Technology)
-------------------------
 
6.Technical Papers
 
 SCというとどうしても展示やイベントなど華やかなものに注目があつまるが、レベルの高い査読による原著論文(technical papers)は言うまでもなく重要な部分である。
 
 論文投稿総数は253、そこから51編が選ばれた。採択率は20%である。日本が関連した発表としては、次の3件である。
 
Jun Doi - IBM Tokyo Research Laboratory, Yasushi Negishi - IBM Tokyo Research Laboratory, "Overlapping Methods of All-to-All Communication and FFT Algorithms for Torus-Connected Massively Parallel Supercomputers"
 
○Akira Hosoi - Fujitsu, Takumi Washio - University of Tokyo, Jun-ichi Okada - University of Tokyo, Yoshimasa Kadooka - Fujitsu, Kengo Nakajima - University of Tokyo, Toshiaki Hisada - University of Tokyo, "A Multi-Scale Heart Simulation on Massively Parallel Computers"
 
○Takashi Shimokawabe - Tokyo Institute of Technology, Takayuki Aoki - Tokyo Institute of Technology, Chiashi Muroi - Japan Meteorological Agency, Junichi Ishida - Japan Meteorological Agency, Kohei Kawano - Japan Meteorological Agency, Toshio Endo - Tokyo Institute of Technology, Akira Nukada - Tokyo Institute of Technology, Naoya Maruyama - Tokyo Institute of Technology, Satoshi Matsuoka - Tokyo Institute of Technology, "An 80-Fold Speedup, 15.0 TFlops, Full GPU Acceleration of Non-Hydrostatic Weather Model ASUCA Production Code"
 この論文はBest Student PaperのFinalistに入っていたが、受賞は逃した。
 
 
======15日(月曜日)======
15−1 ATIP 2010 Workshop on HPC in China
 ATIP (Asian Technology Information Program)は、NSFなどの支援を得て、ワークショップを開催した。中国科学院の研究機関と北京大などの中国国内大学から約30名の講演者が招かれた。150人の会場が一杯で立ち見がでるほどだったとのことである。
 私はこの日の夕方到着したので参加できなかったが、講演題目は次の通り。これ以外にも大学院生ののポスターが展示された。
 
--------------------------------------
Welcome and Opening Remarks --Dr. David Kahaner (ATIP President)
Keynote Speaker -- Mr. Zongyou SHAO, Dawning Information Industry Company, Ltd.
Session 1: Chinese Government Initiatives
Status of HPC-related R&D in China’s High-tech Program” - Prof. Depei QIAN, ComputerSchool, Beihang University
“Position of China HPC” - Prof. Ninghui SUN, Institute of Computing Technology (ICT), Chinese Academy of Sciences (CAS)
Introduction to Tianhe-1 Supercomputer” - Mr. Guangming LIU, National Super Computer Center in Tianjin (NSCC-TJ)
 
Morning Break (refreshments served by SC)
 
“Cappella: A New Paradigm for Building High Performance Object- based Storage” - Prof. Dan FENG School of Computer Science and Technology, Huazhong University of Science and Technology (HUST)
 
Session 2: Experience at HPC Centers
 
“Extreme Effort to Petascale Computing in CAS” - Prof. Xuebin CHI, Supercomputing Center of CAS (SCCAS)
“HPC Activity in Shanghai Supercomputer Center” - Mr. Tao WANG, Shanghai Supercomputer Center (SSC)
“The Practice and Thinking of Beijing Industrial Cloud Computing” - Dr. Yu ZENG, Beijing Computer Center
Design and Application of High-performance Computing Multi- service Platform in Northwest” - Mr. Yulin SHEN, Gansu Computing Centre
 
IBM-Sponsored LUNCH / NETWORKING / POSTER SESSION /
PANEL DISCUSSION ON CHINA-US RESEARCH COLLABORATIONS
 
Session 3: Chinese University and Institute Research Related to Specialized Hardware & Software
 
“A Unified Programming Interface for GPU Clusters” - Prof. Yifeng CHEN, School of Electronics Engineering and Computer Science, Peking University
“Godson-T: A High-Efficient Many-Core Architecture for Parallel Program Executions” - Prof. Dongrui FAN, Institute of Computing Technology (ICT), CAS
“State-of-the-Art Analysis and Perspectives of China HPC Development: A View from 2010 HPC TOP100” - Prof. Yunquan ZHANG, Institute of Software, CAS
“The Energy Conservation Technology for Large-scale Data Storage System” - Prof. Changsheng XIE, School of Computer Science and Technology, Huazhong University of Science and Technology (HUST)
“Synergistic Collaboration with HPC Researchers in China” - Prof. Yuefan DENG, Applied Mathematics Department, Stony Brook University (SUNY), Stony Brook, NY
 
Session 4: Science Engineering Applications in China
 
“Multi-scale Supercomputing for Multi-scale Multi-phase Systems” - Prof. Wei GE, Institute of Processing Engineering, CAS
“Earth System Models and High-Performance Computing” - Prof. Bin WANG, National Key Laboratory of Numerical Modeling for Atmospheric Sciences and Geophysical Fluid Dynamics (LASG), Institute of Atmospheric Physics, CAS
Computing Platform for High Energy Physics in China” - Prof. Gang CHEN, Institute of High Energy Physics, CAS
HPC Platform in Automotive Design” - Mr. Yi DAI, SAIC
 
Afternoon Break (refreshments served by SC)
 
“Realistic Protein Folding with Next Generation Methodology and Supercomputer” - Prof. Guohui LI, Dalian Institute of Chemical Physics, CAS
 
Session 5: Vendors
 
Andy Keane, GPU Computing Business Unit, NVIDIA
“Democratizing HPC China Industry through Windows HPC Server” - Dr. Mingqiang XU,Microsoft China
Dr. Nash PALANISWAMY, Intel
“Computing Paths to the Future” - Mr. Stephen Gray, Global CERN/LHC Technologist, Dell
Notes about DeepComp 7000 Applications and Development of PF Technology” - Prof. Mingfa ZHU, Lenovo
Inspur HPC Innovation on Product and Application” - Jun LIU, Inspur (Beijing) Electronic Information Industry Co., LTD
 
---------------------------------
 
 
15−2 Gala Opening
 7時からはGala Openingであったが、今年も開場前に展示関係者のために軽食と飲み物がサービスされた。これは大変好評であった。
 
======16日火曜日======
 
16−1 開会式
 
 前日のGala Openingに引き続いて、16日(火曜日)の8:30から開会式があった。
 
a) 組織委員長Barry V. Hellあいさつ
 委員、多数のボランティア、SCinetの担当者などへの感謝が述べられた。
 展示数、参加者数、Education Programなどの紹介があった。
 展示会場は歴史上最大であり、またSCinetでは総延長200マイルに及ぶこと、今回初めて100Gbpsの回線を引いたこと、全体で270Gbpsのバンド幅があることが紹介された。
 ここで共同主催者であるIEEE/CSとACMの代表がそれぞれの学会の宣伝を行った。特にIEEE/CSは60周年とのことである。
 最後のプログラムの3つのThrust areas (Climate Simulation, Data Intensive Computing, Heterogeneous Computingが紹介され、これに従って総合講演やMaster Worksプログラムが企画されていることが述べられた。
 
16−2 Keynote Address Clayton Christensen
 基調講演はHarvard Business SchoolのClayton M. Christensenの、"How to Create New Growth in a Risk-Minimizing Environment"であった。
 私がISC2005報告(http://olab.is.s.u-tokyo.ac.jp/~oyanagi/reports/ISC2005.html)で言及したように、かれはいわゆる破壊的技術("Disruptive Technology")の提唱者である。かれの著書"The Innovator's Dilemma: The Revolutionary National Book That Will Change the Way You Do Business", Clayton M. Christensen (著)(Harvard business school press, 1997)、邦訳は「イノベーションのジレンマ―技術革新が巨大企業を滅ぼすとき」玉田 俊平太, 伊豆原 弓(訳)(翔泳社,2001)、およびその続編、"The Innovator's Solution: Creating and Sustaining Successful Growth," Clayton M. Christensen and Michael E. Raynor(著)(Harvard business school press, 2003)、邦訳は「イノベーションへの解―利益ある成長に向けて」玉田 俊平太, 櫻井 祐子(訳)(翔泳社, 2003)はビジネスの世界での必読書である。第一の本により、「disruptive technology破壊的技術」という言葉の定義が変わってしまったほどだという。すなわち、技術の進化する速度が、ニーズが進化する速度より大きいとき、破壊的技術が生まれる可能性があるという。第二作では、「技術」を「革新」と言い換え、破壊的な技術革新の挑戦を受ける側ではなく、技術革新により優位企業をうち負かそうとする視点から論じている。
 Christensen.は、3ヶ月前に脳の手術を受けたばかりでその後初めての講演だと前置きして、病み上がりとも思えない元気で講演を行った。
 
 ビジネスで成功することは難しい。一時的にうまく行ってもそれを続けることは難しい。イノベーションはなぜ難しいか。それはハーバード・ビジネス・スクールで教えていることを実行していると失敗してしまうからである。
 技術革新はしばしばカストマーが利用可能な範囲を超えて進展してしまう。例えばDigital Equipment社は、1980年代には成功例として賞賛されたが、1988年から崖から転がるように落ちてしまった。同様な例は、Data General、SGI、Sunなどいろいろある。10年前こんな日が来るとは思わなかった。その理由はどの場合も同じで、最初25万ドルの計算機の利益率は45%であったが、技術革新により同じ性能を2000ドルのPCで実現できるようになり、利益率は20%になってしまう。"Up is easy, down is hard." "Little boys beat giants by disruption."
 鉄鋼産業でも同じだ、と述べて、ミルの技術革新によりベトレヘム・スチールの大型のミルより小さなミルが主流になってしまった。大会社の経営者が馬鹿だったわけではない。
 なんでGMがつぶれたのか。カローラのようなサブコンパクトカーを作らなかったからだ。しかし今、トヨタはヒュンデ(現代)やキア(起亜)にやられている。
 高等教育では数百年disruptionが起こっていない。
 ドラッカーは、「カストマーは会社が売っていると思っているものを買うわけではない」と述べている。
 真空管からトランジスタへの変化はなぜdisruptiveか。ソニーのポケットラジオはティーンエイジャーに受け入れられた。ソニーのポータブルTVはRCAよりよかった。真空管の製造会社RCAはつぶれた。
 アウトソーシングは利益率をあげるのに有効であるが、これによりビジネスが液状化する危険がある、とDellとAsustek{台湾)との関係を例に説明した。部品の製造をアウトソースすると利益が上がった、組み立てもアウトソースすると利益がまた増える。製品販売もアウトソースし、ついに社名までアウトソースすることになる。経営者が馬鹿だったわけではない。ハーバード・ビジネス・スクールで教えられたことを忠実に実行しだけなのである。
 質疑応答で、「IBMなど大会社でつぶれないものもあるのはなぜか」という質問が出た。そういう会社は、独立なビジネスユニットに分けて競争させている。
 
16−3 HPC Challenge Awards
 12:15からのBirds of a Feather sessionの一つとして、The 2010 HPC Challenge Awardsが発表された。これはClass 1とClass 2の二つのクラスがある。Class 1では、多くの問題のベスト性能を競う。カテゴリとしては、
a) HPL (High Performance Linpack)
b) Global-Random-Access
c) EP-STREAM-Triad per system
d) Global-FFT
Class 2では上記4つを含むHPC Challenge Benchmarkのプログラムの4つ以上を最もエレガントに実装したチームを表彰する。採点基準は「技術点」(性能)と「芸術点」(エレガンス、明晰さ、サイズ)がそれぞれ50%である。
 Class 1の上位受賞は次の通り(http://www.hpcchallenge.org/による)。
G-HPL Achieved System Affiliation Submitter
1st place
1st runner up
2nd runner up
 
1,533 Tflop/s
736 Tflop/s
368 Tflop/s
 
Cray XT5
Cray XT5
IBM BG/P
 
ORNL
UTK
LLNL
 
Buddy Bland
Steve Whalen
Tom Spelce
 
G-RandomAcces Achieved System Affiliation Submitter
1st place
1st runner up
2nd runner up
 
117 GUPS
103 GUPS
38 GUPS
 
IBM BG/P
IBM BG/P
Cray XT5
 
LLNL
ANL
ORNL
 
Tom Spelce
Scott Parker
Buddy Bland
 
G-FFT Achieved System Affiliation Submitter
1st place
1st runner up
2nd runner up
 
11.88 Tflop/s
10.70 Tflop/s
7.53 Tflop/s
 
NEC SX-9
Cray XT5
Cray XT5
 
JAMSTEC
ORNL
UTK
 
Kenichi Itakura
Buddy Bland
Steve Whalen
 
EP-STREAM-
Triad(system)
Achieved
 
System
 
Affiliation
 
Submitter
 
1st place
1st runner up
2nd runner up
398 TB/s
267 TB/s
233 TB/s
Cray XT5
IBM BG/P
NEC SX-9
ORNL
LLNL
JAMSTEC
Buddy Bland
Tom Spelce
Kenichi Itakura
 
 今回、Class 1のGlobal-FFTにおいて地球シミュレータ(JAMSTECのSX-9)が第1位を受賞した。なおEP-STREAMでは3位を受賞している。上記の表において、ORNLのXT5はJaguar、UTKのXT5はKrakenである。両者はORNLの広大なコンピュータルームに仲良く並んでいる。
 Class 2の結果は以下の通り。
Award Recipient Affiliation   Language
Most Productive System
$1000
George Almási
 
IBM
 

UPC and X10
Most Productive Language
$1000
John Mellor-
Crummey
Rice
 

   CAF 2.0
Honorable Mention

 
Josep M. Perez

 
Bacelona
Supercomputer
Center


   SMPSs
Honorable Mention
 
Jinpil Lee
 

U.of Tsukuba

 XcalableMP
 
 筑波大学のXcalableMPはHonorable Mentionを受賞した。
 
16−4 Top500 BoF
 恒例により、この日の5:15からTop500のBoFがあった。今年は例年と異なり、会場は基調講演を行った講堂が使われた。しかし参加者はそれほど多くはなかった。Top500の詳細はhttp://www.top500.org/lists/2010/11を参照。
 いつも発表するHorst Simon (NERSC, LBNL)は欠席であった(彼は、木曜日になってGordon Bell賞のためだけにやって来たようだ)。
 今年のニュースは、中国の天河1Aがトップに躍り出たことである。2002年6月に日本の地球シミュレータが直前のトップであるASCI Whiteを5倍も凌駕したことが言及された。そのとき、地球シミュレータの性能は、2番から20番までの性能の合計にも匹敵したそうである。今年の中国は1位のみならず3位も占めているところがすごい。
 日本の「つばめ2.0」(東工大)が4位に入ったことを含め、アジア勢がトップ4のうち3つを占めることになった。しかもその3つがいずれもNVIDIAのGPGPUを利用している。
 
a) Top500の発表と表彰 (Jack Dongarra)
 まずJack Dongarra (UTK) が36回目のトップ10の発表を行い、3位までに表彰状を手渡した。10位までは以下の通り。7位までは1 PF を超えている。
順位 Site
 
Computer
 
Rmax
(PF)
1

 
National Supercomputing Center in Tianjin 中国

 
NUDT YH Cluster, X5670 2.93Ghz 6C, NVIDIA GPU, FT-1000 8C
「天河1A」
2.566

 
2
 
DOE/SC/Oak Ridge National Laboratory USA
 
Cray XT5-HE Opteron 6-core 2.6 GHz "Jaguar". 1.759
 
3


 
National Supercomputing Centre in Shenzhen (NSCS) 中国


 
Dawning TC3600 Blade, Intel X5650, NVidia Tesla C2050 GPU
"Nebulae"
 
1.271


 
4


 
GSIC Center, Tokyo Institute of Technology
 
日本


 
HP ProLiant SL390s G7 Xeon 6C X5670, Nvidia GPU, Linux/Windows
「つばめ2.0」
1.192


 
5
 
DOE/SC/LBNL/NERSC USA
 
Cray XE6 12-core 2.1 GHz
"Hopper"
1.054
 
6

 
Commissariat a l'Energie Atomique (CEA)

 
Bull bullx super-node S6010/S6030
"Tera-100"
 
1.050

 
7


 
DOE/NNSA/LANL


 
USA


 
BladeCenter QS22/LS21 Cluster, PowerXCell 8i 3.2 Ghz / Opteron DC 1.8 GHz, Voltaire Infiniband
"Roadrunner"
1.042


 
8


 
National Institute for Computational Sciences/University of Tennessee USA


 
Cray XT5-HE Opteron 6-core 2.6 GHz
"Kraken"
 
0.8317


 
9
 
Forschungszentrum Juelich (FZJ)
 
Blue Gene/P Solutio
"JUGENE"
0.8255
 
10
 
DOE/NNSA/LANL/SNL UAS
 
Cray XE6 8-core 2.4 GHz
"Cielo"
0.8166
 
 
 順位1, 4, 5, 6, 10の5件は、新登場である。結局上位10件のうち、アメリカ5件、中国2件、日本、フランス、ドイツ各1件となった。
 表彰式が行われた。世界1位ではNUDTのLiu.が賞状を受け取った。中国のカメラマンが盛んに写真を撮っていた。Liu.は挨拶の中で、「所詮LINPACK専用machineではないか?」という影の声に答えてか、「次はGordon Bell賞を取りたい」と述べた。
 世界2位はJaguarで、ORNLの他、CrayのP. Ungaroも挨拶した。
 世界3位はShenzhen (深?)のNational Supercomputing Centre in Shenzhen (NSCS)の人が受け取った。
 ヨーロッパ1位としては、CEAの人が受け取り、Bullの女性の役員も挨拶した。
 
b) "Highlights of Top 500" (E. Strohmaier)
 続いてStrohmaierが"Highlights"について述べた。今回の新顔は195件で、500位は31.12 TF、統計は43.66 PFである。性能向上は平均1.6であり、Mooreの法則と同じである。前回6月には1.4でこれは異常に低かった。
 ここで、どういうわけかSC10 Student Cluster Competitionの結果の発表があった。今回8チームで各チームは6人の学部生からなる。LINPACK優勝したのはテキサス大学(TACC)のグループで1.07 TFであった。そのほか、National Tsing Hua University from Taiwanのチームと、Louisiana State Universityのチームも1 TFを超えた。この競争で1 TFを超える数値が出たのは初めてである。
 さて、Top500 の性能を外挿すると2020年までにExa Flopsが実現することが予想される。
 いつもの通り、大陸別、国別、ベンダ別、チップ別などの分析を述べた。システム数では日本が6%、中国が9%である。性能総和では、ドイツ、フランス、英国がそれぞれ6%。とにかく中国が急上昇している。
 ベンダー別では、IBMが200、HPが158、Crayが29、SGIが22である。Top50では、Crayが17、IBMが9、SGIが5となる。
 Linpack efficiencyでは、いくつかのグループに分かれる。Ethernetをつかったものでは50〜60%である。
 Cores per socketは、急速に変わっている。16を超えるものも現れる。
 
c) Green 500
 Wu Feng (Virginia Institute of Technology) が登場。グリーンを測るメトリックには2つある。PUEはデータセンターの電力効率の議論に使われる。もう一つはWorkload/Productivity metricである。Workloadといってもいろいろあり、Linpack (HPL)かRandom Accessか何かによっても違う。測定の方法論の議論が必要である、などと述べた。
 Green500は、Top500のコンピュータの中で電力あたりのLINPACK性能を比較するものである。このBoFでリストが発表されたわけではないが、http://www.green500.org/からの情報を記す。参考までにTop500の順位を推定で記したが、この表とTop500の表との関係はよく分からない。Run Ruleによれば必ずしも同一データである必要はないようである。
 SC10の時に公表されたリストでは、GRAPE-DR(国立天文台)が含まれておらず、関係者が抗議した。エントリーを受理した証拠も残っているとのことであった。朝日新聞12月23日朝刊によると、この抗議が受け入れられリストが下記のように変更された。「つばめ2.0」(東京工業大学)は2位とすでに発表していたのでその順位は変更せず、GRAPE-DRを2+位と位置づけ、3位以下を一つずつずらしたようである。何か変ですが。
 10位までのうち、アクセラレータを用いないhomogeneous parallel machineは1位のBlueGene/Qと5位(に降下した)「京スーパーコンピュータ」の2機だけで、他の8つはhybrid (hetergeneous) computerである。NVIDIAのGPGPUを用いたものが2位(東工大)、4位(NCSA)、10位(Georgia I. T.)の3機、ATIを用いたものが9位(Frankfurt)の1機、Cell/BEを用いたものが6位の3機である。GRAPE-DRはもちろん自作。この結果、上位5位のうち3機を日本が占めることとなった。
------------------------------
http://www.green500.org/lists/2010/11/top/list.phpより
Green500
Rank
 
MFLOPS/W
[Top500 Rank]
 
Site
 Computer
 

total Power (kW)
1
 
1684.20
[115]
IBM Thomas J. Watson Research Center
 NNSA/SC Blue Gene/Q Prototype

38.80
2+
 
1448.03
[279]
National Astronomical Observatory of Japan
 GRAPE-DR accelerator Cluster, Infiniband

24.59
2

 
958.35
 [4]
 
GSIC Center, Tokyo Institute of Technology
  HP ProLiant SL390s G7 Xeon 6C X5670,
 Nvidia GPU, Linux/Windows


1243.80
4

 
933.06
[403]
 
NCSA Hybrid Cluster
 Core i3 2.93Ghz Dual Core, NVIDIA C2050,
 Infiniband


36.00
5
 
828.6
[170]
K computer,
 SPARC64 VIIIfx 2.0GHz, Tofu interconnect

57.96
6

 
773.38
[207]
 
Universitaet Wuppertal
 QPACE SFB TR Cluster, PowerXCell 8i,
 3.2 GHz, 3D-Torus


57.54
6

 
773.38
[207]
 
Universitaet Regensburg
 QPACE SFB TR Cluster, PowerXCell 8i,
 3.2 GHz,  3D-Torus


57.54
6

 
773.38
[207]
 
Forschungszentrum Juelich (FZJ)
 QPACE SFB TR Cluster, PowerXCell 8i,
 3.2 GHz,  3D-Torus


57.54
9

 
740.78
[22]
 
Universitaet Frankfurt Supermicro Cluster,
 QC Opteron 2.1 GHz, ATI Radeon GPU, Infiniband

385.00
 
10

 
677.12
[117]
 
Georgia Institute of Technology
 HP ProLiant SL390s G7 Xeon 6C X5660
 2.8Ghz, nVidia Fermi, Infiniband QDR


94.40
 
d) 日本のコンピュータ
 ちなみに、Top500のうち日本にあるコンピュータは下表のとおりたった26台である。ただし88位は「つばめ1」で既に廃棄したマシンであるし、383位はGrepe-DRの旧型のようである(削除すべきものかどうかは不明)。いずれにせよかつては100台を超えていたことを考えると寂しい限りである。Rmaxの単位はGFlops。
4 GSIC Center, Tokyo Institute of Technology 1192000
33 Japan Atomic Energy Agency (JAEA) 191400
42 University of Tokyo/Institute for Solid State Physics 161800
54 Japan Agency for Marine -Earth Science and Technology 122400
59 JAXA 110600
70 Information Technology Center, The University of Tokyo 101741
74 Institute of Physical and Chemical Res. (RIKEN) 97940
88 GSIC Center, Tokyo Institute of Technology 87010
95 Center for Computational Sciences, University of Tsukuba 77280
101 National Institute for Environmental Studies 74840
131 National Institute for Fusion Science (NIFS) 56650
134 Service Provider 55944.8
138 University of Tokyo/Human Genome Center, IMS 54210
153 Meteorological Research Institute (MRI) 51210
158 Kyoto University 50510
170 RIKEN Advanced Institute for Computational Science 48030
219 Central Research Institute of Electric Power Industry/CRIEPI 42690
220 National Institute for Materials Science 42690
279 National Astronomical Observatory of Japan 38850
282 Financial Institution 38790
310 Automotive Company 37390
377
 
Laboratory for Systems Biology and Medicine/RCAST. The University of Tokyo 34670
 
378 Service Provider 34650
379 Service Provider 34650
383 National Astronomical Observatory of Japan 34550
494 The Institute of Statistical Mathematics 31180
 
 このうち170番はK computer, SPARC64 VIIIfx 2.0GHz, Tofu interconnectである。つまり、10PFを目標とする「スーパーコンピュータ京」の現在稼働している408ノード分である。
 
 
======17日水曜日======
 
 朝の全体セッションは招待講演とKen Kennedy Awardであった。
 
17−1 Bill Dally, NVIDIA/Stanford University(8:30)
"GPU Computing: To Exascale and Beyond"
 2日目の総合講演は、今をときめくNVIDIAのBill Dallyであった。
 かれはまず天津の天河1Aをはじめトップ5のうち3つがGPUを使っていることを指摘し、GPUの優位性、とくに省電力性を強調した。2位のJaguarの電力は極めて大きい。また、Green500のうち128台はGPUを用いている。この講演の詳細はマイコミジャーナル(http://journal.mycom.co.jp/articles/2010/12/24/sc10-nvidia/)にHisa Andoが書いている。以下これを参考にした。
 GPUの特徴はエネルギー効率である。CPUは1命令の実行に2 nJ消費するが、GPUでは1/10の200 pJである。それに、CPUはレーテンシに対して最適化された設計になっていて、キャッシュを用いるが、GPUはスループットに対して最適化され、オンチップ・メモリを持っている。GPUを使った最大の実用マシンは「つばめ2.0」である。
 今後の製品計画としては、2011年にKepler(Fermiの4倍)を、2013年にMaxwell(10倍)を出す予定である[物理学者の名前をコードネームにしている]。
 プログラミングが難しいと言われるが、CUDAにより易しくなった、といってsaxpyの例を示した[易しそうには見えなかったが]。
 これまでに実績として、CUDAの動くGPUは2億台売れた。ツールキットのダウンロードは60万件、アクティブなGPUの開発者は1万人、○○のメンバーは8千人、CUDAを教えている大学は362校、CUDAセンターは11ある。
 マラリア撲滅のために蚊を検知してレーザーで殺すための画像処理にはGPUが必要である。軍用のコンピュータビジョンでは、CPUを使ったのでは12 mphの速度までしか対応できないが、GPUなら77 mphまで対応できる。CTスキャンの計算はCPUなら2時間掛かるが、GPUなら2分でできる。あとシャンプーのシミュレーションについて何か言っていたようであるが理解できず。
 さてエクサ・スケールやそれ以降について述べたい。科学者はいつも今の1000倍の性能が必要だという。しかし、エクサ・スケールにはいろいろなチャンレジがある。
 第一は電力である。今のままではGPUを使ってもGWの電力が必要である。エクサフロップスを20MWで実現するには50 GF/Wの性能電力比が必要で、今の10倍である。GPUの技術によってそのギャップが埋められるであろう。2018年に登場するEchelonではFermiの100倍にもなる。
 実行モデルも重要である。Global Address Spaceを基本とする。メモリ階層を抽象化することが必要である。バルク転送(gather-scatterを含む)をサポートする。
 データ移動には演算よりコストがかかる。例えば、28 nmテクノロジーなら64bit倍精度演算には20 pJしかかからないが、256ビット幅のバスで数mm程度の距離を信号伝送するには26 pJ、10mmの伝送には256 pJ、チップの対角線のもっとも遠いところまでの伝送は1 nJを必要とする。また、8 KBのSRAMから256バイトを読み出すのは50 pJ、DRAMのRead/Writeには16nJ、他のチップへの信号伝送には500pJを必要とする。
 
 データの管理が問題である。データをどう再利用するか。DGEMMには深いメモリ階層が必要であるが、プラトー[?]があれば浅い階層でもよい。両方をサポートするにはreconfigurable memory がよい。距離とエネルギーを減少することができる[このあたりは十分理解せず]。
 NVIDIAのエクサフロップス・マシンのコンセプトは以下の通りである。DARPAのプロジェクトにNVIDIAはEchelonを提案し、2018年にエクサフロップスを実現しようとしている。
 最小単位のコア[laneと呼んでいたような気がする]は4個のFMA (fused Multiply and Add)[倍精度乗加算器]と2個のLoad/Store unitsとL0キャッシュを持ち20 GFである[2.5 GHzということか]。SM (Streaming Multiprocessor)は8つのコアからなり160 GF。1 chipは128個のSMを含み20.48 TFの性能。これに加えて8個の汎用CPUコアがある。これら全体はNoC (Network on Chip)で結合されている。同時に、1024個に分かれたL2キャッシュとMC(Memory Controller)、NIC(Network Interface Controller)が配置されている。メモリバンド幅は1.6 TB/sで合計256GBのDRAM Cubeに接続されている。NICのバンド幅は150 GB/sである。これらで一つのノードが構成される。[L0とL2はあるがL1が見あたらない。]
 ノード8個がモジュールを構成する。1つのキャビネットは16モジュール(128チップ)からなり2.56 PFで38 KWである。キャビネット内の128チップのNICからの接続はHigh Radix Router Moduleに接続されている。キャビネット間は光ファイバーのDragonfly Interconnectで接続する。これはDallyの技術のようである。このマシンはグローバルなルーターは持たない[と聞いたような気がする]。
 Echelonシステムの実行モデルでは、全部のメモリは統一されたGlobal Memory Spaceを構成し、そこに処理を行うスレッドや処理されるオブジェクトが存在する。スレッドの実行部分(SM)から階層的にメモリが存在し、実行に必要なスレッドやオブジェクトをできるだけ近くのメモリに持ってきて実行を行う。また、必要な場合にはメモリ間のブロック転送や、メモリ階層を跳ばしたLoad/Store、他のスレッドのメモリへのActive Messageなどの手段を使って消費エネルギーを抑える。
 L2キャッシュは1024個に分割され、実行するアプリケーションの特性に対応して、全部をフラットな大きな2次キャッシュにしたり、分割して論理的な各階層のメモリとしたりする再構成可能(Reconfigurable)な構造とする。
 結論として、"GPU is the computer, not just an accelerater." 真のチャレンジはソフトウェアである。ローカリティをどう生かすかが重要で、それを知っているのはプログラマである[localityをプログラマが記述するようなプログラミングモデルを考えているのか?]
 
[質疑応答](一部)
Burton Smith:ローカリティはon-the-flyに[実行時にということか]捕まえることはできるのではないか。
誰か:あなたの講演ではグラフィックの話が全然出てこなかった。
Dally:グラフィックの市場は巨大である。ここはSCでSIGGRAPHではない。
 
17−2 Ken Kennedy Award
 Ken Kennedy Awardは2007年2月7日に亡くなったRice Universityの教授であり、Center for High Performance Software Research (HiPerSoft).の所長でもあったKen Kennedy教授を記念して、ACMとIEEE/CSが共同で設立した賞である。HPCのプログラマビリティや生産性の分野での貢献に対して贈られる。賞金は5000ドル。第1回は2009年にRensselaer Polytechnic Institute副学長のFrancine Bermanに贈られた。彼女はSan Diego Supercomputer Centerの前所長であった。
 Bill Dallyの講演が終わるとかなりの人が出て行ってしまった。
 選考委員長のJack Dongarraが司会した。まず、ACMとIEEE/CSの代表が出てスピーチをおこなった。
 今年の賞はDavid J. Kuck (Intel, Software Service Group)に与えられた。授賞理由はコンパイラ技術と並列計算に対する貢献。
 Kuck博士は、現在の最適化コンパイラの基礎を築いた先駆者であり、何十年にもわたって、Illiac IV, BSP, Alliant FX, Ceder projectなどにも大きな影響を与えた。博士は1979年にKuck & Associates Inc. (KAI)を創立し並列性を最大限に利用する業界標準のコンパイラを作り出した。2000年にKAIがIntelに買収されると、かれはKAI Software Lab.の所長となり並列コンパイラの開発を進めた。
 続いてKuckが受賞講演をおこなった。Hardware/Software Codesignの重要性を強調した。
 
17−3 SC10 Awards Session (10:30〜12:00)
 休憩を挟んで恒例のSeymour Cray Computer Engineering AwardおよびSidney Ferbach Awardの受賞セッションが開かれた。両者ともIEEE/CSが授与する賞である。SeymourCray賞はスーパーコンピュータの太祖であり1996年10月に自動車事故で亡くなったSeymour Crayを記念して1997年に創設されたもので、HPCのアーキテクチャやハードウェアの分野に貢献した人に贈られる。昨年は三浦謙一.が、2006年には渡辺貞.が受賞した。今年はBlueGeneシリーズのチーフ・システム・アーキテクトであるAlan Gara (IBM, Watson Research).が受賞した。
 The Sydney Fernbach Awardは、LLNL (Lawrence Livermore National Laboratory)のComputation Division、Theoretica Divisionを経てDeputy Associate Director for Scientific Support を務めたSidney Fernbach博士を記念して1992年に創設された。昨年は密度汎関数分子動力学法のCarとParrinelloが受賞している。今年はLAPACKやScaLAPACKなど線形代数ソフトウェアに貢献したJames W. Demmel (University of California, Berkelay) が受賞した。
 両受賞者はそれぞれ受賞講演を行ったが私は所用のため途中で退出した。
 
17−4 Editorial Board Meeting, International Journal for High Performance Computer Applications (Sage)(12:30)
 恒例の編集委員会(委員長Jack Dongarra)が、会場のすぐ近くのEmeril's New Orleansで開かれた。
 
 
======18日木曜日======
 木曜日の8:30からは二つの招待講演があった。招待講演の前に来年の11月12日から18日にSeattleで開催されるSC11の紹介があった。SC11のテーマは"Connecting communities through HPC"である。
 シアトルを紹介するかなり長いビデオが流れた。そのなかで、街のいろんな人にインタビューするショットがたくさんあった。そのなかにはかなりおちゃらけたものがあり、街角でカップから何か飲んでいる人に、「シアトルでベストなコーヒーは何ですか?」と聞いていた。言うまでもなくシアトルはスターバックスの発祥地である。答えは「これはティーです」。また日本語のインタビューもあり、「スーパーコンピュータって何ですか?」「すごいコンピュータでしょうね」とか。
 
18−1 Terry Davies, UK Meteorological Office (8:30)
"Climate Prediction and Research: The Next 20 years"
 まず2005年8月に当地を襲ったハリケーンKatrinaから話を始めた。60 Kmのメッシュでは、最大風速46ノット、最低気圧976 hPであるが、17 Kmメッシュでは62ノット、958 hPとなる。モデルによって全然違う。
 気候モデルについての入門のあと、様々な物理過程(大気、土地、海、氷、雲、など)をどうパラメータ化するかが問題である都市的。気候の変化は統計的なものであり不定性があるが、「もし、自然の要素だけを考慮に入れると、1850年から2000年までの温暖化をシミュレートできない」ことは確かである。人間活動の要素としては、温暖化ガスの問題もあるが、エアロゾルのように温度を下げる効果のあるものもある。気候システムの温暖化は明白である。CO2の放出は1950年以降急激に増加している。21世紀の気候の予言はいろいろあるが、現在から2080年までの年間の温度の変化は、大部分の場所で5度以上である。降水のパターンも大きく変わるが詳しくは不明である。
 北極の下記の海氷は2080年代までに消失するであろう。海水面の全世界的上昇は、気温による膨張、氷の溶解などの効果を合わせて2100年には20から80 cmになるであろう。ここニューオーリンズを含めて多くのところが危ない。
 ハリケーンの数は減るが強大なものが増えるであろう。従って被害はおおきくなる。
 このような気候の変化のインパクトとしては、危険性、対応策、コスト、食糧などいろいろある。
 気候モデルでは、水平の精度を倍に上げると、コストは8倍になる。今まで9年で倍になってきている。
 モデルは、最初(1975)には大気だけだった。次第に多くの要素を加えるようになり、化学過程、カーボン、エアロゾル、硫黄など。現在は、プロセスを増やし複雑化している。解像度を8倍にすると計算量は500倍になる。現在のコードはスケールしない。海のモデルはもっと悪い。特にデータ同化(assimilation)がスケールしない。
 地球上にどうグリッドを張るかが大きな問題で、スケーラビリティにも関係がある。従来からの経度・緯度グリッド[極の特異性の問題がある]、縮小経度・緯度グリッド、skipped grid、イコサヘドラル[正20面体]、cubed sphere、Yin-Yang[陰陽]グリッドなど。leading NWPモデルは経度・緯度モデルに基づいている。
 今後の20年には、世界中の協力が必要である。
 
18−2 Bob Jones, CERN (9:25-10:00)
"Building Cyber-Infrastructure for Data Intensive Science"
 本日2つめの総合講演は、thrust areasの一つであるdata intensive computingの分野から企画された。Bob Jones.はCERN(ヨーロッパ共同原子核研究機構)でオンライン実験の研究者であり、CERNから見たデータ・インテンシブの概要を話した。
 高エネルギー物理でのData Intensive Scienceの一例として、LHCを取り上げる。LHCは全周27 Kmの加速器に4つの測定器(ATLAS, LHCb, 、CMS, ALICE)が設置されている。1年間に15 PBのデータが生まれる。各測定器からは3x105 MB/sのデータが生まれるが、これをフィルターして300MB/sに落とす。4つの測定器から700 MB/s以上が集まる。これをTier 0 (CERN)→Tier 1 (FNALなど世界11箇所)→Tier 2 (世界130箇所)と分散して処理する。それらの間は10 Gb/sのリンクでつながれている。
 LHCは現在7 TeVで運転されていて6ヶ月稼働し。70 TB/dayのデータ(70 tapes/day)が生産され今年は5 PBになった。
 ライフサイエンスのdata intensive scienceとしえhuman genom projectを紹介した。ヒトのゲノムは、2000年まで10年掛かって$3B(3000億円)の費用で読み終えた。しかし、現在なら13時間のうちに1万ドルで読めるし、2015年になれば15分で1000ドルで読めるであろう。次世代シークエンシング・マシンは、安くなって小さな研究所でも帰る世になる。
 昔の研究協力は中心の拠点に集めることであったが、将来の研究協力はfederated accessが重要になる。なぜcyberinfrastructure ecosystemが必要か。バイオインフォーマティックは、ゲノムからタンパク質、組織、から人体までつなげなければならず、virtual physiological humanが中心になる。http://www.vph-noe.eu/を参照。
 Cyber-infrastructureの将来要求は、grid, supercomputer, cloud, volunteer computingなどいろいろなものがあり、正しい答えというものはない。ESFPIロードマップによれば、EUには44箇所のresearch infrasturctureが存在し、EEF - European E-infrastructure Forum(http://www.einfrastructure-forum.eu/)を構成している。これは、single sign-onやvirtual organizationやdata managementや標準化などを差ボーとしている。
 クラウドの問題は信用できるかどうかということである。また、インターオペラビリティに課題がある。
 
18−3 Award Session
 18日(木)12:30からのセッションにおいて、SC10の様々な賞の発表が行われるというのでその部屋に行ってみたら"Invitation Only"と書かれていたのですごすご帰ってきた。後で聞くと、参加者制限は12時からの昼食会だけで、アワードの部分は一般公開ということだった。しまった。会議のweb page(http://sc10.supercomputing.org/files/SC10AwardsHPCNewsrelease.html)から紹介する。
 
1) ACM/IEEE George Michael Memorial PhD Fellowship Award winners:
The ACM, IEEE Computer Society and SC Conference series established the George Michael HPC Ph.D. Fellowship Program to honor exceptional Ph.D. students throughout the world. Fellowship recipients are selected based on their overall potential for research excellence, the degree to which their technical interests align with those of the HPC community, their academic progress to date and demonstration of their anticipated use of HPC resources.

2010 winners:
ACM/IEEE George Michael Memorial High Performance Computing Fellow for 2010 is Aparna Chandramowlishwaran of the Georgia Institute of Technology for her research entitled “Autotuning N-body computations using novel parallel programming models”.

ACM/IEEE George Michael Memorial High Performance Computing Fellow for 2010 is Amanda E Peters of Harvard University for her research entitled “Multiscale simulation of cardiovascular flows on the IBM Bluegene/P: full heart-circulation system at red-blood cell resolution”.

Honorable Mention ACM/IEEE George Michael Memorial High Performance Computing Fellow for 2010 for Sara Baghsorkhi of University of Illinois for her research entitled “A Performance Analyzing Tool for GPU Computing”.

Honorable Mention ACM/IEEE George Michael Memorial High Performance Computing Fellow for 2010 for Matthew R Norman of North Carolina State University for his research entitled “Harnessing Petascale Computing Resources for Atmospheric Climate Simulation: An Algorithmic Approach”.

2) Gordon Bell Prize winners:
The Gordon Bell Prize is awarded each year to recognize outstanding achievement in HPC. Now administered by the Association of Computing Machinery (ACM), financial support of the $10,000 award is provided by Gordon Bell, a pioneer in high performance and parallel computing. The purpose of the award is to track the progress over time of parallel computing, with particular emphasis on rewarding innovation in applying HPC to applications in science.

Best performance: “Petascale Direct Numerical Simulation of Blood Flow on 200K Cores and Heterogeneous Architectures,” Abtin Rahimian, Ilya Lashuk, Shravan Veerapaneni, Aparna Chandramowlishwaran, Dhairya Malhotra, Logan Moon, Rahul Sampath, Aashay Shringarpure, Jeffrey Vetter, Richard Vuduc, Denis Zorin, George Biros.

Honorable mention performance: “Toward First Principles Electronic Structure Simulations of Excited States and Strong Correlations in Nano- and Materials Science,” Anton Kozhevnikov, Adolfo G. Eguiluz, Thomas C. Schulthess. A second honorable mentionwent to “190 TFlops Astrophysical N-body Simulation on a Cluster of GPUs,” Tsuyoshi Hamada, Keigo Nitadori. (濱田ら.は昨年は本賞を受賞した)

3) Best Technical Paper:
“Characterizing the Influence of System Noise on Large-Scale Applications by Simulation,” Torsten Hoefler, Timo Schneider, and Andrew Lumsdaine.

4) Best Student Paper:
“OpenMPC: Extended OpenMP Programming and Tuning for GPUs,” by Seyong Lee and Rudolf Eigenmann.

5) Best Research Poster:
“Characterizing the Impact of Soft Errors on Sparse Linear Solvers,” by Sowmyalatha Srinivasmurthy, Manu Shantharam, Padma Raghavan, Mahmut Kandemir.

6) Best Student Posters:

Graduate Students:
First place: “Scale and Concurrency of GIGA+: File System Directories with Millions of Files” by Swapnil Patil, CMU.

Second place: “Optimizing End-to-End Performance of Scientific Workflows in Distributed Environments” by Yi Gu, University of Memphis.

Third place: “An Efficient Algorithm for Obtaining Low Memory Approximation Models of Large-Scale Networks” by Kanimathi Duraisamy, University of Nebraska - Omaha.

Undergraduate students:
First place: “Parallelized Hartree-Fock Code for Scalable Structural and Electronic Simulation of Large Nanoscale Molecules” by David C. Goode, Harvard University.

Second place: “An Integration of Dynamic MPI Formal Verification Within Eclipse PTP” by Alan P. Humphrey, University of Utah.

Third place: “Finding Tropical Cyclones on Clouds” by Daren J Hasenkamp, Lawrence Berkeley National Lab.

6) Storage Challenge
The Storage Challenge is a competition showcasing applications and environments that effectively use the storage subsystem in high performance computing, which is often a limiting system component. Judging is based on these measurements as well as innovation and effectiveness. 2010 Winner: “Scaling Highly-Parallel Data-Intensive Supercomputing Applications on a Parallel Clustered File system” Karan Gupta, Reshu Jain, Himabindu Pucha, Prasenjit Sarkar, Dinesh Subhraveti, IBM Almaden Research Center.

7) Student Cluster Competition (SCC)
The Student Cluster Competition (SCC) showcases next-generation high-performance computing talent harnessing the incredible power of current-generation cluster hardware. In this real-time challenge, teams of six undergraduate and/or high school students assemble a small cluster of their own design on the SC exhibit floor and race to correctly complete the greatest number of application runs during the competition period. The catch is the teams must run real HPC workloads on the same power needed to run only three coffee makers - 26 Amps! During the competition, teams were judged on the speed of the HPCC benchmarks, the throughput and accuracy of applications runs, and ability to impress SC participants and judges during the conference.

Out of a field of eight teams from around the world, the Overall Winner of the 4th SCC is National Tsing Hua University from Taiwan, which partnered with ACER Incorporated, Tatung Company, and NCHC. NTHU won with the highest aggregate points in the HPCC benchmark, throughput and correctness of real-world applications, and interviews.

The winner of the SCC Highest LINPACK was the University of Texas at Austin partnered with Dell and the Texas Advanced Computer Center, exceeding 1 TeraFLOP for the first time ever in the Student Cluster Competition while staying below the 26 Amp constrained power budget.
 
======19日金曜日======
 SC10は金曜日の昼まで(一部のワークショップは夕方まで)であるが、金曜日の朝帰ってしまう人が多い。そのため、客寄せのために面白そうなパネルなどを金曜日に用意している。私は、通常金曜日まで出席するが、今回諸般の事情で金曜日の早朝の飛行機で帰国した。
 
----------------------------------------------------------------