初版2004/11/23
改訂 2007/4/9
SC2004報告
小柳義夫
(再配布は自由ですが、上記ページから最新版をご利用ください。)
1.はじめに
SC2004: High Performance Computing, Networking and Storage Conference国際会議(通称 Supercomputing 2004) は、17回目の今年、"BRIDGING COMMUNITIES"のテーマのもとで、ペンシルバニア州ピッツバーグのDavid L. Lawrence Convention Center で11月6日(土)から12日(金)まで開催された。昨年まではHigh Performance Networking and Computing Conferenceという名称であったが、今年は初めて "storage" ということばが正式名称に入れられ、computingが先頭に出た。語呂の関係かも知れないが、あとで述べるようにTop500でアメリカが日本からcomputingの首位を奪還したためか、といううがった見方もあった。
11月2日には大統領選挙が行われブッシュが辛くも再選を果たした。4年前のダラスでのSC2000では、会期中の7日(火)が選挙日で、開票のドタバタを見ることになったが、今回は会議が始まるまでには一応収まった。とはいえ、会期中の8日(月)にはイラクのファッルージャの総攻撃が始まり、反撃のためにアメリカを標的とするテロが起こるのではないかと警戒が強まっていた。アメリカ国内の飛行場での搭乗手続きの検査は相変わらず厳重を極めていた。また、11日にはパリの病院でアラファト議長が亡くなり、カイロでの盛大な葬儀、ラマラでの熱狂的な埋葬と、話題のつきない一週間であった。
ピッツバーグは8年前、1996年にもSCが開催されたが、その後会議場は改築されて大幅に広げられた。どういうわけか、ホテルもWestinがOmniに、DoubletreeがWestinに代替わりしていた。前回は氷雨が降ってひどく寒かった記憶があるが、今年も最低-4度、最高+4度(摂氏)というような日が何度かあり、暖かいときでも昼間10度程度で、東京よりは大分寒かった。毎朝、自動車の表面はガチガチに霜で凍り付いていた。
ピッツバーグはかつては鉄鋼の町と言われていた。現在でもくすんだ外壁が見られ、洗浄しているところがあった。ダウタウンは、Allegheny川と Monongahela川が合流して Ohio川となる三角地帯に発達している。鉄鋼の町となったのは、近くで良質の石炭や鉄鉱石が取れたこととともに、水運の便がよかったこともその理由である。大学、財団、博物館などに名を残すアンドリュー・カーネギーはスコットランドで生まれ、移民としてアメリカへ渡り、鉄鋼業で大きく成功を修め、教育や文化の分野へ多くの寄付を行った。ダウンタウンの南端のMonongahela川を渡ったところは、昔の鉄道の駅で(貨物列車は時々通過する)、Station Square という繁華街になっている。その一角に小さな公園があった。音楽に合わせて色や形を変える噴水もすばらしかったが、ビックリしたのは転炉の実物が置いてあったことである。Clinton Furnace と書かれ、19世紀後半から数十年使われていたとの事である。昔ベッセマー転炉と習ったのを思い出した。なんと、その公園はBessemer Courtという名前であった。ベッセマーはイギリスの発明家で,銑鉄に空気をふきこんで炭素などを取り除く転炉を発明した。1875年、カーネギーは「ベッセマ−方式」を用いた近代的で大規模な工場をピッツバーグの近郊に建設し、大量の鋼鉄を安価に製造し、たちまち大富豪となった。さすが鉄鋼の町の公園である。あと、ピッツバーグはケチャップで有名な食品大手ハインツ社発祥の地でもある。あちこちにハインツの名が見える。大統領候補だったケリー氏の夫人は、ハインツの御曹司の未亡人で、莫大な遺産をケリーの選挙運動に使ったのではと噂されていた。
今回は、会期中の7日(日曜日)にアメリカの天王山ともいうべき大きなフットボールの試合があったためにホテルが非常に取りにくかった。予約したのに部屋がないとか、スイートをベッドとリビングに仕切ってリビングの方に泊まらされたとか(つまり、ソファーで寝させられた)、いろいろ混乱があったようだ。Pittsuburghが勝ったそうで、ホテル内ではサポーターが夜中の3時過ぎまで盛り上がっていたとか。
2.会議の歴史
毎度のことであるが歴史を示す。この会議はアメリカの東西で交互に開かれて来た。年次、開催都市、展示・チュートリアル等を含めた総参加者数、technical program有料登録者数、総展示数、投稿論文数、採択数、採択率を示す。初期の回では、テクニカルプログラム登録者という概念がなかった模様である。
回数年号 | 場所 | 総数 | tech. | 展示数 | 投稿数 | 採択 | 採択率 |
1回(1988) | Orlando | 1495 | 36 | 150 | 60 | 40% | |
2回(1989) | Reno | 1926 | 47 | ? | 88 | ||
3回(1990) | New York | 2303 | 59 | ? | 92 | ||
4回(1991) | Albuquerque | 4442 | 80 | 215 | 83 | 39% | |
5回(1992) | Minneapolis | 4636 | 82 | 220 | 75 | 34% | |
6回(1993) | Portland | 5196 | 106 | 300 | 72 | 24% | |
7回(1994) | Washington | 5822 | 2209 | 122 | ? | 77 | |
8回(1995) | San Diego | 5772 | 2017 | 106 | 241 | 69 | 29% |
9回(1996) | Pittsburgh | 4682 | 1642 | 121 | 143 | 54 | 38% |
10回(1997) | San Jose | 5436 | 1837 | 126 | 334 | 57 | 17% |
11回(1998) | Orlando | 5750 | 1984 | 130 | 270 | 54 | 20% |
12回(1999) | Portland | 5100 | 2124 | 149 | 223 | 65 | 29% |
13回(2000) | Dallas | 5051 | 2096 | 159 | 179 | 62 | 35% |
14回(2001) | Denver | 5277 | 2017 | 155 | 240 | 60 | 25% |
15回(2002) | Baltimore | 7300? | 2192 | 221 | 67 | ||
16回(2003) | Phoenix | 7641 | 2390 | 219 | 207 | 60 | 29% |
17回(2004) | Pittsburgh | 7900? | 266 | ? | 59 | ||
18回(2005) | Seattle | ||||||
私は、第1回、第4回、第12回は出席できなかった。ちなみに、来年18回はSeattle (November 12-18)で "GATEWAY TO DISCOVERY"の表題で行われる。
3.全体像
会議はあまりにも巨大で、全体像をつかむことは困難である。昨年は空前の参加者、総展示数となったが、今年もかなりの盛会であった。この分ではそのうちに開催可能な場所が限られてしまうのではと心配である。
Technical programは9日(火)からであるが、会議そのものは6日(土)から始まっている。Education Programは6日から始まった。Education Programは年々盛んになっているようであるが、何か別の会議のような感じになってしまった。7日(日)と8日(月)にはチュートリアル(23件、全日は18件、半日は5件)が行われていた。会議に附属して、独立に組織されたいくつかのワークショップも開催された。6日(土)には1件、7日(日)には2件、8日(月)には2件、12日(金)には3件があった。
8日(月)夜7時の展示会場における Gala Openings(盛大な開会式)から会議の中心部分が始まる。このとき展示会場が参加者に初めて公開されその場でおつまみ程度の軽食が提供される。
ゴミはキャディー缶
展示は、企業展示も研究展示もますます盛り上がっている。とくに企業展示はこの会議の最大の収入源である。展示は8日(月)の夜から11日(木)の4時までの実質3日間であるが、その設営も撤収もなかなか大変である。筆者は筑波大学・JST/中島CRESTのグループのお手伝い(邪魔かも知れない)をしたが、多くの若手の活躍でブースが組上がっていた。展示会場の設営は前の木曜日(4日)から可能で、物量を持ち込むグループはこのころから設営を始める。今年は("今年も"というべきか)、freemanの手際が悪く、肝心のついたて(ポスターを貼るところ)の仕様が違っていたり、絨毯の敷き方が雑だったり、撤収の機材の手配が遅かったり、出展者の評判は悪かった。
火曜日の朝からtechnical programが始まる。朝は8:30からで、今回遠いホテルだったので結構つらい。火水木の8:30--10:00はplenaryで、9日(火)は開会式と基調講演、10日(水)と11日(木)は招待講演(各2件)に当てられている。10時からはコーヒーブレークで、展示会場も10時からオープン。10:30から17:00まではいろいろなプログラムが多数並列に設定されている。今年も、審査付きの原著講演(30分)と並列に、Masterworksと称して、さまざまな分野の総合報告が招待講演(45分)として16件設けられていた。最近はポスター発表も重要視されている。今年は、展示場を見下ろす3階の通路を会場としてポスターが貼られていた。火曜日夕方には、近くで軽食が提供され(これは自由に取れる)、発表者と議論して飲み物券をもらうと、ビールやソフトドリンクなどが飲めるという仕組みであ� ��た。なかなか面白いアイデアである。ポスター担当であったCherri Pancake教授あたりの思いつきであろうか。
金曜は展示もなく、早めに帰ってしまう人も多いので、毎年客寄せに苦労する。今年も、近年の例にならって、「受け」をねらった色々のパネル6件が企画されていた。このほかパネルは火曜の午後にも1件あった。
Access Grid技術をつかって、世界中にこの会議の様子を双方向に中継するSC globalは、2001年に始まり、2003年には大きく広がった。今年は世界の人の住む全6大陸を結んでいると自慢していた。一般のテクニカルプログラム、パネル討論、BoF会議を中継した他、SC Global独自のプログラムが用意されていた。SC Globalの基調講演としてLarry SmarrとHarry E. Gruberの講演があり、その後いろいろなセッションが続いた。双方向と言っても、世界各地から発言するのはなかなか難しい。昨年、評判になった産総研のグリッド・カラオケはやらなかったようだ。
今年の会議名称にstorageが入ったが、今年はStorCloudという新しい試みが行われた。これは"A High Bandwidth Storage Area Network Initiative" であり、高性能の記憶技術を披露するために、800TBの異機種のランダム・アクセス装置を展示会場内に設置し、これをユーザと2.3TB/sのネットワークで結んで提供しようというものである。このため、23の会社、多数の大学や研究所が協力したという。StorCloud Challengeというコンテストでは、10ほどのグループが利用を競い、4グループが賞を授与された(11日の授賞式の記事を参照)。またchallenge以外でも6件の応用がStorCloudを利用した。
もう一つの今年の趣向は、InfoStarで、筆者もよく理解していないが、この会議の多様な側面についての情報をリアルタイムに参加者に提供し、会議全体に関する検索可能な知識ベースを作るんだそうである。たまたま見つけたexcite.co.jpの機械翻訳のページによれば、「別の新しいハイライトはInfoStarイニシアチブになるでしょう。これは、容易にアクセス可能な形式の参加者にリアルタイムの会議情報を供給するでしょう。登録情報へのスピーカー情報から遅い部屋変更まで及ぶ情報は、会議の全体にわたって利用可能であることです。 これらの革新は、最先端技術の会議情報システムのために標準を定めるでしょう。」やっぱり何のことかよく分からない。
去年もあったようであるが、Minority Serving Institutions (MSI) Outreach Program というプログラムがあり、多くのMSI(ヒスパニックのための施設、アメリカ原住民のための大学、アラスカやハワイの原住民のための大学、アフリカ系アメリカ人のための大学など)からの教員やIT専門家が、この会議に来やすくするための援助をするそうである。それも単にお客様としてではなく、会議の様々な局面に参加し実習することを目指している。
4.Social Events
恒例により、11日(木)の夜は、近くのSenator John Heinz Pittsburgh Regional History Centerでevening eventがあった。筆者は、展示の撤収が手間取ってとても行く暇がなかった。
このほかこれも恒例だが、いくつかの企業が、お客様を招待するパーティーがあった。今年は火曜日と水曜日に分かれ、例年より多くの企業がパーティーを企画した。毎年一番多くの人を集めるIBMは、あるMuseumで水曜日に開いたが、いつも多すぎるので招待状(リボン)を制限したら、ぐっと減ってしまった(とくに日本人が)。今年はホテルが遠いので、筆者は例年のようにいくつも掛け持ちすることはできなかった。
5.展示
主催者発表によると、今年は企業展示160件、研究展示106件があった。数え方は難しく、Directoryとは若干異なる。これらが適当に混じって所狭しとブースを出している姿は壮観である。国際会議場の裏(北側)にAllegeny川がある関係で展示会場は台形をしているが、総面積は236000ft^2 (22000m^2)で、去年よりひとまわり広い。これまでで最大とのことである。東西に長く300mくらいはあろうか。端から端まで歩くと相当くたびれる。展示会場は2階、セッション会場は3階と4階である。
例年のごとくTechnical programとは独立にExhibitor Forumが火水木とあり、展示出展企業が30分ずつ講演した。このほか、各展示ブースでは企業展示でも研究展示でも、プレゼンテーションがひっきりなしに行われており、とてもつきあいきれない。
5-1 企業展示
Directoryを分析すると、短い説明だけからは何の会社かよく分からないが、PCクラスタ関係が20社ほどあり、従来も多かったが今年は特に目立った。多くは新顔のようである。ベストシステムズ・ニュースの分析によると、これまで10万人が来訪していたComdexがなくなったためではないかということである。ネットワーク関係が十数社、ストレッジが10社というところであろうか。それに比べてOS, コンパイラ、応用などのソフトウェアの会社が減った印象である。もちろん、常連のコンピュータベンダが元気よく参加していたことはいうまでもない。今年元気がよかったのはアメリカ勢、とくにIBM、SGI、Crayなどである。とくにIBMはBlueGene/LでTop500の首位を挽回し、意気が上がっていた。それに比べて日本のF, N, H の3社は心持ち勢いに欠けていた印象である。全部見たわけではないか気が付いたところから。
○IBMはBlueGene/Lで盛り上がっていた。これは、分子動力学シミュレーションを目標に、PowerPC coreを高密度に実装したMPPで、フルサイズの1/4のモデル(16ラック)で地球シミュレータを凌駕するLinpack性能を出した。BlueGeneは演算能力の割にメモリが比較的小さい。元々のBlueGene/Pの設計では、Petaflopsの演算性能に対して、主記憶は500 GB、すなわちF/B=2000であった。BlueGene/Lはそれほど極端でなく、peak 90TFに対して4TBで、F/B=22である。ちなみに地球シミュレータはF/B=4である。BlueGene/Lは、computo-intensiveな問題に特化した計算機と言える。どこまで応用を広げられるかが問題であろう。正直のところLinpackでこれほどの性能を出したのは驚きであった。SGIとの「場外乱闘」など詳しくは9日のTop500の項を参照のこと。9月の報道によると、産総研の生命情報科学研究センターが来年2月にBlueGene/Lの4ラックモデル(peak 22.8 TF)を導入するとのことである。
汎用的な計算機としては、1.9GHzのPOWER5搭載の新クラスタサーバp5-575が披露された。これはシングルコアのPOWER5を2Uの筐体に8個実装したものである。かなりの高密度実装である。最大64ノードまで接続可能とのことである。ASCI の最終マシンであるASCI Purple (100TF, LLNL)は、この技術を使って構築されるようである。POWERだけでなく、Intelのチップを使ったマシン、Opteronを使ったマシンなど多様な機種を展示していた。またIBMは、StorCloudに150TBのディスクを提供した。
○Cray Inc.(昔のTeraがCray Researchを吸収して発足)は、昨年は冷媒噴射冷却のベクトル計算機X1が目玉であったが、今年はRed Stormの技術を商品化したOpteron-baseのXD1やXT3を導入し、アメリカの市場に販売契約を増やしているようである。XT3は最大144TFまでいけるとのこと。「ベクトルとスカラーの両方を作っているアメリカで唯一の会社」ということが売りのようである。
○SGIは、SC2004の直前に、20台のAltrixで構築された10,240プロセッサ構成のNASAColumbiaシステムが、日本の地球シミュレータを凌いで、世界最速のスーパーコンピュータとしての地位を一瞬獲得し、意気が上がっていた。Top500の記録としては、ゴール直前にダークホースのBlueGene/Lに抜かれてしまったが、画期的な記録である。SGIはMIPSからItanium2に完全に移行したようである。また、SGI は、SC2004のStorCloudイニシアティブに参加した。
○日本の会社では、NECが新しいベクトル計算機SX-8を宣伝していた。地球シミュレータやSX-6のチップと比べると、クロックが倍になっている。それだけでなく、Itanium2ベースのサーバExpress5800/1000やTX 7 も展示していた。
○富士通は、PRIMEPOWER HPC2500が主力である。あと、Infiniband製品も出していたような気がする。
○日立はSR11000サーバが中心で、Itaniumu2サーバも出していた。
5-2 研究展示
研究展示のうち日本からは20件であった。去年より多いが、複数でまとまって出展しているところもあるので、数はあまり意味がない。名前を挙げると(Directory掲載順)、産総研、筑波大学計算科学センター(中島CRESTを含む)、大阪大学サイバーメディアセンター、同志社大学、愛媛大学、GRAPE プロジェクト(牧野さんは来なかったが)、東北大学流体研、東大生産研、ITBL、原子力研究所計算科学推進センター、海洋科学技術センター地球シミュレータセンター、JAXA、九州大学情報基盤センター、LAセミナー、NAREGI、理研、RIST、埼玉工業大学、埼玉大学、東京大学(平木グループ)である。昨年と比べると、愛媛大学、九州大学、LAセミナー(長谷川秀彦、張紹良両氏が主宰する線形計算セミナー)は新顔、地球シミュレータは復帰した。北陸先端大学や奈良女子大は単独では出さなかったが、ITBLの一部として出展したとのこと。だいたい常連が出来つつある。参加することに意義があることはいうまでもないが、今後はどのようなメッセージを世界に発信するのかが問われるであろう。
筑波大、東大などの隣には十近いアメリカの大研究機関が軒を連ねて壮観であった。特にNASAは、SGI製のColumbiaでTopを取るはずだったのに、取り損なったが、意気が上がっていた。
6.Technical Papers
SCというとどうしても展示やイベントなど華やかなものに注目があつまるが、レベルの高い査読による原著論文(technical papers)は言うまでもなく重要な部分である。今年のプログラム委員会には日本から松岡聡氏(東工大)がNetworking Area Chairとして入っていた他、朴泰祐氏(筑波大学)と下條真司氏(大阪大学)がメンバーに入っていた。
論文投稿総数は660と聞いたが聞き間違いであろう。例年2〜300の投稿がある。今年は59が選ばれた。日本が関連した発表としては、次の3件である。
[Architectural Paradigms]
Early Experience with Aerospace CFD at JAXA on the Fujitsu PRIMEPOWER HPC2500
Yuichi Matsuo (Japan Aerospace Exploration Agency), Masako Tsuchiya (Japan Aerospace Exploaration Agency), Masaki Aoki (Fujitsu Limited), Naoki Sueyasu (Fujitsu Limited), Tomohide Inari (Fujitsu Limited), Katsumi Yazawa (Fujitsu Limited)
CFDにおけるPRIMEPOWERの性能評価。
[High Through-put Grid Transport Protocols]
座長は下條氏。
Inter-Layer Coordination for Parallel TCP Streams on Long Fat Pipe Networks
Hiroyuki Kamezawa (Fujitsu), Makoto Nakamura (University of Tokyo), Junji Tamatsukuri (University of Tokyo), Nao Aoshima (University of Tokyo), Mary Inaba (University of Tokyo), Kei Hiraki (University of Tokyo), Junichiro Shitami (Fujitsu Lab.), Akira Jinzaki (Fujitsu Lab.), Ryutaro Kurusu (Fujitsu Computer Technologies), Masakazu Sakamoto (Fujitsu Computer Technologies), Yukichi Ikuta (Fujitsu Computer Technologies)
TCPの通信速度を向上させるための提案と評価。平木らはこの技術でBandwidth Challengeの賞を受賞した。
[Extreme Performance]
A 15.2 TFlops Simulation of Geodynamo on the Earth Simulator
Akira Kageyama (Earth Simulator Center, JAMSTEC), Masanori Kameyama (Earth Simulator Center, JAMSTEC), Satoru Fujihara (Earth Simulator Center, JAMSTEC), Masaki Yoshida (Earth Simulator Center, JAMSTEC), Mamoru Hyodo (Earth Simulator Center, JAMSTEC), Yoshinori Tsuda (Earth Simulator Center, JAMSTEC)
地球の中の電磁流体力学のシミュレーションを、Yin-Yangグリッドで離散化して高速に計算した。Grodon-Bell賞のfinalist。
詳細は、
6.SCinet
SCinet (Scientific Computing Networkの略だそうであるが、"i"は何であろうか。たぶん、internalか)は、SC会議のインフラをなす超高速ネットワークである。わりと最近使われるようになった気がしていたが、なんとSC91から始まっていた(実は、私のレポート「スーパーコンピューティング会議の歩み」にも書いてあったのに忘れていた)。一週間のためだけのネットワークではあるが、それぞれの時点で最高のネットワーク技術を実用化している。たとえば、SCinet 93では、ATMバックボーンの上に、Ethernet, FDDI, serial HiPPI, HIPPI, FCS を載せている。SCinet 95では、ATM, FDDI, HIPPI, switched Ether, shared Etherが使われている。95年の大きな出来事は、このネットワークを使ってアメリカ中の数十の計算機を結合しIWAYという高速ネットワークを実現したことである。これにより、大規模シミュレーションと対話的可視化を実現した。IWAYがGlobusを生み出し、その後のグリッド発展の出発点になったことはよく知られている。
ネットワークのスピードも大きく変わっている。SCinet 98では、バックボーンはOC-48 (2.5 Gbps) ATM で、100に近い研究展示、企業展示のブースにファイバーでGigabit EtherやOC-48をつないでいた。当時は、GbEの相互接続性でさえ怪しかったようである。
なぜplacticeをリサイクルする必要がありますか
さて今回のSCinet 2004 は、Juniper Network, Cicso Systems, Force 10, Foundry Networksなど多くの会社のルーターを使い、ブースには最大10Gbps Etherを供給している。会場外に対しては、Abilene, TeraGrid, ESnet, DREN に接続するのはもちろん、今回初めてNational LambdaRailへの複数のOC-192 (10 Gpbs)の接続を張った。Qwest社は物量、技術両面で最大の貢献をしたそうで、SCinetのページには特別な謝辞が述べられている。
有線の他に、会場には無線LANが張られている(これは数年前からか?)。このインフラを提供したのはTrapeze Networks Mobility System でMP-252 Mobility Pointsを100台近く設置したとのことである。さすがにユーザが増えてくると、無線LANはしょっちゅう切れてしまい、使い勝手はあまりよくなかった。
無線LANについて、朴泰祐氏(筑波大学)から以下のようなお話を聞きました。
「展示中に、全ブースマネージャに『FBIからの通達で、大規模国際会議のセキュリティに関するミーティングがあるから必ず出るように』というお達しが来たので出席してみました。(これまでこんなことはなかった)
FBI シカゴから、(名前は忘れた)担当者が来て、以下のような話をしました。
『・こういう大きなコンピュータ系会議では、必ず anonymous な無線 LAN が敷かれ、会場内だけでなく会場外でもアクセスできてしまう。結果的に、本当にフリーなネットワークが提供される。
・しかも、SC ではほとんどの著名な計算機系国研の研究者や VIP が来て、VPN等を使っているとはいえ、頻繁にそれらのサイトへのアクセスやログインを繰り返し、結果的にそれらのサイトの情報を集めやすい環境を提供している。
・こういう環境がテロリストその他に狙われることを、FBI は警戒している。何か不審なことがあったら "その場ですぐに見つけ出そうとせず、泳がせて、かつ情報はできる限り保全して" FBI に知らせるように。』
結論として、日本からの出展者はあまり関係ない話でしたが、結構皆熱心に聞いていて、質疑応答が大変長くなっていました。全体として1時間強ぐらいのミーティングでした。」
ううむ、さすが戦時体制のアメリカですね。
======6日土曜日======
SCのワークショップの一つとして、去年に引き続いてChina/HPC Workshop、正式には、2nd Annual Workshop: High Performance, Cluster, and Grid Computing in China (in conjuction with SC2004)が、6日土曜日に、会議場近くのOmni William Penn Hotelで開かれた。主催はATIP (Asian Technology Information Program, D. Kahaner)。$175の会費を別に徴収していた。中国から若手をはじめ多くの参加者があり、アメリカ人もかなり参加していた。
中国のHPCへの意欲はものすごいもので、1〜2TFのマシンは各地にごろごろしている感じである。基幹ネットワークは今のところ2.5 Gbpsであるが、10 Gbpsになる日も遠くないであろう。おちおちしていると日本は遅れてしまう。去年はTop500の第14位に Chinese Academy of Science "DeepComp 6800"というItanium2ベースのLenovo(聯想)社のマシンがランクされていたが、これは今年は38位に落ちてしまった。その代わり、第17位にShanghai Supercomputer Centerの Dawning 4000Aがランクインした。製造はDawning(曙光)社。これは Opteron 2.2 GHz 2560個をMyrinetで結合したもので、ピーク11 TF、Linpack 8 TF の性能を持っている。
まず主催者の一人でもあるG. Li 博士(Chinise Academy of Sciences, Beijing) が、「開発途上国にとっての費用効率比のよいHPCとIT」と題して基調講演を行った。続いて、中国の国家プロジェクトということで、Z. Xu 博士 (Chinese Academy of Sciences, Beijing) がChina National Grid Project について、H. Jin教授(Huazhong University of Science and Technology, 華中科技大学)がChina Education and Research Grid Projectについて、Y. Sun博士(Chinese Academy of Sciences, Beijing)がVEGA (China NSF e-Science Grid Project) について紹介した。非常に意欲的な複数のプロジェクトが進んでいるようである。ただ外から見ると、それらの間の関係がよく分からない。休憩後、種々の応用分野の話、大学環境でのグリッドの話などがあった。
昼食後は、例のDawning 4000Aの紹介、Blue Whale Network Storage System (青い鯨がロゴ)、Grid Computing Environmentの話、Network Storage、Grid Serverの話などがあった。そのあと、ベンダーからということでDawningの話を(社長が来られなかったので)Xuさんが代わりに紹介したり、Deep Comp(去年の14位)の話があった。
最後にZhue, Zhuang, Z. Xu, Kahaner, Li, Jinの6人のパネル討論が行われた。フロアからは、中国にHPCのISV (independent sottware vendor)はあるかとか、Linuxへの流れはどうかとか、なぜacademyから産業界に技術移転がなかなか起こらないのか、など鋭い質問が飛んだ。
後日談であるが、12月4日(土)になって、IBMが聯想有限公司(Lenovo)にパソコン事業を売却するという観測がWSJやNYTで流れ、8日(水)には17.5億ドルで売却されることが正式に発表された。IBMは聯想の大株主になるので、聯想がIBMの傘下に入ったという見方もできるが、いずれにせよ中国のコンピュータ産業の勢いを感じる出来事であった。
======7日日曜日======
6日(土)と7日(日)には、会場に近いMarriot City Center Hotelにおいて、Sun HPC Consortiumが開かれた。筆者は、6日にはChina HPCに出ていたので、7日だけ参加した。
7日(日)の午前中は、Grid and Portal Computing、Computational BiologyおよびApplication Performanceの3つの分科会に分かれた。筆者は1番目の分科会に出たが、そこではアメリカやヨーロッパの研究用のグリッドの現状が話されるとともに、Sunとしての取り組みが紹介された。
午後はまた主としてアメリカのSun userの大学のグリッドやクラスタの事例が紹介された。Phil Papadopoulos (SDSC)は、「私は、Sunの副社長のGreg Papadopoulosの弟だから、Sunの悪口をいう権利を持っている」などと冗談を言いながら、クラスタ構築の話をした。
======9日火曜日======
9−1 開会式
前日のGala Openingに引き続いて、9日(火曜日)の8:30から開会式があった。まず組織委員長のJeffrey C. Huskamp博士(Maryland 大学副学長)が挨拶した。今年は今日までで7000人以上が登録し、47カ国から、またアメリカ合衆国ではプエルトリコ以外の48州から参加者がある、と豪語した。続いて、Dennisとかいう地元のネットワーク会社の人らしい人が、町の紹介をし、Pittsuburgh Digital Greenhouseについて話した。次に、Allegheny郡の郡知事らしい人が、ピッツバーグはもはやsmoking cityではなく、多くの大学があり、多くのスピンアウト会社のあるハイテクの町であることを強調した。続いて、ピッツバーグ市長Tom Murphyが、先週末にフットボールで勝ったと高らかに自慢し、あちこちの橋(これが交通渋滞の元)には膨大なケーブルが通っていると述べた。ここの展示場は、アメリカ最大の柱のない屋内展示場であると言っていた。本当か? さらに、Pittsburgh city is an environmental success story と述べた。
続いて組織委員長が、今回のSCの特徴を述べた。今年はstorageの重要性を重視した。technical programとしては、まず原著論文の投稿が660もあったということである(聞き違いかも知れない)。応用を中心としたMasterworksも8セッション設けた。展示会場は面積最大で、企業展示が106件、研究展示が160件である。SC Globalではついに人間の住む6大陸全部をライブでつないだことを強調した。今年の二つの新しい試みは、StorCloudとInfoSTARである。SCinetはこれまで最大のバンド幅を有している。17本の10 Gbpsラインで外につながっている。
来年の組織委員長Bill Kramer (NERSC)が来年の会について予告をした。タイトルは、"Gateway to Discovery"、場所はSeattle、日程は11月12日〜18日。会議場は新しく、今年のよりちょっと大きいという。また歩く距離が長くなる。新しい点として、
HPC Analytics (real world problems)
Supercomputer Desktop
だそうだ。何のことでしょう。
9−2 Keynote Address
今年の基調講演は、National LambdaRail Inc. (NLR)のTom Westであった。題して、"NLR: Providing the Nationwide Network Infrastructure for Network and "Big Science" Research"。
ピッツバーグは私の故郷、personal Meccaである。ピッツバーグがインパクトをもつ5つの理由は、
5番目:Pittsburgh Supercomputer Center
4番目:3本の川。うち1本はカナダから来ている。
3番目:聞き損なった
2番目:1938年になんとか
1番目:ハインツとフレンチフライ
ジョークらしいが何を言いたいのかは不明。
あとはNLRの事業の説明。NLRは一種のコンソーシアムで、多くの大学や研究機関をメンバーとし、全米に光ファイバーのインフラを構築している。他のネットワーク組織と違い、NLRは高密度の波長多重技術を利用し、一本のファイバー上に多くのネットワークを展開することができる。
1991年にNSFNETがT1 (1.5 Mbps) を実現したのは画期的だった。その後、Internet2、Abilene、ESnetなど研究教育用のネットワークは進歩してきている。しかし、これらは、研究教育機関が所有しているものではない。その後、研究グループが自分でファイバーを持つようになった。その背景には、ネットワーク技術の進歩と、ダークファイバー(と波長多重技術)が利用可能になったことがある。しかし、カナダ、オランダ、オーストリアなどの方が進んでいる。これらの国は、政府の資金を投入してリーダーシップを確立し、ネットワークのダイナミックスを変革している。研究機関が所有する形でファイバーを引くのがNLRの目的である。
既にダークファイバーを27200マイル以上引いた。5年計画の目標は115M$を投入して全米にファイバーを引くことである。ただし、政府からの直接の資金提供は受けない。メンバーである組織と、協力関係にある会社が出すのである。
将来は、multiple heterogeneous virtual network を構成し、ネットワーク技術の研究を推進し、最先端技術と実用技術とのギャップを縮めなければならない。
あまりよく理解できなかったが、どうも「基調講演」としてはお粗末な感じがした。高々招待講演であろう。
9−3 SC Global
コーヒーブレークの後、10:30からSC Globalの部屋をのぞきに行った。SC Global Vice ChairのJackie Kern (NCSA) という女性が走り回っていた。6大陸数十カ所とつながっているとのことで、前面のスクリーンにそれぞれの相手側の映像を映しだしていた。
最初の催し物は、SC Globalの基調講演 "Towards a Planetary Collaboratory" (Larry Smarr)であった。Larry Smarrは言うまでもなくNCSAの創立者で、15年以上この分野で活躍している。
スーパーコンピュータは望遠鏡や加速器と同じく「データ製造器」である。しかも、あまりに高速にデータを製造する。2000年のSCで、Steve Wallachは、2010年にペタフロップスを実現するには、光ネットワークと波長多重が重要になると言った。すでに、1 Tbpsの何分の一のネットワークができつつある。TFlopsよりTbpsの方が成長の速度が速い。
1989年、ボストンで開かれたSIGGRAPHで、光ファイバーを使ってNCSAのCray2と結び、対話型可視化を実現した。SC 95では、OC-3 (155 Mbps) を使ってI-Wayの実験が行われ、現在のグリッドの基盤を築いた。1997年にはGlobal VR Collaborationが実現し、1999年には、Access Gridが提案された。これにより簡単にVideo Meetingができるようになった。 ......
9−4 Exhibitors' Forum
Larry Smarrの講演を途中で抜け出して、Exhibitors' Forum の方に行った。11時からは、IBMのTurek が、"One Size Does Not Fit All!" (日本語に訳せば「フリーサイズの計算機なんてない」ということか)を講演している途中に入った。ずっとサーバー製品の話をしていて、最後にちょっとだけBlueGene/Lに触れた。省電力と省面積を強調していた。
続いて、日立の"Introduction to Hitachi Enterprise Blade Server for HPC and Super Technical Server Next Model" というプレゼンがあった。前半は、Timothy Lanfear氏がしゃべっていたが、後半に國正理恵氏がプレゼンを行った。
9−5 Top500 BoF
昼からはIJHPCA (Internation Journal of High Performance Computing Applications, Editors is chief: Jack Dongarra and David Keyes) の編集委員会が Omni Willam Penn Hotel であり、その後展示会場をうろついたり、筑波大学のブースで客引きをしたりしていた。
5時30分から、Top 500 の BoF (Birds of a Feather) があった。BoFとは、日本で言うインフォーマル・ミーティングで、"Birds of a feather flock together(類は友を呼ぶ)"の諺にあるように、同好の士が集まる会である。SCでは昼と夕方に多数設定されている。Top500のBoFは長い歴史を持っている。
Top500とは、世界中で稼働しているhigh performance computerの速度を、Linpackプログラムで測定し、その上位500件をリストにしたものである。年2回、6月のドイツでのISC会議と、11月のアメリカでのSC会議とで公表される。責任者は、Hans Meuer, Erich Strohmaier, Jack Dongarra, Horst Simonの4人。 ホームページは
日本の地球シミュレータは、今年の6月まで連続5回(2年半)に渡って35.86 TFで首位を独占し続けてきた。これを破るのはASCI Purple (peak 100 TF) かと思っていたが、この予想は裏切られた。アメリカはASCIだけでなく色々な分野のHPCに投資をしている。まず声を上げたのはIBMである。米IBMは、ミネソタ州ロチェスターの施設において、BlueGene/Lの8ラックモデル(フルサイズの1/8)で、36.01 TFを9月16日に達成した、と発表した。これはほんのわずかながら地球シミュレータを上回る速度であった。
これで今年のトップは決まりかと思っていたら、SGIから10月26日驚くべき発表があった。SGIがNASA Amesに納入予定のItaniumベースのColumbiaがBlueGene/Lを上回る42.7 TFを出したと発表した。しかしこれで終わりではなかった。SGIは実は隠し球を用意していた。このデータは、フル運転で得たものではなく、全体の8割しか動かしていない。そして、全体、すなわちItanium 10240個を作動させて得たLinpack値51.87 TFは隠してあり、他の計算機が僅差で追い越そうとしてもこの隠し球で振り切る計略であった。これでSGIは不動の1位を確保したつもりになっていた。ちなみに日本原子力研究所は来年3月、この1/5のサイズのシステムを導入する予定である。
タイワイヤーを結ぶする方法
ところがそうは問屋が卸さなかった。土壇場になってとんだ伏兵が現れた。11月4日DOEは、IBMがLLNLに納める予定のBlueGene/Lの1/4 (16ラック)モデルで、70.72 TFを記録したと発表した。なんと地球シミュレータの約2倍のスピードである。
このようなドタバタ(場外乱闘?)を経て、2004年11月版のTop500のリストは11月8日(月)の5時過ぎ、Gala Openingの直前、記者会見とほぼ同時に発表された。
さて9日夕刻のBoFでは、最初にH. Simonが最初のプレゼンを行った。まず、Linpackを性能評価に用いることについて賛否両論を紹介し、いろいろ批判はあるが、やはり便利な指標であることを強調した。同時に、HPC Challengeのような多面的なベンチマークも必要であると述べた。
さて、Top10が発表された。
|
結構入れ替わりが激しい。このうち、1, 2, 4, 7, 9は新顔である。7は前と同じくMacをInfinibandで結合したものであるが、性能はずっと向上している。また、2002年のTop10のうち、今回残っているのは地球シミュレータだけである。
続いてTop3の表彰式が行われた。1位は、IBMの人が賞状を受け取った。2位は、SGIのBishop社長とNASAの人とが賞状を受け取った。3位、地球シミュレータが呼ばれたがだれもいない。Simonが「北脇さん、いませんか。さっきいたのに。」とか叫んでいた。これでは、3位に落ちたので、すねて出てこないように思われてしまう。やはりこう言うときは、堂々と出て行って、1位と2位にお祝いを申し上げ、『君たちも5回連続して取れたら本物ですな。』ぐらい言ってやったらよかったのに、と仲間内で噂してました。実際は、前日8日5時の記者会見で、北脇さんは1位と2位を祝福し、「応用でいい成果を期待する」というコメントを述べたそうである。BoFで表彰式をやるとは聞いていなかったので、もう済んだものと勘違いしたとのである。
続いて傾向の分析として、今回Top500の合計が1.127 PFとなり、初めてペタフロップスに達したことが報告された。93年の最初の表では1.167 TFであった。Top500の入会条件は、93年には0.4 GFであったが、今年は850 GFで、次回はおそらくTFが必要であろう。これを将来に外挿すると、2009年にはPFマシンが出現し、2020年にはlap topがTFになるであろう(本当?)。ベンダーとしては、IBM、HPに続いて「その他」が3番目であったとか。Crayのシェアは減少している。
続いて、Stromeyerが分析を続けた。こういう分析は、件数で見るか、Linpack性能の合計で見るかで傾向が違う。大陸別に見ると、アメリカが微増している。国別に見ると、中国(18件)とインドが増えているのに対して、日本のシェアが減っていることが報告された。これはゆゆしき事態である。アーキテクチャでは、ベクトルが10%、MPPが減って、クラスタやコンステレーション(SMPのクラスタ)が増えている。プロセッサではIntelが大部分で、その他は、HPやIBM。相互接続は、件数でいうとMyrinet, GbE, Power Switchが主流。性能でみると、Quadrixが少し大きく見える。
a) HPL - the Linpack TPP benchmark which measures the floating point rate of execution for solving a linear system of equations.
b) DGEMM - measures the floating point rate of execution of double precision real matrix-matrix multiplication.
c) STREAM - a simple synthetic benchmark program that measures sustainable memory bandwidth (in GB/s) and the corresponding computation rate for simple vector kernel.
d) PTRANS (parallel matrix transpose) - exercises the communications where pairs of processors communicate with each other simultaneously. It is a useful test of the total communications capacity of the network.
e)RandomAccess - measures the rate of integer random updates of memory (GUPS).
f) FFTE - measures the floating point rate of execution of double precision complex one-dimensional Discrete Fourier Transform (DFT).
g) Communication bandwidth and latency - a set of tests to measure latency and bandwidth of a number of simultaneous communication patterns; based on b_eff (effective bandwidth benchmark).
すでに多くのデータが載っているが、このうちSX-7 のものは、東北大学情報シナジーセンターから提供したものだそうである。
======10日水曜日======
10−1 High Performance Computing in Context
朝一番の招待講演はDeputy UnderSecretary of Defence for Science and Technology(国防省科学技術担当次官補、といった感じであろうか)のCharles J. Holland氏の、応用の広い視点から見たHPCというような講演であった。
20年前からHPCは国防のmissionであった。国防の応用というと、といって爆弾の投下と攻撃のシミュレーションなど生々しい兵器の絵をたくさん見せた。HPCにより同じ費用と時間で重要な問題をよりよく解くことができる。核兵器貯蔵、船舶設計、気象、航空力学、天候など。解けない問題を「最初に」解くことによって、首位を獲得しそれを維持することができる。
HPCのゴールは何であったか。1947年から現在まで。ENIAC, Cray 1, iPSC/1(懐かしい)、Beowulf at NASA, 地球シミュレータ、BlueGene/Lの写真を見せた。ハードだけでなく(システム)ソフトウェアの標準化とツール化も重要である。さらに応用ソフトが重要。ASCIの投資の大きな部分は応用ソフトである。
世の中には「偽りの神様」を礼拝している輩がいる。まずTop 500。DOD applicationsのスピードと、Linpack HPLのスピードを対照したグラフを示し、"Many codes cannot utilize entire HPC systems effectively." 本当の戦略は、解を求めるまでの時間である。Top 500はあまりに単純化しすぎている。Top 500 masks fundamental technological issues. Top 500 is a dagerous ....
法則とトレンドでは、ムーアの法則はトランジスタ密度が1.9年に2倍に増えるというが、熱密度は3.3年で2倍になる。もっと重要なのはLaws of software economicsである、といってCOCOMOII modelとかを示した。
Software Challenge in HPC: DOE Software challengeとしては、戦闘機の開発予算の40%はソフトである。2003会計年度で$21Bにも及んでいる。DoD Software is growing in size and complexity. Cost of HPC Software >> Hardware.
Analytic Agenda of HPC(どういう意味):analytical methods and toolsとして、DARPA, DOE, NSF, NSA, NASAなどが協力しているHPC Challenge Benchmarkについて触れた。
human aspect workflow of users
economical issues lifecycle fo machines
performance modeling ....
Revitalizaing the research base が重要である。これに関連したワークショップ "High Performance Programming Language and Models"が、May 17-20, 2004にSanta Monicaで開かれた。この報告が、International Journal of High Performance Computing Applications誌の2004年11月号に出る。(ところが11月号はHPC Productivityの特集で、関係はあるがちょっと違う。この特集は面白いので、是非購読してください。)
結論は二つある。(大事なところは聞き取れず)
10−2 Toward a High Performance Computing Economy
スピーカーはStan Ahalt (Executive Director, Ohio Supercomputer Center)であった。聴衆は1000人ほど。趣旨は、"Blue Collar Computing" の重要性を訴えようということである。現在の計算機の利用スペクトルを見ると、low performanceのところに大きな固まりがあり、他方high endのところにもある固まりがあるが、中間の性能の計算機の利用は少ない。これを埋めようというのがBlue Collar Computing の趣旨である。なんでそう呼ぶのかは知らないが、high end がwhite collarということであろうか。
HPCは今やマーケットを構成しうるかどうかという決定的な瞬間に来ている。HPCマーケットが、Blue Collar Computingを巻き込むことにより根元的な変化をとげ、計算科学技術における主導権を再活性化しなくてはならない。
どんな技術でも、commercial forceが市場を変える。例えば、自動車は最初実用本位のものであったが、ほどなく豪華なセダンが主となった。現在、3次元可視化に見られるようにcommercialization of HPC が起こっている。日常生活にHPCが入りつつある。IT sector must influence HPC. 1990年代ITは180万人の雇用を生み出したが、2000年に入って60万人の職を失った。しかし、2009年には81B$の連邦政府の購入が予測されている。Growing awareness of HPC importance as a competetive tool. Joseph Gardner(アナリスト)はHPC as a critical tool と言っている(ビデオを見せた)。
しかし、HPCのマーケットはまだ需要に見合っていない。このような未来のHPCユーザに届くことが出来れば、産業界も国家も生産性と競争力を強めることができる。科学技術におけるHPCの有用性は、まだ多くの産業分野に届いていない。このような分野に計算の力を吹き込めば劇的な利益がある。HPCの利用が、新しい市場を開拓し、新しい機会と職を創造する強い道具になりうる分野が多く存在する。
HPCへ参入する障壁がいろいろあり克服する必要がある。
○人的資源---HPCのスキルを持った人が不足している。計算科学のカリキュラムが悪い。ハイスクールで並列処理を教えれば子どもは興味を持つはずだ。
○HPCの問題解決能力を知らない人が多い。
○スーパーコンピューティング業界が、実用的な問題ではなく、Grand Challenge問題にばかり興味を示していること。
○ROI (Return of Investment, 投資利益率):HPCの結果はlong-termだからすぐには回収できない。
○Culture clashes between indusctiral and HPC communities
○Lack of experience and imagination with HPC
○Tools これが最大のバリアである。Desk topについてはツールの重要性は理解されているが、HPCでは乏しい。従ってよいツールが出来ず、悪循環。結局"Hard to use means hardly used" なのだ。
○Usability and Productivity:HPC ソフトウェアのusabilityは、ハードの進歩に追いついていない。
OSC(オレゴンスーパーコンピュータセンター)は、これまでHPCの経験や資源と無縁であったような産業領域にターゲットを向けている。
Blue Collar Computingの目的は、日常的な研究、科学、技術の仕事を、デスクトップからHPCプラットフォームに移し、並列計算の利用を計算の主流にすることである。
スペクトルの最上端には、Grand Challenge問題があり、巨大なコードを巨大な数のプロセッサを使って計算している。ここで提案したい目標は、中間部を谷ではなく山にすべきである。これがBlue Collar Computing (TM)である。なぜこれが今必要かというと、
○多くの会社がすでにHPCに投資している
○democratization of HPC、すなわちマルチコアのプロセッサが出来たり、plug-n-playのクラスタが出来たり、HPCのハードは個人で使えるものになりつつある。
○momentum(勢い)いま、HPCS (High Productivity Computing Systems)やHECRTF (High End Computing Revitalization Task Force)が動いている。
どう加速するか
○public-private partnership(何?)
○language and tools
○幼稚園から大学生までK-16計算科学のカリキュラムを完備せよ。
======11日木曜日======
11−1 Computing Opportunities in the Era of Abundant Biological Data
Gane Ka-Shu Wong (Associate Director, Beijin Insititute of Genomics)
朝一番の招待講演はこれであった。途中からしか聞いていないが、ゲノムのデータを処理するのにHPCが重要であることを豊富な絵で強調していた。ずいぶん英語がうまいと思ったら、もともとアメリカ生まれで、北京の研究所にスカウトされたらしい。
11−2 Computing -- An Intellectural Lever for Multidisciplinary Discovery
Daniel A. Reed (Director, Renaissance Computing Institute--Duke, UNC and NCSU)
2つ目の招待講演はDan Reedであった。てこの原理を発見したアルキメデスは、「我に足場を与えよ。しからば世界中を(てこで)動かしてみせる」と言ったそうであるが、HPCはいまや全科学技術を動かす知的なてこである。
重要なことは「夢をもつ」ということである。動物は夢を見ない。そして夢を社会的なプロセスとして実現することである。コンピューティングの世界の夢とはなにか。たとえばイリノイ大学のPLATO (1070-85)はタッチパネル式で子供でも使えるコンピュータを目指した。IBM のSTRETCHは、IBM794の100倍以上速い計算機を目指した。これは1964年までの最高速の計算機であった。
生物進化にCambrian Explosionがある。大部分の無脊椎動物が急激に出現し、三葉虫が栄えた。条件が整えば変化は早い。
21世紀のチャレンジとは何か。理論・実験・計算のthreefold wayである。たとえば海岸地域の人口増大と経済と健康管理、天候と経済損失など。multidisciplenary models, multilevel cellular simulation, gentics and desease susceptability....
連結したチャレンジとしては、素粒子の標準模型と暗黒物質、LSST, LHC, QCD、望遠鏡など。すべて複雑なルネッサンス・アプリケーションである。最近10年に発展した。LCD (lowest common denominator)でプログラムを刷る必要がある。どんどん学際的になる。
科学計算の3つのツボ。1) domain-specific desktop toolkits, 2) laboatgory systems (cluster), 3) large scale systems
創造性に人工的な障壁を作ってはならない(と言って、C. P. Snowの言葉を引用した)。二つの文化の出会いによって創造性が高まる。Art meets science. もっとも美しい式はオイラーの恒等式 e^{iπ}+1=0 である。
人工的な障壁を作ってはならない(と言って、William Wilsonの言葉を引用した。Bob Wilsonは今のFermilabの初代所長で、議会で「加速器は国防に役に立つか」と質問され、「国防そのものには役に立たない。しかし、我が国を、守るに値するものとすることに貢献する。」と答えた有名な話。)
計算機の歴史は指数関数で増大する。しかも増加係数そのものが増えている。初期には7.5年で倍だったが、その後、.... 量的変化は質的変化をもたらす。天文学や生物や医学のイメージデータの増加。
計算機の6つの時代区分。1) big iron 2) mainframe 3) WS 4) PC 5) Internet 6)implicit computing (21st century) = ubiquitous invisibility
探求の旅=vision and opportunity
Rennaissance expedition (whole cell model, complicated biomedical data flow, universe in box, environmental model)
21世紀の探求の旅。"Avoiding all risks is itself a risk." (Reed Theorem)
探求はresearch time tunnelである。つまり、playing with tomorrow's technology today.
全体としてなかなかいい話だった。
11−3 表彰式
SCの一つの目玉は表彰式である。いろんな賞があり、多くの人に贈られる。多額の賞金のついたものもあるし、賞状だけのものもある。例年の通り、表彰式は木曜日の1時15分から行われた。今年はアナウンスが徹底していなかったのか参加者も少なく、受賞者のno showも多かった。
NSFのJose Munoz氏の司会のもとに進められた。実際の順番は、Bandwidth Challenge, Fernbach Award, best papers, HPC Software Challenge, HPC StorCloud Award, Gordon Bell, Cray Awardの順。
I.IEEE学会の賞
去年はちゃんとしたブロシューアが用意されていたのに今年はなかった。
1. Sidney Fernbach Memroial Award:
Dr. Marsha Berger, NYU/Courant Institute
彼女は、計算流体力学の専門家で、メッシュの技法を研究した。1) adaptive mesh refinement 2) Cartesian mesh with cut-cells
2. Seymour Cray Computer Science and Engineering Award:
Dr. William J. Dally, Stanford University
今年は公表されていないが、じつは筆者はこの選考委員の一人であった(3年目)。Dally教授は、並列計算機のアーキテクチャ、とくに相互接続網の研究で知られている。研究用マシンとしては、J-Machine, M-Machine, and Imagineの開発に係わり、その成果はIntel iPSC, Ametek, and Cray T3D and T3E 等の商用マシンに適用された。
受賞者のプレゼンテーションで、"Supercomputer architecture, it's about bandwidth, not MFlops" と述べた。Floating unitのコストは、$0.50/GF, 50mW/GFであるが、Bandwidthのコストは、$5/GBps, 0.25W/GBpsである。バンド幅のコストは距離とともに増加する。
階層によりバンド幅やレイテンシは異なるが、両者の積はほぼ一定である。LRF (256), SRF (192), cache (80), DRAM (200), Global memory (125)。conventional bandwidthはもっと悪い。今後は、bandwidth-centric architecureが重要である。
重要な決断事項は
parallelism (granuality, context, synchronization)
latency hiding
locality
である。locality requires both hardware and software
最後にもう一度 "It's about bandwidth, not Flops"と強調した。
II 論文賞
1. Best Technical Paper:
Assessing Fault Sensitivity in MPI Applications
Charng-Da Lu (University of Illinois, Urbana-Champaign) and Daniel Reed (University of North Carolina at Chapel Hill)
秘密かもしれないが、朴氏はこの選定委員の一人であった。
2. Best Student Technical Paper:
Analysis and Performance Results of a Molecular Modeling Applications on Merrimac
Mattan Erez, Jung Ho Ahn, Ankit Garg, William J. Dally, Eric Darve (Stanford University)
3. Best Research Poster:
The Next Generation of the Java CoG Kit
Gregor von Laszewski et al.
III 性能に関する賞
1. Gordon Bell Awards:
a) Peak Performance 賞
"A 15.2 TFlops Simulation of Geodynamo on the Earth Simulator,"
Akira Kageyama, Masanori Kameyama, Saturo Fujihara, Masaki Yoshida, Mamoru Hyodo, and Yoshinori Tsuda (Earth Simulator Center, JAMSTEC)
地球シミュレータは2002年以来3年連続受賞である。
b) Special Category賞:
"Ultrascalable Implicit Finite Element Analyses in Solid Mechanics with Over a Half a Billion Degrees of Freedom,"
Mark F. Adams (Sandia National Laboratories), Harun H. Bayraktar (Abuqus Corporation), Tony M. Keaveny (U.C. Berkeley), Panayiotis Papadopoulos (U.C.Berkeley)
2. HPC Software Challenge:
a) The Trilinos Package Architecture and Infrastructure, presented by Michael Heroux, Sandia National Laboratories
b) Improving Parallel Finite Element Method-Based Applications Through Software Engineering, presented by Dale Shares, US Army Research Lab
3. Bandwidth Challenge Awards:
a) Entry name: A Framework of Cyberinfrastructure
Origanization: San Diego Supercomputer Center
Award: Best Spirit of the Challenge
Description: Comprehensive Use of TeraGrid, SCinet, Storcloud, and Onsite Computer Resources achieving 27 Gb/s sustained disk-to-disk real application performance
b) Entry name: All Roads Lead Through Chicago to Pittsburgh Performance Award
Organization: California Institute of Technology, Stanford Linear Accelerator Lab and Fermi National Lab
Award: Over 100 Gb/s per second aggregate memory to memory bandwidth utilizing the greatest number of networks
c) Entry Name: Third Generation Data Reservoir
Organization: University of Tokyo
Award: Single Stream, Longest Path, Standard MTU TCP Throughput
Description: 7.2 Gb/s around the world
この平木さん達のグループは三回目の連続受賞である。平木チームは実験会場である展示場で徹夜で実験し、アラファトの死も知らずに冷たい床で仮眠をとる日々であった。「ホテル要らないんじゃない?」という心ないコメントも。グループのニュースリリースから一部抜粋します。
---------------------------------
インターネット通信性能で世界最高を達成
2004年11月15日 ─ 東京大学とWIDEプロジェクトの研究者が日本、カナダ、米国、オランダと CERN 研究所(スイス・ジュネーブ)の研究者との協力により、米国ピッツバーグから日本を経由してスイス・ジュネーブまでの世界最長の10ギガビット回線を構築し、ピッツバーグの SC2004 国際会議会場に設置された東京大学のシステムから CERN 研究所に設置された東京大学のシステム間を接続し、TCP による高速通信実験を実施しました。ネットワークの全長は約 31,248 Km あり、17 のタイムゾーンを通過しています。
実験では、一個の TCPストリームだけを用いて、7.21 ギガビット/秒のデータ転送を実現しました。データ転送は1500バイトの標準イーサネットフレーム長を用い、20分間行いました。
この国際協調プロジェクトは、研究と教育における国際ネットワーキングの世界を拡大し、新しい国際共同研究の基礎となるものです。
----------------------------------------------------------------------------------
d) Entry name: National Center For Data Mining SC04 Bandwidth Challenge
Organization: National Center For Data Mining, UIC
Award: Best Replacement for FedEx UDP Fairness Award
Description: 800 Mb/s transferring astronomy data disk to disk
e) Entry name: Showinig Bandwidth of CJK (China, Japan, Korea)
Organization: Kyushu University and KISDI
Award: Honorable Mention, Breaking Not Only Technical But Cultural Boundaries
f) Entry Name: Effective Rapid Remote File System For Supercomputer Users Who Are Not Network Expert
Organization: JAXA
Award: Honorable Mention, Distributed Infrastructure Award
4. StorCloud Challenge Awards
このchallengeには10件の参加があったが、入賞したのは以下の4件である。
a) Best Random Access Use of StorCloud: Blockbuster, Lawrence Livermore
National Labs.
b) Best Use of StorCloud to Advance a Scientific Application: MPQC, Sandia
National Labs.
c) Most Innovative Use of StorCloud: PNNL Active Storage, Pacific Northwest
National Labs.
d) Highest Achieved StorCloud Bandwidth and I/Os per second: ENZO, San Diego
Supercomputing Center.
======12日金曜日======
この日は、ナノテクのワークショップなどの他は、客受けを狙ったパネルがたくさん用意されている。
8:30〜10:00
a) Availability in Storage
座長:Steven Duplessie (ESG)
パネリスト:Raphael Yahalom (Onaro), Kai Li (Princeton), Garth Gibson (CMU), John Joseph (EqualLogic)
b) Grid/HPCC Activities in Europe
座長: Richard S. Hirsh (Science Foundation Ireland)
パネリスト:Fabrizio Gagliardi (CERN), Victor Alessandrini (IDRIS (Institut du Développement et des Ressources en Informatique Scientifique)), Tony Hey (EPSRC), Dany Vandromme (RENATER)
c) Future of Supercomputing
座長:Cynthia Patterson (CSTB)
パネリスト:Susan Graham (University of California at Berkeley), Charles Koelbel (Rice University), Jack Dongarra (University of Tennessee at Knoxville), Marc Snir (University of Illinois at Urbana Champagne), Steve Wallach (Chiaro Networks)
これは去年のパネルのいわば継続である。パネリストの陣容もすごい。
--------------------------------------------------------------------------------
10:30〜12:00
a) GLIF Infrastructure---Why Do We Need 10 Gbps Networks?
座長:Maxine Brown (UIC)
パネリスト:Peter Clarke (University College London, UK), Thomas A. DeFanti (University of Illinois at Chicago), Jun Murai (Keio University, Japan), Kees Neggers (SURFnet bv, The Netherlands), Bill St. Arnaud (CANARIE, Canada)
村井純氏は、このためだけに前日の晩に現れた。
b) HPC Survivor---Outwit, Outlast, Outcompute
座長:Cherri M. Pancake (NACSE/Oregon State U)
パネリスト:Burton Smith (Cray, Inc.), Satoshi Matsuoka (Tokyo Institute of Technology), Jose Moreira (IBM), Rick Stevens (Argonne National Lab)予定では
係員:Tony Hey (EPSRC and University of Southampton), Al Geist (Oak Ridge National Lab), Rusty Lusk (Argonne National Lab)
c) HPC Challenge Benchmarks
座長: Jack Dongarra (UTK/ORNL)
パネリスト:Piotr Luszczek (UTK), David Koester (MITRE), John McCalpin (IBM), Jeff Vetter (ORNL), Allan Snavely (SDSC), David Nelson (ITRD)
いずれも面白そうなパネルであるが、最終日であり遊びに行きたい誘惑にうち勝って参加するのには多少の意志力が必要である。筆者らは、後半のb)のパネルに参加する松岡氏を応援するために会場に行った。このパネルは、聴衆の拍手を「測定」して、その少ない順にパネリストをおろしていくという、どこかのテレビ番組みたいなパネルである。われわれは拍手要員を兼ねて参加した。出席者はかなり多かった。
HPC Survivor---Outwit, Outlast, Outcompute
座長:Cherri M. Pancake (NACSE/Oregon State U)
このパネルはCherri Pancake女史の考案したらしいおちゃらけで成り立っている。Tony Hey がadvisor、Licenced MetricianというRusty Luskと、InterviewerのAl GeistがContest Officialsということになっている。段ボールで作ったApplause-o-Meterという「拍手測定器」をAl Geistが神妙な手つきで操作して拍手を「測定」するのである。
各パネリストは、今後のHPCの方向性を一つ主張する。
#1 Burton Smith, Cray Inc.: Petascale, Flat Shared-Memory
#2 Jose Moreira, ANL: Billion-Processor Self-Assembled MPP
#3 Satoshi Matsuoka, TITech: Low-Power Commodity Cluster
#4 Pete Beckman: Kitchen-Sink Computing
それぞれのラウンドで二つの質問が出され、パネリストはそれに短く答える。そのあとで聴衆に拍手を求め、一番拍手の少ないパネリストが降ろされてexpertの席に移る、という趣向である。
第1ラウンド
質問1:What is the biggest single advangtage of your approach?
質問2:What make your approach cost -effective?
それぞれが答えたあと、Tony Heyがコメント。
ここで隣の部屋で別のパネルの司会をしているはずのDongarraが乱入。
HPC Challenge benchmarkをどう思うか
What metrics do you use?
ここで各パネリストがこの質問にもコメントした。
さて第1ラウンドの評価を拍手で測定した結果、Joseが降ろされ、expert席に移った。JoseはAl Geistのインタビューに「みんな誤解している!」
第2ラウンド
質問1:What type of application will really "shine" on your architecture?
質問2:How has your approach been influenced by software constraints and requirements?
第2ラウンドの拍手の測定の結果、松岡氏が負けてexpertの席に移った。
第3ラウンド
質問1:How is your architecture positioned to evolve in the future?
質問2:why is your approach better than the other remaining contestant?
また拍手の測定の結果、Burton が降ろされ、Peteが勝利者の王冠を与えられた。インタビューでBurtonは「おれが負けるはずはないのだが!」と不満そうであった。
最後に王冠をつけたPeteが船に乗せられ、無人島へ。"Aloha from HPC survivor island" という趣向。パネリストたちの記念撮影もあった。
[各パネリストの回答も面白いのだがメモが不完全で今のところ再現できない。]
松岡氏は、ギャグの応酬のようなパネルによく対応していた。さすがバイリンボーイ。
さて正午で、ワークショップを除いて多彩なSC2004は終了した。
-----------------------------------------------------------------------------
0 件のコメント:
コメントを投稿