理化学研究所 計算科学研究機構

メニュー
メニュー
Events/Documents イベント・広報

AICS Cafe

AICS Cafe(アイクス・カフェ)は、異分野融合のための足掛かりとして、計算科学研究機構(AICS)に集う研究者が井戸端会議的にざっくばらんに議論する場として、毎月2回程度予定しております。興味をお持ちの方は原則どなたでも参加可能です。

※AICS関係者以外の方は、事前に aics-cafe[at]riken.jp にお問い合わせください。
また、継続的な連絡をご希望の方にはメール配信をさせて頂きますので、同アドレスまでご連絡ください。

  • 目 的: 異分野間の壁を超えた研究協力を促進し、新しい学問分野の開拓を目指すため、 研究者間の情報交換・相互理解の場を提供し、研究協力のきっかけを作る。
  • 会 場:AICS 6階講堂(予定)
  • 言 語:講演は日本語/英語、スライドは英語
  • その他:講演者は他分野の方にも理解できる発表を心掛け、参加者は積極的に質問しましょう。

第126回
日時: 2017年12月6日(水)、15:30 – 16:30
場所: AICS 6階講堂

・講演題目:バズワードとスーパーコンピュータとの関係を考える
・講演者:松葉浩也 チームリーダー (利用高度化研究チーム)
※発表は日本語・スライドは英語

講演要旨: 詳細を見る

「クラウド」「ビッグデータ」などのバズワードは侮れない存在である。現れては消える様々なバズワードに対し研究者は、定義が曖昧、学術的な新規性がない、経済的な意図が透けて見えるなどの理由で否定的な反応を示すことがある。このような批判的な見方は研究者の見識でもあるが、流行に人が集まり、それが実質的な価値を生む可能性までも否定してしまうと、技術の潮流を見誤ることになりかねない。 新生利用高度化研究チームのCafé初登場である今回は、流行の技術とスパコンの関りを通して「利用高度化」の具体的な姿を考えてみたい。実は今、スーパーコンピュータはかつてないほど流行のキーワードに接近している。AIが計算力と密接な関係にあることは言うまでもない。IoTでもスパコンが活躍できる可能性がある。これら新しい分野でスーパーコンピュータが活躍する姿を示すことができれば、自然とスーパーコンピュータに興味を持つ人も増加するはずである。今回のCaféでは、どのようにしてそのような状況を作り出すか、現時点でのチームの考え方を紹介する。

第125回
日時: 2017年11月15日(水)、15:30 – 16:30
場所: AICS 6階講堂

・講演題目:The SCALE-LETKF regional weather data assimilation system: achievements and prospects
・講演者:Guo-Yuan Lien (データ同化研究チーム)
※発表・スライド共に英語

講演要旨: 詳細を見る

We have been developing the SCALE-LETKF system, utilizing a regional weather model known as the Scalable Computing for Advanced Library and Environment-Regional Model (SCALE-RM) and an ensemble data assimilation method known as the Local Ensemble Transform Kalman Filter (LETKF). The primary goal of the system is to make use of observational data obtained from an advanced weather radar, the Phased Array Weather Radar (PAWR), in numerical weather prediction (NWP). This new type of weather radar can observe heavy precipitation systems densely both in space and in time, providing an important data source for advanced weather monitoring; however, its effective use in high-resolution NWP is a frontier research topic. We investigate this rapid-update, high-resolution data assimilation problem using the SCALE-LETKF. We have also been applying the SCALE-LETKF system for an experimental near-real-time NWP system in Japan and surrounding area. We run 5-day weather forecast for this area every 6 hours in near real time using the K computer. This has been running stably and has provided important guidance on the performance of the model and the data assimilation settings. In addition, this talk will also discuss about the computational aspect of the SCALE-LETKF development and some ongoing issues and prospects of the system.

第124回
日時: 2017年11月9日(木)、15:30 – 16:30
場所: AICS 6階講堂

・講演題目:量子アニーリングの研究開発の現状と課題
・講演者:田中 宗(早稲田大学 高等研究所 准教授・JSTさきがけ研究者(兼任))
※発表は日本語、スライドは英語

講演要旨: 詳細を見る

組合せ最適化処理を高速かつ高精度に実行すると期待されている量子アニーリングの研究開発は、ハードウェア開発、ソフトウェア開発、アプリケーション探索の三つの観点から活発に進められている。近年実現された量子アニーリングマシンを用いて組合せ最適化処理を行う際には、以下の段階で情報処理を行う。第一段階で、解きたい組合せ最適化問題をイジングモデルと呼ばれる統計力学模型に変換する。第二段階では、第一段階で得たイジングモデルを、量子アニーリングマシンの量子ビットネットワークに埋め込む。第三段階で、量子揺らぎを表現する横磁場を強く導入し、それを徐々に弱める。これにより得られた最終状態を測定し、結果を得るという計算技術である。
本講演ではまず、量子アニーリングの理論、及び主要な先行研究について紹介する。また、私が共同研究者と行った量子アニーリングの研究について述べる。更に、量子アニーリングが優れた計算技術となるために乗り越えるべき課題について紹介する。

第123回
日時: 2017年11月8日(水)、15:30 – 16:30
場所: AICS 6階講堂

・講演題目:台風発生環境場の流れ場に関する統計解析
・講演者:吉田 龍二(複合系気候科学研究チーム)
※発表は日本語、スライドは英語

講演要旨: 詳細を見る

これまで多くの台風に関する研究が行われてきましたがその全貌は未だ明らかではありません。
特に発生過程については未解明な部分が多く課題は山積していますが、まずは台風発生が起きる条件を理解しなければ詳細な過程の理解につながらないと考えています。
1つの特徴として台風発生時に顕著な流れ場は5つのパターンに分類されていますが、その分類手法は主観解析であるため長期解析に不向きでした。
そこで私は各流れパターンに客観的指標を定義し、自動的に下層流れパターンを決定する分類手法を開発しました。
これを用いて1979年から2008年の30年間の908事例を解析し、初めて気候値的な意味を持つ下層流れパターンの分類結果を得ることに成功しました。
さらに客観的指標を活かして、より大きな時空間スケールの季節内振動に関するインデックスと組み合わせて解析し、季節内振動の特定のライフステージに台風が発生しやすいことを明らかにしました。

第122回
日時: 2017年11月1日(水)、15:30 – 16:30
場所: AICS 6階講堂

・講演題目:プラズマ中の非線形現象のシミュレーション研究
・講演者:沼田 龍介(兵庫県立大学 大学院シミュレーション学研究科)
※発表は英語 or 日本語、スライドは英語

講演要旨: 詳細を見る

物質の第4の状態と呼ばれるプラズマは、構成物質が電離した状態であり、宇宙に存在する物質の99%以上がプラズマ状態にあるといわれるように非常にありふれた存在である。太陽や惑星周辺など宇宙に存在するプラズマの振る舞いを理解し、磁場などによってプラズマを閉じ込める核融合による発電を実現することがプラズマ物理の目標である。
プラズマは非線形性から発現する複雑現象の宝庫である。例えば、太陽表面のループ状の磁場構造や惑星大気における帯状流などの独特の構造が、プラズマの複雑な振る舞いの中から自発的に形成されることが観測されており、またそれらと類似する構造が核融合プラズマにおいて形成されることが知られている。
本講演では、非線形科学としてのプラズマ物理を概観し、典型的な非線形現象の一つである磁気リコネクション現象についての最近の研究を紹介します。

第121回
日時: 2017年10月18日(水)、15:30 – 16:30
場所: AICS 6階講堂

・講演題目:FPGAクラスタに展開する専用ハードウェアを用いたデータフロー高性能計算
・講演者:佐野 健太郎 チームリーダー(プロセッサ研究チーム)
※発表は日本語、スライドは英語

講演要旨: 詳細を見る

来るポスト・ムーア時代では、大規模システム内の大量のチップに分散するハードウェア資源を増大する通信遅延の下で効率良く使用するためには、同期を分散し局所化可能なデータフローに基づく計算が有望である。多数のスレッドによるデータフロー計算の実現には高いオーバーヘッドが予想されるものの、専用ハードウェアにその一部をオフロードすることにより、大規模なデータフロー計算を効率良く実現できるものと考えられる。本講演では、データフロー高性能計算の実現に向け、その概要と目標、課題、および現在までの研究進捗を紹介する。特に、FPGAによるデータフロー計算のためのコンパイラの開発とアプリケーション実装例を紹介する。

第120回
日時: 2017年9月13日(水)、15:30 – 16:30
場所: AICS 6階講堂

・講演題目:金星大気循環の高解像度シミュレーション
・講演者:樫村 博基(神戸大学 惑星科学研究センター(CPS))
※発表・スライド共に日本語

講演要旨: 詳細を見る

金星は地球の双子星とも呼ばれており、両者の惑星半径や表面重力はほぼ同じである。一方、金星の自転周期は243地球日と非常に長く、固体部分はゆっくりと回転している。ところが、金星の大気は約4地球日で自転軸周りを1周しており、自転の約60倍も速く回転している。この高速東西風は、4日循環あるいはスーパーローテーションと呼ばれている。金星大気スーパーローテーションのメカニズムを解き明かすために、全球大気モデルを用いた、数値シミュレーションが行われてきた。本発表では、これまでの金星大気循環のシミュレーション研究を簡単に振り返るとともに、近年実施してきた高解像度シミュレーションの結果を紹介する。特に、我が国の金星探査機「あかつき」の最新の観測結果から示唆されている、惑星規模のストリーク構造に着目し、その成因について考察する。

第119回
日時: 2017年9月6日(水)、15:30 – 16:30
場所: AICS 6階講堂

・講演題目:光化学過程における非断熱量子動力学
・講演者:米原丈博(量子系分子科学研究チーム)
※発表は日本語、スライドは英語

講演要旨: 詳細を見る

輻射場照射や分子運動等に伴う各種状態遷移力の影響を受けて分子系に生じる励起電子の動力学は、光化学、光合成、太陽電池等の光エネルギー変換過程において主要な役割を果たします。この過程は光-物質、非断熱、スピン軌道結合に促され励起電子が集合体系内の構成分子間を変遷する、原始的な化学反応と捉える事ができます。同時に、擬縮重を含む複雑な構造を有する電子励起状態群において分子運動と電子の動力学が非断熱的に相互作用する事で生じる電子と原子核の波束のもつれ合いと分岐が関与しており量子論的にも興味深い要素を含んでいます。光化学過程における系の化学的個性に応じた動的特性についての理解を深め、光エネルギー高効率変換の設計指針を構築していく上でも、量子動力学、量子古典混合法、電子動力学理論は、分光技術や電子状態計算技術の進展と連動して、今後も益々重要な役割を果たすと思います。今回の発表では、はじめに、励起化学過程の記述を行う上で基礎となる概念、理論形式、代表的計算手法(非断熱量子波束法、各種量子古典混合手法)に関する解説を行った上で、各種量子位相の役割や数値計算効率化等の話題を交えつつ、これまで獲得されてきた知見の一部についての紹介を行います。時間に余裕があれば、分子集合系に生じる励起電子の動的相互作用解析を念頭に最近考案した電子動力学法に関してもお話しできればと考えています。

第118回
合同セミナー(大規模並列数値計算技術研究チーム)
日時: 2017年8月2日(水)、14:00 – 16:30
場所: AICS 6階講堂

・講演者:
Keita Teranishi(米国カリフォルニア サンディア国立研究所)
Balazs Gerofi(システムソフトウェア開発チーム)
辻 美和子(プログラミング環境研究チーム)
※発表・スライド共に英語

講演プログラム: 詳細を見る

【14:00-15:00】Keita Teranishi(米国カリフォルニア サンディア国立研究所)
講演題目: Toward Resilient Asynchronous Many Task Programming
講演要旨: As semiconductor technology reaches its physical limit, the performance improvement of high performance computing systems no longer follows the predictions by Moore’s law. One of the viable approaches to address this stagnation is to relax the reliability of computing systems, and leave the application users to manage it. To enable this idea, it is essential for programming model to embrace a resilience capability. Today, the major resilience framework is coordinated checkpoint and restart (C/R), which involves global coordination of processes and threads for accommodating consistent global application state. However, this global recovery model entails inherent scalability issues and disproportionate use of resources to respond to local failures. These issues are better handled through asynchronous many task (AMT) programming model that is intended for deriving good scalability from unprecedented parallelism and complexity of node architecture of future HPC systems. A runtime system with AMT enables abstractions for encapsulating streams of program execution (tasks) and organizing the application data as objects rather than a sequence of data mapped to the system address space. In the AMT model, resilience is achieved through task re-execution and replication facilitated with versioning and replication of data objects. However, extensive research on task-based resilience is still required to determine the roadmap of resilience in the context of the programming environment. We will discuss our ongoing activities on the resilience of high performance AMT programming model and the challenges for scalable HPC application resilience.

【15:00-15:30】休憩

【15:30-16:00】辻 美和子(プログラミング環境研究チーム)
講演題目: Fault tolerance features in an XMP-YML scientific workflow programming model
講演要旨: Supercomputers in the exa-scale era would consist of a huge number of nodes arranged in a multi-level hierarchy. There are many important challenges to exploit such systems such as scalability, programmability, reliability etc... In this talk, we focus on the scalability, programmability and fault tolerance features of a multi SPMD programming model. We have developed a development and execution environment based on workflow and PGAS (Partitioned Global Address Space) . We have extended the environment by incorporating fault resilience scheduling policy into the workflow scheduler.

【16:00-16:30】Balazs Gerofi(システムソフトウェア開発チーム)
講演題目: IHK/McKernel: A Lightweight Multi-kernel based Operating System for Extreme Scale Supercomputing
講演要旨: RIKEN Advanced Institute for Computation Science leads the development of Japan's next generation flagship supercomputer, the successor of the K Computer. Part of this effort is to design and develop a system software stack that suits the needs of future extreme scale computing. In this talk, we focus on operating system research and discuss IHK/McKernel, our multi-kernel based operating system framework. IHK/McKernel runs Linux with a light-weight kernel side-by-side on compute nodes with the primary motivation of providing scalable, consistent performance for large scale HPC simulations, but at the same time to retain a fully Linux compatible execution environment. We present an overview of the system architecture, provide preliminary results on up to two thousand Intel Xeon Phi nodes and outline future research directions.

第117回
日時: 2017年7月28日(金)、15:30 – 16:30
場所: AICS 6階講堂

・講演題目:How low can you go? Reducing the precision of data assimilation to improve weather forecast skill
・講演者:Mr. Samuel Hatfield (オックスフォード大学、データ同化研究チーム 実習生)
※発表・スライド共に英語

講演要旨: 詳細を見る

Data assimilation, the process by which atmospheric data is combined with atmospheric models, is essential for skillful weather forecasts. Inserting data into models allows us to characterize more accurately the weather state at the start of the forecast, thereby extending the time in which the forecast is useful. However, data assimilation is a very computationally expensive process, and often costs as much as the actual weather forecasts. One way to reduce the cost is to lower the precision of the data assimilation computations. Lower precision computations use fewer bits to produce the answer to a calculation, and are therefore computationally cheaper. Lowering precision also introduces errors, but these errors may be acceptable, given that our models and observations are imperfect.
I will present some results from my PhD research on the subject of precision in data assimilation. I will show how lowering the precision of the data assimilation algorithm affects the quality of the output. I will demonstrate that the lowest precision that you can use is related to the overall quality of the model and the observations – the better the model, the more important precision becomes. Additionally, I will show that, by reusing the computational resources that we save when lowering precision, we can actually improve the data assimilation product and – ultimately – the skill of weather forecasts.