募集内容 |
申し込み不要、もしくは当サイト以外で申し込み |
---|---|
開催日時 |
2022/04/26(火) 10:00 ~ 16:30
|
募集期間 |
2022/04/01(金) 17:12
〜 |
会場 |
オンライン 会場のサイトを見る |
イベントの説明
本セミナーでは、GTC 2022 にて発表された次世代アーキテクチャ Hopper (GPU)、Grace (CPU) および BlueField (DPU) と、その性能を引き出すためのプログラミングモデルや SDK、ネットワーク関連のテクノロジーについて、NVIDIA エンジニア達がサマリーして紹介します。
開催概要
- 日時 : 4 月 26 日 (火) 10:00 - 16:30 **途中休憩をはさみます
- 会場 : オンライン (Zoom)
- 主催 : エヌビディア合同会社
- 参加費 : 無料 (要申し込み)
- 参加申込 : 参加申込ページから申し込み (本ページ最後を参照)
- 申込締切 : 4 月 25 日 (月) 18:00 まで
開催前日に、ご登録されたメールアドレス宛に参加案内と視聴リンクをお送りします。
プログラム
時間 |
内容 |
---|---|
10:00 - 10:05 |
はじめに 永田聡美, Business Development Manager |
10:05 - 11:05 |
Hopper アーキテクチャで、変わること、変わらないこと 成瀬彰, Senior Developer Technology Engineer GTC 2022 で Hopper アーキテクチャを採用した H100 GPU を公開しました。H100 の TensorCore は第 4 世代に進化してピーク FLOPS は大幅に向上、デバイスメモリに HBM3 を採用してピークメモリバンド幅も増強されています。また、新機能として、グローバルメモリと共有メモリとのデータ転送をより効率的に行う Tensor Memory Accelerator (TMA) を搭載、増加する Stream Multiprocessor (SM) をより有効に活用するため CUDA プログラミングモデルを拡張し Thread Block Cluster と呼ぶレイヤーを追加しました。 さて、H100 を使いこなすには、何をする必要があるのでしょうか? 変える必要のないことは何でしょうか? 本講演では、そのような質問に答えられるよう Hopper アーキテクチャの特徴を説明致します。 |
11:05 - 12:05 |
NVIDIA HPC ソフトウエア斜め読み 丹愛彦, HPC Solution Architect 計算機のハードウェアが進化するに伴い、アプリケーション開発者がその性能を十分に引き出すために、あるいは、より簡単に使えるために、ソフトウエアの重要性がこれまで以上に増している。このような状況を鑑み、NVIDIA では、数多くの HPC ソフトウエアを開発、提供している。しかしながら、数が多くかつ進歩のスピードが早いため、それらにキャッチアップしていくのが容易ではないという声が聞かれるのもまた事実である。そこでこのセッションでは、GTC2022 で発表されたいくつかのセッションをサマライズすることにより、数多ある NVIDIA HPC ソフトウエアの概要を紹介し、さらに詳細を知りたいという方に向けては、参考情報へのポインタを示す。これにより、NVIDIA HPC ソフトウエアへの入り口と、deep dive への道標を提供する。 |
12:05 - 13:00 |
休憩 |
13:00 - 14:00 |
HPC+AI ってよく聞くけど結局なんなの 山崎和博, Deep Learning Solution Architect この数年、BERTに代表される教師なし事前学習モデルの発展に伴い、モデルの大規模化が非常に速いスピードで進展している。OpenAIによるGPT-3やMicrosoftとNVIDIAによるMT-NLGは、100 billionを超えるモデルパラメータを有しており、非常に多くのメモリを必要とする。最も基本的な実装で学習させることはもはや難しく、分散学習や各種オフロードなどのテクニックを利用しなければならない。こうしたテクニックには、長年HPCの分野で用いられてきた技術が取り込まれている。他方、流体のシミュレーションなど、HPCが適用されてきた分野においてもAIの技術が活用されるケースが増えている。このセッションでは、GTC 2022において発表されたセッションの中から特に興味深いものについて取り上げ、紹介し、分野全体の傾向についての整理を試みる。 |
14:00 - 14:30 |
データ爆発時代のネットワークインフラ 愛甲浩史, Marketing Manager, Networking 「データ爆発」が囁かれる様になって久しく、またこれを支えるインフラの重要性がより高まっているのは疑いのないところですが、一方で、求められるインフラのあり方や性質などは、エリアごとにもう少し丁寧に見ていく必要があります。このセッションでは、エヌビディアの製品や技術が応用されているいくつかのエリアについて、それぞれの特色やトレンド、方向性について、先のGTCや最近発表となった製品技術を踏まえて紐解きます。 |
14:30 - 15:00 |
開発者が語る NVIDIA cuQuantum SDK 森野慎也, Senior Math Libraries Engineer, Quantum Computing NVIDIA cuQuantum SDKは、量子回路シミュレーションの実行を高速化するためのSDKであり、先日のGTC 2022 Springにおいて、GAを迎えました。現在、ステートベクトルシミュレーション向けのcuStateVec、テンソルネットワークにおいて、効率のよい縮約経路を求めるcuTensorNetの二つのライブラリが提供されています。この二つのライブラリの機能、性能をコンパクトにまとめて、紹介します。 |
15:00 - 15:15 |
休憩 |
15:15 - 15:45 |
NVIDIA Modulus: Physics ML 開発のためのフレームワーク 丹愛彦, HPC Solution Architect 近年、科学技術計算に機械学習を活用する事例が増えている。そのアプローチとして、これまでは、大量の実験データや観測データ、あるいはシミュレーションデータなどを使用してモデルの学習を行う方法が一般的であった。ところが近年、学習データに加えて、対象としている物理を記述する支配方程式を機械学習モデルに統合するという手法が提案され、その優位性を示しつつ進化を続けている。しかしながら、そのような機械学習モデルを、既存の機械学習フレームワークを使用して開発を行うことは、多くの開発者にとっては必ずしも容易とは言い難い。このセッションでは、物理を統合した機械学習モデル、Physics ML モデル開発のためのフレームワークである、NVIDIA Modulus の概要を紹介する。 |
15:45 - 16:15 |
Magnum IO GPUDirect Storage 最新情報 佐々木邦暢, Senior Solution Architect NVIDIA Magnum IO は、GPUやストレージデバイスのノード内・ノード間接続を高速化するGPUDirectシリーズや、インネットワークコンピューティング技術のSHARPを含む各種ライブラリの総称であり、GPUDirect Storage (GDS)はその中でGPUとストレージデバイスの直接接続を実現するものです。 本セッションでは、GDSの仕組み、サポートされるシステム構成、DockerやKubernetes環境での構成方法といったインフラ面の情報に加えて、DALIやNVTabulerあるいはRAPIDSのcuDF、cuCIMといったライブラリを通じてGDSを利用する方法、そして様々な事例や性能改善の実例など、盛りだくさんの内容を30分に詰めるだけ詰めてお届けします! |