関連情報
ホーム > 製品 > NAG数値計算ライブラリ > テクニカルレポート > GPU 向け高性能のブラウン橋(Brownian Bridge)

GPU 向け高性能のブラウン橋
(Brownian Bridge):
帯域幅の制約を受けるアプリケーションへの教訓

概要:このレポートは非常に順応性のあるブラウン橋(Brownian Bridge)生成器について、NVIDIA C2050上でピークに近いパフォーマンスを実現するGPU 実装とともに説明します。そのパフォーマンスについて、高性能のx86-64システム上で稼働するOpenMPの実装と比較しています。GPU 実装は少なくとも10倍のパフォーマンスの向上を示しています。比較結果の詳細はセクション8で説明しています:特に、ブラウン橋アルゴリズムはメモリ帯域幅の制約を受けるためマルチコアCPU上ではスケーラビリティが低いことが観察されています。またGPUアルゴリズムの進化について記述されています。ピークのパフォーマンスの実現にはGPUプログラミングに関する「定説」への疑念、特に占有率の重要性、共有メモリの速度、分岐の影響について疑念を抱くことが必要でした。

目次

1  概要とソフトウェア要件

2  アルゴリズム設計

3  1番目のGPU戦略

4  2番目のGPU戦略

5  3番目のGPU戦略

6  4番目のGPU戦略

7  5番目のGPU戦略

8  結果の概要と結論

参考文献

1  概要とソフトウェア要件

ブラウン橋アルゴリズム([2]参照)はブラウン運動のサンプルパスを構築するための有名な手法です。その手順は以下のように要約されます。
t0<T を2度設定し、区間[t0,T]のブラウン運動を X=(Xt)(t0≤t≤T) と表します。またN≥1 となるt0<t1<...<tN<T を満たす時間を(ti)1≤i≤N とします。 目的は 標準の正規乱数 Z0,Z1,…,ZN を用いて {X(ti)}1≤i≤N と Xtの値をシミュレーションすることです。Xt0=x (しばしば x = 0)の値は常に既知であると仮定します。また常に formula1と設定します。
{X(ti)}1≤i≤Nの残りの値を埋めるためにブラウン橋アルゴリズムは補間法を使用します。 2つの点 Xti と Xtk が既知である場合、 ti<tj<tkである3つめの点 Xtj は以下の式で計算することができます。

(1) formula2

従ってアルゴリズムは反復します。開始値が Xt0=x で終了値が formula1の場合、 1≤i≤N となる3つめの点 Xtiを計算することができます。 3つの点 Xt0,XT,Xti がある場合、j≠i である4つめの点 Xtjを最近傍の補間法によって計算することができます。処理は全ての点が生成されるまで続きます。 もしブラウン運動が多次元である場合、アルゴリズムは若干修正することにより使用することができます。 Xtiと Zi はベクトルになり、相関は以下のように設定することにより導入されます。

(2) formula3

ここで C は CC’ がブラウン運動の共分散構造を表す行列です。ブラウン橋が確率微分方程式を解くために使用される場合、(Xti+1−Xti)/(ti+1−ti) の式のスケーリングされた増分を生成するほうが適切です。ブラウン運動のサンプルパスの点 Xti を生成するよりもいくらか容易であることがわかります。スケーリングされた増分についてこれ以上述べませんが、増分生成についてのタイミングについてはセクション8で説明しています。

1.1  ブラウン橋構築順序

ブラウン橋アルゴリズムはどの点 Xtj がどの点 Xti と Xtk から補間されるかを示すまでは完全には特定されません。例えば、N = 12 で時間が {ti }1≤i≤12 の場合、ブラウン橋を以下の順で構築できます。

(3) formula4

これは以下を意味します。Xt6 が Xt0 とXT の間に補間されています; Xt3 はXt0と Xt6 の間に補間されています; Xt9 は Xt6 と XT の間に補間されています; Xt1 は Xt0 と Xt3 の間に補間されています ; Xt4 は Xt3 と Xt6 の間に補間されています;しかし同様に以下の順で構築することもできます。

(4) formula5

ここでは Xt2 は Xt0 と XT の間に補間されています; Xt4 は Xt2 と XT の間に補間されています; Xt3 は Xt2 と Xt4の間に補間されています ; Xt9 は Xt4 と XTの間に補間されています。 Xt1 は Xt0 と Xt2 の間に補間されています;どちらの構築順序もともに正しいです。実際に、時間 {ti }1≤i≤N の順列は正しいブラウン橋構築順序を指定しています。もし Θ≡ {θi }1≤i≤N が {ti }1≤i≤N の順列を表している場合, θi∈Θ について以下の式で表すことができます。

(5) formula6

ここでl=max{t0j | 1≤j<i,θji } は θi よりも小さい最大の「既知」の点であり、 r=min{T,θj | 1≤j<i,θji } は θi よりも大きい最小の「既知」の点です。 ここで もし対応する値 Xs が Xθi を計算するまでに計算済み(つまり既知である)の場合時間点 s は既知であることを意味します。 Xθi を補間する際に既知の最近傍に確実に補間します。例えば、上記の(4) のように、Xt0 と XT の間ではなくXt2 と XT の間に Xt4 を補間します。

1.2  準乱数

Zi が疑似乱数生成器から生成されている場合、一方のブラウン橋構築順序を他方よりも選ぶ理論的理由はありません。それぞれの Zi が他の Zi から独立していて同一だからです。しかしながらブラウン橋アルゴリズムは低ひずみ数列(Sobol列など)から生成される準乱数とともに頻繁に使用されており、この場合状況はかなり異なります。ブラウンアルゴリズムと共に準乱数点を何故使用するのかについての詳細は[2]を参照してください。基本的に、疑似乱数点でブラウン橋サンプルパスの空間を埋めるよりも準乱数点のほうがより均一に空間を埋めるという考えによるものです。その利点は N+1 次元関数のモンテカルロ積分で準乱数点を使用することと非常に似ています。 N+1 次元準乱数点(Z0,Z1,….,ZN ) はサンプルパス全体の構築のために使用されています。問題は、多くの準乱数生成器について低次元の準乱数点 (Z0,Z1,….) は一般的に高次元の準乱数点(….ZN-1,ZN ) よりもはるかに良い均一性の特性を示すということです。そのため低次元の準乱数点はより有益であり、ブラウン運動の最も重要な部分を構築するのに使用する必要があります。例えば時間 η でのブラウン運動の動きに特に敏感なモデルを考える場合、以下を確認します。

  • 時間η は補間点の一つである
  • Xη は低次元からの Zi を用いて構成されている
  • Xη は低次元からの Zi を用いて構成されたデータ点の間に補間されている

この考えは上記の (3) と (4) で描かれているようにブラウン橋構築順序と非常に自然に結びついています。もしブラウン橋構築順序を時間 {ti }1≤i≤N の数列 Θ≡ {θi }1≤i≤N を通じて指定した場合、最も重要な時間点が θ12 によって与えられるようにします。それにより XT を構築するのに Z0 を使用することができ、Xθ1 を構築するのに Z1 を使用することができ、 Xθ2を構築するのに Xθ1 を使用することができます。それぞれの点 Xθi を構築するのにどの次元が使用されるかがわかるように、構築順序 Θ は準乱数点の次元に直接結びつけられます。表記しやすいように、Xθ1(0≤i≤N)の構築に Zi が使用されるよう θ0≡T を設定します。

1.3  メモリ帯域幅の制約を受けるアルゴリズム

上記(1)の乗算 (tk−tj )/(tk−ti )、 (tj−ti )/(tk−ti )、 formula7は事前に計算することができます: それらのうち N 個だけあり、一度構築順序が決まるとそれらは変わりません。(1)を考慮する場合これらの値は既知の値として取り扱われます。それらは単純にメモリからフェッチされる必要があります。そのためブラウン橋はメモリ帯域幅の制約を受けるアプリケーションです:転送されるデータ量に関して非常に小さな計算が行われます。従って、メインメモリからの Zi の移動とメインメモリへの Xti の移動だけを考慮する場合、私たちの目標は最大のメモリ帯域幅(あるいはできるだけそれに近い帯域幅)を達成することでした。データの計量では必要以上のデータ通信量は消えていくような現実の世界を反映するよう(ユーザの視点から)それ以上のデータ移動は考慮されません。ユーザはブラウン橋構築順序を完全に自由に指定できる必要があります。ユーザが完全な構築順序を自分で作らなくてもいいようにヘルパールーチンが提供されます。アルゴリズムは従来のx86-64のアーキテクチャ上とNVIDIA GPU上でCUDAを用いて実装されます。私たちの考察はGPUの実装に重点がおかれています。x86-64 マルチコアの実装と比較した結果はセクション8 に記載されています。

2  アルゴリズム設計

ユーザがブラウン橋構築順序を指定するためにはこれを抽象する必要があり、従って全ての構築順序を共通の書式に変換することが必要です。これを達成するために2つのステップが採用されました。最初のステップ(初期化)で、ユーザはブラウン橋構築順序を与えます。この順番は処理され、実行戦略に変換されGPUにコピーされます。 ブラウン橋構築順序と時間点が変わらない限り、実行戦略は有効なままです。2つめのステップ(生成)でブラウン運動のサンプルパスが、入力された正規乱数(疑似乱数か準乱数どちらか)から生成されます。一連のブラウン運動のサンプルパスの生成のために生成ステップは何度か実行することができます。

2.1  ローカルスタック

ブラウン橋アルゴリズムを効果的に実装するにはローカルスタックと呼ばれるローカルな作業領域の配列が必要です。前もって計算された Xθi が新しい点を補間するのに使用されるため、計算点はなるべくハードウェアキャッシュの処理ユニットにできるだけ近く保たれる必要があります。ハードウェアキャッシュは全てのブラウン点を保持するには小さすぎるため、それぞれのタイムステップでアルゴリズムはどの点を保持するか決定する必要があり、これらはローカルスタックに格納されます。またアルゴリズムはローカルスタックの点がいつ不要になるかを決定する必要があります。それにより新しい点を置き換えることができます。これはローカルスタックが大きくなりすぎなければ L1 あるいは L2 キャッシュにフィットするということが十分あり得るということです。ブラウン橋アルゴリズムの鍵となる要件はローカルスタックが小さいままであるということです。

2.2  初期化と実行戦略

計算された実際のブラウン運動の点を変更せずに任意のブラウン橋構築順序を変えることが可能であることがわかっています。 これを説明するため、上記の (3) を考えます。この構築順序は以下の構築順序と等しいです。

(6) formula8

ここで Xt6 は Xt0 と XT の間に補間されています。; Xt9 は Xt6 と XT の間に補間されています。; Xt3 は Xt0 と X6 の間に補間されています。; Xt11 は Xt9 ) と XT の間に補間されています。; この構築順序から得られる結果は、同じ Zi が各ブラウン運動の点の作成に使用される限り(3) からの結果と同一です。従って(6)で XT を生成するために Z0 を使用します: Xt6 を生成するために Z1 を使用します:Xt9 を生成するために Z3 を使用します:Xt3 を生成するために Z2 を使用します: Xt11 を生成するために Z7 を使用します:
任意のブラウン橋構築順序は多くのローカルスタックを容易に使用することができます。従って初期化ステップのタスクは、ユーザの構築順序を取り込み、必要最低限のスタックを使用する同等の構築順序を( Ziの順列と共に)見つけることです。この処理はかなり技術的であり、これ以上は説明をしませんが、出力結果は一般のステップに渡される実行戦略です。実行戦略は新しいブラウン橋構築順序とZi の順列から成り立ちます。

2.3  定説: 占有率、共有メモリ及び分岐

GPU プログラミングに関する定説とは、占有率はメモリ帯域幅の制約を受けるアプリケーションにとって重要であること、共有メモリは速いということ、分岐は避けるべきであるということです。 ここで分岐は、ワープ・ダイバージェンス(ワープ内の分岐)を意味していません。従来のシリアル分岐を意味しています。GPU上では、これはワープ内の全てのスレッドが同じ分岐をもつ場合のif-then-else 文と同じです。特に内側のループで分岐を避けることはCPUコードに対する標準の最適化戦略です。 占有率を増加させるために、カーネルはできるだけ少ないレジスタを使用する必要があります。カーネルはストリーミングマルチプロセッサ(SM)ごとにできるだけ多くのスレッドで起動されなくてはなりません。これらのスレッド全てからのメモリ要求はメモリバスを満たすということです。いくつかのスレッドに対してデータがフェッチされるとき(そのためデータの到着を待っている間何もできません)、データが到着した他のスレッドは引き続き実行が可能です。 ブラウン運動の点 Xθi を補間するために、以下のステップを実行する必要があります。

  1. Xθi の左隣と右隣を決定し、ローカルスタックのそれらの位置を見つけます。これらは Xθi が補間される上記(5)の点 Xl と Xr です。
  2. ローカルスタックから左隣と右隣を読み取ります。
  3. どの乱数点Zi を使用するか決定します。
  4. グローバルメモリからZi 点を読みます。
  5. (5)を使用して Xθiを計算します。
  6. メインメモリのどこに Xθi を格納するかを決定します。正しい順、つまり Xt1,Xt2,…,XT で確実に点は格納される必要があります。
  7. メインメモリに Xθi を格納します。
  8. ローカルスタックのどこに Xθi を格納するか決定します。
  9. ローカルスタックに Xθi を格納します。

ステップ (a)、 (c)、 (f) と (h) は全て初期化のステップで行われ、共に実行戦略を構成します。物理的に実行戦略はGPUにコピーされる整数の配列で構成されます。またサンプルパスを生成するので各 CUDAスレッドにより読み取られます。 各タイムステップで、新しいブラウン運動の点を計算するためにスレッドは5つの正数を読む必要があります:ローカルスタックの左隣と右隣のインデックス。;点 Zi のインデックス; グローバルメモリの Xθi の記憶域インデックス;ローカルスタックの Xθiの記憶域インデックス。これらの情報により、生成ステップは簡単に以下で表されます。

  1. ローカルスタックから左隣と右隣を読み取ります。
  2. グローバルメモリから Zi 点を読みます。
  3. (5)を使用してXθi を計算します。
  4. メインメモリに Xθiを格納します。
  5. ローカルスタックに Xθi を格納します。

これは分岐なしの処理です。従って非常に有効です。さらにローカルスタックは速度の速い共有メモリに格納することができます。ワープ・ダイバージェンスはありません。(各スレッドは別々のブラウン運動のサンプルパスを生成します−ワープ内のスレッドは同時に同じ処理を行います。)グローバルメモリへの全てのアクセスは調整され、完全にまとめられます。共有メモリをアクセスする際にバンクコンフリクトはありません。全体として、アルゴリズムは理想的にGPUに適していると思われ、非常に良く機能しています。

2.4  検証システムと検証問題

検証システムは8GB RAM を搭載した2.8GHz で動くIntel Core i7 860 とError Checking and Correction(ECC)を搭載した Tesla C2050で構成されています。このシステムはCUDA Toolkit v4.0 を備えた64 bit Linux です。基本検証問題は64のタイムステップを持つ1,439,744の一次元のブラウン橋サンプルパスを生成するものです。構築順序は(3)で示されているような標準の二分法の順序です。全ての計算は単精度で実行されます。メモリバスを8バイトの転送で飽和させるよりも4バイトの転送で飽和させる方が難しいです。検証問題は計算コアへの351MBのデータ(Zi)の移動とグローバルメモリへの351MBのデータ(Xti)の戻しで構成されています。全てのパフォーマンス測定はパフォーマンスカウンターの利用が可能な NVIDIA の Compute Visual Profilerを通じて得られました。もしアルゴリズムがローカルメモリバストラフィック(L2キャッシュあるいはグローバルメモリへあふれたL1キャッシュの転送量)を取り込んだとすれば、これは記録されました。生成ステップのみが計測され、初期ステップは無視されました。
C2050 のピークのメモリ帯域幅は144GB/s です。しかしながらこれは ECC が作動してない場合の数字です。ECC が作動している場合、カードのピークの帯域幅は120GB/s より若干低い値に減少します([1]を参照)。従って目標はできるだけ全体の転送速度を 120GB/s 近くにすることです。
以下で引用されている全てのパフォーマンスについての数字は、カーネル実行時間の測定で見つかった最適な起動設定に関するものです。占有率についての数字は起動設定に関するものです。

3  1番目のGPU戦略

実行戦略がローカルスタックのインデックスを含む整数の配列、Zi の配列とブラウン橋記憶域(出力)配列から成り立っていることを思い出してください。これらの整数は生成ステップの間固定であり、ワープ内の各スレッドは同時に同じ要素(ブロードアクセス)にアクセスするので、一定のメモリにそれらを格納するのは明らかであると思われます。従って最初のGPUの実装は以下のようになります。
スペースを節約するため、実行戦略はreadインデックスとwriteインデックスをローカルスタックに格納するために 8 ビットの符号なしの整数を使用し、Zi readインデックスと Xθiwrite インデックスを格納するために16 ビットの符号なし整数を使用しました。従って各ブラウン運動の点の実行戦略の総サイズは、7 バイトの総コストに対して2 X 16 ビット + 3 X 8 ビットでした。これらの値は 16 bit と 8 bit のブロードキャストを通じてコンスタントメモリから読み込まれました。
スタックは L1キャッシュに存在するよう、ローカルメモリに保持され、L1 キャッシングは停止されました。L1キャッシュと共有メモリ両者に対して同じ物理ハードウェアが使用されているので、これは共有メモリにスタックを置くのと同じはずです。

3.1  並列化と多次元ブラウン運動

ブラウン運動が一次元であるとき、各 CUDAスレッドは他のCUDAスレッドのブラウン橋サンプルパスを単独で作成することができるのは明らかです。この場合、各スレッドブロックが十分な量の作業をするように、各スレッドにいくつかのブラウンパスを作成させます。しかしもしブラウン運動が多次元である場合、行列ベクトルの積 CZi を計算する必要があります。この実装は、コンスタントメモリに C を入れ、スレッドに各 CZi ベクトルの値を共有メモリに読みこませる方法を用いました。スレッドは同時に発生し、各スレッドは行列ベクトルの積 CZi の行を計算します。C へのアクセスはブロードキャストのアクセスパターンに従っています。ブラウン運動の点 Xθi は前に述べたように他のすべての CUDA スレッドとは独立して計算されます。このアプローチは2つの _syncthreads() 呼び出しが各タイムステップで行われる必要があることを意味します。

3.2  パフォーマンス

カーネルは20 個のレジスタを使用し、占有率が100%であり、パフォーマンスは 29GB/s です。

4  2番目のGPU戦略

帯域幅の制約を受けるアプリケーションについて頻繁に耳にするアドバイスは、各スレッドがより多くのデータを転送し処理できるよう、ベクトルデータタイプを使用するということです。各スレッドがfloat2、float3 あるいは float4のように Zi を読みこみ Xθi を書けるようにセクション3のアルゴリズムを調整しました。
必要とされるローカルスタックの量が2倍、3倍あるいは4倍と増えるように、各スレッドは2、3あるいは4個のブラウン橋サンプルパスを一度に処理します。その後は、アルゴリズムは変わりませんでした:実行戦略はコンスタントメモリから読み込まれ、タイムステップごとに2つの同期があり、行列 C はコンスタントメモリに保持されました。

4.1  パフォーマンス

カーネルは20個から34個のレジスタを使用し、占有率は100%から54%の間で、一般にパフォーマンスは低いものでした。グローバルメモリの転送量は増加しましたが、これはローカルスタックが L2 キャッシュへあふれ、かなり大きくなることによるものです。スタックはローカルメモリに保持され、そのため L1 キャッシュに存在します。占有率を高めるため、各スレッドブロックは多くのスレッドで起動されます。しかしレジスタや共有メモリに対して、ランタイムがSMごとに1つあるいは2つのブロックしか置かないよう強制する制限がないため、ランタイムは各SM上にいくつかのブロックを置いています。L1キャッシュを使いはたし、スタックがL2 とグローバルメモリにあふれる原因となります。少ないブロックと少ないスレッドでカーネルを動かすことはメモリへのあふれを軽減しますが、Zi と Xθi のグローバルメモリへのトランザクションが少ないためパフォーマンスの悪化をもたします。 全体で、各カーネルはセクション3のカーネルよりゆっくり動きます。これは有効なパフォーマンスが 29GB/s に満たないことを意味します。

5  3番目のGPU戦略

アルゴリズムの通常の動きがメモリバスを飽和させるための十分なメモリの命令を生成できないため、明示的なデータプリフェッチを取り入れました。この発想はGPUの計算コアがデータロード命令を失速させないという事実を生かしています:ロードのために使用されたレジスタ(つまりグローバルメモリからのデータがロードされるレジスタ)が演算の引数になると失速します。 従ってもし一つのスレッドがいくつかのロード操作を異なるレジスタ上で発生させる場合、プログラマはプログラムの後半までこれらのレジスタを使用しないよう気をつけます。ロードはスレッドが実行を続けている間非同期的に生じます。
パスの計算を始める前に各スレッドが P個の正規乱数をプリフェッチできるよう私たちはセクション3のアルゴリズムを変更しました。パスの各点 Xθi が計算されると、対応する正規乱数が使用され、Xθi+P に対応する新しい正規乱数が同じレジスタにロードされます。このように、P個の正規フェッチが常にin-flight(実行中)となります。この戦略では、レジスタが正しく扱われているかを確認するためメインの計算ループをP回展開することが必要です。

5.1  パフォーマンス

いくつかの実験後、私たちは最適値が P = 8 であることわかりました。カーネルが34個のレジスタを使用し、占有率が 58% であり、パフォーマンスが 58GB/s であることを表しています。

6  4番目のGPU戦略

この点から、アルゴリズムの大局的な再考が必要であることは明らかでした。基本的な問題はスレッドと全てのメモリ操作との間にある間接参照のレベルであると思われました。メモリがアクセスされる前に、各スレッドは最初にアクセスが生じるインデックスをフェッチする必要があります。またデータをアクセスするのにインデックスを使用する必要があります。従って各メモリ操作はメモリへの2つのトリップを必要とします。1つはインデックスへフェッチするためのトリップで、2つ目はインデックスを用いてデータをアクセスするためのトリップです。
これはプロセス全体の速度を落としています。グローバルメモリバスを飽和させる速度でインデックスを配布できるほどコンスタントメモリは速いわけではありません。実行中に各スレッドがインデックスをその場で「計算した」合成実験ではメモリバスの飽和に近づきました。従ってボトルネックがインデックスのフェッチにあるように思われました。
実際にコンスタントメモリから共有メモリへのインデックスの移動には改善が見受けられません。コンスタントメモリと同様に、共有メモリは遅すぎてグローバルメモリバスを飽和させる速度でインデックスを提供することができません。その場でインデックスを計算することが不可能なので、ボトルネックを回避する方法を見つける必要があります。
データのプリフェッチは何らかの希望を与えるようです。しかし正規乱数をプリフェッチしたい場合、それらのインデックスもプリフェッチしなければなりません。(インデックスはロードをもたらすために必要とされるからです。)またもしこれらのインデックスをプリフェッチしている場合、おそらく全てのインデックスをプリフェッチすることは意味があります。
従って、アルゴリズムを以下のように変更しました:

  1. スレッド同士は多次元のブラウン橋サンプルパスの生成をもはや協力し合っては行いません。各スレッドは各サンプルパスの全次元を計算します。行列ベクトル積CZi がレジスタ内のデータ上で実行できるよう行列 C はレジスタに移動されます。全ての同期バリアが除去されます。
  2. Zi の値はもはや共有メモリに読み込まれないため、ローカルスタックはコンスタントメモリから共有メモリへ移動されます。
  3. 実行戦略はコンスタントメモリから共有メモリへ移行されます。しかし共有メモリが小さすぎて保持できないため、実行戦略はグローバルメモリに残る必要があります。その一部は必要に応じて共有メモリにコピーされます。
  4. 実行戦略を定義するインデックスはプリフェッチされます。各ステップで、5個のインデックスが必要とされ、2ステップ分のインデックスがプリフェッチされます。これは最初のブラウン運動の点 XT が計算される前に10個のインデックスがプリフェッチされることを意味します。
  5. インデックスのプリフェッチに加えて、P個の正規乱数もグローバルメモリからプリフェッチされます。
  6. アルゴリズムの残りの部分は同じままです:左隣と右隣がスタックから読み込まれ、新しいブラウン運動の点が計算され、スタックとグローバルメモリに順に格納されます。

6.1  パフォーマンス

上記の変更によりコードの複雑さは激増しました。考え方は比較的に単純ですが、コードを書く際にコードを理解するのにある程度時間がかかります。プリフェッチのレジスタは正しく扱われる必要があるだけでなく、実行戦略のセクションを共有メモリにコピーすることによって生じる稀なケースとクリーンアップコードに対して例外的に注意を払う必要があります。
これにはプリフェッチを伴いますが、これはどのセクションをコピーするか知るための注意深い記録処理が必要であるからです。つまり発想をロバスト実装に転換することは簡単ではありません。結果的に、カーネルはスレッドごとに42個のレジスタを使用し、占有率は 45% で、 85GB/s で動きます。

GPU戦略レジスタ占有率パフォーマンスピークの %
1番目20100%29GB/s24.1%
2番目20 to 34100% to 54%<29GB/s<24%
3番目3458%58GB/s48.3%
4番目4245%85GB/s70.8%
5番目
(プリフェッチなし)
2443%79GB/s65.8%
5番目
(プリフェッチあり)
3358%102GB/s85%
表 1. 異なる GPU 戦略の比較

7  5番目のGPU戦略

前述の GPU カーネルのパフォーマンスは理論上のピークのわずか70%です。プリフェッチの余地はあまりありません。アルゴリズムの中で最も可能性の高いボトルネックはローカルスタックへの転送量やローカルスタックからの転送量、関連するインデックスのフェッチです。各タイムステップでスタックから2つの値を読んで一つの値をスタックに書き出します。これは3つのインデックスをフェッチすることを意味します。インデックスは共有メモリに存在します。これは、各タイムステップで共有メモリから3つの値をロードすることを意味します。さらに2つの値をロードし最終的に共有メモリに一つの値を格納するためにこれらの値を使用します。この転送量は共有メモリバスにとって多すぎるため処理できません:プログラムのボトルネックになります。
初期化ステップに戻って、ローカルスタックの転送量を減らすことが可能かどうか検討しました。生成関数の最も内側のループでいくつかの分岐を入れることによってのみ、その回答はイエスになりました。Xl と Xrがブラウン運動の点 Xθi の左隣と右隣である場合の(5)の状況を検討します。
実行戦略を慎重に調整することによって、 {Xl,Xr,Xθi } がブラウン運動の点 Xθi+1 の左隣と右隣両方を含むようにすることが可能です。これは全ての点 Xθi+1 に対して行うことはできませんが、多くの点に対して行うことができます。それがいつ保持するかを特定するため何らかのフラグを取り入れることが必要です。それに対応して生成ステップのメインの計算ループがいくつかの分岐を含む必要があります。点 Xθi+1 を計算する際の分岐はおおよそ以下のようになります:
Xθi+1の左隣と右隣は{Xl,Xr,Xθi } の中にありますか?

✓Yes.

  • 点 Xl,Xr,Xθiのどれが隣かを特定し、それらを使用して Xθi+1 を計算します。

X No.

  • ローカルスタックから左隣と右隣を読みそれらを使用して Xθi+1 を計算します。

通常プログラマはこのような分岐を特に内部ループでは避けますが、この場合は有効です。

7.1  パフォーマンス

プリフェッチを追加しない場合、上記で説明されたカーネルは24個のレジスタを使用し、占有率は 43% で、79GB/s で動きます。セクション6のプリフェッチが追加されると、カーネルは 33個のレジスタを使用し、占有率は58%で、102GB/s で動きます。倍精度の同一コードでは38個のレジスタを使用し、占有率は 33% で、115.66GB/s で動きます。

8  結果の概要と結論

セクション2.4で説明されているシステムで計測したとおりにブラウン橋サンプルパス生成器とスケーリングされたブラウン橋増分生成器両者のパフォーマンスの結果を要約して説明します:

  • ブラウン橋サンプルパス生成器
    • 単精度: ランタイムはグローバルメモリスループットを達成する速度102GB/s で10.01ms。これは正規乱数を生成するのにかかる時間よりも1.9倍速い 。1
    • 倍精度:ランタイムはグローバルメモリスループットを達成する速度115.6GB/s で17.12ms。これは正規乱数を生成するのにかかる時間よりも2.2倍速い。2
  • スケーリングされたブラウン橋増分生成器
    • 単精度:ランタイムはグローバルメモリスループットを達成する速度109GB/s で9.09ms 。これは正規乱数を生成するのにかかる時間よりも2.09倍速い。1
    • 倍精度:ランタイムはグローバルメモリスループットを達成する速度116.3GB/s で17.01ms 。これは正規乱数を生成するのにかかる時間よりも2.2倍速い。2

セクション7 からのアルゴリズム(プリフェッチなし)はCでコーディングされ、OpenMPと並列化され、多くの異なる x86-64システム上で稼働しています。結果は表2に記載されています。 3つのCPUシステムはIntel Core i7 デスクトッププロセッサからサーバ市場向けのトップエンドのXeon X5680までパフォーマンスの範囲を表します。AMD マシンは2つのMagny Cours チップを備えているデュアルソケットシステムで、英国のHECToR スーパーコンピュータのフェーズ2のノードに似ています。Xeon マシンもまた2つのWestmere を備えたデュアルソケットシステムです。CPU コードのスケーリングを観察して下さい。Core i7 では2スレッド以降は限られたスケーリングを示しています。さらに、3つ以上のスレッドではパフォーマンスは 極めて変化しやすくなります(ここで示される値は平均です)。Xeon では実質的に8スレッド以降はスケーリングがないことを示しています。AMD はスケーリングがハードウェアの能力の最大まで現れる唯一のシステムです。とは言ってもAMDシステムのパフォーマンスが特別にすばらしいというわけではなく Xeon より70% ほど遅いです。

生成器 Intel Core i7 860, 4 cores @ 2.8GHz
(with hyperthreading)
GPU
増速
1 Thread2 Threads3 Threads4 Threads8 Threads
ブラウン橋 float1212.5ms1142.6ms1189.3ms787.2ms720.3ms72.0x
double1771.1ms930.5ms704.4ms803.6ms593.4ms34.7x
ブラウン橋増分 float1170.5ms613.2ms857.1ms639.1ms605.0ms67.1x
double1452.8ms782.6ms742.1ms653.5ms549.7ms32.3x
生成器 AMD Opteron 6174, 24 cores @ 2.2GHz
(dual socket Magny Cours, 2 x 12 cores)
GPU
増速
1 Thread8 Threads12 Threads16 Threads24 Threads
ブラウン橋 float2402.6ms1019.6ms676.1ms452.4ms355.4ms35.5x
double2948.8ms900.3ms576.4ms454.2ms328.4ms19.2x
ブラウン橋増分 float2173.6ms637.2ms434.4ms321.1ms257.0ms28.6x
double2694.1ms804.9ms555.3ms418.4ms298.8ms17.6x
生成器 Intel Xeon X5680, 12 cores @ 3.33GHz
(dual socket Westmere, 2 x 6 cores with hyperthreading)
GPU
増速
1 Thread8 Threads12 Threads16 Threads24 Threads
ブラウン橋 float1392.1ms192.4ms195.6ms171.2ms171.9ms17.2x
double1463.8ms205.7ms222.7ms193.6ms227.6ms11.4x
ブラウン橋増分 float1207.4ms168.8ms168.8ms146.0ms207.6ms16.2x
double1308.1ms183.2ms184.9ms166.2ms211.8ms9.8x
表 2. Tesla C2050 対 高パフォーマンス CPU についてのベンチマーク図

表2の動きはメモリ帯域幅の制約を受けるアプリケーションの典型的な動きです。問題に対し新たな計算コアを投入することはパフォーマンスの改善にはなりません:実際のメモリハードウェアのスピードを増す必要があります。ここで GPU は速いGDDR5 グラフィックメモリによって明らかな強みがあります。

8.1  結論

ブラウン橋生成器を作りだす過程で、私たちはGPUプログラミングの定説に関して多くのことを学びました:

  • 高い占有率はメモリ帯域幅の制約を受けるアプリケーションに対しては必ずしも高いパフォーマンスを意味しません。
  • データのレジスタへの明示的なプリフェッチは著しくパフォーマンスを高めることができます。
  • 共有メモリは人が思うほど速くはありません。特に、インデックスが共有メモリから別の値をフェッチするのに使用される場合、共有メモリからインデックスがフェッチされる間接参照の挿入は、処理をかなり減速させます。
  • レジスタはGPU上の最も速いメモリであるため、帯域幅の制約を受けるアプリケーションに対しても、レジスタを積極的に使用することはパフォーマンスを高める良い方法です。
  • 分岐が最も内側の計算ループにある場合でも、慎重に分岐を使用することによりパフォーマンスを増加することができます。
  • 従来のマルチコアプラットホーム上でスケーリングをうまく行わないことの多いメモリ帯域幅バインドアプリケーションを加速させるのにGPU は非常に効果的です。

8.2  謝辞

ニューメリカルアルゴリズムズグループは実装に有益なGPUブラウン橋ルーチンに尽力いただいた Mike Giles 教授に感謝申し上げます。 またNAG はブラウン橋アルゴリズムがどのように実際に使用されているかについて洞察を示していただいた二人のシニア計量アナリストのご意見やフィードバックに感謝します。

8.3  ソフトウェアへのアクセス

ユーザの皆様がもしブラウン橋ルーチンを入手されたい場合はWebサイト (http://www.nag-j.co.jp)もしくはメール(sales@nag-j.co.jp)を通じて NAG へお問い合わせ下さい。 GPU と CPU (シングルスレッド) の両方の実装は GPU3向けの NAG 数値計算ルーチンで利用いただけます。ルーチンのドキュメントは[3]で参照いただけます。GPU モンテカルロプライシングアプリケーションを作成するための GPU Sobol 生成器の使用法を説明しているサンプルプログラム(ドキュメントを含む)は[4]で参照いただけます。 非常に順応性のあるブラウン橋アルゴリズムのシリアル及びマルチスレッドの実装はGPU 向けのNAG 数値計算ルーチンで大きな特徴となっていますが、さらに NAG CPU ライブラリとNAG Toolbox for MATLABの今後のリリースにおいても大きな特徴となるでしょう。早期リリースはリクエストに応じて入手いただくことができます。

参考文献

[1] CUDA Optimization : Memory Bandwidth Limited Kernels + Live Q&A by Tim Schroeder. NVIDIA GPU Computing Webinar Series. http://developer.download.nvidia.com/CUDA/training/Optimizing_Mem_limited_kernels.mp4
[2] Glasserman, P. (2004). Monte Carlo Methods in Financial Engineering. Springer.
[3] GPUルーチンドキュメント用 NAG数値計算ルーチン http://www.nag.co.uk/numeric/GPUs/doc.asp
[4] GPU向け NAG 数値計算ルーチンを用いたデモ    http://www.nag.co.uk/numeric/GPUs/gpu_demo_applications

脚注

1:NAG GPU MRG32k3a 生成器使用、単精度
2:NAG GPU MRG32k3a 生成器使用、倍精度
3: http://www.nag.co.uk/numeric/gpus/index.asp
Results matter. Trust NAG.

Privacy Policy | Trademarks