Multi-Threading
この blog post を訪れて、Juliaのマルチスレッド機能のプレゼンテーションをご覧ください。
Starting Julia with multiple threads
デフォルトでは、Juliaは単一の実行スレッドで起動します。これは、コマンド Threads.nthreads()
を使用することで確認できます。
julia> Threads.nthreads()
1
実行スレッドの数は、-t
/--threads
コマンドライン引数を使用するか、JULIA_NUM_THREADS
環境変数を使用することで制御されます。両方が指定されている場合、-t
/--threads
が優先されます。
スレッドの数は整数(--threads=4
)として指定することも、auto
(--threads=auto
)として指定することもできます。auto
は使用するのに便利なデフォルトのスレッド数を推測しようとします(詳細についてはCommand-line Optionsを参照してください)。
-t
/--threads
コマンドライン引数は、少なくとも Julia 1.5 が必要です。古いバージョンでは、代わりに環境変数を使用する必要があります。
auto
を環境変数JULIA_NUM_THREADS
の値として使用するには、少なくともJulia 1.7が必要です。古いバージョンでは、この値は無視されます。
Juliaを4スレッドで開始します:
$ julia --threads 4
スレッドが4つ利用可能であることを確認しましょう。
julia> Threads.nthreads()
4
しかし、現在私たちはマスタースレッドにいます。確認するために、関数 Threads.threadid
を使用します。
julia> Threads.threadid()
1
環境変数を使用することを好む場合、Bash(Linux/macOS)で次のように設定できます:
export JULIA_NUM_THREADS=4
Cシェル on Linux/macOS, CMD on Windows:
set JULIA_NUM_THREADS=4
Windows上のPowershell:
$env:JULIA_NUM_THREADS=4
この作業はJuliaを始める前に行う必要があります。
-t
/--threads
で指定されたスレッドの数は、-p
/--procs
または--machine-file
コマンドラインオプションを使用して生成されるワーカープロセスに伝播されます。たとえば、julia -p2 -t2
は1つのメインプロセスと2つのワーカープロセスを生成し、これらの3つのプロセスすべてに2つのスレッドが有効になります。ワーカースレッドをより細かく制御するには、addprocs
を使用し、-t
/--threads
をexeflags
として渡します。
Multiple GC Threads
ガーベジコレクタ(GC)は複数のスレッドを使用できます。使用されるスレッドの数は、計算ワーカースレッドの数の半分か、--gcthreads
コマンドライン引数または JULIA_NUM_GC_THREADS
環境変数によって設定されます。
--gcthreads
コマンドライン引数は、少なくとも Julia 1.10 が必要です。
Threadpools
プログラムのスレッドが実行するタスクで忙しいと、タスクが遅延することがあり、これがプログラムの応答性やインタラクティブ性に悪影響を及ぼす可能性があります。これに対処するために、タスクがインタラクティブであることを指定することができます。Threads.@spawn
するときに。
using Base.Threads
@spawn :interactive f()
インタラクティブなタスクは、高遅延操作を避けるべきであり、長時間のタスクである場合は、頻繁に制御を返すべきです。
Juliaは、インタラクティブなタスクを実行するために予約された1つ以上のスレッドで開始することができます:
$ julia --threads 3,1
環境変数 JULIA_NUM_THREADS
も同様に使用できます:
export JULIA_NUM_THREADS=3,1
これは、:default
スレッドプールに 3 つのスレッドを、:interactive
スレッドプールに 1 つのスレッドを持つ Julia を起動します:
julia> using Base.Threads
julia> nthreadpools()
2
julia> threadpool() # the main thread is in the interactive thread pool
:interactive
julia> nthreads(:default)
3
julia> nthreads(:interactive)
1
julia> nthreads()
3
nthreads
のゼロ引数バージョンは、デフォルトプール内のスレッド数を返します。
Juliaがインタラクティブスレッドで起動されているかどうかに応じて、メインスレッドはデフォルトスレッドプールまたはインタラクティブスレッドプールのいずれかにあります。
いずれかまたは両方の数字を auto
という単語に置き換えることができ、これによりJuliaは適切なデフォルトを選択します。
The @threads
Macro
ネイティブスレッドを使用して簡単な例を作成しましょう。ゼロの配列を作成します:
julia> a = zeros(10)
10-element Vector{Float64}:
0.0
0.0
0.0
0.0
0.0
0.0
0.0
0.0
0.0
0.0
この配列に4つのスレッドを使って同時に操作しましょう。それぞれのスレッドが自分のスレッドIDを各位置に書き込みます。
Juliaは、Threads.@threads
マクロを使用して並列ループをサポートしています。このマクロは、for
ループの前に付けられ、ループがマルチスレッド領域であることをJuliaに示します:
julia> Threads.@threads for i = 1:10
a[i] = Threads.threadid()
end
イテレーション空間はスレッド間で分割され、その後各スレッドは自分のスレッドIDを割り当てられた場所に書き込みます:
julia> a
10-element Vector{Float64}:
1.0
1.0
1.0
2.0
2.0
2.0
3.0
3.0
4.0
4.0
Threads.@threads
には、@distributed
のようなオプションの削減パラメータはありません。
Using @threads
without data-races
データレースの概念は "Communication and data races between threads" で詳述されています。今のところ、データレースは不正確な結果や危険なエラーを引き起こす可能性があることを知っておいてください。
sum_single
関数をマルチスレッド化したいとしましょう。
julia> function sum_single(a)
s = 0
for i in a
s += i
end
s
end
sum_single (generic function with 1 method)
julia> sum_single(1:1_000_000)
500000500000
単に @threads
を追加するだけでは、複数のスレッドが同時に s
を読み書きするデータレースが発生します。
julia> function sum_multi_bad(a)
s = 0
Threads.@threads for i in a
s += i
end
s
end
sum_multi_bad (generic function with 1 method)
julia> sum_multi_bad(1:1_000_000)
70140554652
結果は 500000500000
ではなく、評価ごとに変わる可能性が高いことに注意してください。
この問題を解決するために、タスクに特有のバッファを使用して合計をレースフリーなチャンクに分割することができます。ここで sum_single
は再利用され、その内部バッファ s
を持っています。入力ベクトル a
は並列作業のために nthreads()
チャンクに分割されます。次に、Threads.@spawn
を使用して、各チャンクを個別に合計するタスクを作成します。最後に、再び sum_single
を使用して各タスクからの結果を合計します:
julia> function sum_multi_good(a)
chunks = Iterators.partition(a, length(a) ÷ Threads.nthreads())
tasks = map(chunks) do chunk
Threads.@spawn sum_single(chunk)
end
chunk_sums = fetch.(tasks)
return sum_single(chunk_sums)
end
sum_multi_good (generic function with 1 method)
julia> sum_multi_good(1:1_000_000)
500000500000
バッファは threadid()
に基づいて管理すべきではありません。すなわち、buffers = zeros(Threads.nthreads())
のように、同時に実行されるタスクが中断される可能性があるため、特定のスレッド上で複数の同時タスクが同じバッファを使用することになり、データ競合のリスクが生じます。さらに、複数のスレッドが利用可能な場合、タスクは中断ポイントでスレッドを変更することがあり、これは task migration として知られています。
別の選択肢は、タスク/スレッド間で共有される変数に対してアトミック操作を使用することであり、これは操作の特性に応じてよりパフォーマンスが向上する可能性があります。
Communication and data-races between threads
ジュリアのスレッドは共有メモリを通じて通信できますが、正確でデータ競合のないマルチスレッドコードを書くことは非常に難しいことで知られています。ジュリアの Channel
はスレッドセーフであり、安全に通信するために使用できます。また、データ競合を避けるために locks と atomics の使用方法を説明するセクションもあります。
Data-race freedom
あなたは、プログラムがデータレースフリーであることを保証する全責任を負います。この要件を遵守しない場合、ここで約束されたことは何も仮定できません。観察された結果は非常に直感に反する場合があります。
データレースが発生すると、Juliaはメモリ安全ではありません。別のスレッドがデータを書き込む可能性がある場合は、任意のデータを読む際に非常に注意してください。セグメンテーションフォルトやそれ以上の問題が発生する可能性があります。以下は、異なるスレッドからグローバル変数にアクセスするいくつかの安全でない方法です:
Thread 1:
global b = false
global a = rand()
global b = true
Thread 2:
while !b; end
bad_read1(a) # it is NOT safe to access `a` here!
Thread 3:
while !@isdefined(a); end
bad_read2(a) # it is NOT safe to access `a` here
Using locks to avoid data-races
データレースを回避し、スレッドセーフなコードを書くための重要なツールは「ロック」という概念です。ロックはロックされ、アンロックされることができます。スレッドがロックをロックし、アンロックしていない場合、そのスレッドはロックを「保持している」と言います。ロックが1つだけの場合、ロックを保持してデータにアクセスする必要があるコードを書くことで、複数のスレッドが同時に同じデータにアクセスすることは決してないと保証できます。ロックと変数の間のリンクはプログラマーによって作成され、プログラムによってではないことに注意してください。
例えば、ロック my_lock
を作成し、変数 my_variable
を変更している間にロックします。これは、@lock
マクロを使うことで最も簡単に行えます:
julia> my_lock = ReentrantLock();
julia> my_variable = [1, 2, 3];
julia> @lock my_lock my_variable[1] = 100
100
同じロックと変数を使用した類似のパターンを別のスレッドで使用することで、操作はデータ競合から解放されます。
上記の操作は、次の2つの方法でlock
の関数型バージョンを使用して実行できました:
julia> lock(my_lock) do
my_variable[1] = 100
end
100
julia> begin
lock(my_lock)
try
my_variable[1] = 100
finally
unlock(my_lock)
end
end
100
すべての3つのオプションは同等です。最終バージョンでは、ロックが常に解除されることを保証するために明示的な try
ブロックが必要であることに注意してください。一方、最初の2つのバージョンはこれを内部で行います。データを変更する際(グローバル変数やクロージャ変数に代入するなど)、他のスレッドによってアクセスされる場合は、上記のロックパターンを常に使用すべきです。これを怠ると、予期しない深刻な結果を招く可能性があります。
Atomic Operations
Juliaは、値に原子的にアクセスおよび変更することをサポートしています。つまり、スレッドセーフな方法で、race conditionsを回避します。値(原始型である必要があります)は、Threads.Atomic
としてラップされ、これによりこの方法でアクセスする必要があることを示します。ここに例があります:
julia> i = Threads.Atomic{Int}(0);
julia> ids = zeros(4);
julia> old_is = zeros(4);
julia> Threads.@threads for id in 1:4
old_is[id] = Threads.atomic_add!(i, id)
ids[id] = id
end
julia> old_is
4-element Vector{Float64}:
0.0
1.0
7.0
3.0
julia> i[]
10
julia> ids
4-element Vector{Float64}:
1.0
2.0
3.0
4.0
原子タグなしで加算を試みた場合、競合状態のために間違った答えを得る可能性がありました。競合を避けなかった場合に何が起こるかの例:
julia> using Base.Threads
julia> Threads.nthreads()
4
julia> acc = Ref(0)
Base.RefValue{Int64}(0)
julia> @threads for i in 1:1000
acc[] += 1
end
julia> acc[]
926
julia> acc = Atomic{Int64}(0)
Atomic{Int64}(0)
julia> @threads for i in 1:1000
atomic_add!(acc, 1)
end
julia> acc[]
1000
Per-field atomics
私たちは、@atomic
、@atomicswap
、@atomicreplace
マクロ、および @atomiconce
マクロを使用して、より細かいレベルでアトミック操作を行うこともできます。
メモリモデルの具体的な詳細や設計のその他の詳細は、Julia Atomics Manifestoに記載されており、後に正式に公開される予定です。
構造体宣言の任意のフィールドは @atomic
で装飾でき、その後の書き込みは @atomic
でマークされなければならず、定義された原子順序のいずれか(:monotonic
、:acquire
、:release
、:acquire_release
、または :sequentially_consistent
)を使用しなければなりません。原子フィールドの読み取りも原子順序制約で注釈を付けることができ、指定されていない場合は単調(緩和された)順序で行われます。
Per-field atomicsは少なくともJulia 1.7が必要です。
Side effects and mutable function arguments
マルチスレッドを使用する際には、pure ではない関数を使用する際に注意が必要です。なぜなら、間違った答えが得られる可能性があるからです。例えば、name ending with !
を持つ関数は、慣例として引数を変更するため、純粋ではありません。
@threadcall
外部ライブラリ、例えば ccall
を介して呼び出されるものは、JuliaのタスクベースのI/Oメカニズムに問題を引き起こします。Cライブラリがブロッキング操作を実行すると、その呼び出しが戻るまでJuliaスケジューラは他のタスクを実行できなくなります。(例外として、JuliaにコールバックするカスタムCコードへの呼び出しや、Cコードが jl_yield()
を呼び出す場合があります。これは yield
のC版です。)
@threadcall
マクロは、そのようなシナリオで実行の停止を回避する方法を提供します。これは、別のスレッドで実行するために C 関数をスケジュールします。デフォルトサイズが 4 のスレッドプールがこれに使用されます。スレッドプールのサイズは、環境変数 UV_THREADPOOL_SIZE
を介して制御されます。空いているスレッドを待っている間、またスレッドが利用可能になった際の関数実行中に、リクエストされたタスク(メインの Julia イベントループ上)は他のタスクに譲ります。@threadcall
は実行が完了するまで戻らないことに注意してください。ユーザーの観点から見ると、これは他の Julia API のようにブロッキングコールです。
呼び出された関数がJuliaに再度呼び出さないことが非常に重要です。そうしないと、セグメンテーションフォルトが発生します。
@threadcall
は将来のJuliaのバージョンで削除または変更される可能性があります。
Caveats
この時点で、Juliaランタイムおよび標準ライブラリのほとんどの操作は、ユーザーコードがデータ競合がない場合にスレッドセーフな方法で使用できます。ただし、一部の領域ではスレッドサポートの安定化に向けた作業が進行中です。マルチスレッドプログラミングには多くの固有の困難があり、スレッドを使用するプログラムが異常または望ましくない動作(例:クラッシュや謎の結果)を示す場合、通常は最初にスレッド間の相互作用が疑われるべきです。
Juliaでスレッドを使用する際に注意すべき特定の制限と警告がいくつかあります:
- 基本的なコレクションタイプは、複数のスレッドによって同時に使用される場合、少なくとも1つのスレッドがコレクションを変更する場合に手動でロックする必要があります(一般的な例には、配列への
push!
やDict
へのアイテムの挿入が含まれます)。 @spawn
によって使用されるスケジュールは非決定的であり、信頼すべきではありません。- 計算に依存するメモリ割り当てを行わないタスクは、メモリを割り当てている他のスレッドでガーベジコレクションが実行されるのを妨げる可能性があります。このような場合、GCが実行されるように手動で
GC.safepoint()
を呼び出す必要があるかもしれません。この制限は将来的に解除される予定です。 - トップレベルの操作、例えば、
include
や型、メソッド、モジュール定義のeval
を並行して実行することは避けてください。 - ライブラリによって登録されたファイナライザは、スレッドが有効になっている場合に壊れる可能性があることに注意してください。これにより、スレッドを自信を持って広く採用する前に、エコシステム全体でいくつかの移行作業が必要になる場合があります。詳細については、the safe use of finalizersのセクションを参照してください。
Task Migration
タスクが特定のスレッドで実行を開始した後、タスクが譲歩すると別のスレッドに移動する可能性があります。
そのようなタスクは、@spawn
または @threads
で開始された可能性がありますが、@threads
の :static
スケジュールオプションはスレッドIDを固定します。
これは、ほとんどの場合、threadid()
はタスク内で定数として扱われるべきではなく、したがってバッファや状態を持つオブジェクトのベクターにインデックスを付けるために使用されるべきではないことを意味します。
タスクの移行はJulia 1.7で導入されました。それ以前は、タスクは常に開始されたスレッドに留まっていました。
Safe use of Finalizers
ファイナライザは任意のコードを中断できるため、グローバルステートとの相互作用において非常に注意が必要です。残念ながら、ファイナライザが使用される主な理由はグローバルステートを更新することです(純粋関数は一般的にファイナライザとしてはあまり意味がありません)。これにより、少しのジレンマが生じます。この問題に対処するためのいくつかのアプローチがあります:
シングルスレッドの場合、コードは内部の
jl_gc_enable_finalizers
C 関数を呼び出して、クリティカル領域内でファイナライザがスケジュールされるのを防ぐことができます。内部的には、これは特定の操作(インクリメンタルパッケージの読み込み、コード生成など)を行う際の再帰を防ぐために、いくつかの関数(私たちの C ロックなど)内で使用されます。ロックとこのフラグの組み合わせを使用することで、ファイナライザを安全にすることができます。第二の戦略は、Baseがいくつかの場所で採用しているもので、最終化処理を明示的に遅延させ、非再帰的にロックを取得できる可能性があるまで待つというものです。以下の例は、この戦略が
Distributed.finalize_ref
にどのように適用されるかを示しています:julia function finalize_ref(r::AbstractRemoteRef) if r.where > 0 # Check if the finalizer is already run if islocked(client_refs) || !trylock(client_refs) # delay finalizer for later if we aren't free to acquire the lock finalizer(finalize_ref, r) return nothing end try # `lock` should always be followed by `try` if r.where > 0 # Must check again here # Do actual cleanup here r.where = 0 end finally unlock(client_refs) end end nothing end
関連する第三の戦略は、イールドフリーキューを使用することです。現在、Baseにはロックフリーキューが実装されていませんが、
Base.IntrusiveLinkedListSynchronized{T}
が適しています。これは、イベントループを持つコードに対して頻繁に良い戦略となります。例えば、この戦略はGtk.jl
によってライフタイムの参照カウント管理に使用されています。このアプローチでは、finalizer
内で明示的な作業を行わず、代わりに安全なタイミングで実行するためにキューに追加します。実際、Juliaのタスクスケジューラはすでにこれを使用しているため、finalizer
をx -> @spawn do_cleanup(x)
として定義することはこのアプローチの一例です。ただし、これはdo_cleanup
がどのスレッドで実行されるかを制御しないため、do_cleanup
は依然としてロックを取得する必要があります。独自のキューを実装すれば、明示的にそのキューを自分のスレッドからのみ排出することができるため、これは必ずしも真である必要はありません。