====== torque (旧OpenPBS) ======
===== 概要 =====
* 計算機クラスターのジョブ管理スケジューラ
* 異なるジョブを逐次処理させたい場合に便利 (以下の条件の時とか?)
* メモリや CPU を最大まで使うジョブが複数あり、同時に流すとリソースの取り合いになる。最悪の場合、計算機が落ちる。
* コマンドラインで、 && とか ; で複数のジョブをつなげても実現できるけど、その後に追加のジョブが入った場合は?
* ジョブの終了時間を予測し、マージンをとって、at コマンドで時間を指定してジョブを実行する方法もあるけど、マージン分の時間がもったいない。予測が外れたらリソースの取り合いになる。
* 要はプリンターの印刷状況画面のキュー (印刷データ) が、ジョブに置き換わっただけ。
* 別に計算機クラスターである必要はなく、自分の PC に入れても問題ない
* Ubuntu (Debianも?)では、torque-server (サーバ用)、torque-scheduler (スケジューラ)、torque-mom (ノード用) の 3 つのパッケージで機能する
* スケジューラを変えるなどすることもあるようだ
===== 使い方 =====
* ジョブ投入\\ $ qsub [オプション] ジョブファイル
* オプション: ジョブファイルのオプションと同じ ([[#ジョブファイル]])
* ジョブ一覧\\ $ qstat [オプション]
Job id Name User Time Use S Queue
------------------------- ---------------- --------------- -------- - -----
760.servername JOB_NAME1 hoge 311:35:2 R F
762.servername JOB_NAME2 hoge 165:50:2 R F
860.servername JOB_NAME3 fuga 03:03:40 R F
* Job id: 投入順に番号が付けられる (job id を指定するコマンドでは、最初の数字だけで十分)
* Name: ジョブ名
* qsub の -N オプションや、ジョブファイルの PBS -N で指定が可能
* オプションなどで指定されていない場合は、ジョブファイル名の先頭から15文字が使われる
* User: ジョブを投入したユーザ名
* Time: ジョブ処理にかかっている時間 (複数の CPU を指定している場合は、CPU 数に合わせて倍になる)
* S: ステータス
* R: Running (処理中)
* Q: Queue (待機中)
* H: Hold (保留中; ジョブの順番が回ってきても処理しない)
* E: Exit (終了; ?)
* T: 移行中(?)
* W: 待機中(?)
* Queue: ジョブが所属しているキュー
* ジョブ削除\\ $ qdel ジョブID ...
* ジョブIDは複数指定が可能
* ジョブの順序の入れ替え\\ $ qorder ジョブID1 ジョブID2
* ジョブの保留(ジョブ実行の順番が回ってきても実行しない) \\ $ qhold ジョブID1 ジョブID2 ...
* ジョブの保留解除\\ $ qrls ジョブID1 ジョブID2 ...
* ジョブの実行\\ $ qrun ジョブID1 ジョブID2 ...
* キューの変更\\ $ qmove 変更後のキュー名 ジョブID1 ジョブID2 ...
* ジョブの属性変更\\ $ qalter [投入時の属性オプション] ジョブID1 ジョブID2 ...
* ''投入時の属性オプション'' とは、qsub に与えた ''-l'' や ''-j''、''-m''、''-N'' などのノードやジョブタイトルなどの属性 (詳しくは、[[#ジョブファイル | ジョブオプション]] を参照)
* qhold してから qalter、qrls して使うと良い
* ただし、ジョブ内容は変更できない (例えば、特定のノードでのみ有効なジョブコマンドを属性変更したノード先では使えないし、ジョブが ''mpirun -n 16'' で 16 CPU 使うのに対し、''ppn=4'' で 4 CPU に変更したりするとエラーで落ちるので注意)
* ジョブにシグナルを送信\\ $ qsig -s シグナル ジョブID
* STOP: ジョブのサスペンド(ジョブを終了することなく、CPU を空ける; ただし、torque としては CPU が空くわけではないので、次のジョブは実行されない)
* CONT: サスペンドしたジョブの再開
===== ジョブファイル =====
* ジョブの内容を書いたシェルスクリプト
* シバン行 (#!/bin/bash など) に続いて、''#PBS ...'' で始まるジョブ指定
* 例 (bash ベースの場合): \\
#!/bin/bash
#PBS -V
#PBS -l nodes=1:ppn=4
#PBS -j oe
#PBS -N jobname
cd ${PBS_O_WORKDIR}
実行コマンド
:
* ${PBS_O_WORKDIR}: torque が利用する作業ディレクトリ (必ず書く必要がある)
* オプション (qsub のオプションと同じ)
^ オプション ^ 意味 ^ 値 ^
|-V|ジョブを投入した所の環境変数をすべて、ジョブファイルにも適用する| |
|-v|ジョブを投入した所の環境変数を指定した分だけ、ジョブファイルにも適用する| |
|-q|キューの指定| |
|-j|出力ファイルの制御|oe: 標準出力と標準エラーを標準ファイル(*.o__ジョブID__)にまとめる, eo: 標準出力と標準エラーを標準エラーファイル(*.e__ジョブID__)にまとめる, 指定しない場合は、それぞれのファイルが出力される|
|-o|標準出力ファイルのパス| |
|-e|標準エラーファイルのパス| |
|-m|メール送信の方法|次の文字の組み合わせでメールの送信タイミングを指定 a: ジョブが失敗, b: ジョブが開始, e: ジョブが終了, n: 何もしない|
|-M|メールの送信先| |
|-l|リソースの指定(複数ある場合は、カンマで区切る)|walltime=__24:00:00__ (CPU使用時間制限; CPU数は考慮しない時間)|
|:::|:::|nodes=__2__:ppn=__2__ (2CPUずつ2ノードを使う; 計4CPU)|
|:::|:::|nodes=__ノード1__:ppn=__3__+__ノード2__:ppn=__2__+__ノード3__:ppn=__1__ (特定のノードを利用する場合はノード名を書いて + で結合する)|
|:::|:::|mem, ncpu が使える|
|-N|ジョブ名|指定しない場合は、ジョブファイル名の先頭から15文字|
* 参考サイト: [[http://blog.goo.ne.jp/sdpaninf/e/a4dae2ad412788c5ef75094ae6110f40 | PBS 使用時に特定のノードを避ける方法 - 最適化問題に対する超高速&安定計算]]
===== 導入方法 =====
==== apt-get による導入 ====
* リポジトリにある torque を apt-get で導入する方法
* 利点
* 設定は面倒だが、インストールは楽。
* 依存関係のパッケージも同時にインストールしてくれる
* 短所
* 特定のバージョンしか扱えない (Ubuntu 14.04 で 2.4.16)
* 2016/07/19 現在、最新版は 6.0.1 であるため、相当古い。
* GPU に対応しているのは、2.5.6, 3.0.2 移行のバージョンであるため、リポジトリにあるものでは GPU マシンへジョブを投入できない。(ノードリストに gpus が入っていると segfault する)
- [[分子シミュレーション関連/環境構築/Torque (旧PBS)/apt-getによる導入|導入手順]]
- [[分子シミュレーション関連/環境構築/Torque (旧PBS)/サーバの設定|サーバの設定]]
==== コンパイルによる導入 ====
* ソースからコンパイル、インストールする方法
* 長所
* 最新版や特定のバージョンが使える
* 最新バージョンでは GPU マシンへのジョブ投入ができる
* 短所
* インストールが面倒
* 依存関係などを調べる必要がある
* 設定項目が環境に依存する
- [[分子シミュレーション関連/環境構築/Torque (旧PBS)/コンパイルによる導入|導入手順]]
- [[分子シミュレーション関連/環境構築/Torque (旧PBS)/サーバの設定|サーバの設定]]
===== キューの設定項目 =====
===== ノードの追加 =====
/var/spool/torque/server_priv/nodes を編集して、torque サーバプログラムを再起動させて適用する方法もあるが、qmgr でもノードを追加したり削除することができる(ただし、ジョブ実行中のノードでない場合のみ)
$ sudo qmgr
> create node ノード名
> set node ノード名 np = CPU数
> set node ノード名 properties = 名前
> quit
* GPU マシンの場合、さらに ''set node ノード名 gpus = GPU数'' を実行すると GPU の設定ができる (ただし、Torque 2.5.6, 3.0.2 以降に限る)
* この後に、''qnodes -a'' を実行すると、ノードが追加されたことが分かる他、/var/spool/torque/server_priv/nodes を見ると、追記されている。
* これを応用すると、実行中のキュー以外のキューをサーバプログラムを止めることなく、変更することができる。
* 参考サイト: [[http://docs.adaptivecomputing.com/torque/4-1-4/Content/topics/3-nodes/managingNodes.htm | Managing nodes]]
===== その他 =====
* 長時間ジョブを別々のキューで走らせた時に後方にある一方のキューが動かない
* 例:
- CPU が 2 つある計算機上で、CPU を 1 つのみ使い、1 つずつしか走らせることができないキュー A, B にジョブを 3 つずつ投入する予定である (計6ジョブ)
* ジョブ A1, A2, A3
* ジョブ B1, B2, B3
* それぞれのジョブは 25 時間以上かかるものとする
- 先にキュー A に 3 ジョブ (A1, A2, A3) 投入する (CPU は 1 つしか使っていない状態)
- 25時間後に、キュー B の 3 ジョブ (B1, B2, B3) を投入する (本来ならば、キュー B のジョブの処理がすぐに開始されるはず…)
- なぜか、キュー B のジョブが開始しない
* 原因: starving job 機構
* ジョブスケジューラはジョブの処理数を上げるため、指定された walltime が短いジョブから順に処理していく。
* しかし、これだと walltime が長いジョブは、短いジョブが後から次々と投入されると、一向に処理されない状態になる
* これを解決するために、starving job 機構があり、待機状態にあるジョブ (walltime が長いジョブ) が一定時間超えると、そのジョブを優先的に処理しようとする。
* torque の starving job 機構のデフォルトの設定時間は 24 時間
* 例で示した場合、A1 の処理中に 24 時間が経過し、A2, A3 が優先的に処理されるように設定されるが、キュー A はそもそも同時に 1 つしか処理できないため、CPU が 1 つ空いたまま、B1, B2, B3 は待機状態となる。
* キューに使用 CPU や同時ジョブ処理数の制限がかかっていると、例のような問題が起こる
* 解決方法 (/var/spool/torque/sched_priv/sched_config の編集)
* starving job 機構の無効化
* ''help_starving_jobs true ALL'' の true を false に変える
* 機構が有効になるまでの時間の変更
* ''max_starve: 24:00:00'' の時間を長くする
* job starving 機構の問題の見分け方
* ''$ qstat -f'' でジョブ状態を表示し、その中に ''comment = Not Running: Draining system to allow starving job to run'' とあれば、この問題でジョブが処理されないことになる。
===== 参考サイト =====
* [[http://www.nas.nasa.gov/hecc/support/kb/commonly-used-qsub-options-in-pbs-scripts-or-in-the-qsub-command-line_175.html | Commonly Used QSUB Options in PBS Scripts or in the QSUB Command Line - HECC Knowledge Base]] ジョブファイルオプション
* 特定のノードにのみジョブを流す [[http://docs.adaptivecomputing.com/torque/4-1-3/Content/topics/3-nodes/nodeProperties.htm | Node properties]]
{{tag>Linux サーバ 分子シミュレーション}}