FAQ

FAQ - よくある質問とその答え

FAQ とは "Frequently Asked (またはAnswered) Questions" の略称です。
CfCAの共同利用計算機に関して利用者各位よりこれまでに寄せられた質問のうち、
質問の頻度や重要性が高いと思われる質問とそれへの典型的な回答例を以下にまとめました。
各計算機システムの利用の手引きを読んで不明な点があれば、
窓口へ問い合わせる前に以下のFAQ内に必要な情報が無いかどうかを調べましょう。



XC50に関する質問



GPUクラスタに関する質問



GRAPEシステムに関する質問



計算サーバに関する質問



解析サーバに関する質問



ネットワーク接続に関する質問



該非判定に関する質問



その他の物事に関する質問





XC50に関する質問


Q.
NISパスワードを変更するにはどうすれば良いですか?

A.
以下のコマンド

  yppasswd user_id

で変更できます。なお新しいパスワードが反映されるまで数分かかるのでご注意下さい。
またCfCAの他機材(解析サーバなど)とパスワードが共通化されていますので、パスワード変更を行うと他の機材にも反映されます。


Q.
ログインシェルを変更するにはどうすれば良いですか?

A.
以下のコマンド

  ypchsh user_id

で変更できます。bash, csh, tcsh, ksh, zshが選択可能です。
NISパスワード変更と同様に、反映まで数分かかるのでご注意下さい。
また、御自分が現在ご使用のシェルは以下で確認できます。

  finger user_id

Q.
私のジョブが長いこと待ち状態にあります。ジョブ開始時刻を知る方法はありますか?

A.
申し訳ありません、ジョブの実行開始時刻を正確に知る方法は準備されておりません。
PBSジョブは原則として投入された順に実行されますので、XC50が混雑している場合にはジョブの投入から実行までに少々のお時間が必要となります。
また小規模なジョブと比較して多数のノードを必要とするジョブは、システムが混雑していると実行されづらい傾向があります。
ご不便をお掛けしますが今しばらくお待ちください。


Q.
エラーメッセージ "export: Command not found." が出てジョブが走りません。

A.
ログインシェルとスクリプトの記法の不一致により、ジョブがうまく投げられないことがあります。
特に、利用手引きのスクリプト例はbashで書かれていますので、cshおよびtcshのユーザはご注意ください。
例えばcshやtcshのユーザがジョブスクリプト中で

  export OMP_NUM_THREADS=1

としても、認識されません。

  setenv OMP_NUM_THREADS 1

と記述してください。


Q.
"relocation truncated to fit" とはどのような意味でしょうか?
私のコードをコンパイルすると以下のエラーが出、コンパイルが止まります。対策は何でしょうか?

  Linking ...
  /opt/cray/mpt/5.6.3/gni/mpich2-cray/74/lib/libmpich_cray.a(hogehoge.o): In function `MPID_nem_gni_process_remote_data_ack':
  hogehoge.c:(.text+0x15b): relocation truncated to fit: R_X86_64_32S against symbol `MPID_nem_gni_send_recv_bufs' defined
    in COMMON section in /opt/cray/mpt/5.6.3/gni/mpich2-cray/74/lib/libmpich_cray.a(hoge.o)
  hogehoge.c:(.text+0x15b): relocation truncated to fit: R_X86_64_32S against symbol `MPID_nem_gni_send_recv_bufs' defined
    in COMMON section in /opt/cray/mpt/5.6.3/gni/mpich2-cray/74/lib/libmpich_cray.a(hoge.o)
  hogehoge.c:(.text+0x216): relocation truncated to fit: R_X86_64_32S against symbol `MPID_nem_gni_send_bufs' defined
    in COMMON section in /opt/cray/mpt/5.6.3/gni/mpich2-cray/74/lib/libmpich_cray.a(hoge.o)
  hogehoge.c:(.text+0x222): relocation truncated to fit: R_X86_64_32S against symbol `MPID_nem_gni_g2g_bufs' defined
    in COMMON section in /opt/cray/mpt/5.6.3/gni/mpich2-cray/74/lib/libmpich_cray.a(hoge.o)
  /opt/cray/mpt/5.6.3/gni/mpich2-cray/74/lib/libmpich_cray.a(hogehoge.o): In function `MPID_nem_gni_process_ch3_pkt_w_data':
  hogehoge.c:(.text+0x3f7): relocation truncated to fit: R_X86_64_PC32 against symbol `_cray_mpi_memcpy' defined
    in COMMON section in /opt/cray/mpt/5.6.3/gni/mpich2-cray/74/lib/libmpich_cray.a(allreduce.o)
  /opt/cray/mpt/5.6.3/gni/mpich2-cray/74/lib/libmpich_cray.a(hogehoge.o): In function `MPID_nem_gni_progress_localCQ':
  hogehoge.c:(.text+0xdee): relocation truncated to fit: R_X86_64_PC32 against symbol `MPID_nem_gni_local_nic_addrs' defined
    in COMMON section in /opt/cray/mpt/5.6.3/gni/mpich2-cray/74/lib/libmpich_cray.a(hoge.o)
  hogehoge.c:(.text+0xe7f): relocation truncated to fit: R_X86_64_PC32 against symbol `MPID_nem_gni_local_nic_addrs' defined
    in COMMON section in /opt/cray/mpt/5.6.3/gni/mpich2-cray/74/lib/libmpich_cray.a(hoge.o)
  hogehoge.c:(.text+0xe99): relocation truncated to fit: R_X86_64_PC32 against symbol `MPID_nem_gni_nic_hndls' defined
    in COMMON section in /opt/cray/mpt/5.6.3/gni/mpich2-cray/74/lib/libmpich_cray.a(hoge.o)
  /opt/cray/mpt/5.6.3/gni/mpich2-cray/74/lib/libmpich_cray.a(hogehoge.o): In function `MPID_nem_gni_progress_remote_data':
  hogehoge.c:(.text+0x100a): relocation truncated to fit: R_X86_64_PC32 against symbol `MPID_nem_gni_nic_hndls' defined
    in COMMON section in /opt/cray/mpt/5.6.3/gni/mpich2-cray/74/lib/libmpich_cray.a(hoge.o)
  hogehoge.c:(.text+0x10f6): relocation truncated to fit: R_X86_64_PC32 against symbol `MPID_nem_gni_nic_hndls' defined
    in COMMON section in /opt/cray/mpt/5.6.3/gni/mpich2-cray/74/lib/libmpich_cray.a(hoge.o)
  /opt/cray/mpt/5.6.3/gni/mpich2-cray/74/lib/libmpich_cray.a(hogehoge.o): In function `MPID_nem_gni_process_remote_data':
  hogehoge.c:(.text+0x164c): relocation truncated to fit: R_X86_64_32S against symbol `MPID_nem_gni_queue_work_head' defined
    in COMMON section in /opt/cray/mpt/5.6.3/gni/mpich2-cray/74/lib/libmpich_cray.a(hoge.o)
  hogehoge.c:(.text+0x1653): additional relocation overflows omitted from the output
  make: *** [main] エラー 1

A.
これはコンパイル時に使用されるメモリがデフォルトで割り当てられる2 GBを超えた時に見られる典型的なエラーです。
最も簡単な対処法は、コンパイル時に下記のオプションを追加するものです。
クレイコンパイラをお使いならば、以下を実行します。

  ftn -hpic -dynammic f.f90

GNUコンパイラをお使いならば、以下です。

  ftn -fpic -dynamic -mcmodel=medium f.f90

インテルコンパイラをお使いならば、以下です。

  ftn -fpic -dynamic -shared-intel -mcmodel=medium f.f90

上記のコマンドを打つことでコンパイル時に2GB以上のメモリを使うことができます。
このオプションを使用することの短所、および他の対処法については利用手引きを参照してください。


Q.
GSLライブラリを使用したいのですが、どうすれば良いでしょう?

A.
モジュールをロードしてください。

  $ module load gsl

でロードできます。そして

  $ echo ${GSL_DIR}
  /work/opt/local/gsl/2.4/INTEL/180

とすることでライブラリのディレクトリパスが分かります。
XC50上で利用できるライブラリとその使用法に関しては、利用手引きを参照して下さい。


Q.
異常終了するジョブのトレースバック情報を得るにはどうすれば良いでしょう?

A.
コンパイル時にオプションを加えることでトレースバック情報を得ることができます。
具体的な実行方法についてはプログラミングガイドを参照して下さい。
例えば、Cray Fortranの場合は以下を行います。

  • 環境変数 ATP_ENABLED を 1 に設定する
  • コンパイル時の-Gオプションに低い値を付与する (0か1)
  • コンパイル時に-K trap=divz,fp,invオプションを付与する

Intel Fortranの場合は以下を行います。

  • 最適化のレベルを下げる
  • トレースバックオプションを付与する
  • シンボルテーブルオプションを付与する

これらによりトレースバック情報が出力されるようになります。


Q.
他ユーザが使用していないのにdebugキューに投入したジョブが実行待ちになる。何故?

A.
XC50システムではdebug用に2ノードが確保されています。
debugキューの使用にはキュー名の指定が必要です。

  #PBS -q debug

XC30時代とは異なりmpplabelsの指定は不要になりましたので御注意ください。


Q.
ログイン時に /usr/bin/xauth: error in locking authority file ... と言われる。
そしてアプリケーション等を何ひとつ起動できない。これはなぜか?

A.
ログイン時に

  /usr/bin/xauth: error in locking authority file /home/user_name/.Xauthority

といったメッセージが表示され、アプリケーションが起動できない場合には、
/home領域がquota超過している可能性があります。
quotaの使用量は以下で調べられます。

  quota -v

ファイルの移動や削除を行なって使用量を上限未満にしてください。


Q.
ログイン時に Could not resolve hostname xc.cfca.nao.ac.jp ... と言われる。
これは何を意味するのか?

A.
VPN接続後にXC50にログインする際、もしも

  ssh -Y username@xc.cfca.nao.ac.jp
  ssh: Could not resolve hostname xc.cfca.nao.ac.jp: nodename nor servname provided, or not known

と表示される場合には国立天文台のDNS環境に問題が生じている可能性があります。
こういう時には以下のどれかを試してください。

  ssh -Y username@xc01.cfca.nao.ac.jp
  ssh -Y username@xc02.cfca.nao.ac.jp
  ssh -Y username@xc03.cfca.nao.ac.jp
  ssh -Y username@xc04.cfca.nao.ac.jp

もしくはIPアドレスの直打ちという手もあります。

  ssh -Y username@133.40.17.11
  ssh -Y username@133.40.17.12
  ssh -Y username@133.40.17.13
  ssh -Y username@133.40.17.14

Q.
コンパイルオプション(-h omp -O0)では OpenMP 並列が有効にならないのか?

A.
-O0オプションを利用すると、-h ompオプションを付けていてもOpenMP指示行は有効になりません。
OpenMP指示行を有効にするには -O1 以上をご利用ください。
なおOpenMP指示行による並列化が行われているか否かについて、
-h msgs オプションを付けるとコンパイル時に標準出力にどのような最適化や並列化が行われたかについてメッセージ出力されます。


Q.
hybridコードの実行時、Intelのshared libraryが見つからずにエラーになります。
コンパイラはIntelのものを使っています。

  ./XC.exe: error while loading shared libraries: libifcore.so.5: cannot open shared object file: No such file or directory
  error while loading shared libraries: libifcore.so.5: cannot open shared object file: No such file or directory

A.
上記のエラーが出力されるのはログインノードで指定した実行環境が計算ノードに引き継がれない事が原因です。
ログインノード上でPrgEnv-intelに変更してプログラムをコンパイルしても、バッチにより計算ノード上でプログラムを実行する際にはデフォルトの環境であるPrgEnv-crayで実行しようとしてしまいます。
PrgEnv-cray以外の環境でプログラムを実行される場合には、バッチスクリプト中で以下のようにmoduleの切り替えをする必要があります。

  source /opt/modules/default/init/{bash/tcsh/csh/...}
  module swap PrgEnv-cray PrgEnv-intel

バッチスクリプトの例は利用の手引き内の「バッチジョブスクリプト例(8) ジョブ内でmoduleコマンドを使用する例」をご参照ください。


Q.
aprun非使用時に実行できるコマンドをaprunの中で実行するとエラーが出る。

A.
Pythonなどのソフトウェアを各自で/home/利用者名/にインストールして、aprunで実行すると、エラーが起こります。XCシステムではユーザがアクセスできるファイルシステムは /home と /work です。
/home はNFSサーバが提供しますが、/work は高速なI/O性能を発揮するよう Luster ファイルシステムで構成されています。
ユーザのインターフェースとなるログインノードは /home と /work の双方をマウントしていますが,
計算用途の計算ノードでは/homeはマウントせず,/workのみをマウントしています.
またXCシステムのプログラムランチャ(aprunコマンド)で起動されたプログラムは,計算ノードで実行されます.
一方でaprunを用いずにプログラムを起動した場合、コードログインノードで実行されます.
ユーザが自分でインストールしたソフトウェアを計算ノードで用いる場合はディレクトリ
/home/ユーザ名/ でなく /work/ユーザ名/ 以下にインストールすることで、正常に実行できるようになります.


Q.
/work/ユーザ名/ に勝手にアプケーションをインストールしても良いのでしょうか?
この上にある質問への回答には以下とあります。
「ユーザが自分でインストールしたソフトウェアを計算ノードで用いる場合は
ディレクトリ /home/ユーザ名/ でなく /work/ユーザ名/ 以下にインストールすることで、
正常に実行できるようになります.」
と言うことは、/work/ユーザ名/ 下に自分で勝手にアプリケーションをインストールしても良いという事でしょうか?

A.
はい、ご自分で勝手にインストールして頂いて結構です。
但し当該アプリケーションをqsubスクリプトに記してジョブをサブミットする際には
ログインノード上で計算が直接実行されないよう、必ずaprunから起動してください。
なお、このような目的のためには計算サーバや解析サーバなど他の計算機がより有用である場合もあります。
作業内容に応じてそちらのご利用もご検討ください。


Q.
write文が出力する一行の長さの制限を変更する方法は?

A.
書式付式付出力の制限は、OPEN文のRECL指定子において

  open(10,FILE=file,FORM='formatted',RECL=54000) 

のようにバッファサイズを指定することで、大きなサイズの出力が可能になります。


Q.
コードの一部分のみで最適化レベルを変更するにはどうすれば良いか?

A.
関数の範囲で最適化レベルを変更される場合には、以下の二種の方法が考えられます。

  1. 該当関数を個別ファイルとして分割し、そのファイルについてのみ最適化レベルを変更してコンパイルする。
  2. 該当関数に対して”#pragma noopt” directiveを挿入し、最適化を無効にする。

上記2.の場合は該当関数に対する最適化の無効をコンパイラに指示するので、全ての自動最適化が無効になってしまいます。
しかしdirectiveを挿入するだけで良く、有効無効の切り替えも簡単に行えます。
詳細はman intro_pragmasとman optをご参照ください。
上記1.の場合は個別ファイルへの切り出しとMakefileの修正が必要になります。
しかし該当関数へのコンパイルオプションを任意に設定出来るので、
結果に影響しない程度の最適化を適用出来る可能性があります。
また個別ファイルにする事で、問題の分析がし易くなり、関数全体ではなく内部の処理レベルで対応をする事が出来るようになるかもしれません。
なおcrayccのコンパイルオプションにて、-h list や -h report 等のオプションをご利用いただく事で、
コードのどの部分にどのような最適化がなされたのかを確認する事が出来ます。


Q.
ジョブを走らせた直後にApplication ... exit codes といったエラーが出る。

A.
以下のようなエラーメッセージ

  Application 1331683 exit codes: 134
  Application 1331683 exit signals: Killed

が出る際は quota の容量制限を超している可能性があります。不要なファイルを削除してから再実行してください。


Q.
XC50で使える各キューの資源量を教えてください。

A.
XC50システムの各項をご参照ください。また、XC50へのログイン後にqlsコマンドで確認が可能です。


Q.
ファイルの自動削除と上位ディレクトリへのアクセスに関する質問です。
一定期間にわたりアクセスおよび属性変更が行われていないファイルは、上位ディレクトリへのアクセス等があったとしても自動削除の対象になるのですか?

A.
はい、なります。XC50システムでは/work/以下に置かれた全てのファイルについて「最終アクセス時刻」および「最終ステータス変更時刻」を読み取り、
そのどちらにも変更がなかったファイルが削除されます。
「最終アクセス時刻」あるいは「最終ステータス変更時刻」のいずれかが変更されているファイルは、削除されません。
最後のアクセス等から削除判定までの期間についてはユーザーズガイドにてご確認ください。
ファイルの更新時刻は以下のコマンドで確認できます。「最終アクセス時刻」は以下:

  ls -lu

「最終ステータス変更時刻」は以下:

  ls -lc

Q.
ファイルの最終アクセス時刻や最終ステータス変更時刻が更新される条件を知りたい。

A.
これはXC50に限ったことではありませんが、最終アクセス時刻はファイルを読み込んだ段階で更新されます。
これはプログラム実行の際にファイルをreadすることも含みます。
openのみの実行や上書きでは更新されません。
最終ステータス変更時刻は、例えば以下の操作により更新されます。

  • chmodで権限を変更する
  • ファイルを上書きする
  • catやviコマンドを使い、ファイルの内容を読み込む

Q.
私のPBSジョブをhold状態にしたい。

A.
以下のコマンド

  qalter -h u job_id

または

  qhold -h u job_id

でhold状態へと変更することができます。hold状態を解除するときは以下を実行します。

  qrls -h u job_id

Q.
投入済みのPBSジョブの実行順を変更したい。

A.
ジョブの依存関係を再設定することにより変更可能です。
たとえばジョブ間の元々の依存関係がafterokの場合は、hold状態で以下を実行します。

  qalter -W depend=afterok:job1_id job2_id ...
  qstat -f job1_id | grep depend

これによりジョブの実行順序がjob1, job2, ...となります。ただし依存関係の条件は変更しないようにご注意ください。


Q.
PBSのkill delayパラメータを指定したい。

A.
一般ユーザがkill_delayに対して持つ権限はreadのみのため、指定することはできません。
また、walltime limitより前の任意の時間を指定してシグナルを送信する、といった機能のコマンドも実装されていません。
ただしシグナルを送信すること自体は、以下のコマンドで行えます。

  qsig [-s signal] job_id

よって、たとえばsleep等を使ってqsigコマンドの実行までの時間を待機させることにより
現時点から何{秒/分/時間}後に送信させる、などの対応は可能です。


Q.
ジョブの並列化効率を見積もる際、どの程度の計算資源量を前提とすればよいか?
この数値は利用申請書に記すために必要となるものです。

A.
「計算量の見積もり」として仮定している資源以上での見積もりが望ましいです。
この見積もり算出のためにtestキューを用意しているので、ご利用ください。
募集要項のページにある並列化効率の算出をご参照ください。


Q.
実行時にPlease verify that both the operating system and the processor supportと言われる。

A.
ログインノード上でプログラムが実行されていないかどうかをご確認ください。
実行されていた場合は、パッチジョブとしてください。
Skylake上でしか実行できないフラグが立っているようなとき、
ログインノード上でプログラムを実行するとCPU互換性がないと判断され、エラーになります。
内部設定されているコンパイルオプションは cc -craype-verbose コマンドによりご確認いただけます。


Q.
私の計算に伴って出力されるはずのログファイルが出力されなくなりました。
つい先日までは正常に出力されていましたが、急に出力できなくなったのです。
これは何故でしょうか?なおqstatで見るジョブstatusはRで、正常に見えます。

A.
/work/領域に置かれたファイル総量がsoft limit (8TB)を超過したと思われます。

  xc$ quota
  === /home Quota ===
  Disk quotas for user ******** (uid ****):
       Filesystem  blocks   quota   limit   grace   files   quota   limit   grace
  133.40.17.21:/home
                13698124  20000000 50000000           26664       0       0
  
  === /work Quota ===
  Disk quotas for user ******** (uid ****):
       Filesystem  kbytes   quota   limit   grace   files   quota   limit   grace
          /work 8466700964* 8192000000 10240000000    none  609020       0       0       -

上記のうち/workについての記載の意味は以下です。左から

  • 使用容量 (kbytes)
  • soft limit
  • hard limit
  • soft limitを超えてからの猶予日数
  • :

これより右側はファイル数についての情報ですが、XC50では制限をかけていませんので説明は略します。
上記で特筆すべきは、kbytes 欄の数値の右にアスタリスク *が付いており、soft limitを超過していることです。
また soft limitを超えてからの猶予日数が数値でなく none になっており、既に猶予日数が無いことが示されています。

上記に直接の表示はされませんが
soft limit を過ぎてもデータを書き込める猶予期間(grace period)はこのシステムでは 7 日間です。
それを過ぎると/work/への書き込みが行えなくなり、上記ではこれが発生しています。
不要なファイルを削除して/work/領域の使用容量をlimit以下にして頂き、
改めてジョブを投入し、ログやデータ出力が正常であることを見てください。


Q.
実行中のジョブを一般ユーザがsuspend状態にすることはできますか?
そして、そのジョブを再開(resume)することはできますか?

A.
いいえ、一般ユーザにその権限はありません。管理者権限でのみ可能です。
なお待機状態(ステータスQ)のジョブをhold状態にする操作は一般ユーザにも可能です。
そちらについては少し前の質問をご覧ください。


Q.
XC50を利用している共同研究者の間でファイルを共有しようとしています。
これを簡単に実現できる方法、またはCfCAのお薦めや規約があれば教えてください。

A.
以下はXC50上に限らない一般的な話ですが、コマンド chmod と find を使って
当該ファイルまたはディレクトリのpermission (mode)をまとめて変更するのが簡単でしょう。
例えば共有したいディレクトリ以下のファイルのpermissionをすべて 644 にするには以下の方法があります。

  find 共有したいディレクトリ -type f -print | xargs chmod 644

または

  find 共有したいディレクトリ -type f -print -exec chmod 644 {} \;

また、共有したいディレクトリ以下のサブディレクトリのpermissionをすべて 755 にするには以下の方法があります。

  find 共有したいディレクトリ -type d -print | xargs chmod 755

または

  find 共有したいディレクトリ -type d -print -exec chmod 755 {} \;

これ以外にも find には多様な使い方がありますので、各自で工夫してみてください。

なお上記を実施するとあなたの共同研究者のみならず、同一の計算機にアカウントを持つ全利用者が
当該ファイルやディレクトリにアクセス可能になることに留意してください。
原理的には特定のグループに属する利用者のみにアクセス権を与えることもできますが、
CfCAの共同利用機材の利用者はすべて同一のグループ(user)に属する設定となっており、
特定の利用者同士を特定のグループに属させる設定には今のところしておりません。予めご了承ください。


Q.
XC50のログインノードで open コマンドは使えるでしょうか?
試してみたところ、以下のように言われました。

xc02$ open file.txt
open: Command not found.

A.
使えません。ファイルの編集にはviなどのエディタをお使いください。



GPUクラスタに関する質問


Q.
プログラムの実行中にGPUメモリ使用量を確認したい。

A.
プログラム中から cudaMemGetInfo 関数
https://docs.nvidia.com/cuda/cuda-runtime-api/group__CUDART__MEMORY.html
を呼ぶことでデバイスメモリの総容量と空き容量を取得することができます。
Python から呼び出すことも可能です。
https://nvidia.github.io/cuda-python/module/cudart.html#cuda.cudart.cudaMemGetInfo
同じ計算ノードに別のジョブを投入して、そのジョブから nvidia-smi を実行しても、先に走っていたジョブが使用しているGPUの情報を得ることはできません。実行中のジョブからはそのジョブに割り付けられたGPUしか見えず、1つのGPUが同時に2つ以上のジョブに割り付けられることは無いためです。


Q.
GPUクラスタのanaconda環境にパッケージをインストールしたいです。
現在私はGPUクラスタ上でanaconda 3環境を使っていますが、
デフォルトでは使えないパッケージを自力でインストールすることを考えています。
それは可能でしょうか?可能な場合、具体的にはどうすれば良いでしょうか?

A.
可能です。必要となるファイルをご自分の環境にダウンロードした上で、

$ pip install --user ./hoge-*.**.*.tar.gz

などをお試しください。こちらのQA(英文)も参考になるかと思われます。



GRAPEシステムに関する質問


Q.
GRAPE-DRで4コアを使って並列計算し、各々のコアに1チップのGRAPE-DRを割り当てる事は可能か?
(GRAPE-DR:2011-04-08)

A.
各コアにチップを割り当てる計算は可能です。特定のチップのみを使用する方法は大きく分けて2つあります。
まず1つのプロセスからOpenMPなどで個別のチップを制御する場合は

  void g5_openMC(int devid);

のようにチップを指定するMC関数群があります。使用可能な関数はインクルードファイルをご覧下さい。
また、1つのプロセスから指定のチップを1つ使う場合は、MCではない通常の関数群を使用して、
環境変数GDEVICEで使用するチップを指定する方法があります。例えば4チップ使う場合は

  GDEVICE="0 1 2 3"

によってチップ0から3までの4チップ全て使用します。もし0, 1の2チップのみを使う場合は

  GDEVICE="0 1"

とします。


Q.
GRAPE-DRでの計算時間がmicro GRAPE使用時より長くなってしまう。
(GRAPE-DR:2011-04-08)

A.
プログラムの高速化はご使用のコードに依存します。
micro GRAPEよりも遅くなるとのことですが、通信速度が原因となっている可能性があります。
粒子数が少ない場合はDRの使用チップ数(デフォルトでは最大の4チップ)を少なくすると改善する場合があります。


Q.
計算中incorrect ack 1というメッセージが出る。
(GRAPE-DR:2013-01-18)

A.
incorrect ack 1というメッセージは温度測定のICとの通信に失敗したときに表示されます。
プログラムが異常終了しなければretryして成功していますので、問題ありません。


Q.
g6calc_first_allでsegmentation faultが発生する。
(GRAPE-DR:2013-01-18)

A.
g6calc_firsthalf_all で渡す配列はポインタの後にnpipe 個(256個)のデータが存在していることが必要です。
これより小さい配列を渡した場合はエラーが発生する場合があります。


Q.
g++でhibdrv.hをincludeするとコンパイルエラーが発生する。
(GRAPE-DR:2013-01-18)

A.
hibdrv.hはC言語を前提に作られており現状では、g++でコンパイルできません。
ただGRAPE-5, GRAPE-6の互換関数のみを使っている場合はhibdrv.hのインクルードは不要です。
hibdrv.hを使わなくても動くことを確認してください。


Q.
GRAPE-DRのg6互換ライブラリは、set_j_particleを呼び出す度にDRと通信をして粒子を送っているか?
(GRAPE-DR:2013-09-05)

A.
はい、その通りです。


Q.
torqueからqsubするコードはmuv01.cfca.nao.ac.jp上でコンパイルしても大丈夫か?
(GRAPE-DR:2013-09-05)

A.
はい。muv01.cfca.nao.ac.jp上でコンパイルして問題ありません。
gdr-07などの計算ノード上でコンパイルする必要はありません。


Q.
GRAPE-DRには近傍粒子リストが無いそうだが、今後実装する予定はあるのか?
(GRAPE-DR:2013-09-05)

A.
GRAPE-DRでは近傍粒子リストを貯めておくメモリが無いため、
GRAPE-6と同様の近傍粒子探索を実装するのは事実上不可能であるとの回答がKFCR社よりありました。
そのため、近傍粒子リストの実装の予定はありません。


Q.
i 粒子とj 粒子に同じ位置の情報を送り、softening parameterを設定しないのに、nanでは無い数値が戻る
ここでは本来nanが戻るはずであるが、何故か。(GRAPE-DR:2013-09-05)

A.
g5_calculate...関数で第i 粒子と第j 粒子に同じ位置情報を設定し、
softening parameterを設定せずに重力を計算すると、自分自身による重力を計算しようします。
この時、関数は非数値 nan を返すのが本来の姿です。
けれども現在のGRAPEライブラリでは、一旦入力されたsoftening parameter値は電源が切れるまで保持されます。
そのためファイルを close, open したあとは全てのパラメータ値を設定し直すことが望まれます。


Q.
g6calc_lasthalf2_allの動作が不安定だが、どうすれば良いか?
(GRAPE-DR:2014-05-14)

A.
粒子数が変化した際に g6calc_lasthalf2_all の動作が不安定になる現象が発生することがあります。
粒子数が変化した後 g6_clase_all と g6_open_all を呼ぶことで、この現象を回避できる可能性があります。


Q.
GRAPE-DRのカットオフ機能が働いていないようだが、どうすれば良いか?
(GRAPE-DR:2015-06-03)

A.
g5_open()の直後に以下の記載を置いてください。

  g5_set_cutoff_table(NULL, 0.0, 0.0, NULL, 0.0, 0.0);

この関数は GRAPE-9 では無効にしているのですが、GRAPE-DR に限っては使用しています。
引数はすべて dummy で結構です。



計算サーバに関する質問


Q.
計算サーバ上でiSALEは使えますか?

A.
はい、使えます。が、誰もが使える訳ではありません。
iSALEの利用には幾つかの条件があります。詳細はiSALE users group in Japan wikiをご覧ください。
iSALE自体に関する問い合わせは上記のiSALE users group in Japanへお願いします。
計算サーバの問題と思われる場合には本プロジェクトの各種問い合わせへご連絡ください。
毎年夏にはiSALEの講習会も開催されています。こちらへの参加もご検討ください。


Q.
計算サーバ上でintel MKL (Math Kernel Library)は使えますか?

A.
はい、使えます。リンク時にオプション-mklを指定してください。


Q.
計算サーバ上でPython 3系は使えますか?

A.
はい、使えます。moduleコマンドを使ってください。

  module load anaconda/3

なおpySALEPlotはPython 2系にしか対応していません。使い分けを工夫してください。


Q.
(About Python) conda or pip does not work on m000.
Anaconda's conda and python's pip seem both available on GP-PC,
but both creating an environment ("conda create --name myenv") and
searching a package on pip ("pip search amuse") end up with an error:

Failed to establish a new connection.

Is there any way to install them on the GP-PC cluster? I also need cmake.

A.
Yes, there is. But first you have to be aware of the following fact.
You cannot connect external servers through pip or conda. This is due to the restriction imposed by NAOJ's firewall, and
we apologize for the inconvenience. You can, however, install the packages on your own user environment as follows:

  1. Install Anaconda in your own home directory.
    • (1) Get the 64-bit installer of Anaconda from https://www.continuum.io/
    • (2) If you use bash, you can install Anaconda as follows:

      % bash Anaoconda3-X.X.X-Linux-x86_64.sh

  2. Get the files of the packages you want (at your localhost). For instance, you find cmake and amuse here:
  3. Send the package files to your home directory on m000 by scp.
  4. Install the packages using conda or pip. For example, you can install cmake as:
    % conda install ./cmake-3.X.X-XXXXXXX.tar.bz2
    

    As for amuse, check out this web site for details of installation.
    Note that the dependencies of installed packages will not be resolved in the above manner.
    Therefore you should manually install additionally required packages.

  5. Confirm that the packages have been installed correctly as follows:
    % conda list cmake
    

Q.
/mwork{1,2} は以前あった作業領域に比べてだいぶ速いようです。何が違うのですか?

A.
その通りです。特に小さなファイルを多数書き込む場合、/mwork{1,2} への書き込み速度は以前にあった作業領域へのそれよりずっと高いです。
これは、/mwork{1,2} がFreeBSDのZFSファイルシステムにssdによるキャッシュ機能を与えたものだからです。
とりわけ小さなファイルを多く書き込む利用者は、その高い速度を体感するでしょう。


Q.
作業用ディレクトリ/mwork{1,2}/にはquota制限は掛かっていますか?

A.
はい、掛かっています。マニュアルを御覧ください。
但し平成31年4月1日時点ではquota溢れが発生しても利用者には電子メールなどでの警告は届きません。
この下にあるQ&A「quotaコマンドを使っても/mwork{1,2}/について情報が現れません」を併わせてお読みください。


Q.
/mwork2/に書き込もうとしたら「ディスク使用量制限を超過しました.」と言われました。
以下のような表示が出ます。

   0.000000e+00cho something > /mwork0/output.txt
  /mwork2/output.txt: ディスク使用量制限を超過しました.

何が起こっており、私はどう対処すれば良いでしょうか?

A.
これは/mwork2/ファイルシステムのquota制限に抵触したためです。
試しに環境変数 LANG を C へ変更すると、より直截なメッセージが出ます。

  % env LANG=C echo something > /mwork2/output.txt
  /mwork0/output.txt: Disk quota exceeded.

不要なファイルを削除または移動してください。
また、この下にあるQ&A「quotaコマンドを使っても/mwork{1,2}について情報が現れません」も併わせてお読みください。


Q.
quotaコマンドを使っても/mwork{1,2}について情報が現れません。

A.
/mwork{1,2}を提供するnfsサーバ(FreeBSD)はm000 (CentOS)とOSが異なるため、
現時点ではquota状況を即時に表示するコマンドが未だありません。
代替として全利用者のquota状況を記したファイル/mwork{1,2}/userspace.txtが準備されており、
これらは60分に1度の頻度で更新されています。このファイルをcatするか、以下のようにしてください。

  grep `whoami` /mwork{1,2}/userspace.txt

すると以下の例のようにご自分の利用状況(右から二欄目の数値)およびquota上限値(右端欄の数値)が表示されます。

/mwork1/userspace.txt:POSIX User  itootk        10.1T    24T
/mwork2/userspace.txt:POSIX User  itootk         224G    24T

Q.
解析サーバから作業領域/mwork{1,2}を見ることはできますか?

A.
はい、できます。お使いください。


Q.
m000からXC50の作業領域(/xc-work)が見えなくなりました。
以前は/misc/xc-workとして見えていた気がしますが、平成31年1月現在は見えません。これは何故でしょう?

A.
本件ではご不便をお掛けしております。
はい、このマウントは平成30年12月の保守作業をもって一旦停止されました。
背景は以下です。平成31年1月現在、水沢-大手町間を繋ぐ高速ネットワーク回線が
残念ながら本来の働きをしておらず、私達の期待に沿った動作が実現しておりません。
そのために計算サーバが設置されている国立天文台三鷹地区と
Cray XC50が設置されている水沢VLBI観測所の接続が時折り不安定化し、
且つそれへの対処は場当たり的なものしか行われていないのが現状です。
よって管理者側としては三鷹-水沢を跨ぐ機器依存性を少しでも減らすべく
m000からXC50 (/xc-work)へのマウントを外しました。ご理解を頂ければ幸いです。
但し解析サーバ(an系機器)からは依然として/xc-workがマウントされており、
従ってm000から/xc-workをマウントしても大勢に影響無いという考えにも一理ございます。
この点についてはプロジェクト内で精査中であり、検討の結果如何では
m000から/xc-workへのマウントを復活させる可能性もございます。今しばらくお待ちください。


Q.
作業領域/mwork1/はいつ復活するのでしょうか?

A.
/mwork1/は平成29(2017)年末に発生した機器故障からの復旧が遅れておりましたが、
令和元(2019)年12月上旬の保守作業にて新機材による供用が再開されました。
利用者の皆様には大きなご迷惑をお掛けしたことをお詫び申し上げます。


Q.
ジョブをqsubしたら以下のエラーが出、正常に投入できません。

  qsub: submit error (Bad UID for job execution MSG=User XXXXXX does not exist in server password file)

A.
計算ノードとサーバ側の通信が一時的に途切れたものと予想されます。やや時間を置いてから再びqsubしてみてください。
何度か試行しても状況が改善しない場合は本プロジェクトの問い合わせウェブページを経由してお問い合わせください。


Q.
PBSスクリプトを実行してもジョブが投入されず、エラーメッセージも出ません。

A.
PBSスクリプトの書き間違えが考えられます。
例えば以下のようにオプション-Nの引数に空白(スペース)が含まれるとジョブ投入は為されません。これはPBSの仕様です。

  #PBS -N cfca test job

詳しくはman pbsをご覧になり、qsubのオプション詳細をお調べください。


Q.
iSALE関係のファイルを受け取りましたが、幾つかが消えました。
私はiSALE利用者なのでファイルiSALE-Dellen.zipを受け取り、
それを展開して/mwork2/の私のディレクトリに置いていました。
すると、今朝になって多くのファイルが消えていることが分かりました。これは何故でしょう?

A.
これは配布されたiSALE関係のファイルの最終アクセス日付が
/mwork2/の定期ファイル削除(atime +120)に抵触したからと予想されます。
配布されたファイル iSALE-Dellen.zip は以下だと思われます。

  m000% ls -l
  合計 3292
  -rw------- 1 root root 3367828  1月 17 09:38 iSALE-Dellen.zip

このzipファイルを展開すると以下のようなファイルが現れるはずです。
以下にある日付はファイルの最終アクセス日付(atime)です。

  m000% ls -lutrR iSALE-Dellen
  iSALE-Dellen:
  合計 4140
  -rw------- 1 root root  144194  7月 21 03:15 parameters.db
  -rw------- 1 root root    1926  7月 21 03:15 material.inp
  -rwx------ 1 root root 1504283  7月 21 03:15 iSALE2D
  -rw------- 1 root root    4610  7月 21 03:15 asteroid.inp
  -rw------- 1 root root    4940  7月 21 03:56 psp_setupPlots.py
  -rw------- 1 root root     756  7月 23 12:54 isale.pbs
  -rw------- 1 root root   48205  7月 23 19:10 pySALEPlot.pyc
  -rw------- 1 root root   67253  7月 23 19:10 pySALEPlot.py
  -rwx------ 1 root root  381143  7月 23 19:10 libpsp.so
  -rw------- 1 root root    1234  7月 23 19:15 R_TrP.py
  -rw------- 1 root root    1201  7月 23 19:16 tracer.py
  -rw------- 1 root root    1260  7月 23 19:17 profile.py
  -rw------- 1 root root    2655  7月 30 07:11 plot.py
  -rw------- 1 root root    2471  7月 30 07:13 DenTmp.py
  drwx------ 2 root root    4096  7月 30 07:15 eos
  
  iSALE-Dellen/eos:
  合計 9068
  -rw------- 1 root root  446667  7月 21 03:15 granit1.aneos
  -rw------- 1 root root 5544808  7月 21 03:56 h2o_ice.aneos
  -rw------- 1 root root    3748  7月 21 03:56 granitm.input
  -rw------- 1 root root    1172  7月 21 03:56 granite.tillo
  -rw------- 1 root root    3593  7月 21 03:56 granite.input
  -rw------- 1 root root  446704  7月 21 03:56 granit2.aneos
  -rw------- 1 root root    1284  7月 21 03:56 gabbro1.tillo
  -rw------- 1 root root    4009  7月 21 03:56 forstrm.input
  -rw------- 1 root root    3791  7月 21 03:56 fayaltm.input
  -rw------- 1 root root    3917  7月 21 03:56 dunite_.input
  -rw------- 1 root root  446681  7月 21 03:56 dunite_.aneos
  -rw------- 1 root root    2731  7月 21 03:56 calcite.input
  -rw------- 1 root root  446696  7月 21 03:56 calcite.aneos
  -rw------- 1 root root    3690  7月 21 03:56 basaltm.input
  -rw------- 1 root root    1050  7月 21 03:56 basalt_.tillo
  -rw------- 1 root root  441233  7月 21 03:56 basalt_.aneos
  -rw------- 1 root root    1114  7月 21 03:56 aluminu.tillo
  -rw------- 1 root root    1168  7月 21 03:56 wettuff.tillo
  -rw------- 1 root root    1088  7月 21 03:56 water__.tillo
  -rw------- 1 root root  446706  7月 21 03:56 water__.aneos
  -rw------- 1 root root  446729  7月 21 03:56 quarzit.aneos
  -rw------- 1 root root    5321  7月 21 03:56 quartzm.input
  -rw------- 1 root root    5216  7月 21 03:56 quartz_.input
  -rw------- 1 root root    1093  7月 21 03:56 pyrex__.tillo
  -rw------- 1 root root    1111  7月 21 03:56 polyeth.tillo
  -rw------- 1 root root     776  7月 21 03:56 perfgas.tillo
  -rw------- 1 root root    1002  7月 21 03:56 miesand.tillo
  -rw------- 1 root root    1175  7月 21 03:56 limesto.tillo
  -rw------- 1 root root    1109  7月 21 03:56 iron___.tillo
  -rw------- 1 root root  446656  7月 21 03:56 iron___.aneos
  -rw------- 1 root root    1357  7月 21 03:56 iceb___.tillo
  -rw------- 1 root root    1025  7月 21 03:56 ice____.tillo
  -rw------- 1 root root    3265  7月 21 03:56 ice____.input
  -rw------- 1 root root    1122  7月 21 03:56 fuseqtz.tillo
  -rw------- 1 root root    1170  7月 21 03:56 drytuff.tillo
  -rw------- 1 root root     785  7月 21 03:56 dry_air.tillo

ご覧のように、各ファイルのatimeは現在より120日以上前のものです(上記の「7月」とは2018年7月のことです)。
この場合、上記ファイルを計算サーバの作業領域 /mwork{1,2}/ に置いて使うと
毎日定時のファイル削除ルーチンに引っ掛かり、ファイルが削除されてしまいます。
これを避けるためには必要なファイルにアクセスしてatimeを更新するか、
もしくは定期的に削除されない/home/以下の領域にファイルを置いてください。


Q.
PBSジョブ終了後に Post job file processing error と言われました。
具体的には、PBSジョブ終了後の通知メール内に以下が記されていました

Date: Thu, 1 Nov 2018 12:36:42 +0900
From: adm 
Subject: PBS JOB 374683.m000.cfca.nao.ac.jp
  
PBS Job Id: 374683.m000.cfca.nao.ac.jp
Job Name:   bcn0839
Post job file processing error; job 374683.m000.cfca.nao.ac.jp on host m097

これは何を意味しているでしょうか?なお計算結果の出力は正常なようです。

A.
詳細を知るため、当該計算ノード上でこのジョブに関するログを探してみました。以下が該当します。

20181024:10/24/2018 14:40:59;0008;pbs_mom;Job;374683.m000.cfca.nao.ac.jp;Started, pid = 1516
20181101:11/01/2018 12:36:09;0080;pbs_mom;Job;374683.m000.cfca.nao.ac.jp;task 00000001 terminated
20181101:11/01/2018 12:36:09;0008;pbs_mom;Job;374683.m000.cfca.nao.ac.jp;Terminated
20181101:11/01/2018 12:36:09;0100;pbs_mom;Job;374683.m000.cfca.nao.ac.jp;task 00000001 cput=186:34:43
20181101:11/01/2018 12:36:09;0008;pbs_mom;Job;374683.m000.cfca.nao.ac.jp;kill_job
20181101:11/01/2018 12:36:09;0100;pbs_mom;Job;374683.m000.cfca.nao.ac.jp;m097 cput=186:34:43 mem=14544kb
20181101:11/01/2018 12:36:09;0008;pbs_mom;Job;374683.m000.cfca.nao.ac.jp;no active tasks
20181101:11/01/2018 12:36:09;0100;pbs_mom;Job;374683.m000.cfca.nao.ac.jp;Obit sent
20181101:11/01/2018 12:36:09;0080;pbs_mom;Job;374683.m000.cfca.nao.ac.jp;copy file request received
20181101:11/01/2018 12:36:09;0080;pbs_mom;Fil;sys_copy;command:
  /bin/cp -rp /var/spool/pbs/spool/374683.m000.cfca.nao.ac.jp.OU /mwork0/itootk/SWIFT.F0/bcn0839/Log.out status=1, try=1
20181101:11/01/2018 12:36:09;0080;pbs_mom;Fil;sys_copy;command:
  /bin/cp -rp /var/spool/pbs/spool/374683.m000.cfca.nao.ac.jp.OU /mwork0/itootk/SWIFT.F0/bcn0839/Log.out status=1, try=2
20181101:11/01/2018 12:36:20;0080;pbs_mom;Fil;sys_copy;command:
  /bin/cp -rp /var/spool/pbs/spool/374683.m000.cfca.nao.ac.jp.OU /mwork0/itootk/SWIFT.F0/bcn0839/Log.out status=1, try=3
20181101:11/01/2018 12:36:20;0080;pbs_mom;Fil;sys_copy;command:
  /bin/cp -rp /var/spool/pbs/spool/374683.m000.cfca.nao.ac.jp.OU /mwork0/itootk/SWIFT.F0/bcn0839/Log.out status=1, try=4
20181101:11/01/2018 12:36:41;0004;pbs_mom;Fil;374683.m000.cfca.nao.ac.jp.OU;
  Unable to copy file /var/spool/pbs/spool/374683.m000.cfca.nao.ac.jp.OU to m000:/mwork0/itootk/SWIFT.F0/bcn0839/Log.out
20181101:11/01/2018 12:36:41;0004;pbs_mom;Fil;374683.m000.cfca.nao.ac.jp.OU;
  /bin/cp: cannot create regular file '/mwork0/itootk/SWIFT.F0/bcn0839/Log.out': Permission denied
20181101:11/01/2018 12:36:42;0100;pbs_mom;Job;374683.m000.cfca.nao.ac.jp;Job files not copied: 
20181101:Unable to copy file /var/spool/pbs/spool/374683.m000.cfca.nao.ac.jp.OU to m000:/mwork0/itootk/SWIFT.F0/bcn0839/Log.out
20181101:Output retained on that host in: /var/spool/pbs/undelivered/374683.m000.cfca.nao.ac.jp.OU
20181101:11/01/2018 12:36:42;0100;pbs_mom;Job;374683.m000.cfca.nao.ac.jp;staged 2 items out over 0:00:33
20181101:11/01/2018 12:36:42;0008;pbs_mom;Job;374683.m000.cfca.nao.ac.jp;no active tasks
20181101:11/01/2018 12:36:42;0100;pbs_mom;Job;374683.m000.cfca.nao.ac.jp;Obit sent
20181101:11/01/2018 12:36:42;0080;pbs_mom;Job;374683.m000.cfca.nao.ac.jp;delete job request received
20181101:11/01/2018 12:36:42;0008;pbs_mom;Job;374683.m000.cfca.nao.ac.jp;kill_job
20181101:11/01/2018 12:36:42;0080;pbs_mom;Job;374683.m000.cfca.nao.ac.jp;delete job request received

これによれば、このPBSジョブは正常に終了したものの標準出力を利用者指定のファイル
/mwork0/itootk/SWIFT.F0/bcn0839/Log.out に書き出そうとし、失敗しています。失敗の理由は

/mwork0/itootk/SWIFT.F0/bcn0839/Log.out': Permission denied

とあります。よっておそらく Log.out というファイルが既に存在し、
しかもそのパーミッションが 000 といったPBSのデーモンが書き込み不可の状況にあったのでしょう。
こうした既存のファイルを削除しておけば今回のエラーは出なかったと思われます。
なお上記のログにあるように、書き出しに失敗した標準出力の内容はファイル

/var/spool/pbs/undelivered/374683.m000.cfca.nao.ac.jp.OU

として計算ノード側に保持されています。
もしもこのファイルを御所望の場合には本プロジェクトにご連絡を頂ければ、手動で発掘してお渡しすることは不可能ではありません。


Q.
計算サーバで一遍に数千個のファイルを開こうとしたらエラーになりました。
何故でしょうか?

A.
これはOS (CentOS)による制限です。以下のようにして確認できます。

  • /bin/csh, /bin/tcsh, /bin/zsh の場合
      $ limit descriptors
      descriptors 1024
    
  • /bin/sh, /bin/bash, /bin/zsh の場合
      $ ulimit -n
      1024
    

上記のようにOSの制限があり、1024個以上のファイルを同時に開くことは出来ません。


Q.
You are exceeding your allocated disk space limits って何ですか?
先ほど root@m000.cfca.nao.ac.jp から以下のメールが届きました。これは何を意味しており、どう対処すれば良いでしょう?

  From: root@m000.cfca.nao.ac.jp
  To: XXXXXX@m000.cfca.nao.ac.jp
  Subject: NOTE: You are exceeding your allocated disk space limits
  
  Your disk usage has exceeded the agreed limits on this server
  Please delete any unnecessary files on following filesystems:
  
  Home directory (/dev/sdb1)
  
                          Block limits               File limits
  Filesystem           used    soft    hard  grace    used  soft  hard  grace
  /dev/sdb1      +-  19532M  19043M  19532M   none   44706     0     0       

A.
これはあなたのホームディレクトリ上のデータサイズが quota 制限値を超えたことを意味します。不要なファイルを削除してください。


Q.
m000.cfca.nao.ac.jp にssh接続すると以下のエラーが出、ログインできません。

  @@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@
  @    WARNING: REMOTE HOST IDENTIFICATION HAS CHANGED!     @
  @@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@
  IT IS POSSIBLE THAT SOMEONE IS DOING SOMETHING NASTY!
  Someone could be eavesdropping on you right now (man-in-the-middle attack)!
  It is also possible that the RSA host key has just been changed.
  The fingerprint for the RSA key sent by the remote host is
  XX:XX:XX:XX:XX:XX:XX:XX:XX:XX:XX:XX:XX:XX:XX:XX.
  Please contact your system administrator.
  Add correct host key in /home/****/.ssh/known_hosts to get rid of this message.
  Offending key in /home/****/.ssh/known_hosts:9
  RSA host key for m000.cfca.nao.ac.jp has changed and you have requested strict checking.
  Host key verification failed.

A.
これはご自分のホームディクトリ下の ~/.ssh/known_hosts に記録された
接続先機材の情報が実際の機材情報と異なることで発生する警告です。
この現象はしばしば見られ、接続先の機材でOSが再インストールされたり、
接続先のIPアドレスやホスト名が変更されることにより生じます。
このような場合にはファイル ~/.ssh/known_hosts を編集します。
このファイルを開き、m000.cfca.nao.ac.jp あるいは m000 から始まる行を削除してください。
なお、より適切な方法は以下のコマンドを使うことです。

% ssh-keygen -R m000.cfca.nao.ac.jp
/home/user/.ssh/known_hosts updated.
Original contents retained as /home/user/.ssh/known_hosts.old

上記を実施した後、次のコマンドを打ち込んでも良いでしょう。

% ssh-keyscan m000.cfca.nao.ac.jp >> ~/.ssh/known_hosts

ここで使うリダイレクトは上書き > ではなく、追記 >> であることに留意しましょう。
これにてご自分の ~/.ssh/known_hosts に相手先に最新情報が記録されます。
その後に再び m000.cfca.nao.ac.jp に ssh してください。
もしログイン前に何らかの質問をされたら yes と回答します。

この現象は m000 に限らずsshを用いる機器同士では頻繁に発生する現象なので、
Googleなどで検索すれば多数の情報が得られます。


Q.
計算サーバではデータやファイルのバックアップは取っていないのでしょうか?

A.
取っていません。データ(ファイル)の保全には利用者各位が御自身で責任をお持ち頂ください。


Q.
m000.cfca.nao.ac.jp に $HOME/.emacs の雛型はありますか?

A.
はい。/etc/skel/.emacs があります。但しご覧のように中身はほぼ空です。


Q.
PBSジョブ投入時にジョブの最大CPU時間や経過時間を指定する方法を教えてください。

A.
qsubのオプション -l keyword=value で指定が可能です。-l オプションはジョブのリソース要求を指定するもので、指定できる keyword の代表には以下があります。

  cput     ジョブによって使用されるCPU時間の最大値 (単位: time)
  file     ファイルを作成する際のサイズ制限 (単位: size)
  mem      最大物理メモリ容量 (単位: size)
  ncpus    要求されたプロセッサ(コア)数
  pcput    ジョブ内の一つのプロセスに割り当てられる最大CPU時間 (単位: time)
  pmem     ジョブ内の一つのプロセスで使用される最大物理メモリ容量 (単位: size)
  pvmem    ジョブ内のすべての同時プロセスで使用される最大仮想メモリ容量 (単位: size)
  vmem     ジョブ内のすべての同時プロセスで使用される最大仮想メモリ容量 (単位: size)
  walltime ジョブが実行状態にある場合の実際の時間(経過時間)の最大値 (単位: time)

cputなどを指定する場合、時間(上記のtime)は秒数(整数値)もしくは次の形式で指定します。

  [[hours:]minutes:]seconds[.milliseconds]

fileやmemを指定する場合、サイズ(上記のsize)は以下のsuffixを用いて指定してください。

  b またはw  : バイトまたはワード
  kbまたはkw : キロバイトまたはキロワード
  mbまたはmw : メガバイトまたはメガワード
  gbまたはgw : ギガバイトまたはギガワード

例えば以下のような指定が出来ます。

  qsub -q long -l cput=765:43:21 -l pmem=321mb スクリプト

ここで qstat -f コマンドを投入すると、
当該リソースが指定された値を持っていることが分かるでしょう。

  qstat -f 上記のジョブID
    Resource_List.cput = 765:43:21
    Resource_List.pmem = 321mb

更に詳しい情報についてはPBS関係のドキュメントをお読みください。


Q.
大きなファイルの消し方が分かりません。
ひょんな事から非常に大きなサイズのファイルを作ってしまい、ディスク領域を圧迫し始めました。これを rm コマンドで消そうとしましたが消せません。どうすれば良いでしょうか?

A.
当該ファイルを同名の小サイズのファイルで上書きする、もしくは以下のコマンドを実行してください。

  echo "" > 当該ファイル

もしくは以下です。

  cat /dev/null > 当該ファイル

いずれにせよそれなりの時間が掛かります。


Q.
/home/の上以外に、私のファイルが削除されないディレクトリはありませんか?

A.
ありません。


Q.
作業用ディレクトリ/mwork{1,2}/に置いたディレクトリはどう扱われますか?
やはり一定期間で削除されるのでしょうか?

A.
ディレクトリは自動的には削除されません。但しディレクトリ内にあるファイルは削除されますので、しばらくすると空のディレクトリがたくさん残されることになります。
作業領域にそういうものを多く残さないでください。


Q.
qdelを用いてジョブ削除しようとしましたが、消えません。

A.
計算ノードとの通信状況が悪い時にこれが発生することがあります。qdelにオプション -W force を付けて実行してみてください。

  qdel -W force ジョブID ...

オプション -W force の意味は "Deletes the job whether or not the job' execution host is reachable." です。詳しくは man qdel を参照してください。なお上記のオプションを付けてもジョブをqdelできない場合にはジョブに何らかの障害が発生している可能性があります。その場合はこのページから報告をお願いします。


Q.
同時に存在できるサブディレクトリ数に上限はあるでしょうか?
あるディレクトリ下に多数のサブディレクトリを作っていたら(mkdir)、或る時点から以下のようなエラーが出てディレクトリを作製できなくなりました。

  mkdir: ディレクトリ `XXXX/YYYY/ZZZZ' を作成できません: リンクが多すぎます

このメッセージは何を意味しているのでしょうか?
ちなみにサブディレクトリの総数は32000個ほどになっています。

A.
Linux kernel によるディレクトリ数の制限に抵触しているものと思われます。
kernel のソースコード内に以下のような記載があり、
単一ディレクトリ内に作製できるサブディレクトリ数の上限値が設定されています。

  #define EXT2_LINK_MAX 32000
  #define EXT3_LINK_MAX 32000

当該ディレクトリにはこれ以上のサブディレクトリは作れませんので、
サブディレクトリ群の削除または移動をお願いします。


Q.
TearTermを使ってm000へアクセスしようとしていますが、接続できません。

A.
以下の手順を試してください。以下のすべてを試しても接続できない場合には、詳しい状況とエラーメッセージを添えて再びご連絡ください。

  1. そちらの機材でVPNは正しく動作していますか?
    Windowsのコマンドプロンプトからipconfig /allと打ちこみ、その結果を確認します。
  2. あなたのTearTermはsshをサポートしていますか?
    こちらのページにある UTF-8 TeraTerm Pro with ttssh2 を利用してsshで接続している場合は問題ありませんが、TeraTerm のみではssh接続できません。UTF-8 TeraTerm Pro with ttssh2をインストールしてください。
  3. チャレンジレスポンス認証を使っていませんか?
    これを使うように設定されている場合はチェックボックスをoffにして、使用しないようにしてください。こちらを見ればわかりますが、okボタンのすぐ上にあります。
  4. m000以外のマシンへはアクセスできますか?
    VPNにもTeraTermの設定にも問題がない場合はm000以外のマシン、例えば解析サーバ群(an.cfca.nao.ac.jp など)にアクセスを試みてください。

Q.
m000上でghostscriptの絵窓が出ません。
以下のようにしましたが、エラーは出ないものの肝心の絵窓が開きません。

  gs example.ps

A.
オプション -sDEVICE=x11 を付けて実行してみてください。

  gs -sDEVICE=x11 example.ps

Q.
PBSスクリプトの中でPBS環境変数がどういう値なのかを知りたいです。
どのようにすれば一覧を表示できるでしょうか?

A.
PBSスクリプトをcsh文法で記しているならば以下のような方法があります。
なお幾つかのPBS環境変数にはデフォルト値が設定されていません。

  set pbsvariables = (\ 
    NCPUS \ 
    OMP_NUM_THREADS \ 
    PBS_ARRAY_ID \ 
    PBS_ARRAY_INDEX \ 
    PBS_ENVIRONMENT \ 
    PBS_JOBCOOKIE \ 
    PBS_JOBID \ 
    PBS_JOBNAME \ 
    PBS_MOMPORT \ 
    PBS_NODEFILE \ 
    PBS_NODENUM \ 
    PBS_O_HOME \ 
    PBS_O_HOST \ 
    PBS_O_LANG \ 
    PBS_O_LOGNAME \ 
    PBS_O_MAIL \ 
    PBS_O_PATH \ 
    PBS_O_QUEUE \ 
    PBS_O_SHELL \ 
    PBS_O_SYSTEM \ 
    PBS_O_TZ \ 
    PBS_O_WORKDIR \ 
    PBS_QUEUE \ 
    PBS_TASKNUM \ 
    TMPDIR \ 
  ) 
  foreach pbsvar ($pbsvariables[*]) 
    if (`eval echo '$'${pbsvar}` == '') then 
      echo "$pbsvar is not defined" 
    else 
      eval echo $pbsvar='$'${pbsvar} 
    endif 
  end 

Q.
標準出力ファイルと標準エラー出力ファイルの中身が分かりません。
PBSスクリプトを投入したら、標準出力ファイル file.oXXXX と標準エラー出力ファイルfile.eXXXX にそれぞれ以下のメッセージが出力されました。
標準出力ファイル file.oXXXX の内容は以下です。

  Warning: no access to tty (Bad file descriptor).
  Thus no job control in this shell.

標準エラー出力ファイル file.eXXXX の内容は以下です。

  stty: standard input: Invalid argument

これらは何を意味しているのでしょうか?実害はあるのでしょうか?

A.
ログインシェルにcshまたはtcshが使われているとこのメッセージが出力されることがありますが、計算の実行に実害はありません。


Q.
私のPBSジョブの経過時間(walltime)に比べてCPU時間(cputime)が短いようです。
これは何故でしょうか?なお下記のqstat -fの結果は一部のみ抜粋して記載しています。

  $ qstat -f 562
  Job Id: 562.m000.cfca.nao.ac.jp
    resources_used.cput = 03:52:54
    resources_used.walltime = 68:57:58
    exec_host = m004/0

A.
主に以下の二つの可能性が考えられるでしょう。

  • このジョブに伴うファイル入出力にとても時間が掛かっている。御自分のジョブが不必要なファイル入出力を行伴っていないかどうかをご確認ください。
  • 計算ノード(上記の場合にはm004)に障害が発生している。こちらが疑われる場合には、誠にお手数ですがこのページから詳細の報告をお願いします。

なお計算ノードの障害の場合には当該 PBS ジョブを強制終了する必要が高いことを予め御了承ください。


Q.
m000からPBSジョブをqsubしましたが、以下のエラーが出力されてジョブが走りません。

  stty: standard input: Invalid argument
  forrtl: severe (174): SIGSEGV, possible program stack overflow occurred.
  Program requirements exceed current stacksize resource limit.
  Superusers may try increasing this resource by 'limit stacksize xxx',
  where xxx is unlimited or something larger than your current limit.
  Other users should contact your system administrator for help.

A.
このエラーはstacksize上限を解除すると回避できることがあります。
cshやtcshの場合には以下のようにしてください。

  unlimit

shや bashの場合には以下のようにしてください。

  ulimit -s unlimited

PBSスクリプト内では以下のようにして上限解除の指定を追加してください。

  #!/bin/sh
  #PBS -r y
  #PBS -m ae
  #PBS -q long
  #PBS -l nodes=1
  
  # This job's working directory
  echo Working directory is $PBS_O_WORKDIR
  cd $PBS_O_WORKDIR
  echo Running on host `hostname`
  echo Time is `date`
  echo Directory is `pwd`
    
  # Run your executable
  ulimit -s unlimited		# ★ここに追加
  ./a.out

Q.
m000からPBSジョブを投入すると、以下のエラーが出てジョブが終了します。
9391というエラー番号は何を意味しているのでしょうか?

  /var/spool/PBS/mom_priv/jobs/211.m000.SC: line 20:  9391 強制終了

A.
エラー番号9391は、実行されたジョブの仮想メモリ領域へのダイナミックメモリ割り当て要求が制限を越えたため、割り当てできずにカーネルがそのジョブを強制終了させたという意味です。つまりジョブが仮想メモリ領域を使い切り、プロセスが停止したということです。これを解決するには、仮想メモリ制限内で動作するように扱うジョブが扱うデータを小さくする以外に方法はありません。


Q.
m000でman -wを実行すると以下のメッセージが出力され、manpathが表示されません。

  What manual page do you want?

A.
"man -w コマンド名"として使用してください。例えば以下です。

  $ man -w man
  /usr/share/man/man1/man.1.gz

Q.
ある特定のジョブが終わってから次の特定のジョブが走るqsubオプションを教えてください。

A.
"-W depend=afterok:ジョブID" オプションを使用してください。

  qsub -W depend=afterok:244.m000 JOB_B

これにより、JOB_A が終了した後に JOB_B が走り出します。

  Job id           Name             User             Time Use S Queue
  ---------------- ---------------- ---------------- -------- - -----
  244.m000         JOB_A            user             00:00:09 R short
  245.m000         JOB_B            user             00:00:00 H short
  246.m000         JOB_C            user             00:00:00 R short

上記の他にafterng, afteranyも使えます。マニュアルを御覧ください。


Q.
自分が過去に実行したPBSジョブの情報を見ることはできるでしょうか?

A.
できます。tracejobコマンドをご利用ください。
tracejobをオプションなしで実行すると、当日のログファイルからジョブに関するログを出力します。当日にログをはき出していなければ何も表示されません。
その場合には -n オプションで過去何日分のログファイルを検索するか指定すると情報が得られます。
例えば30日前に投入したジョブ(job id = 11999)を検索する場合に、オプションなしでは何も表示されません。
過去30日分のログファイルを検索対象に指定します。

  $ tracejob -n 30 11999
    
  Job: 11999.m000
    
  11/22/2005 10:36:53  S    Job Queued at request of user@m000.cfca.nao.ac.jp,
                            owner = user@m000.cfca.nao.ac.jp, job name = test.sh,
                            queue = short
  11/22/2005 10:36:53  S    Job Modified at request of
                            Scheduler@m000.cfca.nao.ac.jp
  11/22/2005 10:36:53  S    enqueuing into short, state 1 hop 1
  11/22/2005 10:36:53  A    queue=short
  11/22/2005 13:26:53  L    Server job limit reached
  11/22/2005 13:35:27  L    Considering job to run
  11/22/2005 13:35:27  S    Job Modified at request of
                            Scheduler@m000.cfca.nao.ac.jp
  11/22/2005 13:35:27  S    Job Run at request of Scheduler@m000.cfca.nao.ac.jp
                            on hosts m004
  11/22/2005 13:35:28  L    Job run
  11/22/2005 13:35:28  A    user=user group=naocc jobname=test.sh queue=short
                            ctime=1132623413 qtime=1132623413 etime=1132623413
                            start=1132634128 exec_host=m004/0
                            Resource_List.cput=00:30:00 Resource_List.ncpus=1
                            Resource_List.neednodes=1 Resource_List.nodect=1
                            Resource_List.nodes=1
  11/22/2005 13:39:28  S    Obit received
  11/22/2005 13:39:28  S    Exit_status=0 resources_used.cpupercent=8
                            resources_used.cput=00:00:28 resources_used.mem=4324kb
                            resources_used.ncpus=1 resources_used.vmem=21992kb
                            resources_used.walltime=00:03:59
  11/22/2005 13:39:28  A    user=user group=naocc jobname=test.sh queue=short
                            ctime=1132623413 qtime=1132623413 etime=1132623413
                            start=1132634128 exec_host=m004/0
                            Resource_List.cput=00:30:00 Resource_List.ncpus=1
                            Resource_List.neednodes=1 Resource_List.nodect=1
                            Resource_List.nodes=1 session=24075 end=1132634368
                            Exit_status=0 resources_used.cpupercent=8
                            resources_used.cput=00:00:28 resources_used.mem=4324kb
                            resources_used.ncpus=1 resources_used.vmem=21992kb
                            resources_used.walltime=00:03:59
  11/22/2005 13:45:44  S    dequeuing from short, state 5

同様な動きをするコマンドにqstat -fxもありますので、同時にお試しください。


Q.
私のPBSジョブはまだ終わっていないのに削除されました。何が問題でしょうか?

A.
ジョブ実行中にシステム障害が発生していた可能性があります。また、ジョブ投入のPBSスクリプト内で下記のように-r n が指定されていたため、システムの復旧後にジョブが再実行されず、削除された可能性があります。

  #PBS -r n

次回以降のために、障害からの復旧後のジョブが自動再投入されるよう、PBSスクリプト内にて下記のように-r y を指定してください。

  #PBS -r y

Q.
ある計算ノードでは全PBSジョブがsuspendされています。
例えばm038はコア数が4なので4本のPBSジョブが走るはずですが、現在は以下のようです。

% /usr/local/bin/qstat-n1 | grep m038
Job ID          Username Queue    Jobname    SessID NDS S ETime Node Alloc
--------------- -------- -------- ---------- ------ --- - ----- ----------
435526.m000.cfc userAA   long     tpf         19060   1 S 1411: m038/1
435789.m000.cfc userAA   long     tpf         14894   1 S 1339: m038/2
437685.m000.cfc userBB   long     65_7_ml5_t  19188   1 S 927:1 m038/3
450056.m000.cfc userAA   long     sechaos      3016   1 S 82:26 m038/0

上記ように全てのPBSジョブがS (suspend)状況にあります。これは何かおかしくないでしょうか?

A.
恐らく他利用者のarray jobsが流れているのでしょう。-t オプションを追加してください。

% /usr/local/bin/qstat-n1 -t | grep m038
Job ID          Username Queue    Jobname    SessID NDS S ETime Node Alloc
--------------- -------- -------- ---------- ------ --- - ----- ----------
435526.m000.cfc userAA   long     tpf         19060   1 S 1411: m038/1
435789.m000.cfc userAA   long     tpf         14894   1 S 1339: m038/2
437685.m000.cfc userBB   long     65_7_ml5_t  19188   1 S 927:1 m038/3
450056.m000.cfc userAA   long     sechaos      3016   1 S 82:26 m038/0
451693[251].m00 userCC   mid      c10ht.log   26201   1 R 02:41 m038/0
451693[252].m00 userCC   mid      c10ht.log   26413   1 R 03:07 m038/0
451693[253].m00 userCC   mid      c10ht.log   26655   1 R 02:41 m038/0
451693[254].m00 userCC   mid      c10ht.log   26794   1 R 02:54 m038/0

ご覧のように現在は利用者 userCC のarray jobs (451693[251-254])が流れ、他ジョブがsuspendされています。お待ち頂く他ありません。
こうしたsuspend状態は、複数の利用者による多数ジョブのqsubやqdelが繰り返される状況で頻発します。障害ではありません。


Q.
IntelコンパイラでコンパイルしたバイナリがPBSジョブとして実行されません。
私のコードをオプション -shared-intel -mcmodel=medium を付けてコンパイルし、qsubを使って投入しました。が、以下のエラーが出て終わります。

./a.out: error while loading shared libraries: libifport.so.5: cannot open shared object file: No such file or directory

他のコードでは以下のエラーとなりました。

./a.out: error while loading shared libraries: libimf.so: cannot open shared object file: No such file or directory

qsub経由ではなくm000から直接実行するとこれらは正常に動きます。どうすれば良いでしょうか?

A.
利用者向け手引のPBS関係の記載の下部の「qsubスクリプト内でのモジュールのロード」にもありますが、
PBSジョブとして走らせるコードがIntel環境を必要とする場合には、必要なモジュールをqsubスクリプト内で読み込んでおく必要があります。
もしqsubスクリプトがsh対応なら、実行させたいコードの前に以下を置いてください。

source /usr/share/Modules/init/sh
module load intel

もしqsubスクリプトがcshやtcsh対応なら、sourceするファイルを変更します。

source /usr/share/Modules/init/csh
module load intel

もしくは

source /usr/share/Modules/init/tcsh
module load intel

などです。
Intel環境以外のモジュールを読み込む際も上記と同様な記載を行います。例えばPBSジョブ内でPython環境を利用したいなら

source /usr/share/Modules/init/sh
module load anaconda intel

など、状況に応じて適切にご対応ください。


Q.
解析サーバから作業領域 /mwork{1,2} が見えません。
解析サーバのマニュアルによると /mwork{1,2} は解析サーバにも /misc/mwork{1,2} などとマウントされているとあります。
しかし解析サーバ上で以下のコマンドを打っても、それらしいディレクトリは表示されません。

an09$ ls /misc
work151/  work251/  work350/  work470/

どのようにすれば良いでしょうか?

A.
計算サーバの作業領域 /mwork{1,2} は解析サーバ上では automount されています。
つまり利用者がこれらの場所を必要とする際にしかマウントされません(見えません)。
よって以下のように当該ディレクトリの内部を表示する、または直接 cd してください。

an09$ ls /misc/mwork2/
an09$ cd /misc/mwork2/

Q.
計算サーバ上では IDL を使うことが出来ますか?

A.
出来ません。解析サーバをご利用ください。


Q.
openmp キューにPBSジョブを流していますが、計算速度が遅いです。
qstat-n1 の結果は以下のようです。どこに問題があるでしょうか?

Job ID          Username Queue    Jobname    SessID NDS S ETime Node Alloc
--------------- -------- -------- ---------- ------ --- - ----- ----------
543210.m000.cfc userABC  openmp   jobXYZ       9558   1 R 252:1 m234/12

A.
この出力を見る限り、このジョブは 1 コアしか使っていません。
上記の m234/12 という表示がそれを示します (計算ノード m234 の第 12 コア)。
計算サーバの openmp キューに投げたジョブが 4 コアを使う場合、
qstat-n1 の表示は以下のように *4 が付加されます。2コアの使用ならば *2 が現れます。

Job ID          Username Queue    Jobname    SessID NDS S ETime Node Alloc
--------------- -------- -------- ---------- ------ --- - ----- ----------
550969.m000.cfc itootk   openmp   para_test   10810   1 R 569:5 m012/1*4  

あなたのPBSジョブが 1 コアしか必要ないならば、openmp ではなく mid, long キューを使うべきでしょう。
本当に複数コアを使いたいなら、qsub 時に

$ qsub -l ncpus=使用コア数 ...

の指定が必要です(qsubスクリプト内に記しも可)。必要に応じて適切な選択肢を取ってください。


Q.
公開されたコードを自分でコンパイルし、実行しても良いのでしょうか?
私が使いたい公開コードはCで書かれており、自分でコンパイルして使うことになります。
実行にはかなり大きな計算資源が必要となりそうです。

A.
はい、上記の操作は可能です。Cコンパイラは計算サーバ上でももちろん使えます。
但しコンパイルとリンクに成功したとして、その後に当該のコードが動くか否かは計算の規模にも依存します。
計算サーバや解析サーバの資源量に収まらない大型の計算をされる場合にはXC50の各カテゴリへの応募をご検討ください。


Q.
qsubしてもPBSジョブがホールドされた状態(H)になってしまいます。
どのジョブも status が H となり、実行されません。
昨日までは普通に R 状態になり、走っていました。何が起こったのでしょうか?

A.
考えられる有力な原因はPBSジョブからの標準出力・標準エラー出力を溜める領域(/var/spool/pbs/)下のファイル量がquotaの上限に達したことです。
利用手引きに記載があるように、ここには 64 GB/userのquota制限があります。
この領域に於けるご自分の使用量は以下のようにして確かめられます。
xxxxxx はご自分のアカウント名に置き換えてください。

m000% egrep -e '(QUOTA|xxxxxx)' /pbslog/misc/userspace.txt
 TYPE        NAME           USED  QUOTA
 POSIX User  xxxxxx       64.5G    64G

上記では 64 GBのquota制限に対して 64.5 GBが使われており、いわゆるquota溢れとなっています。
PBSはジョブからの標準出力・標準エラー出力をこの領域に書き出そうとします。
しかしquota制限に抵触していると書き出せず、リトライを繰り返して最終的にstatusが H になります。
この挙動はOpenPBSの仕様だと思われます。

この状況に陥るのはPBSジョブが何らかの原因で異常終了したり計算ノードのハードウェア障害が生じた場合です。
システム構成上の理由により、ここでquota抵触が発生した状態からの回復は利用者自身には出来ません。
この状態が発生した場合にはお問い合わせフォームからお知らせを頂ければ、
当該領域を圧迫しているファイルを探して管理者権限で削除します。

なお、一般にコードが/var/spool/pbs/領域へ標準/エラー出力を大量に書き出すことは望ましくはありません。
標準出力・標準エラー出力の量が大きくなり過ぎないよう、ご自分のコードを見直すことを強くお薦めいたします。


Q.
qsubスクリプトにコマンドラインから引数を与えることは出来るでしょうか?
例えば変数 pbs_extravar に ABC という値を入れ、それをqsubスクリプトに渡したいと考えています。
qsubコマンドのオプションを使い、このようなことは可能でしょうか?

A.
可能です。qsub の -v オプションを使います。具体的には以下の書式

% qsub -v pbs_extravar=ABC シェルスクリプト

を使えば変数 pbs_extravar に値 ABC が入り、それがシェルスクリプトに渡されます。
複数の変数に値を渡すこともできます。例えば

% qsub -v pbsvarX=ABC,pbsvarY=DEF シェルスクリプト

とすると変数 pbsvarX には値 ABC が入り、変数 pbsvarY には値 DEF が入ります。

なおこの場合には 変数=値 の組の間にスペースを含めないようにしてください。例えば

% qsub -v pbsvarX=ABC, pbsvarY=DEF シェルスクリプト

などとすると pbsvarY=DEF の部分は qsub の別種の引数と解釈されてしまいます。
その結果、変数 pbsvarX の値は渡りますが変数 pbsvarY の値はシェルスクリプトに渡らなくなります。

外部機関の情報ではありますが以下のページなどが参考になるかもしれません。「ジョブスクリプトオプション早見表」の周辺です。


Q.
The backspace key does not work in my editor.
I tried vi, vim, and emacs, but in all the environments the backspace key does not function as expected, and just produces characters like "^?".
How can I solve this problem?

A.
Can you try removing the description

stty erase ^H

that may be in your ~/.bashrc or ~/.bash_profile or ~/.zshrc, and login again?
Our experiment tells us that this would fix the issue.
Files like ~/.vimrc does not matter in this case.
Also, we found that this issue does not happen when you use csh or tcsh.



解析サーバに関する質問


Q.
macOSから解析サーバにログインしてVisItを起動するとエラーが出て、動きません。

A.
以下のようなエラーが発生する場合には、XQuartzの設定を行う必要があります。

  libGL error: No matching fbConfigs or visuals found
  libGL error: failed to load driver: swrast
  X Error of failed request:  BadValue (integer parameter out of range for operation)
    Major opcode of failed request:  154 (GLX)
    Minor opcode of failed request:  3 (X_GLXCreateContext)
    Value in failed request:  0x0
    Serial number of failed request:  34
    Current serial number in output stream:  35
  Running: engine_ser2.10.0 -host 127.0.0.1 -port 5600
  libGL error: No matching fbConfigs or visuals found
  libGL error: failed to load driver: swrast
  X Error of failed request:  BadValue (integer parameter out of range for operation)
    Major opcode of failed request:  154 (GLX)
    Minor opcode of failed request:  3 (X_GLXCreateContext)
    Value in failed request:  0x0
    Serial number of failed request:  34
    Current serial number in output stream:  35

この問題の解決方法には以下の二種類があります。

  1. XQuartzのバージョンを2.7.10以降に更新する
  2. ターミナルから以下のコマンドを実行する
      defaults write org.macosforge.xquartz.X11 enable_iglx -bool true
    

Q.
最新のPythonを使用することは可能でしょうか?

A.
最新のPythonについてはご自身のホームディレクトリにPythonをインストールしていただく必要があります。
一例として、Anacondaを用いる方法を以下に示します。

  1. https://www.continuum.io/ からLinux 64bit対応のインストーラをダウンロードして、御自分のホームディレクトリに置きます。
  2. シェルがbashなら、以下のようにしてインストールします。
      $ bash Anaconda3-4.2.0-Linux-x86_64.sh
    

    デフォルトでホームディレクトリ直下にインストールされ、環境変数の設定も行われます。

  3. 環境変数の設定が済んでいれば、AnacondaのPythonが使用されます。
  4.   $ python --version
      Python 3.5.2 :: Anaconda 4.2.0 (64-bit)
    

Q.
外部のサーバから解析サーバへデータをftp転送することは可能でしょうか?

A.
解析サーバを含むCfCA HPCネットワーク内の機材は、セキュリティの観点からftpによる接続を許可しておりません。
scpコマンドなどを用いたデータ転送をお願いいたします。


Q.
年度が改まった際、利用申請が未だでも解析サーバの/home/や/xc-work/にはアクセスできるのか?

A.
新年度の利用申請を未だ行われていない場合、年度が改まった段階で解析サーバ上のデータへはアクセスできなくなります。
但し、利用申請が間に合わなくても解析サーバの/homeおよびファイルサーバのデータが直ちに消去されることはありません。


Q.
yt を使おうとしたら Command not found. と言われました。
以前はこれで動いた記憶があるのですが、どのようにすれば良いでしょう?

A.
現行の解析サーバ(an09-an14)上に於いて、yt は anaconda モジュールに含まれます。
従って、お使いの環境に合わせて anaconda/2 もしくは anaconda/3 のモジュールをロードしてください。

$ module load anaconda/3 

きちんとロードされていることを見ます。

$ module list
Currently Loaded Modulefiles:
 1) anaconda/3

その後、yt が使えるようになります。

% yt version
  
yt module located at:
   /opt/local/Anaconda/anaconda3/lib/python3.7/site-packages/yt-3.5.1-py3.7-linux-x86_64.egg
  
The current version of yt is:
  
---
Version = 3.5.1

yt に関する情報は解析サーバに関するウェブページにも掲載されています。ご一読ください


Q.
解析サーバ上で pySALEPlot が正常に動きません。
計算サーバでiSALEを実行した結果処理のため pySALEPlot を使っています。しかしエラーが出ます。例えば

$ source /usr/share/Modules/init/sh
$ module load intel
$ python ./TMjet.py

とすると

RuntimeError: module compiled against API version 0xa but this version of numpy is 0x7
Traceback (most recent call last):
File "./TMjet.py", line 6, in import pySALEPlot as psp
File "pySALEPlot.py", line 33, in import libpsp
ImportError: numpy.core.multiarray failed to import

と言われ、止まってしまいます。
そこでモジュールのロード方法が良くないのかと思い、スクリプト実行前に以下を実施しました。

source /usr/share/Modules/init/sh
module load anaconda/3

すると今度は

$ python ./TMjet.py
Traceback (most recent call last):
 File "./TMjet.py", line 6, in 
   import pySALEPlot as psp
 File "pySALEPlot.py", line 47
   print "pySALEPlot: Some errors occured in userFunctions import" 
                                                                 ^
SyntaxError: Missing parentheses in call to 'print'. Did you mean print("pySALEPlot: Some errors occured in userFunctions import")?

となりました。pySALEPlot.py の line 47 は以下となっています。

   print "pySALEPlot: Some errors occured in userFunctions import" 

どのようにすれば良いでしょうか?

A.
ログを見るに、pySALEPlot.py は Python 3 環境下では動かないようです。モジュール呼び出し時には

module load anaconda/2

とし、Python 2 環境下で動かしてみてください。


Q.
/glv0/以下のディレクトリで du を実行すると、とても長い時間が掛かります。
特にファイル数が多いと数十分も待たされることもあります。lsの結果もなかなか戻って来ません。
なぜこのように遅いのでしょうか?

A.
/glv0/は解析サーバにマウントされたファイルサーバ領域です。ここを構成するファイルシステム(GlusterFS)では、
ls (tabによる補完を含む) や du などメタデータを読み込むコマンドを多数のファイルを含むディレクトリ上で実行すると応答が遅くなる傾向があります。
この性質を改善することは容易ではなく、短期的には解決困難な課題です。
従って誠にご不便とは存じすがディレクトリ内に置くファイル数をあまり増やさないなど、
利用者側での工夫を行って頂くよう、よろしくお願い申し上げます。


Q.
nohupを使ってジョブを実行したが、エラーになります。
具体的には、module load ○○を行った後にnohupでジョブを実行してみました。
その後にログアウトしたところ、変数内容が変わってしまいました。
それによってジョブがエラーで終了したのですが、回避方法はあるでしょうか?

A.
nohupを使いジョブを実行した状態でログアウトすると、nohup実行前にloadしていたモジュールはすべてunloadされます。
この挙動は仕様であり、変更できません。
よって、nohup上で実行するジョブの中で環境変数を設定してください。
例えばスクリプト内で module load ○○ すれば良いでしょう。


Q.
matoplotlibがエラーを出して止まりました。
具体的には、matoplotlibを用いてバックグラウンドで図を作ろうとしたら以下のエラーが出て止まりました。

qt.qpa.screen: QXcbConnection: Could not connect to display localhost:13.0
Could not connect to any X display.

どうすれば良いでしょう?

A.
これは環境変数 DISPLAY に値が入っていないことが原因です。
matplotlib は明示的に画面を呼ばない場合でもデフォルトでは対話型バックエンドを用いるため、
環境変数 DISPLAY に値が入っていることが求められます。
これを回避するためには、スクリプト内で非対話型バックエンドを指定する方法があります。
"matplotlib backends" や "matplotlib CUI" 等のキーワードで検索すると多くの情報が得られるでしょう。
エラーメッセージ(Could not connect to any X display.)で検索するのも有効な手段です。
また、スクリプト内で環境変数 DISPLAY に何か適当な(空ではない)値を入れても動く可能性はあるように思われます。


Q.
解析サーバに搭載されているメモリ容量を超える一ファイルの解析を行いたいのですが、解析サーバ複数ノードを並列で使用することは可能でしょうか?

A.
解析サーバ上でノード間並列は出来ません。
なお、例えばPythonであれば numpy.memmap 等を利用することでファイル全体をメモリに読み込まずにファイルの一部へアクセス出来るため、使用メモリ量を減らせる可能性があります。
解析サーバで一利用者が使用できるCPUとメモリが1ノード当たり計算資源の50%までであることにもご注意ください。
解析サーバの利用ポリシーもご参照ください。



ネットワーク接続に関する質問


Q.
VPN接続がしばしば切れます。自動タイムアウト等が設定されているのでしょうか?

A.
CfCA側ではタイムアウトは設定していません。
VPN接続の安定性はご利用のネットワーク環境に強く依存します。
切断が頻発する際にはエラーメッセージや使用環境(OS,クライアント)を沿えて各種問い合わせからお知らせ下さい。
また、一ユーザあたりのVPNクライアント接続数は1接続/1台となっています。
3台目のVPN接続を行うと、それまで接続していた2台のVPN接続のいずれかが切断されます。


Q.
VPN接続を試みると Login failed. と言われます。
VPNパスワードは私がwww.cfca.nao.ac.jpにウェブログインした際に表示されるもので、今年度用に更新されているはずです。
私はどのように対処すれば良いでしょうか?

A.
僭越ながら管理者権限でVPNパスワードを拝見したところ、パスワードは末尾にセミコロン(;)が入った以下のようなものでした。

ABCDEFGHIJK;

重要なのは末尾のセミコロン(;)が文の区切りを表す特殊文字ではなく、パスワードの一部であるということです。
このセミコロンを含んだ文字群すべてがパスワードですから、間違えずに入力してください。
同様にして、パスワードが以下のような場合もあるかもしれません。

ABCD;EFGHIJK
ABCDEFGHIJK:
ABCDEFGHIJK.
ABCDEFGHIJK,

上記の第一番目はセミコロンが文字列の途中に挟まり、第二番目は末尾がコロン(:)で、第三番目は末尾がピリオド(.)です。
第四番目は末尾がコンマ(,)です。これらの記号「;」「:」「.」「,」はいずれもパスワードの一部であり、特殊な意味はありません。
すべて入力してください。言い換えれば、上記のパスワードは

ABCDEFGHIJKL

といった通常のASCII文字列と同等であるということです。
また、パスワードを打ち込む際には以下のような文字の取り違いがしばしば発生し得ます。

  • 0 (数字の零), O (大文字のオー), o (小文字のオー)
  • 1 (数字の一), l (小文字のエル), I (大文字のアイ), | (パイプ)
  • i (小文字のアイ) と j (小文字のジェイ)
  • u (小文字のユー) と v (小文字のヴイ)
  • 6 (数字の六) と b (小文字のビー)
  • : (コロン) と ; (セミコロン)
  • . (ピリオド) と , (コンマ)
  • ' (アキュートアクセント) と ` (グレイヴアクセント)
  • ~ (チルダ) と ^ (サーカムフレックス)

これはVPNパスワードに限らず、パスワードを入力する際に注意すべき一般的な事項となります。


Q.
CfCA機器(例えばXC50)から外向きのssh通信として22以外のポート(12345等)を使いたいです。
ここではCfCA HPCネットワークから外部機関向けの通信の話をしています。
以前はこれが出来ていた記憶がありますが、今は出来ません。何故でしょうか?

A.
国立天文台のセキュリティポリシー強化により、
平成30年度からは内外の通信許可がより一層厳密になりました。
そのため、現在は22番ポート以外による外部通信が制限されております。
ご所属の機関が22ポートの利用を制限している場合には、
何らかの方法でHPCネットワークから接続できるsshゲートウェイを
御自分でどこかに準備して頂く必要があります。御了承ください。


Q.
CfCA HPCネットワークへIPsec VPNによる接続を試みましたが、接続できません。
XC30時代には接続できました。どうすれば良いでしょうか?

A.
平成30年度より運用開始されたCfCAの共同利用計算機システムに於いて、IPsec VPNはサポート対象外となっております。
詳しくはこちらのページをご覧いただき、SSL-VPNによる接続をお試しください。


Q.
VPN接続時にsshセッションが途中で切れます。どうしたら良いでしょう?

A.
VPNが接続されたままの状態でsshセッションが切れる場合には以下の設定をお試しください。

  • Linux等を御利用の場合には~/.ssh/configに以下の設定を書き込んでください。
      Host *
      ServerAliveInterval=60
    

  • WindowsでPUTTYを使用している場合には設定で「カテゴリ」→「接続」をクリックすると、「接続の設定」画面が開きます。
    そこで「Keepaliveの間隔」を10と設定してからssh接続を行って下さい。
  • WindowsでTeraTermを使用しているなら、設定で「SSH...」をクリックすると「TTSSH 設定」画面が開きます。
    その中で「ハートビート (keep-alive)」を60と設定してからssh接続を行って下さい。

Q.
"The secure gateway has rejected the connection attempt." だそうです。
VPN接続が確立しないのですが、どうしたら良いですか?
具体的には、AnyConnectでのVPNアクセス時に以下のエラーが出ました。

  The secure gateway has rejected the connection attempt.
  A new connection attempt to the same or another secure gateway is needed, which requires re-authentication.
  The following message was received from the secure gateway: No assigned address

A.
これはVPN接続が混雑している場合(同時接続数が上限に達した場合)に表示されるものです。
しばらく時間を置いてから接続をお試しください。


Q.
大学内のhttpポートで外部と通信する際にproxy serverを経由している場合、macOSからVPN接続できません。
具体的には、AnyConnect でのアクセス時に次のようなエラーが発生しました。

  Could not connect server. Please verify internet connectivity and server address.

A.
macOS版のAnyConnectについてはproxy越しの接続に対応していません。Windows版であれば可能です。
AnyConnectはSSL通信を利用していますので、SSLで利用するポートがプロキシサーバを経由しない必要があります。
プロキシ無しにTCP/443ポートで接続できる環境をご用意ください。


Q.
LinuxのOSアップデート後、VPN接続ができなくなりました。

A.
Ciscoクライアントが対応しているLinux kernelは2.6までです。Kernelのバージョンを調べてください。


Q.
CfCAから教えて頂いた初期NISパスワードではVPN接続ができません。

A.
VPN接続用パスワードはNISパスワードとは別ものであり、別途お知らせしております。
そちらをお使いになって接続してください。


Q.
gitによる通信が実行できません。どうすれば良いですか?

A.
CfCAのHPCネットワークではport 22のみが外部へ開放されています。gitを使用する際は以下の設定を行ってください。

  1. 公開鍵をgitサーバに登録する。たとえばgithubの場合はwebページのsettings > SSH keysから手続きしてください。
  2. ssh等でXCに秘密鍵を転送する。

Q.
bitbucketへのアクセスが遅いのですが、どうすれば高速化されますか?

A.
あなたの ~/.ssh/config に以下の記述を追加すれば、速くなるかもしれません。お試しください。

  Host bitbucket.org
  AddressFamily inet

Q.
CfCAの機材上で短時間に多数回のscpやrsyncを実行すると警告を受けると聞きました。
これはこちらのニュースレターに書いてあったものです。
私は scp *.* のようにワイルドカードを使って多くのファイルを一遍に転送することが多いのですが、
こうした操作でもやはり同様に警告を受けるのでしょうか?

A.
scpの引数にワイルドカードを使って複数ファイルを転送しても、通信回数は一度のみと看做されます。よって当該警告の対象にはなりません。
なお上記のニュースレターで言及されている「監視サーバー」とは国立天文台ネットワークから外部インターネットへの出口に位置し、
そこを経由する通信を監視するものです。従って国立天文台ネットワーク内部で閉じた通信、例えば
XC50→解析サーバ もしくは 解析サーバ → ファイルサーバ といった経路の通信は当該警告の対象とはなりません。
(注・上記の「外部インターネット」とは国立天文台のいわゆる DMZ = DeMilitarized Zone を含みます)


Q.
WindowsにVPNクライアントをインストールできません。
Windows10のPCにCisco AnyConnectをインストールしようとしましたが、失敗しました。
途中までは進むのですが、最終段階で「インストールできない」とエラーが出、終了します。
このPCは新規に購入したものなので、古いVPNクライアントは入っていません。
PC上のウィルス対策アプリケーションは一旦停止してからVPNのインストールを行いました。
どのようにすれば良いでしょうか?

A.
恐らくはそちらのPC上のウィルス対策アプリケーションの問題かと思われます。
一般にウイルス対策や統合セキュリティに関係するアプリケーションがインストールされていると、
監視動作を一時停止してもその影響がOSや他のアプリに残りることが頻繁にあります。
少し前の話ですが、CfCAが主催する講習会の現場で同様の症状に陥った方がおりました。
その際にはセキュリティ関係のアプリを完全にアンインストールし、
その後にVPNクライアントのインストールを試みたところ、成功しました。
よって、面倒ではありますが今回もそちらのPC上でウィルス対策アプリを完全にアンインストールし、
その後に改めてVPNクライアントのインストールを試みてください。
これに関連し、Windowsのセキュリティ項目(Windowsメニュー → Windowsセキュリティ)を眺めて
現在動いているものを全て止めるという対応もあり得ます。
しかしサードパーティのセキュリティ関係アプリケーションと較べるとWindowsのセキュリティ機能は
他のアプリへの影響が少ないことが普通です(これをもって「保守的である」と表現する人もいます)。
よって、今回のVPNクライアントインストールの失敗との因果関係は少ないように思われます。

なお、セキュリティ関係アプリを完全にアンインストールすることでVPNクライアントのインストールに成功した場合には、
セキュリティ関係アプリを再びインストールする前にVPN接続を試み、接続が確立することを検証してください。
また、セキュリティ関係アプリをアンインストールを経ても依然としてVPNクライアントのインストールに失敗する場合には、
失敗を示す警告画面のスクリーンショットを本プロジェクトまでご送付ください。


Q.
CfCAのVPNへ接続すると、なぜかインターネットに接続できなってしまいます。

A.
Windowsをお使いの場合にCfCAへVPN接続すると正常に名前解決ができなくなり、その結果としてインターネットに接続できない事例が報告されています。
もしお使いのネットワークでIPv6が有効である場合にはパソコン側の設定でそれを無効にして頂ければ、インターネットに接続できる場合があります。
なおこの設定を行った場合にはVPN接続をしていない時でもインターネット接続が遅くなる、または繋がらなくなることがあるのでご注意ください。
以下には参考までに、Windows上でIPv6を無効化する方法の例を示します。

スタートメニュー → 「設定」 → 「ネットワークとインターネット」
→ 「ネットワークの詳細設定」→ 「ネットワークアダプター オプションの詳細」
→ インターネット接続に使うネットワークデバイスのアイコンで右クリック
→ 「プロパティ」→ 「ネットワーク」のタブ
→ 「インターネット・プロトコル バージョン6 (TCP/IPv6)」のチェックを外す



該非判定に関する質問


Q.
該非判定って何ですか?

A.
まずはこのサイトから引用を行ってみます。詳しくはこちらのページをお読みください。

輸出する貨物又は提供する技術が外為法関連法規で規定されているリスト規制の
対象か否かを品目ごとに判定すること。具体的には、輸出貿易管理令「別表第一」
または外国為替令「別表」の1から15の項に掲げられているものに該当するか否かを
判定する。該当すると、原則として輸出許可または役務取引許可が必要になる。
  
判定するためには、最新の法令(輸出貿易管理令・貨物等省令)が反映されている
判定表を用いて判定するが、様式は法令で定められていないが、最新の法令で、
判定者が判定し易く、判定理由が明確に読み取れるものである必要がある。
判定した結果を示した書類は「該非判定書」と呼ばれ、
経済産業省への許可取得時や、輸出通関時に提出を求められる。

上記の説明では何やら堅苦しくて分かりにくいので、これをCfCAの場合に当て嵌めて解説します。
本プロジェクト実施する計算機共同利用に於いては、計算機利用規則の第2条1.(a)により
共同利用計算機システムの利用申請およびWebアカウントの発行が認められるのは
原則として日本国の居住者に限られます。但し上記規則の第2条1.(b)により、
日本国の非居住者の一部に対しても計算機システムの利用申請およびWebアカウントの発行は認められています。
一方で、本プロジェクトが運用する共同利用計算機の性能は経済産業省が規定する安全保障貿易管理の規制が適用される規模であり、
従って日本国の非居住者が計算機利用および技術情報(Webアカウントを含む)の取得を行うに当たっては
法律(「外国為替及び外国貿易法」。通称「外為法」)の定める所に従った該非判定の実施が義務付けられております。
上記の法令に沿い、本プロジェクトに於いても日本国に非居住(主として上記規則の第2条1.(b)に該当する方)については
各種申請の前に定型的な該非判定を実施しています。具体的には、
日本国に居住しない方が新規にWebアカウントを申請する場合には申請と同時に該非判定のための情報提供の依頼をお願いしております。
皆様には誠にお手数をお掛けしますが、こちらのページの解説をお読みになって御協力をお願いいたします。


Q.
安全保障輸出管理の法令に違反すると罰則があるのでしょうか?

A.
あります。以下のページにも詳しいですが、外為法違反になりますので懲役・罰金またはその両方が課せられます。
また、輸出に関して規制があることを知っていたか否かで罰則の有無が変わることはありません。
これは技術の輸出を行う側つまり利用者に対してのみならず、技術の運用者つまりCfCA側に対しても同様に適用される考え方です。
もしも日本国に居住しない方が虚偽の情報(居住国や所属機関など)を申告し、該非判定を通過せずに計算機利用を行った場合には、
当人には刑事罰や行政制裁および国立天文台長命令による計算機利用の恒久的な資格喪失といった厳しい罰則が付与されると共に、
本プロジェクト対しては経済産業省より機器の運用停止命令が下り得、
双方にとり著しい不利益が発生する虞があります。


Q.
私は日本学術振興会の海外特別研究員です。学振は日本国の機関ですが、該非判定は必要ですか?

A.
必要です。日本学術振興会の特別研究員や海外特別研究員として日本国外に居住し
研究活動を行う場合には日本国の機関から給与が出ていることになりますが、
居住地が日本国ではなく、現実的な勤務先が日本では無いことから、
日本国の非居住者であると看倣すという通達を自然科学研究機構よりありました。
よって、学振の各種研究員各位が日本国外からCfCAの計算機資源を使おうとする場合にも該非判定が必要となります。


Q.
安全保障貿易管理への対応は自然科学研究機構全体で統一されているのでしょうか?
自然科学研究機構内の各研究所にある共同利用計算機システムの利用案内を読むと、
国立天文台と分子科学研究所と核融合科学研究所では日本国の非居住者の扱いが異なるように見えます。
他の研究所間では統一されているのでしょうか?

A.
いいえ、統一されていません。また、同一研究所内であっても部署により該非判定の扱いが異なることがあります。
これは望ましい事では決し無く、改善されるべきですが、現実はそうなっていません。
この不統一の解消については国立天文台や自然科学研究機構のみならず日本国全体で取り組むべきものであり、
私達も働き掛けを継続しますが、簡単に解決できる案件ではありません。
よって現時点に於いて皆様には各研究所・各部署が有する安全保障貿易管理への対応方法に沿い
粛々と該非判定の準備を進めて頂けるようご協力をお願いする次第です。


Q.
私はいわゆる「外国ユーザリスト」に掲載された機関に勤務しています。
このような場合でもCfCAの計算機資源を使うことは可能でしょうか?
また、その時には何か特別な手続きが必要でしょうか?

A.
不可能とも言い切れません。まずは通常の該非判定の手続きを行って頂きます。
それに加え、そちらの機関が行っており外国ユーザリストに掲載された要因である研究開発と
あなた御自身の研究は全く無関係であることを宣誓する書類を提出して頂きます。
それらの書類を国立天文台長が熟読し、必要であれば経済産業省と協議の上で、該非判定が行われます。
ご存じのように外国ユーザリストは頻繁に更新されており、必要な書類も時に変更されます。
詳細についてはご申請を受け付け時点でその都度こちら側から連絡を行います。


Q.
うちの留学生は本学への入学時に既に該非判定を通過しています。
ですからCfCAの共同利用計算機を使うに際して該非判定は不要と思いますが、この理解で正しいですか?

A.
はい、正しいです。当該の方が日本国にある受け入れ先の大学・研究所等で該非判定を通過していれば、
国立天文台側で二度目の判定を行う必要はありません。そのまま各種の利用申請にお進みください。
なお当該の方がウェブアカウントの申請を行う際には、申請フォーム内の「特記事項」欄に
「○○大学に於いて既に該非判定を終えている」などと記して頂けると事情が分かり、大変に助かります。


Q.
うちの留学生には日本滞在中の経費を支給しています。該非判定が必要でしょうか?
この学生はまだ来日してから日が浅く、6ヶ月を経過していません。
本国では学生ですが、こちらでは大学の或る制度を使って
日本滞在中の必要経費(滞在費・宿舎費など)がすべて支給されています。
即ち、雇用契約は無いものの日本国内での生活の保証がされています。
よって来日から6ヶ月未満であっても日本国の居住者と看倣され、
CfCAの共同利用計算機を使うのに該非判定は不要になるのではと考えますが、いかがでしょうか?

A.
もしも当該留学生が日本国の受け入れ先機関で該非判定を通過していれば、国立天文台側で二度目の判定を行う必要はありません。
もしも受け入れ先機関では該非判定を通過しておらず、雇用契約も無ければ、現時点でその方は日本国の非居住者と看倣されます。
よって、国立天文台側で該非判定を行う必要がございます。直上のQAをご覧ください。

なお本件に関し、安全保証貿易管理という概念に於ける「雇用」という語の定義が曖昧であることは確かです。
昨今、国外からの留学生に対して日本滞在中の経費を支払うことは増えていると思います。
例えば理化学研究所の国際プログラム・アソシエイト(IPA)などです。
けれども日本国内の機関が何らかの形で滞在中の経費を留学生に支給する事と、
当該機関と当該留学生の間に雇用関係が存在する事は別物です。
その二者の間には書面による雇用契約が存在しているでしょうか?
当該機関と当該留学生の間に雇用契約の書面が存在するなら、当該留学生は日本国の居住者と看倣されます。
しかし未だ多くの場合、受け入れ機関と留学生との間にそうした雇用契約は存在しないでしょう。
経済産業省の解釈によれば、必要経費や奨学金の支給のみでは雇用契約が存在するとは看倣されません。
雇用契約が存在しなければ、そして日本の受け入れ先で該非判定を行っていなければ
外為法に従って日本国の非居住者としての該非判定を通過して頂くことが、
CfCAおよびその他の機関の計算機設備をお使い頂く前提条件となります。


Q.
I came to Japan recently, and want to use your computer system.
I heard that I need to go through some legal procedures before that.
Can you tell me how and what I should do?

A.
We assume you are talking about Export Trade Control.
If you are employed at any organization in Japan and paid, you do not need go through any procedures.
Even if you are not employed but just staying (such as a student),
if you have already gone through the export trade control procedure at your institute,
you would not need to do anything. You would need to go through this procedure only when

  1. You are in Japan but not employed by any institutes, and
  2. You have been in Japan for less than 183 days, and
  3. You have not gone through the export trade control procedure yet.

If you meet all three criteria above, please read the notes below.
If you do not meet any of the above three criteria, you do not need to read below.
Just go ahead and prepare your science application form for each of the computer system (such as for XC50).

(In case you meet all the three criteria above, read it)
In Japan, there is a legal regulation called "Export Trade Control Order."
According to this regulation, when an applicant to our computer system does not
have the Japanese nationality, and if he/she is not officially employed (based on a written contract) by institutions in Japan,
or when he/she has not stayed in Japan for more than six months,
NAOJ or other institute in Japan has to prepare and submit a set of specific documents
for the export trade control to Ministry of Economy, Trade and Industry.
This is for proving that there would be no problem for the applicant to become a user of our computer systems.
The applicant is supposed to give us necessary information for us to get the paperwork done,
and this has to be completed before actual science review begins.
Please take a look at our webpage for this purpose for more details.


Q.
Can you tell me the actual procedure to get the export trade control done?
I am talking about how I can use your computer system while I am in Japan (as a non-paid student).
I found a webpage probably for this, but the description seems lengthy and complicated.
In addition, everything is written in Japanese.
Could you let me know what I should do in practice?

A.
We presume you are looking at our webpage for Export Trade Control.
First, please take a look at the following webpage for an outline of
what the export trade control system in Japan is.

Next, take a look at the above Q&A. If you meet all three criteria (1, 2, 3) above, read the notes below.
If you do not meet any of the above three criteria, you do not need to read below.
Just go ahead and prepare your science application form for each of the computer system (such as for XC50).

(In case you meet all the three criteria in the above Q&A, read it)
In this case you have to give us the following information through the web form in the above webpage:

  • 氏名 ← Your name
  • メールアドレス ← Your e-mail address
  • 居住国 ← Choose "Japan" (日本)
  • 居住開始日 ← Enter the month/day/year of the first day of your stay in Japan
  • 所属機関 ← Choose your current institute in Japan
  • 所属機関の部局名 ← Enter your department at your institute
  • 所属機関の代表者氏名 ← Enter the name of the President of your institute
  • 所属機関事業内容 ← write down "Education and research" or whatever describes the business contents of your institute
  • 該非判定に必要な情報提供目的 ← click "計算機共同利用" (use of computers)

Then, you will find a sub menu below that:

  • 研究課題名 ← Enter the subject of your research
  • ファイル ← Upload a PDF file containing your specific research plan. The file size must be smaller than 2 MB, and the file type must be PDF.
  • 通信欄 (misc) ← Enter some more information about you (if any) such as

    Currently working at the Tokyo XXX University in YYY city in Japan for master's thesis.
    Actually affiliated to University of XXXX in ZZZZ (country name)."

    Also, provide us with the URL of the official webpage of University of XXXX in ZZZZ
    as well as its president (dean, chair, ... or whoever is responsible for the operation of the university).

  • 確認 (confirmation) ← Click it when you are done
  • プレビュー (preview) ← Click it, and a preview screen will show up

Then, finally

  • 送信 (submit) ← Click to get it done

We must admit that it is very a formal, bureaucratic process.
But we must go through this thing to comply with a law (Foreign Exchange and Foreign Trade Act).
We appreciate your understanding, and thank you very much in advance.


Q.
I am working at an institute outside Japan, but want to use your computers.
I heard that I need to go through some legal procedures for that. How should I do it?

A.
First, we presume that you are qualified to use our computer system.
If not, please find another computer resources other than ours.
If qualified, same as the above Q&As, you would need to go through Export Trade Control Order.
Take a look at our webpage for Export Trade Control.
For understanding what the export trade control system in Japan is,
this governmental page may come in hand, so please browse through it.

Please give us the following information and material through the web form
in the above webpage of ours before we give you a web account of our site:

  • 氏名 ← Your name
  • メールアドレス ← Your e-mail address
  • 居住国 ← The country name where you live now
  • 居住開始日 ← The month/day/year of the first day of your stay in the country
  • 所属機関 ← Your current institute
  • 所属機関の部局名 ← your department at your institute
  • 所属機関の代表者氏名 ← The name of the President/CEO/... or whoever is responsible for your institute
  • 所属機関事業内容 ← Something that best describes the business contents of your institute, such as "education", "medical service", "weapons production", "counterintelligence", and so on.
  • 該非判定に必要な情報提供目的 ← click "計算機共同利用" (use of computers)

Then, you will find a sub menu below that:

  • 研究課題名 ← Enter the subject of your research
  • ファイル ← Upload a PDF file containing your research plan in detail. The file size must be smaller than 2MB, and the format must be PDF.
  • 通信欄 (misc) ← Enter some more information about you (if any).
    Also, please provide us with the URL of the official webpage of your institute
    as well as its president (dean, chair, ... or whoever is responsible for the operation of the university).
  • 確認 (confirmation) ← Click it when you are done
  • プレビュー (preview) ← Click it, and a preview screen will show up

Then, finally

  • 送信 (submit) ← Click to get it done

We appreciate your understanding, and thank you very much in advance.


Q.
Do I need to register my info on export trade control every year?
I am living outside Japan. I received several emails on export trade control,
but I have already provided this information a year ago.
Let me ask you if I need to send this information again.

A.
Yes, you do.
Your information that you had provided last year was effective just between a Japanese fiscal year (from April to the next March).
So, you have to repeat the similar procedure the next year again.
Thank you very much for your cooperation.


Q.
私は利用申請の採択後に日本国の非居住者となりました。該非判定は必要ですか?
具体的には、さる3月末まで私は日本国の研究機関におり、その時点で翌年度の利用申請が認められました。
現在は異動し、日本国外の大学で研究をしています。よって現時点では日本国の非居住者です。
この場合にも改めて該非判定が必要でしょうか?

A.
はい、必要です。どのような形にせよ利用者が日本国に非居住となった時点で該非判定が必須化されます。
そして、それは日本国での年度(4月→翌3月)内のみ有効な判定です。
ご面倒をお掛けしますが、よろしく御協力のほどお願い申し上げます。


Q.
同一年度内に同一国内で異動した場合、再度の該非判定は必要でしょうか?
私は現在は日本国外に居住し、現地の研究機関に勤務しています。
今年度向けの該非判定の手続きは既に終えているのですが、
近日中に同国内の別機関へ異動することが決まりました。同一年度内です。
この場合、改めて該非判定を通過する必要があるのでしょうか?
それとも、該非判定が一旦通過したらそれは当該年度末まで有効ということで、
来年度が近付くまでは何もしなくても良かったりしますか?

A.
ご面倒ですが、異動された時点で再び該非判定を通過して頂く必要があります。
以前に提出して頂いた情報による該非判定書に記されているのは
ご異動前の所属機関・住所・機関長名等の情報です。
よって、それらが変更された場合には新しい(ご異動後の)所属機関・
住所・機関長名等といった情報を元にして新たに書類を作り直し、
それが提出され、該非判定が行われることになります。
誠にお手数をお掛けしますがよろしくご協力のほどお願い申し上げます。



その他の物事に関する質問


Q.
CfCAのWebアカウントに登録された電子メールアドレスを変更したいです。

A.
これは容易です。まず、Webログインした状態でご自分の登録情報をご覧ください。
ページの上段に「○○○○ さん、ようこそ!|ログアウト」という表示があると思います。
この ○○○○ をクリックすると登録情報のページに行きますので、「編集」をクリックし、
そこの Email のボックス内にあるメールアドレスを書き換え、末尾にある「保存」をクリックして保存します。


Q.
I want to change my e-mail address on my web account at www.cfca.nao.ac.jp .

A.
It is easy. First, login our webpage with your account, and see your account information.
You will see a link entitled "○○○○ さん、ようこそ!|ログアウト" at the top of each page.
Click "○○○○", and you will find your account information.
Then click "Edit", change your e-mail address in the "Email" box, and click "Save" at the bottom.


Q.
利用申請フォームに投稿したPDFファイルの内容を再確認したい。
世の中の多くのサイトではそれが出来るはずだが、CfCAのウェブサイトではできないのか?

A.
申し訳ございませんが現状ではシステム上の制約により、投稿後のPDFファイルをご確認いただくことはできません。
ファイル内容の修正を行いたい場合や投稿の成否が不安な場合には、ご面倒ですが再提出をお願いします。


Q.
私が指導する学生の申請を承認しようとしましたが、氏名が記入されていません。
氏名を手で記入しようとしましたがそれも拒否されます。このままでは承認が出来ないが、どうすれば良いでしょう?
私が受け取った電子メールに記されていた「これをコピペせよ」というURLは以下です。

https://www.cfca.nao.ac.jp/supervisor_approval?id=7017&name=□□□□&email=aaaaaa@bbb.ccc.ddd.eee&category=XC50利用申請

A.
おっしゃる通り、学生からの申請については指導教員の確認を取るため
すべての教員宛てに以下のメールが届くようになっております。

申請を受理するためには貴方の確認が必要です。次のURLから申請内容を確認後、送信ボタンを押してください。
URLが途中で改行されている場合には、"https://www.cfca.nao.ac.jp/supervisor_approval" から
"student=○○○○" までの文字列(URL)をコピーし、ブラウザのURL欄に手動でペーストしてください。
  
https://www.cfca.nao.ac.jp/supervisor_approval?id=7017&name=□□□□&email=aaaaaa@bbb.ccc.ddd.eee&category=XC50利用申請 カテゴリXC-B (2019年度)&position=△△△△&student=○○○○

しかし教員の皆様のお手元の環境(メーラ等)によっては上記のようにURLが途中で改行されます。
誤ってこの一行目だけをコピペすることで、正しくないページに誘導されることがあります。
今回ご報告されたものはその一つであり、上記URL

https://www.cfca.nao.ac.jp/supervisor_approval?id=7017&name=□□□□&email=aaaaaa@bbb.ccc.ddd.eee&category=XC50利用申請 
カテゴリXC-B (2019年度)&position=△△△△&student=○○○○

の一行目だけをコピペした結果であると想像されます。
これを避けるためには電子メールに記されているURLのすべて(複数行にわたり)コピーし、
それを一行のURLとしてブラウザのURL欄に手動でペーストしてください。要するにURL

https://www.cfca.nao.ac.jp/supervisor_approval?id=7017&name=□□□□&email=aaaaaa@bbb.ccc.ddd.eee&category=XC50利用申請 カテゴリXC-B (2019年度)&position=△△△△&student=○○○○

を手動で作ることになります。


Q.
I tried to confirm my student's application, but the URL seems broken.
I received an e-mail entitled "○○○○ 様の申請書確認依頼", but the URL seems weird. The e-mail tells me to copy

https://www.cfca.nao.ac.jp/supervisor_approval?id=7017&name=□□□□&email=aaaaaa@bbb.ccc.ddd.eee&category=XC50利用申請 
カテゴリXC-B (2019年度)&position=△△△△&student=○○○○

and paste it on my browser. However, the copied URL does not seem to work.
What should I do to reach the correct place?

A.
This problem was presumably caused by your mailer application. You must have received an e-mail as follows:

申請を受理するためには貴方の確認が必要です。次のURLから申請内容を確認後、送信ボタンを押してください。
URLが途中で改行されている場合には、"https://www.cfca.nao.ac.jp/supervisor_approval" から
"student=○○○○" までの文字列(URL)をコピーし、ブラウザのURL欄に手動でペーストしてください。
  
https://www.cfca.nao.ac.jp/supervisor_approval?id=7017&name=□□□□&email=aaaaaa@bbb.ccc.ddd.eee&category=XC50利用申請 カテゴリXC-B (2019年度)&position=△△△△&student=○○○○

However, some mailer application folds the URL description with newline characters, and divide them into several lines such as

https://www.cfca.nao.ac.jp/supervisor_approval?id=7017&name=□□□□&email=aaaaaa@bbb.ccc.ddd.eee&category=XC50利用申請 
カテゴリXC-B (2019年度)&position=△△△△&student=○○○○

This is probably because the mailer application regards text blanks as newlines.
Then if you copy just the first line of the folded URL, it would create an incomplete webpage.

To avoid this, bunch all the URL descriptions into a single line by hand such as

https://www.cfca.nao.ac.jp/supervisor_approval?id=7017&name=□□□□&email=aaaaaa@bbb.ccc.ddd.eee&category=XC50利用申請 カテゴリXC-B (2019年度)&position=△△△△&student=○○○○

and paste it on your browser. It would probably take you to the right place.


Q.
私は日本国外の研究機関に所属していますが、CfCAの共同利用計算機は使えますか?
もしも使える可能性があれば利用申請を提出したいです。

A.
もしあなたが日本国内の大学院で修士または博士号を取得されている場合は、可能です。利用申請資格の項目2を御覧ください。
該当する学位がない場合は、原則的には日本国内の研究機関・大学院にポストを持つ研究者あるいは学生であることが必要となります。
上記いずれにも該当しない場合は、プロジェクト長の判断に任されます。
また、この場合には利用開始前に該非判定の通過が必要となります。詳しくはこちらのページをお読みください。


Q.
共同研究者のファイルをコピーするためだけにアカウントを取得することは可能ですか?
私の或る共同研究者が昨年度まではCfCAの計算機共同利用者だったのですが、
今年度は諸事情のために利用者にはなっていません。
私は利用者なので、その人が作ったファイルを私が取得したいと考えています。

A.
いいえ、不可です。そのようなファイル取り出しのためだけのアカウント発行は許可されません。
そうした必要がある場合には共同研究者の方に再びCfCAの利用者になって頂くか、
何らかの他のの方法でその方から直接ファイルをお受け取りください。
CfCAではアカウント発行の際、本人確認を厳格に行っています。
上記の如き要望に応えてしまえば管理不行届きなアカウントが発行され、保安上の綻びが生じます。
そうした事態を防ぐため、他人のファイルをコピーするためだけのアカウントは発行しておりません。

なお共同研究者の方が既に同一の計算機にアカウントをお持ちの場合には、
こちらのQAにあるような方法で他利用者とのファイル共有が可能です。


Q.
利用申請書の提出時期と実際に計算機を使える期間の関係が良く分かりません。
どこかのページに情報がまとまっていたりしませんか?

A.
当方のウェブサイトの構造が複雑なためこうした重要な情報がきちんと伝わっておらず、申し訳ございません。
上記のご質問への回答はこちらのページ「申請時期と利用期間」に集約されておりますので、是非ご覧ください。


Q.
CfCAが主催する講習会に参加したいと思います。旅費は支給されますか?

A.
なるべく支給したい所ではありますが、その時々の予算状況に依存するので、一概には言えません。支出不可な場合もある事をご承知おきください。
なおCfCA主催の講習会に於ける旅費支給の原則がこちらのページにまとまっています。旅費支給のために必要な振込口座届出書についての説明もあります。
なお昨今は講習会もzoomやWebExを用いたリモート開催(仮想集会)となる事があります。
このような講習会に際しては、言うまでもありませんが旅費等の支給はございません。


Q.
CfCAの計算機共同利用者が出版した論文などの一覧はありますか?

A.
こちらにあります。原則として年に一度、7月上旬に更新されています。


Q.
アカウントは貰ったものの、計算機を使っていません。研究成果を報告する必要はありますか?

A.
あなたの言う「アカウント」がCfCAのウェブアカウントのみのことを指すならば、
それはあなたがXC50や計算サーバ等の共同利用計算機の利用申請書を提出しなかった、
若しくは申請書を提出しても採択されなかたことを意味するでしょう。
要するにあなたは共同利用計算機を使わなかった(若しくは使えなかった)訳ですから、研究成果の報告をして頂く必要はありません。
一方、もしもあなたがXC50や計算サーバらの共同利用計算機の利用申請を提出し、
それが採択された上での「アカウント」(いわゆるNISアカウント)を意味しているならば、成果報告を提出して頂く必要があります。
これはあなたが共同利用計算機を実際に使ったか否かには関わりません。
共同利用計算機の利用申請書を提出し、審査を経て採択されたすべての利用者が負う責務です。


Q.
論文の出版時期とその報告時期に関する質問です。
毎年度の始めに実施されている利用者成果報告の収集では、提出すべき論文として以下が指定されています。(以下は2019年4月の調査の例)

  • 『2018年4月1日から2019年3月31日の間に出版された論文や著書等の出版物』および
  • 『すでに出版されてページ番号等が明確になっているもの』

この場合、以下のような論文についてはどう扱われるのでしょうか?

  • オンライン版は上記の期間内に発行されているものの、最終的に制定される正式な巻号頁は上記の期間の後になる論文

これは今回の報告対象となるのでしょうか?それとも、来年度に改めて報告する必要があるでしょうか。

A.
昨今は論文出版のオンライン化が進み、年度のみならず年の境界すらも曖昧になっていることは周知の事実です。
その不定性は本部局の手では制御できませんので、報告機会の選択は基本的に著者(報告者)の裁量にお任せしています。
上記の例のようにオンライン掲載と最終的な正式巻号頁が異なる場合にも、著者の裁量によって報告時期をお決め頂いて結構です。
2018年度の出版として報告されても構いませんし、来年まで待ってから2019年度の出版として報告されても構いません。
敢えてどちらが推奨であるかを問われれば、忘れないうちに早目の報告すなわち2018年度の出版としての報告でしょう。
しかしその最終的なご判断は著者の皆様にお任せするものです。


Q.
CfCAのウェブで公開されている計算機共同利用者の出版論文に関する質問です。
例えばこちらのページ以下で公開されている論文一覧には、DOI情報を辿ると登録されている出版年が
ここに掲載されているものと異なる論文があった気がします (具体的にどの論文であったかを直ちに思い出せませんが)。
これはどのような理由でしょうか?また、将来的にこの不整合が解消される見込みはあるでしょうか?

A.
まず端的にお答えします。この現象はDOIのデータベース更新の頻度と時期の関係から生じるものです。
そしてこの不整合の解消を不可能とは言いませんが、数ヶ月や一年単位で計画される中期的作業になることを御了承ください。
 
以下ではもう少し詳しく、一般的な原則と事情を説明いたします。
冊子体の出版年、つまり論文の刊行年を定めるのは出版社です。刊行年は巻号・ページとセットで決定されます。
昨今の出版社の大半は、論文が受理されると直ちにそれにDOIを付与します。
それに加え、PASJ, MNRAS, PSSなどの雑誌は正式な出版前にDOIが与えられた論文をオンラインで先行公開します。
この時にはもちろん刊行年の数値情報もDOIデータベースに与えられますが、それは最終的なものではなく、仮の数値です。
論文の最終的かつ公式な刊行年は出版社が後日改めて定めます。多くの場合には冊子体の出版年がその位置を占めるようです。
そして、その数値は論文の受理時にDOIのデータベースに与えられた刊行年と異なることがあります。
これが上述した不整合の原因です。殊に論文の受理日が年末に近い場合にはこうした事態が発生しやすいようです。
 
DOI情報を一元的に管理するのはCrossRefという組織ですが、
DOIに付与される情報の信頼性を担保するのはそのDOIを申請して授与された側、つまり出版社です。
まともな出版社なら、後から改めて確定させた論文の書誌情報がDOI取得当時のものと異なることが分かれば、
CrossRefに通知してDOI情報を更新してもらうことでしょう。
CfCAがウェブ公開している計算機共同利用者の出版論文はDOIのデータベースからスクリプトにより自動的に取得されており、
しかも出版直後のものが多いです。これにより、上記の刊行年の不整合を内包している可能性を否定できません。
この不整合の解消作業は手動になるので (全情報に関してスクリプトを動かし、結果を検証して修正する)、高頻度では行えません。
また、出版社がまともでない場合には(上記の更新作業をさぼっている)、いくら私達が作業しても不整合は解消されません。
けれども、兎も角もウェブページ上では各論文のハイパーリンクから出版社のサイトへ飛べることは間違いありません。
従って、こうした不整合があったとしてもそのための実害は極小であることをご理解いただければと思います。


Q.
誤って自分のファイルを削除(rm)してしまいました。復旧してもらえませんか?

A.
いいえ、一旦削除されたファイルは復旧できません。
利用者のデータ保全は利用者自身が責任を負うべき事柄です。
XC50の募集要項の末尾にある「その他」の第二項目にもその旨を記しておりますが、
このことは本部局が運用するすべての共同利用計算機について共通です。


Q.
ウェブアカウントが不要となりました。削除をお願いします。

A.
諒解しました。ご本人であることを確認でき次第に削除作業を行いますので、
こちらの問い合わせ窓口よりその旨をご連絡ください。


Q.
何度パスワードを打ち込んでもsshログインできません。
NISパスワードのことですが、電子メールで送付された初期パスワードを目で見て、手で打ち込んでいます。
どこに問題があり、私は何をすれば良いでしょうか?

A.
初期NISパスワードを目で見て手で打ち込んでおられるとのことですが、見間違いがあるかもしれません。
ご利用の端末がお使いのフォントによっては、幾つかの文字の区別が難しい場合があります。
このFAQの情報にあるこちらのQAをご覧になり、今一度ぜひ慎重にお試しください。
そして、初期nisパスワードの入力は電子メールからのコピペがお薦めです。


Q.
XC50の共同利用申請書を募集締切日時までに提出できませんでした。
今からでも申請を受け取って貰えるでしょうか?
私が行う計算の規模はXC-Trialの資源より大きく、XC-B以上がどうしても必要です。
ぜひよろしくお願いします。

A.
公平性の観点から、締切日時を過ぎた申請書を受け取ることは一切できません。
それはどのような理由があっても不可です。よろしくご了承のほどお願いします。
なおこの業界で大型計算機の共同利用を行う機関はCfCAだけではなく、他にもございます。
例えば以下のサイトが参考になるかもしれませんので、ご一読ください。


Q.
I failed to submit my XC50 application by the application deadline.
Can you still receive my application?
The resources that my simulations use exceed those of XC-Trial, and I definitely need to be a user of XC-B or higher category.

A.
In the interest of fairness, we WILL NOT accept applications that are past the deadline for any reason. We appreciate your understanding.
Note that CfCA/NAOJ is not the only institute that operates large-scale open-use computing facility in the academic community.
You may find resources that you need through the following websites:


Q.
国立天文台三鷹はどうしてあのように交通不便な場所にあるのでしょうか?

A.
不便であるか否かは個人の感覚よる部分が大きいと思いますが、
現在の立地に関する歴史的な経緯についてはこちらのページが詳しいので、お読みください。


Q.
Cray XC50の次に、CfCAのスーパーコンピュータはどういうものになるでしょうか?

A.
この問いに対する以前の回答は以下のようなものでした。
「さあ、それは誰にも分かりません。西暦2024年の春まで楽しみにお待ちください。」
が、2023年冬に後継機が確定しました。詳しくはこちらを御覧ください。


Last updated: Thu Jan 11 13:25:38 JST 2024