hpc

    0

    1答えて

    ハイパーキューブアーキテクチャの異なるプロセッサにアレイを送信しようとしています。問題は、すべてのプロセッサに送信しないか、間違ったプロセッサに送信することです。 1つの整数を送信しようとすると正しく動作します。ここで は、コードは次のとおりです。 void hypercube(int d,int my_id,int X[]){ mask = (int)pow((double)2,d)-

    0

    1答えて

    ノード間で共有スペースを作成するにはどうすればよいですか? 私は、私はあなたがちょうど出始めていると仮定して、特定の性能要件を持っていないしてみましょう、後で

    0

    1答えて

    新しいトルクのインストール後、すべてのノードがダウンとして登録されます。ここで [[email protected] 6.0.1]# pbsnodes -a rbx-1 state = down power_state = Running np = 1 ntype = cluster mom_service_port = 15002 m

    0

    1答えて

    私はIPMItoolコマンドをかなり掘り下げてきましたが、未処理の16進数コマンドの包括的なリストはまだ見つかりませんでした。我々は、入口温度に対して(IPMItoolで皮肉なことに)設定した上限臨界値に達すると、システムをシャットダウンするトリガを設定する必要がある約90台のDell C6220 IIマシンがあります(Dellではこれらのプラットフォームイベントフィルタと呼んでいます)。私たちの

    -2

    1答えて

    ヘッドノードが1つと計算ノードが3つの小さなクラスターをセットアップしました。私のクライアントマシンは、ワークブックオフロードジョブを送信するために使用するWindows 2016サーバーです。私の問題 - HPCは非常に遅いです。ローカルマシンでジョブを実行すると、HPCクラスターより速く実行されます...約10倍高速です!次のように私のノードの構成は次のとおりです。 ヘッドノード:2vCPUと

    2

    1答えて

    私はIBM Platform LSF(Linux上)を使用するマルチユーザークラスタのユーザーです。私は同じ仕事に関して自分の仕事の優先順位を変えたいと思っています(待ち行列の仕事の絶対優先順位ではありません)。 例:キューで500ジョブを開始しました。このジョブは完了するまでに4日間かかっていますが、後で、私がすでに提出した500ジョブの前に実行したい別のジョブをサブミットしたいと思います。私が

    1

    1答えて

    複数のノードからCPUコアを利用して1つのRスクリプトを実行したいと考えています。各ノードは16のコアを含み、Slurmツールを介して私に割り当てられます。単一ノード上で正常に動作します mpirun -np 1 R --no-save <file_path_R_script.R> another_file_path.Rout : これまでのところ、私のコードは次のようになります。 ncore

    1

    1答えて

    私はHPCクラスタで作業しています。私はローカルのopenmpi_gpuモジュール(intel17.2とcuda 8.0でコンパイル)を正常に作成しました。私がやったことは ${HOME}/modulefiles/Core/openmpi_gpu/ ディレクトリ内cuda_17.2.luaファイルを保存し、 module use $HOME/modulefiles/Core 後、私はmod

    0

    2答えて

    私は1つのストレージノードを持つGPUクラスタを持ち、いくつかのコンピューティングノードはそれぞれ8つのGPUを持っています。私はクラスタを構成しています。 タスクの1つは、Pythonのいくつかのバージョンといくつかのpythonパッケージが必要であり、いくつかのパッケージでは、テンソルフローの異なるバージョンなど、いくつかのバージョンが必要な場合があります。 それでは、私が使用したい別のバージ

    0

    1答えて

    I型の場合:1つのスレッド/ノード12個のノードを使用 、12のプロセス の合計私は全体を希望: mpiexec -n 12 ./Main を私はメッセージを取得します12個のコアのそれぞれに12個の別々のジョブが送信されるのではなく、1個のノードとして認識され、12個のスレッドをすべて実行することができます。