hpc

    0

    1答えて

    システムに2つのGPU(2x Nvidia Quadro 410)を異なるpciスロットにインストールしました。これら両方のGPUでのマルティクスの乗算を解決するには、各GPUが出力行列の一部を処理/計算して戻すように入力行列を分割する方法を教えてください。 たとえば、第1のGPU上で100個の要素(10×10)50個の要素を計算し、残りの50個(すなわち、50個)の要素を計算するように、出力行列

    2

    1答えて

    私はWindows HPCクラスタ上でPythonスクリプトを実行しています。スクリプト内の関数は、multiprocessingパッケージのstarmapを使用して、特定の計算集約型プロセスを並列化します。 私は、単一の非クラスタマシンでスクリプトを実行すると、予想されるスピードブーストが得られます。ノードにログインしてスクリプトをローカルで実行すると、予想される速度向上が得られます。ただし、ジ

    0

    2答えて

    私は、2つのノードを使ってMPIクラスタをセットアップするための最小教示の例を開発しています。私はVirtualBoxでVMを使用しています.VirtualBoxは、「ホストオンリーアダプタ」ネットワーク構成を介して、効果的に隔離されたネットワーク経由で接続されています。同じ構成は、隔離されたネットワーク上の物理マシンの小さなクラスタにも適用できます。 目的は、MPIに焦点を絞って、DHCP、DN

    1

    1答えて

    私は非常に並列化できるように設計されたプログラムを持っています。私は、このコードの上流で観察される動作を説明する一部のプロセッサが、このPythonスクリプトをすぐに他のプロセッサに仕上げていると考えています。このコードは、いくつかのmpiプロセスが他のものより早く終了することを可能にする可能性はありますか? dacout = 'output_file.out' comm = MPI.COMM_

    0

    1答えて

    私の新しい仕事では、トルクをリソースマネージャとして使用し、mauiをスケジューラとして使用するクラスタを管理します。 現在、特定のユーザージョブが常にデバッグキューに送信されるこの繰り返しの問題に直面しています。ここでは、システム上のアクティブなキューのリストは以下のとおりです。 Queue Memory CPU Time Walltime Node Run Que Lm State --

    1

    1答えて

    私はdispyで並列実行するプログラムで作業しています。 私はdispyを使ってタスクを作成し、それを別のCPUに配布して実行します。 私はスタンダードライブラリを持っており、私のライブラリ(データと接続)によって開発されました。 コードは次のようである: import dispy import sys import data import connection def compute(

    0

    1答えて

    OpenMPIコードベースでは、各モジュールに複数のバリアントがあります。 mpirunを呼び出すときは、使用するModular Component Architecture (MCA)からモジュールを選択できます。オプションには...含ま 集団的アルゴリズム(高専):基本的な、調整され、間、CUDA、ミリリットル、SM、... バイト転写層(BTL):openib、TCP .. 。 ポイント・ツ

    0

    1答えて

    ウォームタイム制限がユーザグループ単位で設定されるようにtorque-4.2.9/maui-3.3.1を設定しようとしています。私たちは特定のユーザーグループに対して5日間のウォールタイムを実装しようとしています。その後、そのグループ内のすべてのジョブを終了する必要があります。私たちはしばらくしてメーリングリストの解決策を模索してきました。何が必要なのかを親切に示唆している。

    0

    1答えて

    MPI_Rsend man papersによって、MPI_Rsendを使用するためには、受信が既に送信されていることを保証する必要があります。レシーブが送信される前に受信がポストされていないとエラーですが、受信が既にポスティングされていることを保証する方法は?MPI_Rsendに関するいくつかの例を見つけようとしますが、何も見つかりません。このエラーが発生しますか? MPI_RSend_error

    0

    1答えて

    私はscalasca(scorep,cube,..)をインストールしており、性能測定にOpen MPIを使用しています。私がオプション: "--prefix =/my-path"をmpirunに追加すると、 "scalasca - analyze"は実行できません(中止)。 私のコマンド: scalasca -analyze mpirun -np 1 --host localhost --pref