変数の変数の次元に基づいて質問を更新しました。PyTorchは変数を動的次元でサポートしていますか?
入力テンソルが次元10x3で3dポイントを格納すると仮定すると、10は#pointを意味し、3はフィーチャ次元(x、y、z座標など)を意味します。変数の次元は、入力テンソルに依存します。たとえば、次元は10x10です。入力テンソルがその次元を50x3に変更すると、変数の次元も50x50に変更する必要があります。
Tensorflowでは入力ディメンションが変更されているか不明な場合は、tf.placeholder(None、3)として宣言できます。しかし、私は変数のサイズが変わっている/未知の状況には決して遭遇しません。変数は常に固定の次元を持つようです。
私は現在PyTorchを学んでおり、PyTorchがこの機能をサポートしているかどうかはわかりません。どんな情報もありがとう!
=========オリジナルの質問が========
Iは、入力寸法が変化したときにサイズが変更可能な変数を持っています。たとえば、入力が10x2の場合、変数は10x10でなければなりません。入力が25x2の場合、変数は25x25でなければなりません。私の理解では、変数は通常は次元が固定された重みを格納するために使用されます。しかし、私の場合、変数の次元は入力データに依存しますが、これは変更可能です。 PyTorchは現在、この種の機能をサポートしていますか?
ありがとうございます!
入力変数のコンテキストを増やすことで、質問のあいまいさを絞り込むことができます。 –