。
基本的な手順は次のようになります。前処理ステップとして
- 、我々は入力データにウィンドウ集計を行う必要があるとして
0s
とNaNs
を交換してください。
- データ値 と、
NaNs
のマスクに対して、ウィンドウ付き合計をScipy's convolve2d
で取得します。境界要素をゼロとして使用します。
- ウインドウサイズから
NaNs
のウインドウカウントを減算して、合計の原因となる有効なエレメントの数を取得します。
- 境界要素については、加算を説明する要素が徐々に小さくなります。
ここで、これらのintervaled-summations
は、比較的効率的なScipy's
1Duniform-filter
によっても得られます。他の利点は、これらの合計/平均化を行う軸を指定できることです。
Scipyの2D convolution
と1D uniform filter
の組み合わせでは、次のようなアプローチはほとんどありません。
インポート関連scipyのダウンロード機能 -
from scipy.signal import convolve2d as conv2
from scipy.ndimage.filters import uniform_filter1d as uniff
アプローチ#1:
def nanmoving_mean_numpy(data, W): # data: input array, W: Window size
N = data.shape[-1]
hW = (W-1)//2
nan_mask = np.isnan(data)
data1 = np.where(nan_mask,0,data)
value_sums = conv2(data1.reshape(-1,N),np.ones((1,W)),'same', boundary='fill')
nan_sums = conv2(nan_mask.reshape(-1,N),np.ones((1,W)),'same', boundary='fill')
value_sums.shape = data.shape
nan_sums.shape = data.shape
b_sizes = hW+1+np.arange(hW) # Boundary sizes
count = np.hstack((b_sizes , W*np.ones(N-2*hW), b_sizes[::-1]))
return value_sums/(count - nan_sums)
アプローチ#2:
def nanmoving_mean_numpy_v2(data, W): # data: input array, W: Window size
N = data.shape[-1]
hW = (W-1)//2
nan_mask = np.isnan(data)
data1 = np.where(nan_mask,0,data)
value_sums = uniff(data1,size=W, axis=-1, mode='constant')*W
nan_sums = conv2(nan_mask.reshape(-1,N),np.ones((1,W)),'same', boundary='fill')
nan_sums.shape = data.shape
b_sizes = hW+1+np.arange(hW) # Boundary sizes
count = np.hstack((b_sizes , W*np.ones(N-2*hW,dtype=int), b_sizes[::-1]))
out = value_sums/(count - nan_sums)
out = np.where(np.isclose(count, nan_sums), np.nan, out)
return out
アプローチ#3:
def nanmoving_mean_numpy_v3(data, W): # data: input array, W: Window size
N = data.shape[-1]
hW = (W-1)//2
nan_mask = np.isnan(data)
data1 = np.where(nan_mask,0,data)
nan_avgs = uniff(nan_mask.astype(float),size=W, axis=-1, mode='constant')
b_sizes = hW+1+np.arange(hW) # Boundary sizes
count = np.hstack((b_sizes , W*np.ones(N-2*hW), b_sizes[::-1]))
scale = ((count/float(W)) - nan_avgs)
out = uniff(data1,size=W, axis=-1, mode='constant')/scale
out = np.where(np.isclose(scale, 0), np.nan, out)
return out
ランタイムテスト
データセット#1:
In [807]: # Create random input array and insert NaNs
...: data = np.random.randint(10,size=(20,30,60)).astype(float)
...:
...: # Add 10% NaNs across the data randomly
...: idx = np.random.choice(data.size,size=int(data.size*0.1),replace=0)
...: data.ravel()[idx] = np.nan
...:
...: W = 5 # Window size
...:
In [808]: %timeit nanmoving_mean(data,window=W,axis=2)
...: %timeit nanmoving_mean_numpy(data, W)
...: %timeit nanmoving_mean_numpy_v2(data, W)
...: %timeit nanmoving_mean_numpy_v3(data, W)
...:
10 loops, best of 3: 22.3 ms per loop
100 loops, best of 3: 3.31 ms per loop
100 loops, best of 3: 2.99 ms per loop
1000 loops, best of 3: 1.76 ms per loop
データセット#2 [ビガーデータセット]:
In [811]: # Create random input array and insert NaNs
...: data = np.random.randint(10,size=(120,130,160)).astype(float)
...:
...: # Add 10% NaNs across the data randomly
...: idx = np.random.choice(data.size,size=int(data.size*0.1),replace=0)
...: data.ravel()[idx] = np.nan
...:
In [812]: %timeit nanmoving_mean(data,window=W,axis=2)
...: %timeit nanmoving_mean_numpy(data, W)
...: %timeit nanmoving_mean_numpy_v2(data, W)
...: %timeit nanmoving_mean_numpy_v3(data, W)
...:
1 loops, best of 3: 796 ms per loop
1 loops, best of 3: 486 ms per loop
1 loops, best of 3: 275 ms per loop
10 loops, best of 3: 161 ms per loop
私は見ていませんapply_along_axisのコードですが、iとindをどう構築するのですか? –
@ShichuZhuあなたがパフォーマンスを探しているなら、 'apply_along_axis'は助けになりません。 – Divakar
@Divakar基本関数が1Dのみを扱う場合、他のすべての次元をループすることは唯一の方法です。ベクトル化された操作を含むように基本関数を修正しない限り、私は推測しますか? –