私はそれが私に適切な結果が得られた分析目的のために、私はのpythonを使用した、iOS版で音声ピッチ識別に問題が働いている....しかし、私はiOSので同じことを再作成しようとしたときaccelerate framework
を使用して間違った結果や奇妙な結果が出ています。誰か助けてもらえますか?加速フレームワークを使用してscipy.signal.fftconvolveをswiftに移植するにはどうすればよいですか?
私はscipy.signal.fftconvolve
を使用してのpythonに非常によく起こるFFT convolution
を、使用してautocorrelation
を実行したいです。しかし、私がvDSP_conv
を使って同じことをしようとしているとき、それは間違った結果を与えています。
これについての経験や知識を持っている人が私にこのことを指導したり、fftconvolveの仕組みを説明したりすることができれば、大きな助けとなります。 ありがとうございます。