まず第一に、私は、この和音検出アルゴリズムを実装しようとしています: http://www.music.mcgill.ca/~jason/mumt621/papers5/fujishima_1999.pdf和音検出アルゴリズム
を私はもともと私のマイクを使用するアルゴリズムを実装し、それはうまくいきませんでした。テストとして私はCコードを作るために3つのオシレーターを作成しましたが、アルゴリズムはまだ動作しません。私はC、E、Gの数字だけを見るべきだと思うけど、すべての音符の数字を見る。アルゴリズムの実装に問題はありますか?それとも私のN、fref、またはfsの値ですか?ここで
は、重要な部品とコードの抜粋です:あなたはそれを自分で実行してみたい場合はここで
// Set audio Context
window.AudioContext = window.AudioContext || window.webkitAudioContext;
var mediaStreamSource = null;
var analyser = null;
var N = 4096;//8192;//2048; // Samples of Sound
var bufferLen = null;
var buffer = null;
var PCP = [0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0]; // Pitch Class Profiles
var fref = 261.63; // Reference frequency middle C (C4)
// fref = 65.4; // Reference frequency C2
// fref = 440.0; // Reference frequency A4
var audioContext = new AudioContext();
var fs = audioContext.sampleRate; // Retrieve sampling rate. Usually 48KHz
var useMicrophone = false;
navigator.mediaDevices.getUserMedia(constraints)
.then(function(stream) {
// Create an analyzer node to process the audio
analyser = audioContext.createAnalyser();
analyser.fftSize = N;
bufferLen = N/2;
//bufferLen = analyser.frequencyBinCount;
console.log('bufferLen = ' + bufferLen);
buffer = new Float32Array(bufferLen);
if (useMicrophone) {
// Create an AudioNode from the stream.
mediaStreamSource = audioContext.createMediaStreamSource(stream);
// Connect it to the destination.
mediaStreamSource.connect(analyser);
}
else {
// As a test, feed a C chord directly into the analyzer
// C4, E4, G4
var freqs = [261.63, 329.63, 392.00];
for(var i=0; i < freqs.length; i++) {
var o = audioContext.createOscillator();
var g = audioContext.createGain(); //Create Gain Node
o.frequency.value = freqs[i];
o.connect(g);
g.gain.value = 0.25;
g.connect(audioContext.destination);
g.connect(analyser);
o.start(0);
//setTimeout(function(s) {s.stop(0)}, 1000, o);
}
}
// Call algorithm every 50 ms
setInterval(function() {
pcpAlg();
}, 50);
})
.catch(function(err) {
console.log(err.name + ": " + err.message);
});
function pcpAlg() {
analyser.getFloatTimeDomainData(buffer);
//analyser.getFloatFrequencyData(buffer);
// Reset PCP
PCP = [0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0];
// M(0)=-1 so we don't have to start at 0
for (var l = 1; l < bufferLen; l++) { // l = 0,1,...,[(N/2) - 1]
// Calculate M(l)
var ML = Math.round(12 * Math.log2((fs * (l/N))/fref)) % 12; //
//console.log(ML);
if (ML >= 0 && ML <= 11) {
PCP[ML] += Math.pow(Math.abs(buffer[l]), 2);
}
}
// Display Data on UI and also try to determine if the sound is a C or F chord
displayAndCategorize();
}
は私の完全なcodepenです。警告useMicrophoneはfalseに設定されているので、Cのコード音になります。 https://codepen.io/mapmaps/pen/ONQPpw
素晴らしいプロジェクトのようですが、入力は正しいと思いますか?あなたは偽のハードコード化された入力値を試して、その場合の出力が正しいかどうかを確認しましたか? –
バッファ内の時間領域データの代わりに浮動小数点周波数データを取得したくないのですか?私はまた、PCPに蓄積するためにfft結果から適切なビンを抽出したいと仮定します。あなたは現在、初めての価値をつかむだけです。 –