2012-01-27 5 views
5

マイクをスピーカーの横に置き、数秒間曲を聴くことで曲を特定できるアプリを書いてみたいと思っています。iosアプリの機能が好きですか?

iOSでこれを達成するために使用できるフレームワークやライブラリ、サービスはありますか?

+2

はい、いいえ。実際の認識はデバイス上では行われませんが、サウンドデータは遠隔地に送られて解析されます(Shazamはインターネット接続でしか動作しません)。あなたはiOSでそれを行うことができます。あなたがオーディオや数学の専門家でなければ、単一のiOSデバイスのようなオーディオ分析アルゴリズムを実装しようとしても、あなた自身で行うことはお勧めしません。 – weltraumpirat

+0

私は同意する、私は適切な方法は、歌を検出するためにWeb APIに頼っていると信じて...ちょうど使用するAPIを確認していない。そこに1つはありますか? – zumzum

答えて

3

照会できるAPIが必要です。例では、このようなAPIがGracenote あるUFまたはい、あなたは彼らが使用することができ、オーディオ指紋を計算するためのC++ライブラリを提供echonest here によって開発されたechoprintライブラリーで見ることができMusicbrainz

+0

そういう2つのうちのどちらかが、私がiOS上で行う必要があるものを手に入れる能力を提供していると言っていますか?または、あなたがそれをするかもしれないと思うサービスだけですか? – zumzum

+0

Musicbrainzでは、実際に音楽タグデータベースとpython [MusicBrainz Picard](http://musicbrainz.org/doc/MusicBrainz_Picard)で書かれたオープンソースのタグをダウンロードできます。 反対のGracenoteは無料ではありません。 Tagaliciousなどのアプリケーションでは、タグ付けに使用します。これらは実際のiOSライブラリではありません。そのため、これらのサービスとの通信のためにいくつかの作業を行う必要があります。ネットワーキングの部分については、[AFNetworking](https://github.com/AFNetworking/AFNetworking)のようなネットワークフレームワークを使用することができます。 – Sbhklr

1

を見ている可能性がありiOSの下で彼らはまた、イオスの例を与える!

関連する問題