ブーストを使用して、それを自分で行うといない方には、あなたが面白い場合。
デリミタ文字列が非常に長いと仮定すると、区切り文字であれば文字列のすべての文字をチェックするとO(M)がかかりますので、オリジナルのすべての文字に対してループします文字列、長さNで言うと、O(M * N)です。
私はマップ(「ブーリアン」のようなマップのような)を使っていますが、ここではインデックス= ASCIIの各デリミタの真を持つ単純なブール配列を使用します。
文字列を繰り返し、charが区切り文字であるかどうかをチェックするとO(1)になり、結果的に全体的にO(N)が返されます。ここで
は私のサンプルコードです:
const int dictSize = 256;
vector<string> tokenizeMyString(const string &s, const string &del)
{
static bool dict[dictSize] = { false};
vector<string> res;
for (int i = 0; i < del.size(); ++i) {
dict[del[i]] = true;
}
string token("");
for (auto &i : s) {
if (dict[i]) {
if (!token.empty()) {
res.push_back(token);
token.clear();
}
}
else {
token += i;
}
}
if (!token.empty()) {
res.push_back(token);
}
return res;
}
int main()
{
string delString = "MyDog:Odie, MyCat:Garfield MyNumber:1001001";
//the delimiters are " " (space) and "," (comma)
vector<string> res = tokenizeMyString(delString, " ,");
for (auto &i : res) {
cout << "token: " << i << endl;
}
return 0;
}
注:tokenizeMyStringは値によってベクトルを返し、最初のスタック上にそれを作成するので、私たちはここに、コンパイラ>>> RVOの電源を使用している - 戻り値最適化:)
Boost.StringAlgorithmまたはBoost.Tokenizerが役立ちます。 –
または、いくつかのアイデアは、この答えから得ることができます:http://stackoverflow.com/questions/4888879/elegant-ways-to-count-the-frequency-of-words-in-a-file – Nawaz
@ K-ballo :質問によると、あなたはBoostのような外部ライブラリを使うべきではありません。 – deepmax