Если вам интересно в том, как сделать это самостоятельно и не использовать импульс.
Предполагая, что строка разделителя может быть очень длинной - скажем, M, проверяя каждый символ в вашей строке, если это разделитель, будет стоить O (M), поэтому делать это в цикле для всех символов в вашем оригинале строка, пусть, по длине N, равна O (M * N).
Я бы использовал словарь (например, карту - «разделитель» для «booleans» - но здесь я бы использовал простой логический массив, который имеет true в значении index = ascii для каждого разделителя).
Теперь итерация по строке и проверка, является ли символ разделителем O (1), что в конечном итоге дает нам O (N) в целом.
Вот мой пример кода:
const int dictSize = 256;
vector<string> tokenizeMyString(const string &s, const string &del)
{
static bool dict[dictSize] = { false};
vector<string> res;
for (int i = 0; i < del.size(); ++i) {
dict[del[i]] = true;
}
string token("");
for (auto &i : s) {
if (dict[i]) {
if (!token.empty()) {
res.push_back(token);
token.clear();
}
}
else {
token += i;
}
}
if (!token.empty()) {
res.push_back(token);
}
return res;
}
int main()
{
string delString = "MyDog:Odie, MyCat:Garfield MyNumber:1001001";
//the delimiters are " " (space) and "," (comma)
vector<string> res = tokenizeMyString(delString, " ,");
for (auto &i : res) {
cout << "token: " << i << endl;
}
return 0;
}
Примечание: tokenizeMyString возвращает вектор по значению и создать его в стек первым, так что мы используем здесь власть компилятора >>> РВО - возвращаемое значение оптимизация :)
Boost.StringAlgorithm или Boost.Tokenizer поможет. –
Или, некоторые идеи вы можете получить из этого ответа: http://stackoverflow.com/questions/4888879/elegant-ways-to-count-the-frequency-of-words-in-a-file – Nawaz
@ K-ballo : В соответствии с вопросом, вы не должны использовать внешние библиотеки, такие как Boost. – deepmax