我一直在寻找boost :: tokenizer,我发现文档很薄。是否有可能将其标记为“dolphin - monkey - baboon”这样的字符串并将每个单词作为一个标记,以及每个双重标记都是一个标记?从示例中我只看到允许单个字符分隔符。库是否不够先进,无法使用更复杂的分隔符?
我一直在寻找boost :: tokenizer,我发现文档很薄。是否有可能将其标记为“dolphin - monkey - baboon”这样的字符串并将每个单词作为一个标记,以及每个双重标记都是一个标记?从示例中我只看到允许单个字符分隔符。库是否不够先进,无法使用更复杂的分隔符?
看起来你需要自己编写 TokenizerFunction 做你想做的事。
使用iter_split可以使用多个字符标记。
下面的代码将产生以下内容:
海豚
猴
狒狒
#include <iostream>
#include <boost/foreach.hpp>
#include <boost/algorithm/string.hpp>
#include <boost/algorithm/string/iter_find.hpp>
// code starts here
std::string s = "dolphin--mon-key--baboon";
std::list<std::string> stringList;
boost::iter_split(stringList, s, boost::first_finder("--"));
BOOST_FOREACH(std::string token, stringList)
{
std::cout << token << '\n'; ;
}
我知道主题已经很老了,但是当我搜索“按字符串提升标记器”时,它显示在谷歌的顶部链接中
所以我将添加我的TokenizerFunction变种,以防万一:
class FindStrTFunc
{
public:
FindStrTFunc() : m_str(g_dataSeparator)
{
}
bool operator()(std::string::const_iterator& next,
const std::string::const_iterator& end, std::string& tok) const
{
if (next == end)
{
return false;
}
const std::string::const_iterator foundToken =
std::search(next, end, m_str.begin(), m_str.end());
tok.assign(next, foundToken);
next = (foundToken == end) ? end : foundToken + m_str.size();
return true;
}
void reset()
{
}
private:
std::string m_str;
};
我们可以创造
boost::tokenizer<FindStrTFunc> tok("some input...some other input");
并使用,像通常的增强标记器
一种选择是尝试boost :: regex。与自定义标记生成器相比,不确定性能。
std::string s = "dolphin--monkey--baboon";
boost::regex re("[a-z|A-Z]+|--");
boost::sregex_token_iterator iter(s.begin(), s.end() , re, 0);
boost::sregex_token_iterator end_iter;
while(iter != end_iter)
{
std::cout << *iter << '\n';
++iter;
}