以高效的方式创建、访问、存储和加载 boost::bimap

Create, access, store and load boost::bimap in an efficient way

提问人:AwaitedOne 提问时间:12/14/2017 最后编辑:AwaitedOne 更新时间:12/14/2017 访问量:332

问:

继续我之前的问题,序列化位集以避免在同一数据上重复创建 bimap,因此请保存 bimap 并在需要时加载。

我选择成对存储数据(以位集为单位),因为它使用哈希技术并且需要 O(1) 操作来搜索。可能有 4000 万个位集条目,并希望执行以下操作。boost::bimap<key,value>bimap

  1. 在尽可能短的时间内插入位集。回答我之前的问题需要更多时间(对于 25 万个位集条目,将近 5 秒,与 2 下给出的哈希函数相比,这是 5 倍)。出于同样的原因,并被使用。bimapunordered_set_ofunordered_multiset_of

  2. 我想尽可能少地消耗内存并避免复制,这与以下哈希函数不同。bimap

    namespace std {
        template <typename Block, typename Alloc>
        struct hash<boost::dynamic_bitset<Block, Alloc> > {
    
            using bitset_type = boost::dynamic_bitset<Block, Alloc>;
            using block_type = typename bitset_type::block_type ;
    
            size_t operator()(boost::dynamic_bitset<Block, Alloc> const& bs) const
            {
                thread_local static std::vector<block_type> block_data;
                auto blocks = bs.num_blocks();
                block_data.assign(blocks, 0);
                to_block_range(bs, block_data.begin());
                return boost::hash<std::vector<block_type>>()(block_data);
            }
        };
    }
    
  3. O(1) 搜索键/值。

  4. 在短时间内加载 bimap。同样,加载 bimap 需要花费大量时间(对于包含 25 万个条目、大小为 12 MB 的双地图来说,将近 20 秒)。

因此,我想在我已经问到的问题中达到 1、2、3 和 4,答案代码@sehe如下所示。

#include <boost/archive/binary_iarchive.hpp>
#include <boost/archive/binary_oarchive.hpp>
#include <boost/bimap.hpp>
#include <boost/bimap/unordered_multiset_of.hpp>
#include <boost/bimap/unordered_set_of.hpp>
#include <boost/dynamic_bitset/serialization.hpp>
#include <fstream>
#include <iostream>
#include <string>

#include <boost/iostreams/device/back_inserter.hpp>
#include <boost/iostreams/stream_buffer.hpp>
#include <boost/iostreams/stream.hpp>

#include <boost/functional/hash.hpp>

namespace serial_hashing { // see https://stackoverflow.com/questions/30097385/hash-an-arbitrary-precision-value-boostmultiprecisioncpp-int
    namespace io = boost::iostreams;

    struct hash_sink {
        hash_sink(size_t& seed_ref) : _ptr(&seed_ref) {}

        typedef char         char_type;
        typedef io::sink_tag category;

        std::streamsize write(const char* s, std::streamsize n) {
            boost::hash_combine(*_ptr, boost::hash_range(s, s+n));
            return n;
        }
      private:
        size_t* _ptr;
    };

    template <typename T> struct hash_impl {
        size_t operator()(T const& v) const {
            using namespace boost;
            size_t seed = 0;
            {
                iostreams::stream<hash_sink> os(seed);
                archive::binary_oarchive oa(os, archive::no_header | archive::no_codecvt);
                oa << v;
            }
            return seed;
        }
    };
}

namespace std {
    template <typename Block, typename Alloc> struct hash<boost::dynamic_bitset<Block, Alloc> >
        : serial_hashing::hash_impl<boost::dynamic_bitset<Block, Alloc> > 
    {};
} // namespace std

namespace bimaps = boost::bimaps;
using Bitset = boost::dynamic_bitset<>;

typedef boost::bimap<
    bimaps::unordered_set_of<Bitset, std::hash<Bitset> >,
     bimaps::unordered_multiset_of<Bitset, std::hash<Bitset> > > Index;

int main() {
    using namespace std::string_literals;

    {
        std::cout << "# Writing binary file ... " << std::endl;
        Index index;
        index.insert({Bitset("10010"s), Bitset("1010110110101010101"s)});

        std::ofstream ofs("binaryfile", std::ios::binary);
        boost::archive::binary_oarchive oa(ofs);
        oa << index;
    }

    {
        std::cout << "# Loading binary file ... " << std::endl;
        std::ifstream ifs("binaryfile", std::ios::binary); // name of loading file

        boost::archive::binary_iarchive ia(ifs);

        Index index;
        ia >> index;
    }
}

编辑

目的我有一个现实生活中的例子,我有一个大字符串,例如2000或更多的百万个字符,例如40-1亿个长度为200或更多字符的短字符串。我的目标是在大字符串中搜索这些短字符串。我想为大字符串创建位集,然后在 bimap 中搜索短字符串。我还想用来获得插入和搜索非常快,不像.bimapunorderedordered

密钥位集长度约为 3-40(一次所有组合)。

值位集长度约为 100-2000(一次只有一个,例如,如果它为 100,则所有值条目将在 90-110 左右)。

C++ 序列化 boost-bimap

评论

0赞 sehe 12/14/2017
我的哈希实现只是扩展得更好。您从未提到过对位集大小的任何限制。因此,我们不能假设存在限制。但是,对于小尺寸,显然更简单的哈希函数要快得多。如果它更快,你为什么不想使用它?(推论:告诉我们你在做什么,一次,这样我们就可以(再次)告诉你使用或类似!那是 >2 个月前。std::bitset<64>
0赞 AwaitedOne 12/14/2017
我担心您在之前的回答中提到的空间,即“您正在复制每个键/值哈希上的所有块”。bimap

答:

1赞 sehe 12/14/2017 #1

您根据具有位集的无序映射来构建整个问题。目标是什么?你用这个设计模拟了哪些现实生活中的问题?

您的位集到底有多大?大小的差异有多大?位的某些子集的分布是什么?假设某些事情,使用快速而肮脏的临时哈希可能比这种通用方法要好得多(请参阅下面的 ¹ 和 ²)

您将希望减少分配,将“打包”的数据加载到非基于节点的容器中,控制元素的排序时间(而不是一直携带该不变性)。

我有很好的结果,将这样的容器放在一个 Boost 进程间共享内存段/内存映射文件中。

基准

我使用以下代码对生成/保存/加载数据进行了基准测试。

请注意,这不会实现上述任何建议,只是它选择退出哈希表选项。不必在每次插入或查找密钥时实例化存档将有很大帮助。此外,请记住,当达到负载因子时,哈希表会重新哈希。调整对于它们真正顺利工作至关重要。

在Wandbox上直播

#include <boost/archive/binary_iarchive.hpp>
#include <boost/archive/binary_oarchive.hpp>
#include <boost/bimap.hpp>
#include <boost/bimap/multiset_of.hpp>
#include <boost/dynamic_bitset/serialization.hpp>
#include <fstream>
#include <vector>
#include <random>
#include <chrono>
#include <iostream>

namespace bimaps = boost::bimaps;
using Block = uint32_t;
using Bitset = boost::dynamic_bitset<Block>;

typedef boost::bimap<bimaps::set_of<Bitset>, bimaps::multiset_of<Bitset>> Index;

template <typename Caption, typename F>
auto timed(Caption const& task, F&& f) {
    using namespace std::chrono;
    using namespace std::chrono_literals;
    struct _ {
        high_resolution_clock::time_point s;
        Caption const& task;
        ~_() { std::cout << " -- (" << task << " completed in " << (high_resolution_clock::now() - s) / 1.0s << "s)\n"; }
    } timing { high_resolution_clock::now(), task };

    return f();
}

int main(int argc, char**) {
    using namespace std::string_literals;

    auto gen_bitset = [
        data=std::vector<Block>(64), // max 2048 bits
        prng=std::mt19937{42} // { std::random_device{}() }
    ]() mutable {
        auto length_gen = std::uniform_int_distribution<size_t>(data.size()/2, data.size());
        auto block_gen = std::uniform_int_distribution<Block>{};

        size_t n = length_gen(prng);
        std::generate_n(data.begin(), n, [&]{ return block_gen(prng); });

        return Bitset(data.begin(), data.begin()+n);
    };

    if (argc>1) {
        std::cout << "# Creating ... " << std::endl;
        Index index;

        timed("Generating data set", [&] {
            for (size_t i = 0; i < 52<<19; ++i) {
                index.insert({gen_bitset(), gen_bitset()});
            }
        });

        timed("Writing binary file", [&] {
            std::ofstream ofs("binaryfile", std::ios::binary);
            boost::archive::binary_oarchive oa(ofs);
            oa << index;
        });
        std::cout << "Written " << index.size() << " key/value pairs\n";
    } else {
        std::cout << "# Loading ... " << std::endl;
        Index index;

        timed("Loading binary file", [&] {
            std::ifstream ifs("binaryfile", std::ios::binary); // name of loading file
            boost::archive::binary_iarchive ia(ifs);
            ia >> index;
        });

        std::cout << "Roundtripped " << index.size() << " key/value pairs\n";
    }
}

这将创建一个包含 27262976 个键/值对的 11G 文件。所有键和值都是均匀随机的位集,长度均匀分布在 1024..2048 位之间。

 rm binaryfile                                                                    
 time ./sotest 1                                                                  
     -- (Generating data set completed in 228.499s)
     -- (Writing binary file completed in 106.083s)
    Written 27262976 key/value pairs

    real    5m48.362s
    user    5m32.876s
    sys     0m14.704s
 ls -ltrah binaryfile 
    -rw-rw-r-- 1 sehe sehe 11G dec 14 01:16 binaryfile
 time ./sotest
    # Loading binary file ... 
     -- (Loading binary file completed in 135.167s)
    Roundtripped 27262976 key/value pairs

    real    2m19.397s
    user    2m11.624s
    sys     0m7.764s

将数据集减少到 .25 百万个条目时,我得到一个 106MiB¹ 的文件,时间如下:

 rm binaryfile 
 time ./sotest 1
    # Creating ... 
     -- (Generating data set completed in 1.13267s)
     -- (Writing binary file completed in 0.586325s)
    Written 262144 key/value pairs

    real    0m1.825s
    user    0m1.676s
    sys     0m0.140s
 ls -ltrah binaryfile 
    -rw-rw-r-- 1 sehe sehe 106M dec 14 01:44 binaryfile
 time ./sotest
    # Loading ... 
     -- (Loading binary file completed in 0.776928s)
    Roundtripped 262144 key/value pairs

    real    0m0.823s
    user    0m0.764s
    sys     0m0.056s

¹ 这基本上告诉我您的位集要小得多 - 我认为这可能非常有利于其他数据结构选择

² 我注意到 Richard Hodges 在较旧的答案中编写了较旧的非缩放哈希实现。你看到发生了什么吗?你问X,提供的信息太少,人们无法真正了解你的问题,所以你得到了X的答案。但这不是最佳选择。你真正的问题是别的什么。

StackOverflow 可能拥有最优秀的程序员,但他们不会神奇地看穿你的 X/Y 问题,即使他们可能会嗅到它并试图把它画出来。归根结底,我们不是通灵者。与高级导师/同事一起工作是无可替代的,他们可以指导您的每一步。

评论

0赞 sehe 12/14/2017
在我在这里花更多时间之前,我将等待[原文如此,nomen est omen]进一步的澄清。无论如何,很明显,性能并不一定来自复杂性(事实上,它很少来自复杂性),理论上“更好”的资源复杂性并不能保证在实践中有更好的行为。你必须真正知道你需要什么,你最终会做什么以及为什么。
0赞 AwaitedOne 12/14/2017
谢谢,请检查上面的编辑,我希望它改善了问题。