• 海量数据处理


    目录

    补充

                     

    1.位图应用

    (1)给定100亿个整数,设计算法找到只出现一次的整数

    (2)给两个文件,分别有100亿个整数,我们只有1G内存,如何找到两个文件的交集

    (3)一个文件有100亿个整数,1G内存,设计算法找到出现次数不超过2次的所有整数。

    2.布隆过滤器应用

    (1)给两个文件,分别有100亿个query,我们只有1G内存,如何找到两个文件的交集?给出近似算法。 

    (2)如何扩展BloomFilte使得它支持删除元素的操作

    3.哈希切割应用

    (1)给两个文件,分别有100亿个query,我们只有1G内存,如何找到两个文件的交集?给出精确算法。

    (2)给一个超过100G大小的log file,log中存着IP地址,设计算法找到出现次数最多的IP地址?如何找到top K的IP?如何直接用Linux系统命令实现? 


     

    补充

    海量数据处理是指基于海量数据的存储和处理,正因为数据量太大,所以导致要么无法在短时间内迅速处理,要么无法一次性装入内存。

    • 对于时间问题,就可以采用位图、布隆过滤器等数据结构来解决。
    • 对于空间问题,就可以采用哈希切割等方法,将大规模的数据转换成小规模的数据逐个击破。

                     

                     

                    

    1.位图应用

    (1)给定100亿个整数,设计算法找到只出现一次的整数

    ①我们标记整数时可以将其分为三种状态:

    • 出现0次                   00
    • 出现1次                   01
    • 出现2次及以上        10

    ②解释 

    • 一个位只能表示两种状态,而要表示三种状态我们至少需要用两个位,因此我们可以开辟两个位图,这两个位图的对应位置分别表示该位置整数的第一个位和第二个位。
    • 我们可以将着三种状态分别定义为00、01、10,此时当我们读取到重复的整数时,就可以让其对应的两个位按照00→01→10的顺序进行变化,最后状态是01的整数就是只出现一次的整数。

    ③代码示例

    1. #include
    2. #include
    3. #include
    4. #include
    5. using namespace std;
    6. int main()
    7. {
    8. //此处应该从文件中读取100亿个整数
    9. vector<int> v{ 9, 34, 8, 72, 3, 45, 9, 8, 27, 3, 2, 3, 45, 8, 45};
    10. //在堆上申请空间
    11. bitset<4294967295>* bs1 = new bitset<4294967295>;
    12. bitset<4294967295>* bs2 = new bitset<4294967295>;
    13. //bitset<-1> bs;
    14. //处理数据
    15. for (auto e : v)
    16. {
    17. if (!bs1->test(e) && !bs2->test(e)) //00->01
    18. {
    19. bs2->set(e);
    20. }
    21. else if (!bs1->test(e) && bs2->test(e)) //01->10
    22. {
    23. bs1->set(e);
    24. bs2->reset(e);
    25. }
    26. else if (bs1->test(e) && !bs2->test(e)) //10->10
    27. {
    28. //不做处理
    29. }
    30. else //11(理论上不会出现该情况,保证代码的完整性)
    31. {
    32. assert(false);
    33. }
    34. }
    35. for (size_t i = 0; i < 4294967295; i++)
    36. {
    37. if (!bs1->test(i) && bs2->test(i)) //01
    38. cout << i << endl;
    39. }
    40. return 0;
    41. }

    ④补充

    • 存储100亿个整数大概需要40G的内存空间,因此题目中的100亿个整数肯定是存储在文件当中的,代码中直接从vector中读取数据是为了方便演示。
    • 为了能映射所有整数,位图的大小必须开辟为2^32位,也就是代码中的4294967295,因此开辟一个位图大概需要512M的内存空间,两个位图就要占用1G的内存空间,所以代码中选择在堆区开辟空间,若是在栈区开辟则会导致栈溢出。

                     

    (2)给两个文件,分别有100亿个整数,我们只有1G内存,如何找到两个文件的交集

    ①方法1:(一个位图需要512M内存)

    • 依次读取第一个文件中的所有整数,将其映射到一个位图。
    • 再读取另一个文件中的所有整数,判断在不在位图中,在就是交集,不在就不是交集。

    ②方法2:  (两个位图刚好需要1G内存,满足要求)

    • 依次读取第一个文件中的所有整数,将其映射到位图1。
    • 依次读取另一个文件中的所有整数,将其映射到位图2。
    • 将位图1和位图2进行 操作,结果存储在位图1中,此时位图1当中映射的整数就是两个文件的交集。

    对于32位的整型,无论待处理的整数个数是多少,开辟的位图都必须有 2^32 个比特位,也就是512M,因为我们要保证每一个整数都能够映射到位图当中,因此这里位图的空间消耗是固定的。
                    

    (3)一个文件有100亿个整数,1G内存,设计算法找到出现次数不超过2次的所有整数。

    ①该题目和(1)中的方法是一样的,在该题目中我们标记整数时可以将其分为四种状态:

    • 出现0次             00
    • 出现1次             01
    • 出现2次             10
    • 出现2次以上      11

                     

    ②一个整数要表示四种状态也是只需要两个位就够了,此时当我们读取到重复的整数时,就可以让其对应的两个位按照00→01→10→11的顺序进行变化,最后状态是01或10的整数就是出现次数不超过2次的整数

                     

    ③代码

    1. #include
    2. #include
    3. #include
    4. using namespace std;
    5. int main()
    6. {
    7. vector<int> v{ 9, 34, 8, 72, 3, 45, 9, 8, 27, 3, 2, 3, 45, 8, 45};
    8. //在堆上申请空间
    9. bitset<4294967295>* bs1 = new bitset<4294967295>;
    10. bitset<4294967295>* bs2 = new bitset<4294967295>;
    11. for (auto e : v)
    12. {
    13. if (!bs1->test(e) && !bs2->test(e)) //00->01
    14. {
    15. bs2->set(e);
    16. }
    17. else if (!bs1->test(e) && bs2->test(e)) //01->10
    18. {
    19. bs1->set(e);
    20. bs2->reset(e);
    21. }
    22. else if (bs1->test(e) && !bs2->test(e)) //10->11
    23. {
    24. bs2->set(e);
    25. }
    26. else //11->11
    27. {
    28. //不做处理
    29. }
    30. }
    31. for (size_t i = 0; i < 4294967295; i++)
    32. {
    33. if ((!bs1->test(i) && bs2->test(i)) || (bs1->test(i) && !bs2->test(i))) //01或10
    34. cout << i << endl;
    35. }
    36. return 0;
    37. }

                     

                    

             

    2.布隆过滤器应用

    (1)给两个文件,分别有100亿个query,我们只有1G内存,如何找到两个文件的交集?给出近似算法。 

    题目要求给出近似算法,也就是允许存在一些误判,可以用布隆过滤器:

    • 先读取其中一个文件当中的query,将其全部映射到一个布隆过滤器当中。
    • 然后读取另一个文件当中的query,依次判断每个query是否在布隆过滤器当中,如果在则是交集,不在则不是交集。

                             

    (2)如何扩展BloomFilte使得它支持删除元素的操作

    ①布隆过滤器一般不支持删除操作

    • 因为布隆过滤器判断一个元素存在时可能存在误判,因此无法保证要删除的元素确实在布隆过滤器当中,此时将位图中对应的比特位清0会影响其他元素。
    • 此外,就算要删除的元素确实在布隆过滤器当中,也可能该元素映射的多个比特位当中有些比特位是与其他元素共用的,此时将这些比特位清0也会影响其他元素。

                     

    ②如果要让布隆过滤器支持删除,就必须要做到以下两点:

    • 保证要删除的元素在布隆过滤器当中,比如在删除一个用户的信息前,先遍历数据库确认该用户确实存在。
    • 保证删除后不会影响到其他元素,比如可以为位图中的每一个比特位设置一个对应的计数值,当插入元素映射到该比特位时将该比特位的计数值++,当删除元素时将该元素对应比特位的计数值 -- 即可。

                     

                    

                    

    3.哈希切割应用

    (1)给两个文件,分别有100亿个query,我们只有1G内存,如何找到两个文件的交集?给出精确算法。

    ①基本思路

    • 首先需要估算一下这里一个文件的大小,便于确定将一个文件切分为多少个小文件。
    • 假设平均每个query为20字节,1G大约10亿bite , 那么100亿个query就是200G,由于我们只有1G内存,这里可以考虑将一个文件切分成400个小文件,每个小文件512M。
    • 这里我们将这两个文件分别叫做A文件和B文件,此时我们将A文件切分成了A0~A399共400个小文件,将B文件切分成了B0~B399共400个小文件。

                     

    ②在切分时需要选择一个哈希函数进行哈希切分

    • 以切分A文件为例,切分时依次遍历A文件当中的每个query,通过哈希函数将每个query转换成一个整型 i (0 ≤ i ≤ 399),然后将这个query写入到小文件Ai当中。对于B文件也是同样的道理,但切分A文件和B文件时必须采用的是同一个哈希函数
    • 由于切分A文件和B文件时采用的是同一个哈希函数,因此A文件与B文件中相同的query计算出的 i 值都是相同的,最终就会分别进入到Ai和Bi文件中,这也是哈希切分的意义。
       

                     

    ③只需要分别找出A0与B0的交集、A1与B1的交集、…、A399与B399的交集,最终将这些交集和起来就是A文件和B文件的交集。

                     

    ④各个小文件之间又应该如何找交集

    • 经过切分后理论上每个小文件的平均大小是512M,因此我们可以将其中一个小文件加载到内存,并放到一个set容器中,再遍历另一个小文件当中的query,依次判断每个query是否在set容器中,如果在则是交集,不在则不是交集。
    • 当哈希切分并不是平均切分,有可能切出来的小文件中有一些小文件的大小仍然大于1G,此时如果与之对应的另一个小文件可以加载到内存,则可以选择将另一个小文件中的query加载到内存,因为我们只需要将两个小文件中的一个加载到内存中就行了。
    • 但如果两个小文件的大小都大于1G,那我们可以考虑将这两个小文件再进行一次切分,将其切成更小的文件,方法与之前切分A文件和B文件的方法类似。

                             

    ⑤本质这里在进行哈希切分时,就是将这些小文件看作一个个的哈希桶,将大文件中的query通过哈希函数映射到这些哈希桶中,如果是相同的query,则会产生哈希冲突进入到同一个小文件中。

    • 哈希切分的意义是: 相同的查询字符串(使用同一个hash算法)进入相同的小文件
    • 哈希切分特点: A和B文件中相同的query,分别进入了,Ai和Bi文件中下标相同的小文件
       

                     

    (2)给一个超过100G大小的log file,log中存着IP地址,设计算法找到出现次数最多的IP地址?如何找到top K的IP?如何直接用Linux系统命令实现? 

                     

    ①找到次数最多

    • 我们将这个log file叫做A文件,由于A文件的大小超过100G,这里可以考虑将A文件切分成100个小文件。
    • 在切分时选择一个哈希函数进行哈希切分,通过哈希函数将A文件中的每个IP地址转换成一个整型 i (0 ≤ i ≤ 99),然后将这个IP地址写入到小文件Ai当中。
    • 由于哈希切分时使用的是同一个哈希函数,因此相同的IP地址计算出的 i  值是相同的,最终这些相同的IP地址就会进入到同一个Ai小文件当中。
    • 经过哈希切分后得到的这些小文件,理论上就能够加载到内存当中了,如果个别小文件仍然太大那可以对其再进行 一 次哈希切分,让最后切分出来的小文件能够加载到内存。
    • 现在要找到出现次数最多的IP地址,就可以分别将各个小文件加载到内存中, 然后用一个map容器统计出每个小文件中各个IP地址出现的次数,然后比对各个小文件中出现次数最多的IP地址,最终就能够得到log file中出现次数最多的IP地址。

    ②找到top K的IP

    • 如果要找到出现次数top K的IP地址,可以先将一个小文件加载到内存中,选出小文件中出现次数最多的K个IP地址建成一个小堆,然后再依次比对其他小文件中各个IP地址出现的次数,如果某个IP地址出现的次数大于堆顶IP地址出现的次数,则将该IP地址与堆顶的IP地址进行交换,然后再进行一次向下调整,使其仍为小堆,最终比对完所有小文件中的IP地址后,这个小堆当中的K个IP地址就是出现次数top K的IP地址。
       

                             

    ③Linux系统命令实现 

    • 可以用sort log_file | uniq -c  | sort -nrk1,1 | head -k 命令选取出现次数top K的IP地址

    • 1.创建log_file文件并填充数据 

                                     

    • 2.使用sort命令对log_file文件进行排序。 

                             

    • 3.使用uniq命令统计每个IP地址出现的次数。 

                             

    •  4.刚才使用sort命令只是以字母序进行文本排序,现在统计出了每个IP地址出现的次数,所以需要再次使用sort命令按照每个IP底层出现的次数进行反向排序。

             

    •  5.最后使用head 命令选出出现次数top K的IP地址即可

     

  • 相关阅读:
    十、rem适配方案
    商业数据分析概论
    【cmake开发(6)】Cmakelists 使用 gcc/g++指定版本,find_package 基本原理
    【ML】 第四章 训练模型
    十八、字符串(2)
    nn.Linear(d, num_units, bias=True)设置bias和不设置bias有什么区别?
    微机原理_14
    Java集合collection map stream流
    视频流PS打包方式详解
    Java关于普通查找和二分查找
  • 原文地址:https://blog.csdn.net/m0_52169086/article/details/126887486