数组去重性能优化:为什么Set和Object哈希表的效率最高

举报
watermelo37 发表于 2025/06/30 22:00:38 2025/06/30
【摘要】         作者:watermelo37        CSDN万粉博主、华为云云享专家、阿里云专家博主、腾讯云、支付宝合作作者,全平台博客昵称watermelo37。        一个假装是giser的coder,做不只专注于业务逻辑的前端工程师,Java、Docker、Python、LLM均有涉猎。------------------------------------------...

        作者:watermelo37

        CSDN万粉博主、华为云云享专家、阿里云专家博主、腾讯云、支付宝合作作者,全平台博客昵称watermelo37。

        一个假装是giser的coder,做不只专注于业务逻辑的前端工程师,Java、Docker、Python、LLM均有涉猎。


---------------------------------------------------------------------

温柔地对待温柔的人,包容的三观就是最大的温柔。

---------------------------------------------------------------------

数组去重性能优化:为什么Set和Object哈希表的效率最高

一、数组去重的基本概念


        数组去重是指从一个数组中移除重复的元素,保留唯一值的过程。例如,给定数组 [1, 2, 2, 3, 4, 4],去重后的结果为 [1, 2, 3, 4]。

        在日常开发中,数组去重是一个常见的需求。无论是处理用户输入、分析数据集,还是实现某些特定算法,数组去重都能显著提升代码的效率和可读性。然而,随着数据规模的增长,不同的去重方法在性能上的差异也会愈发明显。本文将深入探讨数组去重的各种方法及其性能表现,并重点分析如何利用 Set 和哈希表实现高效的去重操作。


二、常见的数组去重方法


        这篇博客主要讨论数组去重的性能,数组去重方法不细谈,有需求您可以移步到我写的数组去重方法合集,其中讨论了:数值类去重引用类去重:去除完全重复的对象元素引用类去重:去除部分重复的对象元素特殊情况:对象的键值对顺序不同但其内容相同混合数组去重五大类数组去重情景的各种去重方法,适用于任何场景:

        常见数组去重方法有:

方法 适用场景 优点 缺点
Set 基础类型数组去重 简洁高效 无法处理引用类型
遍历 + includes 基础类型数组去重 易理解 性能较低
filter() + indexOf() 基础类型数组去重 通用 性能较低
reduce() 复杂逻辑处理或混合类型数组去重 灵活,可扩展逻辑 写法稍复杂
JSON.stringify+set 引用类型数组去重 简洁 无法处理嵌套或无序字段的对象
Map 引用类型数组去重 性能较优,适合复杂数据结构 写法稍繁琐

       有人做过一个测试:在处理一百万个数字的数组(有30%元素重复),使用常规方法去重,执行时间均超过30s,但是使用Set和Object哈希表用时在100ms左右。存在巨大的性能差距。

        这里分享一下生成大量元素数组且重复元素比例可控的方法,这是我在别的资料里面找到的,感觉很有意思。

function generateTestArray(size) {
  const array = []; // 初始化一个空数组

  for (let i = 0; i < size; i++) {
    // 每次循环决定是否生成重复元素
    if (Math.random() > 0.7) {
      // 生成重复元素(30% 概率)
      array.push(array[Math.floor(Math.random() * array.length)] || 0);
    } else {
      // 生成新的随机数(70% 概率)
      array.push(Math.floor(Math.random() * size * 10));
    }
  }

  return array;
}

拓展:该方法的系统误差

        生成数的范围是0-10size。比如传入5,那就生成0-50之间的整数,传入1000,就生成0-10000之间的整数,其中有300个是确定重复的。 可是在0-10000之间的剩下的700个整数也有可能重复,重复的期望是多少呢?

        n是生成的数字总数,计算结果约为24.465个,即随机生成的重复率为:24.465/700,约为3.5%,即该方法生成数字的实际重复率约为:33.5%。

        但是结果和近似估算几乎没差距,就不展开了。如果想降低这个系统误差,直接扩大size后面的乘数即可。

拓展:排序后去重


        这种去重方法的时间复杂度为O(nlogn),额外开销主要由排序操作决定。但是这种方法只能用来进行基础数据类型的去重。同时会改变原始数组的顺序,在部分场景的使用受限。

        为什么呢?

        首先我们知道,遍历 + includes、filter() + indexOf()、reduce()只有写法上存在优雅与否,但是本质都是双循环,均为O(n²)复杂度,关键就在于Set和Object哈希表去重特别高效,接下来我们来探究一下Set和Object哈希表去重高效的原因。


三、Set和Object哈希表综合复杂度为O(n)的秘密


1、数据结构区别

        Set 是 ES6 引入的一种集合数据结构,专门用于存储唯一值。它的底层实现基于哈希表,因此插入和查找的时间复杂度接近 O(1)。

        Object哈希表就不用说了,本质就是利用Object键的映射创建了一个哈希表,只是没有哈希函数,且无法兼容引用类型(可以通过JSON.stringify()处理后兼容)。V8引擎中,Set使用哈希表和红黑树的组合实现,据测试Set的效率要略优于Object哈希表。

2、Set去重的底层原理

        Set 的高效性源于其底层的哈希表实现。以下是关键步骤:

  1. 计算哈希值 :通过哈希函数将每个值映射到一个整数索引。
  2. 定位存储位置 :根据哈希值找到对应的存储位置。
  3. 检查冲突 :如果发生哈希冲突,则采用链地址法或开放地址法解决。
  4. 插入或跳过 :如果该位置已有相同值,则跳过;否则插入。

        这种机制使得 Set 能够快速判断某个值是否已经存在,从而实现高效的去重。

3、Set去重的鲁棒性

        我们来看一个特殊的例子:

function deduplicateWeirdValues(array) {
  return [...new Set(array)];
}

const weirdArray = [0, -0, NaN, NaN, undefined, null, false, 0, "0"];
console.log(deduplicateWeirdValues(weirdArray));
// 输出: [0, NaN, undefined, null, false, "0"]

        在这样一个去重案例中,NaN !== NaN, 同时 0 == "0",但是Set只保留了一个NaN,同时又区分开了 0 与 "0"  ,这是常规方法所做不到的:要么会保留所有的NaN,要么无法区分 0 和 "0"。

4、Set去重的局限性

        仅限于基础数据类型的数组去重,如果涉及到引用类型的数组去重,一般需要结合JSON.stringify()函数(有局限性)或者设计对比函数来实现。

四、总结


        数组去重过程中,本质可以简化为遍历原数组,然后通过去重算法判断是否重复,重复就去除,不重复就添加,所以综合复杂度一定是O(n)*x,x是去重算法的时间复杂度。Set和Object哈希表去重的时间复杂度正好是O(1),如果还要进一步优化,就需要再在去重算法上下功夫了。

        只有锻炼思维才能可持续地解决问题,只有思维才是真正值得学习和分享的核心要素。如果这篇博客能给您带来一点帮助,麻烦您点个赞支持一下,还可以收藏起来以备不时之需,有疑问和错误欢迎在评论区指出~


【声明】本内容来自华为云开发者社区博主,不代表华为云及华为云开发者社区的观点和立场。转载时必须标注文章的来源(华为云社区)、文章链接、文章作者等基本信息,否则作者和本社区有权追究责任。如果您发现本社区中有涉嫌抄袭的内容,欢迎发送邮件进行举报,并提供相关证据,一经查实,本社区将立刻删除涉嫌侵权内容,举报邮箱: cloudbbs@huaweicloud.com
  • 点赞
  • 收藏
  • 关注作者

评论(0

0/1000
抱歉,系统识别当前为高风险访问,暂不支持该操作

全部回复

上滑加载中

设置昵称

在此一键设置昵称,即可参与社区互动!

*长度不超过10个汉字或20个英文字符,设置后3个月内不可修改。

*长度不超过10个汉字或20个英文字符,设置后3个月内不可修改。