List列表使用HashSet实现数据去重小技巧
【摘要】 在数据库中,可以使用distinct来去重,不过加上distinct会影响一定的性能,所以在一些特殊情况,数据量不是很大的情况,可以利用java集合Set的特性,Set集合数据是不重复的来进行数据过滤
实例代码:进行数据过滤,不过因为HashSet数据是无序的,所以数据是不排序的
public <T> List<T> distinctList...
在数据库中,可以使用distinct来去重,不过加上distinct会影响一定的性能,所以在一些特殊情况,数据量不是很大的情况,可以利用java集合Set的特性,Set集合数据是不重复的来进行数据过滤
实例代码:进行数据过滤,不过因为HashSet数据是无序的,所以数据是不排序的
public <T> List<T> distinctListBySet(List<T> list) {
return new ArrayList<T>(new HashSet<T>(list));
}
- 1
- 2
- 3
上面代码进行了无序排序,下面这个代码进行有序去查:
public <T> List<T> distinctListBySetOrder(List<T> originList) { List<T> newList = new ArrayList<T>(); Set<T> sortSet = new HashSet<T>(); for (T entity: originList) { if (sortSet.add(entity)) { newList.add(entity); } } return newList;
}
- 1
- 2
- 3
- 4
- 5
- 6
- 7
- 8
- 9
- 10
文章来源: blog.csdn.net,作者:smileNicky,版权归原作者所有,如需转载,请联系作者。
原文链接:blog.csdn.net/u014427391/article/details/117520773
【版权声明】本文为华为云社区用户转载文章,如果您发现本社区中有涉嫌抄袭的内容,欢迎发送邮件进行举报,并提供相关证据,一经查实,本社区将立刻删除涉嫌侵权内容,举报邮箱:
cloudbbs@huaweicloud.com
- 点赞
- 收藏
- 关注作者
评论(0)