在日常的业务开发中,偶尔会遇到需要将 List 集合中的重复数据去除掉的场景。这个时候可能有同学会问:为什么不直接使用 Set 或者 LinkedHashSet 呢?这样不就没有重复数据的问题了嘛?
不得不说,能提这个问题的同学很机智,一眼就看到了问题的本质。
但是,在实际的业务开发中遇到的情况会更复杂。
本文为大家总结了五个常用的List去重方式,希望有所帮助
通过HashSet去重(不保证顺序)
public static List<String> getUserList() {
List<String> userList = new ArrayList<>();
userList.add("小王");
userList.add("小张");
userList.add("小詹");
userList.add("小王");
userList.add("老王");
userList.add("小詹");
return userList;
}
@Test
public void removeRepeat1() {
List<String> userList = getUserList();
System.out.println("去重前:" + userList);
Set<String> hashSet = new HashSet<>(userList);
List newList = new ArrayList(hashSet);
System.out.println("去重后:" + newList);
}
通过HashSet去重(保证顺序)
@Test
public void removeRepeat2() {
List<String> userList = getUserList();
System.out.println("去重前:" + userList);
Set set = new HashSet();
List newList = new ArrayList();
for (String str : userList) {
if (set.add(str)) {
newList.add(str);
}
}
System.out.println("去重后:" + newList);
}
遍历后判断赋给另一个list集合去重(保证顺序)
@Test
public void removeRepeat3() {
List<String> userList = getUserList();
System.out.println("去重前:" + userList);
List<String> newList = new ArrayList<String>();
for (String str : userList) {
if (!newList.contains(str)) {
newList.add(str);
}
}
System.out.println("去重后:" + newList);
}
通过TreeSet去重(保证顺序)
@Test
public void removeRepeat4() {
List<String> userList = getUserList();
System.out.println("去重前:" + userList);
Set<String> treeSet = new TreeSet<>();
treeSet.addAll(userList);
List newList = new ArrayList(treeSet);
System.out.println("去重后:" + newList);
}
Java8中Stream流处理(保证顺序)
@Test
public void removeRepeat5() {
List<String> userList = getUserList();
System.out.println("去重前:" + userList);
List newList = userList.stream().distinct().collect(Collectors.toList());
System.out.println("去重后:" + newList);
}
到此这篇关于Java实现List去重的五种方法详解的文章就介绍到这了,更多相关Java List去重内容请搜索编程网以前的文章或继续浏览下面的相关文章希望大家以后多多支持编程网!