1. 使用`Set`集合去重:
import java.util.Arrays;
import java.util.HashSet;
import java.util.Set;
public class RemoveDuplicates {
public static void main(String[] args) {
int[] arr = {1, 2, 2, 3, 4, 4, 5};
Set
set = new HashSet<>(); for (int num : arr) {
set.add(num);
}
int[] newArr = new int[set.size()];
int index = 0;
for (int num : set) {
newArr[index++] = num;
}
System.out.println(Arrays.toString(newArr)); // 输出 [1, 2, 3, 4, 5]
}
}
2. 使用`LinkedHashSet`保持元素顺序的去重:
import java.util.Arrays;
import java.util.LinkedHashSet;
import java.util.Set;
public class RemoveDuplicates {
public static void main(String[] args) {
int[] arr = {1, 2, 2, 3, 4, 4, 5};
Set
set = new LinkedHashSet<>(); for (int num : arr) {
set.add(num);
}
int[] newArr = new int[set.size()];
int index = 0;
for (int num : set) {
newArr[index++] = num;
}
System.out.println(Arrays.toString(newArr)); // 输出 [1, 2, 3, 4, 5]
}
}
3. 使用`Stream API`进行数组去重:
import java.util.Arrays;
import java.util.stream.Collectors;
public class RemoveDuplicates {
public static void main(String[] args) {
int[] arr = {1, 2, 2, 3, 4, 4, 5};
int[] newArr = Arrays.stream(arr).distinct().toArray();
System.out.println(Arrays.toString(newArr)); // 输出 [1, 2, 3, 4, 5]
}
}
4. 使用`HashMap`去重:
import java.util.Arrays;
import java.util.HashMap;
import java.util.Map;
public class RemoveDuplicates {
public static void main(String[] args) {
int[] arr = {1, 2, 2, 3, 4, 4, 5};
Map
map = new HashMap<>(); for (int num : arr) {
map.put(num, 1);
}
int[] newArr = new int[map.size()];
int index = 0;
for (Map.Entry
entry : map.entrySet()) { newArr[index++] = entry.getKey();
}
System.out.println(Arrays.toString(newArr)); // 输出 [1, 2, 3, 4, 5]
}
}
以上方法各有优缺点,选择合适的方法取决于你对去重后数组顺序的要求以及性能考虑。`HashSet`和`HashMap`去重较快,但会丢失原始数组的顺序;`LinkedHashSet`可以保持顺序但需要额外的空间;`Stream API`方法简洁,但可能在大数据量时效率较低。
请根据你的具体需求选择合适的方法