1. 使用`Set`集合去重:
import java.util.Arrays;import java.util.HashSet;import java.util.Set;public class RemoveDuplicates {public static void main(String[] args) {int[] arr = {1, 2, 2, 3, 4, 4, 5};Setset = new HashSet<>(); for (int num : arr) {set.add(num);}int[] newArr = new int[set.size()];int index = 0;for (int num : set) {newArr[index++] = num;}System.out.println(Arrays.toString(newArr)); // 输出 [1, 2, 3, 4, 5]}}
2. 使用`LinkedHashSet`保持元素顺序的去重:
import java.util.Arrays;import java.util.LinkedHashSet;import java.util.Set;public class RemoveDuplicates {public static void main(String[] args) {int[] arr = {1, 2, 2, 3, 4, 4, 5};Setset = new LinkedHashSet<>(); for (int num : arr) {set.add(num);}int[] newArr = new int[set.size()];int index = 0;for (int num : set) {newArr[index++] = num;}System.out.println(Arrays.toString(newArr)); // 输出 [1, 2, 3, 4, 5]}}
3. 使用`Stream API`进行数组去重:

import java.util.Arrays;import java.util.stream.Collectors;public class RemoveDuplicates {public static void main(String[] args) {int[] arr = {1, 2, 2, 3, 4, 4, 5};int[] newArr = Arrays.stream(arr).distinct().toArray();System.out.println(Arrays.toString(newArr)); // 输出 [1, 2, 3, 4, 5]}}
4. 使用`HashMap`去重:
import java.util.Arrays;import java.util.HashMap;import java.util.Map;public class RemoveDuplicates {public static void main(String[] args) {int[] arr = {1, 2, 2, 3, 4, 4, 5};Mapmap = new HashMap<>(); for (int num : arr) {map.put(num, 1);}int[] newArr = new int[map.size()];int index = 0;for (Map.Entryentry : map.entrySet()) { newArr[index++] = entry.getKey();}System.out.println(Arrays.toString(newArr)); // 输出 [1, 2, 3, 4, 5]}}
以上方法各有优缺点,选择合适的方法取决于你对去重后数组顺序的要求以及性能考虑。`HashSet`和`HashMap`去重较快,但会丢失原始数组的顺序;`LinkedHashSet`可以保持顺序但需要额外的空间;`Stream API`方法简洁,但可能在大数据量时效率较低。
请根据你的具体需求选择合适的方法
