8.复习-Java集合

Java集合

1、常见的集合类

​ java中提供了大量的集合类,主要分为两类:

​ 1、Collection 属于单列集合 有两个接口List 和 Set

​ List常见的:ArrayList 和 LinkedList

​ Set常见的:HashSet(无序) 和 TreeSet(需要排序)

​ 2、Map 属于双列集合

​ 常见的有HashMap 、 TreeMap

​ 线程安全的有:ConcurrentHashMap

2、ArrayList

  • 底层数据结构

ArrayList底层是用动态的数组实现的

  • 初始容量

ArrayList初始容量为0,当第一次添加数据的时候才会初始化容量为10

  • 扩容逻辑

ArrayList在进行扩容的时候是原来容量的1.5倍,每次扩容都需要拷贝数组

  • 添加逻辑

    • 确保数组已使用长度(size)加1之后足够存下下一个数据

    • 计算数组的容量,如果当前数组已使用长度+1后的大于当前的数组长度,则调用grow方法扩容(原来的1.5倍)

    • 确保新增的数据有地方存储之后,则将新元素添加到位于size的位置上。

    • 返回添加成功布尔值。

ArrayList 与 LinkedList的区别

  1. ArrayList是实现了基于动态数组的数据结构,LinkedList基于链表的数据结构。

  2. 对于随机访问get和set,ArrayList效率优于LinkedList,因为LinkedList要移动指针。

  3. 对于新增和删除操作add和remove,LinkedList比较占优势,因为ArrayList要移动数据。 这一点要看实际情况的。若只对单条数据插入或删除,ArrayList的速度反而优于LinkedList。但若是批量随机的插入删除数据,LinkedList的速度大大优于ArrayList. 因为ArrayList每插入一条数据,要移动插入点及之后的所有数据。

  4. 从内存空间占用来说

    ​ ArrayList底层是数组,内存连续,节省内存

    ​ LinkedList 是双向链表需要存储数据,和两个指针,更占用内存

  5. 从线程安全来说,ArrayList和LinkedList都不是线程安全的

解决ArrayList和LinkedList都不是线程安全的问题:

第一:我们使用这个集合,优先在方法内使用,定义为局部变量,这样的话,就不会出现线程安全问题。

第二:如果非要在成员变量中使用的话,可以使用线程安全的集合来替代

​ ArrayList可以通过Collections 的 synchronizedList 方法将 ArrayList 转换成线程安全的容器后再使用。

​ LinkedList 换成ConcurrentLinkedQueue来使用

3、HashMap

HashMap的实现原理

1、底层使用hash表数据结构,体现为数组+(链表|红黑树)

2、添加数据时,先计算key的值确定元素在数组的下标

​ 然后key如果相同则替换

​ 不同则存入链表或红黑树中

3、获取数据通过key的hash计算数组下标获得元素

HashMap的jdk1.7和1.8的区别

  • jdk1.8之前采用拉链法,即数组 + 链表
  • jdk1.8之后采用数组 + (链表 | 红黑树),当链表长度大于8且数组长度大于64则会从链表转化为红黑树

HashMap的put方法具体流程

1、判断键值对数组 table 是否为空或者为null,是则执行初始化resize()进行扩容

2、根据键值key计算hash值得到数组索引

3、判断table[i] == null ,成立则直接新建节点添加

4、如果table[i] == null 不成立

​ 4.1、判断table[i]的首个元素是否和key相同,相同则覆盖

​ 4.2、判断table[i]是否为treeNode,即判断是否为红黑树,是则直接在树中插入键值对

​ 4.3、遍历table[i],key相同则覆盖,最终没有匹配则插入到尾部,然后判断链表长度是否大于8,大于8则将链表转换为红黑树。

5、插入成功后,判断实际存在的键值对数量是否超过了最大容量threshold(数组长度*0.75),如果超过就进行扩容

源码:

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
public V put(K key, V value) {
return putVal(hash(key), key, value, false, true);
}

final V putVal(int hash, K key, V value, boolean onlyIfAbsent,
boolean evict) {
Node<K,V>[] tab; Node<K,V> p; int n, i;
//判断数组是否未初始化
if ((tab = table) == null || (n = tab.length) == 0)
//如果未初始化,调用resize方法 进行初始化
n = (tab = resize()).length;
//通过 & 运算求出该数据(key)的数组下标并判断该下标位置是否有数据
if ((p = tab[i = (n - 1) & hash]) == null)
//如果没有,直接将数据放在该下标位置
tab[i] = newNode(hash, key, value, null);
//该数组下标有数据的情况
else {
Node<K,V> e; K k;
//判断该位置数据的key和新来的数据是否一样
if (p.hash == hash &&
((k = p.key) == key || (key != null && key.equals(k))))
//如果一样,证明为修改操作,该节点的数据赋值给e,后边会用到
e = p;
//判断是不是红黑树
else if (p instanceof TreeNode)
//如果是红黑树的话,进行红黑树的操作
e = ((TreeNode<K,V>)p).putTreeVal(this, tab, hash, key, value);
//新数据和当前数组既不相同,也不是红黑树节点,证明是链表
else {
//遍历链表
for (int binCount = 0; ; ++binCount) {
//判断next节点,如果为空的话,证明遍历到链表尾部了
if ((e = p.next) == null) {
//把新值放入链表尾部
p.next = newNode(hash, key, value, null);
//因为新插入了一条数据,所以判断链表长度是不是大于等于8
if (binCount >= TREEIFY_THRESHOLD - 1) // -1 for 1st
//如果是,进行转换红黑树操作
treeifyBin(tab, hash);
break;
}
//判断链表当中有数据相同的值,如果一样,证明为修改操作
if (e.hash == hash &&
((k = e.key) == key || (key != null && key.equals(k))))
break;
//把下一个节点赋值为当前节点
p = e;
}
}
//判断e是否为空(e值为修改操作存放原数据的变量)
if (e != null) { // existing mapping for key
//不为空的话证明是修改操作,取出老值
V oldValue = e.value;
//一定会执行 onlyIfAbsent传进来的是false
if (!onlyIfAbsent || oldValue == null)
//将新值赋值当前节点
e.value = value;
afterNodeAccess(e);
//返回老值
return oldValue;
}
}
//计数器,计算当前节点的修改次数
++modCount;
//当前数组中的数据数量如果大于扩容阈值
if (++size > threshold)
//进行扩容操作
resize();
//空方法
afterNodeInsertion(evict);
//添加操作时 返回空值
return null;
}

HashMap的扩容机制

  • 在添加元素或初始化的时候需要调用resize()进行扩容,第一次添加数据初始化数组长度为16,之后每次触发扩容都是达到了扩容阈值,即数组长度*0.75
  • 每次扩容都是之前容量的2倍
  • 扩容之后会新建一个数组,需要把老数组中的数据挪动到新数组中
  • 没有hash冲突的节点,则直接使用 e.hash & (newCap - 1) 计算新数组的索引位置
  • 如果是红黑树就走红黑树的添加
  • 如果是链表,则需要遍历链表,可能需要拆分链表,判断 e.hash & oldCap 是否为0,为0则该元素位置停留在原始位置,不为0则移动到原始位置 + oldCap的位置上
  • 源码:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
114
115
116
117
118
119
120
121
122
123
124
125
126
127
128
129
//扩容、初始化数组
final Node<K,V>[] resize() {
Node<K,V>[] oldTab = table;
//如果当前数组为null的时候,把oldCap老数组容量设置为0
int oldCap = (oldTab == null) ? 0 : oldTab.length;
//老的扩容阈值
int oldThr = threshold;
int newCap, newThr = 0;
//判断数组容量是否大于0,大于0说明数组已经初始化
if (oldCap > 0) {
//判断当前数组长度是否大于最大数组长度
if (oldCap >= MAXIMUM_CAPACITY) {
//如果是,将扩容阈值直接设置为int类型的最大数值并直接返回
threshold = Integer.MAX_VALUE;
return oldTab;
}
//如果在最大长度范围内,则需要扩容 OldCap << 1等价于oldCap*2
//运算过后判断是不是最大值并且oldCap需要大于16
else if ((newCap = oldCap << 1) < MAXIMUM_CAPACITY &&
oldCap >= DEFAULT_INITIAL_CAPACITY)
newThr = oldThr << 1; // double threshold 等价于oldThr*2
}
//如果oldCap<0,但是已经初始化了,像把元素删除完之后的情况,那么它的临界值肯定还存在, 如果是首次初始化,它的临界值则为0
else if (oldThr > 0) // initial capacity was placed in threshold
newCap = oldThr;
//数组未初始化的情况,将阈值和扩容因子都设置为默认值
else { // zero initial threshold signifies using defaults
newCap = DEFAULT_INITIAL_CAPACITY;
newThr = (int)(DEFAULT_LOAD_FACTOR * DEFAULT_INITIAL_CAPACITY);
}
//初始化容量小于16的时候,扩容阈值是没有赋值的
if (newThr == 0) {
//创建阈值
float ft = (float)newCap * loadFactor;
//判断新容量和新阈值是否大于最大容量
newThr = (newCap < MAXIMUM_CAPACITY && ft < (float)MAXIMUM_CAPACITY ?
(int)ft : Integer.MAX_VALUE);
}
//计算出来的阈值赋值
threshold = newThr;
@SuppressWarnings({"rawtypes","unchecked"})
//根据上边计算得出的容量 创建新的数组
Node<K,V>[] newTab = (Node<K,V>[])new Node[newCap];
//赋值
table = newTab;
//扩容操作,判断不为空证明不是初始化数组
if (oldTab != null) {
//遍历数组
for (int j = 0; j < oldCap; ++j) {
Node<K,V> e;
//判断当前下标为j的数组如果不为空的话赋值个e,进行下一步操作
if ((e = oldTab[j]) != null) {
//将数组位置置空
oldTab[j] = null;
//判断是否有下个节点
if (e.next == null)
//如果没有,就重新计算在新数组中的下标并放进去
newTab[e.hash & (newCap - 1)] = e;
//有下个节点的情况,并且判断是否已经树化
else if (e instanceof TreeNode)
//进行红黑树的操作
((TreeNode<K,V>)e).split(this, newTab, j, oldCap);
//有下个节点的情况,并且没有树化(链表形式)
else {
//比如老数组容量是16,那下标就为0-15
//扩容操作*2,容量就变为32,下标为0-31
//低位:0-15,高位16-31
//定义了四个变量
// 低位头 低位尾
Node<K,V> loHead = null, loTail = null;
// 高位头 高位尾
Node<K,V> hiHead = null, hiTail = null;
//下个节点
Node<K,V> next;
//循环遍历
do {
//取出next节点
next = e.next;
//通过 与操作 计算得出结果为0
if ((e.hash & oldCap) == 0) {
//如果低位尾为null,证明当前数组位置为空,没有任何数据
if (loTail == null)
//将e值放入低位头
loHead = e;
//低位尾不为null,证明已经有数据了
else
//将数据放入next节点
loTail.next = e;
//记录低位尾数据
loTail = e;
}
//通过 与操作 计算得出结果不为0
else {
//如果高位尾为null,证明当前数组位置为空,没有任何数据
if (hiTail == null)
//将e值放入高位头
hiHead = e;
//高位尾不为null,证明已经有数据了
else
//将数据放入next节点
hiTail.next = e;
//记录高位尾数据
hiTail = e;
}

}
//如果e不为空,证明没有到链表尾部,继续执行循环
while ((e = next) != null);
//低位尾如果记录的有数据,是链表
if (loTail != null) {
//将下一个元素置空
loTail.next = null;
//将低位头放入新数组的原下标位置
newTab[j] = loHead;
}
//高位尾如果记录的有数据,是链表
if (hiTail != null) {
//将下一个元素置空
hiTail.next = null;
//将高位头放入新数组的(原下标+原数组容量)位置
newTab[j + oldCap] = hiHead;
}
}
}
}
}
//返回新的数组对象
return newTab;
}

HashMap的寻址算法

​ Hash方法首先计算出key的hashCode值,然后通过这个hash值右移16位后的二进制进行按位异或(^)运算得到最后的hash值

1
(h = key.hashCode()) ^ (h >>> 16)

​ 在putValue方法中,计算数组下标的时候使用hash值和数组长度取模得到存储数据下标的位置,其中hashmap为了性能并没有采取取模的方式,而是使用了数组长度-1 与hash值进行按位与(&)运算,最后得到数组的位置

HashMap的数组长度为什么是2的次幂?

1、计算索引时效率更高:2的n次幂可以使用位与运算代替取模( 体现index = hash & (N - 1)而不是使用% )

2、扩容时重新计算索引效率更高:在进行扩容时需要计算 e.hash & oldCap 是否为0 ,为0则该元素位置停留在原始位置,不为0则移动到原始位置 + oldCap 的位置上

关于HashMap在jdk1.7情况下的多线程死循环问题

jdk1.7的数据结构为 数组+链表

在数组进行扩容的时候因为链表是头插法,在数据迁移的过程中可能导致死循环

例如:

​ 链表中存在A、B两个节点 A->B (A.next = B)

​ 线程1和线程2的变量e和next都引用了这两个节点

​ 1、线程2先根据头插法完成了挪动 B->A,线程2结束 (B.next = A)

​ 2、由于头插法,链表顺序颠倒,但是线程1的临时变量e和next还引用了这两个节点

​ 3、线程1也按照头插法进行挪动,先A后B,因为线程二中 B.next = A ,所以线程1又插入了一次A,此时A.next = B ,这时就出现了A ->B -> A的循环

HashMap线程安全相关

HashMap并不是线程安全的

为了使用线程安全的map,可以采用ConcurrentHashMap(相关文章见Java多线程)

HashSet与HashMap的区别?

  1. HashSet底层其实是用HashMap实现存储的, HashSet封装了一系列HashMap的方法.
  2. 依靠HashMap来存储元素值,(利用hashMap的key键进行存储), 而value值默认为Object对象.
  3. 所以HashSet也不允许出现重复值, 判断标准和HashMap判断标准相同, 两个元素的hashCode相等并且通过equals()方法返回true.

HashTable与HashMap的区别

第一,数据结构不一样,hashtable是数组+链表,hashmap在1.8之后改为了数组+链表+红黑树

第二,hashtable存储数据的时候都不能为null,而hashmap是可以的

第三,hash算法不同,hashtable是用本地修饰的hashcode值,而hashmap经常了二次hash

1
(h = key.hashCode()) ^ (h >>> 16)

第四,扩容方式不同,hashtable是当前容量翻倍+1,hashmap是当前容量翻倍

第五,hashtable是线程安全的,操作数据的时候加了锁synchronized,hashmap不是线程安全的,效率更高一些

在实际开中不建议使用HashTable,在多线程环境下可以使用ConcurrentHashMap类