? 优质资源分享 ?
学习路线指引(点击解锁) | 知识定位 | 人群定位 |
---|---|---|
? Python实战微信订餐小程序 ? | 进阶级 | 本课程是python flask+微信小程序的完美结合,从项目搭建到腾讯云部署上线,打造一个全栈订餐系统。 |
?Python量化交易实战? | 入门级 | 手把手带你打造一个易扩展、更安全、效率更高的量化交易系统 |
HashMap设计原理与实现(下篇)200行带你写自己的HashMap!!!
我们在上篇文章哈希表的设计原理当中已经大体说明了哈希表的实现原理,在这篇文章当中我们将自己动手实现我们自己的HashMap
,完整的代码在文章末尾。
在本篇文章当中主要通过线性探测法,从最基本的数组再到HashMap
当中节点的设计,一步一步的实现一个能够实现Key
、Value
映射的容器,写出我们自己的哈希表MyHashMap
,让可以具备HashMap
最常见的两个功能,put
和get
方法。
我们的数组当中应该存储什么样数据?
在上篇哈希表的设计原理当中我们已经仔细说明,在HashMap
当中我们是使用数组去存储具体的数据的,那么在我们的数组当中应该存储什么样的数据呢?假设在HashMap
的数组当中存储的数据类型为Node
,那么这个类需要有哪些字段呢?
- 首先一点我们肯定需要存储
Value
值,因为我们最终需要通过get
方法从HashMap
当中取出我们所需要的值。 - 第二点当我们通过
get
方法去取值的时候是通过Key
(键值)去取的,当哈希值产生冲突的时候,我们不仅需要通过哈希值确定位置,还需要通过比较通过函数get
传递的Key
和数组当当中存储的数据的key
是否相等,因此我们需要存储键值Key
。 - 第三点为了避免重复计算哈希值(因为有的对象的哈希值计算还是比较费时间),我们可以使用一个字段去存储计算好的哈希值。
根据以上三点我们的Node
类的设计如下:
private static class Node {
/**
* 用于存储我们计算好的 key 的哈希值
*/
final int hash;
/**
* Key Value 中的 Key 对象
*/
final K key;
/**
* Key Value 中的 Value 对象
*/
V value;
/**
* hash 是键值 key 的哈希值 key 是键 value 是值
* @param hash
* @param key
* @param value
*/
public Node(int hash, K key, V value) {
this.hash = hash;
this.key = key;
this.value = value;
}
public V setValue(V newValue) {
V oldValue = newValue;
value = newValue;
return oldValue;
}
@Override
public String toString() {
return key + "=" + value;
}
}
我们的数组长度应该怎么设置?
在讨论这个问题之前我们首先来回归一下位运算的操作。在计算机当中数据都是二进制存储那么二进制运算是如何操作的呢?
int a = 7;
int b = 3;
System.out.println(a & b); // 输出结果为3
上述代码的位运算操作如下:
进行位运算是,二进制数的对应位置进行相应的操作,&
运算的结果只有两个比特位的数据都是1
时,运算结果才等于1
,其余的情况都为0,因此3 & 7 = 3
。
通过put
函数放入HashMap
当中的数据首先需要将key
的哈希值与数组的长度进行取余运算得到对应的下标,再将数据放入到数组对应的下标当中。但是在实际的操作当中我们将底层数组的长度设置为2
的整数次幂,并且使用位运算&
去进行取余数操作,而这样操作主要有一下三点原因:
- 位运算
&
的程序执行效率,比取余%
操作更加高效,需要的时间越短。 - 当数组的长度为
2
的整数次幂的时候,得到的下标越均匀,造成的哈希冲突更少。 - 任何一个数
a
对2n取余数得到的结果与a
跟2n−1进行&
操作结果是相等的,即:
a%2n=a&(2n−1)我们现在先来解释一下第三点,令a = 127
,n = 4
,那么:127%16 = 15
,127 & 15 = 15
。
首先我们需要明白求余数的意义是什么?127
对16
取余,就是用127
一直减去16
,直到某个结果小于16
为止,得到的值为求余数结果。
上图当中红框当中包括的位置就是小于16
的部分
上图当中红框框住的部分是16
的倍数,因此在求余数的时候上图当中红框框住的部分就没有了,都为0,只会剩下小于16
的部分,这跟15
进行&
操作得到的结果是一致的。这也就解释了上面提到的第三条。
在第二条中我们提到了使用数组长度为2
的整数次幂可以在一定程度上减少哈希冲突,因为进行下标运算的时候是与2n−1进行&
操作,而2n−1的二进制表示最后一部分位置上的数都是1
。
比如下图中的数据都是2
的整数次幂减一之后的结果:
RoundUp函数
因为我们需要数组的长度是2
的整数次幂,而我们之后在初始化函数当中会允许用户输入一个数组长度的大小,但是用户输入的数字可能不是2
的整数次幂,因此我们需要将用户输入的数据变成2
的整数次幂,我们可以将用户输入的数据变成大于等于这个数的最小的2
的整数次幂。
比如说如果用户输入的是12
我们需要将其变成16
,如果输入的是28
我们需要将其变成32
。我们可以通过下面这个函数做到这一点:
/**
* 返回第一个大于或者等于 capacity 且为 2 的整数次幂的那个数
* @param capacity
* @return
*/
static int roundUp(int capacity) {
int n = capacity - 1;
n |= n >>> 1;
n |= n >>> 2;
n |= n >>> 4;
n |= n >>> 8;
n |= n >>> 16;
// 如果最终得到的数据小于 0 则初始长度为 1
// 如果长度大于我们所允许的最大的容量 则将初始长度设置为我们
// 所允许的最大的容量
// MAXIMUM\_CAPACITY = 1 << 30;
return (n < 0) ? 1 : (n >= MAXIMUM_CAPACITY) ? MAXIMUM_CAPACITY : n + 1;
}
上面的代码还是很难理解的,让我们一点一点的来分析。首先我们使用一个2
的整数次幂的数进行上面移位操作
的操作!
从上图当中我们会发现,我们咋一个数的二进制数的32位放一个1
,经过移位之后最终32
位的比特数字全部变成了1
。根据上面数字变化的规律我们可以发现,任何一个比特经过上面移位的变化,这个比特后面的31
个比特位都会变成1
,像下图那样:
因此上述的移位操作的结果只取决于最高一位的比特值为1
,移位操作后它后面的所有比特位的值全为1
,而在上面函数的最后,如果最终的容量没有大于我们设置的最大容量MAXIMUM_CAPACITY
,我们返回的结果就是上面移位之后的结果 +1
。又因为移位之后最高位的1
到最低位的1
之间的比特值全为1
,当我们+1
之后他会不断的进位,最终只有一个比特位置是1
,因此它是2
的整数倍。
在roundUp
函数当中,给初始容量减了个1
,这样做的原因是让这个函数的返回值大于等于传入的参数capacity
:
roundUp(4) == 4 // 就是当传入的数据已经是 2 的整数次幂的时候也返回传入的值
roundUp(3) == 4
roundUp(5) == 8
哈希函数
/**
* 这个 key 是 put 函数传进来的 key
* @param key
* @return
*/
static int hash(Object key) {
int h;
// 调用对象自己实现的 hashCode 方法
return (key == null) ? 0 : (h = key.hashCode()) ^ (h >>> 16);
}
上面的函数之所以要将对象的哈希值右移16
,是因为我们的数组的长度一般不会超过216,因为216已经是一个比较大的值了,因此当哈希值与2n−1进行&
操作的时候,高位通常没有使用到,这样做的原理是可以充分利用数据哈希值当中的信息。
扩容机制
当我们一直往HashMap
加入数据的话,数组迟早会被用完,当数组用完之后我们就需要进行扩容,我们要记住一点扩容之后的数组长度也需要满足2
的整数次幂,因为上面我们已经提到数组的长度需要是2
的整数次幂,因此扩容之后的长度也需要保持是2
的整数次幂。
但是在实际情况当中我们并不是当数组完全被使用完之后才进行扩容,因为如果数组快被使用完之后,再加入数据产生哈希冲突的可能性就会很大,因此我们通常会设置一个负载因子(load factor)
,当数组的使用率超过这个值的时候就进行扩容,即当(数组长度为L
,数组当中数据个数为S
,负载因子为F
):
S≥L×F## Java代码实现HashMap
先看一下我们需要的字段
public class MyHashMap {
/**
* 默认数组的容量
*/
static final int DEFAULT\_CAPACITY = 16;
/**
* 默认负载因子
*/
static final float DEFAULT\_LOAD\_FACTOR = 0.75f;
/**
* 哈希表中数组的最大长度
*/
static final int MAXIMUM\_CAPACITY = 1 << 30;
/**
* 真正存储数据的数组
*/
Node[] hashTable;
/**
* 哈希表数组当中存储的数据的个数
*/
int size;
/**
* 哈希表当中的负载因子
*/
float loadFactor = 0.75f;
/**
* 哈希表扩容的阈值 = 哈希表的长度 x 负载因子
* 当超过这个值的时候进行扩容
*/
int threshold;
}
put
函数的实现
public void put(K key, V value) {
if (null == key)
throw new RuntimeException("哈希表的键值不能为空");
int hash = hash(key);
// 这表示使用了空参构造函数 而且是第一次调用 put 函数
if (null == hashTable) {
hashTable = (Node[]) new Node[DEFAULT\_CAPACITY];
// 计算数组长度对应的扩容阈值
threshold = (int)(hashTable.length * loadFactor);
// 进行 & 运算得到数据下标
hashTable[hash & (DEFAULT\_CAPACITY - 1)] = new Node(hash, key, value);
}else {
int n = hashTable.length;
int idx = hash & (n - 1);
// 如果数组不为空 说明已经有数据存在了
// 如果哈希值相同的话说明是同一个对象了
// 也可以进行跳出
while (null != hashTable[idx] && !key.equals(hashTable[idx].key))
idx = (idx + 1) & (n - 1);
// 如果是通过 null != hashTable[idx] 条件跳出则是新添加数据
// 如果是通过 !key.equals(hashTable[idx].key) 条件跳出
// 则是因为 put 函数的 key 已经存在这次操作是更新数据
hashTable[idx] = new Node(hash, key, value);
}
// 如果数组当中使用过的数据超过阈值
if (++size > threshold) {
resize();
}
}
扩容(resize
函数)实现
/**
* 如果你已经看懂 put 函数的代码,那这个代码就比较简单了
* 因为只是单纯的将原数组的数据重新进行哈希并且加入到新数组
*/
private void resize() {
int n = (hashTable.length << 1);
threshold = (int) (n * loadFactor);
Node[] oldTable = hashTable;
hashTable = (Node[]) new Node[n];
for (int i = 0; i < oldTable.length; i++) {
if (null == oldTable[i])
continue;
Node node = oldTable[i];
int idx = node.hash & (n - 1);
while (null != hashTable[idx] && !node.key.equals(hashTable[idx].key))
idx = (idx + 1) & (n - 1);
hashTable[idx] = node;
}
}
get
函数实现
public V get(K key) {
if (null == key)
throw new RuntimeException("查询的键值不能为空");
int hash = hash(key);
int n = hashTable.length;
int idx = hash & (n - 1);
if (null == hashTable[idx])
return null;
// 这里同样需要进行线性探测
// 因为哈希值相同时 key 值
// 不一定相同 因为会有哈希冲突
for (;;) {
// 当数组当中的数据不为空
// 且数据当中的哈希值和传入 key
// 的哈希值相等 而且键值相等
// 就是找到了对应的数据
if (null != hashTable[idx]
&& hash == hashTable[idx].hash
&& key.equals(hashTable[idx].key))
break;
idx = (idx + 1) & (n -1);
}
return hashTable[idx].value;
}
完整代码
import java.util.*;
public class MyHashMap {
/**
* 默认数组的容量
*/
static final int DEFAULT\_CAPACITY = 16;
/**
* 默认负载因子
*/
static final float DEFAULT\_LOAD\_FACTOR = 0.75f;
/**
* 哈希表中数组的最大长度
*/
static final int MAXIMUM\_CAPACITY = 1 << 30;
/**
* 真正存储数据的数组
*/
Node[] hashTable;
/**
* 哈希表数组当中存储的数据的个数
*/
int size;
/**
* 哈希表当中的负载因子
*/
float loadFactor = 0.75f;
/**
* 哈希表扩容的阈值 = 哈希表的长度 x 负载因子
* 当超过这个值的时候进行扩容
*/
int threshold;
/**
* 返回第一个大于或者等于 capacity 且为 2 的整数次幂的那个数
* @param capacity
* @return
*/
static int roundUp(int capacity) {
int n = capacity - 1;
n |= n >>> 1;
n |= n >>> 2;
n |= n >>> 4;
n |= n >>> 8;
n |= n >>> 16;
// 如果最终得到的数据小于 0 则初始长度为 1
// 如果长度大于我们所允许的最大的容量 则将初始长度设置为我们
// 所允许的最大的容量
// MAXIMUM\_CAPACITY = 1 << 30;
return (n < 0) ? 1 : (n >= MAXIMUM\_CAPACITY) ? MAXIMUM\_CAPACITY : n + 1;
}
private static class Node {
/**
* 用于存储我们计算好的 key 的哈希值
*/
final int hash;
/**
* Key Value 中的 Key 对象
*/
final K key;
/**
* Key Value 中的 Value 对象
*/
V value;
/**
* hash 是键值 key 的哈希值 key 是键 value 是值
* @param hash
* @param key
* @param value
*/
public Node(int hash, K key, V value) {
this.hash = hash;
this.key = key;
this.value = value;
}
public V setValue(V newValue) {
V oldValue = newValue;
value = newValue;
return oldValue;
}
@Override
public String toString() {
return key + "=" + value;
}
}
public MyHashMap() {
this.loadFactor = DEFAULT\_LOAD\_FACTOR;
}
public MyHashMap(int initialCapacity, float loadFactor) {
if (initialCapacity <= 0) {
throw new RuntimeException("初始化长度不能小于0");
}
if (initialCapacity > MAXIMUM\_CAPACITY)
initialCapacity = MAXIMUM\_CAPACITY;
initialCapacity = roundUp(initialCapacity);
hashTable = (Node[]) new Node[initialCapacity];
this.loadFactor = loadFactor;
threshold = (int) (loadFactor * initialCapacity);
}
public MyHashMap(int capacity) {
this(capacity, DEFAULT\_LOAD\_FACTOR);
}
static int hash(Object key) {
int h;
return (key == null) ? 0 : (h = key.hashCode()) ^ (h >>> 16);
}
public void put(K key, V value) {
if (null == key)
throw new RuntimeException("哈希表的键值不能为空");
int hash = hash(key);
if (null == hashTable) {
hashTable = (Node[]) new Node[DEFAULT\_CAPACITY];
threshold = (int)(hashTable.length * loadFactor);
hashTable[hash & (DEFAULT\_CAPACITY - 1)] = new Node(hash, key, value);
}else {
int n = hashTable.length;
int idx = hash & (n - 1);
while (null != hashTable[idx] && !key.equals(hashTable[idx].key))
idx = (idx + 1) & (n - 1);
hashTable[idx] = new Node(hash, key, value);
}
if (++size > threshold) {
resize();
}
}
private void resize() {
int n = (hashTable.length << 1);
threshold = (int) (n * loadFactor);
Node[] oldTable = hashTable;
hashTable = (Node[]) new Node[n];
for (int i = 0; i < oldTable.length; i++) {
if (null == oldTable[i])
continue;
Node node = oldTable[i];
int idx = node.hash & (n - 1);
while (null != hashTable[idx] && !node.key.equals(hashTable[idx].key))
idx = (idx + 1) & (n - 1);
hashTable[idx] = node;
}
}
public V get(K key) {
if (null == key)
throw new RuntimeException("查询的键值不能为空");
int hash = hash(key);
int n = hashTable.length;
int idx = hash & (n - 1);
if (null == hashTable[idx])
return null;
for (;;) {
if (null != hashTable[idx]
&& hash == hashTable[idx].hash
&& key.equals(hashTable[idx].key))
break;
idx = (idx + 1) & (n -1);
}
return hashTable[idx].value;
}
@Override
public String toString() {
StringBuilder builder = new StringBuilder();
builder.append("[");
for (int i = 0; i < hashTable.length; i++) {
builder.append(hashTable[i]);
builder.append(", ");
}
builder.delete(builder.length() - 2, builder.length());
builder.append("]");
return builder.toString();
}
}
折叠
测试我们自己实现的HashMap
测试代码:
public static void main(String[] args) {
MyHashMap map = new MyHashMap<>();
Random random = new Random();
HashMap map1 = new HashMap<>();
ArrayList strs = new ArrayList<>();
ArrayList list = new ArrayList<>();
for (int i = 0; i < 1000000; i++) {
String s = UUID.randomUUID().toString().substring(0, 4);
int n = random.nextInt(1000);
strs.add(s);
list.add(n);
}
System.out.println("开始测试插入 put 函数");
long start = System.currentTimeMillis();
for (int i = 0; i < list.size(); i++) {
map1.put(strs.get(i), list.get(i));
}
long end = System.currentTimeMillis();
System.out.println("HashMap:花费的时间 = " + (end - start));
start = System.currentTimeMillis();
for (int i = 0; i < list.size(); i++) {
map.put(strs.get(i), list.get(i));
}
end = System.currentTimeMillis();
System.out.println("MyHashMap:花费的时间 = " + (end - start));
System.out.println("开始测试查找 get 函数");
start = System.currentTimeMillis();
for (int i = 0; i < list.size(); i++) {
map.get(strs.get(i));
}
end = System.currentTimeMillis();
System.out.println("MyHashMap:花费的时间 = " + (end - start));
start = System.currentTimeMillis();
for (int i = 0; i < list.size(); i++) {
map1.get(strs.get(i));
}
end = System.currentTimeMillis();
System.out.println("HashMap:花费的时间 = " + (end - start));
}
输出结果:
开始测试插入 put 函数
HashMap:花费的时间 = 232
MyHashMap:花费的时间 = 324
开始测试查找 get 函数
MyHashMap:花费的时间 = 186
HashMap:花费的时间 = 222
从上面的结果可以看出来我们自己实现的HashMap
在插入数据的时候花费的时间比较长,JDK
的HashMap
使用的是链地址法,他们扩容的次数肯定会比我们少,因为我们一个位置只能放一个数据,而JDK
的能放多个。
但是我们查找的时候效率会高一点,因为JDK
的哈希表还涉及链表的操作(可能还涉及红黑树),因此我们的效率可能会高一点。
总结
在本篇文章当中我们自己实现了一个线性探测的哈希表,但是我们并没有实现remove
函数,大家可以自己去实现这个函数,也不太困难!!!整篇文章的内容主要包含以下内容:
- 节点
Node
的设计。 - 数组长度的设计。
roundUp
函数设计。- 哈希函数的设计。
- 扩容机制。
本篇内容还是比较多的,希望大家有所收获,我是LeHung,我们下期再见!!!
更多精彩内容合集可访问:https://github.com/Chang-LeHung/CSCore