一、LRU 缓存算法
1. 哈希表 + 双向链表
题目背景
设计一个 LRU(Least Recently Used)缓存,支持 get 和 put 操作。当缓存达到容量上限时,淘汰最近最少使用的元素。
核心思路 单纯用数组或链表查找是 O(n),无法满足要求。我们需要组合结构:
- 哈希表:实现 key 到节点的 O(1) 快速查找。
- 双向链表:维护访问顺序。最近使用的节点放在头部,最少使用的在尾部(淘汰时直接删尾部)。
- 哨兵节点:引入哑头/哑尾节点,简化边界处理,避免判断空指针或首尾节点的特殊逻辑。
关键规则
- 访问/更新节点:将节点移到链表头部。
- 新增节点:添加到链表头部,若超限则删除尾部节点并同步清理哈希表。
代码实现
class LRUCache {
// 双向链表节点类:封装缓存的 key、value,以及前后指针
class DLinkedNode {
int key;
int value;
DLinkedNode prev;
DLinkedNode next;
public DLinkedNode() {}
public DLinkedNode(int _key, int _value) {
this.key = _key;
this.value = _value;
}
}
private Map<Integer, DLinkedNode> cache = new HashMap<>();
private int size;
private int capacity;
private DLinkedNode head;
private DLinkedNode tail;
public LRUCache(int capacity) {
this.size = 0;
this.capacity = capacity;
head = ();
tail = ();
head.next = tail;
tail.prev = head;
}
{
cache.get(key);
(node == ) {
-;
}
moveToHead(node);
node.value;
}
{
cache.get(key);
(node == ) {
(key, value);
cache.put(key, newNode);
addToHead(newNode);
size++;
(size > capacity) {
removeTail();
cache.remove(tailNode.key);
size--;
}
} {
node.value = value;
moveToHead(node);
}
}
{
node.prev.next = node.next;
node.next.prev = node.prev;
}
{
node.prev = head;
node.next = head.next;
head.next.prev = node;
head.next = node;
}
{
removeNode(node);
addToHead(node);
}
DLinkedNode {
tail.prev;
removeNode(res);
res;
}
}


