【C++补充】第一弹---位图技术揭秘:内存优化与快速访问

【C++补充】第一弹---位图技术揭秘:内存优化与快速访问

 ✨个人主页: 熬夜学编程的小林

💗系列专栏: 【C语言详解】 【数据结构详解】【C++详解】

目录

1 位图

1.1 位图相关面试题

1.2 位图的设计及实现

1.3 C++库中的位图 bitset

1.4 位图的模拟实现

1.5 位图的优缺点

1.6 位图相关考察题目


1 位图

1.1 位图相关面试题


1. 面试题
给40亿个不重复的无符号整数,没排过序。给一个无符号整数,如何快速判断一个数是否在这40亿个数中。(本题为腾讯/百度等公司出过的⼀个⾯试题)

解题思路1:暴力遍历,时间复杂度O(N),太慢

解题思路2:排序+⼆分查找。时间复杂度消耗 O(N*logN) + O(logN)

深入分析:解题思路2是否可⾏,我们先算算40亿个数据⼤概需要多少内存。
1G = 1024MB = 1024*1024KB = 1024*1024*1024Byte 约等于10亿多Byte
那么40亿个整数约等于16G,说明40亿个数是无法直接放到内存中的,只能放到硬盘文件中。而⼆分查找只能对内存数组中的有序数据进行查找。
解题思路3:数据是否在给定的整形数据中,结果是在或者不在,刚好是两种状态,那么可以使用⼀个⼆进制比特位来代表数据是否存在的信息,如果⼆进制比特位为1,代表存在,为0代表不存在。那么我们设计⼀个用位表示数据是否存在的数据结构,这个数据结构就叫位图。

比如:

1.2 位图的设计及实现


位图本质是⼀个直接定址法的哈希表,每个整型值映射⼀个bit位,位图提供控制这个bit的相关接⼝。

实现中需要注意的是,C/C++没有对应位的类型,只能看int/char这样整形类型,我们再通过位运算去控制对应的比特位。比如我们数据存到vector<int>中,相当于每个int值映射对应的32个值,比如第⼀个整形映射0-31对应的位,第⼆个整形映射32-63对应的位,后⾯的以此类推,那么来了⼀个整形值x,i = x / 32;j = x % 32;计算出x映射的值在vector的第i个整形数据的第j位

解决给40亿个不重复的⽆符号整数,查找⼀个数据的问题,我们要给位图开2^32个位,注意不能开40亿个位,因为映射是按大小 映射的,我们要按数据大小范围开空间,范围是是0-2^32-1,所以需要开2^32个位。然后从文件中依次读取每个set到位图中,然后就可以快速判断⼀个值是否在这40亿个数中了。

注意:C++库中的位图不能直接开辟2^32个位的空间,需要通过指针new这么大的空间,代码如下:

#include<iostream> #include<bitset> using namespace std; int main() { // 开2^32个位的位图 //std::bitset<-1> bs1;// C++库开不了这么大空间 //std::bitset<0xffffffff> bs2; // INT_MAX ->2,147,483,647 ->7FFF FFFF // UINT_MAX -> 0xffffffff //std::bitset<UINT_MAX> bs3; std::bitset<-1>* ptr = new std::bitset<-1>();// C++库能够new这么多空间 return 0; }

开辟成功 

Read more

鸿蒙金融理财全栈项目——上线与运维、用户反馈、持续迭代优化

鸿蒙金融理财全栈项目——上线与运维、用户反馈、持续迭代优化

《鸿蒙APP开发从入门到精通》第25篇:鸿蒙金融理财全栈项目——上线与运维、用户反馈、持续迭代优化 🚀📱🔧 内容承接与核心价值 这是《鸿蒙APP开发从入门到精通》的第25篇——上线与运维、用户反馈、持续迭代优化篇,100%承接第24篇的生态合作、用户运营优化、数据产品变现优化架构,并基于金融场景的上线与运维、用户反馈、持续迭代优化要求,设计并实现鸿蒙金融理财全栈项目的上线与运维、用户反馈、持续迭代优化功能。 学习目标: * 掌握鸿蒙金融理财项目的上线与运维优化设计与实现; * 实现应用上线优化、应用运维优化、应用监控优化; * 理解用户反馈在金融场景的核心优化设计与实现; * 实现用户反馈收集优化、用户反馈分析优化、用户反馈处理优化; * 掌握持续迭代优化在金融场景的设计与实现; * 实现持续集成优化、持续部署优化、持续交付优化; * 优化金融理财项目的用户体验(上线与运维、用户反馈、持续迭代优化)。 学习重点: * 鸿蒙金融理财项目的上线与运维优化设计原则; * 用户反馈在金融场景的优化应用; * 持续迭代优化在金融场景的设计要点。 一、

By Ne0inhk

DeepSeek-R1-Distill-Llama-8B实战:快速搭建智能问答系统

DeepSeek-R1-Distill-Llama-8B实战:快速搭建智能问答系统 1. 模型介绍与优势 DeepSeek-R1-Distill-Llama-8B是一个经过知识蒸馏优化的推理模型,它在保持较小参数规模的同时,具备了强大的语言理解和生成能力。这个8B参数的模型在性能和计算资源消耗之间找到了很好的平衡点,特别适合需要快速响应和高效推理的智能问答场景。 这个模型基于DeepSeek-R1的先进技术,通过蒸馏过程将大模型的知识压缩到更小的架构中。这意味着你可以在普通的硬件环境下运行它,而不需要昂贵的专业设备。对于想要搭建智能问答系统的开发者来说,这无疑是个好消息——你既不需要担心模型太大跑不动,也不用担心效果不够好。 在实际测试中,DeepSeek-R1-Distill-Llama-8B在多个基准测试中都表现不错。特别是在数学推理、代码生成和一般问答任务上,它的表现可以媲美一些更大的模型。这使它成为搭建智能问答系统的理想选择,无论是用于教育辅导、技术支持还是日常问答,都能提供可靠的服务。 2. 环境准备与快速部署 2.1 系统要求与依赖安装 在开始之前,确保你

By Ne0inhk
Matlab Copilot_AI工具箱: 对接DeepSeek/Kimi/GPT/千问/文心一言等多款AI大模型,一站式提升编程效率

Matlab Copilot_AI工具箱: 对接DeepSeek/Kimi/GPT/千问/文心一言等多款AI大模型,一站式提升编程效率

🔥 为什么需要这款工具? * Matlab 2025虽自带Copilot功能,但受地区、许可证的限制,多数用户无法使用; * 在Matlab和ChatGPT、DeepSeek等AI模型之间来回切换操作繁琐,无法实现“所见即所得”的编程体验,且代码报错后的调试繁琐。 这款Matlab Copilot_AI工具箱作为Matlab与多款AI模型的对接载体,支持DeepSeek V3.2(基础/思考版)、Kimi K2、百度文心一言、阿里云通义千问、ChatGPT(百度千帆版)等模型,还支持4种自定义模型配置(可对接百度千帆平台近百种大模型); 工具直接在Matlab内(不限于2025a)运行,无需切换其他软件,支持“一键生成、运行、调试、修复bug、导出”全流程编程辅助,使用成本可控(单模型月均几元即可满足基础使用),且工具箱一次授权终身免费更新。 多款AI模型可选择,还支持四种自定义模型组合。 更新记录 1. 20260123更新至v4.0,更新:

By Ne0inhk
【保姆级教程】llama.cpp大模型部署全攻略:CPU/GPU全兼容,小白也能轻松上手!

【保姆级教程】llama.cpp大模型部署全攻略:CPU/GPU全兼容,小白也能轻松上手!

一、简介 * • llama.cpp 是一个在 C/C++ 中实现大型语言模型(LLM)推理的工具 * • 支持跨平台部署,也支持使用 Docker 快速启动 * • 可以运行多种量化模型,对电脑要求不高,CPU/GPU设备均可流畅运行 * • 开源地址参考:https://github.com/ggml-org/llama.cpp • 核心工作流程参考: 二、安装与下载模型(Docker方式) 1. 搜索可用模型 • 这里以 qwen3-vl 模型为例,提供了多种量化版本,每种版本的大小不一样,根据自己的电脑性能做选择,如选择(模型+量化标签):Qwen/Qwen3-VL-8B-Instruct-GGUF:Q8_0 • 可以在huggingface官网中搜索可用的量化模型:https://huggingface.co/models?search=

By Ne0inhk