C/C++ static 关键字详解与用法总结
Static 关键字在 C/C++ 中有三种核心含义:改变局部变量的生命周期使其持久化、改变全局变量或函数的链接性使其文件私有、以及作为类静态成员实现类级别共享。文章详细对比了 C 与 C++ 中 static 的区别,提供了代码示例及常见面试题解答,如单例模式实现、线程安全注意事项等。
未选择筛选条件,以下为全部文章
Static 关键字在 C/C++ 中有三种核心含义:改变局部变量的生命周期使其持久化、改变全局变量或函数的链接性使其文件私有、以及作为类静态成员实现类级别共享。文章详细对比了 C 与 C++ 中 static 的区别,提供了代码示例及常见面试题解答,如单例模式实现、线程安全注意事项等。
在鸿蒙6系统上运行自行开发 APK 的具体步骤,涵盖系统版本确认、未知来源安装权限开启、DevEco Studio 签名流程、文件传输与安装以及兼容性处理方案。文章指出鸿蒙6对 APK 支持为过渡方案,建议复杂应用迁移至鸿蒙原生开发以确保持久维护。

利用 LangChain、Streamlit 和 LLaMA 在本地部署开源大模型,涵盖环境搭建、GGML 量化模型下载、LangChain 集成、向量数据库构建及 Streamlit Web 界面开发。通过量化技术可在消费级硬件运行 LLM,实现文档问答功能。

本文系统梳理了大模型微调的主流技术体系,涵盖 Transformer 基础架构、高效参数微调(PEFT)如 LoRA 与 QLoRA、量化压缩技术、对齐方法(RLHF、DPO、KTO)以及增量学习策略。重点解析各算法原理、实现步骤及适用场景,为开发者提供从理论到实践的技术参考,帮助构建高性能、低成本的垂直领域大模型应用。

本书《LangChain 简明讲义》系统介绍了大语言模型基础及 LangChain 工具链的应用。内容涵盖模型调用、输入输出、数据连接、记忆模块、智能体及检索增强生成等核心章节。文章同时提供了 AI 大模型系统学习路线图,分为基础理解、API 应用开发、架构实践及私有化部署四个阶段,旨在帮助开发者从零开始掌握 LLM 技术栈,实现对话机器人及代码理解等实际项目落地。

本文分析了吉利、东风、极氪等 10 家车企在大模型领域的落地实践。涵盖智能驾驶仿真、营销客服自动化、软件开发提效及车端模型部署等场景。重点探讨了数字孪生数据合成、RAG 知识库构建、AIGC 内容生成及端到端智驾等技术路径,为制造业数字化转型提供参考。

检索增强生成(RAG)通过结合外部知识库检索与大语言模型生成能力,有效解决了大模型的幻觉问题。其核心架构包含检索器、生成器和排序器三个组件。实施 RAG 系统需掌握文档分块、向量化、向量索引及提示工程等关键技术。本文介绍了 RAG 的基本原理、技术实现路径及代码示例,涵盖企业知识管理、在线问答等应用场景,旨在帮助开发者系统性地构建功能齐全的 RAG 项目。

Llama 3 微调实战教程,涵盖环境配置、XTuner 安装、数据集构建、QLoRA 微调及模型合并部署全流程。通过具体命令演示如何完成 8B 模型的认知定制,解决显存不足问题,并提供常见训练问题排查建议。内容涉及 GQA 架构优势、Tiktoken 分词器特性及具体的 Python 脚本实现,适合希望掌握大模型私有化部署的开发人员参考。
探讨前端微前端架构作为大型应用模块化解决方案的价值。针对单体应用维护难、协作冲突及 iframe 方案性能差等问题,介绍了微前端的团队协作、技术栈灵活、独立部署等优势。通过对比反面教材,展示了基于 Webpack Module Federation 和 Single-SPA 的正确实现方式,涵盖主应用与微应用的配置代码。总结指出 Module Federation、Single-SPA 及 Qiankun 等工具能实现模块共享、路由管理…

阿里云发布《2024 大模型典型示范应用案例集》,收录 99 个精选案例。报告显示国产大模型超 300 个,人工智能 + 行动推动产业融合。上海成应用热土,大中型企业主导创新。医疗、金融、能源等为重点场景。AI 智能体和 RAG 知识库成为关键热点,助力新质生产力发展。

ChatGLM3-6B 是清华智谱开源的预训练语言模型,基于 GLM 架构结合双向编码与自回归解码优势。文章详细分析了其核心组件如 SwiGLU、RoPE 及 RMSNorm,重点阐述了 P-tuning v2 和 LoRA 两种参数高效微调机制的原理与实现差异。此外,介绍了模型量化技术如何通过 C/C++ 内核与 Base64 编码实现动态 INT4/INT8 加载以降低显存占用。提供了环境搭建、量化加载及 LoRA 配置的代码示例,…

本文介绍了在个人电脑上本地部署 Llama3 大模型的完整流程。首先通过 Ollama 框架安装并运行 Llama3 8B 模型,该版本针对消费级硬件优化,16G 内存即可流畅运行。接着使用 Node.js 部署 ollama-webui-lite 作为 Web 交互界面,支持模型切换、上下文管理及代码生成等功能。此外还涵盖了 API 调用方式及常见端口冲突、内存不足等问题的排查方法,帮助用户快速搭建私有化大模型环境。

本文系统介绍了大型语言模型(LLM)的核心概念、技术原理及应用实践。涵盖从自然语言处理基础、Transformer 架构到主流模型如 BERT、GPT 系列的演进。详细阐述了 LLM 的学习路径,包括基础理论理解、API 开发工程、应用架构设计(Agent、多模态)及私有化部署方案。旨在为技术人员提供从入门到实战的系统性技术指南,帮助掌握构建 AI 应用的关键技能。
探讨了大型 C++ 项目中管理代码依赖的五种主流方案,包括 Git 子模块、包管理器(如 vcpkg、conan)、预编译库文件、符号链接以及单体仓库(Monorepo)。每种方案均有其适用场景与优缺点。对于学习阶段建议手动复制,课程项目建议附加包含目录,个人开源推荐 Git 子模块加 CMake,工作企业项目则推荐使用 vcpkg 或 conan 配合 CMake。文章提供了详细的配置示例与对比表格,帮助开发者根据实际需求选择合适的依…
SQL Server 2008 R2 的详细安装步骤,包括 ISO 挂载、环境依赖检查(.NET Framework)、功能角色选择、实例配置及服务账户设置。同时提供了四种常见安装错误的解决方案,涉及注册表清理、源路径修正及卸载残留处理,帮助用户顺利完成数据库部署。
在 Ubuntu 系统下基于 AMD AI MAX 395+ 硬件,通过安装 ROCm 7.0 驱动和配置 Docker 环境,利用 vLLM 框架本地部署千问(Qwen)系列模型(包括 32B 对话模型、Embedding 及 Reranker 模型)的完整流程。内容涵盖驱动安装、镜像准备、模型下载、服务启动及验证步骤,特别针对非标准 GPU 架构提供了兼容性配置方案。
Copilot实战:如何用AI助手高效完成1.5万行Python项目(附完整提示词模板) 最近在折腾一个不算太小的Python项目,代码量最终堆到了1.5万行左右。整个过程里,我几乎把Copilot当成了我的'第二大脑'。说实话,它确实没法独立完成一个项目,但如果你知道怎么跟它'对话',怎么给它'喂'对的信息,它带来的效率提升是惊人的。这篇文章,我就想抛开那些泛泛而谈的'AI编程革命',从一个真实…

介绍如何在低配置设备上使用 llama.cpp 部署大模型。内容包括硬件要求、模型选型(TinyLLaMA/Phi-2)、免编译一键部署及源码编译优化两种方案。详细讲解了参数配置(线程、上下文、内存锁定)以提升性能,并提供了常见问题排查指南,帮助用户在老旧电脑上实现本地大模型对话。
Stable Diffusion 艺术风格测试指南介绍了如何通过选择不同艺术家风格(如新艺术运动、维也纳分离派)提升图像质量。内容包括准备工作、基础测试步骤、热门风格解析及高级技巧(风格混合、参数调优、LoRA 微调)。旨在帮助用户掌握提示词编写,融合多种风格,创作出独特的 AI 艺术作品。
一个基于 Python 的文件自动备份脚本,解决了手动备份易出错、效率低的问题。脚本支持智能增量检测,仅同步更新文件;采用多线程并发传输提升速度;对大文件自动进行 gzip 压缩以节省空间。通过 argparse 实现命令行参数配置,支持多源目录备份及目标路径管理。适用于企业数据归档、自媒体素材管理及各类文件安全存储场景。