国内外开源与闭源大模型清单

国内外开源与闭源大模型清单

国外

  • 开源
    • LLaMA 3.x(Meta):通用基座,覆盖多尺寸,生态完善。
    • Mixtral 8x7B / Mixtral 22B(Mistral AI):MoE 架构,高效推理。
    • Gemma 1–3(Google):轻量高效,适合端侧与研究。
    • Phi 系列 1.5/3/3.5/4(Microsoft):小型高效,推理能力强化。
    • DBRX(Databricks):开源 MoE,面向通用与数据工作负载。
    • Nemotron‑4 340B(NVIDIA):超大参数,含 Base/Instruct/Reward 三款。
    • Flux.1(Black Forest Labs):开源文生图,强调上下文编辑。
    • Stable Diffusion 3.x(Stability AI):经典开源文生图。
    • Whisper large‑v3(OpenAI):开源通用语音识别。
    • OLMo 1/2(Allen Institute for AI):完全开放研究型模型与数据。
  • 闭源
    • GPT‑4 / GPT‑4o(OpenAI):多模态通用闭源,生态完备。
    • Claude 3/3.5(Anthropic):长上下文与工具使用强,安全合规导向。
    • Gemini 1.5/2.5(Google DeepMind):原生多模态,长上下文与搜索整合。
    • Grok‑3(xAI):推理与对话体验升级。
    • Mistral Large 2(Mistral AI):闭源旗舰商用模型。
    • Command R / Rerank 3(Cohere):企业向商用 API。
    • AI21 Jurassic 2/3(AI21 Labs):商用闭源 LLM。
    • Amazon Titan / Nova(Amazon):闭源模型与多模态服务。

国内

  • 开源
    • 通义千问 Qwen 3 / 2.5(阿里):开源家族最全之一,覆盖文本/代码/多模态/视频。
    • 通义万相 Wan 2.2(阿里):开源视频生成(T2V/I2V/TI2V)。
    • DeepSeek V3 / R1 / Math / Janus(DeepSeek):开源 MoE、推理、数学与多模态。
    • GLM‑4.x / CogView4 / CogVideoX(智谱 AI):对话、图像与视频多模态开源。
    • Baichuan 2–4(百川智能):中文能力强,开源系列完善。
    • InternLM 2.5 / InternVL(上海 AI 实验室):开源基座与多模态,科研/应用并重。
    • MiniCPM / MiniCPM‑V(OpenBMB/清华):轻量高效,端侧友好。
    • Yi 1.5/1.6 / Yi‑Vision(零一万物):通用与多模态开源。
    • BGE 嵌入系列(BAAI):通用文本嵌入/RAG 常用。
  • 闭源
    • 文心一言 4.5(百度):闭源通用,国内应用生态广。
    • 通义千问 Qwen3‑Max(阿里):闭源超大 MoE 旗舰版。
    • 混元 Hunyuan / 腾讯元宝(腾讯):闭源通用与搜索/阅读整合。
    • 豆包 Doubao(字节跳动):闭源通用,长上下文与多模态。
    • 智谱清言(GLM‑4.5 系列)(智谱 AI):闭源对话与多模态。
    • 月之暗面 Kimi(K2 等主力闭源线):闭源长上下文与智能体能力。
    • 百川智能 4.0(百小应):闭源通用与行业化。
    • 盘古 Pangu(华为):闭源政企/行业方案为主。
    • 星火认知大模型(科大讯飞):闭源教育与语音优势。
    • 360 智脑 4.0(三六零):闭源通用与搜索场景。

Read more

LLaMA Factory 核心原理讲解

LLaMA Factory 核心原理讲解

大家好,我是herosunly。985院校硕士毕业,现担任算法研究员一职,热衷于大模型算法的研究与应用。曾担任百度千帆大模型比赛、BPAA算法大赛评委,编写微软OpenAI考试认证指导手册。曾获得阿里云天池比赛第一名,CCF比赛第二名,科大讯飞比赛第三名。授权多项发明专利。对机器学习和深度学习拥有自己独到的见解。曾经辅导过若干个非计算机专业的学生进入到算法行业就业。希望和大家一起成长进步。 本文主要介绍了LLaMA Factory 核心原理讲解,希望能对学习大模型的同学们有所帮助。 文章目录 * 1. 前言 * 2. 核心模块讲解 * 3. SFT流程讲解 1. 前言 在之前的文章主要介绍了LLaMA Factory的操作方法,其中包括: * LLaMA Factory多卡微调的实战教程 * 基于华为昇腾910B和LLaMA Factory多卡微调的实战教程 * LLaMA Factory添加新模型template的实战解析 * LLaMA Factory在预测阶段时添加原有问题的实战代码 * 详解大模型多轮对话的数据组织形式 但也有同学提出疑问

By Ne0inhk
AI 编程工具选型:Copilot、Cursor、Codex 核心差异

AI 编程工具选型:Copilot、Cursor、Codex 核心差异

【如文章引起大家共鸣,请“点赞”以及“转发”,以支持继续创作,谢谢大家!】 朋友们大家好!今天咱们不聊那些虚头巴脑的,直接来点实在的——AI编程工具选型,Copilot、Cursor、Codex这仨到底咋选?别急,我这就用最接地气的方式,给你唠唠它们的“脾气秉性”,保证你听完就能上手挑! 先说Copilot,这哥们儿可是“代码补全界的扛把子”!它就像你身边的“代码小秘书”,你敲代码时,它就在旁边默默观察,你刚敲个“for”,它立马给你补上“(int i=0;i<n;i++)”,那叫一个快!而且,它还支持多IDE,VS Code、JetBrains啥的,都能无缝对接。不过呢,Copilot也有个“小毛病”,就是它更擅长“补全”,对于复杂的代码重构或者项目级理解,就有点力不从心了。

By Ne0inhk
2026年高校AIGC检测新规解读:AI率多少算合格?

2026年高校AIGC检测新规解读:AI率多少算合格?

2026年高校AIGC检测新规解读:AI率多少算合格? 从2024年知网正式上线AIGC检测功能开始,短短两年时间,"AI率"已经从一个新鲜名词变成了每个毕业生必须面对的硬性指标。2026年,各高校的AIGC检测政策进一步收紧和细化,要求也越来越明确。 那么,2026年AI率到底多少才算合格?不同学校的标准差别大吗?不合格会面临什么后果?本文将对这些问题进行深入解读。 一、AIGC检测已成为毕业论文审查的标配 回顾AIGC检测在高校中的普及历程,可以用"指数级扩散"来形容: * 2024年:知网上线AIGC检测功能,少数985/211院校开始试点,大部分学校处于观望状态 * 2025年:超过60%的本科院校和80%的研究生培养单位将AIGC检测纳入论文审查流程 * 2026年:AIGC检测基本实现全覆盖,包括专科院校在内的绝大部分高等教育机构都已建立相关制度 这一进程的背后,是教育部在2025年初发布的《关于加强高等学校学位论文学术诚信管理的指导意见》,其中明确提到"鼓励各高校引入人工智能生成内容检测机制,将AIGC检测作为论文质量保障的重要环节"。 虽然教育部没

By Ne0inhk

OpenClaw之Memory配置成本地模式,Ubuntu+CUDA+cuDNN+llama.cpp

文章目录 * 背景:Memory不生效的问题 * OpenClaw的Memory配置 * Ubuntu24.04安装CUDA和cuDNN * 编译llama.cpp * 验证方案1: * 验证方案2:下载并运行Llama-2 7B模型 * 安装node-llama-cpp * 验证Memory * sqlite-vec unavailable * 踩过的坑 * 安装node-llama-cpp的一些提示 * 安装node-llama-cpp的前置条件 * Using `node-llama-cpp` With Vulkan 承接上文:Windows11基于WSL2首次运行Openclaw,并对接飞书应用,我已经在电脑上安装了OpenClaw,接下来解决Memory问题。走了很多弯路,下面主要讲我总结的正确的安装过程。 总结来说:针对Memory不生效的问题,又不想用OpenAI或Gemini,或者只想单纯的节省token,可以按照如下的方式,设置为local模式: * 修改openclaw.json配置 * 安装CUDA和cu

By Ne0inhk