MiniCPM: 揭示端侧大语言模型的无限潜力 github页面

MiniCPM: 揭示端侧大语言模型的无限潜力 github页面

MiniCPM: 揭示端侧大语言模型的无限潜力

www.zeeklog.com  - MiniCPM: 揭示端侧大语言模型的无限潜力 github页面

中文 |

|  |  | 加入我们的  和

MiniCPM 是面壁智能与清华大学自然语言处理实验室共同开源的系列端侧大模型,主体语言模型 MiniCPM-2B 仅有 24亿(2.4B)的非词嵌入参数量, 总计2.7B参数量。

  • 经过 SFT 后,MiniCPM-2B 在公开综合性评测集上与 Mistral-7B 表现相近(中文、数学、代码能力更优),整体性能超越 Llama2-13B、MPT-30B、Falcon-40B 等模型。
  • 经过 DPO 后,MiniCPM-2B 在当前最接近用户体感的评测集 MTBench 上也超越了 Llama2-70B-Chat、Vicuna-33B、Mistral-7B-Instruct-v0.1、Zephyr-7B-alpha 等众多代表性开源大模型。
  • 以 MiniCPM-2B 为基础构建端侧多模态大模型 MiniCPM-V 2.0,在多个测试基准中实现了 7B 以下模型的最佳性能,在 OpenCompass 榜单上超过了 Qwen-VL-Chat 9.6B、CogVLM-Chat 17.4B 和 Yi-VL 34B 等更大参数规模的模型。MiniCPM-V 2.0 还展现出领先的 OCR 能力,在场景文字识别能力上接近 Gemini Pro。
  • 经过 Int4 量化后,MiniCPM 可在手机上进行部署推理,流式输出速度略高于人类说话速度。MiniCPM-V 也直接跑通了多模态大模型在手机上的部署。
  • 一张1080/2080可高效参数微调,一张3090/4090可全参数微调,一台机器可持续训练 MiniCPM,二次开发成本较低。

我们完全开源MiniCPM系列的模型参数供学术研究和有限商用。 具体而言,我们目前已公开以下模型,地址详见  部分

  • 基于MiniCPM-2B的指令微调与人类偏好对齐版本MiniCPM-2B-SFT/DPO
  • 基于MiniCPM-2B的多模态模型MiniCPM-V 2.0
  • MiniCPM-2B-SFT/DPO的Int4量化版MiniCPM-2B-SFT/DPO-Int4
  • MiniCPM-2B的128k长文本版本MiniCPM-2B-128k
  • MiniCPM-2B的MoE版本MiniCPM-MoE-8x2B
  • 更轻量级的MiniCPM-1B指令微调版本MiniCPM-1B-SFT
  • 基于MLC-LLM、LLMFarm开发的MiniCPM手机端程序,文本及多模态模型均可在手机端进行推理
  • MiniCPM-2B训练过程中的供模型机理研究。

局限性:

  • 受限于模型规模,模型可能出现幻觉性问题。其中由于DPO模型生成的回复内容更长,更容易出现幻觉。我们也将持续进行MiniCPM模型的迭代改进。
  • 为了保证在学术研究用途上模型的通用性,我们未对模型进行任何身份认同训练。同时由于我们用ShareGPT开源语料作为部分训练数据,模型可能会输出类似GPT系列模型的身份认同信息。
  • 受限于模型规模,模型的输出受到提示词(prompt)的影响较大,可能多次尝试产生不一致的结果。
  • 受限于模型容量,模型的知识记忆较不准确,后续我们将结合RAG方法来增强模型的知识记忆能力。

目录

常用模块导航

更新日志

  • 2024/04/11 开源、、和!点击查看技术博客。
  • 2024/03/16 MiniCPM-2B 的30余个中间检查点开放了!
  • 2024/02/13 支持了llama.cpp
  • 2024/02/09 我们在README里加入了一个章节,用来收集开源社区对MiniCPM的支持案例。
  • 2024/02/08 我们更新了,方便大家更加快捷地使用我们的模型。
  • 2024/02/01 初始发布。

模型下载

语言模型

HuggingFaceModelScopeWiseModel

注: 更多模型版本见。

多模态模型

HuggingFaceModelScopeWiseModel

快速上手

在线体验
Huggingface 模型
MiniCPM-2B
  • 安装transformers>=4.36.0以及accelerate后,运行以下代码 from transformers import AutoModelForCausalLM, AutoTokenizer import torch torch.manual_seed(0) path = 'openbmb/MiniCPM-2B-dpo-bf16' tokenizer = AutoTokenizer.from_pretrained(path) model = AutoModelForCausalLM.from_pretrained(path, torch_dtype=torch.bfloat16, device_map='cuda', trust_remote_code=True) responds, history = model.chat(tokenizer, "山东省最高的山是哪座山, 它比黄山高还是矮?差距多少?", temperature=0.5, top_p=0.8, repetition_penalty=1.02) print(responds)
  • 期望输出 山东省最高的山是泰山,海拔1545米。 相对于黄山(海拔1864米),泰山海拔较低,相差约319米。
MiniCPM-2B (Llama Format)

我们将MiniCPM的模型权重转化成了Llama代码可以直接调用的,以便大家尝试: import torch from transformers import LlamaTokenizerFast, LlamaForCausalLM model_path = "openbmb/MiniCPM-2B-dpo-bf16-llama-format" tokenizer = LlamaTokenizerFast.from_pretrained(model_path) model = LlamaForCausalLM.from_pretrained(model_path, torch_dtype=torch.bfloat16, device_map='cuda', trust_remote_code=True) prompt="Now you act like a terminal situated within a beginner's C++ practice repository folder, please provide the output for the command: `ls -l`" input_ids = tokenizer.encode("<用户>{}<AI>".format(prompt), return_tensors='pt', add_special_tokens=True).cuda() responds = model.generate(input_ids, temperature=0.3, top_p=0.8, repetition_penalty=1.02, max_length=1024) responds = tokenizer.decode(responds[0], skip_special_tokens=True) print(responds)

MiniCPM-V

import torch from PIL import Image from transformers import AutoModel, AutoTokenizer model = AutoModel.from_pretrained('openbmb/MiniCPM-V', trust_remote_code=True) tokenizer = AutoTokenizer.from_pretrained('openbmb/MiniCPM-V', trust_remote_code=True) model.eval().cuda() image = Image.open('xx.jpg').convert('RGB') question = 'What is in the image?' msgs = [{'role': 'user', 'content': question}] res, context, _ = model.chat( image=image, msgs=msgs, context=None, tokenizer=tokenizer, sampling=True, temperature=0.7 ) print(res)

vLLM 推理
  • 安装 pip install "vllm>=0.4.1"
  • 测试样例 python inference/inference_vllm.py --model_path <hf_repo_path> --prompt_path prompts/prompt_demo.txt
  • 期望输出 <用户>: Which city is the capital of China? <AI>: The capital city of China is Beijing. Beijing is a major political, cultural, and economic center in China, and it is known for its rich history, beautiful architecture, and vibrant nightlife. It is also home to many of China's most important cultural and historical sites, including the Forbidden City, the Great Wall of China, and the Temple of Heaven. Beijing is a popular destination for tourists from around the world, and it is an important hub for international business and trade.
llama.cpp、Ollama、fastllm、mlx_lm推理

MiniCPM支持 、、、推理。感谢对llama.cpp和ollama的适配。

llama.cpp
  1. 下载gguf形式的模型。
  2. 在命令行运行示例代码:
./main -m ../../model_ckpts/download_from_hf/MiniCPM-2B-dpo-fp16-gguf.gguf --prompt "<用户>写藏头诗,藏头是龙年大吉<AI>" --temp 0.3 --top-p 0.8 --repeat-penalty 1.05

更多参数调整

ollama

ollama自动安装模型

  1. 在命令行运行:
ollama run modelbest/minicpm-2b-dpo

ollama手动安装模型

  1. 下载gguf形式的模型。
  2. 在命令行运行以下命令,model_name可自定义:
touch model_name.Modelfile
  1. 将以上model_name.Modelfile的内容修改如下,FROM空格后写入gguf的模型路径
FROM model_path/model_name.gguf
TEMPLATE """<s><USER>{{ .Prompt }}<AI>{{ .Response }}"""
PARAMETER stop "<\s>"
  1. 在命令行运行以下命令,创建ollama模型,ollama_model_name可自定义,model_name.Modelfile参考第3步命名
ollama create ollama_model_name -f model_name.Modelfile
  1. 运行ollama模型:
ollama run ollama_model_name
fastllm
  1. 模型推理 import torch from transformers import AutoTokenizer, LlamaTokenizerFast, AutoModelForCausalLM path = 'openbmb/MiniCPM-2B-dpo-fp16' tokenizer = AutoTokenizer.from_pretrained(path) model = AutoModelForCausalLM.from_pretrained(path, torch_dtype=torch.float16, device_map='cuda', trust_remote_code=True) from fastllm_pytools import llm llm.set_device_map("cpu") model = llm.from_hf(model, tokenizer, dtype = "float16") # dtype支持 "float16", "int8", "int4" print(model.response("<用户>山东省最高的山是哪座山, 它比黄山高还是矮?差距多少?<AI>", top_p=0.8, temperature=0.5, repeat_penalty=1.02))
mlx_lm
  1. 安装mlx_lm库 pip install mlx_lm
  2. 下载转换后的模型权重
  3. 模型推理 python -m mlx_lm.generate --model mlx-community/MiniCPM-2B-sft-bf16-llama-format-mlx --prompt "hello, tell me a joke." --trust-remote-code
powerinfer

powerinfer目前仅针对MiniCPM-S-1B模型,其他版本暂不支持,敬请期待。

  1. 保证cmake版本3.17以上,如果已经安装过,则跳过此步骤   # 下载安装包 sudo wget https://cmake.org/files/v3.23/cmake-3.23.0.tar.gz # 解压安装包 sudo tar -zxvf cmake-3.23.0.tar.gz # 配置安装环境 sudo ./configure sudo make -j8 # 编译安装 sudo make install # 查看安装后版本 cmake --version # 返回版本号则安装成功 #cmake version 3.23.0
  2. 安装powerinfer:   git clone https://github.com/SJTU-IPADS/PowerInfer cd PowerInfer pip install -r requirements.txt # install Python helpers' dependencies
  3. cpu版本powerinfer编译,如果你的机器只有cpu,或者只想使用cpu进行推理,则运行以下命令:   cmake -S . -B build cmake --build build --config Release
  4. gpu版本powerinfer编译,如果你的机器有gpu,则可以运行以下命令:   cmake -S . -B build -DLLAMA_CUBLAS=ON cmake --build build --config Release
  5. 获取稀疏模型 git clone https://huggingface.co/openbmb/MiniCPM-S-1B-sft-gguf/tree/main #or git clone https://modelscope.cn/models/OpenBMB/MiniCPM-S-1B-sft-gguf
  6. 模型推理: cd PowerInfer # 以下是命令模版,output_token_count为最大输出tokens,thread_num 为线程数,prompt为输入prompt字符 #./build/bin/main -m /PATH/TO/MODEL -n $output_token_count -t $thread_num -p $prompt # 以下是示例 ./build/bin/main -m /root/ld/ld_model_pretrain/1b-s-minicpm/MiniCPM-S-1B-sft.gguf -n 2048 -t 8 -p '<用户>hello,tell me a story please.<AI>'

模型量化

gptq量化

  1. 首先git获取
  2. 进入minicpm_gptqd主目录./AutoGPTQ,命令行输入:
pip install e .
  1. 前往下载未量化的MiniCPM仓库下所有文件放至本地同一文件夹下,1b、2b模型均可,训练后模型亦可。
  2. 命令行输入以下命令,其中no_quantized_model_path是第3步模型下载路径,save_path是量化模型保存路径,--bits 为量化位数可以选择输入4或者8
cd Minicpm/quantize
python gptq_quantize.py --pretrained_model_dir no_quant_model_path --quantized_model_dir quant_save_path --bits 4
  1. 可以使用./AutoGPTQ/examples/quantization/inference.py进行推理,也可以参考前文使用vllm对量化后的模型,单卡4090下minicpm-1b-int4模型vllm推理在2000token/s左右。

awq量化

  1. 在quantize/awq_quantize.py 文件中修改根据注释修改配置参数: model_path = '/root/ld/ld_model_pretrained/MiniCPM-1B-sft-bf16' # model_path or model_id quant_path = '/root/ld/ld_project/pull_request/MiniCPM/quantize/awq_cpm_1b_4bit' # quant_save_path quant_data_path='/root/ld/ld_project/pull_request/MiniCPM/quantize/quantize_data/wikitext'# 写入自带量化数据集,data下的alpaca或者wikitext quant_config = { "zero_point": True, "q_group_size": 128, "w_bit": 4, "version": "GEMM" } # "w_bit":4 or 8 quant_samples=512 # how many samples to use for calibration custom_data=[{'question':'你叫什么名字。','answer':'我是openmbmb开源的小钢炮minicpm。'}, # 自定义数据集可用 {'question':'你有什么特色。','answer':'我很小,但是我很强。'}]
  2. 在quantize/quantize_data文件下已经提供了alpaca和wiki_text两个数据集作为量化校准集,修改上述quant_data_path为其中一个文件夹的路径
  3. 如果需要自定义数据集,修改quantize/awq_quantize.py中的custom_data变量,如: custom_data=[{'question':'过敏性鼻炎有什么症状?','answer':'过敏性鼻炎可能鼻塞,流鼻涕,头痛等症状反复发作,严重时建议及时就医。'}, {'question':'1+1等于多少?','answer':'等于2'}]
  4. 根据选择的数据集,选择以下某一行代码替换 quantize/awq_quantize.py 中第三十八行:   #使用wikitext进行量化 model.quantize(tokenizer, quant_config=quant_config, calib_data=load_wikitext(quant_data_path=quant_data_path)) #使用alpaca进行量化 model.quantize(tokenizer, quant_config=quant_config, calib_data=load_alpaca(quant_data_path=quant_data_path)) #使用自定义数据集进行量化 model.quantize(tokenizer, quant_config=quant_config, calib_data=load_cust_data(quant_data_path=quant_data_path))
  5. 运行quantize/awq_quantize.py文件,在设置的quan_path目录下可得awq量化后的模型。

量化测试

  1. 命令行进入到 MiniCPM/quantize 目录下
  2. 修改quantize_eval.sh文件中awq_path,gptq_path,awq_path,如果不需要测试的类型保持为空字符串,如下示例表示仅测试awq模型:
  awq_path="/root/ld/ld_project/AutoAWQ/examples/awq_cpm_1b_4bit"
  gptq_path=""
  model_path=""
  1. 在MiniCPM/quantize路径下命令行输入:
  bash quantize_eval.sh
  1. 窗口将输出该模型的内存占用情况、困惑度。

开源社区

评测结果

评测设置
  • 由于大模型评测难以统一,且大量评测也没有公开的prompt和测试代码,对于具体评测方式,我们只能尽量做到适合各类模型。
  • 整体而言,我们测试时采用统一的prompt输入,并按照各模型对应的模板进行输入调整。
  • 评测脚本及prompt已开源在我们的Github仓库中,也欢迎更多开发者来不断改进我们的评测方式。
  • 文本评测部分,采用了我们的开源大模型能力评测框架。以下为开源模型复现流程:
  • 安装UltraEval git clone https://github.com/OpenBMB/UltraEval.git cd UltraEval pip install -e .
  • 下载相关数据并解压处理 wget -O RawData.zip "https://cloud.tsinghua.edu.cn/f/71b5232264ae4833a4d0/?dl=1" unzip RawData.zip python data_process.py
  • 执行评测脚本(提供了模板,可自定义) bash run_eval.sh
部署模式
  • 因为MiniCPM采用Mup的结构,与现有模型在具体计算上有细微差别,我们是基于vllm=0.2.2版本进行了我们模型的实现。
  • 对于非MiniCPM模型,我们采用了vllm=0.2.7的最新版本进行推理。
评测度量
  • 对于QA任务(选择题任务),我们选用两种方式进行测试:
  • PPL:将选项作为题目生成的延续,并根据各个选项的PPL来进行答案选择;
  • 第二种是直接生成答案选项。
  • 对于不同模型,这两种方式得到的结果差异较大。MiniCPM两种模式上的结果较为接近,而Mistral-7B-v0.1等模型在PPL上表现较好,直接生成上效果较差。
  • 在具体评测时,我们以两种评测方式得分的最高者为最终结果,以此保证对比的公平性(以下表格中*号表示采用PPL)。
文本模型评测

越级比较:

模型平均分英文均分中文均分C-EvalCMMLUMMLUHumanEvalMBPPGSM8KMATHBBHARC-EARC-CHellaSwag
Llama2-7B35.4036.2131.76532.4231.1144.3212.227.1713.571.833.2375.2542.7575.62*
Qwen-7B49.4647.1959.65558.9660.3557.6517.0742.1541.245.3437.7583.4264.7675.32*
Deepseek-7B39.9639.1543.6442.8244.4547.8220.1241.4515.851.5333.3874.58*42.15*75.45*
Mistral-7B48.9749.9644.5446.1242.9662.6927.4445.233.135.041.0683.9270.7380.43*
Llama2-13B41.4842.4437.1937.3237.0654.7117.0732.5521.152.2537.9278.87*58.1979.23*
MPT-30B38.1739.8230.7229.3432.0946.5621.9535.3610.311.5638.2278.66*46.08*79.72*
Falcon-40B43.6244.2140.9340.2941.5753.5324.3936.5322.441.9236.2481.94*57.6883.26*
MiniCPM-2B52.3352.651.151.1351.0753.4650.0047.3153.8310.2436.8785.4468.0068.25

同级比较:

模型平均分英文均分中文均分C-EvalCMMLUMMLUHumanEvalMBPPGSM8KMATHBBHARC-EARC-CHellaSwag
TinyLlama-1.1B25.3625.5524.52525.0224.0324.36.7119.912.270.7428.7860.77*28.15*58.33*
Qwen-1.8B34.7231.8747.5749.8145.3243.377.9317.8019.262.4229.0763.97*43.6959.28*
Gemini Nano-3B-------27.2(report)22.8(report)-42.4(report)---
StableLM-Zephyr-3B43.4646.3130.6230.3430.8945.935.3731.8552.5412.4937.6873.7855.3871.87*
Phi-2-2B48.8454.4123.7823.3724.1852.6647.5655.0457.163.543.3986.1171.2573.07*
MiniCPM-2B52.3352.651.1051.1351.0753.4650.0047.3153.8310.2436.8785.4468.0068.25

Chat模型比较:

模型平均分英文均分中文均分C-EvalCMMLUMMLUHumanEvalMBPPGSM8KMATHBBHARC-EARC-CHellaSwag
ChatGLM2-6B37.9835.1750.6352.0549.2145.7710.379.3822.745.9632.674.4556.8258.48*
Mistral-7B-Instruct-v0.144.3645.8937.5138.0636.9653.5629.2739.3428.733.4839.5281.6163.9973.47*
Mistral-7B-Instruct-v0.250.9152.8342.23542.5541.9260.5136.5948.9540.494.9539.8186.2873.3884.55*
Qwen-7B-Chat44.9342.0557.958.5757.2356.0315.8540.5242.238.337.3464.44*39.25*74.52*
Yi-6B-Chat50.4645.8970.99570.8871.1162.9514.0228.3436.543.8837.4384.8970.3974.6*
Baichuan2-7B-Chat44.6842.7453.3953.2853.55321.3432.3225.256.3237.4679.6360.1569.23*
Deepseek-7B-chat49.3449.5648.33546.9549.7251.6740.8548.4848.524.2635.776.8563.0576.68*
Llama2-7B-Chat38.1639.1733.5934.5432.6447.6414.0227.421.152.0835.5474.2854.7875.65*
MiniCPM-2B52.3352.651.1051.1351.0753.4650.0047.3153.8310.2436.8785.4468.0068.25

DPO后模型比较:

模型MT-bench
GPT-4-turbo9.32
GPT-3.5-turbo8.39
Mistral-8*7b-Instruct-v0.18.30
Claude-2.18.18
Zephyr-7B-beta7.34
MiniCPM-2B7.25
Vicuna-33B7.12
Zephyr-7B-alpha6.88
LLaMA-2-70B-chat6.86
Mistral-7B-Instruct-v0.16.84
MPT-34B-instruct6.39
MiniCPM-2B-128k 模型评测
Modelavgavg w/o code&mathpasskeynumber_stringkv_retrievallongbook_choice_englongbook_qa_chnlongbook_qa_englongbook_sum_englongdialogue_qa_engmath_calcmath_findcode_debugcode_run
LWM-Text-128k24.4533.6210097.80.628.8215.9314.319.991.503.4320.051
Yarn-Mistral-7b-128k19.8427.3692.71027.9515.499.559.067.5017.140.761.25
Mistral-7B-Instruct-v0.2(ABF 1000w)27.7536.910078.983.637.1211.7417.3721.129.5029.4317.510
Yi-6B-200k22.1532.5410094.92036.6815.079.20.923.504.290.510.75
chatglm3-6b-128k25.5836.5789.9399.665.246.2910.78.3825.916.5085.331
MiniCPM-2.4B-128k27.3237.6898.3199.83929.6923.0616.3315.739.504.2922.080
MiniCPM-MoE-8x2B模型评测
ModelBBHMMLUCEvalCMMLUHumanEvalMBPP†GSM8KMATH
Llama2-34B*44.162.6--22.633.042.26.24
Mistral-7B-Instruct-v0.239.8160.5142.5541.9236.5939.6340.494.95
Gemma-7B*55.164.3--32.344.446.424.3
Qwen1.5-7B*40.26174.173.13637.462.520.3
Deepseek-MoE(16B)*-45.040.642.526.839.218.84.3
MiniCPM-2.4B36.8753.4651.1351.0750.0035.9353.8310.24
MiniCPM-MoE-8x2B39.2258.9058.1158.8055.4941.6861.5610.52

注:* 表示结果取自技术报告。† 表示评测集为MBPP全集。

多模态模型评测
ModelSizeTextVQA valDocVQA testOCRBenchOpenCompassMMEMMB dev(en)MMB dev(zh)MMMU valMathVistaLLaVA BenchObject HalBench
Proprietary models
Gemini Pro Vision-74.688.168063.82148.975.274.048.945.879.9-
GPT-4V-78.088.464563.21771.575.175.053.847.893.186.4 / 92.7
Open-source models 6B~34B
Yi-VL-6B6.7B45.5*17.1*29049.31915.168.668.340.328.851.9-
Qwen-VL-Chat9.6B61.562.648852.11860.060.656.737.033.867.756.2 / 80.0
Yi-VL-34B34B43.4*16.9*29052.62050.271.171.445.130.762.3-
DeepSeek-VL-7B7.3B64.7*47.0*43555.61765.474.172.838.336.877.8-
TextMonkey9.7B64.366.7558--------
CogVLM-Chat17.4B70.433.3*59052.51736.663.753.837.334.773.973.6 / 87.4
Open-source models 1B~3B
DeepSeek-VL-1.3B1.7B58.4*37.9*41346.01531.664.061.233.829.451.1-
MobileVLM V23.1B57.519.4*--1440.5(P)63.2-----
Mini-Gemini2.2B56.234.2*--1653.059.8-31.7---
MiniCPM-V2.8B60.638.236647.61650.267.965.338.328.951.378.4 / 88.5
MiniCPM-V 2.02.8B74.171.960555.01808.669.668.138.238.769.285.5 / 92.2

* 我们自己评测了正式开源的模型权重。

手机部署

部署步骤
  • 进行Int4量化后,MiniCPM只占2GB空间,具备在端侧手机进行模型部署的条件。
  • 对于不同的操作系统,我们进行了不同的适配。
  • 注意:当前开源框架对手机支持还在完善,并非所有芯片与操作系统版本均能成功运行MLC-LLM或LLMFarm。
  • Android、HarmonyOS
  • 使用开源框架MLC-LLM进行模型适配。
  • 支持文本模型、多模态模型。
  • 适用于MiniCPM-2B-SFT-INT4、MiniCPM-2B-DPO-INT4、MiniCPM-V。
  • iOS
  • 使用开源框架LLMFarm进行模型适配。
  • 支持文本模型。
  • 适用于MiniCPM-2B-SFT-INT4、MiniCPM-2B-DPO-INT4。
部署性能
  • 我们未针对手机推理模型进行深度优化和系统测试,仅验证MiniCPM使用手机芯片进行推理的可行性。我们也欢迎更多开发者进一步调优并更新下面的测试列表,不断提升端侧大模型在手机上的推理性能
手机型号操作系统处理器Memory(GB)文本吞吐(token/s)
OPPO Find N3Android 13snapdragon 8 Gen2126.5
Samsung S23 UltraAndroid 14snapdragon 8 Gen2126.4
Meizu M182QAndroid 11snapdragon 888Plus83.7
Xiaomi 12 ProAndroid 13snapdragon 8 Gen18+33.7
Xiaomi Redmi K40Android 11snapdragon 87083.5
Oneplus LE 2100Android 13snapdragon 870123.5
Oneplus HD1900Android 11snapdragon 86583.2
Oneplus HD1900Android 11snapdragon 85583.0
Oneplus HD1905Android 10snapdragon 85583.0
Oneplus HD1900Android 11snapdragon 85583.0
Xiaomi MI 8Android 9snapdragon 84562.3
Huawei Nova 11SEHarmonyOS 4.0.0snapdragon 778121.9
Xiaomi MIX 2Android 9snapdragon 83561.3
iPhone 15 ProiOS 17.2.1A17 pro818.0
iPhone 15iOS 17.2.1A16615.0
iPhone 12 ProiOS 16.5.1A1465.8
iPhone 12iOS 17.2.1A1445.8
iPhone 11iOS 16.6A1344.6
Xiaomi Redmi K50HyperOS 1.0.2MediaTek Dimensity 8100123.5
  • 我们也使用MLC-LLM验证了在手机上部署MiniCPM-V系列模型的可行性,能够正常输入输出,但也存在图片处理时间较长的问题,需要进一步优化,兼容性问题也需要进一步解决。下面的动图是使用小米14 Pro运行MiniCPM-V 2.0的屏幕录像,没有进行任何编辑。

Demo & API 部署

基于Gradio的网页版Demo
  • 使用如下命令启动基于Gradio的网页版demo: # generation powered by vllm python demo/vllm_based_demo.py --model_path <vllmcpm_repo_path> # generation powered by huggingface python demo/hf_based_demo.py --model_path <hf_repo_path>

二次开发

  • 高效参数微调
  • 一张1080/2080可实现高效参数微调
  • 全参数微调 or 持续训练
  • 使用,借助重计算和ZeRO-3,一张3090/4090可实现全参数微调,一台机器可实现持续训练
  • 相关代码也将陆续推出
  • mlx高效参数微调
  • 环境准备 pip install -r finetune/requirements_mlx.txt
  • 微调命令 # train python mlx_finetune.py --model MiniCPM-2B-sft-bf16-llama-format-mlx  --data data/AdvertiseGen  --train  --seed 2024 --iters 500 # test python mlx_finetune.py --model MiniCPM-2B-sft-bf16-llama-format-mlx  --data data/AdvertiseGen  --test --seed 2024

典型示例

文本生成
代码生成
数理逻辑
文本翻译
指令跟随
特殊字符

开源协议

模型协议
  • 本仓库中代码依照  协议开源
  • MiniCPM 模型权重的使用则需要遵循 。
  • MiniCPM 模型权重对学术研究完全开放,在填写进行登记后亦允许免费商业使用。
声明
  • 作为一个语言模型,MiniCPM 通过学习大量的文本来生成内容,但它无法理解、表达个人观点或价值判断,它所输出的任何内容都不代表模型开发者的观点和立场。
  • 因此用户在使用 MiniCPM 生成的内容时,应自行负责对其进行评估和验证。
  • 如果由于使用 MiniCPM 开源模型而导致的任何问题,包括但不限于数据安全问题、公共舆论风险,或模型被误导、滥用、传播或不当利用所带来的任何风险和问题,我们将不承担任何责任。

工作引用

  • 如果觉得MiniCPM有助于您的工作,请引用我们的
@article{hu2024minicpm,
  title={MiniCPM: Unveiling the Potential of Small Language Models with Scalable Training Strategies},
  author={Hu, Shengding and Tu, Yuge and Han, Xu and He, Chaoqun and Cui, Ganqu and Long, Xiang and Zheng, Zhi and Fang, Yewei and Huang, Yuxiang and Zhao, Weilin and others},
  journal={arXiv preprint arXiv:2404.06395},
  year={2024}
}

Read more

计算机毕业设计java毕设项目源码之https://zeeklog.com小程序ssm驾校教培服务系统小程序+后台管理系统|前后分离

计算机毕业设计java毕设项目源码之https://zeeklog.com小程序ssm驾校教培服务系统小程序+后台管理系统|前后分离

一、项目介绍 《微信小程序驾校教培服务系统+后台管理系统|前后分离VUE》该项目含有源码、文档等资料、配套开发软件、软件安装教程、项目发布教程等 本系统包含微信小程序前台和Java做的后台管理系统,该后台采用前后台前后分离的形式使用Java+VUE 微信小程序——前台涉及技术:WXML 和 WXSS、JavaScript、uniapp Java——后台涉及技术: 前端使用技术:HTML5,CSS3、JavaScript、VUE等 后端使用技术:Spring、SpringMvc、Mybatis(SSM)等 数据库:Mysql数据库 小程序框架:uniapp 小程序开发软件:HBuilder X 小程序运行软件:微信开发者 软件的功能: 1、开发实现驾校教培服务系统的整个系统程序; 2、管理员服务端;首页、个人中心、学员管理、

By Ne0inhk
Java毕业设计计算机毕设项目源码之原生https://zeeklog.com小程序居家养老+后台管理系统

Java毕业设计计算机毕设项目源码之原生https://zeeklog.com小程序居家养老+后台管理系统

一、项目介绍 《微信小程序居家养老+后台管理系统》该项目含有源码、文档等资料、配套开发软件、软件安装教程、项目发布教程等 本系统包含微信小程序做的居家养老前台和Java做的后台管理系统: 微信小程序——居家养老前台涉及技术:WXML 和 WXSS、JavaScript Java——居家养老后台涉及技术: 前端使用技术:JSP,HTML5,CSS3、JavaScript、jQuery、bootstrap等 后台使用技术:Spring、SpringMvc、Mybatis(SSM)等 数据库:Mysql数据库 相关课程视频教程太大可在线学习,学习地址如下: 原生小程序核心代码讲解教程链接地址:https://www.bilibili.com/video/BV14z4y1K7LR 原生小程序修改教程链接地址:https://www.bilibili.com/video/BV1V94y147mv 前台功能介绍:

By Ne0inhk
计算机毕业设计项目之基于协同过滤推荐算法实现的https://zeeklog.com小程序电子书城销售系统|商城|电商系统+后台管理系统

计算机毕业设计项目之基于协同过滤推荐算法实现的https://zeeklog.com小程序电子书城销售系统|商城|电商系统+后台管理系统

一、项目介绍 《微信小程序电子书城|商城|电商系统+后台管理系统|前后分离VUE》该项目含有源码、文档等资料、配套开发软件、软件安装教程、项目发布教程等 本系统包含微信小程序商城前台和Java做的后台管理系统,该后台采用前后台前后分离的形式使用Java+VUE 微信小程序——前台涉及技术:WXML 和 WXSS、JavaScript、uniapp Java——后台涉及技术: 前端使用技术:HTML5,CSS3、JavaScript、VUE等 后端使用技术:Spring、SpringMvc、Mybatis(SSM)等 数据库:Mysql数据库 服务器:tomcat 小程序框架:uniapp 小程序开发软件:HBuilder X 小程序运行软件:微信开发者 服务器端模块包括: 1. 个人中心:可以修改自己的登录密码,

By Ne0inhk
计算机毕业设计项目之https://zeeklog.com小程序旅游服务平台+后台管理系统|前后分离

计算机毕业设计项目之https://zeeklog.com小程序旅游服务平台+后台管理系统|前后分离

一、项目介绍 《微信小程序旅游服务平台+后台管理系统|前后分离VUE》该项目含有源码、文档等资料、配套开发软件、软件安装教程、项目发布教程等 本系统包含微信小程序前台和Java做的后台管理系统,该后台采用前后台前后分离的形式使用Java+VUE 微信小程序——前台涉及技术:WXML 和 WXSS、JavaScript、uniapp Java——后台涉及技术: 前端使用技术:HTML5,CSS3、JavaScript、VUE等 后端使用技术:Spring、SpringMvc、Mybatis(SSM)等 数据库:Mysql数据库 小程序框架:uniapp 小程序开发软件:HBuilder X 小程序运行软件:微信开发者 随着互联网的趋势的到来,各行各业都在考虑利用互联网将自己的信息推广出去, 最好方式就是建立自己的平台信息,并对其进行管理,随着现在智能手机的普及, 人们对于智能手机里面的应用旅游服务软件也在不断的使用,本文首先分析了旅游服务软件应用程序的需求, 从系统开发环境、

By Ne0inhk