概述
本文介绍开源且完全没有审核限制的大型语言模型(LLM),即无内置内容过滤或审查机制的模型。这些模型适合需要开放对话的场景,但用户需注意伦理和法律责任。
关键要点
- 存在多个开源 LLM 完全没有审核限制,适合开放对话。
- 包括基于 Llama、Mixtral、Phi-2 和 StableLM 的模型,参数范围从 2.78 亿到 4050 亿。
- 许可证包括 Apache-2.0、MIT、Llama 许可证和 CC BY-NC-SA 4.0(部分非商业用途)。
- 用户需注意伦理和法律责任,因这些模型可能生成有害内容。
主要模型
基于 Llama 的模型
- Llama2-Uncensored:
- 参数规模:7 亿和 70 亿。
- 基模型:基于 Meta 的 Llama 2。
- 许可证:Llama 2 社区许可证,允许研究和商业用途。
- 描述:无审查版本,适合长对话。
- WizardLM-Uncensored:
- 参数规模:7 亿、13 亿和 30 亿。
- 基模型:基于 Llama 1。
- 描述:无审查版本,适合聊天任务。
- EverythingLM-13B-16K:
- 参数规模:13 亿。
- 基模型:基于 Llama 2 13 亿。
- 描述:无审查,16k 上下文长度,适合通用任务。
- Nous-Hermes-Llama2:
- 参数规模:7 亿和 13 亿。
- 基模型:基于 Llama 2。
- 描述:基于超过 30 万条指令微调,无 OpenAI 审查机制,适合任务完成和长回复。
- Hermes-3-Llama-3.1-Uncensored:
- 参数规模:70 亿和 4050 亿。
- 基模型:基于 Llama 3.1。
- 描述:无审查版本,适合推理任务,需用户实现对齐层以确保伦理使用。
基于 Mixtral 的模型
- Dolphin-2.5-Mixtral-8x7B:
- 参数规模:46.7 亿(基于 Mixtral 8x7B 的 MoE 架构)。
- 基模型:基于 Mistral AI 的 Mixtral 8x7B。
- 许可证:Apache-2.0,允许商业和非商业用途。
- 描述:无审查,擅长编码任务,16k 上下文长度。
基于 Phi-2 的模型
- Dolphin-2.6-Phi-2:
- 参数规模:2.78 亿。
- 基模型:基于 Microsoft 的 Phi-2。
- 许可证:MIT,灵活使用。
- 描述:无审查,数据集过滤移除对齐和偏见,适合各种任务。
基于 StableLM 的模型
- StableLM Alpha:
- 参数规模:3 亿和 7 亿。
- 基模型:StableLM。
- 许可证:CC BY-NC-SA 4.0,仅限非商业用途。
- 描述:无审查,适合研究,上下文长度 4096。
性能与使用案例
这些模型在基准测试中表现强劲,例如 Llama2-Uncensored 在 ARC-c 和 HellaSwag 上排名靠前。使用案例包括角色扮演、创意写作和编码任务,但需通过后处理或用户责任管理潜在风险。


