GLM-4-9B 及 CodeGeeX4-ALL-9B 支持 Ollama 本地部署
GLM-4-9B 和 CodeGeeX4-ALL-9B 现已支持通过 Ollama 在本地环境部署。模型背景、Ollama 安装方法、运行命令及基本使用注意事项。Ollama 提供跨平台支持,方便开发者集成大语言模型能力。内容涵盖环境要求、模型拉取、交互式运行、API 调用示例及常见问题排查,帮助开发者快速上手本地大模型部署。

GLM-4-9B 和 CodeGeeX4-ALL-9B 现已支持通过 Ollama 在本地环境部署。模型背景、Ollama 安装方法、运行命令及基本使用注意事项。Ollama 提供跨平台支持,方便开发者集成大语言模型能力。内容涵盖环境要求、模型拉取、交互式运行、API 调用示例及常见问题排查,帮助开发者快速上手本地大模型部署。

GLM-4-9B 是智谱 AI 推出的最新一代预训练模型 GLM-4 系列中的开源版本。在语义、数学、推理、代码和知识等多方面的数据集测评中,GLM-4-9B 在各项能力上均表现出卓越的能力。
CodeGeeX4-ALL-9B 是最新的 CodeGeeX4 系列模型的开源版本。该模型是在 GLM-4-9B 基础上持续训练的多语言代码生成模型,显著提升了代码生成能力。
Ollama 是一个专为在本地环境中运行和定制大型语言模型而设计的工具。它提供了一个简单而高效的接口,用于创建、运行和管理这些模型,同时还提供了一个丰富的预构建模型库,可以轻松集成到各种应用程序中。Ollama 支持多种操作系统,包括 macOS、Windows、Linux 以及 Docker,适用性广泛。通过 Ollama,用户可以方便地部署和运行 GLM-4-9B 等开源的大语言模型。
在开始部署之前,请确保您的系统满足以下基本要求:
访问 Ollama 官网下载对应系统的安装包,双击运行并按照提示完成安装。安装完成后,打开终端(Terminal)验证安装:
ollama --version
注意:此模型需要 Ollama 0.2 或更高版本,目前处于预发布阶段。当前支持 ollama 部署的仅为语言模型,多模态模型尚不支持 ollama 部署。
使用官方脚本进行安装:
curl -fsSL https://ollama.com/install.sh | sh
如果您偏好容器化部署,可以使用 Docker 运行 Ollama:
docker run -d -v ollama:/root/.ollama -p 11434:11434 --name ollama ollama/ollama
Ollama 提供了便捷的命令来拉取和运行模型。以下是针对 GLM-4-9B 和 CodeGeeX4-ALL-9B 的操作步骤。
在终端执行以下命令拉取模型:
ollama pull glm4
ollama pull codegeex4
模型地址参考:
模型拉取完成后,可以直接启动对话:
ollama run glm4
或者运行代码模型:
ollama run codegeex4
启动后,您可以在终端输入问题,模型将直接返回回答。按 Ctrl+C 退出会话。
Ollama 默认在本地启动一个 HTTP 服务(端口 11434),允许通过 API 与模型交互。这对于集成到自己的应用程序中非常有用。
以下是一个使用 Python requests 库调用 GLM-4 模型的示例代码:
import requests
import json
def chat_with_glm(prompt):
url = "http://localhost:11434/api/chat"
payload = {
"model": "glm4",
"messages": [
{"role": "user", "content": prompt}
],
"stream": False
}
response = requests.post(url, json=payload)
if response.status_code == 200:
data = response.json()
return data['message']['content']
else:
return f"Error: {response.status_code}"
if __name__ == "__main__":
user_input = "你好,请介绍一下你自己。"
reply = chat_with_glm(user_input)
print(reply)
如果需要流式输出体验,可以将 stream 参数设置为 true:
response = requests.post(url, json=payload, stream=True)
for line in response.iter_lines():
if line:
chunk = json.loads(line)
if 'message' in chunk and 'content' in chunk['message']:
print(chunk['message']['content'], end='', flush=True)
ollama serve),且防火墙未阻止 11434 端口。通过 Ollama,开发者可以非常便捷地在本地部署 GLM-4-9B 和 CodeGeeX4-ALL-9B 模型。这不仅降低了使用门槛,还保障了数据隐私。结合 Python API,可以快速构建基于大模型的本地应用。随着 Ollama 生态的完善,更多模型将陆续支持本地运行,为 AI 开发提供更灵活的选择。

微信公众号「极客日志」,在微信中扫描左侧二维码关注。展示文案:极客日志 zeeklog
使用加密算法(如AES、TripleDES、Rabbit或RC4)加密和解密文本明文。 在线工具,加密/解密文本在线工具,online
生成新的随机RSA私钥和公钥pem证书。 在线工具,RSA密钥对生成器在线工具,online
基于 Mermaid.js 实时预览流程图、时序图等图表,支持源码编辑与即时渲染。 在线工具,Mermaid 预览与可视化编辑在线工具,online
解析常见 curl 参数并生成 fetch、axios、PHP curl 或 Python requests 示例代码。 在线工具,curl 转代码在线工具,online
将字符串编码和解码为其 Base64 格式表示形式即可。 在线工具,Base64 字符串编码/解码在线工具,online
将字符串、文件或图像转换为其 Base64 表示形式。 在线工具,Base64 文件转换器在线工具,online