蓝耘科技上线DeepSeek满血版:500万Tokens专享,解锁AI推理新体验

蓝耘科技上线DeepSeek满血版:500万Tokens专享,解锁AI推理新体验

蓝耘科技:智算云平台的创新者

作为专注于高性能AI基础设施的科技企业,蓝耘科技于2024年11月正式发布元生代智算云平台,整合了智算算力调度、AI应用市场和协作开发三大模块。该平台通过裸金属调度和容器化技术,为用户提供灵活高效的算力资源管理,同时支持团队协作开发,大幅提升AI模型训练与推理效率。

DeepSeek-R1满血版:技术突破与实战优势

此次上线的DeepSeek-R1满血版,基于MoE(Mixture of Experts)架构优化,在32K上下文窗口下实现了动态稀疏激活

  • 数学推理:通过RLHF+DPO混合训练策略,在MATH数据集上准确率达到68.3%(GPT-4为74.9%),但推理成本降低97%。
  • 代码生成:集成代码检索增强技术(RAG),支持Python/Java/C++等12种语言,HumanEval pass@1得分82.1%。
  • 长文本理解:采用滑动窗口注意力机制(SWA),在16K tokens文本摘要任务中ROUGE-L得分提升15%。

开发者可通过量化压缩技术(支持FP16/INT8)灵活控制显存占用,在单卡RTX 4090上即可部署7B版本模型,实测生成速度达45 tokens/秒。

元生代推理引擎:释放AI无限潜能

通过元生代推理引擎,开发者可轻松实现以下功能:

  1. 复杂任务处理:支持多模态数据输入与动态推理,适用于科学计算、金融分析等高精度场景。
  2. 高效资源调度:结合容器化技术,自动优化算力分配,降低延迟与成本。
  3. 安全合规:内置策略引擎确保模型输出符合安全规范,减少重大错误概率。

 

三步调用大模型接口:OpenAI SDK无缝兼容

蓝耘的API接口完全兼容OpenAI官方规范,开发者只需简单配置即可迁移现有应用:

  1. 替换API参数:将base_url设置为蓝耘接口地址(例如[https://api.lkeap.cloud.tencent.com/v1 ](https://api.lkeap.cloud.tencent.com/v1 )),并使用平台生成的api_key
  2. 选择模型:调用时指定model参数为deepseek-r1deepseek-v3
  3. 发送请求:通过标准OpenAI SDK发起对话,享受与ChatGPT一致的开发体验

如果使用python进行终端回答调用

创建一个python文件命名为ark_example.py,将下面示例代码拷贝进文件。并替换密钥为您的API KEY。替换content中的<你是谁>为您想要的提问内容。点击运行,稍等您可以在终端窗口中看到模型调用的返回结果。这样您就完成了您的首次型服务调用。

from openai import OpenAI # 构造 client client = OpenAI( api_key="sk-xxxxxxxxxxx", # APIKey base_url="https://maas-api.lanyun.net/v1", ) # 流式 stream = True # 请求 chat_completion = client.chat.completions.create( model="/maas/deepseek-ai/DeepSeek-R1", messages=[ { "role": "user", "content": "你是谁", } ], stream=stream, ) if stream: for chunk in chat_completion: # 打印思维链内容 if hasattr(chunk.choices[0].delta, 'reasoning_content'): print(f"{chunk.choices[0].delta.reasoning_content}",) # 打印模型最终返回的content if hasattr(chunk.choices[0].delta, 'content'): if chunk.choices[0].delta.content != None and len(chunk.choices[0].delta.content) != 0: print(chunk.choices[0].delta.content,) else: result = chat_completion.choices[0].message.content 

 回答的答案为:

 

开发者实战:OpenAI SDK进阶用法 

场景1:流式输出与速率控制

from openai import OpenAI client = OpenAI(base_url="https://api.lkeap.cloud.tencent.com/v1", api_key="sk-xxx") response = client.chat.completions.create( model="deepseek-r1", messages=[{"role": "user", "content": "用Python实现快速排序"}], temperature=0.3, stream=True, # 启用流式输出 max_tokens=500, timeout=10 # 设置超时阈值 ) for chunk in response: print(chunk.choices[0].delta.content,, flush=True) 

 场景2:函数调用(Function Calling)

response = client.chat.completions.create( model="deepseek-r1", messages=[{"role": "user", "content": "北京明天天气怎么样?"}], tools=[{ "type": "function", "function": { "name": "get_weather", "parameters": { "type": "object", "properties": { "location": {"type": "string"}, "date": {"type": "string"} } } } }] ) # 解析返回的JSON Schema并执行外部API调用 

 

搭配Chatbox:打造本地化AI助手

获取 API Key

 

 

点击API开放平台,然后点击API KEY管理,单击创建API KEY 

 

 

搭配chatbox 

Chatbox作为开源跨平台客户端,是连接蓝耘API的绝佳工具:

  1. 下载安装:支持Windows、Mac、Linux及移动端,从官网或第三方平台获取最新版本。
  2. 配置API:在设置中选择“自定义提供方”,填写蓝耘的base_urlapi_key,模型名称设为deepseek-r1

进行填写

 

1.名称(随便填,比如可以是 lanyun,方便区分)

2.API 地址:https://maas-api.lanyun.net

3.API 路径:/v1/chat/completions

4.API 密钥:填写刚刚复制的APIKEY

5.填写模型名称,比如/maas/deepseek-ai/DeepSeek-R1

6.点击保存

7.创建对话
,确认要使用的模型,开始聊天吧

 

 聊天测试

功能扩展:利用Prompt模板定制专属助手,如代码生成器、多语言翻译等,提升工作效率。 

结束语

注册蓝耘智算云平台即可:
✅ 免费获取500万tokens,畅享DeepSeek-R1满血版。
✅ 体验元生代推理引擎,解锁高效AI开发流程。
✅ 搭配Chatbox客户端,零门槛构建智能应用。

抓住技术红利,加速您的AI项目落地!点击立即注册,开启智能新纪元。

官网链接: https://cloud.lanyun.net//#/registerPage?promoterCode=0131

Read more

知识库问答机器人:基于SpringAI+RAG的完整实现

知识库问答机器人:基于SpringAI+RAG的完整实现

一、引言 随着大语言模型的快速发展,RAG(Retrieval-Augmented Generation)技术已成为构建知识库问答系统的核心技术之一。本文将带领大家从零开始,使用Spring AI框架构建一个支持文档上传的知识库问答机器人,帮助大家深入理解RAG技术的核心原理和实践应用。 1.1 什么是RAG? RAG(检索增强生成)是一种结合了信息检索和文本生成的技术。它的基本工作流程是: 用户提出问题 系统从知识库中检索相关信息 大语言模型基于检索到的信息生成答案 从系统设计角度触发,RAG 的核心作用可以被描述为: 在LLM调用生成响应之前,由系统动态构造一个“最小且相关的知识上下文”。 请注意两个关键词: 动态 :每次问题都不同,检索的知识也不同(比如用户问 A 产品时找 A 的文档,问 B 产品时找 B 的文档) 最小 :只注入必要信息(比如用户问 “A 产品的定价”,就只塞定价相关的片段,而非整份产品手册) RAG可以有效的弥补上下文窗口的先天不足:不再需要把所有知识塞进窗口,

Telegram搜索机器人推荐——查找海量资源,提升信息检索效率

大家好,本文首发于 ZEEKLOG 博客,主要面向需要在 Telegram 中高效检索资源的同学。我结合自己的实测体验,总结了几款实用的搜索机器人与完整操作流程,帮助大家解决“怎么快速找到频道、群组、文件”的痛点。如果你也在为信息筛选耗时头疼,建议耐心读完并亲手试试,收获会很大。觉得有帮助别忘了给个点赞、收藏和关注支持一下 🙂 📚 本文目录 * 使用准备 * 什么是Telegram搜索机器人? * Telegram搜索机器人的核心功能 * 推荐的Telegram搜索机器人 * 如何使用Telegram搜索机器人? * Telegram搜索机器人的应用场景 * 总结 在信息爆炸的时代,如何高效获取自己想要的资源?Telegram搜索机器人为你带来全新解决方案,无需翻找频道、群组,只需输入关键词,即可一键查找海量内容。无论是影视剧、电子书、图片还是优质群组,Telegram搜索机器人都能帮你轻松找到。推荐搜索机器人:@soso、@smss、@jisou 使用准备 1. 能访问外网,不会魔法的同学请参考:这里 2. 安装 Telegram

MedGemma-1.5-4B实战教程:医学影像多模态理解从模型调用到Web集成

MedGemma-1.5-4B实战教程:医学影像多模态理解从模型调用到Web集成 1. 为什么你需要一个医学影像“看图说话”工具? 你有没有遇到过这样的情况:手头有一张CT扫描图,想快速了解它大致显示了什么结构,但又不是放射科医生;或者在带学生做AI医疗实验时,需要一个能即时响应影像提问的演示系统,而不是等半天跑完一整套预处理+模型推理流程;又或者,你刚跑通了一个多模态模型,却卡在“怎么让别人一眼看懂它到底能干啥”这一步。 MedGemma-1.5-4B 就是为这类真实需求而生的——它不是泛泛而谈的“多模态大模型”,而是 Google 针对医学影像专门优化过的 40 亿参数多模态模型。它不生成假报告,也不编造诊断结论,但它能准确识别肺部纹理、脊柱节段、脑室轮廓,能理解“这张MRI里左侧海马区信号是否增高”这样的专业问题,并用清晰、克制、符合医学表达习惯的语言给出回应。 本文不讲论文里的指标曲线,也不堆砌训练细节。我们直接带你从零开始: 下载并本地加载 MedGemma-1.5-4B 模型 写三行代码完成一张X光片+中文问题的联合推理

LangGraph 智能体状态管理与决策

LangGraph 智能体状态管理与决策

LangGraph 智能体状态管理与决策 * 写在最前面 🌌你好!这里是 晓雨的笔记本在所有感兴趣的领域扩展知识,感谢你的陪伴与支持~👋 欢迎添加文末好友,不定期掉落福利资讯 写在最前面 版权声明:本文为原创,遵循 CC 4.0 BY-SA 协议。转载请注明出处。 本次演示围绕 Bright Data Web MCP 与 LangGraph 的集成实操 展开,完整展示了从获取大模型 API Key、创建大模型会话,到获取 Bright Data API Key、通过 MultiServerMCPClient 连接 Web MCP 服务器,并在 Bright Data 后台进一步启用浏览器自动化工具、扩展智能体可调用能力的全流程;同时结合 LangGraph