和 AI 玩海龟汤差点崩溃:它永远比我多知道 100 个隐藏真相

和 AI 玩海龟汤差点崩溃:它永远比我多知道 100 个隐藏真相

关于海龟汤

第一次接触海龟汤时,我还以为这是某种美食烹饪挑战,直到朋友抛出第一个谜题 ——“一个人走进酒吧,要了一杯水,酒保却掏出一把枪对准他,可这个人不仅没害怕,反而说了声谢谢离开了”,才惊觉这是场烧脑的逻辑游戏。海龟汤,学名情境猜谜,玩家只能通过提问获取 “是”“否” 或 “无关” 的回答,一步步拼凑出汤底背后的完整故事。这种用有限线索破解无限想象的过程,就像在黑暗中摸索开关,每次提问都是试探,当真相突然亮起时,那种恍然大悟的快感让人上瘾。

image.png

作为计算机专业的学生,我常在蓝耘 API 的助力下完成课程设计。有次用它处理文本数据时,突然冒出个想法:既然海龟汤的本质是文本逻辑交互,为什么不做一款属于自己的海龟汤游戏?
最初的念头源于对解谜的热爱。深夜和朋友玩海龟汤时,看着大家为了一个谜题争论到面红耳赤,最后被反转的汤底惊得笑出眼泪,我意识到这种互动游戏的魅力。市面上虽然有不少海龟汤游戏,但要么谜题老套,要么交互不够灵活。我想用蓝耘 API 的高反应速度和灵活度,打造一款能实时生成新谜题、根据玩家提问动态调整线索的游戏,让每场推理都充满新鲜感。

为什么使用蓝耘api呢?

作为一名计算机专业的学生,在完成课程设计和参与项目实践时,API 的选择直接影响着我的 “肝代码” 效率和最终成果。在踩过无数 “坑” 后,蓝耘 API 就像发现新大陆一样,成为我在开发路上的得力助手,特别是它反应速度快、灵活度高、量大还便宜的特点,完全精准戳中了学生党的需求!

image.png

蓝耘 API 支持多种编程语言和调用方式,无论是 Python、Java 还是其他语言,都能轻松适配。在开发一个图像识别小项目时,我可以根据自己的需求自由调整参数,实现个性化的功能。而且,它的接口设计非常人性化,即使是我这样的 “学生小白”,对照着详细的文档和示例代码,也能快速上手,大大节省了学习成本和开发时间。

image.png

对于学生党来说,“量大” 简直是蓝耘 API 的 “绝杀技”。做项目时,数据需求量大是常有的事,要是 API 调用次数有限制,分分钟就会 “弹尽粮绝”。蓝耘 API 提供的调用额度十分慷慨,完全能满足我日常学习和项目实践的需求,再也不用担心因为调用次数不够而中断开发。

image.png

最最关键的是,蓝耘 API 的价格对学生党太友好了!没有高昂的授权费用,性价比超高。相比其他动不动就 “大出血” 的 API,它简直是 “良心之选”。省下的钱,我还能多买两杯奶茶犒劳辛苦写代码的自己。

image.png

使用ai完成蓝耘api的本地调用

我们先进行api的获取以及你需要知道你要调用的模型的编号和申请api
模型编号的话你来到模型广场,点击一个模型,然后名字下面就会有ai模型的编号,将这个进行复制操作

image.png


然后进行api的创建
点击创建api并且进行复制操作

image.png


来到api调用的文档
我这里选择的是py代码进行ai的调用,你需要将你的api和要调用的模型名称粘贴进去

image.png
from openai import OpenAI # 构造 client client = OpenAI( api_key="sk-xxxxxxxxxxx", # APIKey base_url="https://maas-api.lanyun.net/v1", ) # 流式 stream = True # 请求 chat_completion = client.chat.completions.create( model="/maas/deepseek-ai/DeepSeek-R1", messages=[ { "role": "user", "content": "你是谁", } ], stream=stream, ) if stream: for chunk in chat_completion: # 打印思维链内容 if hasattr(chunk.choices[0].delta, 'reasoning_content'): print(f"{chunk.choices[0].delta.reasoning_content}",) # 打印模型最终返回的content if hasattr(chunk.choices[0].delta, 'content'): if chunk.choices[0].delta.content != None and len(chunk.choices[0].delta.content) != 0: print(chunk.choices[0].delta.content,) else: result = chat_completion.choices[0].message.content 

打开vscode我们对ai说出你的提示词,让ai帮你开发一个具体的应用就行了

image.png


image.png


image.png

经过几轮调试我们也是生成好了
代码生成好了之后,我们直接在终端输入命令python main.py
运行之前一定记得将你的依赖都安装好,一般ai是会帮你搞好的
下面是我们进行了几轮的对话,看起来效果还是很不错的,你如果也想有这么好的效果的话,你得给你的蓝耘ai设置下prompt

image.png


下面是部分的代码,可以参考下

import gradio as gr import json import requests API_KEY = "sk-xxxxxxxxxxxxxxxxxxxxxx" API_URL = "https://maas-api.lanyun.net/v1/chat/completions" def get_initial_riddle():     headers = {         "Content-Type": "application/json",         "Authorization": f"Bearer {API_KEY}"     }     data = {         "model": "/maas/qwen/QwQ-32B",         "messages": [             {                 "role": "user",                 "content": "请你扮演一个出题人,给我出一道海龟汤题目。请按照以下格式输出:1. 题目描述 2. 正确答案。请确保题目有趣且富有创意。"             }         ],         "stream": False     }     response = requests.post(API_URL, headers=headers, json=data)     response_data = response.json()     return response_data['choices'][0]['message']['content'] def check_answer(user_answer, history):     headers = {         "Content-Type": "application/json",         "Authorization": f"Bearer {API_KEY}"     }     messages = [         {"role": "assistant", "content": history[0][1]},  # 原题目和答案         {"role": "user", "content": f"玩家的回答是:{user_answer}。请你判断这个回答是否接近正确答案,如果正确就表扬他,如果错误就给出一些提示,但不要直接告诉答案。"}     ]     data = {         "model": "/maas/qwen/QwQ-32B",         "messages": messages,         "stream": False     }     response = requests.post(API_URL, headers=headers, json=data)     response_data = response.json()     ai_response = response_data['choices'][0]['message']['content']     history.append((user_answer, ai_response))     return "", history def create_new_riddle(history):     new_riddle = get_initial_riddle()     history = [(None, new_riddle)]     return history with gr.Blocks(theme=gr.themes.Soft()) as demo:     chatbot = gr.Chatbot(         [],         elem_id="chatbot",         bubble_full_width=False,         avatar_images=(None, "🤖"),     )     with gr.Row():         txt = gr.Textbox(             scale=4,             show_label=False,             placeholder="请输入你的答案...",             container=False,         )         submit_btn = gr.Button("提交", scale=1)     new_riddle_btn = gr.Button("出新题")     txt.submit(check_answer, [txt, chatbot], [txt, chatbot])     submit_btn.click(check_answer, [txt, chatbot], [txt, chatbot])     new_riddle_btn.click(create_new_riddle, [chatbot], [chatbot])     demo.load(create_new_riddle, [chatbot], [chatbot]) if __name__ == "__main__":     demo.launch() 

总结

开发过程中,蓝耘 API 的高效响应为谜题秒级生成提供支持,灵活的接口适配让玩法设计不受束缚,超大调用量与亲民价格,则为游戏的持续优化与迭代保驾护航。学生时代敢想敢做的冲劲,配合技术工具的赋能,让这款融合了创新思维与硬核实力的游戏得以成型。
如果你也对api调用感兴趣,不妨来试试蓝耘呢

image.png


用下方链接就ok了

https://cloud.lanyun.net//#/registerPage?promoterCode=0131

Read more

网络安全:零暴露公网IP访问本地AI服务的一些方法分享,保障数据隐私!

网络安全:零暴露公网IP访问本地AI服务的一些方法分享,保障数据隐私!

如果我们选择本地部署AI模型(如LLaMA、Stable Diffusion)的核心动机之一是对数据隐私的绝对控制! 但当我们需要从外部网络访问这些服务时,就面临两难选择:要么牺牲便利性(只能在内网使用),要么牺牲安全性(将服务暴露至公网)。我这边介绍一种折中的解决方案,实现无需公网IP、零端口暴露的远程安全访问。 公网暴露的潜在威胁 将本地服务的端口通过路由器映射到公网(Port Forwarding),是常见的“暴力”解决方案。但这带来了显著风险: 1. 端口扫描与暴力破解:你的服务IP和端口会暴露在互联网的自动化扫描工具下,可能遭遇持续的登录尝试或漏洞利用攻击。 2. 服务漏洞利用:如果AI服务的Web界面或API存在未修复的漏洞,攻击者可以直接利用。 3. 家庭网络边界被突破:一旦攻击者通过该服务入侵成功,可能进一步渗透到家庭网络中的其他设备。 怎么解决:基于加密隧道的网络隐身 思路是:不让本地服务在公网“露面”,而是让外部访问者通过一条加密的“专属通道”直接进入内网。这可以通过基于零信任网络的P2P VPN工具实现。 具体实现:以Tailscale/Z

一句话生成PCB?和AI聊聊天,就把板子画了!

一句话生成PCB?和AI聊聊天,就把板子画了!

在键盘上敲下一句“我要一个STM32的电机驱动板,带CAN总线”,几秒后,一张完整的原理图和PCB布局在你眼前展开——这不是科幻电影,而是AI给硬件工程师带来的真实震撼。 清晨的阳光洒进办公室,资深硬件工程师李工没有像往常一样直接打开Altium Designer。他对着电脑屏幕上的对话框,敲入了一行简单的需求描述:“设计一个基于ESP32的智能插座PCB,要求支持Wi-Fi控制、过载保护,尺寸尽量小巧。” 15分钟后,一份完整的原理图草案、经过初步优化的双层板布局,甚至是一份物料清单(BOM)初稿已经呈现在他面前。这不可思议的效率背后,正是AI驱动的PCB设计工具在重新定义电子设计的边界。 01 效率革命,从对话到电路板 如今的PCB设计领域正经历着一场静悄悄的革命。传统上,一块电路板从概念到图纸,需要工程师经历需求分析、器件选型、原理图绘制、布局布线等一系列复杂工序,耗时数天甚至数周。 AI工具的出现彻底改变了这一流程。这类工具的核心是经过海量电路数据和设计规则训练的大型语言模型,它们能理解自然语言描述的需求,自动完成从逻辑设计到物理实现的全流程或关键环节。 比如,当

AMD显卡解锁AI绘画新境界:从入门到精通的完整指南

AMD显卡解锁AI绘画新境界:从入门到精通的完整指南 【免费下载链接】ComfyUI-ZludaThe most powerful and modular stable diffusion GUI, api and backend with a graph/nodes interface. Now ZLUDA enhanced for better AMD GPU performance. 项目地址: https://gitcode.com/gh_mirrors/co/ComfyUI-Zluda 还在为AMD显卡在AI绘画中表现不佳而苦恼吗?你的RX系列显卡其实蕴藏着强大的AI计算潜能,只是需要正确的解锁方式。ComfyUI-Zluda通过革命性的ZLUDA技术,让AMD用户也能享受流畅的AI创作体验。本文将为你提供从基础安装到高级优化的全方位解决方案。 🎯 快速上手通道 新手必看:5分钟完成环境搭建 问题:第一次接触AI绘画,面对复杂的配置感到无从下手? 解决方案: 1. 获取项目代码:

开箱即用:支持ChatGLM/文心一言的API管理镜像部署手册

开箱即用:支持ChatGLM/文心一言的API管理镜像部署手册 1. 为什么你需要这个镜像——告别密钥混乱与模型适配烦恼 你是否遇到过这样的场景: * 项目里同时调用文心一言写营销文案、用ChatGLM做内部知识问答、再接入通义千问生成技术文档,结果每个模型都要单独配置api_key、base_url、请求头格式、流式开关逻辑……代码里堆满条件判断; * 测试环境用的是本地Ollama的Qwen2,生产环境切到百度千帆的文心一言4.5,一改base_url和模型名,就报400 Bad Request——原来千帆不支持OpenAI原生的temperature字段命名,得改成top_p; * 运维同事半夜被报警电话叫醒:“线上服务崩了!查了一小时发现是讯飞星火的API密钥过期了,但没人知道它被用在哪个微服务里……” 这些问题,不是你代码写得不够好,而是缺一个统一的API网关层。 这不是一个需要你从零搭建的复杂系统,而是一个真正“开箱即用”的镜像——它把所有主流大模型(包括ChatGLM、文心一言、通义千问、讯飞星火等)的差异全部封装掉,对外只暴露标准的OpenAI API