和 AI 玩海龟汤差点崩溃:它永远比我多知道 100 个隐藏真相

和 AI 玩海龟汤差点崩溃:它永远比我多知道 100 个隐藏真相

关于海龟汤

第一次接触海龟汤时,我还以为这是某种美食烹饪挑战,直到朋友抛出第一个谜题 ——“一个人走进酒吧,要了一杯水,酒保却掏出一把枪对准他,可这个人不仅没害怕,反而说了声谢谢离开了”,才惊觉这是场烧脑的逻辑游戏。海龟汤,学名情境猜谜,玩家只能通过提问获取 “是”“否” 或 “无关” 的回答,一步步拼凑出汤底背后的完整故事。这种用有限线索破解无限想象的过程,就像在黑暗中摸索开关,每次提问都是试探,当真相突然亮起时,那种恍然大悟的快感让人上瘾。

image.png

作为计算机专业的学生,我常在蓝耘 API 的助力下完成课程设计。有次用它处理文本数据时,突然冒出个想法:既然海龟汤的本质是文本逻辑交互,为什么不做一款属于自己的海龟汤游戏?
最初的念头源于对解谜的热爱。深夜和朋友玩海龟汤时,看着大家为了一个谜题争论到面红耳赤,最后被反转的汤底惊得笑出眼泪,我意识到这种互动游戏的魅力。市面上虽然有不少海龟汤游戏,但要么谜题老套,要么交互不够灵活。我想用蓝耘 API 的高反应速度和灵活度,打造一款能实时生成新谜题、根据玩家提问动态调整线索的游戏,让每场推理都充满新鲜感。

为什么使用蓝耘api呢?

作为一名计算机专业的学生,在完成课程设计和参与项目实践时,API 的选择直接影响着我的 “肝代码” 效率和最终成果。在踩过无数 “坑” 后,蓝耘 API 就像发现新大陆一样,成为我在开发路上的得力助手,特别是它反应速度快、灵活度高、量大还便宜的特点,完全精准戳中了学生党的需求!

image.png

蓝耘 API 支持多种编程语言和调用方式,无论是 Python、Java 还是其他语言,都能轻松适配。在开发一个图像识别小项目时,我可以根据自己的需求自由调整参数,实现个性化的功能。而且,它的接口设计非常人性化,即使是我这样的 “学生小白”,对照着详细的文档和示例代码,也能快速上手,大大节省了学习成本和开发时间。

image.png

对于学生党来说,“量大” 简直是蓝耘 API 的 “绝杀技”。做项目时,数据需求量大是常有的事,要是 API 调用次数有限制,分分钟就会 “弹尽粮绝”。蓝耘 API 提供的调用额度十分慷慨,完全能满足我日常学习和项目实践的需求,再也不用担心因为调用次数不够而中断开发。

image.png

最最关键的是,蓝耘 API 的价格对学生党太友好了!没有高昂的授权费用,性价比超高。相比其他动不动就 “大出血” 的 API,它简直是 “良心之选”。省下的钱,我还能多买两杯奶茶犒劳辛苦写代码的自己。

image.png

使用ai完成蓝耘api的本地调用

我们先进行api的获取以及你需要知道你要调用的模型的编号和申请api
模型编号的话你来到模型广场,点击一个模型,然后名字下面就会有ai模型的编号,将这个进行复制操作

image.png


然后进行api的创建
点击创建api并且进行复制操作

image.png


来到api调用的文档
我这里选择的是py代码进行ai的调用,你需要将你的api和要调用的模型名称粘贴进去

image.png
from openai import OpenAI # 构造 client client = OpenAI( api_key="sk-xxxxxxxxxxx", # APIKey base_url="https://maas-api.lanyun.net/v1", ) # 流式 stream = True # 请求 chat_completion = client.chat.completions.create( model="/maas/deepseek-ai/DeepSeek-R1", messages=[ { "role": "user", "content": "你是谁", } ], stream=stream, ) if stream: for chunk in chat_completion: # 打印思维链内容 if hasattr(chunk.choices[0].delta, 'reasoning_content'): print(f"{chunk.choices[0].delta.reasoning_content}",) # 打印模型最终返回的content if hasattr(chunk.choices[0].delta, 'content'): if chunk.choices[0].delta.content != None and len(chunk.choices[0].delta.content) != 0: print(chunk.choices[0].delta.content,) else: result = chat_completion.choices[0].message.content 

打开vscode我们对ai说出你的提示词,让ai帮你开发一个具体的应用就行了

image.png


image.png


image.png

经过几轮调试我们也是生成好了
代码生成好了之后,我们直接在终端输入命令python main.py
运行之前一定记得将你的依赖都安装好,一般ai是会帮你搞好的
下面是我们进行了几轮的对话,看起来效果还是很不错的,你如果也想有这么好的效果的话,你得给你的蓝耘ai设置下prompt

image.png


下面是部分的代码,可以参考下

import gradio as gr import json import requests API_KEY = "sk-xxxxxxxxxxxxxxxxxxxxxx" API_URL = "https://maas-api.lanyun.net/v1/chat/completions" def get_initial_riddle():     headers = {         "Content-Type": "application/json",         "Authorization": f"Bearer {API_KEY}"     }     data = {         "model": "/maas/qwen/QwQ-32B",         "messages": [             {                 "role": "user",                 "content": "请你扮演一个出题人,给我出一道海龟汤题目。请按照以下格式输出:1. 题目描述 2. 正确答案。请确保题目有趣且富有创意。"             }         ],         "stream": False     }     response = requests.post(API_URL, headers=headers, json=data)     response_data = response.json()     return response_data['choices'][0]['message']['content'] def check_answer(user_answer, history):     headers = {         "Content-Type": "application/json",         "Authorization": f"Bearer {API_KEY}"     }     messages = [         {"role": "assistant", "content": history[0][1]},  # 原题目和答案         {"role": "user", "content": f"玩家的回答是:{user_answer}。请你判断这个回答是否接近正确答案,如果正确就表扬他,如果错误就给出一些提示,但不要直接告诉答案。"}     ]     data = {         "model": "/maas/qwen/QwQ-32B",         "messages": messages,         "stream": False     }     response = requests.post(API_URL, headers=headers, json=data)     response_data = response.json()     ai_response = response_data['choices'][0]['message']['content']     history.append((user_answer, ai_response))     return "", history def create_new_riddle(history):     new_riddle = get_initial_riddle()     history = [(None, new_riddle)]     return history with gr.Blocks(theme=gr.themes.Soft()) as demo:     chatbot = gr.Chatbot(         [],         elem_id="chatbot",         bubble_full_width=False,         avatar_images=(None, "🤖"),     )     with gr.Row():         txt = gr.Textbox(             scale=4,             show_label=False,             placeholder="请输入你的答案...",             container=False,         )         submit_btn = gr.Button("提交", scale=1)     new_riddle_btn = gr.Button("出新题")     txt.submit(check_answer, [txt, chatbot], [txt, chatbot])     submit_btn.click(check_answer, [txt, chatbot], [txt, chatbot])     new_riddle_btn.click(create_new_riddle, [chatbot], [chatbot])     demo.load(create_new_riddle, [chatbot], [chatbot]) if __name__ == "__main__":     demo.launch() 

总结

开发过程中,蓝耘 API 的高效响应为谜题秒级生成提供支持,灵活的接口适配让玩法设计不受束缚,超大调用量与亲民价格,则为游戏的持续优化与迭代保驾护航。学生时代敢想敢做的冲劲,配合技术工具的赋能,让这款融合了创新思维与硬核实力的游戏得以成型。
如果你也对api调用感兴趣,不妨来试试蓝耘呢

image.png


用下方链接就ok了

https://cloud.lanyun.net//#/registerPage?promoterCode=0131

Read more

Stack-Chan机器人完整入门指南:从零开始构建你的可爱机器人伙伴

Stack-Chan机器人完整入门指南:从零开始构建你的可爱机器人伙伴 【免费下载链接】stack-chanA JavaScript-driven M5Stack-embedded super-kawaii robot. 项目地址: https://gitcode.com/gh_mirrors/sta/stack-chan Stack-Chan是一个基于JavaScript驱动的M5Stack嵌入式超级可爱的机器人项目。这个开源项目让你能够轻松构建一个会眨眼、会转头、会说话的智能机器人伙伴。无论你是嵌入式开发新手还是经验丰富的开发者,都能快速上手这个充满乐趣的项目。 🎯 项目核心亮点 超强可爱属性:Stack-Chan拥有多种可爱的面部表情,能够进行眼神交流,让你的机器人充满个性魅力。 模块化设计:项目采用高度模块化的架构,支持多种舵机驱动、面部渲染器和功能扩展,让你的定制变得简单而灵活。 丰富功能生态:支持人脸追踪、语音对话、表情模仿等智能功能,为你的机器人注入灵魂。 📦 项目快速入门 环境准备与代码获取 首先克隆项目仓库到本地: git clone ht

FPGA小白学习日志一:LED的点亮

1.工程准备 首先建立一个名为led的工程文件夹,文件夹下包含了doc、quartus_prj、rtl、sim四个子文件夹: 那么我们来分析各个文件夹包含了什么: doc:该文件夹主要包含了文档资料、数据手册、Visio波形等,相当于档案库; quartus_prj:该文件夹主要包括了使用Quartus II软件新建的工程,相当于操作台; rtl:该文件夹主要放置生成硬件电路的代码,相当于原材料; Sim:该文件夹放置对生成硬件电路代码的仿真文件,相当于质检室;     这四个文件夹各自完成不同的分工,但是它们之间有什么联系呢?答案是:他们之间通过路径关联和文件引用,形成一个完美的FPGA开发闭环。quartus_prj作为工程中枢,向上访问doc读取说明,向下访问rtl获取硬件代码,向外访问sim获取仿真脚本;sim向上访问rtl在逻辑上验证硬件代码的正确性。 2.设计过程    无论我们使用FPGA做什么类型的项目时,我们都要参照一个具体的流程,这里就介绍我自己的开发流程: 1.看手册和原理图,搞清楚我们需要实现什么功能,就像做饭时我们需要看食谱,要知道自己吃什么。

【Microi 吾码】基于 Microi 吾码低代码框架构建 Vue 高效应用之道

【Microi 吾码】基于 Microi 吾码低代码框架构建 Vue 高效应用之道

我的个人主页 文章专栏:Microi吾码 引言 在当今快速发展的软件开发领域,低代码开发平台正逐渐崭露头角,为开发者们提供了更高效的应用构建途径。Microi 吾码低代码框架结合 Vue的强大前端能力,更是为打造高效应用提供了绝佳的组合。在这里,我将深入探讨如何基于 Microi 吾码低代码框架构建 Vue 高效应用。 Microi吾码官网: https://microi.net GitEE开源地址: microi.net: 一:Microi吾码安装指南 1、系统要求 * 操作系统:支持Windows、Linux等主流操作系统。 * 数据库:需要安装并配置支持的数据库,如MySql5.5+、SqlServer2016+、Oracle11g+等。 * 其他软件:安装.NET 8 SDK、Redis,并且最好安装Git用于代码获取。对于一些高级功能,可能还需要安装Docker、MinIO、MongoDB、RabbitMQ、

【保姆级教程】从零部署宇树 Unitree 机器人 ROS 2 环境 (Go2/B2/H1) (Humble + 真实硬件)

摘要 本文为希望在ROS 2 (Humble) 环境下开发宇树 (Unitree) 机器人(支持 Go2, B2, H1)的开发者提供了一篇详尽的、从零开始的部署指南。我们将首先在 Ubuntu 22.04 上安装 ROS 2 Humble,然后重点讲解如何配置 unitree_ros2 功能包,实现 ROS 2 节点与机器人底层 DDS 系统的直接通信。本教程基于官方文档,并针对 Humble 环境进行了优化,可跳过 Foxy 版本复杂的 CycloneDDS 编译步骤。 核心环境: * 操作系统: Ubuntu 22.04 (Jammy) * ROS 2 版本: Humble