[Python 基础课程]猜数字游戏

[Python 基础课程]猜数字游戏

使用 Python 实现一个猜数字游戏,先随机生成一个 1 到 100 之间的一个随机整数,让用户猜测这个数是什么,每次都提示用户猜大了还是猜小了,如果用户猜对了,提示用户猜对了,用了多少次,并且之前每一次的猜测数字都是什么。

前置知识

从控制台中读取用户输入

guess =int(input("请输入你的猜测:"))

生成一个 1 到 100 之间的随机整数:

import random secret_number = random.randint(1,100)

答案

import random # 生成 1 到 100 之间的随机整数# random.randint(a, b) 会生成一个 a 和 b 之间(包括 a 和 b)的整数 secret_number = random.randint(1,100)print("我已经想好了一个 1 到 100 之间的数字,你来猜猜看!")# guess_count 用于记录猜测的次数 guess_count =0# guess_history 列表用于存储每次猜过的数字 guess_history =[]# 无限循环,直到用户猜对whileTrue:try:# 获取用户输入的猜测数字 user_guess =int(input("请输入你的猜测:"))# 每次猜测都将数字添加到历史列表中 guess_history.append(user_guess)# 猜测次数增加 guess_count +=1# 判断猜测结果if user_guess < secret_number:print("猜小了!")elif user_guess > secret_number:print("猜大了!")else:# 猜对了print(f"恭喜你,猜对了!我想的数字就是 {secret_number}。")print(f"你总共猜了 {guess_count} 次。")print("你的猜测历史是:", end="")# 使用 join 方法将列表中的数字用逗号和空格连接起来,方便打印print(', '.join(map(str, guess_history)))# 猜对后跳出循环breakexcept ValueError:# 处理用户输入非数字的情况print("输入无效,请输入一个整数。")

Read more

Whisper-large-v3多任务并行:同一服务同时运行转录/翻译/摘要三模式

Whisper-large-v3多任务并行:同一服务同时运行转录/翻译/摘要三模式 基于 OpenAI Whisper Large v3 构建的多语言语音识别 Web 服务,支持 99 种语言自动检测,可同时运行转录、翻译和摘要三种处理模式。 1. 项目概述与核心价值 Whisper-large-v3 是 OpenAI 推出的强大语音识别模型,拥有 15 亿参数,支持 99 种语言的自动检测与转录。本项目基于该模型二次开发,构建了一个支持多任务并行的 Web 服务,可以在同一服务中同时处理语音转录、文本翻译和内容摘要三种任务。 传统语音识别服务的痛点: * 需要部署多个服务处理不同任务 * 数据在不同系统间流转效率低 * 维护成本高,资源利用率低 本方案的创新价值: * 单服务集成三大核心功能 * 减少数据传输开销,提升处理效率 * 统一接口简化开发集成 * 最大化利用 GPU 资源 通过这个方案,你可以用一段音频输入,

By Ne0inhk

MCP AI Copilot开发实战精要(从入门到考试通过的完整路径)

第一章:MCP AI Copilot开发实战精要概述 在构建现代AI驱动的开发辅助系统时,MCP AI Copilot作为集成化智能编程助手,展现出强大的代码生成、上下文理解与自动化建议能力。其核心在于将大型语言模型与开发环境深度耦合,实现从需求分析到代码落地的无缝衔接。 架构设计原则 * 模块化服务设计,确保各功能组件可独立升级 * 低延迟响应机制,采用异步推理与缓存策略优化用户体验 * 安全沙箱环境,隔离敏感操作防止恶意代码执行 关键配置示例 { "model": "mcp-ai-copilot-v2", // 指定使用模型版本 "enable_context_learning": true, // 启用上下文学习能力 "max_tokens": 512, // 响应最大token数 "temperature": 0.7 // 控制生成多样性 } 该配置文件用于初始化AI Copilot服务实例,通过API网关加载至IDE插件中。 典型工作流

By Ne0inhk
【文心智能体】使用文心一言来给智能体设计一段稳定调用工作流的提示词

【文心智能体】使用文心一言来给智能体设计一段稳定调用工作流的提示词

🌹欢迎来到《小5讲堂》🌹 🌹这是《文心智能体》系列文章,每篇文章将以博主理解的角度展开讲解。🌹 🌹温馨提示:博主能力有限,理解水平有限,若有不对之处望指正!🌹 目录 * 前言 * 智能体信息 * 名称 * 简介 * 人设 * 开场白 * 工作流 * 消息节点 * 文本处理节点 * 插件节点 * 图片消息节点 * 输出效果 * 小技巧 * 一、结构化框架设计 * 1. **角色定位+任务拆解** * 2. **四要素公式法** * 二、多轮对话优化 * 1. **分步骤引导** * 2. **示例参考法** * 三、细节强化技巧 * 1. **输出格式标准化** * 2. **专业术语与风格** * 四、避免常见误区 * 1. **模糊需求导致输出偏差** * 2. **过度复杂导致理解困难** * 相关文章

By Ne0inhk
Llama-2-7b在昇腾NPU上的六大核心场景性能基准报告

Llama-2-7b在昇腾NPU上的六大核心场景性能基准报告

引言 随着大语言模型(LLM)技术的飞速发展,其底层算力支撑硬件的重要性日益凸显。传统的GPU方案之外,以华为昇腾(Ascend)为代表的NPU(神经网络处理单元)正成为业界关注的焦点。为了全面、深入地评估昇腾NPU在实际LLM应用中的性能表现,我们进行了一项针对性的深度测评。本次测评选用业界广泛应用的开源模型Llama-2-7b,在 Atlas 800T A2 训练卡 平台上进行部署、测试与分析,旨在为开发者和决策者提供一份详实的核心性能数据、深度的场景性能剖析、以及可靠的硬件选型与部署策略参考。 模型资源链接:本项目测评使用的模型权重及相关资源可在 GitCode 社区获取:https://gitcode.com/NousResearch/Llama-2-7b-hf 一、 测评环境搭建与准备 扎实的前期准备是确保测评数据准确可靠的基石。本章节将详细记录从激活昇腾NPU计算环境到完成所有依赖库安装的全过程,确保测试流程的透明与可复现性。 1.1 激活NPU Notebook实例 我们通过GitCode平台进行本次操作。首先,需要进入项目环境并激活一个Notebook实例,这

By Ne0inhk